Die Workshops werden in Zusammenarbeit mit den Partnern der Informatiktage durchgeführt. Teilnehmende Studierende können sich jeweils einem Workshop zuordnen. Die Anzahl der Teilnehmer soll 10-15 Personen nicht überschreiten. Die Zuordnung folgt nach Einladung zu den Informatiktagen. Studierende können sich aber auch direkt auf eines der Workshopthemen bewerben. Auf dieser Seite finden Sie alles Wissenswerte zu den Workshops. Die Seite wird sukzessive erweitert.

 

Vor dem Hintergrund der sich zunehmend verschärfenden Wettbewerbsbedingungen sehen sich viele Unternehmungen vor der Herausforderung, Kosteneinsparungspotentiale in sämtlichen Unternehmensbereichen zu identifizieren und zu evaluieren. Folglich haben sich auch die Anforderungen an die Informationstechnologie (IT) als Basis für die Unterstützung sämtlicher Geschäftsprozesse wesentlich erschwert. So muss die IT einerseits hoher Flexibilität genügen, um durch technologische Agilität die Wettbewerbsfähigkeit der Unternehmung in sich schneller verändernden Märkten zu gewährleisten. Andererseits muss die IT jedoch möglichst wirtschaftlich betrieben werden, ohne Abstriche in ersterem – der Flexibilität – hinnehmen zu müssen. Einen Ausweg in diesem Dilemma sehen viele Unternehmen im Gedanken der Konsolidierung der IT. Unter IT-Konsolidierung versteht man im Allgemeinen: „Hardware, Software, Prozesse und Ressourcen so zu bündeln und aufeinander abzustimmen, dass Synergien möglichst vollständig ausgeschöpft und Redundanzen und Reibungsverluste eliminiert werden“.

 

Im Rahmen dieses Workshops haben die Teilnehmer die Möglichkeit, sich in die „Real Life“-Rolle eines Unternehmensberaters der Firma BearingPoint zu versetzen. Basierend auf einer umfassenden Fallstudie stellen sich die Teilnehmer der Herausforderung, den Vertretern eines potentiellen Kunden – ein global agierendes Industrieunternehmen – ein Angebot zu unterbreiten, in dem sie beschreiben, wie Sie die derzeit dezentral aufgestellte IT des Kunden analysieren, um durch die Erarbeitung verschiedener IT-Strategie-Szenarien die kostenoptimale IT-Strategie zu ermitteln. In einer abschließenden Präsentation haben die Teilnehmer die Möglichkeit den Kundenvertretern ihre Lösungswege vorzustellen.

 

Kontakt:

Anja Grothausmann, E-Mail

Prof. Dr. Jens Lüssem, E-Mail

Die Informationen, die in einem Unternehmen heute verarbeitet werden müssen, verdoppeln sich etwa pro Jahr. Desweiteren müssen immer mehr Informationen in Entscheidungsprozesse einbezogen und diese Entscheidungen auch schneller getroffen werden. Für viele Unternehmen ist es daher essentiell, die anfallenden Daten so abzulegen, dass qualifizierte Informationen entstehen und alle Entscheidungsträger einen direkten Zugriff auf diese Informationen haben. In einem zweiten Schritt müssen die Unternehmen Wissensträger identifizieren und das Know-how der einzelnen Mitarbeiter für das Unternehmen nutzbar machen und für die Zukunft sichern.

 

Ziel des Workshops ist es, die Anforderungen an ein effizientes Informationsmanagement zusammenzutragen und auf eine allgemeine Basis zu stellen. Ergänzend sollen die ersten Schritte zu einem Wissensmanagement diskutiert werden. Entsprechend sollen in diesem Workshop Arbeiten und Beiträge zu folgenden Themen vorgestellt und diskutiert werden:

 

  • Informationsquellen und -senken - Berichte und Analysen aus der Praxis
  • Information Lifecycle Management
  • Wissen identifizieren und nutzbar machen
  • Wissensmanagement als Herausforderung der Zukunft

 

 

Bei den eingereichten Kurzpapieren wird Wert auf Praxisefahrungen einerseits und ein Brainstorming andererseits gelegt. Im Sinne eines intensiven Austausches und einer Vermehrung des Wissens sollen sich die Beiträge nicht auf die o.g. Punkte beschränken.

 

Leitung:

Dr. Jochen Berger - Comma Soft AG Frankfurt am Main, E-Mail

Prof. Dr. Rainer Beedgen, Berufsakademie Mannheim, E-Mail

 

Nach oben

"Ein Data-Warehouse ... ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher Quellen zusammensetzt. Die Daten werden von den Datenquellen in das Data-Warehouse geladen und dort vor allem für die Datenanalyse und zur betriebswirtschaftlichen Entscheidungshilfe in Unternehmen langfristig gespeichert. ... Daten werden im Rahmen des ETL-Prozesses aus verschiedenen Quellen extrahiert, durch Transformation bereinigt und vereinheitlicht, um danach in das Data-Warehouse geladen zu werden."

(Quelle: de.wikipedia.org)

 

Data Warehouses, die von vielen verschiedenen Quellen Daten zusammenführen müssen, unterliegen einer besonderen Herausforderung: DWH-Architekturen und ETL-Prozesse sind grundlegend für die Qualitätssicherung und Integration der Daten. Im allgemeinen geschieht dies durch eine stufenweise Aufbereitung (Transformation, Bereinigung, Aggregation, Anreicherung etc.) der Quelldaten, bis sie vollständig und in der gewünschten Form zur Analyse (ggf. auch zur Weiterverarbeitung) genutzt werden können.

 

Ziel dieses Workshops ist es, verschiedene DWH-Architekturen und ETL-Prozesse der Praxis mit einander zu vergleichen, Gemeinsamkeiten und Unterschiede herauszuarbeiten und Referenzarchitekturen und -prozessen gegenüberzustellen. Dabei ist immer mit von Interesse, mit welcher Zielsetzung und unter welchen Rahmenbedingungen eine Architektur oder ein Prozess gewählt wurde und / oder wann der Einsatz empfohlen werden kann. Entsprechend sollen in diesem Workshop Arbeiten und Beiträge zu folgenden Themen vorgestellt und diskutiert werden:

 

  • DWH-Architekturen
  • ETL-Prozesse und Staging-Konzepte
  • Referenzarchitekturen und -prozesse
  • Einsatzempfehlungen für DWH-Architekturen, ETL-Prozesse und Staging-Konzepte

 

Eingereichte Kurzpapiere (Umfang: 3 Seiten plus Literaturverzeichnis) sollten sich einem dieser Schwerpunkte zuordnen lassen. Praxiserfahrungen sind von besonderem Interesse. Einreichungen zu diesem Thema bitte an Ludger Porada, E-Mail und an den Workshopleiter.

 

Workshopleitung:

 

Dr. Oliver Wiegert; E-Mail

 

 

Nach oben

Nicht nur im Rahmen der immer weiter fortschreitenden Miniaturisierung von Mikrocontroller sondern auch durch interessante verwertbare Effekte von Nanostrukturen – v.a. im Bereich der Werkstoffe – ist Nanotechnologie eines der aktuellen Leitthemen in Wissenschaft und Forschung.

 

Mit der Nanotechnologie fließen neuartige Lösungsmöglichkeiten in verschiedenste Produktionszusammenhänge ein. Darüber hinaus werden mit der Verwendung von Nanotechnologie eine Reihe von Problemen, z.B. in Bezug auf Rechnerarchitekturen und SI-Entwurfsmethoden, sowie Fragestellungen, z.B. hinsichtlich des Verhaltens von Nanostrukturen bzw. der Nutzbarkeit selbstorganisierender, selbstanordnender Stukturen, aufgeworfen.

 

Beiträge zum Workshop können Bezug auf folgende Themen nehmen, müssen sich jedoch nicht darauf beschränken:

 

  • Einsatzmöglichkeiten für Nanochips (lebenslanges Tagebuch, persönliche Informations-, Kommunikations- und Unterhaltungskonzepte bis hin zur Realisierung einer virtuellen Umgebung, laufende und unauffällige Kontrolle gesundsheitsrelevanter Körperfunktionen, Unterstützung des Gedächtnisses durch im Körper eingebaute Nanochips)
  • Speichervolumen „ohne Ende“
  • Simulationen von Funktionen der Nanostrukturen
  • Konsequenzen der Nanochips für Rechnerarchitekturen (z.B. Konsequenzen für die Rechnerarchitektur durch Minimalisierung der Isolationsschicht von PC-Prozessoren und der damit einhergehenden Beschleunigung unter dem Kriterium der Zuverlässigkeit)
  • Nanobiologie: Erfassen und Beschreiben komplexer Wechselwirkungsnetzwerken von Genen und Proteinen
  • Nanobiologie/Informatik: Untersuchung der "Intelligenzdichte" von Zellen und die Nutzbarmachung in der Informatik (Beschleunigung und Verdichtung von Hardware und Software nicht nur durch schnellere und kleinere Prozessoren, sondern durch intelligente Zellen. Darunter auch: Nanobiologie der Gehirnforschung)

 

In den Beiträgen können sowohl Ideen (z. B. als „Brainstorming“) oder Realisierungen dargestellt werden als auch Fragstellungen theoretisch untersucht werden (z.B. Lösbarkeits- und Komplexitätsbetrachtungen). Ebenso sind Beiträge willkommen, die sich mit der Machbarkeit im weiteren Sinne und mit Technikfolgen (Lebenswelt in Alltag und Beruf, Ethik, Sicherheit, Recht, Markt und Wettbewerb etc.) beschäftigen.

 

Im Workshop sollen die Beiträge diskutiert werden. Eingereichte Kurzpapiere im Umfang von 3 Seiten plus Literaturverzeichnis sollten sich möglichst einem der genannten Themen zuordnen. Erfahrungen aus der Praxis dürfen gerne eingebracht werden.

 

Workshop-Ansprechpartner:

 

Dr. Detlev Zimmermann, Private FernFachhochschule Darmstadt, E-Mail
Dr. Johannes Windeln, IBM Mainz

 

Der Workshop Nanotechnologie wird mit freundlicher Unterstützung von IBM Deutschland GmbH <www.ibm.com> durchgeführt.

 

 

 

Im Rahmen des Workshops werden Mechanismen zur Gewährleistung von Sicherheit im Rahmen des Online-Bankings betrachtet. Dabei wird Online-Banking synonym zum Begriff Internet-Banking benutzt. Unterstellt wird also die Nutzung des Mediums Internet zur Ausführung von Bankgeschäften.

 

Ungefähr die Hälfte der Inhaber eines Internetzugangs in Deutschland nutzen für ihr Girokonto die Angebote des Online-Banking. Dagegen greift nur jeder Zehnte auf die Angebote des Online-Brokerage bzw. der Onlineversicherungen zurück - allerdings mit steigender Tendenz. (Quelle: Stopka, U.; Softwareergonomische Gestaltung und Usability von Onlineangeboten. In: Petzel, E. (Hrsg.): E-Finance. Gabler-Verlag (2005)). Vor dem Hintergrund dieser Entwicklung kommt der Sicherheit der getätigten Transaktionen eine extrem wichtige Rolle zu.

 

Im Rahmen des Workshops werden neben Grundlagen der Kryptographie wesentliche Sicherheitsmechanismen im Rahmen für das Online-Banking vorgestellt. Ziel ist unter anderem die objektive Bewertung dieser Mechanismen vor dem Hintergrund potentieller Angriffsmöglichkeite, insbesondere der in Deutschland aufkommenden Angriffe durch Phishing, Pharming und kriminelle Software.

 

Beiträge zum Workshop können Bezug auf folgende Themen nehmen, müssen sich jedoch nicht darauf beschränken:

 

  • Angriffsmethoden und -techniken
  • Kryptographische Techniken (Symmetrische, asymmetrische Verfahren, Digitale Signaturen).
  • Techniken zur Transaktionssicherung (TAN, iTAN, mTAN, ...)
  • Online-Banking-Applikationen
  • Sicherheitstechniken im Browser
  • Sicherheitsbewusstsein bei Kunden
  • Techniken aus dem Bereich Zero-Knowledge

 

Leitung:

Prof. Dr. Eberhard Stickel, E-Mail

Nach oben

Verbesserungen bei Zeit, Kosten und Qualität markieren den Eintritt der Softwarebranche in die Industrialisierung. Dieser Workshop zeigt das neue Verfahren der automatischen Transformation von Modellen in vollständige Applikationen, das von einem Team um Professor Oscar Pastor an der Polytechnischen Universität von Valencia entwickelt wurde. Es eignet sich für alle datenbank¬basierten Anwendungen und ist mit dem Grundprinzip von MDA verwandt. Im Workshop wird die Funktionsweise des Olivanova Modelers behandelt. Als Beispiel-Modell wird ein CRM gezeigt und nachträglich bearbeitet, sodass daraus eine Client/Server-Applikation in wahlweise C#, Java oder VB6 generiert wird. Voraussetzungen sind ein Laptop, MS Visual Studio 6.0 oder 2003 entsprechend für VB6 und/oder C# oder Eclipse für Java und eine installierte relationale Datenbank (MSSQL, mySQL, etc.).

 

 

Die ganze Branche steht vor einem Paradigmenwechsel. Wenn sich ein ganzer Berufszweig verändert, zieht dies immer auch Veränderungen der Denkmuster bei den betroffenen Menschen nach sich. Menschen besitzen allerdings ein großes Beharrungsvermögen und sträuben sich bei Veränderungen. Dieses Sträuben war in allen Wellen der Industrialisierung besonders stark ausgeprägt. Was vorher manuell erledigt wurde, sollte von einem Tag auf den anderen eine Maschine erledigen. In die Berufsinhaber wurde die Erwartung gesetzt, zu akzeptieren, dass die Maschine schneller, günstiger und sogar besser produziert als der Mensch.

 

Das Modellierwerkzeug OLIVANOVA Modeler hilft, die Anforderungen präzise im Modell zu erfassen

Software-Architekten von integranova warten am liebsten erst gar nicht, bis ihre Kunden ein Word-Dokument mit den Anforderungen erstellt haben. Im Gespräch mit dem Experten kann der Auftraggeber stattdessen seine Anforderungen beschreiben, während der Analyst die Daten bereits ins Modell eingibt und Rückfragen stellt, die sich aus dem Kontext ergeben.

Dafür verwendet der Analyst das Modellierwerkzeug OLIVANOVA Modeler. Das zu erstellende Modell besteht aus vier Ansichten: aus einem statischen, einem funktionalen, einem dynamischen und einem Präsentations-Modell. Im statischen Modell werden alle Objekte und User-Profile definiert. Im funktionalen Modell erfasst der Software-Architekt die benötigten Transaktionen und Formeln. Das dynamische Modell gibt über das Laufzeitverhalten der Software Auskunft. Im Präsentationsmodell schließlich wird das GUI vordefiniert. Das GUI lässt sich später dem individuellen Corporate Design des Kunden anpassen.

 

Fertige Modelle werden automatisch in Programmcode transformiert

OLIVANOVA – Die Programmiermaschine erstellt nach dem Modellieren keine Code-Skelette, die mit Logik befüllt werden müssen. Stattdessen generiert die Programmiermaschine den kompletten Source Code einer Client/Server-Applikation.

Als Programmiersprachen stehen zur Auswahl C#, Java und VB6.

Die Programmiermaschine zwingt ihren Nutzer geradezu, das Modell ständig auf aktuellem Stand zu halten, um beispielsweise eine Migration auf eine andere Plattform zu vollziehen. Änderungen werden ausschließlich im Modell eingepflegt.


Leitung:

Bernd Liesner E-Mail

Prof. Dr. Klaus Schmid, Universität Hildesheim, E-Mail

Nach oben

Spieleentwicklung mit dem XNA Game Studio Express Spieleentwicklung ist - auch wenn das Endprodukt der Unterhaltung dient - eine der anspruchsvollsten Aufgaben, denen sich moderne IT widmet. Nirgends sonst kommen so viele verschiedene Aspekte der Informatik zusammen wie hier. Dieser Workshop will einen Eindruck davon vermitteln, welche Schritte zu einem Spieletitel führen, welches Wissen dazu benötigt wird und beleuchtet am Beispiel von XNA Game Studio Express die Entwicklungstechnologien, die im .NET Umfeld für die Managed Code Entwicklung auf Windows und Xbox bereit stehen.

 

Leitung des Workshops: Dirk Primbs, E-Mail

Nach oben

Beschreibung:

Die Industrie steht heute in einer Umbruchphase, in der für den Unternehmenserfolg nicht mehr einmalig optimierte Geschäftsprozesse entscheidend sind, sondern die höchste Flexibilität bei der Anpassung der Geschäftsprozesse an sich wandelnde Marktbedingungen. Der Unternehmens-IT kommt dabei die entscheidende Rolle zu. Sie hat die Aufgabe diese Flexibilität zu unterstützen, indem sie in immer kürzeren Zyklen neue Geschäftsprozesse abbildet und bei Änderungen der Unternehmensstruktur die Anwendungslandschaft flexibel umgestaltet. Gleichzeitig sieht sich die Unternehmens-IT einem Kostendruck ausgesetzt, der eine fortwährende Weiterentwicklung oder Ablösung bestehender Systeme nach klassischem Vorgehen in unabhängigen IT-Projekten verbietet.

Der Ansatz der Serviceorientierten Architektur (SOA) verspricht dieses Dilemma aufzulösen. Bei dieser Herangehensweise werden bestehende und neue Anwendungen über Services lose gekoppelt. Diese lose Kopplung ersetzt die verflochtenen Schnittstellen, die in den Integrationsprojekten der Vergangenheit mit jeweils individueller Technik erstellt worden sind. Die Services exportieren die fachlichen Funktionen der Anwendungen, aber verbergen deren systemtechnische Spezifika. Diese fachliche Orientierung sowie die Vereinheitlichung der Technik eröffnen die Möglichkeit, neue Anwendungen durch Wiederverwendung von Services bestehender Komponenten zu realisieren, ohne die Entwicklungskosten herkömmlicher Softwareprojekte zu verursachen.

 

Mit dem Paradigma der Serviceorientierten Architektur stellen sich aber auch spezifische Fragen:

 

  • Wie findet man die richtigen Services? Welche fachlichen und technischen Schnittkriterien gibt es, welche Granularität brauchen Services, gibt es wiederverwendbare Architekturmuster für Serviceorientierte Architektur, wie gut sind Domänenmodelle für Geschäftsfelder für die Servicedefinition geeignet, wie hilft z.B. ESA bei der Servicemodellierung?
  • Wie werden Services modelliert und umgesetzt? Welche Elemente müssen bei der Service-Beschreibung berücksichtigt werden? Wie sehen Kombinationen aus SOA und MDA aus, wie helfen Domänenmodelle für Geschäftsfelder bei der Modellierung?
  • Wie kann Orchestrierung in einer SOA genutzt werden? Welche Kriterien gibt es für Orchestrierung über Prozesse, wann macht eine Implementierung eines Services eher Sinn?
  • Wie kann der Nutzen einer SOA bestimmt werden? Welche Messkriterien gibt es, was sind die spezifischen Nutzenpotenziale von SOA, wie kann eine Datenbasis für die Nutzenbewertung geschaffen werden?
  • Wie wird eine SOA eingeführt? Wie sieht ein Vorgehensmodell aus, welche Risiken sind zu berücksichtigen, welche spezifischen Herausforderungen stellt eine SOA Einführung auf fachlicher, organisatorischer oder technischer Ebene?
  • Wie sicher muss SOA sein? Welche Sicherheitskonzepte und –techniken werden in welchen Situationen benötigt, wie kann effiziente Service-Kommunikation unter Berücksichtung von Authentifizierung und Autorisierung erfolgen?
  • Wie testet man eine SOA? Wie können Testtreiber / Test-Werkzeugen automatisiert bereitgestellt werden, wie werden Entwicklertests und Integrationstests unterstützt, wie sehen Vorgehensmodelle für das Testen einer SOA aus?

 

Im Workshop sollen Beiträge zu diesen Fragen diskutiert werden. Eingereichte Kurzpapiere sollten sich einem dieser Schwerpunkte zuordnen. Praxiserfahrungen dürfen eingebracht werden.

 


Leitung:

Tim Gugel, E-Mail

Prof. Dr. Alfred Zimmermann, Fachhochschule Reutlingen, E-Mail

Nach oben