Festschrift der Jungwissenschaftler 2007-2009 - Stiftung Werner

Transcription

Festschrift der Jungwissenschaftler 2007-2009 - Stiftung Werner
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 1
Stiftung
Werner-von-Siemens-Ring
Jungwissenschaftler
2007 – 2009
13
LISA, SOFIA und
die Quantenkommunikation –
Forschungsbeiträge von
Jungwissenschaftlern der
Stiftung Werner-von-Siemens-Ring
12
1816
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 2
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 3
Jungwissenschaftler 2007 – 2009
LISA, SOFIA und
die Quantenkommunikation –
Forschungsbeiträge von
Jungwissenschaftlern der
Stiftung Werner-von-Siemens-Ring
Schriften der Stiftung Werner-von-Siemens-Ring
Nr. 23 / 2009
Der Druck wurde gefördert durch den
Daimler-Fonds – Stiftung zur Förderung von Wissenschaft und Forschung
sowie Bildung und Erziehung.
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 4
Impressum
Stiftung Werner-von-Siemens-Ring
c / o DVT
WissenschaftsForum
Markgrafenstraße 37 · 10117 Berlin
www.siemens-ring.de
Vorsitzender des Stiftungsrates: Prof. Dr. Ernst O. Göbel
Geschäftsführer: Dipl.-Pol. Jörg Maas
Stiftungsregister Berlin: AZ 3416 / 208 - II.2
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 5
Inhalt
6
Vorwort
8
Wegbereiter auf der Suche nach Gravitationswellen: Herausforderungen der
Mission LISA Pathfinder Dipl.-Ing. Nico Brandt
16
Zwei Kernbereiche industrieller Mathematik – Schnelle Gleichungslöser und
innovative Tools zum „Robust Design“ Dr. Tanja Clees
22
Das Flugzeugobservatorium SOFIA – Infrarotastronomie von der Stratosphäre
aus Dipl.-Ing. Franziska Harms
30
Generation of Extreme Wave Sequences – From Capsizing Ships to Offshore
Structures in Hurricanes Dr. Janou Hennig
42
Statistische Signalverarbeitung für Kommunikationssysteme
Dr.-Ing. Michael Joham
48
Herausforderungen dezentraler Energiebereitstellung in zukünftigen
Stromnetzen Dr.-Ing. Martin Kautz
57
Neue Methoden der Planung und Steuerung von Produktentwicklungsprozessen Dr.-Ing. Thomas Naumann
62
Quantenkommunikation mit integrierter Optik PD. Dr. Christine Silberhorn
70
Integration von Systemmodellen, Organisationsmodellen und Kommunikation
in verteilten Softwareentwicklungsprojekten Dr. Timo Wolf
80
Lebensläufe
89
Mitglieder des Stiftungsrates
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 6
Vorwort
Die Stiftung Werner-von-Siemens-Ring zeichnet nicht nur herausragende Persönlichkeiten für ihre Leistungen auf technisch-wissenschaftlichem Gebiet aus, sondern sie fühlt sich auch dem wissenschaftlichen Nachwuchs verpflichtet. Die Förderung junger Menschen in einer Zeit, in der sie die Grundlagen für ihre spätere wissenschaftliche Karriere schaffen, ist der Stiftung daher ein besonderes Anliegen.
Alle drei Jahre benennen die im Stiftungsrat vertretenen Mitglieder
der Fachgesellschaften, in enger Abstimmung mit ihren Organisationen, junge Wissenschaftlerinnen und Wissenschaftler, die Anlass
zu der Vermutung geben, dass sie aufgrund ihres Talents und ihrer
Begeisterung Außergewöhnliches in ihren Fächern leisten werden.
Während ihrer Zeit als „Stipendiaten“ der Stiftung Werner-von-Siemens-Ring dürfen sie nicht nur an den Veranstaltungen der Stiftung
teilnehmen, sondern sie werden ermuntert, regelmäßig über sich
und die Fortschritte ihrer Forschungsprojekte, z. B. im Rahmen
einer Promotion, zu berichten.
Die Diskussionen, welche sich bei den Vorträgen ergeben, tragen
nicht nur bei den Stiftungsratsmitgliedern zur Erweiterung des Horizonts bei, sondern vermitteln auch den Jungwissenschaftlern einen
Eindruck über die Wahrnehmung ihres Projekts in einer interessierten und vorgebildeten Öffentlichkeit. Auf diese Weise entsteht oft
ein vertrauensvolles Verhältnis zwischen Jungwissenschaftler /
innen und Stiftungsratsmitgliedern, das gleichermaßen von Respekt
und Kollegialität geprägt ist.
6
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 7
Der vorliegende Band vereinigt Beiträge von allen Jungwissenschaftlerinnen und Jungwissenschaftlern, die die Stiftung seit 2007 aufgenommen hat. Die Vorträge wurden teilweise im Rahmen der Stiftungsratssitzung 2008 in Berlin gehalten, andere kamen später
hinzu. Sie geben Auskunft über aktuelle Forschungsstände in verschiedenen technischen Disziplinen und dienen den Stipendiaten
gleichzeitig zur Dokumentation ihrer Leistungen.
Ich wünsche allen Leserinnen und Lesern eine anregende Lektüre.
Prof. Dr. Ernst O. Göbel
Vorsitzender des Stiftungsrates
7
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 8
L U F T- U N D R A U M F A H R T T E C H N I K
Wegbereiter auf der Suche nach
Gravitationswellen: Herausforderungen
der Mission LISA Pathfinder
Dipl.-Ing. Nico Brandt
Einleitung
LISA Pathfinder (siehe Abbildung 1) ist ein Technologiesatellit der
Europäischen Raumfahrtagentur ESA mit Starttermin 2011. Ziel von
LISA Pathfinder ist es, die Schlüsseltechnologien der LISA (Laser Interferometer Space Antenna) Mission zu verifizieren. Das Missionsziel von LISA ist die direkte Detektierung von Gravitationswellen
und die Charakterisierung der kosmischen Quellen im MillihertzBereich. Der folgende Beitrag beginnt mit einem kurzen Einblick in
die Theorie der Gravitationswellen. Anschließend werden die besonderen technischen Herausforderungen bei der Entwicklung und
Implementierung von LISA Pathfinder dargestellt.
Abbildung 1: Der Satellit LISA Pathfinder
8
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 9
Raumzeit und Gravitationswellen
Gravitation nehmen wir als die Bewegung von Massen in Raum und
Zeit wahr. Genauer gesagt, bezeichnet man damit die Bewegung innerhalb der Geometrie der gekrümmten vierdimensionalen Raumzeit. Die Massenverteilung selbst krümmt die Raumzeit, die sich
wiederum dynamisch auf die Massenverteilung auswirkt, was
schließlich die Geometrie der Raumzeit verändert. Diese Aussagen
stammen aus der Allgemeinen Relativitätstheorie, die, von Albert
Einstein im Jahr 1915 aufgestellt, die Geometrie der Raumzeit beschreibt. Eine weitere, aus der Allgemeinen Relativitätstheorie abgeleitete Vorhersage Einsteins ist die Folgende: Die beschleunigte
Bewegung von Massen führt zu dynamischen Störungen der Raumzeit, die sich wellenförmig ausbreiten – den Gravitationswellen.
Wenn zum Beispiel Neutronensterne schnell umeinander kreisen
oder Schwarze Löcher kollidieren, werden Fluktuationen der Raumzeit erzeugt, vergleichbar mit Oberflächenwellen im Wasser. Diese
Gravitationswellen sind Transversalwellen mit Wellenlängen von einigen Kilometern bis zu mehreren 100 Millionen Kilometern, die
sich mit Lichtgeschwindigkeit ausbreiten. Aus Sicht eines lokalen
Beobachters scheinen sie die Raumzeit senkrecht zu ihrer Ausbreitungsrichtung zu stauchen und zu strecken. Die relative Amplitude
der Gravitationswellen, das Verhältnis von Längenänderung zu betrachteter Strecke, ist kleiner als 10 -21. Dies entspricht auf der Distanz zwischen Sonne und Erde (1.5 10 11 Meter) einer Längenänderung vergleichbar mit dem Durchmesser eines Wasserstoffatoms
(10 -10 Meter).
Detektion von Gravitationswellen
Zur Bestimmung dieser Längenänderungen und somit der direkten
Messung von Gravitationswellen benötigt man hochauflösende
Messsysteme, bei denen alle nicht-gravitativen Störungen unterdrückt werden. Tatsächlich sind Gravitationswellen bisher nur indirekt durch den Energieverlust des Hulse-Taylor Doppelpulsars
9
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 10
nachgewiesen worden. Die Abnahme der Umlaufzeit der beiden
Pulsare deckt sich mit den Vorhersagen der Allgemeinen Relativitätstheorie. Heute werden bodengestützte Laser-Interferometer verwendet, um Gravitationswellen zu detektieren. Hierbei werden die
Laserstrahlen zweier rechtwinkliger Arme zur Interferenz gebracht,
um relative Längenänderungen zu messen. Aktuelle Gravitationswellendetektoren dieser Art sind GEO600 bei Hannover und LIGO
in den USA. Die kurzen Armlängen der bodengestützten Interferometer erlauben nur die Detektion von Gravitationswellen mit kleineren Wellenlängen, im Frequenzband oberhalb von 10 Hertz. Um
auch längere Wellenlängen von entsprechend größeren kosmischen
Ereignissen und Quellen zu detektieren, werden weltraumgestützte
Laser Interferometer wie LISA benötigt. Das Ziel der Detektion von
Gravitationswellen ist dabei nicht nur eine weitere Bestätigung der
Allgemeinen Relativitätstheorie, sondern die Begründung eines
neuen Zweigs der Astronomie.
LISA und die Gravitationswellendetektion im Millihertz Bereich
Die Laser Interferometer Space Antenna ist eine Gemeinschaftsmission von ESA und NASA mit Starttermin 2020. Das LISA-Raumflugsegment besteht aus drei Satelliten, die in Form eines nahezu
gleichseitigen Dreiecks in heliozentrischer Bahn etwa 20° hinter der
Erde fliegen. Die Kantenlänge des aufgespannten Dreiecks beträgt 5
Millionen Kilometer. In jedem der drei Satelliten befinden sich je
zwei Testmassen, die als störungsfreie – inertial frei fallende – Referenzpunkte dienen. Mittels Laser-Interferometrie wird der Abstand
zwischen jeweils zwei Testmassen mit Pikometer-Genauigkeit bestimmt.
Abbildung 2 zeigt die technischen Herausforderungen, die gelöst
werden müssen, um Gravitationswellen weltraumgestützt im Millihertz-Bereich zu messen.
10
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 11
Abbildung 2: Gravitationswellendetektion im Millihertz Bereich
Erstens müssen die Testmassen störungsfrei sein, das heißt, nur dem
Freien Fall ausgesetzt werden. Zweitens muss der Abstand im Millihertz-Bereich auf Pikometer-Genauigkeit gemessen werden. Die störungsfreie Umgebung führt zu zwei weiteren Problemen. Zum einen
müssen alle nicht-gravitativen Störungen unterdrückt werden. Diese
sind magnetischer, elektrischer, thermischer oder autogravitativer
Natur. Zum anderen müssen der Satellit und die Testmassen stabilisiert, das heißt, geregelt werden. Dies führt wieder zu Störungen.
Diese technischen Herausforderungen lassen sich in drei Schlüsseltechnologien der weltraumgestützten Gravitationswellendetektion
übertragen: den Instrumentenentwurf, das Regelungssystem und
das Messsystem. Aufgrund der Tatsache, dass die Anforderungen an
der Grenze des technisch-physikalisch Machbaren sind und die
Technologien am Boden nicht getestet werden können, hat die ESA
beschlossen, die Schlüsseltechnologien auf einem weltraumgestützten Demonstrator zu testen. Dieser Technologiesatellit heißt LISA
Pathfinder. Er soll neben dem Test der notwendigen Technologien
im Weltraum auch das Gesamtkonzept von LISA verifizieren.
LISA Pathfinder
LISA Pathfinder reduziert einen der 5 Millionen Kilometer langen
LISA-Interferometer Arme mit den zwei Testmassen auf die Größe
11
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 12
eines Satelliten. Um die für LISA benötigten Schlüsseltechnologien
ausreichend zu qualifizieren, gibt es zwei Missionsziele. Erstens soll
der Abstand zwischen den beiden Testmassen mittels HeterodynLaser-Interferometrie auf 9 ∙ 10 -12 m / √ Hz im Messband von 1 bis 30
Millihertz bestimmt werden. Heutige bodengestützte Interferometer
erreichen schon diese Empfindlichkeiten, aber nicht in diesem
niedrigen Frequenzband. Zweitens soll die nicht-gravitative Restbeschleunigung auf die Testmassen im Messband kleiner sein als
3 ∙ 10 -14 m / s2 / √ Hz.
Diese Qualität an Freiem Fall ist bisher unerreicht. Die Restbeschleunigungsanforderungen an die Testmassen bei LISA Pathfinder sind
zwei Größenordnungen strenger als bei derzeitig fliegenden oder
geplanten Raumflugmissionen, zum Beispiel GRACE, GOCE oder
MICROSCOPE. Dementsprechend gibt es hohe Anforderungen an
die Störungsunterdrückung und damit an den Instrumentenentwurf
und das Regelungssystem, dem sogenannten Drag-Free Control
System.
Drag-Free Control System
Das Konzept der störungsfreien Regelung lässt sich am Beispiel von
nur einer Testmasse am einfachsten veranschaulichen. Eine freifliegende Testmasse im All ist nicht störungsfrei, da äußere nicht-gravitative Störungen, der solare Strahlungsdruck, dominieren. Durch
die Platzierung der Testmasse in einen Satelliten wird sie von den
äußeren Störungen isoliert. Ein Messsystem bestimmt die relative
Position und Lage der Testmasse zum Satelliten. Mit Hilfe eines Reglers wird die Messung in Stellsignale für die außen am Satelliten
angebrachten Düsen umgewandelt. Die nun von außen auf den
Satelliten wirkenden Störungen ändern die Relativposition und
-lage zwischen Satellit und Testmasse. Zusätzlich wirken auf die
Testmasse interne Störkräfte, zum Beispiel die Autogravitation des
Satelliten, die durch den Instrumentenentwurf in nominaler Testmassenposition und -lage minimal werden. Das Ziel der störungsfreien Regelung ist es, die Testmasse in dieser Nominallage zu
12
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 13
halten. Das Prinzip ist folgendermaßen: Sobald die Relativmessung
eine Ablage der Testmasse feststellt, wird mit den Düsen am Satelliten gegengesteuert – der Satellit wird also der Testmasse nachgeführt. Das nennt man Drag-Free Control. Bei LISA Pathfinder werden nach diesem Prinzip 6 von 18 Freiheitsgraden auf NanometerGenauigkeit geregelt.
LISA Technology Package
Der Satellit LISA Pathfinder hat keine Nutzlast im klassischen Sinne.
Das wissenschaftliche Experiment ist das Gesamtsystem mit dem
Herzstück LTP, dem LISA Technology Package (siehe Abbildung 3).
Das LTP besteht aus zwei kubischen Testmassen, die mit 40 cm Abstand voneinander einem geschrumpften LISA-Arm entsprechen.
Die Testmassen sollen möglichst schwer und nicht-magnetisch sein.
Sie sind daher aus einer speziellen Gold-Platin-Legierung gefertigt,
haben eine Kantenlänge von circa 5 Zentimeter und wiegen dabei
2 Kilogramm. Die Testmassen befinden sich jeweils in einem Gehäuse, das die Elektroden zur elektrostatischen Ansteuerung circa
Positions- und Lagebestimmung beherbergt. Im Flug wird die Testmasse kontaktlos mit mehreren Millimetern Abstand innerhalb dieses Gehäuses fliegen. Ein so großer Abstand ist ungewöhnlich für
klassische Beschleunigungsmesser und stellt daher eine völlige Neuentwicklung des gesamten Subsystems dar. Die durch kosmische
Strahlung aufgebrachte Ladung der Testmasse wird mit Hilfe des
photoelektrischen Effekts durch UV-Licht entfernt. Dazu wird die
Testmassenladung durch das Aufbringen von Testsignalen mittels
der Elektroden geschätzt und im geschlossenen Regelkreis mit den
UV-Lampen beseitigt. Das Gehäuse befindet sich zusammen mit
einer Ausgleichsmasse zur Kompensation des lokalen Gravitationsfeldes des Satelliten in einem Vakuumzylinder. Dieser soll Kontaminationen verhindern und konstante Umgebungsverhältnisse der
Testmasse gewährleisten. Der Zylinder beinhaltet ebenfalls den Mechanismus zum Halten, Positionieren und Freilassen der Testmasse.
Dies erfordert eine hoch präzise Mechanik, die zum einen Kräfte
von mehreren 1000 Newton aufbringen muss und trotzdem mit
13
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 14
Mikrometer Genauigkeit die Testmasse freilässt. Zwischen den Vakuumzylindern befindet sich die optische Bank mit mehreren MachZender-Heterodyn-Interferometern, die den Abstand und die Lage
der beiden Testmassen bestimmen. Die zu erreichende PikometerGenauigkeit im Millihertz-Bereich stellt eine Neuentwicklung dar.
Die optische Bank und ihre Elemente sind aus Zerodur gefertigt,
einer Glaskeramik mit minimalem Wärmeausdehnungskoeffizienten.
Das LTP befindet sich im Zentrum des Satelliten LISA Pathfinder
und ist umgeben von symmetrisch verteilten Elektronikboxen.
Außen am Satelliten befinden sich die Düsen des Mikro-NewtonSchubsystems. Die sogenannten FEEPs (Field Emission Electric Propulsion) sind eine Neuentwicklung, die kontinuierliche Schübe mit
entsprechend niedrigem Rauschen im Mikro-Newton-Bereich erzeugen.
Abbildung 3: Das Lisa Technology Package
14
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 15
Die zwei Missionsziele von LISA Pathfinder stellen somit Anforderungen an jedes der zahlreichen Subsysteme, die an die physikalisch-technischen Machbarkeitsgrenzen stoßen. LISA Pathfinder
und das LISA Technology Package werden von einem internationalen Konsortium aus Firmen und Instituten unter der Führung von
Astrium gebaut. Zurzeit befindet sich die Mission in der Implementierungsphase. Der Start ist für 2011 geplant.
15
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 16
MATHEMATIK
Zwei Kernbereiche industrieller Mathematik –
Schnelle Gleichungslöser und innovative
Tools zum „Robust Design“
Dr. Tanja Clees
Schnelle Gleichungslöser
Was haben Handy-Schalen, Halbleiter-Chips, Ölreservoirs und
Autos gemeinsam? Tief im Innern von Software-Paketen zur Simulation ihrer Herstellung, Funktionsweise, Ausbeutung bzw. Umströmung arbeiten lineare Gleichungslöser – meist unbemerkt von der
Außenwelt, aber von entscheidendem Einfluss auf den Erfolg der Simulationen. Die Simulationen werden nämlich immer aufwändiger,
einerseits weil immer mehr physikalische Effekte berücksichtigt
werden müssen, und andererseits immer feiner aufgelöste Rechengitter zum Einsatz kommen, um den stetig wachsenden Genauigkeitsanforderungen zu genügen. Lineare Gleichungslöser sind daher
der treibende Motor der Pakete: dank immer komplexerer Simulationen geht die Zahl der zu behandelnden Variablen heutzutage
schon in die Millionen, eine sehr große Herausforderung für die
„Ururenkel“ des Gauß-Verfahrens, wie man es in der Schule lernt.
Moderne Löser arbeiten allerdings nicht wie das Gauß-Verfahren an
der „direkten“ Lösung der Gleichungen, sondern schaffen durch
eine geschickte sogenannte „iterative“ und „hierarchische“ Vorgehensweise gute Approximationen. Schließlich soll die Lösung sehr
großer Systeme nur im Sekundenbereich liegen, während klassische
Löser Tage bis hin zu Jahren brauchen würden.
16
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 17
Die unten stehenden Abbildungen 1 und 2 veranschaulichen die
beiden grundlegenden Prinzipien – Glättung und Grobgitterkorrektur – der algebraischen Mehrgitterverfahren (AMG), welche zu den
hierarchischen Verfahren gehören und Basis für viele effiziente
Löser darstellen. Die Gruppe um Dr. Klaus Stüben und Dr. Tanja
Clees im Fraunhofer SCAI entwickelt moderne AMG-Verfahren und
realisiert diese in der Softwarebibliothek SAMG, welche bereits in
vielen praktisch relevanten Softwarepaketen zur Simulation naturwissenschaftlich-technischer Prozesse im Einsatz ist. Beispiele für
Anwendungsbereiche sind die Ölreservoirsimulation, die Gießsimulation, die Analyse von mechanischen Spannungen und Verzerrungen, die elektrochemische Simulation, die Halbleiter- und Schaltungssimulation sowie die Simulation der elektromagnetischen
Verträglichkeit. Einige Beispiele finden sich in Abbildung 3.
Abbildung 1. Funktionsweise algebraischer Mehrgitterverfahren: Glättung der Fehler,
hier ausgehend von einer zufällig gewählten Startlösung und ihrem Fehler e1 zu glatter
(jedoch nicht wesentlich kleiner) werdenden Fehlern e2, e3, e4, …
17
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 18
Abbildung 2. Funktionsweise algebraischer Mehrgitterverfahren: Grobgitterkorrektur
über eine schrittweise Vergröberung vom Ausgangsproblem auf dem feinsten Gitter (links
oben) zu einem groben Problem mit nur wenigen Punkten (rechts unten), welches mit einem
herkömmlichen Löser (Gaußverfahren) behandelt werden kann.
Auf den gröberen „Leveln“ wird basierend auf algebraischen Informationen das dort
zu lösende Problem automatisch berechnet. Die Transferoperatoren (Restriktion und
Interpolation) sind ebenfalls algebraisch bestimmt.
Robust Design
Ein wesentlicher Vorteil stark beschleunigter Simulationen liegt
darin, dass diese die Analyse von Parameterabhängigkeiten und die
Optimierung der untersuchten Prozesse und Produkte erlauben.
Hierzu sind nämlich eine ganze Reihe von einzelnen Simulationen
notwendig, um die sogenannten Design-Parameter analysieren bzw.
optimal einstellen zu können. Unter Design-Parametern versteht
man hier zum Beispiel Prozessparameter, wie Kräfte, Geschwindigkeiten oder Temperaturen, Materialparameter, wie Dichten oder
Mischungsverhältnisse, oder auch Parameter, welche geometrische
Verhältnisse beschreiben, wie Dicken, Längen oder Winkel.
Aktuell gewinnt insbesondere das Thema „Robust Design“ rasant an
Bedeutung. Hier geht es nicht nur um die „klassische“ Optimierung
18
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 19
von Prozessen und Produkten, sondern um die möglichst effiziente
Bestimmung von Designs, welche sich auch dann noch möglichst
optimal verhalten, wenn realistische Prozess-, Material- bzw. Geometrieschwankungen einbezogen werden. Eine von Dr. Clees seit
2007 geleitete Gruppe am SCAI beschäftigt sich mit der Entwicklung innovativer Softwarewerkzeuge zum Robust Design und insbesondere den Themenkomplexen
> Stabilität: Reaktionen von Simulationsmodellen auf kleinste
Änderungen (im Modell bzw. der numerischen Lösung) und
Rückverfolgung von Instabilitäten zu ihren möglichen
Ursachen, insbesondere im Automobilcrash-Bereich.
> Sensitivität: Reaktionen wichtiger Eigenschaften von
Prozessen / Produkten auf Parameteränderungen und
Klassifizierung einflussreicher Parameter.
> effiziente Analyse, Kompression, Interpolation und
Visualisierung von Simulationsresultaten auf hochaufgelösten
Rechengittern.
> Metamodellierung und robuste multikriterielle Optimierung,
z. B. zum Austarieren von Gewichtseinsparungen gegen
Sicherheits- und Komfortaspekte.
Beispielhaft seien hier Anwendungen aus dem Automobilbereich
(Crash, Umformen, Gießen, Katalysatoren usw.) und dem Halbleiterbereich genannt, siehe auch Abbildungen 3 und 4.
19
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 20
Abbildung 3. Einige Anwendungen in den Bereichen „schnelle Gleichungslöser“
bzw. „Robust Design“.
20
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 21
Abbildung 4. Robust Design (angedeutet) am Beispiel der Prozesskette Umformsimulation
zur Crashsimulation: die Themenkomplexe Stabilität, Sensitivität und robuste multikriterielle Optimierung werden durch die in der Gruppe „Robust Design“ entwickelten Tools
DesParO und DIFF-CRASH behandelt. Der effiziente Umgang mit Simulationsresultaten
auf hochaufgelösten Rechengittern stellt eine besondere Spezialität der Gruppe dar.
21
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 22
L U F T- U N D R A U M F A H R T T E C H N I K
Das Flugzeugobservatorium SOFIA –
Infrarotastronomie von der Stratosphäre aus
Dipl.-Ing. Franziska Harms
SOFIA, das Stratosphären Observatorium für Infrarot Astronomie,
ist ein Flugzeugobservatorium, mit dem das Weltall im Infrarot- und
Submillimeter-Wellenlängenbereich erforscht werden soll.
Quelle: NASA / DFRC
Die Infrarotastronomie ist ein relativ neues Forschungsgebiet, das
erst in den letzten 50 Jahren entwickelt wurde. Durch sie erhofft
man sich, Gebiete und Objekte des Weltalls zu untersuchen, die im
sichtbaren Wellenlängenbereich nicht zu beobachten sind. Der infrarote Spektralbereich ist etwa zehnmal größer als der sichtbare
Wellenbereich und schließt bei einer Wellenlänge von etwa 700 nm
an ihn an. Er wird unterteilt in nahes Infrarot (700 nm – 3 µm),
mittleres Infrarot (3 µm – 30 µm) und fernes Infrarot (40 µm – 300
µm). Der Submillimeterbereich (300 µm – 1 mm) liegt zwischen
dem Infraroten und den Radiowellen. Eine große Rolle bei Beobachtungen mit SOFIA spielen vor allem kalte und kühle Objekte, wie
22
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 23
junge Sterne vor dem Zünden der Kernfusion oder protoplanetare
Scheiben, in denen sich Exoplaneten entwickeln könnten. Deren
Temperatur reicht noch nicht aus, um visuelles Licht abzustrahlen,
ihre Emission findet im Infraroten statt. Da die Infrarotstrahlung interstellare Staubwolken beinahe ungehindert durchdringt, können
Objekte, die sich hinter oder in Staubwolken befinden, beobachtet
werden. Dazu gehören insbesondere kollabierende Systeme wie
Schwarze Löcher, Zentren von aktiven Galaxien und Sternentstehungsgebiete. Von besonderer Bedeutung für die Beobachtungen
sind außerdem sehr weit entfernte Objekte aus der Frühzeit des
Weltalls, deren optische und UV-Spektrallinien aufgrund der Expansion des Universums in den fernen Infrarotbereich „rotverschoben“
sind [1].
Als Beispiel sind in Abbildung 1 Aufnahmen des Pferdekopfnebels
im sichtbaren Wellenlängenbereich, im nahen Infraroten und im
mittleren Infraroten dargestellt. Eine größere Anzahl von meist kühleren Sternen können im Bild erkannt werden, wenn man von Beobachtungen im Sichtbaren auf nahes Infrarot übergeht, da Staubwolken transparent werden. Beobachtet man im mittleren Infrarot,
kann man bereits das Leuchten des kühlen Staubs und damit die
Strukturen der Staubwolken wahrnehmen.
Abbildung 1. Der Pferdekopfnebel aufgenommen im sichtbaren Wellenlängenbereich, im
nahen Infraroten und im mittleren Infraroten. Quelle: NASA / Caltech.
23
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 24
Die Schwierigkeit bei Beobachtungen von Infrarotquellen von der
Erde aus liegt darin, dass unsere Atmosphäre lediglich einige kleinere Bereiche des infraroten Lichtes durchlässt. Die Infrarotstrahlung wird hauptsächlich von den Wasserdampfmolekülen der
Erdatmosphäre absorbiert. Nur in engen Fenstern unter 20 µm, im
Submillimeterbereich und bei sehr guten Wetterbedingungen ist
eine Beobachtung möglich. Da sich der Wasserdampfgehalt der Atmosphäre vor allem auf die Troposphäre konzentriert, sind Infrarotteleskope an sehr hochgelegenen Orten oder in Ballonen, Flugzeugen oder auf Satelliten stationiert. SOFIA wird seine Messungen
in der Stratosphäre bei einer Flughöhe zwischen 12 und 14 km
durchführen und befindet sich somit oberhalb von 85 % der Atmosphäre und von mehr als 99 % des Wasserdampfs [2]. Abbildung 2
stellt den deutlichen Unterschied der Atmosphärendurchlässigkeit
für die Observatorien auf dem Mauna Kea (Hawaii) und an Bord
von SOFIA dar.
Abbildung 2. Durchlässigkeit der Atmosphäre für die Observatorien auf dem
Mauna Kea (Hawaii) und an Bord von SOFIA. Quelle: NASA / Erickson.
Von der Atmosphäre ungestörte Beobachtungen kann man allerdings nur von Satelliten und Raumstationen durchführen. Bei diesen Weltraumteleskopen muss man aber schon viele Jahre vor dem
Starttermin das Instrumentenkonzept festlegen. Bei SOFIA können
die wissenschaftlichen Instrumente ständig mit den neusten Technologien versehen werden. Zusätzlich lässt sich eine eventuelle Re24
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 25
paratur oder Wartung leicht gestalten. Dadurch, dass eine Vielzahl
von Instrumenten nacheinander eingesetzt werden kann, ist es
möglich, unterschiedliche astronomische Problemstellungen zu bearbeiten. Insgesamt sind bereits neun wissenschaftliche Instrumente
für die erste Beobachtungsphase ausgewählt und gebaut worden.
Zwei davon kommen von deutschen Institutionen.
Ein weiterer Vorteil der Flugzeugastronomie ist der flexible Einsatz
des Teleskops weltweit. SOFIA kann auf jedem größeren Flughafen
starten und landen und somit regional auftretende Ereignisse beobachten. Dazu gehören z. B. Sternbedeckungen durch Asteroiden, Planeten, Monde und Objekte im Kuipergürtel. Zur Beobachtung der
nördlichen Hemisphäre wird SOFIA, wie schon die beiden Vorgängerflugzeuge Lear Jet und Kuiper Airborne Observatory, von NASA
Zentren in Kalifornien betrieben. Um die südliche Hemisphäre zu
beobachten, wird das Flugzeug von Neuseeland aus starten.
Das Teleskopsystem ist in den hinteren Teil eines Flugzeugs des Typs
Boeing 747SP (verkürzte Version) eingebaut. Oberhalb des Teleskopspiegels ist eine Öffnung in die Außenhaut des Flugzeugs geschnitten, die bis zum Erreichen der Beobachtungsflughöhe mit einer
Rolltüre abgedeckt bleibt. Das Teleskop ist nach dem Öffnen den
Umgebungsbedingungen ausgesetzt: der relativ niedrigen Temperatur (ca. - 60° C), dem niedrigen Druck (ca.1 / 5 bar) und der mechanischen Belastung durch Wind und Strömungsturbulenzen, die durch
die Öffnung im Flugzeugrumpf bei Geschwindigkeiten von etwa
900 km / h entstehen [3].
Ein Druckschott trennt den offenen Bereich von der Passagierkabine, in der die Instrumente, Wissenschaftler und die Missionskontrolle untergebracht sind. Die Wissenschaftler haben während des
Beobachtungsfluges permanenten Zugang zum Instrument. Im Rahmen des Programms für Bildungs- und Öffentlichkeitsarbeit ist im
vorderen Teil des Flugzeuges Platz für Schüler, Lehrer, Journalisten
und Politikern vorgesehen, um Interesse und Begeisterung für Tech25
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 26
nologie und Wissenschaft zu vermitteln. In Abbildung 3 ist das Innenleben von SOFIA schematisch dargestellt.
Abbildung 3. Das Innenleben von SOFIA. Quelle: USRA.
Das Teleskop ist ein Cassegrain-System mit Nasmyth-Tubus. Es besteht aus einem parabolischen Primärspiegel (effektiver Durchmesser 2,5 m), einem hyperbolischen Sekundärspiegel (Durchmesser 35
cm) und einem planen Tertiärspiegel, der die eintreffenden Strahlen
zu den wissenschaftlichen Instrumenten ins Kabineninnere umleitet. Diese Konfiguration erlaubt eine große Brennweite, d.h. eine
hohe Auflösung, trotz der relativ geringen, in den Flugzeugrumpf
eingepassten Bauhöhe.
Die optischen Elemente des Teleskops sind in eine Trägerstruktur
aus Kohlefaser verstärktem Kunststoff integriert (Abbildung 4). An
dieser hantelförmigen Struktur, deren Gesamtgewicht im Druckschott gelagert ist, sind außerdem Gegengewichte, das Antriebssystem des Teleskops und Sensoren zur Ausrichtung untergebracht. Ein
spezielles Stoßdämpfersystem mit Luftfedern schützt das Teleskop
vor den Flugzeugvibrationen [4].
26
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 27
Abbildung 4. Das SOFIA Teleskopsystem. Quelle: DLR.
Das Teleskop ist durch ein hydrostatisches Kugellager von den
Drehbewegungen des Flugzeuges entkoppelt und ermöglicht eine
hochgenaue, inertiale Ausrichtung und Nachführung des Teleskops
in drei Achsen. Die Lageregelung stützt sich dabei auf drei faseroptische Gyroskope und drei Nachführkameras mit unterschiedlichen
Gesichtsfeldern. Eine dieser Kameras benutzt einen Teil des optischen Lichtstrahls an der Brennebene des Teleskops, während die
beiden anderen Kameras eine eigenständige Optik besitzen.
Trotz der Bemühungen und Vorkehrungen, Störungen weitgehend
zu minimieren, treten dennoch Vibrationen und kleine Materialdeformationen an der Teleskopstruktur und -mechanik auf, die die
Ausrichtgenauigkeit beeinflussen. Da eine stabile Ausrichtung des
Teleskops für die wissenschaftlichen Beobachtungen entscheidend
ist, müssen diese Störungen verstanden und ausgeglichen werden.
Das theoretische Konzept, welches aufgestellt wurde, um Störungen
27
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 28
zu kompensieren und innerhalb des Regelungskreises zu korrigieren, wird nun während der Inbetriebnahme des Observatoriums in
die Praxis umgesetzt. Für den späteren Routinebetrieb ist eine Stabilität von 0,2 Bogensekunden gefordert.
SOFIA ist ein deutsch-amerikanisches Gemeinschaftsprojekt. Es wird
zu 80 % von der amerikanischen Raumfahrtbehörde NASA und zu
20 % von der deutschen Raumfahrtagentur DLR finanziert. Die Aufteilung betrifft ebenfalls die Kosten für die Betriebszeit, die auf 20
Jahre angelegt ist, sowie die Beobachtungszeiten des Observatoriums. Der deutsche Beitrag umfasst dabei das komplette Teleskopsystem – das Herz des Observatoriums, für dessen Entwicklung und
Herstellung ein Konsortium der Firmen MT Aerospace und KayserThrede verantwortlich waren. Der wissenschaftliche Betrieb wird
auf deutscher Seite vom Deutschen SOFIA Institut der Universität
Stuttgart koordiniert, auf amerikanischer Seite von der Universities
Space Research Association.
Der Erstflug von SOFIA wurde nach der Flugzeugmodifikation mit
eingebautem Teleskop erfolgreich im April 2007 durchgeführt.
In der anschließenden Flugtestserie mit noch geschlossener Türe
wurde auch das Teleskop unter realen Flugbedingungen erfolgreich
aktiviert. Der Primärspiegel wurde im Juni 2008 erstmals mit Aluminium beschichtet, und mehrere Verifikationstests wurden Ende des
Jahres am Boden durchgeführt. Als nächstes steht einer der spannendsten Momente in der Entwicklung des Observatoriums an: die
ersten Flugtests mit geöffneter Türe und die ersten wissenschaftlichen Beobachtungen im Flug.
28
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 29
Ref
[1]
n
E.Becklin et al.: Stratospheric Observatory for Infrared Astronomy (SOFIA),
Infrared Spaceborne Remote Sensing and Instrumentation XV, Proc. SPIE 6678,
2007
[2]
R.Titz, H.-P.Röser (Hrsgb.): SOFIA – Astronomie und Technologie im
21. Jahrhundert, Wissenschaft und Technik Verlag, Berlin, 1998
[3]
H.J.Kärcher: Airborne Environment – a Challenge for Telescope Design,
Airborne Telescope Systems, Proc. SPIE 4014, 2000
[4]
E. Sust et al.: Manufacturing and integration of the SOFIA suspension assembly,
Airborne Telescope Systems, Proc. SPIE 4857, 2002
29
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 30
TECHNOMATHEMATIK
Generation of Extreme Wave Sequences –
From Capsizing Ships to Offshore Structures
in Hurricanes
Dr. Janou Hennig
Abstract
Ocean waves are a fascinating subject. They are modeled in wave
basins to quantify their effect on all kinds of ships and offshore
structures. This modeling requires the consideration of various
phenomena such as the non-linear character of real ocean waves,
wave groups and short-crestedness. These aspects are described in
this paper and their complex of challenges is highlighted by examples.
Fascinating water waves
Water waves and in particular ocean waves are a fascinating subject
which can be probably experienced most directly by surfers riding
the very large swells on the shelf of our oceans (Figure 1).
Figure 1: Ocean waves are fascinating – as experienced most directly by surfers – and are
also awaking our respect for their violent nature. The photos were taken in Hawaii (left)
and during full scale model testing at the Large Wave Tank in Hanover (Kühnlein (1997)).
30
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 31
This fascination is also related to the amount of energy manifested
when ocean waves strike rocks or human built structures accompanied by wave breaking and the sound of masses of water flooding
around the obstacle. Situations such as given in Figure 1 awake also
our respect.
In Hurricanes, however, waves might increase to unimaginable
size and shape due to very high wind speeds, exciting waves from
sometimes almost opposing directions. This lead to massive damages of offshore structures in the Gulf of Mexico as documented
after several severe Hurricanes during the recent years (e. g. Rita,
Ivan and Katrina). A search in the world wide web reveals numbers
of impressive pictures.
Figure 2: Process of deterministic wave generation. Right hand: Wave celerity as a function
of wave “amplitude” according to Stokes Third Order wave theory. The higher the frequency
the steeper the wave and the more pronounced is the effect of phase speed increasing with
wave amplitude.
Ocean waves in model testing
Besides the illustrated ambivalent fascination caused by ocean
waves, engineers are most interested in the motions and forces
waves induce on ships and offshore structures such as FPSO’s,
mooring systems, platforms and others in order to judge dangers
and survivability in rough environments quantitatively. During the
years, many theoretical, numerical and experimental approaches
31
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 32
have been developed. In the following, we will focus on model testing techniques where ocean waves are modeled by different means
and up to a certain required accuracy.
Waves in a model basin have to be generated to represent their realistic characteristics such as shape, height, period and spectrum (see
Hennig (2005)). In general, it is not possible to model all parameters at the same time, as will be seen further below. However, if we
aim at generating a wave “deterministically” – i. e. according to required parameters and at a predefined time and position in the
basin – we have to follow the approach given in Figure 2 step by
step:
1. Definition of the target wave train: The target position in time
and space is selected – for example the position where the ship
encounters the wave train at a given time. At this location, the
target wave train is designed – based on defined parameters or a
wave record.
2. Upstream transformation ζ(t, xtarget) → ζ(t, x0): The target wave
train is transformed upstream to the position of the wave maker.
3. Calculation of control signals: The corresponding control signals
are calculated using adequate transfer functions of the wave
generator.
4. Performance of model tests: The control signals are used to
generate the specified wave train which is measured at selected
positions in the tank. E. g. a ship model arrives at the target
position by the corresponding target time (measured from the
beginning of wave generation). Registration of the wave
sequence at the target position confirms the compliance with
the target wave parameters.
32
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 33
Figure 3: Top: Registration of a transient wave packet with pronounced vertical asymmetry
due to wave steepness (ak = 0.44). Bottom: Comparison of measured water elevations of
superimposed wave groups (water depth d = 1.5 m): The wave maker control signals of
an irregular wave sequence and a single high wave group are superimposed. Both signals
are measured separately and as result of the superimposed control signals. The result is
compared to the superposition of the individual registrations (“superposition” in the
legend). Non-linear wave-wave interaction becomes evident as the maximum crest height
is larger than the sum of both local crest heights.
The method applied for the upstream transformation of the target
wave train to the position of the wave maker is crucial for the entire
wave generation process as it models the propagation of the wave.
Real ocean waves can be steep, and for steep waves, non-linear
methods are required.
Non-linear characteristics of ocean waves
For steeper wave trains – i. e. ratio of wave height to wave length is
greater than 0.05 – application of linear wave theory is not adequate. Examples of non-linear phenomena shown by ocean waves
and to be considered during model tests are given in the following:
33
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 34
Dispersion depending on wave steepness: The propagation
velocity increases with wave steepness which is equivalent to an
increase of wave length compared to a linear wave of same
frequency. Figure 2, right hand side, shows the phase velocity
increase vs “amplitude” of a Stokes Third Order (Skjelbreia (1959))
wave which is not only a function of the wave frequency, but also
of the wave height (elevation). Thus, the smaller the frequency
(= longer the wave), and the steeper the wave, the faster is its
propagation.
>
Lagrangian mass transport and Eulerian wave induced (reverse)
current can be observed in wave tanks and deduced from wave
theories: It might happen that surface water apparently flows in
direction of wave propagation though a flow meter installed in
deeper water indicates a velocity in opposite direction (which is
also an explanation for sediment transport). This effect can be
directly related to the increase of propagation speed due to wave
steepness – from wave theories follows that the wave gets longer if
it is superimposed with a current u in the same direction and
shorter against the current: L = (c + u)T.
>
Non-harmonic shape: Crest-trough, crest-front (front slope) and
vertical shape asymmetry increase with steepness. Figure 3 gives
an example for a measured focusing wave which shows a vertical
asymmetry close to the concentration point.
>
Wave-wave interaction (in the application sense of Stokes type
perturbation expansions)
– Wave height increases with steepness (see Figure 3) – in
particular as the wave focuses it becomes narrower and up to
30 % higher than linear theory would predict which is due to
second and third order terms. For uni-directional waves, this
extra elevation increases with the input amplitude of the group
and decreases with bandwidth.
– Non-resonant interaction: Energy passes over from one
34
>
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 35
frequency or wave number to another which is the reason for
Benjamin-Feir instabilities (Benjamin and Feir (1967)).
– Asymmetrical focussing and de-focussing of a wave group: Assuming a focus point – the so-called concentration point – a
linearly describable wave group has the same – mirror-inverted –
xshape at a given distance Δ x to that point as it has at the
distance −Δ x. This is not the case for steep waves.
Application of deterministic wave sequences for capsizing tests
As an example of the application of deterministic wave sequences,
capsizing tests are considered here.
Figure 4: Comparison of two capsizing test runs in the same deterministic wave sequence
from astern inducing parametric roll (υ = 10.4 kn, µ = 3°): The encounter of ship and wave
train demonstrates the very good reproducibility of capsizing tests with deterministic wave
sequences: The wave train is encountered under identical conditions. However, the sensitivity of capsizing processes is obvious – although the conditions and resultant motions are
almost identical, the RO-RO vessel (GM = 1.27 m) capsizes during the second test run only
(green graph, bottom). Right hand: A RO-RO vessel – model scale 1:34 – in a high wave
sequence from astern which finally leads to capsizing.
35
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 36
As a consequence of parametric excitation, the roll angle increases
dangerously due to non-linear processes (disturbances) which cause
roll motions at half the frequency of the exciting wave. The ship
rolls with twice the period of the pitch motion (which is approximately the encountered wave period). The following factors contribute to parametric roll:
– Encounter period close to one-half of the natural roll period
– Large waves
– Wave length comparable to the ship length
– Wide, flat sterns in combination with pronounced bow flare, as
this increases the stability variations as the wave passes along
the hull.
Apart from large container ships, also other modern ship designs
are susceptible to parametric excitation such as RO-RO, RoPax, ferries and cruise vessels. An example for parametric roll due to a high
deterministic wave sequence from astern (Hs = 9.36 m, TP = 11.66 s)
is given in Figure 4. The test conditions for the RO-RO vessel
(GM=1.27 m, υ = 10.4 kn, µ = 3°) are simulated prior to the test (see
Clauss et al. (2005)). In both test runs, the ship encounters the wave
train at almost identical conditions (top) and shows a similar roll
response. However, in the first test (blue graph) the ship roll motions exceed 50° but the capsize occurs only in the second run
(green graph). This is also an example for both the high reproducibility of capsizing tests with deterministic wave sequences and
the sensitivity of the mechanism leading to capsizing. It has to
be noted that in reality, a capsize at a roll angle of more than 50°
might have occurred though, eventually due to shift of cargo,
vehicles, or engines.
36
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:54 Seite 37
Figure 5: Left: A typical offshore situation (berthing of an LNG carrier to a moored FSRU) in
which low frequency motions have to be considered. Courtesy: BHP Billiton. Right: Capsizing of a wave buoy in Hurricane Rita (simulation in MARIN’s Offshore Basin).
Wave groups
As shown in the previous section, waves cause motions of a floating
or sailing object. In the example of a ship cruising at some forward
speed in waves, the response up to capsizing is based on wave frequency motions.
However, a moored object in waves, such as given in Figure 5, will
show combined low frequency and wave frequency motions. The
wave frequency motions are related to the wave elevation and wave
spectrum, while the low frequency motions are related to the wave
groups and group spectrum. The wave group spectrum for a given
wave spectrum (energy density or power) can be determined by
three different approaches as described in Fernandes et al. (2008).
Different wave realizations (different wave seeds) lead to different
wave group spectra for the same spectrum, in particular in the area
of the resonance frequency of the mooring system of the floater.
This phenomenon will be highlighted in the following by an example.
The wave spectrum considered is a JONSWAP spectrum for a peak
wave period of TP = 8.5 s, a significant wave height of Hs = 2 m and
a peak enhancement factor of γ = 3.3. The spectral density is shown
in Figure 6, left hand side.
At a water depth of d = 85 m, this spectrum is calibrated at a refer37
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 38
ence position and different wave seeds are applied to the same wave
spectrum. The corresponding wave group spectra are determined,
and the spectra with the highest, lowest and same results as
compared to theoretical values are presented in Figure 6 for
Hs = 2 m.
This shows that even for a problem related to linear waves, we
have to take care which waves we generate in the basin in order to
investigate a specific problem. Generating the wave spectrum with
the most neutral or particularly most dangerous wave group characteristics is not an obvious task.
Figure 6: JONSWAP wave spectrum for a peak wave period of TP = 8.5 s, a significant
wave height of Hs = 2 m and a peak enhancement factor of γ = 3.3 (same parameters for
different seeds). Right hand: Wave group spectra for same spectral density and water depth,
but different wave seeds.
Real Hurricane sea states
Up to now, we have treated some non-linear and low frequency aspects of waves. However, the real world is even more complex as
ocean waves use to be short-crested whereas they are often enough
considered only long-crested in laboratory analyses. Usually, longcrested ocean waves are interpreted as a summation of regular wave
components of different frequency, amplitude and phase (seed). In
the case of short-crested waves, each component is additionally as38
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 39
signed a direction as indicated in Figure 7.
Modeling of short-crestedness in the wave basin requires many
wave flaps as given in the photo in Figure 7 of MARIN’s Offshore
Basin. In the case of combined wind sea and swell from different
directions two adjacent wave makers might be required.
Despite all these means, it might be necessary to generate a spectrum in the basin which is directionally spread in terms of both
frequency and direction at the same time (which also allows for the
consideration of the fact that high frequencies are more spread).
As an example, a 2D wave spectrum of Hurricane Rita is measured
in MARIN’s Offshore Basin. These extremely steep and spread wave
conditions even lead to the capsize of a wave measurement buoy
during the model test (Figure 5).
Conclusions and perspectives
This paper gives a state-of-the-art overview of some aspects on the
modeling of ocean waves for model testing in the wave basin. It can
be concluded that waves are complex enough to require different
advanced techniques to model the waves purposely for the focus of
investigation. As examples, the following phenomena are discussed:
> Non-linear modeling of steep wave sequences for deterministic
capsizing tests (wave frequency motions).
> Dependance of wave group spectra on the wave seed for the same
power spectrum (low frequency motions of moored vessels).
Directional spreading of real sea states as extreme Hurricane
conditions for the future, a variety of interesting wave problem
will wait to be revealed by enthusiastic engineers and researchers.
39
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 40
Figure 7: Left hand: Model of short-crested random waves in the ocean and basin.
Right hand: Generation of long- and short-crested wave systems by means of adjacent
multi-flap wave makers in MARIN’s Offshore Basin.
40
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 41
References
> T. B. Benjamin and J. E. Feir. The disintegration of wave trains on deep water.
Journal of Fluid Mechanics, 27(3):417 – 430, 1967.
> G. F. Clauss, J. Hennig, H. Cramer, and K.-E. Brink. Validation of Numerical
Motion Simulations by Direct Comparison with Time Series from Ship Model Tests
in Deterministic Wave Sequences. In OMAE 2005 – 24th International Conference
on Offshore Mechanics and Arctic Engineering, Halkidiki, Greece, 2005.
OMAE2005-67123.
> Antonio Carlos Fernandes, Janou Hennig, Marcio Domingues Maia, Jr., Hans
Cozijn, and Joel Sena Sales, Jr. Worst Sea – Best Sea Wave Group Spectra from
Random Sea States. OMAE, 2008. OMAE2008-57821.
> R. S. Gibson, C. Swan, and P. S. Tromans. Fully Nonlinear Statistics of Wave Crest
Elevation Calculated Using a Spectral Response Surface Method: Applications to
Unidirectional Sea States. Journal Of Physical Oceanography, Volume 37, 2007.
> J. Hennig. Generation and Analysis of Harsh Wave Environments. Dissertation,
Technische Universität Berlin (D 83), 2005.
> W. Kühnlein. Seegangsversuchstechnik mit transienter Systemanregung.
Dissertation, Technische Universität Berlin (D 83), 1997.
> L. Skjelbreia. Gravity Waves – Stokes’ Third Order Approximation. California
Research Corporation, 1959.
41
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 42
S I G N A LV E R A R B E I T U N G
Statistische Signalverarbeitung
für Kommunikationssysteme
Dr.-Ing. Michael Joham
Die moderne Telekommunikation wäre ohne die Methoden der statistischen Signalverarbeitung unmöglich. Die physikalischen Eigenschaften der Datenübertragung (z. B. von Sprachsignalen, Videosignalen, digitalisierte Dokumente) über Kabel, Glasfaser oder Luft
führen zu einer Überlagerung von Störsignalen, dem so genannten
thermischen Rauschen und den Interferenzsignalen. Insbesondere
das thermische Rauschen kann nur statistisch modelliert werden.
Abbildung 1. Direkter Pfad und Reflexion
In einem Kommunikationssystem mit digitalen Daten (z. B. DSL,
Mobilfunk, Digitalradio und GPS) wird die Information zuerst codiert, d.h. es wird ihr Redundanz hinzugefügt. Danach werden die
codierten Daten einer hochfrequenten Schwingung aufgeprägt (moduliert) und übertragen. Während dieser Übertragung wird die informationstragende Schwingung in ihren Eigenschaften verändert.
Der Empfänger nimmt die stark abgeschwächte Schwingung, aber
auch verzögerte Kopien auf (z. B. durch Reflexion wie in Abbildung
42
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 43
1). Das verrauschte Empfangssignal soll nun benutzt werden, die
übertragenen Daten am Empfänger wiederzugewinnen. Für die
dafür notwendigen Bearbeitungsschritte ist die moderne statistische
Signalverarbeitung von essentieller Bedeutung. Erstens muss der
Empfänger mit dem Sender synchronisiert werden. Zweitens müssen die Eigenschaften des Übertragungsmediums bestimmt werden,
um das Empfangssignal korrekt interpretieren zu können. Abbildung 2 zeigt den Fehler bei ungenügender Modellierung. Nicht nur
die Eigenschaften des direkten Pfades sondern auch der Einfluss der
empfangenen Replika muss berücksichtigt werden. Drittens muss
mithilfe des statischen Modells, den zuvor bestimmten Systemparametern und dem Vorwissen (z. B. Datenformat, Art der Redundanz
durch Codierung) die eigentliche Aufgabe der Datendetektion bzw.
Decodierung gelöst werden. Diese grundlegenden Problemstellungen der statistischen Signalverarbeitung werden somit etwa in heutigen DSL-Modems und Mobiltelefonen gelöst.
Abbildung 2. Einfluss der Reflexion, Beugung und Abschattung
43
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 44
Klassische Systeme trennen die Daten für unterschiedliche Nutzer
über die Zeit oder die Frequenz (siehe Abbildung 3 für Frequenzvielfachzugriff). So kann z. B. beim Zeitvielfachzugriff die Information
für den ersten Nutzer in periodischen Zeitblöcken übertragen werden, während die Daten für den zweiten Nutzer in den Pausen gesendet werden.
Abbildung 3. Frequenzvielfachzugriff zur Datentrennung
Zukünftige Kommunikationssysteme werden jedoch auch die Möglichkeit nutzen, die Signale über den Raum zu trennen. Somit kann
der Empfänger die Datensignale von unterschiedlichen Sendern
schon dadurch trennen, dass er mithilfe mehrerer Antennen raumselektiv empfängt (wie in Abbildung 4). Der entscheidende Vorteil
des Raumvielfachzugriffs ist es, dass die unterschiedlichen Sender
ihre Daten gleichzeitig im selben Frequenzband übertragen können
und dass diese trotzdem vom Empfänger komplett getrennt werden
können. Somit erlaubt der Einsatz des Raumvielfachzugriffs eine bedeutende Erhöhung der möglichen Gesamtdatenrate des Systems.
Die Verwendung mehrerer Antennen führt zusätzlich zu einer erhöhten Unempfindlichkeit gegenüber dem thermischen Rauschen.
Deshalb ist die für eine geforderte Übertragungsqualität notwendige
Empfangsleistung geringer als bei klassischen Einantennenempfängern und dementsprechend kann die Sendeleistung reduziert werden. Diese Eigenschaft ist insbesondere unter den Aspekten
44
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 45
Energieverbrauch und Belastung durch elektromagnetische Felder
von großem Vorteil.
Abbildung 4. Raumvielfachzugriff zur Nutzertrennung
Das Ziel der aktuellen Forschung ist es, den Raumvielfachzugriff
auch für Kommunikation von einem Sender zu mehreren Empfängern bzw. von mehreren Sendern zu mehreren Empfängern zu ermöglichen. Da die Bestimmung der Systemparameter an den Sendern schwierig ist, wird über effiziente Verfahren nachgedacht, um
die notwendigen Systemparameter von den Empfängern zu den
Sendern zu übermitteln. Da die Information über die Parameter aufgrund der endlichen Bandbreite im Rückkanal naturgemäß Fehler
beinhaltet, müssen diese Fehler im Entwurf der räumlichen Nutzertrennung des Senders mithilfe der Methoden der statistischen Signalverarbeitung berücksichtigt werden.
In zukünftigen Satellitenkommunikationssystemen sollen hunderte
Antennenelemente zum Einsatz kommen. Dadurch wird es möglich
sein, die vielen Nutzer europaweit in kleinere lokal begrenzte Gruppen zu unterteilen (siehe Abbildung 5), da die verschiedenen Signalanteile durch die hohe Antennenzahl sehr stark gebündelt werden
können. Die Schwierigkeit hierbei wird sein, diese Unterteilung
adaptiv zu gestalten, um auf unterschiedliche Nutzerkonzentratio45
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 46
nen und -bewegungen derart reagieren zu können, sodass die eingeschränkten Ressourcen des Satelliten (Sendeleistung und Rechenkomplexität) bestmöglich eingesetzt werden. Insbesondere die hohe
Dimensionalität der Problemstellung aufgrund der hohen Antennenzahl stellt eine Herausforderung dar.
Abbildung 5. Unterteilung Europas durch Raumvielfachzugriff am Satelliten
46
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 47
Derzeitige Mobilfunksysteme (GSM, UMTS) sind in Zellen unterteilt. Die mobilen Nutzer einer Zelle werden von einer unbeweglichen Basisstation bedient. Dabei ist sicherzustellen, dass sich die
Nutzer in unterschiedlichen Zellen nicht stören. Ziel der aktuellen
Forschung ist eine Kooperation der Basisstationen, um speziell die
Bedingungen der Nutzer an den Zellrändern zu verbessern. So
könnten z. B. die beiden hervorgehobenen Basisstationen in Abbildung 6 bei der Datenübertragung an die Nutzer der dazwischen liegenden Zelle mithelfen. Diese Aufgabenstellung ist besonders
schwierig, da die benachbarten Basisstationen nur eine sehr ungenaue Kenntnis der Systemparameter der zu bedienenden Zelle besitzen.
Abbildung 6. Kooperation mehrerer Basisstationen
47
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 48
MASCHINENBAU
Herausforderungen dezentraler Energiebereitstellung in zukünftigen Stromnetzen
Dr.-Ing. Martin Kautz
Motivation
Die Diskussion um Kohlendioxid (CO2), Klimaerwärmung und
Treibhauseffekt ist spätestens seit der Verabschiedung des KyotoProtokolls in aller Munde. Der Handlungsbedarf ist groß. Deshalb
findet der Aufbau von dezentralen Energieerzeugungsstrukturen zunehmend Beachtung in energie- und umweltpolitischen Diskussionen. Die Bundesregierung greift dieses Themenfeld ebenfalls in
ihrer aktuellen Förderpolitik auf. Weiterhin wird das Thema durch
die Forderung nach höherer Energieeffizienz getrieben. Nicht zuletzt gibt es volkswirtschaftliche Bedürfnisse nach Lösungen.
Sollte sich der dezentrale Ansatz durchsetzen, so besteht bei der individuellen Strom-, Wärme- und Kältebereitstellung die Chance,
diese mit höchsten Anlagenwirkungsgraden bei niedrigsten Emissionen zu erreichen. Im Vergleich zur derzeitigen zentralen Erzeugung
ergeben sich Wertschöpfungsvorteile für regionale Anbieter. Dezentrale Energieerzeugungsstrukturen verlangen aber nicht nur nach
der Entwicklung geeigneter Kraft-Wärme-Kälte-Kopplungsmodule,
sondern vor allem auch nach Veränderungen im Stromnetz. Auf die
damit zusammenhängenden Fragen soll im Folgenden eingegangen
werden.
Stand der Technik
Die Sonne ist für die Erde der Hauptlieferant an Energie. Mit einer
mittleren Einstrahlungsdichte von über 100 W / m² bzw. einer mittleren Globalstrahlung von über 1000 kWh/m²a wäre für die Strom48
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 49
versorgung Deutschlands eine Fläche von ca. 4.000 km² ausreichend. Leider ist dieses Angebot nicht direkt nutzbar, es muss umgewandelt werden, dabei treten (Umwandlungs-) Verluste auf.
Hinzu kommt das stark fluktuierende Angebot durch Jahreszeit,
Tageszeit und Wetterlage.
Diese Probleme gibt es bei der Nutzung fossiler Energieträger
nicht. In fossilen Energieträgern (Kohle, Erdöl oder Erdgas) findet
man die vor Jahrmillionen gespeicherte Sonnenenergie. Durch den
verstärkten Abbau und die anschließende Verbrennung (Oxidation)
der fossilen Energieträger seit der Industrialisierung (19. Jh.) gelangt
immer mehr CO2 in die Erdatmosphäre. Seit ca. 500.000 Jahren ist
der Kohlendioxidanteil in der Erdatmosphäre etwa konstant und
schwankt zwischen 200 und 300 ppmV. Inzwischen werden Kohlendioxidkonzentrationen von über 380 ppmV erreicht (Abb. 1). Mit
einem weiteren Anstieg ist zu rechnen. So wertet die International
Energy Agency (IEA) im World Energy Outlook 2008 zwei zukünftige Szenarien mit einem CO2-Anteil von 450 und 550 ppmV aus
[4].
Abb. 1: CO2-Anteil in der Erdatmosphäre [3]
49
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 50
Die Stromerzeugung in DeutschDie Gewinnung fossiler Energieträger
land und Europa wird aktuell von
wird zunehmend aufwändiger.
zentralen Kraftwerken dominiert.
Gleichzeitig muss die optimale VerSo wurden 2008 57,5 % der Nettowertung des emittierten Kohlendistromerzeugung in Deutschland,
oxids gewährleistet werden. Aus
das sind 345,6 TWh, in konvendiesen Gründen ist eine Substitution
tionellen Kraftwerken durch die
der fossilen Energieträger auf lange
Verbrennung von Kohle, Öl und
Sicht unabdingbar.
Gas bereitgestellt [1]. Damit gelangten 2008 ca. 764 Mio. t CO2 in die Atmosphäre. Hinzu kommt,
dass über 50 % der Elektroenergie aus Energieträgern gewonnen
wird, deren Reichweite mehr oder weniger begrenzt ist.
Die IEA gibt in ihrem World Energy Outlook 2008 [4] an, dass im
Jahr 2020 noch drei Viertel des geplanten Strombedarfs mit bereits
heute bestehenden Kraftwerken gedeckt werden. Im Jahr 2030 wird
sich dieses Verhältnis auf die Hälfte reduzieren. Das liegt daran, dass
der Kraftwerkssektor durch lange Laufzeiten und die damit verbundenen langfristigen Investitionen in die Infrastruktur gekennzeichnet ist. Es besteht sofortiger Handlungsbedarf, um in einem überschaubaren Zeitraum eine spürbare CO2 - Minderung zu erhalten.
Maßnahmen
Das Ziel ist damit definiert: die Senkung der energiebedingten CO2Emissionen (Abb. 2). Verschiedene Strategien bieten sich an. Durch
Substitution lässt sich im Bereich der erneuerbaren Energien sehr
viel erreichen. Dazu sind entsprechende Technologien mit den
damit verbundenen Investitionen nötig. Vergleichsweise geringere
Effekte bei geringeren Investitionen erzielt man durch den Einsatz
von Erdgas statt Kohle. Durch das kleinere C:H-Verhältnis erhält
man bei Einsatz der gleichen Energiemenge geringere CO2-Emissionen.
50
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 51
Abb. 2: Möglichkeiten der Senkung der energiebedingten CO2-Emissionen
Eine weitere strategische Maßnahme ist die Einsparung. Hier gibt es
ein enormes Reduktionspotenzial – vor allem im Bereich der Gebäudetechnik – verbunden mit kurzen Amortisationszeiten [11]. Behindert wird die Umsetzung durch zum Teil hohe Investitionskosten
und mangelnde Handlungsbereitschaft in der Bevölkerung.
Die Lagerung wird zurzeit als eine der Möglichkeiten zur Lösung
des CO2-Problems gesehen. Sollte sie im großen Stil eingesetzt werden können, bietet sich auch hier ein großes Reduktionspotenzial.
Das setzt aber die Akzeptanz in der Bevölkerung und das Vorhandensein sicherer Speicherkapazitäten voraus.
Mit der isolierten Betrachtung einer Maßnahme wird das Ziel
nicht erreicht werden können. Deshalb wird für einen Lösungsansatz immer ein systemischer Ansatz mit einer Kombination verschiedener Maßnahmen zum Einsatz kommen. In Systembetrachtungen (Lebenszyklusanalyse etc.) sind alle klimarelevanten Emissionen eines Prozesses zu erfassen.
Lösungsansatz „Dezentrale Energiebereitstellung“
Mit dem Lösungsansatz „Dezentrale Energiebereitstellung“ werden
vor allem Maßnahmen aus der Strategieebene „Substitution“ und
„Einsparung“ verfolgt. Dezentrale Energieanlagen können mit
höchsten Anlagenwirkungsgraden betrieben werden, da prinzipiell
51
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 52
alle anfallende Wärmeenergie geSmart Grid: Ein Smart Grid ist ein
nutzt werden kann. Außerdem
intelligentes Netzwerk zur Energiekann als Energieträger vorzugsübertragung und -verteilung, das auf
weise regenerative Energie eingewechselseitiger Kommunikation zwisetzt werden. Die geringere Enerschen allen am Energiemarkt beteigiedichte im Vergleich zu fossilen
ligten Einheiten beruht. Es bindet
Energien wirkt sich bei dezentraler
sowohl große, zentrale wie auch
Nutzung nicht so negativ aus. Es
kleine, dezentrale Erzeugungseinheiergibt sich somit eine besonders
ten und Verbraucher in eine Gesamtrationelle Form der Energiewandstruktur ein. Ermöglicht wird dies
lung und -anwendung. Das fluktuunter anderem durch die Erweiterung
ierende Angebot kann mit Enerder Automatisierungsstruktur, durch
giespeichern ausgeglichen werden.
fortschrittliche Sensoren und eine deDer Aufbau eines Smart Grid ist
zentral organisierte Informationseine Voraussetzung für diesen
und Kommunikationsstruktur. Smart
Lösungsansatz (siehe Kasten).
Grid steigert so die Effizienz, ZuverDes Weiteren ist denkbar, dass
lässigkeit und Sicherheit der Energiein Zukunft ein großer Teil des
versorgungskette. Ein weiterer wesentFahrzeugparks auf Hybridtechnik
licher Aspekt ist es, dem verbrauoder reinen Elektroantrieb umgechenden Endkunden Möglichkeiten
stellt ist. Dann sind Tag und
zu eröffnen, aktiv am Energiemarkt
Nacht die Batterien von Millionen
teilzunehmen und somit einen BeiFahrzeugen mit dem Netz verbuntrag zum Klimaschutz zu leisten.
den, was einem gigantischen vir[Siemens AG]
tuellen Energiespeicher gleichkommt. Dieser Speicher kann überschüssige Energiemengen aus
dem Netz zwischenspeichern und bei Bedarf wieder abgeben. Eine
zentrale Steuerung dieses Systems wird es nicht geben können. Es
wird sich, ähnlich wie das Internet, eigenständig dezentral regeln.
In verschiedenen Untersuchungen wurde in Szenarien überprüft,
wie viel Autos bzw. Batterien zur Verfügung stehen. Es konnte gezeigt werden, dass in den Industriestaaten über 90 % der Fahrzeuge
selbst zur Rushhour nicht bewegt werden und damit für das Laden
bzw. Entladen zur Verfügung stehen. Damit ist die Speicherfrage allerdings noch nicht vollständig geklärt. Zwingend erforderlich ist
52
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 53
ein Energiemanagement, um die Rückwirkungen der Lade- und Entlade- vorgänge der Elektrofahrzeuge auf das Netz zu verringern,
sowie der konsequente Anschluss der Fahrzeuge an das Netz – auch
unter dem Begriff Vehicle to grid (V2G) bekannt. Elektrofahrzeuge
gibt es schon seit Jahrzehnten. Die Weiterentwicklung erfolgt mit
unterschiedlicher Intensität. Vor der Einführung des Verbrennungsmotors waren Elektrofahrzeuge weit verbreitet. Preiswertere Verbren- nungsmotoren verdrängten die leisen Gefährte von der
Straße. Aufgrund der derzeit verstärkten Diskussion um knapper
werdende bzw. unsicher zu beschaffende fossile Energieträger
(Erdöl) und die Einsparung von Emissionen bietet sich die Möglichkeit, Elektrofahrzeuge in den Massenmarkt einzuführen. Das bietet
vor allem ein großes Potenzial in Hinsicht auf den mobilen Energiespeicher, der eine erstaunliche Größe aufweisen kann, wenn man
die stehenden Fahrzeuge vernetzt. Erste Erfahrungen werden bei
Siemens mit einem umgebauten Porsche gesammelt [10]. Aber auch
andere Speichertechnologien sind in der Diskussion. Mit einem
DEMS (Dezentrales Energiemanagement System) lassen sich „virtuelle“ Speicher bauen, indem Wärme oder andere schaltbare Lasten
gezielt angesteuert werden. Die Auswirkungen auf das Netz sind
ähnlich wie bei großen Elektroenergiespeichern. Außerdem bieten
GuD-Kraftwerke die Möglichkeit, im Minutenbereich als Ausgleich
fluktuierender Einspeiser zu reagieren.
Herausforderungen
In einer Studie des BMU [2] wird davon ausgegangen, dass bis 2020
ca. 27 % der Bruttostromerzeugung aus dezentralen (erneuerbaren)
Anlagen bereitgestellt werden kann. In verschiedenen Demonstrationsprojekten soll die prinzipielle Möglichkeit und der wirtschaftliche Nachweis erbracht werden, dass die Technologie in Zukunft
sicher eingesetzt werden kann. Dabei werden einige offene Punkte
zu klären sein.
53
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 54
Steuerung / Regelung / Software
Wie organisiert sich ein Smart Grid? Wer organisiert die verschiedenen dezentralen Anlagen? Wie werden die dezentralen Anlagen angesteuert? Wer wird als „Master“, wer als „Slave“ geführt?
Rechte / Pflichten
Was passiert bei einem Ausfall des Netzes? Wer fährt das Netz wieder hoch? Wer kann (!) das Netz wieder hochfahren? Welche (zentralen) Reservekapazitäten sind vorzuhalten? Wer kommt dafür auf?
Gibt es Speicher, die das witterungsbedingt fluktuierende Angebot
im Netz ausgleichen können? Wer garantiert die Einhaltung der
Netzparameter (z. B. Spannungsqualität)?
Komponenten / Hardware
Welche Netzwerkkomponenten sind neu zu entwickeln, um den
veränderten Anforderungen im Netz gerecht zu werden? Wie ist der
Entwicklungsstand der dezentralen Erzeugungskomponenten?
Die Beantwortung dieser Fragen liegt im Fokus vieler aktueller Forschungsprojekte. Besonders aktiv ist in Deutschland das ISET Kassel
mit dem Projekt eEnergy – Regenerative Modellregion Harz [5], u.a.
in Zusammenarbeit mit Siemens [6]. Weitere Aktivitäten gibt es zwischen Siemens und RWE [7], an der TU Clausthal und vielen weiteren Forschungseinrichtungen. Die Europäische Kommission gründete eine europäische Smart-Grids-Technologieplattform, um die
Entwicklung und die Installation von intelligenten Stromnetzen voranzubringen.
Der Gesetzgeber unterstützt die Einführung der neuen Technologien
in Deutschland, z. B. mit dem Kraft-Wärme-Kopplungs-Gesetz und
dem Erneuerbare-Energien-Gesetz [8, 9].
Die Automobilfirmen beschäftigen sich intensiv mit Elektroantrieben für Fahrzeuge, lassen aber Betrachtungen der Netzrückwirkungen bei Anschluss vieler Fahrzeuge an das Energieversorgungsnetz
54
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 55
außer acht. Dabei kommt diese Aufgabe letztendlich nicht den großen Netzbetreibern zu, sondern den Betreibern der Verteilnetze, also
typischerweise den Stadtwerken. Hier besteht noch akuter Handlungsbedarf.
Zusammenfassung
Die Verminderung der energiebedingten CO2-Emissionen ist eines
der Hauptziele und Herausforderungen unserer Zeit. In Systembetrachtungen (Lebenszyklusanalyse etc.) sind alle klimarelevanten
Emissionen eines Prozesses zu erfassen.
Elektrische Energie wird in Zukunft in einem geringeren Maße als
heute in zentralen Großkraftwerken bereitgestellt werden. Dafür
wird zunehmend die dezentrale Erzeugung aus regenerativen Energien – verbunden mit Speichertechnologien – bei höchsten Anlagenwirkungsgraden zum Einsatz kommen. Damit ändern sich auch
die Anforderungen an das Stromnetz. Im Gegensatz zu heute wird
es vielfältige Energieflüsse in alle Richtungen geben. Ein Ansatz zur
Lösung des Speicherproblems ist die Kopplung der Batterien vieler
Elektrofahrzeuge mit dem Stromnetz. Weitere Konzepte werden diskutiert bzw. erprobt. In jedem Fall ist ein Energiemanagement
nötig. Realisiert werden kann es mit einem sogenannten Smart
Grid.
Die anstehenden Fragen zur Einführung und Umsetzung der Technologie werden in vielen Forschungsprojekten untersucht. Schwerpunkte liegen bei der rechtlichen Situation, bei der Software
(Steuerung, Regelung) und bei der Hardware (Netzkomponenten,
KWK-Module).
55
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 56
Literatur
[1]
Staschus, K.; Wegner, B.: Elektrizitätswirtschaft, BWK Bd. 61 (2009)
[2]
N.N. Weiterentwicklung der Ausbaustrategie Erneuerbare Energien Leitstudie
Nr. 4, ISSN 1618-193X
2008, Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit
(BMU), Referat Öffentlichkeitsarbeit 11055 Berlin, Stand Okt. 2008.
www.erneuerbare-energien.de / files / pdfs / allgemein/application / pdf /
leitstudie2008.pdf
[3]
http://www.globalwarmingart.com, Aufruf am 24.04.2009
[4]
World energy outlook 2008, Fact sheet, IEA, www.iea.org,
[5]
Mackensen, R., Rohrig, K., Speckmann, M.; Das Virtuelle Kraftwerk –
ISBN 978-92-64-04560-6
Kombikraftwerk; 11. Internationale Solarkonferenz Mecklenburg-Vorpommern,
Wietow, 4. August 2008.
[6]
Hoffmann, C. et al; Design of transport and storage capacities for a future
European power supply system with a high share of renewable energies,
Proceedings IRES 2008, Internationale Konferenz zur Speicherung Erneuerbarer
Energien, Berlin 2008.
[7]
http://w1.siemens.com / press / de / pressebilder / innovationnews /
in20081203 / in20081203-02.htm
[8]
KWK-Gesetz, Bundesgesetzblatt, Jg. 2008, Teil I Nr. 49, 31.10.2008, S. 2101 ff.
[9]
EEG, Bundesgesetzblatt, Jg. 2008, Teil I Nr. 49, 31.10.2008, S. 2074 ff.
[10] Schröder, T.; Der Windstrom fährt spazieren, Bild der Wissenschaft 5 / 2009,
S. 92 – 99.
[11] Sustainable Urban Infrastructure Ausgabe München –
Wege in eine CO2-freie Zukunft, Siemens AG München, 2009, Bestell-Nr.
A19100-F-P135.
56
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 57
MASCHINENBAU
Neue Methoden der Planung und Steuerung
von Produktentwicklungsprozessen
Dr.-Ing. Thomas Naumann
An zentralen Stellen werden in großen Unternehmen der Automobilbranche, ebenso in Unternehmen vergleichbarer Produktkomplexität und Ausrichtung, Geschäftsprozessmodelle zur Beschrei- bung
der Abläufe der Produktenwicklung erstellt. Diese formalisierten
Prozessbeschreibungen standardisieren und koordinieren zum einen
das Vorgehen und Miteinander der einzelnen, an Produktentwicklung und Produktionsvorbereitung beteiligten Bereiche. Zum anderen geben sie einen Rahmen zur Terminplanung und operativen
Projektsteuerung von Fahrzeug- und Aggregatprojekten vor. In
Summe sollen sie den Reifegrad und die Qualität neuer Produkte
sowie eine termingetreue Produktentwicklung sicherstellen.
Die Beschreibung und Abstimmung von Produktentwicklungsprozessen ist höchst aufwändig, da eine Vielzahl unterschiedlichster
Vorgaben und Randbedingungen bezüglich des zu entwickelnden
Produkts und der dies realisierenden Organisation zu berücksichtigen sind. Bei der Anwendung der Produktentwicklungsprozesse zur
Terminplanung und operativen Projektsteuerung multipliziert sich
der Aufwand entsprechend der Anzahl der neu aufgesetzten Projekte, da die Produktentwicklungsprozesse, den dortigen Anforderungen und Randbedingungen gebührend, jedes Mal aufs Neue
spezifisch angepasst werden müssen. Um diesen Anpassungsaufwand zu minimieren, wurde im Rahmen eines Forschungsprojektes
der Daimler AG eine Prozessbibliothek konzipiert, mit der es vergleichbar einfach ist, parametrische Prozessbausteine aus in ver57
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 58
schiedenen Projekten bewährten Produktentwicklungsprozessen
wieder zu verwenden und zu einem neuen Produktentwicklungsprozess zusammenzufügen. Ein wichtiger Teil des Projektes war die
Entwicklung einer bidirektionalen Schnittstelle zwischen den Standard Prozess- und Projektmanagementwerkzeugen des Automobilbaus (ARIS® und RPlan®), welche einen tagtäglichen Abgleich
zwischen dem geplanten und spezifisch angepassten Produktentwicklungsprozess und dem realem Ablauf im Projektgeschehen,
sprich der Instanz des Produktentwicklungsprozesses, ermöglicht.
Für das Prozessmanagement der Daimler AG war das ein wichtiger
neuer methodischer Ansatz, um den steigenden Anforderungen und
der wachsenden Komplexität in der Produktentwicklung gerecht zu
werden.
Aufgrund der Gesetzesvorlagen zur CO2 - Reduzierung, steigender
Rohstoffpreise und Energiekosten, der sich stark verändernden
Märkte und dem starken Wettbewerb steht der deutschen Automobilbranche eine Dekade der Veränderungen bevor, die eine bestmögliche Effizienz und Qualität der Abläufe erfordert (Schmückle, COO
Mercedes Car Group 2008). Das heißt es werden in Zukunft, um im
Wettbewerb zu bestehen, bei nahezu gleichbleibender Organisationsgröße mehr Kooperationen, mehr Fahrzeugtypen mit ausdifferenzierten Antriebstechnologien für verschiedene Märkte entwickelt
werden.
Auf das Thema Prozessmanagement bezogen heißt das, dass mehr
inhaltlich neue und auch neuartige verteilte Produktentwicklungsprozesse beschrieben und, davon abgeleitet, deutlich mehr Projekte
geplant, abgestimmt und gesteuert werden müssen. Allein operativ
umsetzen lässt sich diese Prozess- und Projektvielfalt mit den derzeitigen Methoden und Tools dann nicht mehr. Auch der obige Ansatz
der neuen Prozessbibliothek reicht dazu dann nicht mehr aus.
Immer noch organisatorisch zu zentralisiert und von der abzustimmenden Informationsmenge methodisch zu aufwendig und zu zeitraubend, ist das heute gebräuchliche Vorgehen zu starr und
58
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 59
unflexibel, wenn es darum geht, wertvolles Erfahrungswissen aus erfolgreichen Projekten schnell und übergreifend zu generieren, und
anders herum als prozessuale Änderung in andere Projektpläne umzusetzen.
Produktentwicklungsprozesse müssen daher in Zukunft deutlich
operativer eingesetzt werden. Sie dürfen nicht nur zum Aufsatz von
Projekten und zur zeitlich versetzten Auswertung von Erfahrungswissen benutzt werden, sondern müssen auch zur adaptiven Planung und Steuerung von Fahrzeugprojekten in Echtzeit herangezogen werden. Sie würden dann nicht mehr nur von einigen wenigen Prozessexperten zentral erhoben und beschrieben werden, sondern jeder Projektmanager und jeder Prozessverantwortliche würde
integriert in seine individuelle Arbeitsumgebung wissen und dokumentieren, was tagesaktuelle Aufgaben sind, welcher Fortschritt erreicht wurde, woher wichtige Informationen kommen, wer auf die
Ergebnisse angewiesen ist und mit welchen Methoden, Vorlagen
und Werkzeugen die Aufgaben im Verantwortungsbereich am besten erfüllt werden können. So kann jeder über sogenannte Kooperationsplattformen, welche technisch u. a. auf den heutigen Web2.0Technologien basieren, von den Erfahrungen anderer Bereiche profitieren und seinerseits sein Produkt- und Prozesswissen anderen automatisch zur Verfügung stellen. Produktentwicklungsprozesse
werden sich insgesamt flexibler an den notwendigen Kompetenzen
einer Aufgabe, eines Projektes, eines Unternehmens ausrichten und
sollen dabei, wie gefordert, noch deutlich effizienter werden.
In diesem Sinne ist hier noch nicht Schluss mit der Entwicklung
neuer Ansätze zum Prozessmanagement. In der Regel erreichen die
mit den heute vorhandenen Methoden relativ abstrakt beschriebenen Produktentwicklungsprozesse nicht die Arbeitsebene einzelner
Teams bzw. einzelner Produktentwickler und die dort ablaufenden
Ad hoc Prozesse, welche bis zu 80 % der Arbeitszeit ausmachen. Auf
dieser Ebene verdeutlicht sich die operative Komplexität durch die
Vielzahl von festzulegenden Strukturen und Parametern des Pro59
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 60
dukts und die Unmenge an Informationen, die in den nahezu unzähligen spontanen und geplanten Interaktionen tagtäglich bereitgestellt, ausgetauscht, abgestimmt und entschieden werden.
Somit liegt ein weiterer Ansatz zur Steigerung der Effizienz von Produktentwicklungsprozessen in der Betrachtung von Interaktionen
und Kommunikation. Allgemein ist Kommunikation die wichtigste
menschliche Interaktionsform und der Träger sozialen Handelns.
Speziell in der hier vorliegenden Betrachtungsweise soziotechnischer Systeme, in denen ein soziales System ein technisches System
entwickelt, produziert oder nutzt, werden alle Systemfunktionen
überhaupt erst durch Kommunikation ausgeprägt. Systemfunktionen sind dabei zum einen die Funktionen sozialer Systeme nach
Willke, zum anderen alle Handlungsfunktionen zur Synthese des zu
entwickelnden Produktes, wie sie von Ropohl skizziert wurden.
Schon heute lässt sich über die statistische Auswertung von Kommunikationsereignissen in den Interaktionen einzelner Teams, wie
sie innerhalb von Planspielen beobachtet werden konnten, die Effizienz von Gruppenarbeit messen, bewerten und miteinander vergleichen. In Zukunft soll es dann möglich sein, über die Analyse
und statistische Auswertung verschiedenster Kommunikationsereignisse, von geplanten und fortführend auch spontan stattfindenden
Interaktionen, ganz konkrete Aussagen über die Effizienz beliebiger
Ad hoc Prozesse treffen zu können, unabhängig von der technischen und sozialen Komplexität des betrachteten soziotechnischen
Systems. In der Summe wird die Betrachtung von Produktentwicklungsprozessen damit auf eine gänzlich neue Basis gestellt und die
Entwicklung völlig neuer Methoden zur Planung und Steuerung ermöglicht.
Denn durch die systemische Betrachtung der Produktentwicklung
und das Erkennen signifikanter Interaktions- und Kommunikationsmuster in Bezug auf die Planung und Steuerung beliebiger Strukturen, Prozesse, Funktionen und Ziele lassen sich einfache und direkte
60
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 61
Steuerungsmethoden voraus denken, die mit wenigen Steuerungsgrößen auskommen und trotzdem eine effektive Selbststeuerung des
Systems ermöglichen. Dazu werden in einem aktuellen Forschungsvorhaben, unter Berücksichtigung des Datenschutzes, projekttypisch vorhandene Interaktionen und Kommunikationsereignisse
analysiert und statistisch ausgewertet. Mess- und Steuergrößen werden definiert, die im nächsten Schritt allen Beteiligten in Echtzeit
einen Überblick über den tatsächlichen Zustand des Systems geben
und, wenn nötig, Änderungen im Produktentwicklungsprozess ermöglichen.
Indem wir Interaktion und Kommunikation im Kontext der Analyse, Planung und Steuerung soziotechnischer Systeme betrachten,
werden völlig neue Prinzipien der Selbstorganisation möglich und
es wird zu einem Paradigmenwechsel im Prozessmanagement kommen, der einen kulturellen Wandel in der Art, wie wir neue Produkte entwickeln, nach sich zieht.
61
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 62
QUANTENPHYSIK
Quantenkommunikation mit integrierter Optik
PD. Dr. Christine Silberhorn
Licht spielt in unserem alltäglichen Leben eine entscheidende Rolle
und bildet die Grundlage für jegliche visuelle Beobachtung. Die Beschreibung des Lichtes selbst ist jedoch nicht einfach, da es sich bei
dem Begriff um ein abstraktes Konzept handelt und in den verschiedensten Ausprägungen auftritt. Der Quantencharakter des Lichtes
zeigt sich darin, dass je nach Versuchsanordnung sowohl Teilchenals auch Welleneigenschaften zum Vorschein kommen. Es stehen
uns heute eine moderne Lasertechnologie und eine Vielzahl integrierter, optischer Komponenten zur Verfügung, die es uns erlauben, Ultrakurz-Zeitpulse mit exakt definierten Energie-Quanten zu
erzeugen und in Netzwerken miteinander zu verschalten. Damit ergibt sich heute die Perspektive, neuartige optisch basierte Quantensysteme zu entwickeln und damit sowohl neue Technologien zu
etablieren als auch Fragen der Grundlagenphysik experimentell zu
erkunden.
Auf dem Gebiet der Quanteninformationsverarbeitung (bzw. Quanten-Kommunikation) ermöglichen quantisierte Licht-Zustände beispielsweise, Information auf neuartige Weise sicherer und leistungsfähiger zu übertragen und zu verarbeiten. Der Begriff der QuantenInformationsverarbeitung setzt sich hierbei aus zwei Begriffen zusammen, die jeweils für zwei unterschiedliche Forschungsfelder
stehen: Quantenphysik und Informationsverarbeitung. In der traditionellen Informationsverarbeitung wird Information in einer Abfolge von binären Zahlenfolgen 01010100… kodiert, wobei mit
Hilfe logischer Gatter auf Basis der kleinsten Informationseinheiten,
62
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 63
den Bits, Rechenoperationen verwirklicht werden. Technisch werden Bits durch zwei eindeutig unterscheidbare Signal-Zustände, z.B.
AN/AUS eines Schalters, realisiert. Die Quantenphysik erfordert im
Gegensatz zur klassischen Datenverarbeitung, dass für zwei eindeutig definierte Signal-Zustände stets auch deren kohärente Überlagerungszustände existieren. In Analogie zum Wellencharakter zweier
optischer Felder in der klassischen Beschreibung entsprechen
diese Überlagerungszustände keiner statistischen Mischung der Ursprungs-Zustände, sondern müssen als das gleichzeitige Vorhandensein von 1 und 0 aufgefasst werden. Daher lässt sich der Informationsinhalt eines Quanten-Zustandes im Allgemeinen nicht als klassische Information, d.h. als Bit-Folge, repräsentieren. Dies führt
zur Einführung des Begriffes der Quanteninformation, wobei als
kleinste Quanten-Informationseinheit das Quanten-Bit, oder kürzer
QuBit, eingeführt wird. Ein QuBit beschreibt wiederum die Information, die nun durch einen einzelnen Quanten-Zustand repräsentiert
werden kann.
Zur Implementierung der Konzepte der Quanteninformation benötigt man Systeme, die es erlauben, möglichst genau definierte Quantenzustände zu erzeugen und diese gezielt zu manipulieren. Die
Quantenoptik bietet hierfür einen viel versprechenden Zugang, da
hochgradig nicht-klassische Zustände mit hoher Reinheit vergleichsweise einfach erzeugbar sind. Speziell für die Quantenkommunikation können damit schon heute QuantenkryptographieSysteme implementiert werden, die eine sichere Informationsübertragung gewährleisten, die nachweisbar klassisch nicht möglich ist.
In meinen aktuellen Forschungsarbeiten werden neue Ansätze für
zukünftige Quantenkommunikations-Systeme verfolgt, um effizientere Präparations-, Charakterisierungs- und Manipulationsmethoden von Quanten-Licht bereit zu stellen. Durch den Einsatz nichtlinearer optischer Wellenleiter sowie linearer Netzwerke auf Wellenleiterchips in Verbindung mit ultraschnellen Laserlichtpulsen be63
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 64
steht eine vielversprechende Perspektive, die heutigen Grenzen der
Quanten-Zustands-Erzeugung zu überwinden. Die Forschungsarbeiten zielen längerfristig darauf ab, Grundbausteine für moderne
Quantenkommunikationssysteme zu entwickeln, die eine sichere
Datenübertragung über verschiedene Knotenpunkte (Verstärkerstationen, engl. „quantum repeater“) hinweg gewährleisten zu können. Die Verwirklichung miniaturisierter komplexer QuantenNetzwerke, die mehrere Quellen und verschiedene Detektionseinheiten einbinden und damit unterschiedliche Zustandsmanipulation mit hoher Perfektion beherrschbar machen, ist derzeit ein
Schwerpunkt aktueller Forschung in verschiedenen internationalen
Gruppen. In der theoretischen Modellierung entsprechen solche
Netzwerke „Quanten-Rechnern“ mit kleinen Registern, d.h. mit wenigen Eingangs-Zuständen, die Quanteninformation kohärent prozessieren können.
Photonische Quanten-Zustände werden bislang meist in zwei getrennten Kontexten betrachtet: Systeme diskreter Variablen sowie
kontinuierlicher Variablen. Bei Systemen diskreter Variablen steht
direkt die Quantisierung der Energie eines Lichtfelds im Zentrum
und man definiert als Signalträger Ein-Photonen-Zustände Lichtpulse mit genau definierter Photonenzahl. Als spezielle Quantencharakteristika, beispielsweise Superpositionen verschiedener
Basis-Zustände (die u. a. die QuBits der Quanteninformationskodierung festlegen) werden modale Eigenschaften, d.h. die Polarisation,
Frequenz oder Ausbreitungsrichtung der Zustände untersucht. Im
Gegensatz dazu korrespondiert der Begriff der Systeme kontinuierlicher mit der Vermessung der Amplitude und Phase eines Lichtfeldes
im Phasenraum. Als orthogonale Feldquadraturen entsprechen
Amplitude und Phase in der quantenmechanischen Beschreibung
einem Paar konjugierter Variablen. Sie gehorchen deshalb der
Heisenberg’schen Unschärfe-Relation und sind somit niemals
gleichzeitig scharf bestimmbar. Diese Quanteneigenschaft ermöglicht es beispielsweise, durch eine Informationskodierung auf beiden Quadraturen und eine geschickte Selektion der gemessenen
64
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 65
Daten analog zur Quantenkommunikation mit diskreten Variablen
eine sichere Informationsübertragung zu bewerkstelligen. Der Vorteil dieses alternativen Zugangs ist es, dass die Präparation der Signal-Zustände wesentlich besser an verfügbare Laserstrahlung angepasst ist, wodurch die Erzeugung der Signalzustände vereinfacht
wird. Allerdings haben neuere Entwicklungen des Gebietes wiederum gezeigt, dass bei dem aktuellen Stand der Technik weder Systeme diskreter Variablen noch die kontinuierlicher Variablen alleine
ausreichend sind, um lange Distanzen über verschiedene Verstärkerstationen überbrücken zu können. Ein Ausweg für die Übertragung
von Quanteninformation über verzweigte Netzwerke hinweg
scheint in dem Zusammenspiel zwischen Konzepten diskreter Variablen und kontinuierlicher Variablen zu liegen. Die Entwicklung
photonenzahlaufgelöster Detektion und alternativer Zustands- charaktersierungen im Phasenraum stellt eine der Grundlagen für die
genauere Erforschung dieses Zwischenbereichs dar. Die Implementierung reiner Photonenzahl-Zustände als ultrakurze Wellenpakete
bietet große Vorteile für deren Zusammensetzbarkeit in Netzwerken.
Aus Sicht der Grundlagenforschung sind lineare Netzwerke mit
hochgradigen nicht-klassischen Eingangszuständen ein ideales Modellsystem um komplexere Quantensysteme experimentell erkunden zu können. Die Implementierung von Quanten-Verstärkern
entspricht der Umkehrung quantenmechanischer Dekohärenzprozesse, sodass die Experimente auch ein genaueres Verständnis des
Quanten-Messprozesses sowie der Grenzen zwischen der makroskopischen klassischer Physik und mesoskopischer Quantensysteme liefern. Die Realisierung photonischer Quantenzustände als ultrakurze
Wellenpakete ist zudem von grundsätzlichem Interesse. Beispielsweise können sie dazu dienen, die Beziehung zwischen der Energie
und Photonenzahl gepulster Systeme oder relativistischer Quantenphänomene genauer zu erforschen. Für die fernere Zukunft haben
sie weiterhin das Potenzial, Wechselwirkungen von einzelnen Atomen mit einzelnen Photonen auf völlig neuen Zeitskalen zu beobachten.
65
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 66
Quellen neuartiger Quanten-Zustände
Eine etablierte Technik zur Erzeugung von Ein-Photonen-Zuständen
beruht auf der nicht-linearen Wechselwirkung eines starken PumpLaserstrahls mit einem nicht-linearen Kristall. Bei der so genannten
Zwei-Photonenfluoreszenz (engl.: „parametric down-conversion“)
entsteht durch den Zerfall eines Pump-Photons – unter Berücksichtigung der Energie- und Impulserhaltung – jeweils genau ein Photonenpaar. Für geeignete Bedingung können die beiden Photonen
leicht mittels linearer Optik getrennt werden, sodass mittels der Detektion eines Photons die Existenz des Partnerphotons angekündigt
und konditionierte Einzel-Photonen-Zustände erzeugen werden
können.
In den letzten Jahren wurde nun erstmals damit begonnen, nichtlineare Wellenleiter und spezielle optische Fasern einzusetzen, um
die Effizienz dieses Prozesses maßgeblich zu erhöhen. Damit sind
zum einen höhere Erzeugungsraten verwirklichbar, und zum anderen wird eine stark verbesserte Qualität der Reinheit der Ein-Photonen-Zustände erreicht. Werden zudem die integrierten Wellenleiterchips mit ultraschnellen Pumppulsen betrieben, so können
durch ein speziell gestaltetes Design der dispersiven Eigenschaften
der Wellenleiter neuartige Quantenzustände als ultraschnelle
Wellenpakete präpariert werden.
Durch die gesteigerte Effizienz wird in diesem Fall nicht nur die
Grundlage gelegt, um verbesserte konditionierte Ein-Photonen-Zustände zu erzeugen, sondern es können auch gequetschte Gaußsche
Zustände, die die Grundbausteine für Systeme kontinuierlicher Variablen sind, in stark vereinfachten experimentellen Aufbauten realisiert werden. Wendet man nun wiederum konditionierte Zustandspräparation auf diese gequetschten Zustände an, so ergibt sich
weiterhin die Möglichkeit, weitaus exotischere Zustände – wie beispielsweise Schrödinger-Katzen-Zusände – „einfach“ zu implementieren. Diese sind für die Quantenkommunikation in HybridSystemen im Zwischenbereich von diskreten und kontinuierlichen
66
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 67
Variablen wichtig. Durch die Verwendung integrierter Optik in
Kombination mit dem gepulsten Charakter der photonischen Zustände wird erstmals die Synchronisierung für die Verschaltung in
komplexeren Quanten-Netzwerken umsetzbar.
Photonenzahlaufgelöste Zustandscharakterisierung
Übliche Detektoren, die hinreichend sensitiv für den Nachweis einzelner Photonen sind, können nicht zwischen kleinen Photonenzahlen wie etwa 0, 1, 2 oder 3 unterscheiden. Stattdessen geben
binärere Lawinenphoto-Detektoren lediglich Auskunft darüber, ob
Licht in einer bestimmten Zeitspanne auftrifft. Zum Nachweis der
Photonstatistik von gepulsten Lichts kann als rein quantenoptische
Lösung eine faseroptische Anordnung zur zeitlichen Aufteilung
eines Eingangspulses in mehrere Teilpulse genutzt werden (siehe
Abb. 1).
Abb 1: Der Eingangssignalpuls trifft zunächst im Faser-Netzwerk auf einen ersten Strahlteiler mit symmetrischen 50 / 50 Teilungsverhältnis, d.h. die Wahrscheinlichkeiten für auftreffende Photonen nach oben bzw. unten zu streuen, beträgt jeweils 50%. Im oberen Zweig
durchläuft der Puls eine Verzögerungsschleife und kommt damit am zweiten Strahlteiler im
Vergleich zu Photonen, die im unteren Arm propagieren, verspätet an. Damit werden am
zweiten Strahlteiler beide Pulse separat wiederum im Verhältnis 50/50 geteilt. Nach dem
gleichen Prinzip durchlaufen die entstehenden Doppelpulse die nächste Stufe, sodass an den
beiden Ausgängen der Eingangspuls in acht Detektions-Ausgangspulse aufgeteilt ist. Ein binärer Detektor ist nun ausreichend, um die Photonenzahl des Eingangspulses nachzuweisen.
67
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 68
Für kleine Photonenzahlen kann die Wahrscheinlichkeit, dass mehrere Photonen bei der Aufteilung in einem Puls enden, vernachlässigt werden, d.h. jeder Ausgangpuls enthält entweder genau ein
oder kein Photon. Damit reicht die Messung mit binären Detektoren nach dem Faser-Netzwerk aus, um die Anzahl der Photonen abzählen zu können und somit eine photonzahlauflösende Messung
zu verwirklichen.
Diese Nachweismethode bietet im Vergleich zur etablierten Homodyn-Messung, die üblicherweise für die Bestimmung von Amplituden- und Phasenquadraturen eingesetzt wird, eine alternative
Methode, um Viel-Photonen-Zustände zu analysieren. PhotonenZahl-Messungen besitzen eine andere Signatur als Amplituden und
Phasen-Messungen, sodass es überraschenderweise möglich wird,
einzelne Punkte der Wigner-Funktion im Phasenraum exakt zu bestimmen. Das heißt, dass scheinbar die Heisenberg’sche Unschärferelation für die Amplitude und Phase eines optischen Feldes verletzt
werden kann. Diese Messungen sind damit ebenfalls ein wichtiger
Schritt für die Erkundung des Zwischenbereichs für Systeme, die
kontinuierliche und diskrete Variablen miteinander verbinden.
Quantenzustandsmanipulation in Quanten-Netzwerken
Zur Implementierung komplexerer Quanten-Netzwerke bzw. eines
Quantenrechners auf Basis photonischer Zustände bieten sich lineare Netzwerke mit konditionierender Zustandspräparation und
mehreren hochgradig nicht-klassischen Eingangs-Zuständen an.
Das Quellendesign mit integriert optischen Komponenten und gepulsten Quanten-Zuständen stellt hierfür den ersten Ausgangsschritt dar. Integrierte Optik ist dabei eine ideale „Hardware“, um
lineare Netzwerke mit hochgradig nicht-klassischen photonischen
Zuständen zu realisieren. Längerfristig besteht die Perspektive,
Quanten-Netzwerke auf einem einzelnen Chip aufzubauen, die es
erlauben, hochgradig nicht-klassische Zustände zu erzeugen und in
verschiedenen Kanälen miteinander zu verschalten. Damit kann
68
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 69
eine neue Form der Quantenlogik aufgebaut werden, die für optisch
basierte Quanten-Technologien entscheidend sein kann.
Als ein erstes Beispiel für die Möglichkeiten, die sich dadurch in
diesem Kontext ergeben, wird derzeit in meiner Arbeitsgruppe in
einem integriert optischen Aufbau ein „Quantum Walk“ Experiment durchgeführt. Dieses Experiment dient als Modell für die Untersuchung kohärenter Zustandsmanipulation und demonstriert
eindrucksvoll den Unterschied zwischen klassischen und quantenmechanischen Suchalgorithmen.
69
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 70
INFORMATIK
Integration von Systemmodellen,
Organisationsmodellen und Kommunikation in
verteilten Softwareentwicklungsprojekten
Dr. Timo Wolf
Einleitung
In Softwareentwicklungsprojekten werden die verschiedenen Aktivitäten wie die Erhebung von Anforderungen, die Analyse, das Systemdesign, sowie Implementierung und Test zunehmend von
verschiedenen Projektteilnehmern, verschiedenen Abteilungen oder
von externen Dienstleistungsfirmen in räumlich verteilter Umgebung durchgeführt. Starke Abhängigkeiten der Aktivitäten und der
zu entwickelnden Systemmodelle, sowie das konstante Auftreten
von Änderungen erhöhen die Komplexität und erfordern eine intensive Zusammenarbeit der Projektteilnehmer. Änderungen der
Systemmodelle einzelner Aktivitäten erfordern eine Analyse, welchen Einfluss diese Änderungen auf abhängige Modelle und Aktivitäten haben. Des Weiteren müssen gegebenenfalls Folgeänderungen
umgesetzt werden. Die Durchführung von Änderungen erfordert die
Identifikation von und die Diskussion mit relevanten Experten und
Entscheidungsträgern. Deren Verfügbarkeit muss in der Projektplanung berücksichtigt und gegebenenfalls angepasst und kommuniziert werden.
Verfolgbarkeit (Traceability) einzelner Systemmodelle und deren Abhängigkeiten, die Kommunikation über die Systemmodelle, Begründungen (Rationale Management), die zur Entwicklung der
Systemmodelle geführt haben, und die Kenntnis (Awareness) von
Experten, Entscheidungsträgern und Aktivitäten einzelner Teams
70
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 71
sind entscheidende Schlüsselfaktoren für eine erfolgreiche Zusammenarbeit in Softwareentwicklungsprojekten und sollten von modernen Entwicklungswerkzeugen unterstützt werden.
In der Praxis existieren etablierte Werkzeuge, die sich auf einzelne
Aktivitäten spezialisiert haben, z.B.
> zur Erhebung von Anforderungen (z.B. DOORS, Caliber,
oder Rational RequisitePro),
> zur Entwicklung von Systemmodellen (z.B. Together 2006,
Rational Rose),
> zur Unterstützung von Testmanagement (z.B. TestDirector),
> für das Änderungsmanagement (z.B. ClearQuest, Bugzilla, Jira),
> für das Projektmanagement (z.B. MS Project) und
> für die Kommunikation (z.B. E-Mail, Webforen, Wikis, Chat).
Eine wünschenswerte einheitliche Integration aller Werkzeuge ist
leider nur unzureichend realisiert. Sie verwenden unterschiedliche
Mechanismen und Formate zur persistenten Datenspeicherung.
Existierende Integrationen basieren auf Import, Export und Synchronisation der Daten. Dieser Ansatz ist jedoch komplex, zeitaufwändig und fehleranfällig. Ein einheitliches Konzept zur Integration von Projektorganisation, Kommunikation und Systemmodellen ist nur schwer umzusetzen und führt insbesondere in großen
und räumlich verteilten Projekten zu folgenden Problemen:
> Redundante Datenrepräsentation: Einzelne Artefakte existieren
mehrfach an oftmals verteilten Standorten und in unterschiedlichen Werkzeugen. Wird ein Artefakt geändert, ist die Aktualisierung
aller Duplikate schwierig, zeitaufwändig und häufig fehleranfällig.
Zum Beispiel werden im Systemdesign UML Werkzeuge zur Modellierung eingesetzt und Systemdesigndokumente teilweise oder ganz
generiert. Diese Dokumente dienen dann als Spezifikation in der
Implementierung. Modelländerungen müssen in dem Dokument
71
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 72
aktualisiert und an alle relevanten Projektbeteiligten kommuniziert
und verteilt werden.
> Fehlende Verfolgbarkeit: Unterschiedliche Artefakte existieren in
verschiedenen Werkzeugen. Wird ein Artefakt geändert ist der Einfluss auf abhängige Artefakte schwer zu erfassen. Zum Beispiel existieren Anforderungen in speziellen Werkzeugen. Die Systemarchitektur und einzelne Aktivitäten der Entwickler basieren auf den Anforderungen. Bei Änderungen der Anforderungen müssen alle abhängigen Artefakte identifiziert und angepasst werden.
> Fehlende Transparenz: Durch den Einsatz verschiedener Werkzeuge an verschiedenen Standorten ist der transparente Zugriff auf
alle Projektdaten erschwert.
> Fehlende projektweite Kenntnis: Durch eine fehlende zentrale
und transparente Organisation aller Aktivitäten ist die Kenntnis
über die Tätigkeiten fremder Teams und die Identifikation von Experten stark eingeschränkt. Das projektübergreifende Wissen existiert häufig nur im Management und einzelne Entwickler sind von
dessen Kommunikation abhängig. Manager werden zu Informationsbrokern und häufig zu einem Kommunikationsengpass.
> Implizites und verborgenes Wissen: Durch direkte Kommunikation zwischen Projektbeteiligten (z. B. per E-Mail oder Telefon) befindet sich projektspezifisches Wissen implizit bei einzelnen Personen und ist nicht für alle zugänglich.
Rationale-based Unified Softwareengineering Model
Unser Lösungsansatz für die beschriebenen Probleme ist eine uniforme Repräsentation eines vereinigten Datenmodells für alle Dokumente, Modelle, Kollaborationselemente und Projektorganisationselemente und wird in der Arbeit „Rationale-based Unified Softwareengineering Model“ [1] aus dem Juli 2007 beschrieben. In existierenden Methoden werden die Kollaborationselemente in der Regel
72
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 73
getrennt von der Entwicklung der Systemmodelle behandelt. Da in
unserem Ansatz alle Artefakte in einem einzigen vereinigten Modell
existieren, können Artefaktbeziehungen implizit im Modell festgehalten und verwaltet werden. Bei auftretenden Änderungen können
diese Beziehungen zur Identifikation von transitiv abhängigen
Artefakten verwendet und Mechanismen zur Konsistenzerhaltung
unterstützt werden. Informelle Kollaborationselemente, wie zum
Beispiel Kommentare und formale Diskussionsmodelle zur Repräsentation von Begründungen, werden festgehalten und sind
auch Teil des vereinigten Datenmodells.
Die Arbeit beschreibt ein erweiterbares Metamodell zur uniformen
Repräsentation aller Artefakte. Darauf aufbauend wird das RUSE
Model beschrieben, das ausgewählte Systemmodelle, Kollaborationsmodelle und Organisationsmodelle aus der Softwaretechnik integriert. Die Modelle können projektspezifischen Anforderungen
angepasst werden und sind somit universell einsetzbar.
Sysiphus
Unser Ansatz ist in dem Werkzeug Sysiphus [2] realisiert. Sysiphus
ist eine verteilte Anwendung, bei der das uniforme RUSE Model in
einem zentralen Server liegt und von den Nutzern über eine Desktop oder eine Web-basierte Schnittstelle erreicht wird. Zur Evaluierung unseres Konzeptes haben wir Sysiphus in einer Vielzahl von
verschiedenen Projekten eingesetzt. Darunter waren sowohl kleine
Projekte mit nur vier Projektbeteiligten, als auch große 40-Mann
Projekte. Sysiphus wurde in universitären Projektkursen, in unabhängigen studentischen Entwicklungsprojekten, in Industrieprojekten, als auch in der Lehre eingesetzt. Somit wurde Sysiphus sowohl
von Anfängern als auch von erfahrenen Softwareentwicklern eingesetzt und evaluiert.
Die Anwendungen von Sysiphus haben gezeigt, dass eine Integration von Systemmodellen, Organisationsmodellen und Kommunikation an einer zentralen Stelle zu einer größeren Transparenz führt.
73
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 74
Projektteilnehmer erlangen gute Kenntnisse über die Aktivitäten anderer Teams. Dies verbessert insbesondere die Kommunikation und
Zusammenarbeit zwischen verschiedenen Teams, die an unterschiedlichen, aber voneinander abhängigen Subsystemen arbeiten.
Bei kritischen Systemänderungen können relevante Experten
schneller identifiziert und nötige Folgetätigkeiten diskutiert und
kommuniziert werden.
Seit 2008 wird das Projekt Sysiphus unter dem Namen unicase [3]
fortgeführt.
IBM’s Rational Team Concert und die Jazz Plattform
IBM, einer der größten Hersteller für Softwareentwicklungswerkzeuge, versucht inzwischen die beschriebenen Probleme durch
einen ähnlichen Ansatz zu lösen. IBM entwickelt die Jazz Plattform
[4], um die Elemente der Softwareentwicklung – die Systemmodelle,
Projektmodelle und die Kommunikation – einheitlich, eindeutig
und integriert in Jazz-basierten Entwicklungswerkzeugen zu implementieren. Im Juni 2008 hat IBM das erste Jazz-basierte Werkzeug
Rational Team Concert (RTC) veröffentlicht. RTC integriert eine
Software-Entwicklungsumgebung mit der Projektorganisation, dem
Entwicklungsprozess, den Projektaktivitäten und den Aufgaben
einzelner Teams und Entwicklern. Des Weiteren stellt RTC einen
kommentar-basierten Kommunikationsmechanismus und einen Benachrichtigungsmechanismus per RSS-Feed für alle beinhalteten Artefakte bereit. Diese werden in einem zentralen Server gehalten und
können über eine Eclipse-basierte Desktop-Anwendung oder über
eine Web-basierte Schnittstelle durch eine eindeutige URL transparent von allen Entwicklungsstandorten erreicht werden.
RTC und die Plattform Jazz werden selber in dem räumlich verteilten Projekt Jazz an sieben verschiedenen Standorten in den USA,
Kanada und Europa entwickelt. 151 Entwickler sind in 47 verschiedenen Teams tätig, wobei ein Entwickler zu mehreren Teams gehören kann. Jedes Team ist für ein Subsystem oder eine Komponente
74
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 75
verantwortlich. Während der Entwicklung hat das Projekt schon
erste RTC Versionen für die eigene Entwicklung von RTC und Jazz
verwendet. Dadurch konnten sie das Produkt schon während der
Entwicklung evaluieren und Schwachstellen beseitigen.
Im SEGAL Labor der University of Victoria hatten wir die Möglichkeit, auf die Daten des RTC Servers des Jazz Projektes zuzugreifen
und sie für wissenschaftliche Studien zu verwenden [5, 6]. Insbesondere waren wir an dem Einfluss des integrierten Konzeptes auf die
Kommunikation und Zusammenarbeit von räumlich getrennten
Teams interessiert, da vorangegangene Studien eine Verzögerung
dieser in räumlich getrennten Projekten feststellen konnten (u.a.
Herbsleb und Mockus [7]).
Antwortzeiten verteilter Kommunikation im Jazz Projekt
Aktivitäten und Aufgaben der Softwareentwicklung werden in RTC
einzelnen Entwicklern zugeordnet. Um diese zu realisieren, müssen
sie in der Regel mit Entwicklern anderer Teams und anderen Standorten kommunizieren, um den Einfluss ihrer Änderung auf andere
Komponenten zu analysieren und abzustimmen. Dazu schreiben
die Entwickler Kommentare und hängen sie an die entsprechende
Aufgabe. Andere Entwickler antworten durch das Schreiben weiterer
Kommentare. Die entstehende Kommunikation steht in Bezug zu
der Aufgabe und alle Beteiligten werden per E-Mail benachrichtigt,
wenn ein neuer Kommentar geschrieben wird.
In der empirischen Studie [6] haben wir die Zeitintervalle zwischen
einzelnen Kommentaren als Antwortzeiten betrachtet und in Relation zu der Anzahl von Standorten der Kommunikationsbeteiligten
gesetzt. Abbildung 1 zeigt die Antwortzeiten in Tagen. Findet die
Kommunikation mit Personen von nur einem Standort statt, gibt es
viele kurze Antwortzeiten, aber auch einige sehr lange. Nimmt die
Anzahl der Standorte von den kommunikationsbeteiligten Personen
zu, wird die Anzahl der sehr kurzen und langen Antwortzeiten kleiner. Im Gegensatz zu vorangegangenen Studien nehmen die durch75
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 76
schnittlichen Antwortzeiten bei einer größeren Anzahl von beteiligten Standorten ab.
Abbildung 1: Antwortzeiten für die Anzahl von beteiligten Standorten in Tagen.
Kommunikationsstruktur im Jazz Projekt
Um das Kommunikationsverhalten besser zu verstehen, haben wir
Analysetechniken von Sozialen Netzwerken (Social Network Analysis, SNA) eingesetzt. Wir haben ein soziales Kommunikationsnetz
mit allen Projektbeteiligten als Knoten erstellt und einzelne Knoten
verbunden, wenn die entsprechenden Personen Kommentare zu
mindestens einer gleichen Aufgabe geschrieben haben.
Abbildung 2 zeigt das Kommunikationsnetz der Projektbeteiligten.
Die Form der Knoten repräsentiert den Standort der entsprechenden Person. Alle Knoten des gleichen Entwicklungsstandortes
haben wir durch ein graues Oval hervorgehoben. Die Farbe eines
Knotens zeigt die Zentralität der Person in Bezug auf ihr Kommunikationsverhalten. Je mehr Kommunikationsverbindungen eine Person zu anderen hat, desto zentraler liegt ihr Knoten im Kommunikationsnetz.
76
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 77
Abbildung 2: Kommunikationsnetz der Jazz-Projektbeteiligten.
Auf dieses Kommunikationsnetz der Projektbeteiligten haben wir
verschiedene SNA Metriken angewendet. Bemerkenswert waren die
Metriken k-core und Gruppenzentralität. Die k-core Metrik ermittelt
bei gegebenen k eine zentrale Gruppe von Knoten, die mit mindestens k anderen Knoten aus der Gruppe verbunden ist. Mit k = 25
haben wir 60 Personen ermittelt, die mit mindestens 25 Personen
dieser 60 kommunizieren. Durch eine Analyse der Gruppenzentralität konnten wir erkennen, dass alle Entwicklungsstandorte einen ca.
gleich großen Anteil an der Kommunikation haben und kein Standort dominiert. Des Weiteren stellte sich heraus, dass ca. 50 % der
Entwickler eines Standortes in der zentralen k-core Kommunikationsgruppe sind. Diese Metriken zeigen, dass die Kommunikation im
Jazz Projekt einen zentralen Kern hat. Keiner der Standorte ist auf
einzelne Personen oder Gruppen als Kommunikationsbroker angewiesen. Somit ist die gesamte Kommunikation zwischen den 151
Entwicklern aus den USA, Kanada und Europa aus sieben verschiedenen Standorten sehr balanciert, ein wesentlicher Grund für die
77
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 78
schnellen Antwortzeiten in der verteilten Kommunikation und
Grundlage für die effektive Zusammenarbeit im Jazz Projekt.
Im Anschluss an die Studie haben wir einigen Projektbeteiligten
unsere Ergebnisse präsentiert und nach Gründen für diese ausgewogene Kommunikationsstruktur gesucht. In der Diskussion ergaben
sich zwei Ursachen:
1. Durch den Einsatz von RTC werden die Aufgaben, Probleme und
die Kommunikation aller Teams transparent und unabhängig von
ihrem Standort in die Entwicklungsumgebung integriert und dargestellt. Einzelne Entwickler kennen die Probleme entfernter Teams
und können schnell und effektiv in die Kommunikation eingreifen
und helfen.
2. Die Projektbeteiligten kennen die Probleme verteilter Entwicklung und haben dies bezüglich Verhaltensregeln eingeführt. Unter
anderem soll auf Anfragen und Kommentare entfernter Projektbeteiligter schnell reagiert werden. In RTC entsteht eine virtuelle
Nähe, auch wenn die Kommunikationsbeteiligten sich auf verschiedenen Kontinenten befinden. Hat sich der Kontakt zwischen
verteilten Entwicklern etabliert, kann schnell und effektiv auf dringende Probleme eingegangen werden.
Zusammenfassung
Große verteilte Softwareentwicklungsprojekte haben neben vielen
Vorteilen einige Herausforderungen zu bewältigen. Im letzten Jahrzehnt haben zahlreiche Studien diese identifiziert und zusammengetragen. Der Ansatz der Integration von Projektorganisation, Kommunikation und Systemmodellen in einem zentralen Werkzeug hat
sich anfangs im akademischen und jetzt auch im industriellem Umfeld bewährt. Jedoch wird eine neue Entwicklungsumgebung alleine
noch nicht alle Probleme lösen. Die Projektbeteiligten müssen die
Eigenschaften verteilter Entwicklung kennen und durch gezielte
Verhaltensregeln den Problemen entgegenwirken.
78
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 79
Literatur
[1]
T. Wolf. Rationale-based Unified Software Engineering Model. Dissertation,
[2]
Sysiphus, http://sysiphus.in.tum.de
[3]
unicase, http://unicase.org
[4]
Jazz, http://jazz.net
Technische Universität München, July 2007.
[5]
T. Wolf, A. Schröter, T. Nguyen, and D. Damian. Predicting Build Failures using
Social Network Analysis on Developer Communication. In the Proceedings of
the 31st International Conference on Software Engineering (ICSE’09), 2009.
[6]
T. Wolf, T. Nguyen, and D. Damian. Does distance still matter?
[7]
J. D. Herbsleb and A. Mockus. An Empirical Study of Speed and Communication
Software Process: Improvement and Practice, 13(6):493 – 510, 2008.
in Globally Distributed Software Development. IEEE Transactions on Software
Engineering, 29(6):481 – 494, June 2003.
79
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 80
Lebensläufe
Dipl.-Ing. Nico Brandt
* 15. Oktober 1975
Die Einladung erfolgt auf Vorschlag der Deutschen
Gesellschaft für Luft- und Raumfahrt LilienthalOberth und der Ringträgerin Frau Prof. Eveline Gottzein in Würdigung seiner Arbeiten im Rahmen des LISA Pathfinder Projekts der
Europäischen Weltraumorganisation ESA.
1995
1996 – 1998
1999 – 2002
2001 – 2002
2002
seit 2005
seit 2005
80
Werdegang
Abitur
Studium Maschinenbau, RWTH Aachen
Studium Luft- und Raumfahrttechnik, Universität
Stuttgart
Reserach Engineer, Schoool of Aerospace
engineering, Georgia Institutte of technology,
Atlanta, GA, USA
Diplom: „Generation of Launch Vehicle Abort
Trajectories using a Hybrid Optimization Method.“
Promotion, Bereich Future Missions and
Instruments, EADS Astrium GmbH, Friedrichshafen
Systemingenieur, Bereich Future Missions and
Instruments, EADS Astrium GmbH, Friedrichshafen
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 81
Dr. Tanja Clees
* 04. Januar 1977
Die Einladung erfolgt auf Vorschlag der Fraunhofer
Gesellschaft zur Förderung der Angewandten Forschung in Anerkennung ihrer wissenschaftlichen Arbeiten an der
Softwarebibliothek SAMG zur Beschleunigung von Simulationen für
praktisch relevante naturwissenschaftlich-technische Anwendungen.
1995
1995 – 1999
1999
2004
seit 1998
seit 2002
14.9.2007
seit 2007
seit 2008
2008
seit 2009
Werdegang
Abitur
Studium der Mathematik und Chemie, Universität
zu Köln
Diplom: „Mehrgitterverfahren für die zwei- und
dreidimensionale Poissongleichung mit
periodischen Randbedingungen und eine
Anwendung in der Molekulardynamik.“
Promotion, Universität zu Köln: „AMG Strategies for
PDE Systems with Applications in Industrial
Semiconductor simulation.“
Mitarbeiterin am (jetzigen) Fraunhofer Institut SCAI
wissenschaftliche Mitarbeiterin, SCAI
Geburt des Sohnes Martin David
Leitung der Gruppe Robust Design
Bosch-Stipendiatin im Programm „Fast Track“
porträtiert im Buch „Frauen, die forschen“ von
Bettina Flitner und Jeanne Rubner und der zugehörigen Wanderausstellung
Mitglied der Vintage Class der Fraunhofer
Gesellschaft
81
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 82
Dipl.-Ing. Franziska Harms
* 08. Oktober 1977
Die Einladung erfolgt auf Vorschlag der Deutschen
Forschungsgemeinschaft DFG und des Ringträgers
Herrn Prof. Berthold Leibinger in Anerkennung ihrer Leistungen auf
dem Gebiet der Raumfahrttechnik, unter anderem bei der Simulation von Eintrittsmanövern von Raumflugkörpern. Ihre Promotion
erweitert diesen Fokus und behandelt das Thema „Verification of
the Behaviour of the Optical Sensors and the Science Instruments
on the SOFIA Telescope in regard to Airborne Pointing“.
1996
1996 – 2002
2002
seit 2003
seit 2006
82
Werdegang
Abitur
Studium der Luft- und Raumfahrttechnik,
Universität Stuttgart
Diplom: „Charakterisierung eines induktiv
beheizten Plasmagenerators zur Simulation von
atmosphärischen Eintrittsmanövern von Raumflugkörpern unter Variation der Betriebsfrequenz.“
Promotion, Institut für Raumfahrtsysteme,
Universität Stuttgart, in Kooperation mit der USRA
(Universities Space Research Association) am NASA
Ames Research Center, Moffett Field, CA, USA
wissenschaftliche Mitarbeiterin des Deutschen
SOFIA Instituts, Universität Stuttgart + NASA
Ames Research Center, Moffett Field, USA
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 83
Dr. Janou Hennig
* 31. Oktober 1972
Die Einladung erfolgt auf Vorschlag der Schiffbautechnischen Gesellschaft in Anerkennung ihrer Leistungen im Rahmen ihrer Dissertation zum Thema „Generation and
Analysis of Harsh Wave Environments“, für die ihr auch der GeorgWeinblum-Preis 2005 zuerkannt wurde.
1991
1991 – 1998
1999
1999 – 2005
2005
seit 2005
seit 2007
Werdegang
Abitur
Studium der Technomathematik, TU Berlin
Diplom (Wellenpakete für Modellversuche)
wissenschaftliche Mitarbeiterin, Fachgebiet
Meerestechnik, TU Berlin
Promotion, TU Berlin: „Generation and Analysis of
Harsh Wave Environments“
Projektmanagerin, Offshore-Abteilung, Maritime
Research Institute Netherlands (MARIN),
Wageningen, Niederlande
Forschungskoordinatorin „Environmental
Modelling“, MARIN, Wageningen, Niederlande
83
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 84
Dr.-Ing. Michael Joham
* 15.06.1974
Die Einladung erfolgt auf Vorschlag des VDE Technisch-Wissenschaftlicher Verband der Elektrotechnik
Elektronik Informationstechnik in Würdigung seiner Forschungstätigkeit auf dem Gebiet optimaler und effizienter Algorithmen für
die Datenkommunikation in Mehrnutzer-Kommunikationssystemen.
1993
1994 – 1999
1999 – 2004
2000
Seit 2004
2008
2009
84
Werdegang
Matura an der Höheren Technischen
Bundes-Lehr- und Versuchsanstalt für Elektronik
in Innsbruck, Österreich
Studium der Elektrotechnik und Informationstechnik an der Technischen Universität München
wissenschaftlicher Mitarbeiter am Lehrstuhl für
Netzwerktheorie und Signalverarbeitung, Technische
Universität München; Doktorarbeit „Optimization
of Linear and Nonlinear Transmit Processing“
Gastwissenschaftler an der Purdue University, USA
wissenschaftlicher Assistent am Fachgebiet
Methoden der Signalverarbeitung, Technische
Universität München
Gastprofessor an der Universidad de A Coruña,
Spanien
Gastdozent an der Leibniz Universität Hannover
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 85
Dr.-Ing. Martin Kautz
* 01. April 1973
Die Einladung erfolgt in Anerkennung seiner Arbeit
im Rahmen seiner Promotion zum Thema „Auslegung von extern gefeuerten Gasturbinen für dezentrale Energieanlagen im kleinen Leistungsbereich.
1992
1993
1994 – 2000
2000
2000 – 2005
2005
2005 – 2008
seit 2008
Werdegang
Abitur
Gesellenbrief Zentralheizungs- und Lüftungsbauer
Studium Maschinenbau, Vertiefung Energiemaschinenbau, Universität Rostock
Diplom-Ingenieur
wissenschaftlicher Assistent und Doktorand,
Institut für Energie- und Umwelttechnik,
Universität Rostock
Promotion, Fakultät für Maschinenbau, Universität
Rostock: „Auslegung von extern gefeuerten
Gasturbinen für dezentrale Energieanlagen im
kleinen Leistungsbereich.“
wissenschaftlicher Assistent, Institut für
Wärmetechnik und Thermodynamik,
TU Bergakademie Freiberg
Engineer bei der Siemens AG, Corporate Technology,
Erlangen
85
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 86
Dr.-Ing. Thomas Naumann
* 20. September 1973
Die Einladung erfolgt auf Vorschlag des Vereins
Deutscher Ingenieure in Würdigung seiner Projektarbeiten zur Modularisierung des Produktentwicklungsprozesses der
Mercedes Car Group und seiner Promotion zum Thema „Adaptives
Systemmanagement“.
1990 – 1993
1994 – 1999
1999
2005
2000 – 2002
2000 – 2005
seit 2005
86
Werdegang
Berufsausbildung mit Abitur, Instandhaltungsmechaniker
Studium Maschinenbau, Otto-von-GuerickeUniversität Magdeburg
Diplom
Promotion: „Adaptives Systemmanagement“
Angestellter, Softlab GmbH, München
wissenschaftlicher Mitarbeiter, Lehrstuhl für
Maschinenbauinformatik, Otto-von-GuerickeUniversität Magdeburg
Angestellter, Daimler AG, RT Ulm
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 87
Dr. Christine Silberhorn
* 19. April 1974
Die Einladung erfolgt auf Vorschlag der Deutschen
Physikalischen Gesellschaft in Anerkennung ihrer
herausragenden Arbeiten auf dem Gebiet der Quantenoptik und
Quantenkryptografie.
1993
1993 – 1999
1999
1999 – 2002
2003 – 2004
2005
seit 2005
2008
Werdegang
Abitur
Studium der Physik und Mathematik, Universität
Erlangen Nürnberg
Erstes Staatsexamen für das Lehramt an Gymnasien
Promotion, Lehrstuhl für Optik, Universität
Erlangen Nürnberg: „Intensive verschränkte
Strahlen und Quantenkryptographie.“
wissenschaftliche Mitarbeiterin, Universität Oxford,
Clarendon Laboratory Junior Research Fellow,
Wolfson College, Oxford
wissenschaftliche Mitarbeiterin, Max-PlanckForschergruppe, Erlangen
Leiterin der selbstständigen Max-PlanckNachwuchsgruppe „Integrierte Quantenoptik“,
Erlangen
Preise
Heinz Maier-Leibnitz-Preis
87
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 88
Dr. Timo Wolf
* 07. März 1977
Die Einladung erfolgt auf Vorschlag der Gesellschaft
für Informatik in Anerkennung seiner hervorragenden Forschungsergebnisse im Systems- und Software-Engineering
Globaler Projekte durch Entwicklung von Modellen für den Einbezug informeller Kommunikation und Verbreitung impliziten Wissens, die sich auch in der industriellen Praxis bewährt haben.
1996
1997 – 2003
2003
2003 – 2007
2007
2007 – 2008
88
Werdegang
Abitur
Studium Informatik, TU München
Diplom
Wissenschaftlicher Mitarbeiter, Lehrstuhl für
Angewandte Softwaretechnik, TU München
Promotion, Lehrstuhl für Angewandte Softwaretechnik, TU München
„Rationale-based Unified Software Engineering
Model“
Wissenschaftler, Software Engineering Interaction
Lab (Segal), University of Victoria, Kanada
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 89
Mitglieder des Stiftungsrates (Stand: 3/2009)
Stimmberechtigte Mitglieder
Die Träger des „Werner-von-Siemens-Ringes“ sowie die Vorsitzenden oder Präsidenten oder nominierten Vertreter nachstehender Institute oder Körperschaften
> Prof. Dr. E. O. Göbel
Präsident der Physikalisch-Technischen Bundesanstalt
Geschäftsführender Vorsitzender des Stiftungsrates
> Frau Prof. Dr.-Ing. E. Gottzein
Trägerin des „Werner-von-Siemens-Ringes“
Stellvertretende Vorsitzende des Stiftungsrates
> Prof. Dr.-Ing. habil. Dr. h.c. H.-J. Bullinger
Fraunhofer Gesellschaft
> Prof. Dr.-Ing. H. Christ
Deutscher Verband techn.-wiss. Vereine
> Dipl.-Ing. J. Darge
Verband Deutscher Architekten und Ingenieurvereine
> Dr. F. Dittmann
Deutsches Museum
> Prof. Dr. phil. h.c. Dr.-Ing. E.h. A. Fischer
Träger des „Werner-von-Siemens-Ringes“
> Dr. Th. Geelhaar
Gesellschaft Deutscher Chemiker
> Prof. Dr. P. Gruss
Max-Planck-Gesellschaft zur Förderung der Wissenschaften
> Dipl.-Ing. H. Hoffmann
Deutsche Gesellschaft für Luft- und Raumfahrt
> Prof. Dr.-Ing. H. Keitel
Bundesverband der Deutschen Industrie
> Prof. Dr.-Ing. M. Kleiner
Deutsche Forschungsgemeinschaft
89
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 90
> Prof. Dr. mult. E. Lehmann
Schiffbautechnische Gesellschaft
> Prof. Dr.-Ing. E.h. B. Leibinger
Träger des „Werner-von-Siemens-Ringes“
> Prof. Dr.-Ing. W. Merkel
Deutsche Vereinigung des Gas- und Wasserfaches –
technisch-wissenschaftlicher Verein
> Dipl.-Ing. B. Meyer
Träger des „Werner-von-Siemens-Ringes“
> Prof. Dr.-Ing. C. Nedeß (2009 – 2013)
> Prof. Dr.-Ing. E.h. M. Nußbaumer
Verein Deutscher Ingenieure
> Prof. Dr. D. Oesterhelt
Träger des „Werner-von-Siemens-Ringes“
Max-Planck-Institut für Biochemie
> Dr. A. Oetker
Stifterverband für die Deutsche Wissenschaft
> Prof. Dr.-Ing. K. P. Petermann (2007 – 2011)
Technische Universität Berlin
> Prof. Dr. rer. nat. C. A. Petri
Träger des „Werner-von-Siemens-Ringes“
> Prof. Dr. F. P. Schäfer
Träger des „Werner-von-Siemens-Ringes“
> Prof. Dr.-Ing. Dr.h.c. mult. J. Schlaich
Träger des „Werner-von-Siemens-Ringes“
> Prof. Dr.-Ing. W. Schröppel
Verband der Elektrotechnik Elektronik Informationstechnik VDE
> Prof. Dr. H. Schwärtzel
Gesellschaft für Informatik
> P. von Siemens
Siemens AG
> Prof. Dr. K. Urban
Deutsche Physikalische Gesellschaft
90
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 91
> Prof. Dr.-Ing. H. Weule
Schatzmeister der Stiftung Werner-von-Siemens-Ring
> Dr.-Ing. C.-D. Wuppermann
Stahlinstitut VDEh
Nichtstimmberechtigte Teilnehmer an den Sitzungen des
Stiftungsrates
> Dipl.-Pol. J. Maas
Geschäftsführer der Stiftung Werner-von-Siemens-Ring
> Wirtsch.-Ing. A. Schwab
SIEMENS Aktiengesellschaft, Chief Executive’s Office
91
103639 WVSR Festschrift Jungwissenschaftler_2009 02.03.10 09:55 Seite 92
Stiftung Werner-von-Siemens-Ring
c / o DVT
WissenschaftsForum
Markgrafenstraße 37
10117 Berlin
www.siemens-ring.de