Die Finite Elemente Methode

Transcription

Die Finite Elemente Methode
Hauptseminar Softwarefehler - Finite Elemente
Die Finite Elemente Methode
Die Finite Elemente Methode (FEM) ist mathematisch gesehen ein numerisches Lösungsverfahren für partielle Differentialgleichungen, das heute
in den verschiedensten Bereichen Verwendung findet, wie zum Beispiel im Ingenieurswesen oder in der Meteorologie. Hierfür wird sie in zum Teil
sehr komplexen Programmen implementiert. Bevor nun jedoch auf verschiedene “Software-Bugs” im Zusammenhang mit der FEM eingegangen
wird, soll eine kurze Einführung einen Blick auf die Grundlagen dieses Verfahrens gewähren.
Diskretisierung
Die physikalischen Eigenschaften von z.B. Bauteilen oder Baustoffen sind durch partielle Differentialgleichungen beschreibbar, jedoch sind diese
DGL nur in wenigen Fällen auch analytisch lösbar. Es wird deswegen in diesen Fällen auf numerische Verfahren zurückgegriffen, wie zum
Beispiel die FEM. Die zu untersuchenden Objekte bestehen dabei in der Regel aus mehreren zusammenhängenden Teilstrukturen, die
zusammen ein Kontinuum bilden.Um nun ein technisches Problem mittels der FEM bearbeiten zu können, ist es zunächst nötig, dieses Kontinuum
zu diskretisieren. Das Kontinuum wird hierfür durch eine Summe von Teilbereichen dargestellt, wovon jeder dieser Teilbereiche durch endlich
viele Eckpunkte, sog. Knoten, beschrieben wird. Es ergibt sich dadurch eine Darstellung des Objekts als Netz. Die Diskretisierung muss im
Übrigen nicht regelmäßig sein (beispielsweise nur Quadrate). Oft sind hier andere Zerlegungen vorteilhafter und für die Berechnung genauer. Hier
einige ein-, zwei- und dreidimensionale Elementformen:
Ein ganzes Auto könnte dann zum Beispiel wie folgt diskretisiert werden (ca. 18000 Knoten):
Seite 1
Hauptseminar Softwarefehler - Finite Elemente
Will man auch krummlinige Berandungen der einzelnen Elemente darstellen, so können zusätzliche Zwischenknoten eingeführt werden. In der
Praxis werden jedoch hauptsächlich Elemente ohne oder mit nur einem Zwischenknoten eingesetzt, dafür aber dann das Netz an den betreffenden
Stellen feinmaschiger ausgeführt, da dies einfacher zu handhaben ist.
Ansatzfunktionen
Als nächstes ist der Verlauf und das Verhalten der physikalischen Eigenschaften und Größen auf dem betreffenden Objekt nachzubilden. Dies
geschieht durch die Beschreibung dieser Größen an den Knoten. Als Näherungsfunktionen werden hierfür sogenannte Ansatzfunktionen
Seite 2
Hauptseminar Softwarefehler - Finite Elemente
eingeführt, die einige Eigenschaften erfüllen (sollen), um bei der späteren Berechnung einfacher damit umgehen zu können:
Die Funktion ist auf dem ganzen Element definiert.
Jede Funktion ist einem Knoten des Elements zugeordnet.
An diesen Knoten hat die Funktion den Wert 1, an allen anderen Knoten, für die auch eine Näherungsfunktion bestimmt ist, ist sie 0.
Die Summe der Näherungsfunktionen auf einem Element ist 1.
An gemeinsamen Kanten oder Flächen benachbarter Elemente haben die Näherungsfunktionen der jeweiligen Knoten gemeinsame Werte.
Ist nun auf einem Element kein Zwischenknoten definiert, so führt dies zu linearen Ansatzfunktionen. Im Falle von einem oder zwei
Zwischenknoten können diese durch quadratische beziehungsweise kubische Funktionen interpoliert werden:
Seite 3
Hauptseminar Softwarefehler - Finite Elemente
Die Qualität der Berechnung und somit auch des Ergebnisses hängt ganz entscheidend auch von der Wahl der Ansatzfunktionen ab. Allerdings
sollte auch bedacht werden, dass die Qualität der Annäherung zwar mit höherer Knotenzahl besser wird, damit jedoch auch der Rechenaufwand
wächst. Um ein gutes Nutzen/Kosten-Verhältnis zu erhalten ist deswegen eine geschickte Wahl der Elemente und Ansatzfunktionen unerlässlich.
Ausser den hier kurz vorgestellten Ansatzfunktionen auf Polynombasis (linear, quadratisch, ...) werden für spezielle Anwendungen auch andere
Funktionstypen wie trigonometrische Funktionen oder Treppenfunktionen angewendet, da diese hier das jeweilige Problem unter Umständen
besser beschreiben können.
Die Durchführung der FEM
Um die FEM durchführen zu können, muss das Problem zunächst modelliert werden. In dieses Modell müssen dafür Informationen bezüglich
Geometrie, der physikalischen Eigenschaften sowie der Randbedingungen (= Einflüsse aus der Umgebung) eingebracht werden (unter anderem
in Form des Elementnetzes, der Ansatzfunktionen, DGL, ...). Dies führt dann schließlich auf ein lineares Gleichungssystem (oft beträchtlicher
Größe). Nach Lösung dieses Gleichungssystems muss das Ergebnis dann noch entsprechend dem Problem interpretiert werden.
Quellen
R. Steinbuch: Finite Element – Ein Einstieg, Springer-Verlag Berlin Heidelberg, 1998.
K. Knothe, H. Wessels: Finite Elemente, Eine Einführung für Ingenieure, Springer-Verlag Berlin Heidelberg, 1999.
http://www.tfh-berlin.de/~kalus/FEM/Welcome.html
Sturm Lothar
Am 2. Weihnachtsfeiertag des Jahres 1999 zog der Orkan „Lothar“ über Mitteleuropa und richtete Schäden im Wert von über 144 Mio. Euro an. Am
Beispiel dieses Sturms kann gut die Problematik der Wettervorhersage veranschaulicht werden, da es hier zu einer fatalen Falschprognose des
Deutschen Wetterdienstes (DWD) kam.
Die numerische Wettervorhersage
Seite 4
Hauptseminar Softwarefehler - Finite Elemente
Bei der numerischen Wettervorhersage werden anhand des aktuellen Wetterzustandes die atmosphärischen Prozeße simuliert und somit eine
Prognose der zukünftigen Wetterentwicklungen erstellt. Hierzu müssen zunächst alle auftretenden Variablen, die das aktuelle Wetter
charakterisieren, in einem die Atmosphäre beschreibenden Netz dargestellt werden. Desweiteren sind die physikalischen Eigenschaften der
Atmosphäre mathematisch zu formulieren. Dies alles ergibt schließlich ein sehr umfangreiches lineares Gleichungssystem, das dann mit
numerischen Mitteln näherungsweise gelöst werden kann (=> FEM). Vom aktuellen Zustand der Atmosphäre aus kann somit die zeitliche
Entwicklung des Wetters über kleine Zeitschritte hinweg errechnet werden.
Eine qualitativ hochwertige Darstellung der Atmosphäre bildet die Grundlage für eine zuverlässige Wettervorhersage. Hierfür ist zunächst natürlich
ein möglichst feines Modellnetz erstrebenswert. Dies wiederum würde zu einem immens hohen Rechenaufwand führen, der jedoch in der
Wettervorhersage nicht beliebig hoch sein darf (was bringt eine Wettervorhersage, die eine Woche zu spät kommt...?). Wählt man dagegen ein
feineres Netz auf einem nur kleinen lokalen Bereich (=> Ausschnittsmodell), so leidet ebenfalls wieder die Zuverlässigkeit der Prognose, da ja
Wetterentwicklungen ausserhalb des modellierten Bereichs durchaus ganz erheblichen Einfluss auf das Wettergeschehen innerhalb des
interessierenden Bereichs haben können.
Der DWD setzt deswegen ein Global-Modell, ein Europa-Modell und ein Deutschland-Modell mit jeweils immer kleineren Maschenweiten ein. An
den Randbereichen sind die Lokal-Modelle zudem noch feiner aufgelöst, um den globalen Wetterentwicklungen, die aus dem jeweils gröberen
Modell entnommen werden, besser gerecht zu werden. Mit zunehmender Rechenleistung kann die Maschenweite der einzelnen Modellen auch
verringert werden.
Die Ausgangsdaten für die Berechnungen werden durch Messung aller relevanten Größen in einem weltumspannenden Beobachtungsnetz
erhalten (zum Beispiel mittels Bodenstationen, Schiffe, Bojen, Radiosonden, Satelliten oder Flugzeuge) und zwischen den nationalen
Wetterdiensten ausgetauscht. Da die so gewonnen Informationen jedoch bei weitem nicht ausreichen, um die Ausgangslage genau genug zu
beschreiben, wird erst noch eine sog. Datenassimilation durchgeführt. Das Problem ist nämlich, dass das Beobachtungsnetz erhebliche Lücken
aufweist (insbesondere über den Ozeanen oder in der 3D-Vermessung des Windfeldes). Diese Lücken werden durch die Datenassimilation
zumindest verkleinert, indem man dabei mittels statistischer und dynamischer Zusatzinformationen versucht, die fehlenden Daten durch
wahrscheinliche Werte anzunähern (Bsp.: Wenn in München eine Temperatur von 20°C gemessen wird, so kann dies auch für eine gewisse
Umgebung angenommen werden). Ein weiteres Problem im Zusammenhang mit der Datenassimilation ist die Tatsache, dass bereits kleine
Änderungen in den Ausgangsdaten zu immensen Fehlern im Ergebnis führen können (dies steht unter anderem im Einklang mit der Chaostheorie)
.
Sturm Lothar
Für die tägliche Wettervorhersage beim DWD wurden Ende 1999 ein Global-Modell (GME, 60 km Maschenweite, 31 Schichten) und ein LokalModell (LM, 7 km Maschenweite, 35 Schichten) eingesetzt, mit welchen mehrmals am Tag eine Wetterprognose erstellt wurde. Hierfür wird – wie
bereits oben beschrieben – eine Datenassimilation durchgeführt. Die am 24.12.1999 um 13.00 Uhr zunächst errechnete Prognose für den
26.12.1999, 13.00 Uhr sagte korrekt die orkanartigen Böen bis 120 km/h über Deutschland voraus. Eine 90 Minuten später (mit leicht veränderten
Werten) gestartete Vorhersage ergab jedoch „nur“ einen Sturm über Westengland. Diese aktualisierte Wettervorhersage sollte sich dann jedoch
als falsch herausstellen.
Seite 5
Hauptseminar Softwarefehler - Finite Elemente
Seite 6
Hauptseminar Softwarefehler - Finite Elemente
Der Grund für die Änderung in dieser Wettervorhersage war ein Unterschied in den numerischen Analysen im Atlantik nahe 58°W, 38°N (siehe
Karte), wo durch zusätzliche Beobachtungen die Struktur des Starkwindbandes (Jet) in 10 km Höhe geändert wurde. Dies hatte Auswirkungen auf
die Entwicklung eines flachen Tiefs über dem Atlantik, das sich später zu Orkan Lothar entwickelte. Dies ist ein gutes Beispiel dafür, wie
geringfügige Unterschiede in den Ausgangsdaten zu einem großen Fehler im Ergebnis führen kann – oder mit anderen Worten, wie kleine
Ursachen große Wirkungen haben können.
Seite 7
Hauptseminar Softwarefehler - Finite Elemente
Meiner Meinung nach ist dies jedoch kein expliziter Software-Bug, da ja die Berechnungen an sich korrekt waren. Vielmehr zeigt sich hier eine
Anfälligkeit des Systems an sich.
Quellen
http://www.dwd.de/research/lothar/
Ozonloch
In den frühen 70er Jahren, als Wissenschaftler ihre Studien zu möglichen Ursachen und Folgen der globalen Erderwärmung intensivierten, zog im
Besonderen ein künstlich hegestelltes Gas ihre Aufmerksamkeit auf sich: Fluorchlorkohlenwasserstoff (FCKW). FCKW wurde von den
Industrienationen zunehmend zur Herstellung von kommerziellen Produkten (Kühlschränke, Spraydosen, ...) verwendet. Doch der
schwerwiegende Nachteil von FCKW ist, dass es 200mal so effizient als Kohlenwasserstoff (CO2) bei der Speicherung von Wärme in der
Erdatmosphere ist und, dass das Gas nach seiner Freisetzung bis zu 120 Jahre in der Atmosphere verbleibt. 1974 brachten zwei Wissenschaftler
die Vermutung auf, dass FCKW möglicherweise die in 10 bis 50 km Höhe gelegene Ozonschicht zerstört. 1975 beauftragte der US-Kongress die
NASA ein Programm zur Untersuchung und Überwachung der Phenomäne in der oberen Atmosphere zu entwickeln. Im Speziellen wollte der
Kongress sicherstellen, dass die Ozonschicht intakt ist.
Seite 8
Hauptseminar Softwarefehler - Finite Elemente
Seit den frühen 80ern ist die Ozonkonzentration über dem Südpol währen der
monate September und Oktober mit jedem Jahr weniger geworden. Die Graphiken
zeigen das Wachsen des Ozonlochs in vier verschiedenen Jahren, von 1983 bis
97, wie mit TOMS gemessen.
So brachte die NASA zusätzlich zu bestehenden Projekten (ERB) 1978 Nimbus-7 zwei weitere NASASensoren zur Messung des Ozons in einem bestimmten Streifen der Atmosphere über dem gesamten
Globus. Dies waren der Solar Backsetter Ultraviolet (SBUV) und das Total Ozone Mapping
Spectrometer (TOMS). Empfindlich für radioaktive Energie im ultravioletten Bereich des Spektrums,
nutzten diese Sensoren den Vorteil, dass Moleküle und Luftpartikel bestimmte wellenlängen
ultravioletter Strahlen reflektieren, während Ozon andere in verschiedenen Schichten der Atmosphere
absorbiert . Durch Analyse der Menge der zum Sensor zurückreflektierten ultravioletten Energie, konnten
Profile über die Dicke der Ozonschicht an bestimmten Orten und in verschiedene Höhen erstellet werden.
Ironischerweise konnte erst 1985 ein britisches Wissenschaftlerteam eine signifikante Reduktion der
Ozonschicht über Halley Bay in der Antarktis feststellen. Mit einem vom Boden aus operierenden
Dobson-Ozonspektrometer fanden sie heraus, dass die Ozonschicht über Halley Bay um 40% dünner war
als im Vorjahr. Ihre Entdeckung überraschte die Forschergemeinschaft, weil erwartet worden war, dass
das Ozon zuerst in den oberen Schichten der Stratosphere (30 bis 50 km Höhe) abnehmen würde und so
die zu erwartetende Abnahme in einem kompletten Streifen gering sein würde. NASA-Forscher
untersuchten hastig ihre TOMS-Daten und fanden heraus, dass TOMS ebenfalls eine dramatische
Abnahme von Ozon über der gesamten Antarkis registriert hatte. Sie hatten das nicht früher entdeckt,
weil die TOMS-Datenanalysesoftware unglücklicherweise so programmiert worden war, dass sie
Datenwerte, die weit von erwarteten Messungen abwichen, beiseite ließ. So wurden die entscheidenden
Messungen, die Alarm hätten auslösen sollen, einfach übersehen. Kurz gesagt: das TOMS-Team konnte
das Ozonloch nicht Jahre früher entdecken, weil es weitaus schlimmer war als erwartet.
In den folgenden Jahren stellten NASA und
ESA Satelliten fest, dass die Abnahme der
Ozonschicht über der Antarktis mit jedem Jahr
schlimmer wurden. Als Reaktion vereinbarten
1987 43 Nationen mit der Unterzeichnung des
Montreal Protokolls den FCKW-Ausstoss bis
zum Jahr 2000 um 50 % zu reduzieren. Dieses
Protokoll wurde 1990 angepasst mit Ziel bis
2000 sämtlichen FCKW-Ausstoss zu
unterbinden.
Der zweite European-Remote-Sensing
Satellit (ERS-2) der ESA war mit einem
neuen Sensor , dem Global Ozone
Monitoring Experiment (GOME),
ausgestattet. GOME ist ein Sensor mit vier
Bandbreiten von 240 bis 790 nm zur
Seite 9
Hauptseminar Softwarefehler - Finite Elemente
Der Start von Nimbus-7 durch die NASA steht für einen neuen Anfang der
Atmospären-Forschung. Die Zeichnung zeigt dasden Satelliten mit seinen acht
Sensoren, unter anderem ERB und TOMS.
Messung der Rückstreuung von sichtbarer
und ultravioletter Sonnenstrahlung. Seit
dem Sommer 1996 hat die ESA
routinemäßig alle drei Tage globale Messungen des gesamten Ozones und Stickstoffdioxid vorgenommen.
1998 zeigten TOMS und GOME Daten, dass die Ozonkonzentration um 80% geringer als in den 70er Jahren war. Heute gibt es Hinweise, dass die
Menge des FCKW in der Atmospghere zurückgeht. Ist das eine wissenschaftliche Erfolgsstory? Wird die Ozonkonzentration wieder auf den alten
Stand vor 1970 steigen. Die Zeit und weitere Überwachung wird es zeigen. Die ESA startete ihren Environmental Sattelite (Envisat) im Novemeber
2001 mit einem neuen Sensor names Global Ozone Monitoring by Occultation of Starts (GOMOS).
Untergang der Bohrplatform Sleipner A
Die norwegische Bohrplatform Sleipner A, benannt nach Odin's achtbeinigem Ross, fördert
Öl und Gas in der Nordsee und ist die grösste der Sleipner-Gruppe. Die Platform Sleipner A
ist eine Platform vom Typ Condeep mit einer Gravitationsbasis aus Beton, die aus 24 Zellen
mit einer Gesamtfäche von 16000 Quadratmetern besteht. Vier Zellen sind zu Säulen
verlängert, die das Platformdeck tragen. Die erste Basisstruktur der Sleipner A sank während
einem kontrollierten Belastungstest im Zuge der Vorbereitungen für den Aufbau der
Deckkonstruktion in Gandsfjorden vor Stavanger (Norwegen) am 23 August 1991.
Sofort nach dem Unglück setzte Statoil, eine norwegische Ölfirma und Betrteiber der
Bohrinsel, eine Untersuchungskommision ein, mit deren Zusammenstellung SINTEF, eine
Seite 10
Hauptseminar Softwarefehler - Finite Elemente
technische Beratungsfirma, beauftragt wurde. Die Untersuchungsergebnisse der
Kommission umfassen16 Reporte.
Die Untersuchung kam zum Schluss, dass das Unglück durch einen Fehler der Zellenwand
verursacht wurde, der zu einem Bruch und Leck führte, das zu gross war um von den
Pumpen aufgefangen zu werden. Das Nicht-Standhalten der Wand hatte seine Ursache in
einem schweren Fehler bei der Finite-Elemente-Analyse und unzureichender Verankerung
der Konstrunktion in einem kritischen Bereich.
Das Oberdeck wiegt 57,000 Tonnen und bietet Platz für die Unterbringung von 200
Personen und Bohrausrüstung mit einem Gesamtgewicht von 40,000 Tonnen. Der
Untergang wurde mit 3.0 auf der Richter-Skala registriert. Geblieben ist ein Haufen Schrott in
200 m Tiefe. Der Verlust belief sich auf 700 Millionen Dollar.
Die Sleipner-Area mit den Platformen Slepner B, T, A und zwei kleineren (v.l.n.r.)
Die Betonbasis besteht aus 24 hohlen Zellen und 4 Säulen (a 12m Durchmesser),
die das Platformdeck tragen.
Der Fehler in der Zellenwand konnte zu einer sogenannten Trizelle, einem
triangelförmigen Betonrahmen, der an den Punkten, wo die Zellen
zusammenstossen, plaziert wurde, zurückverfolgt werden.
Platform mit Betonbasis
Die Untersuchung konnte den Fehler auf ungenaue Finite-Elemente-Berechnung
des elastischen Modells der Trizelle unter Verwendung des Finite-ElementeProgramm NASTRAN eingrenzen. DieScherkräfte wurden um 47% unterschätzt,
weswegen die Betonwände zu dünn geplant wurden. Bei einer genaueren FiniteElemente-Analyse nach dem Uglück wurde festgestellt, dass mit dieser Wanddicke
Seite 11
Betonbasis an der Oberfläche
Hauptseminar Softwarefehler - Finite Elemente
Platform mit Betonbasis
ein Leck in einer Tiefe von 62m auftreten würde, was dem tatsächlichen Auftreten in
einer Tiefe von 65m sehr nahe kommt.
Trizelle bei Belastungstest
NASTRAN
Das bei der konstruktion der Sleipner-Platform verwendete Programmpaket NASTRAN wurde ursprünglich von der US-Raumfahrtbehörde NASA
als universell einsetzbares Finite-Elemente-Programm entwickelt. Die heute am weitesten verbreitete Version ist MSC/NASTRAN von der Firma
MacNEAL-SCHWENDLER-Corporation als eine Weiterentwicklung des ursprünglichen Produktes eingesetzt. MSC/NASTRAN ist das
anerkannteste und weltweit führende FE-Programm mit den meisten Installationen.
Zusammenfassung der Eigenschaften von MSC/NASTRAN:
Anwendungsbereich:
Linear und nichtlinear statische und dynamische Festigkeits- und Wärmeleitungsberechnungen, Akustik
Programmeigenschaften:
Kleine und großse Verschiebungen, kleine Spannungen, Plastizität, thermische Einflüsse, Vibrationen, lineares und nichtlineares dynamisches
Response-Spektrum, Knickung, Instabilität
Elementbibliothek:
Stab-, Rundstab-, Balken-, Membran-, Platten-, 3D-Festkörper, axialsymmetrische und isoparametrische Bruchelemente
Materialbibliothek:
Isotrope, anisotrope, linear und nichtlinear elastische, temperaturabhängige, elasto-plastische Materialmodelle, Kriechen
Belastungsarten:
statische, zeitabhängige, deformationsabhängige, Punkt-, Linien-, Oberflächen-, Volumen-Lasten. Randbedingungen: Elastisches Fundament,
Kontakt, vorgeschriebene Mehrfach-Festhaltungen und -Zwangsverschiebungen
Weitere Fähigkeiten:
Lokales Koordinatensystem für alle Elemente möglich, Restart, Substrukturierung (Superelemente)
Lösungsmethoden:
Seite 12
Hauptseminar Softwarefehler - Finite Elemente
partielle LDL-Aufteilung, Guyan-Reduktion; Eigenwerte (Determinantenmethode, Givens-, QR-, Lanczos-Methode)
Daten-Ein/Ausgabe:
Automatische Netz- und Lastgenerierung, Plot-Routinen, Ergebnisauswahl möglich.
Schnittstellen:
zu PATRAN, SUPERTAB, MSC/XL.
Quellen
www.math.psu.edu/dna/disasters/sleipner.html
www.statoil.com
Tacoma Narrows Bridge
Bei Schwingungen mechanischer Systeme (z.B. Schaukel, Pendel) sind auf Grund von Reibungseffekten (z.B. Luftreibung) Energieverluste
unvermeidlich. Deshalb ist eine Schwingung normalerweise zunächst
gedämpft. Um die Schwingung eines mechanischen Systems
aufrechtzuerhalten, müssen diese Energieverluste ausgeglichen werden. Dies
kann durch eine Anregung des mechanischen Systems erfolgen (z.B.
Anstossen). Falls diese Anregung mit einer bestimmten Frequenz erfolgt, so
kann die Amplitude (=Ausschlag) der Schwingung deutlich ansteigen. Die
Amplitude ist bei der Anregung eines mechanischen Systems mit seiner
"Eigenfrequenz" maximal (es entsteht der Eindruck einer ungedämpften
Schwingung). Jede schwingende Masse hat in der Physik eine solche, von
ihrem Betrag abhängige Eigenfrequenz. Solch ein Aufschaukeln eines
mechanischen Systems durch die Anregung mit der Eigenfrequenz
(Resonanzphänomen) kann sich auch negativ auf das System selbst
auswirken, wie es bei der Tacoma Narrows Bridge der Fall war.
Die Tacoma Narrows Bridge
Seite 13
Hauptseminar Softwarefehler - Finite Elemente
Die Tacoma Narrows Bridge
wurde 1940 im Bundesstaat
Washington der USA erbaut und
überspannte mit einer Länge von
ca. 1800 Metern eine Meeresenge
bei der Stadt Tacoma.
Ihre Fahrbahn hatte ein eher flaches Profil, um einerseits Kosten zu sparen und anderseits der Brücke einen schlanken Aspekt zu verleihen.
Dadurch wurde die Tacoma Bridge aber auch empfindlicher gegenüber aerodynamischen Kräften, was früher jedoch nicht beachtet wurde. Ca. 4
Monate nach ihrer Eröffnung zeigte sich die Einwirkung dieser Kräfte auf die Brücke bei einer Windgeschwindigkeit von ca. 60-70 km/h. Am
windabgewandten Rand der Fahrbahn bildeten sich Luftwirbel in einem gewissen zeitlichen Abstand, der der Eigenfrequenz der Brücke entsprach:
Verdeutlichung des zeitlichen Abstandes der Luftwirbel voneinander:
Seite 14
Hauptseminar Softwarefehler - Finite Elemente
Durch die, relativ zu anderen Hängebrücken dieser Zeit leichte Bauweise der Fahrbahn der Tacoma Bridge führte der Mittelteil der Brücke Aufund Abschwingungen mit einer Frequenz von 0,6 Hertz und einer Schwingungsweite von 0,5 Metern aus. Dann setzte eine Drehschwingung mit
einer Frequenz von 0,2 Hertz ein. Zeitweise war der linke Gehweg 8,5 Meter höher als der rechte und umgekehrt:
Seite 15
Hauptseminar Softwarefehler - Finite Elemente
Die Amplitude der Schwingung war so gross, dass ein Trägerseil riss und dadurch die Brücke zum Einsturz brachte:
Seite 16
Hauptseminar Softwarefehler - Finite Elemente
1950 wurde in derselben Bauweise die Brücke wiedererrichtet.
Die Konstruktion wurde jedoch versteift. Dadurch änderte sich auch die Eigenfrequenz, so dass bei normalen Windstärken das
Resonanzphänomen nicht mehr eintrat.
alte Fahrbahnkonstruktion (von 1940):
neue Fahrbahnkonstruktion (von 1950):
Seite 17
Hauptseminar Softwarefehler - Finite Elemente
Es sei an dieser Stelle noch erwähnt, dass momentan eine dritte Hängebrücke parallel zur zweiten Hängebrücke von 1950 errichtet wird, die
voraussichtlich 2005 fertiggestellt sein wird:
Seite 18
Hauptseminar Softwarefehler - Finite Elemente
Weitere allgemeine Daten zu den drei Brücken:
Categories
Galloping Gertie (1940)
Designer
Leon Moisseiff
Tacoma Narrows
Bridge (1950)
Dexter R. Smith
Charles E. Andrew
New Tacoma
Narrows Bridge
(2005)
United Infrastructure
Washington
Seite 19
Hauptseminar Softwarefehler - Finite Elemente
Built By
The Pacific Bridge Company,
Bethlehem Steel and John A.
Roebling's Sons Company
Bethlehem Pacific Coast
Steel Corporation and
United Infrastructure
John A. Roebling's Sons Washington
Company
Cost to build
6.4 Million
14 Million
350 million (est.)
Construction
Started
1938
1949
2001
Construction
Completed
July 1, 1940
October 14, 1950
2005 (est.)
Total Structure
Length
5,939 feet
5,979 feet
5,400 feet
Suspension Bridge
Section
5,000 feet
5,000 feet
Center Span
2,800 feet
2,800 feet
2,800 feet
Second Deck
Capabilities
No
No
Yes
Shore Suspension
Spans (2), each
1,100 feet
1,100 feet
East Approach and
345 feet
Anchorage
365 feet
West Approach and
594 feet
Anchorage
614 feet
Center Span Height
195 feet
Above Water
187.5 feet
Width of Roadway
49 feet 10 inches
26 feet
Seite 20
Hauptseminar Softwarefehler - Finite Elemente
Capacity of
Roadway
60k cars per day
Width of Sidewalks
5 feet
(2), each
3 feet 10 inches
Diameter of Main
Suspension Cable
17.5 inches
20.25 inches
Weight of Main
Suspension Cable
3,817 tons
5,441 tons
Weight Sustained
by Cables
11,250 tons
18,160 tons
Number of No. 6
Wires Each Cable
6,308
8,705
Weight of Shore
Anchors
52,500 tons
66,000 tons
Total Length of
Wire
20,000 miles
Towers
Height Above Piers 425 feet
467 feet
Weight of Each
Tower
2,675 tons
1,927 tons
Piers
Area
118 feet, 11 inches by 65 feet, 11
inches
118 feet, 11 inches by 65
feet, 11 inches
East Pier, Total
Height
247 feet
265 feet
East Pier, Depth of
140 feet
Water
140 feet
Seite 21
Hauptseminar Softwarefehler - Finite Elemente
East Pier,
Penetration at
Bottom
90 feet
90 feet
West Pier, Total
Height
198 feet
215 feet
West Pier, Depth of
120 feet
Water
120 feet
West Pier,
Penetration at
Bottom
55 feet
55 feet
Heute werden Hängebrücken vor ihrem Bau als Modell im Windkanal getestet, um Brückeneinstürzen auf Grund von Windeinflüssen wie bei der
Tacoma Narrows Bridge zu entgehen. Eine andere Methode der Analyse stellt die Berechnung am Rechner mit Hilfe der Finite-Elemente-Methode
(FEM) dar. Die Windströmung kann z.B. mit den Reynolds Averaged Navier Stokes Gleichungen (RANS) mathematisch beschrieben werden.
Ohne näher auf die Bezeichnungen einzugehen, könnte das RANS-Gleichungssystem z.B. folgende Form besitzen:
Es ergibt sich daraus ein System nichtlinearer partieller Differentialgleichungen für das Turbulenzmodell. Die Lösung erfolgt per Finite-ElementeMethode am Rechner. Zunächst erfolgt eine Diskretisierung des Luftraums um das Profil der Fahrbahn der Hängebrücke herum. Im 2dimensionalen könnte das Netz beispielsweise folgendermassen aussehen:
Seite 22
Hauptseminar Softwarefehler - Finite Elemente
Die partiellen Differentialgleichungen (RANS) werden nun auf den einzelnen Teilabschnitten des Netzes gelöst. Dadurch ergeben sich die
Verschiebungen der Knoten des Netzes und somit die Turbulenzen:
Bei einer Betrachtung über einen gewissen Zeitraum hinweg, wird die zyklische Wiederholung der Luftwirbel sichtbar. Die Auswirkung der Kräfte
durch die Luftwirbel auf die Fahrbahn der Hängebrücke und dessen Schwingung können ebenso durch die Finite-Elemente-Methode analysiert
werden. Durch eine Ausweitung ins 3-Dimensionale kann nun das Verhalten der gesamten Hängebrücke unter verschiedenen Windbedingungen
simuliert werden. Im Hinblick auf die Tacoma Narrows Bridge konnte die Finite-Elemente-Methode im Nachhinein zur Analyse, bzw. Herleitung der
Eigenfrequenz verwendet werden.
Quellen
www.firebirdz.net/tnb/default.htm
maclab.alfred.edu/students/harttm/tacoma.html
www.tu-bs.de/institute/WiR/steindorf/db/beispiel.html
www.statik.tu-braunschweig.de/~bjoern/
Seite 23
Hauptseminar Softwarefehler - Finite Elemente
London Millenium Bridge
Wenn wir gehen, üben wir, abgesehen von unserem Gewicht, noch weitere Kräfte auf den Untergrund aus. Bei einem Gewicht von ca. 75 kg
ergeben sich zusätzliche vertikale Kräfte von bis zu ca. 250 Newton und durch das Wanken unseres Körpers seitliche Kräfte von bis zu ca. 25
Newton:
Seite 24
Hauptseminar Softwarefehler - Finite Elemente
Wenn ein beweglicher Boden unter unseren Füssen beim Gehen seitlich schwingt, machen wir breitere Schritte, um unser Gleichgewicht besser
zu halten und passen unsere Schritte der Bewegung des Untergrunds an. Die seitlichen Kräfte, die wir dann auf den beweglichen Untergrund
ausüben, werden dann noch grösser und bringen den Untergrund noch weiter zum Schwingen. Dieser Effekt ist vergleichbar mit einer
ungedämpften Schwingung beim Resonanzphänomen (siehe oben bei der Behandlung der Tacoma Narrows Bridge). Dieses Phänomen
("synchronous lateral excitation" oder "Seemannsgang" genannt) vervielfacht sich bei einer grossen Anzahl von gehenden Menschen. Es trat zum
Beispiel bei der London Millenium Bridge auf. Am 10. Juni 2000 wurde in London die Millenium Bridge, eine ca. 330 Meter lange Hängebrücke für
Fussgänger, die die Themse überquert, eröffnet. Diese Hängebrücke wird als eine der grazilsten Hängebrücken unserer Zeit bezeichnet:
Seite 25
Hauptseminar Softwarefehler - Finite Elemente
Am Eröffnungstag der Millenium Bridge herrschte reger Andrang.
Ungefähr 80000 bis 100000 Leute überquerten die schlanke Brücke
an diesem Tag, wobei sich manchmal bis zu 2000 Personen
gleichzeitig auf ihr befanden, also im Durchschnitt 1,7 Personen je
Quadratmeter. Dies führte zu dem oben genannten Phänomen,
welches bei der Konstruktion der Brücke nicht beachtet worden ist.
Der maximale seitliche Ausschlag des Mittelteils der Brücke betrug
ca. 70mm bei einer Frequenz von 0,95Hertz. Um dieses Phänomen
genauer zu untersuchen, wurde die Millenium Bridge zwei Tage nach
ihrer Eröffnung zunächst gesperrt. Das Konstruktionsunternehmen Arup lies dann mittels Sensoren und Testpersonen das Verhalten der
Hängebrücke testen, um die Auswirkungen des menschlichen Ganges auf die Brücke zu messen:
Seite 26
Hauptseminar Softwarefehler - Finite Elemente
Man kam zu folgendem Ergebnis:
Seite 27
Hauptseminar Softwarefehler - Finite Elemente
Das Problem wurde durch die Anbringung von zusätzlichen Verstrebungen unterhalb des Laufwegs und Dämpfern behoben, wobei die
Verstrebungen die Schwingungen an die Dämpfer weiterleiten sollen. Es entstanden dadurch zusätzliche Kosten in Höhe von ca. 5.000.000
Pfund. Die Gesamtkosten des Vorhabens beliefen sich zum Bauabschluss auf 18.200.000 Pfund. Mit Hilfe der Finite-Elemente-Methode kann nun
die Struktur der Brücke, bei der Anregung durch den sogenannten "Seemannsgang" untersucht werden. Das Finite-Elemente-Programm "Sofistik"
erlaubt die Erstellung eines Analysemodells der Millenium Bridge am Rechner:
Seite 28
Hauptseminar Softwarefehler - Finite Elemente
Damit kann der maximale seitliche Ausschlag zu verschiedenen Frequenzen ermittelt werden:
- bei 0,46 Hertz:
- bei 1,0 Hertz:
1. Eigenfrequenz
2. Eigenfrequenz
FEM-Programm Sofistik
gemessen von Arup
0,46 Hz
1,0 Hz
0,5 Hz
0,9 Hz
Seite 29
Hauptseminar Softwarefehler - Finite Elemente
Die berechneten Werte weichen nur geringfügig von den, bei den Tests gemessenen Werten ab, weswegen sich die Finite-Elemente-Methode gut
zur Schätzung des Verhaltens weiterer Hängebrücken einsetzen lässt. Als Folge des Falles der London Millenium Bridge wird das Phänomen der
"synchronous lateral excitation" bei der Konstruktion zukünftiger Hängebrücken stärker berücksichtigt.
Quellen
www.arup.com/millenniumbridge/
www.structurae.de/de/structures/data/str00603.php
Seite 30