Die Finite Elemente Methode
Transcription
Die Finite Elemente Methode
Hauptseminar Softwarefehler - Finite Elemente Die Finite Elemente Methode Die Finite Elemente Methode (FEM) ist mathematisch gesehen ein numerisches Lösungsverfahren für partielle Differentialgleichungen, das heute in den verschiedensten Bereichen Verwendung findet, wie zum Beispiel im Ingenieurswesen oder in der Meteorologie. Hierfür wird sie in zum Teil sehr komplexen Programmen implementiert. Bevor nun jedoch auf verschiedene “Software-Bugs” im Zusammenhang mit der FEM eingegangen wird, soll eine kurze Einführung einen Blick auf die Grundlagen dieses Verfahrens gewähren. Diskretisierung Die physikalischen Eigenschaften von z.B. Bauteilen oder Baustoffen sind durch partielle Differentialgleichungen beschreibbar, jedoch sind diese DGL nur in wenigen Fällen auch analytisch lösbar. Es wird deswegen in diesen Fällen auf numerische Verfahren zurückgegriffen, wie zum Beispiel die FEM. Die zu untersuchenden Objekte bestehen dabei in der Regel aus mehreren zusammenhängenden Teilstrukturen, die zusammen ein Kontinuum bilden.Um nun ein technisches Problem mittels der FEM bearbeiten zu können, ist es zunächst nötig, dieses Kontinuum zu diskretisieren. Das Kontinuum wird hierfür durch eine Summe von Teilbereichen dargestellt, wovon jeder dieser Teilbereiche durch endlich viele Eckpunkte, sog. Knoten, beschrieben wird. Es ergibt sich dadurch eine Darstellung des Objekts als Netz. Die Diskretisierung muss im Übrigen nicht regelmäßig sein (beispielsweise nur Quadrate). Oft sind hier andere Zerlegungen vorteilhafter und für die Berechnung genauer. Hier einige ein-, zwei- und dreidimensionale Elementformen: Ein ganzes Auto könnte dann zum Beispiel wie folgt diskretisiert werden (ca. 18000 Knoten): Seite 1 Hauptseminar Softwarefehler - Finite Elemente Will man auch krummlinige Berandungen der einzelnen Elemente darstellen, so können zusätzliche Zwischenknoten eingeführt werden. In der Praxis werden jedoch hauptsächlich Elemente ohne oder mit nur einem Zwischenknoten eingesetzt, dafür aber dann das Netz an den betreffenden Stellen feinmaschiger ausgeführt, da dies einfacher zu handhaben ist. Ansatzfunktionen Als nächstes ist der Verlauf und das Verhalten der physikalischen Eigenschaften und Größen auf dem betreffenden Objekt nachzubilden. Dies geschieht durch die Beschreibung dieser Größen an den Knoten. Als Näherungsfunktionen werden hierfür sogenannte Ansatzfunktionen Seite 2 Hauptseminar Softwarefehler - Finite Elemente eingeführt, die einige Eigenschaften erfüllen (sollen), um bei der späteren Berechnung einfacher damit umgehen zu können: Die Funktion ist auf dem ganzen Element definiert. Jede Funktion ist einem Knoten des Elements zugeordnet. An diesen Knoten hat die Funktion den Wert 1, an allen anderen Knoten, für die auch eine Näherungsfunktion bestimmt ist, ist sie 0. Die Summe der Näherungsfunktionen auf einem Element ist 1. An gemeinsamen Kanten oder Flächen benachbarter Elemente haben die Näherungsfunktionen der jeweiligen Knoten gemeinsame Werte. Ist nun auf einem Element kein Zwischenknoten definiert, so führt dies zu linearen Ansatzfunktionen. Im Falle von einem oder zwei Zwischenknoten können diese durch quadratische beziehungsweise kubische Funktionen interpoliert werden: Seite 3 Hauptseminar Softwarefehler - Finite Elemente Die Qualität der Berechnung und somit auch des Ergebnisses hängt ganz entscheidend auch von der Wahl der Ansatzfunktionen ab. Allerdings sollte auch bedacht werden, dass die Qualität der Annäherung zwar mit höherer Knotenzahl besser wird, damit jedoch auch der Rechenaufwand wächst. Um ein gutes Nutzen/Kosten-Verhältnis zu erhalten ist deswegen eine geschickte Wahl der Elemente und Ansatzfunktionen unerlässlich. Ausser den hier kurz vorgestellten Ansatzfunktionen auf Polynombasis (linear, quadratisch, ...) werden für spezielle Anwendungen auch andere Funktionstypen wie trigonometrische Funktionen oder Treppenfunktionen angewendet, da diese hier das jeweilige Problem unter Umständen besser beschreiben können. Die Durchführung der FEM Um die FEM durchführen zu können, muss das Problem zunächst modelliert werden. In dieses Modell müssen dafür Informationen bezüglich Geometrie, der physikalischen Eigenschaften sowie der Randbedingungen (= Einflüsse aus der Umgebung) eingebracht werden (unter anderem in Form des Elementnetzes, der Ansatzfunktionen, DGL, ...). Dies führt dann schließlich auf ein lineares Gleichungssystem (oft beträchtlicher Größe). Nach Lösung dieses Gleichungssystems muss das Ergebnis dann noch entsprechend dem Problem interpretiert werden. Quellen R. Steinbuch: Finite Element – Ein Einstieg, Springer-Verlag Berlin Heidelberg, 1998. K. Knothe, H. Wessels: Finite Elemente, Eine Einführung für Ingenieure, Springer-Verlag Berlin Heidelberg, 1999. http://www.tfh-berlin.de/~kalus/FEM/Welcome.html Sturm Lothar Am 2. Weihnachtsfeiertag des Jahres 1999 zog der Orkan „Lothar“ über Mitteleuropa und richtete Schäden im Wert von über 144 Mio. Euro an. Am Beispiel dieses Sturms kann gut die Problematik der Wettervorhersage veranschaulicht werden, da es hier zu einer fatalen Falschprognose des Deutschen Wetterdienstes (DWD) kam. Die numerische Wettervorhersage Seite 4 Hauptseminar Softwarefehler - Finite Elemente Bei der numerischen Wettervorhersage werden anhand des aktuellen Wetterzustandes die atmosphärischen Prozeße simuliert und somit eine Prognose der zukünftigen Wetterentwicklungen erstellt. Hierzu müssen zunächst alle auftretenden Variablen, die das aktuelle Wetter charakterisieren, in einem die Atmosphäre beschreibenden Netz dargestellt werden. Desweiteren sind die physikalischen Eigenschaften der Atmosphäre mathematisch zu formulieren. Dies alles ergibt schließlich ein sehr umfangreiches lineares Gleichungssystem, das dann mit numerischen Mitteln näherungsweise gelöst werden kann (=> FEM). Vom aktuellen Zustand der Atmosphäre aus kann somit die zeitliche Entwicklung des Wetters über kleine Zeitschritte hinweg errechnet werden. Eine qualitativ hochwertige Darstellung der Atmosphäre bildet die Grundlage für eine zuverlässige Wettervorhersage. Hierfür ist zunächst natürlich ein möglichst feines Modellnetz erstrebenswert. Dies wiederum würde zu einem immens hohen Rechenaufwand führen, der jedoch in der Wettervorhersage nicht beliebig hoch sein darf (was bringt eine Wettervorhersage, die eine Woche zu spät kommt...?). Wählt man dagegen ein feineres Netz auf einem nur kleinen lokalen Bereich (=> Ausschnittsmodell), so leidet ebenfalls wieder die Zuverlässigkeit der Prognose, da ja Wetterentwicklungen ausserhalb des modellierten Bereichs durchaus ganz erheblichen Einfluss auf das Wettergeschehen innerhalb des interessierenden Bereichs haben können. Der DWD setzt deswegen ein Global-Modell, ein Europa-Modell und ein Deutschland-Modell mit jeweils immer kleineren Maschenweiten ein. An den Randbereichen sind die Lokal-Modelle zudem noch feiner aufgelöst, um den globalen Wetterentwicklungen, die aus dem jeweils gröberen Modell entnommen werden, besser gerecht zu werden. Mit zunehmender Rechenleistung kann die Maschenweite der einzelnen Modellen auch verringert werden. Die Ausgangsdaten für die Berechnungen werden durch Messung aller relevanten Größen in einem weltumspannenden Beobachtungsnetz erhalten (zum Beispiel mittels Bodenstationen, Schiffe, Bojen, Radiosonden, Satelliten oder Flugzeuge) und zwischen den nationalen Wetterdiensten ausgetauscht. Da die so gewonnen Informationen jedoch bei weitem nicht ausreichen, um die Ausgangslage genau genug zu beschreiben, wird erst noch eine sog. Datenassimilation durchgeführt. Das Problem ist nämlich, dass das Beobachtungsnetz erhebliche Lücken aufweist (insbesondere über den Ozeanen oder in der 3D-Vermessung des Windfeldes). Diese Lücken werden durch die Datenassimilation zumindest verkleinert, indem man dabei mittels statistischer und dynamischer Zusatzinformationen versucht, die fehlenden Daten durch wahrscheinliche Werte anzunähern (Bsp.: Wenn in München eine Temperatur von 20°C gemessen wird, so kann dies auch für eine gewisse Umgebung angenommen werden). Ein weiteres Problem im Zusammenhang mit der Datenassimilation ist die Tatsache, dass bereits kleine Änderungen in den Ausgangsdaten zu immensen Fehlern im Ergebnis führen können (dies steht unter anderem im Einklang mit der Chaostheorie) . Sturm Lothar Für die tägliche Wettervorhersage beim DWD wurden Ende 1999 ein Global-Modell (GME, 60 km Maschenweite, 31 Schichten) und ein LokalModell (LM, 7 km Maschenweite, 35 Schichten) eingesetzt, mit welchen mehrmals am Tag eine Wetterprognose erstellt wurde. Hierfür wird – wie bereits oben beschrieben – eine Datenassimilation durchgeführt. Die am 24.12.1999 um 13.00 Uhr zunächst errechnete Prognose für den 26.12.1999, 13.00 Uhr sagte korrekt die orkanartigen Böen bis 120 km/h über Deutschland voraus. Eine 90 Minuten später (mit leicht veränderten Werten) gestartete Vorhersage ergab jedoch „nur“ einen Sturm über Westengland. Diese aktualisierte Wettervorhersage sollte sich dann jedoch als falsch herausstellen. Seite 5 Hauptseminar Softwarefehler - Finite Elemente Seite 6 Hauptseminar Softwarefehler - Finite Elemente Der Grund für die Änderung in dieser Wettervorhersage war ein Unterschied in den numerischen Analysen im Atlantik nahe 58°W, 38°N (siehe Karte), wo durch zusätzliche Beobachtungen die Struktur des Starkwindbandes (Jet) in 10 km Höhe geändert wurde. Dies hatte Auswirkungen auf die Entwicklung eines flachen Tiefs über dem Atlantik, das sich später zu Orkan Lothar entwickelte. Dies ist ein gutes Beispiel dafür, wie geringfügige Unterschiede in den Ausgangsdaten zu einem großen Fehler im Ergebnis führen kann – oder mit anderen Worten, wie kleine Ursachen große Wirkungen haben können. Seite 7 Hauptseminar Softwarefehler - Finite Elemente Meiner Meinung nach ist dies jedoch kein expliziter Software-Bug, da ja die Berechnungen an sich korrekt waren. Vielmehr zeigt sich hier eine Anfälligkeit des Systems an sich. Quellen http://www.dwd.de/research/lothar/ Ozonloch In den frühen 70er Jahren, als Wissenschaftler ihre Studien zu möglichen Ursachen und Folgen der globalen Erderwärmung intensivierten, zog im Besonderen ein künstlich hegestelltes Gas ihre Aufmerksamkeit auf sich: Fluorchlorkohlenwasserstoff (FCKW). FCKW wurde von den Industrienationen zunehmend zur Herstellung von kommerziellen Produkten (Kühlschränke, Spraydosen, ...) verwendet. Doch der schwerwiegende Nachteil von FCKW ist, dass es 200mal so effizient als Kohlenwasserstoff (CO2) bei der Speicherung von Wärme in der Erdatmosphere ist und, dass das Gas nach seiner Freisetzung bis zu 120 Jahre in der Atmosphere verbleibt. 1974 brachten zwei Wissenschaftler die Vermutung auf, dass FCKW möglicherweise die in 10 bis 50 km Höhe gelegene Ozonschicht zerstört. 1975 beauftragte der US-Kongress die NASA ein Programm zur Untersuchung und Überwachung der Phenomäne in der oberen Atmosphere zu entwickeln. Im Speziellen wollte der Kongress sicherstellen, dass die Ozonschicht intakt ist. Seite 8 Hauptseminar Softwarefehler - Finite Elemente Seit den frühen 80ern ist die Ozonkonzentration über dem Südpol währen der monate September und Oktober mit jedem Jahr weniger geworden. Die Graphiken zeigen das Wachsen des Ozonlochs in vier verschiedenen Jahren, von 1983 bis 97, wie mit TOMS gemessen. So brachte die NASA zusätzlich zu bestehenden Projekten (ERB) 1978 Nimbus-7 zwei weitere NASASensoren zur Messung des Ozons in einem bestimmten Streifen der Atmosphere über dem gesamten Globus. Dies waren der Solar Backsetter Ultraviolet (SBUV) und das Total Ozone Mapping Spectrometer (TOMS). Empfindlich für radioaktive Energie im ultravioletten Bereich des Spektrums, nutzten diese Sensoren den Vorteil, dass Moleküle und Luftpartikel bestimmte wellenlängen ultravioletter Strahlen reflektieren, während Ozon andere in verschiedenen Schichten der Atmosphere absorbiert . Durch Analyse der Menge der zum Sensor zurückreflektierten ultravioletten Energie, konnten Profile über die Dicke der Ozonschicht an bestimmten Orten und in verschiedene Höhen erstellet werden. Ironischerweise konnte erst 1985 ein britisches Wissenschaftlerteam eine signifikante Reduktion der Ozonschicht über Halley Bay in der Antarktis feststellen. Mit einem vom Boden aus operierenden Dobson-Ozonspektrometer fanden sie heraus, dass die Ozonschicht über Halley Bay um 40% dünner war als im Vorjahr. Ihre Entdeckung überraschte die Forschergemeinschaft, weil erwartet worden war, dass das Ozon zuerst in den oberen Schichten der Stratosphere (30 bis 50 km Höhe) abnehmen würde und so die zu erwartetende Abnahme in einem kompletten Streifen gering sein würde. NASA-Forscher untersuchten hastig ihre TOMS-Daten und fanden heraus, dass TOMS ebenfalls eine dramatische Abnahme von Ozon über der gesamten Antarkis registriert hatte. Sie hatten das nicht früher entdeckt, weil die TOMS-Datenanalysesoftware unglücklicherweise so programmiert worden war, dass sie Datenwerte, die weit von erwarteten Messungen abwichen, beiseite ließ. So wurden die entscheidenden Messungen, die Alarm hätten auslösen sollen, einfach übersehen. Kurz gesagt: das TOMS-Team konnte das Ozonloch nicht Jahre früher entdecken, weil es weitaus schlimmer war als erwartet. In den folgenden Jahren stellten NASA und ESA Satelliten fest, dass die Abnahme der Ozonschicht über der Antarktis mit jedem Jahr schlimmer wurden. Als Reaktion vereinbarten 1987 43 Nationen mit der Unterzeichnung des Montreal Protokolls den FCKW-Ausstoss bis zum Jahr 2000 um 50 % zu reduzieren. Dieses Protokoll wurde 1990 angepasst mit Ziel bis 2000 sämtlichen FCKW-Ausstoss zu unterbinden. Der zweite European-Remote-Sensing Satellit (ERS-2) der ESA war mit einem neuen Sensor , dem Global Ozone Monitoring Experiment (GOME), ausgestattet. GOME ist ein Sensor mit vier Bandbreiten von 240 bis 790 nm zur Seite 9 Hauptseminar Softwarefehler - Finite Elemente Der Start von Nimbus-7 durch die NASA steht für einen neuen Anfang der Atmospären-Forschung. Die Zeichnung zeigt dasden Satelliten mit seinen acht Sensoren, unter anderem ERB und TOMS. Messung der Rückstreuung von sichtbarer und ultravioletter Sonnenstrahlung. Seit dem Sommer 1996 hat die ESA routinemäßig alle drei Tage globale Messungen des gesamten Ozones und Stickstoffdioxid vorgenommen. 1998 zeigten TOMS und GOME Daten, dass die Ozonkonzentration um 80% geringer als in den 70er Jahren war. Heute gibt es Hinweise, dass die Menge des FCKW in der Atmospghere zurückgeht. Ist das eine wissenschaftliche Erfolgsstory? Wird die Ozonkonzentration wieder auf den alten Stand vor 1970 steigen. Die Zeit und weitere Überwachung wird es zeigen. Die ESA startete ihren Environmental Sattelite (Envisat) im Novemeber 2001 mit einem neuen Sensor names Global Ozone Monitoring by Occultation of Starts (GOMOS). Untergang der Bohrplatform Sleipner A Die norwegische Bohrplatform Sleipner A, benannt nach Odin's achtbeinigem Ross, fördert Öl und Gas in der Nordsee und ist die grösste der Sleipner-Gruppe. Die Platform Sleipner A ist eine Platform vom Typ Condeep mit einer Gravitationsbasis aus Beton, die aus 24 Zellen mit einer Gesamtfäche von 16000 Quadratmetern besteht. Vier Zellen sind zu Säulen verlängert, die das Platformdeck tragen. Die erste Basisstruktur der Sleipner A sank während einem kontrollierten Belastungstest im Zuge der Vorbereitungen für den Aufbau der Deckkonstruktion in Gandsfjorden vor Stavanger (Norwegen) am 23 August 1991. Sofort nach dem Unglück setzte Statoil, eine norwegische Ölfirma und Betrteiber der Bohrinsel, eine Untersuchungskommision ein, mit deren Zusammenstellung SINTEF, eine Seite 10 Hauptseminar Softwarefehler - Finite Elemente technische Beratungsfirma, beauftragt wurde. Die Untersuchungsergebnisse der Kommission umfassen16 Reporte. Die Untersuchung kam zum Schluss, dass das Unglück durch einen Fehler der Zellenwand verursacht wurde, der zu einem Bruch und Leck führte, das zu gross war um von den Pumpen aufgefangen zu werden. Das Nicht-Standhalten der Wand hatte seine Ursache in einem schweren Fehler bei der Finite-Elemente-Analyse und unzureichender Verankerung der Konstrunktion in einem kritischen Bereich. Das Oberdeck wiegt 57,000 Tonnen und bietet Platz für die Unterbringung von 200 Personen und Bohrausrüstung mit einem Gesamtgewicht von 40,000 Tonnen. Der Untergang wurde mit 3.0 auf der Richter-Skala registriert. Geblieben ist ein Haufen Schrott in 200 m Tiefe. Der Verlust belief sich auf 700 Millionen Dollar. Die Sleipner-Area mit den Platformen Slepner B, T, A und zwei kleineren (v.l.n.r.) Die Betonbasis besteht aus 24 hohlen Zellen und 4 Säulen (a 12m Durchmesser), die das Platformdeck tragen. Der Fehler in der Zellenwand konnte zu einer sogenannten Trizelle, einem triangelförmigen Betonrahmen, der an den Punkten, wo die Zellen zusammenstossen, plaziert wurde, zurückverfolgt werden. Platform mit Betonbasis Die Untersuchung konnte den Fehler auf ungenaue Finite-Elemente-Berechnung des elastischen Modells der Trizelle unter Verwendung des Finite-ElementeProgramm NASTRAN eingrenzen. DieScherkräfte wurden um 47% unterschätzt, weswegen die Betonwände zu dünn geplant wurden. Bei einer genaueren FiniteElemente-Analyse nach dem Uglück wurde festgestellt, dass mit dieser Wanddicke Seite 11 Betonbasis an der Oberfläche Hauptseminar Softwarefehler - Finite Elemente Platform mit Betonbasis ein Leck in einer Tiefe von 62m auftreten würde, was dem tatsächlichen Auftreten in einer Tiefe von 65m sehr nahe kommt. Trizelle bei Belastungstest NASTRAN Das bei der konstruktion der Sleipner-Platform verwendete Programmpaket NASTRAN wurde ursprünglich von der US-Raumfahrtbehörde NASA als universell einsetzbares Finite-Elemente-Programm entwickelt. Die heute am weitesten verbreitete Version ist MSC/NASTRAN von der Firma MacNEAL-SCHWENDLER-Corporation als eine Weiterentwicklung des ursprünglichen Produktes eingesetzt. MSC/NASTRAN ist das anerkannteste und weltweit führende FE-Programm mit den meisten Installationen. Zusammenfassung der Eigenschaften von MSC/NASTRAN: Anwendungsbereich: Linear und nichtlinear statische und dynamische Festigkeits- und Wärmeleitungsberechnungen, Akustik Programmeigenschaften: Kleine und großse Verschiebungen, kleine Spannungen, Plastizität, thermische Einflüsse, Vibrationen, lineares und nichtlineares dynamisches Response-Spektrum, Knickung, Instabilität Elementbibliothek: Stab-, Rundstab-, Balken-, Membran-, Platten-, 3D-Festkörper, axialsymmetrische und isoparametrische Bruchelemente Materialbibliothek: Isotrope, anisotrope, linear und nichtlinear elastische, temperaturabhängige, elasto-plastische Materialmodelle, Kriechen Belastungsarten: statische, zeitabhängige, deformationsabhängige, Punkt-, Linien-, Oberflächen-, Volumen-Lasten. Randbedingungen: Elastisches Fundament, Kontakt, vorgeschriebene Mehrfach-Festhaltungen und -Zwangsverschiebungen Weitere Fähigkeiten: Lokales Koordinatensystem für alle Elemente möglich, Restart, Substrukturierung (Superelemente) Lösungsmethoden: Seite 12 Hauptseminar Softwarefehler - Finite Elemente partielle LDL-Aufteilung, Guyan-Reduktion; Eigenwerte (Determinantenmethode, Givens-, QR-, Lanczos-Methode) Daten-Ein/Ausgabe: Automatische Netz- und Lastgenerierung, Plot-Routinen, Ergebnisauswahl möglich. Schnittstellen: zu PATRAN, SUPERTAB, MSC/XL. Quellen www.math.psu.edu/dna/disasters/sleipner.html www.statoil.com Tacoma Narrows Bridge Bei Schwingungen mechanischer Systeme (z.B. Schaukel, Pendel) sind auf Grund von Reibungseffekten (z.B. Luftreibung) Energieverluste unvermeidlich. Deshalb ist eine Schwingung normalerweise zunächst gedämpft. Um die Schwingung eines mechanischen Systems aufrechtzuerhalten, müssen diese Energieverluste ausgeglichen werden. Dies kann durch eine Anregung des mechanischen Systems erfolgen (z.B. Anstossen). Falls diese Anregung mit einer bestimmten Frequenz erfolgt, so kann die Amplitude (=Ausschlag) der Schwingung deutlich ansteigen. Die Amplitude ist bei der Anregung eines mechanischen Systems mit seiner "Eigenfrequenz" maximal (es entsteht der Eindruck einer ungedämpften Schwingung). Jede schwingende Masse hat in der Physik eine solche, von ihrem Betrag abhängige Eigenfrequenz. Solch ein Aufschaukeln eines mechanischen Systems durch die Anregung mit der Eigenfrequenz (Resonanzphänomen) kann sich auch negativ auf das System selbst auswirken, wie es bei der Tacoma Narrows Bridge der Fall war. Die Tacoma Narrows Bridge Seite 13 Hauptseminar Softwarefehler - Finite Elemente Die Tacoma Narrows Bridge wurde 1940 im Bundesstaat Washington der USA erbaut und überspannte mit einer Länge von ca. 1800 Metern eine Meeresenge bei der Stadt Tacoma. Ihre Fahrbahn hatte ein eher flaches Profil, um einerseits Kosten zu sparen und anderseits der Brücke einen schlanken Aspekt zu verleihen. Dadurch wurde die Tacoma Bridge aber auch empfindlicher gegenüber aerodynamischen Kräften, was früher jedoch nicht beachtet wurde. Ca. 4 Monate nach ihrer Eröffnung zeigte sich die Einwirkung dieser Kräfte auf die Brücke bei einer Windgeschwindigkeit von ca. 60-70 km/h. Am windabgewandten Rand der Fahrbahn bildeten sich Luftwirbel in einem gewissen zeitlichen Abstand, der der Eigenfrequenz der Brücke entsprach: Verdeutlichung des zeitlichen Abstandes der Luftwirbel voneinander: Seite 14 Hauptseminar Softwarefehler - Finite Elemente Durch die, relativ zu anderen Hängebrücken dieser Zeit leichte Bauweise der Fahrbahn der Tacoma Bridge führte der Mittelteil der Brücke Aufund Abschwingungen mit einer Frequenz von 0,6 Hertz und einer Schwingungsweite von 0,5 Metern aus. Dann setzte eine Drehschwingung mit einer Frequenz von 0,2 Hertz ein. Zeitweise war der linke Gehweg 8,5 Meter höher als der rechte und umgekehrt: Seite 15 Hauptseminar Softwarefehler - Finite Elemente Die Amplitude der Schwingung war so gross, dass ein Trägerseil riss und dadurch die Brücke zum Einsturz brachte: Seite 16 Hauptseminar Softwarefehler - Finite Elemente 1950 wurde in derselben Bauweise die Brücke wiedererrichtet. Die Konstruktion wurde jedoch versteift. Dadurch änderte sich auch die Eigenfrequenz, so dass bei normalen Windstärken das Resonanzphänomen nicht mehr eintrat. alte Fahrbahnkonstruktion (von 1940): neue Fahrbahnkonstruktion (von 1950): Seite 17 Hauptseminar Softwarefehler - Finite Elemente Es sei an dieser Stelle noch erwähnt, dass momentan eine dritte Hängebrücke parallel zur zweiten Hängebrücke von 1950 errichtet wird, die voraussichtlich 2005 fertiggestellt sein wird: Seite 18 Hauptseminar Softwarefehler - Finite Elemente Weitere allgemeine Daten zu den drei Brücken: Categories Galloping Gertie (1940) Designer Leon Moisseiff Tacoma Narrows Bridge (1950) Dexter R. Smith Charles E. Andrew New Tacoma Narrows Bridge (2005) United Infrastructure Washington Seite 19 Hauptseminar Softwarefehler - Finite Elemente Built By The Pacific Bridge Company, Bethlehem Steel and John A. Roebling's Sons Company Bethlehem Pacific Coast Steel Corporation and United Infrastructure John A. Roebling's Sons Washington Company Cost to build 6.4 Million 14 Million 350 million (est.) Construction Started 1938 1949 2001 Construction Completed July 1, 1940 October 14, 1950 2005 (est.) Total Structure Length 5,939 feet 5,979 feet 5,400 feet Suspension Bridge Section 5,000 feet 5,000 feet Center Span 2,800 feet 2,800 feet 2,800 feet Second Deck Capabilities No No Yes Shore Suspension Spans (2), each 1,100 feet 1,100 feet East Approach and 345 feet Anchorage 365 feet West Approach and 594 feet Anchorage 614 feet Center Span Height 195 feet Above Water 187.5 feet Width of Roadway 49 feet 10 inches 26 feet Seite 20 Hauptseminar Softwarefehler - Finite Elemente Capacity of Roadway 60k cars per day Width of Sidewalks 5 feet (2), each 3 feet 10 inches Diameter of Main Suspension Cable 17.5 inches 20.25 inches Weight of Main Suspension Cable 3,817 tons 5,441 tons Weight Sustained by Cables 11,250 tons 18,160 tons Number of No. 6 Wires Each Cable 6,308 8,705 Weight of Shore Anchors 52,500 tons 66,000 tons Total Length of Wire 20,000 miles Towers Height Above Piers 425 feet 467 feet Weight of Each Tower 2,675 tons 1,927 tons Piers Area 118 feet, 11 inches by 65 feet, 11 inches 118 feet, 11 inches by 65 feet, 11 inches East Pier, Total Height 247 feet 265 feet East Pier, Depth of 140 feet Water 140 feet Seite 21 Hauptseminar Softwarefehler - Finite Elemente East Pier, Penetration at Bottom 90 feet 90 feet West Pier, Total Height 198 feet 215 feet West Pier, Depth of 120 feet Water 120 feet West Pier, Penetration at Bottom 55 feet 55 feet Heute werden Hängebrücken vor ihrem Bau als Modell im Windkanal getestet, um Brückeneinstürzen auf Grund von Windeinflüssen wie bei der Tacoma Narrows Bridge zu entgehen. Eine andere Methode der Analyse stellt die Berechnung am Rechner mit Hilfe der Finite-Elemente-Methode (FEM) dar. Die Windströmung kann z.B. mit den Reynolds Averaged Navier Stokes Gleichungen (RANS) mathematisch beschrieben werden. Ohne näher auf die Bezeichnungen einzugehen, könnte das RANS-Gleichungssystem z.B. folgende Form besitzen: Es ergibt sich daraus ein System nichtlinearer partieller Differentialgleichungen für das Turbulenzmodell. Die Lösung erfolgt per Finite-ElementeMethode am Rechner. Zunächst erfolgt eine Diskretisierung des Luftraums um das Profil der Fahrbahn der Hängebrücke herum. Im 2dimensionalen könnte das Netz beispielsweise folgendermassen aussehen: Seite 22 Hauptseminar Softwarefehler - Finite Elemente Die partiellen Differentialgleichungen (RANS) werden nun auf den einzelnen Teilabschnitten des Netzes gelöst. Dadurch ergeben sich die Verschiebungen der Knoten des Netzes und somit die Turbulenzen: Bei einer Betrachtung über einen gewissen Zeitraum hinweg, wird die zyklische Wiederholung der Luftwirbel sichtbar. Die Auswirkung der Kräfte durch die Luftwirbel auf die Fahrbahn der Hängebrücke und dessen Schwingung können ebenso durch die Finite-Elemente-Methode analysiert werden. Durch eine Ausweitung ins 3-Dimensionale kann nun das Verhalten der gesamten Hängebrücke unter verschiedenen Windbedingungen simuliert werden. Im Hinblick auf die Tacoma Narrows Bridge konnte die Finite-Elemente-Methode im Nachhinein zur Analyse, bzw. Herleitung der Eigenfrequenz verwendet werden. Quellen www.firebirdz.net/tnb/default.htm maclab.alfred.edu/students/harttm/tacoma.html www.tu-bs.de/institute/WiR/steindorf/db/beispiel.html www.statik.tu-braunschweig.de/~bjoern/ Seite 23 Hauptseminar Softwarefehler - Finite Elemente London Millenium Bridge Wenn wir gehen, üben wir, abgesehen von unserem Gewicht, noch weitere Kräfte auf den Untergrund aus. Bei einem Gewicht von ca. 75 kg ergeben sich zusätzliche vertikale Kräfte von bis zu ca. 250 Newton und durch das Wanken unseres Körpers seitliche Kräfte von bis zu ca. 25 Newton: Seite 24 Hauptseminar Softwarefehler - Finite Elemente Wenn ein beweglicher Boden unter unseren Füssen beim Gehen seitlich schwingt, machen wir breitere Schritte, um unser Gleichgewicht besser zu halten und passen unsere Schritte der Bewegung des Untergrunds an. Die seitlichen Kräfte, die wir dann auf den beweglichen Untergrund ausüben, werden dann noch grösser und bringen den Untergrund noch weiter zum Schwingen. Dieser Effekt ist vergleichbar mit einer ungedämpften Schwingung beim Resonanzphänomen (siehe oben bei der Behandlung der Tacoma Narrows Bridge). Dieses Phänomen ("synchronous lateral excitation" oder "Seemannsgang" genannt) vervielfacht sich bei einer grossen Anzahl von gehenden Menschen. Es trat zum Beispiel bei der London Millenium Bridge auf. Am 10. Juni 2000 wurde in London die Millenium Bridge, eine ca. 330 Meter lange Hängebrücke für Fussgänger, die die Themse überquert, eröffnet. Diese Hängebrücke wird als eine der grazilsten Hängebrücken unserer Zeit bezeichnet: Seite 25 Hauptseminar Softwarefehler - Finite Elemente Am Eröffnungstag der Millenium Bridge herrschte reger Andrang. Ungefähr 80000 bis 100000 Leute überquerten die schlanke Brücke an diesem Tag, wobei sich manchmal bis zu 2000 Personen gleichzeitig auf ihr befanden, also im Durchschnitt 1,7 Personen je Quadratmeter. Dies führte zu dem oben genannten Phänomen, welches bei der Konstruktion der Brücke nicht beachtet worden ist. Der maximale seitliche Ausschlag des Mittelteils der Brücke betrug ca. 70mm bei einer Frequenz von 0,95Hertz. Um dieses Phänomen genauer zu untersuchen, wurde die Millenium Bridge zwei Tage nach ihrer Eröffnung zunächst gesperrt. Das Konstruktionsunternehmen Arup lies dann mittels Sensoren und Testpersonen das Verhalten der Hängebrücke testen, um die Auswirkungen des menschlichen Ganges auf die Brücke zu messen: Seite 26 Hauptseminar Softwarefehler - Finite Elemente Man kam zu folgendem Ergebnis: Seite 27 Hauptseminar Softwarefehler - Finite Elemente Das Problem wurde durch die Anbringung von zusätzlichen Verstrebungen unterhalb des Laufwegs und Dämpfern behoben, wobei die Verstrebungen die Schwingungen an die Dämpfer weiterleiten sollen. Es entstanden dadurch zusätzliche Kosten in Höhe von ca. 5.000.000 Pfund. Die Gesamtkosten des Vorhabens beliefen sich zum Bauabschluss auf 18.200.000 Pfund. Mit Hilfe der Finite-Elemente-Methode kann nun die Struktur der Brücke, bei der Anregung durch den sogenannten "Seemannsgang" untersucht werden. Das Finite-Elemente-Programm "Sofistik" erlaubt die Erstellung eines Analysemodells der Millenium Bridge am Rechner: Seite 28 Hauptseminar Softwarefehler - Finite Elemente Damit kann der maximale seitliche Ausschlag zu verschiedenen Frequenzen ermittelt werden: - bei 0,46 Hertz: - bei 1,0 Hertz: 1. Eigenfrequenz 2. Eigenfrequenz FEM-Programm Sofistik gemessen von Arup 0,46 Hz 1,0 Hz 0,5 Hz 0,9 Hz Seite 29 Hauptseminar Softwarefehler - Finite Elemente Die berechneten Werte weichen nur geringfügig von den, bei den Tests gemessenen Werten ab, weswegen sich die Finite-Elemente-Methode gut zur Schätzung des Verhaltens weiterer Hängebrücken einsetzen lässt. Als Folge des Falles der London Millenium Bridge wird das Phänomen der "synchronous lateral excitation" bei der Konstruktion zukünftiger Hängebrücken stärker berücksichtigt. Quellen www.arup.com/millenniumbridge/ www.structurae.de/de/structures/data/str00603.php Seite 30