Die Finite Elemente Methode für partielle Differentialgleichungen
Transcription
Die Finite Elemente Methode für partielle Differentialgleichungen
Die Finite Elemente Methode für partielle Differentialgleichungen Thomas Richter [email protected] Heidelberg 13. August 2015 (vorläufig) 2 Inhaltsverzeichnis Literaturverzeichnis 5 1 Einleitung 1.1 Beispiele von partiellen Differentialgleichungen . . . . . . . . . . . . . . . . . 1.2 Typeinteilung von linearen partiellen Differentialgleichungen zweiter Ordnung 1.3 Beispiel: die eingespannte Membran . . . . . . . . . . . . . . . . . . . . . . . 7 7 9 10 2 Theoretische Grundlagen 2.1 Grundlagen aus der Funktionalanalysis . 2.1.1 Funktionenräume . . . . . . . . . 2.1.2 Sobolew-Räume . . . . . . . . . . 2.2 Theorie partieller Differentialgleichungen 2.2.1 Elliptische Probleme . . . . . . . 2.2.2 Parabolische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 17 20 30 30 38 3 Die Finite Elemente Methode für elliptische Probleme 3.1 Allgemeine Galerkin-Verfahren . . . . . . . . . . . . . . . . 3.1.1 Lösbarkeit und Galerkin-Orthogonalität . . . . . . . 3.1.2 Einige Begriffe . . . . . . . . . . . . . . . . . . . . . 3.1.3 Wahl der Ansatzräume . . . . . . . . . . . . . . . . . 3.2 Finite Elemente Methode . . . . . . . . . . . . . . . . . . . 3.2.1 Triangulierung und lineare Finite Elemente . . . . . 3.2.2 Allgemeine Finite Elemente Räume . . . . . . . . . . 3.2.3 Parametrische Finite Elemente . . . . . . . . . . . . 3.3 Interpolation mit Finiten Elemente . . . . . . . . . . . . . . 3.3.1 Das Bramble-Hilbert-Lemma . . . . . . . . . . . . . 3.3.2 Die Clement-Interpolation . . . . . . . . . . . . . . . 3.4 A priori Fehleranalyse für Finite Elemente Verfahren . . . . 3.4.1 Der Aubin-Nitsche Trick . . . . . . . . . . . . . . . . 3.4.2 Approximation von krummen Rändern . . . . . . . . 3.5 Praktische Aspekte der Finite Elemente Methode . . . . . . 3.5.1 Numerischer Aufbau der Gleichungen . . . . . . . . 3.5.2 Eigenschaften der Systemmatrix . . . . . . . . . . . 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente 3.6.1 Residuenbasierte Fehlerschätzer . . . . . . . . . . . . 3.6.2 Der dual gewichtete Fehlerschätzer . . . . . . . . . . 3.6.3 Adaptive Gitterverfeinerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 47 48 50 51 52 52 54 60 63 64 70 73 73 78 81 82 85 88 88 94 99 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Inhaltsverzeichnis 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen 4.1 Eigenschaften der linearen Gleichungssysteme . . . . . . . . . . . . . . . . . 4.2 Krylow-Raum-Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Abstiegsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Das Verfahren der konjugierten Gradienten (CG-Verfahren) . . . . . 4.2.3 Krylow-Raum Verfahren für nicht-symmetrische Gleichungssysteme . 4.2.4 Vorkonditionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Mehrgitterverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Hierarchische Finite Elemente Ansätze . . . . . . . . . . . . . . . . . 4.3.2 Das Zweigitter-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Mehrgitter-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 105 107 108 110 115 117 119 122 124 130 5 Die Finite Elemente Methode für parabolische Probleme 135 5.1 Die Rothe-Methode für parabolische Differentialgleichungen . . . . . . . . . . 137 5.1.1 Praktische Aspekte der Rothe-Methode . . . . . . . . . . . . . . . . . 140 5.1.2 Stabilitätsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 5.1.3 Verfahren höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . 149 5.2 Zeitdiskretisierung mit Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . 153 5.2.1 Das dG(r)-Verfahren zur Zeitdiskretisierung der Wärmeleitungsgleichung154 5.2.2 Das cG(r)-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 4 Literatur Dieses Skript folgt den folgenden Vorlagen: [Rannacher] Prof. Dr. R. Rannacher, Skriptum zur Vorlesung “Numerik partieller Differentialgleichungen”, http://ganymed.iwr.uni-heidelberg.de/˜lehre/notes, Universität Heidelberg, 2008 [Vexler] Prof. Dr. Boris Vexler, Skriptum zur Vorlesung “Adaptive Finite-Elemente-Verfahren”, Technische Universität München, 2008 [Braess] D. Braess, “Finite Elemente”, Springer, 2007 [Großmann Roos] C. Großmann, H.-G. Roos, “Nuemrische Behandlung partieller Differentialgleichungen”, Teubner, 2005 5 Inhaltsverzeichnis 6 1 Einleitung Partielle Differentialgleichungen treten zur Beschreibung einer Vielzahl physikalischer Prozesse auf. Üblicherweise suchen wir in einem Gebiet Ω ⊂ Rd mit d > 1 eine Funktion u : Ω → Rc , welche einer Differentialvorschrift genügt: F (x, u, ∇u, ∇2 u, . . . , ∇n u) = 0. Von einer partiellen Differentialgleichung spricht man, wenn partielle Ableitungen in mehrere Richtungen auftreten. Die höchste Stufe n der auftretenden Ableitungen heißt die Ordnung der Differentialgleichung. Wir beschränken uns hier zunächst auf partielle Differentialgleichungen bis zur Ordnung n = 2. Zumeist behandeln wir lineare partielle Differentialgleichungen. Diese schreiben wir in der Form: Lu = f, Lu := − d X aij ∂i ∂j u(x) + d X ai ∂i u + au, i=1 i,j=1 mit einem Differentialoperator L und mit (reellen) Koeffizienten aij , ai , a. Zur vollständigen Beschreibung von partiellen Differentialgleichungen gehören wie bei gewöhnlichen Differentialgleichungen Randwerte bzw. Anfangswerte. 1.1 Beispiele von partiellen Differentialgleichungen Wir erwähnen hier kurz einige Beispiele für partielle Differentialgleichungen, welche Prozesse aus der Natur beschreiben. Zunächst sei Ω ⊂ Rd für d ≥ 1 ein Gebiet. Auf diesem Gebiet beschreiben wir die Ausbreitung von Wellen durch die Wellengleichung. Wir suchen auf dem Orts-Zeit Gebiet [0, T ] × Rd die Lösung u(x, t) so dass ∂t2 u(x, t) = ∆u(x, t), wobei durch ∆ der Laplace-Operator als Summe der (örtlich) zweiten partiellen Ableitungen bestimmt ist: ∆ := d X ∂i2 . i=1 Die Wellengleichung hat eine ausgezeichnete Variable t, die physikalische Zeit. Auch für eindimensionale Gebiete Ω mit d = 1 liegt eine partielle Differentialgleichung mit den partiellen Ableitungen ∂tt und ∂xx vor. Für den Fall d = 1 ist eine Lösung der Wellengleichung gegeben durch u(x, t) = sin(x) sin(t). 7 1 Einleitung Die Wellengleichung ist der Prototyp einer hyperbolischen partiellen Differentialgleichung. Ein weiteres Beispiel für eine einfache partielle Differentialgleichung ist die Wärmeleitungsgleichung: In einem Gebiet Ω ⊂ Rd mit d ≥ 1 beschreiben wir die Ausbreitung von Wärme u(x, t) im Laufe der Zeit. Zu Beginn t = 0 sei eine Wärmeverteilung vorgeschrieben u(x, 0) = u0 (x), der Rand des Gebiets sei “isoliert”, d.h. es existiert kein Wärmefluss über den Rand. Mathematisch formuliert bedeutet dies, dass sich die Wärmeverteilung in Richtung Rand (also in Normalrichtung n) nicht ändert, ∂n u(x, t) = 0 für x ∈ ∂Ω. Die zeitliche Verteilung der Wärme ist beschrieben durch die Gleichung: ∂t u(x, t) − λ∆u(x, t) = f (x, t) x ∈ Ω, t ≥ 0, u(x, 0) = u0 (x), ∂n u = 0 auf ∂Ω, wobei durch f (x, t) ein externer Wärmezufluss (oder eine Wärmesenke) gegeben ist und λ eine physikalische Konstante, welche die Wärmeleitfähigkeit des Mediums beschreibt. Die Wärmeleitungsgleichung hat wieder eine ausgezeichnete Zeitrichtung und ist unabhängig von der Dimension des Gebietes d eine partielle Differentialgleichung. Sie ist der Prototyp einer parabolischen partiellen Differentialgleichung. Sie ist ein Anfangs-Randwertproblem. Oft ist man nicht am zeitlichen Verlauf der Lösung interessiert, sondern nur am stationären Zustand welcher sich (gegebenenfalls) für t → ∞ einstellt. Ein stationärer Zustand ist ein Gleichgewichtszustand, an dem sich die Lösung nicht mehr ändert (im Verlauf der Zeit), für den also ∂t u(x, t) = 0 gilt. Die stationäre Wärmeleitungsgleichung ist bestimmt durch die Vorschrift: −∆u(x) = f (x), x ∈ Ω, ∂n u(x) = 0 x ∈ ∂Ω. Ein stationärer Zustand kann sich natürlich nur dann einstellen, wenn der Quellterm f nicht explizit von der Zeit abhängt. Die Gleichung −∆u = f wird die Poisson-Gleichung genannt und wird uns in dieser Vorlesung hauptsächlich beschäftigen. Zusammen mit der Vorgabe der Normalableitung auf dem Rand spricht man vom Neumann-Problem der Poisson-Gleichung. Für Ω ⊂ R, also d = 1 ist diese Gleichung eine gewöhnliche Differentialgleichung, genauer ein Spezialfall des Sturm-Liouville Randwertproblems. Für d ≥ 2 ist sie der Prototyp einer elliptischen partiellen Differentialgleichung. Bei den bisherigen Beispielen handelt es sich um lineare partielle Differentialgleichungen zweiter Ordnung. Die Ordnung ist definiert als die höchste Stufe der auftretenden partiellen Ableitung. Ein Beispiel für eine partielle Differentialgleichung erster Ordnung ist die Transportgleichung. Dafür sei durch β : Ω → Rd ein Transportfeld gegeben (etwa der Wind). Der Transport einer Größe (etwa einer Dichteverteilung) ρ(x, t) in einem Gebiet Ω ⊂ Rd wird dann durch die Gleichung ∂t ρ(x, t) + ∂β ρ(x, t) = 0, beschrieben. Dabei bezeichnen wir mit ∂β := β · ∇ die Richtungsableitung in Richtung β: ∂β = β · ∇ = d X β i ∂i . i=1 Die Transportgleichung ist so wie die Wellengleichung eine hyperbolische Gleichung. Falls mehr als eine Lösungsvariable involviert ist, so spricht man von einem System von partiellen Differentialgleichungen. Der bekannteste Vertreter eines (nichtlinearen) Systems 8 1.2 Typeinteilung von linearen partiellen Differentialgleichungen zweiter Ordnung Steigung c t t y (x0 , t0 ) (x0 , t0 ) x (x0 , t0 ) x x Abbildung 1.1: Typeeinteilung und Ausbreitung von Informationen bei partiellen Differentialgleichungen. Von links nach rechts: hyperbolisch, parabolisch und elliptisch. von partiellen Differentialgleichungen sind die Navier-Stokes Gleichungen. Gesucht werden in einem Gebiet Ω ⊂ Rd mit d = 2, 3 und I := [0, T ] Druck p(x, t) : Ω → R und Geschwindigkeitsfeld v(x, t) : Ω → Rd einer inkompressiblen Flüssigkeit (oder eines Gases) so dass (für d = 2) ∂t v 1 − ν∆v 1 + v · ∇v 1 + ∂x p = f 1 ∂t v 2 − ν∆v 2 + v · ∇v 2 + ∂y p = f 2 ∂x v 1 + ∂y v 2 = 0. 1.2 Typeinteilung von linearen partiellen Differentialgleichungen zweiter Ordnung Wir werden ausschließlich lineare partielle Differentialgleichungen zweiter Ordnung betrachten. Diese schreiben wir mit Hilfe eines Differentialoperators L in der Form: Lu = f, L := d X aij ∂i ∂j + i,j=1 d X aj ∂j + a. j=1 Die Koeffizienten sind reell (und können vom Ort abhängen). Da die partiellen Ableitungen vertauschbar sind ∂i ∂j u = ∂j ∂i u können die Koeffizienten aij = aji als symmetrisch angenommen werden. Die bereits erwähnte Einteilung in elliptische, parabolische und hyperbolische Differentialgleichungen hängt bei linearen Gleichungen zweiter Ordnung in zwei Dimensionen lediglich vom Hauptteil des Differentialoperators ab L0 := d X aij ∂i ∂j , i,j=1 also nur von den Termen mit zweiten Ableitungen. Die theoretische sowie numerische Behandlung von partiellen Differentialgleichungen hängt stark vom jeweiligen Typ ab. Wir wollen dies hier nur kurz motivieren. 9 1 Einleitung Zunächst betrachten wir die einfache Transportgleichung auf dem Orts-Zeit Gebiet I × Ω = [0, T ] × R ∂t ρ(x, t) + v∂x ρ(x, t) = 0, mit fester ‘Geschwindigkeit’ v ∈ R. Zum Zeitpunkt t = 0 sei die Startverteilung vorgegeben ρ(x, 0) := ρ0 (x). Die eindeutige Lösung kann dann unmittelbar angegeben werden: ρ(x, t) = ρ0 (x − vt), t ≥ 0. Durch die Vorgabe von Startwerten ist also bereits die komplette Lösung bestimmt. Wir nehmen nun an, dass die Lösung der Transportgleichung in einem Zeit-Ortspunkt (t∗ , x∗ ) ∈ [0, T ] × Ω gestört wird, etwa durch einen Fehler in einer rechten Seite. Diese Störung wird im weiteren Zeitverlauf weiter mit Geschwindigkeit v transportiert. Eine Störung hat nur Einfluss auf Punkte t ≥ t∗ und da die Informationsausbreitung mit endlicher Geschwindigkeit v stattfindet nur in allen Punkten innerhalb eines Kegels, siehe Abbildung 1.1. Aus dieser Informationsausbreitung können zulässige Randbedingungen hergeleitet werden: wird zum Beispiel der Startwert u(x, 0) = u0 (x) vorgegeben, so dürfen nicht zusätzlich Werte an Teilen des Randes ∂Ω vorgeschrieben werden, an denen die Lösung bereits durch den Startwert beschrieben ist. Als zweites Beispiel wird die Wärmeleitungsgleichung in einer räumlichen Dimension d = 1 betrachtet. Im Orts-Zeitgebiet [0, T ] × (0, 1) gelte die Gleichung: ∂t u(x, t) − λ∂xx u(x, t) = f (x, t). Zu Beginn sei eine Wärmeverteilung vorgegeben, am Rand soll kein Wärmefluss stattfinden: u(x, 0) = u0 (x) x ∈ Ω, ∂n u(x, t) = 0 (x, t) ∈ [0, T ] × ∂Ω. Bei der idealisierten physikalischen Modellierung der Wärmeleitung wird die Information mit unendlicher Geschwindigkeit in örtlicher Richtung weitergeführt. Das heißt, eine Änderung im Punkt (t∗ , x∗ ) ∈ [0, T ] × Ω wirkt sich unmittelbar auf alle Punkte (x, t) mit t ≥ t∗ aus. Die Lösung für t < t∗ bleibt natürlich unberührt. Als Differentialgleichung zweiter Ordnung im Ort x, müssen auf beschränkten Gebieten Randwerte auf ∂Ω vorgegeben werden. Die Wärmeleitungsgleichung ist also ein Anfangs-Randwertproblem. Betrachten wir das stationäre Wärmeleitungsproblem auf einem beschränkten Gebiet, so ist aus physikalischer Anschauung klar, dass die Änderung in einem beliebigen Punkt x ∈ Ω Einfluss auf alle anderen Punkte des Gebietes hat, siehe Abbildung 1.1. 1.3 Beispiel: die eingespannte Membran Detailliert behandeln wir ein einfaches Anwendungsproblem. Hierzu sei Ω ⊂ R2 ein beschränktes Gebiet (unter einem Gebiet verstehen wir eine zusammenhängende, nichtleere offene Teilmenge). Dieses Gebiet soll die Idealisierung einer unendlich dünnen Membran sein. 10 1.3 Beispiel: die eingespannte Membran Wir wollen die Auslenkung u : Ω → R dieser Membran in Normalrichtung unter Einwirkung einer Normalkraft f : Ω → R betrachten. Am Rand ∂Ω sei die Membran eingespannt, es gelte also für die Auslenkung u(x) = 0 in Punkten x ∈ ∂Ω. Falls nun v(x) eine gegebene Auslenkung ist, so kann die Energie des Systems durch eine Energieform E(·) angegeben werden: Z Z µ E(v) = |∇v|2 dx − f v dx. 2 Ω Ω Hier ist µ ein Materialparameter, welcher von den physikalischen Eigenschaften der Membran abhängt. Physikalische Grundprinzipien besagen nun, dass die gesuchte Auslenkung u : Ω → R eben diese ist, welche die Energieform minimiert: suche u zulässig, so dass: E(u) ≤ E(v) für alle v zulässig. Wir müssen als erstes den Lösungsraum, also den Raum der zulässigen Lösungen näher beschreiben. Wir nennen diesen Raum V . Dieser Raum muss (mindestens) derart sein, dass wir die Aufgabe sinnvoll formulieren können. Die Funktionen in V müssen im Innern des Gebietes differenzierbar sein und damit die Energieform existiert müssen die Ableitungen quadrat-integrabel sein. Darüber hinaus müssen die Funktionen in V bis zum Rand hin fortsetzbar sein und dort den Wert 0 annehmen: V := {u : Ω̄ → R : u ∈ C(Ω̄) ∩ C 1 (Ω), u|∂Ω = 0, |∇u| ∈ L2 (Ω)}. Wir schreiben das Minimierungsproblem kurz: suche u ∈ V : E(u) ≤ E(v) ∀v ∈ V. (1.1) Für die Lösung u von (1.1) gilt notwendig mit jeder beliebigen Variation φ ∈ V E(u) ≤ E(u + φ), und somit ist die Lösung charakterisiert durch die Eigenschaft: d = 0 ∀φ ∈ V. E(u + sφ) ds s=0 Durch Differenzieren erhalten wir: d d nµ E(u + sφ) = ds ds 2 s=0 Z Z |∇(u + sφ)| dx − Ω µ∇u · ∇φ dx − = Ω 2 Z Ω Z o f (u + sφ) dx s=0 f φ dx = 0 ∀φ ∈ V. Ω Die Lösung des Minimierungsproblems (1.1) kann also auch als Lösung der Variationsgleichung Z Z u ∈ V : µ ∇u · ∇φ dx = f φ dx ∀φ ∈ V, (1.2) Ω Ω beschrieben werden. Es kann einfach gezeigt werden, dass die beiden Formulierungen (1.1) und (1.2) äquivalent sind, dass also auch jede Lösung des Variationsproblems eine Lösung des Minimierungsproblems ist. 11 1 Einleitung Falls die Funktion u zweimal stetig differenzierbar ist, fahren wir mit Hilfe der Green’schen Formel (partielle Integration) fort: Z 0= µ∇u · ∇φ dx + Z Ω f φ dx = − Ω Z (µ∆u − f )φ dx + Z µ∂n uφ ds ∀φ ∈ V. ∂Ω Ω | {z =0 } Das Randintegral verschwindet, da die Testfunktionen φ ∈ V hier alle Null sind. Diese Gleichung muss für sämtliche Funktionen φ ∈ V erfüllt sein. Das Prinzip der Variation besagt nun, dass diese Integralgleichung auch punktweise gelten muss. Das gesuchte Minimum u von (1.1) bzw. die gesuchte Variationslösung (1.2) ist also (bei hinreichender Differenzierbarkeit) auch Lösung der elliptischen partiellen Differentialgleichung: − µ∆u = f in Ω, u = 0 auf ∂Ω. (1.3) Wir erhalten wieder das Poisson-Problem, diesmal mit dem Lösungswert u(x) = 0 auf dem Rand. Dieses Randwertproblem heißt Dirichlet-Problem. Im Spezialfall u = 0 sprechen wir von homogenen Dirichlet-Bedingungen. Wir haben nun die folgenden Zusammenhänge gezeigt: (1.1) ⇒ (1.2) ⇒ u∈C 2 (Ω) (1.3). Diese Folgerung kann auch umgekehrt werden, so dass für die Lösungen der drei unterschiedlichen Formulierungen gilt: (1.1) ⇔ (1.2) ⇔ u∈C 2 (Ω) (1.3). Für die Äquivalenz zwischen der variationellen und der klassischen Formulierung ist hinreichende Regularität notwendig. Es wird sich zeigen, dass es durchaus (sogar überwiegend) Lösungen des Minimierungs- sowie Variationsproblems gibt, welche jedoch nicht über diese zusätzliche Regularität verfügen. Daher werden wir zwischen zwei Lösungskonzepten unterscheiden: unter der klassischen Lösung oder auch starken Lösung verstehen wir eine Funktion u ∈ C(Ω̄) ∩ C 2 (Ω) welche die Differentialgleichung (1.3) löst. Demgegenüber steht die schwache Lösung oder auch variationelle Lösung welche die beiden äquivalenten Formulierungen (1.1) und (1.2) löst. Jede klassische Lösung ist auch eine schwache Lösung. Zentrale theoretische Fragestellungen bei der Untersuchung von partiellen Differentialgleichungen sind die Begriffe Lösbarkeit, Eindeutigkeit und Stabilität. Eine Aufgabe wird als wohlgestellt im Sinne von Hadamard bezeichnet, falls eine eindeutige Lösung existiert, welche stetig von der Daten, also den Rand- und Anfangsbedingungen sowie der rechten Seite abhängt. Selbst für lineare partielle Differentialgleichungen ist die Untersuchung dieser Begriffe weit aufwändiger als bei gewöhnlichen Differentialgleichungen. Eindeutigkeit Die Untersuchung der Eindeutigkeit ist verhältnismäßig einfach. Jede Lösung (klassisch sowie schwach) ist eine Lösung der Variationsgleichung. Angenommen, es existierten zwei solche Lösungen u, v von (1.2). Dann gilt: Z Ω 12 (∇u − ∇v) · ∇φ dx = 0 ∀φ ∈ V. 1.3 Beispiel: die eingespannte Membran Wir wählen die spezielle Testfunktion φ := u − v ∈ V und erhalten: k∇(u − v)k2Ω Z |∇(u − v)|2 dx = 0. := Ω Es gilt also ∇(u − v) = 0 und somit ist die Differenz u − v der beiden Lösungen im ganzen Gebiet konstant. Da die Lösungen am Rand ∂Ω beide verschwinden gilt zwingend u = v und die Existenz verschiedener Lösungen ist ausgeschlossen. Stetige Abhängigkeit von der rechten Seite Wir betrachten wieder die Variationsgleichung zur Bestimmung der Lösung: Z µ ∇u · ∇φ dx = Ω Z f φ dx ∀φ ∈ V, Ω und wählen die Testfunktion φ = u ∈ V . Dann gilt: k∇uk2Ω ≤ 1 kf kΩ kukΩ . µ (1.4) Wir zitieren nun die für die Numerik wesentliche Poincaré’sche Ungleichung Satz 1.1 (Poincaré’sche Ungleichung). Sei Ω ⊂ Rd ein beschränktes Gebiet, sowie u ∈ C 1 (Ω) ∩ C(Ω̄) eine Funktion welche am Rand des Gebietes verschwindet. Dann gilt die Ungleichung kukΩ ≤ cp k∇ukΩ , mit einer nicht von u abhängigen Konstante cp . Mit dieser Ungleichung erhalten wir aus (1.4) k∇uk2Ω ≤ cp 1 kf kΩ kukΩ ≤ kf kΩ k∇ukΩ µ µ ⇒ k∇ukΩ ≤ cp kf kΩ , µ die stetige Abhängigkeit der Lösung von der rechten Seite. Existenz einer Lösung Die Frage nach der Existenz einer Lösung ist nicht so einfach zu beantworten. Der sogenannte potentialtheoretische Ansatz versucht die Existenz einer klassischen Lösung der partiellen Differentialgleichungen in Form (1.3) zu zeigen. Dieser Ansatz verwendet sogenannte Green’sche Funktionen, diese können als Fundamentallösung des Differentialoperators betrachtet werden. Wir verweisen hierzu auf die Literatur. Wir betrachten den funktionalanalytischen Zugang, welcher flexibler ist und eng mit der numerischen Untersuchung verbunden ist. Wir versuchen die Existenz eines Minimums von (1.1) zu zeigen. Wir erinnern an den Lösungsraum V := {u : Ω̄ → R : u ∈ C(Ω̄) ∩ C 1 (Ω), u|∂Ω = 0, |∇u| ∈ L2 (Ω)}. 13 1 Einleitung Für Funktionen auf diesem Lösungsraum gilt die Poincaré Ungleichung. Dies bedeutet, dass durch die folgende Energienorm kvkE := k∇vkΩ ≥ 1 kvkΩ cp ∀v ∈ V, auf V in der Tat eine Norm gegeben ist. Wir suchen das Infimum von (ohne Einschränkung µ = 1) u := inf arg E(v), v∈V 1 E(v) := kvk2E − (f, v), 2 wobei wir zur Abkürzung für das L2 -Skalarprodukt die Bezeichung Z (f, g) := f g dx Ω verwenden. a) Um die Existenz eines Minimums zu zeigen müssen wir zunächst die Beschränktheit E(v) > −∞ der Energieform nachweisen. Es gilt mit Poincaré und für f ∈ L2 (Ω) 1 1 1 E(v) = kvk2E − (f, v) ≥ kvk2E − kf k kvk ≥ kvk2E − cp kf k kvkE 2 2 2 Weiter verwenden wir die Young’sche Ungleichung ab ≤ 1 2 ε 2 a + b 2ε 2 ε > 0, mit ε = cp und erhalten: c2p c2p 1 1 E(v) ≥ kvk2E − kf k2 − kvk2E = − kf k2 > −∞. 2 2 2 2 b) Da das Energiefunktional nach unten beschränkt ist, existiert also eine Minimalfolge vn ∈ V (n > 0) mit: E(vn ) → inf E(v) =: d > −∞. v∈V Es bleibt die Konvergenz der Folgenglieder vn → u gegen einen Grenzwert u zu zeigen und dass dieser Grenzwert in unserem Raum V liegt. Hierzu zeigen wir zunächst, dass die Folge vn ∈ V eine Cauchy-Folge ist. Mit der Parallelogrammidentität kv − wk2E + kv + wk2E = 2kvk2E + 2kwk2E gilt für die Differenz zweier Folgenglieder: kvn − vm k2E = 2kvn k2E + 2kvm k2E − kvn + vm k2E 1 = 2kvn k2E + 2kvm k2E − 4k (vn + vm )k2E 2 1 1 = 4E(vn ) + 4E(vm ) − 8E( (vn + vm )) + 4(f, vn ) + 4(f, vm ) − 8(f, (vn + vm )) 2 2 14 1.3 Beispiel: die eingespannte Membran Die Folge der Funktionalwerte E(vn ) → d konvergiert für n → ∞. Für den “gemischten” Term gilt: 1 E( (vn + vm )) ≥ d. 2 Insgesamt folgt somit, dass vn in der Energienorm eine Cauchy-Folge ist: lim sup kvn − vm k2E ≤ 4d + 4d − 8d = 0. n,m→∞ c) Es bleibt zu prüfen, ob ein Grenzwert der Cauchy-Folge im Raum V existiert. Die HölderRäume C 1 und C 0 sind bzgl. der Energie-Norm nicht vollständig. Hierzu betrachte man auf der Kreisscheibe Ω := {x ∈ R2 : |x| ≤ 1} die Folge von Funktionen vn := log log 1 |x| + ! 1 n ! +1 ∈ V. Diese Folgenglieder sind in V enthalten. Man kann zeigen, dass diese Folgenglieder bzgl. der Energienorm eine Cauchy-Folge darstellen. Weiter gilt für den Grenzfall n → ∞ 1 v := log log |x| +1 , kvkE < ∞. Für diesen “Grenzwert” gilt jedoch v 6∈ V . In der Tat ist diese Funktion im Nullpunkt nicht einmal beschränkt. Wir helfen uns nun mit einem allgemeinen Prinzip weiter und vervollständigen den Raum V in Bezug auf die Energienorm k · kE und definieren: V := {φ ist Äquivalenzklasse von Cauchy-Folgen aus V bzgl. k · kE }. Dieser Raum ist der sogenannte Sobolev-Raum H01 (Ω). Die Elemente von H01 (Ω) sind zunächst Äquivalenzklassen von Cauchy-Folgen. Sie können jedoch mit Funktionen (den Grenzwerten) identifiziert werden. Eine solche H 1 -Funktion ist dann stets nur fast überall definiert. Es handelt sich um L2 -Funktionen mit Ableitungen (welche nur im Distributionssinn existieren) die wieder in L2 liegen. Die Untersuchung dieser Räume wird sich als wesentlich für die Behandlung von numerischen Differentialgleichungen erweisen. Wir haben also die Existenz einer Lösung u ∈ H01 (Ω) der Minimierungsaufgabe für rechte Seiten f ∈ L2 (Ω) nachgewiesen. Es existiert somit eine eindeutige schwache Lösung welche stetig von der rechten Seite abhängt. Ob diese Lösung auch eine klassische Lösung ist können wir noch nicht entscheiden. Hierfür müssten wir nachweisen, dass diese schwache Lösung u ∈ H01 (Ω) über eine höhere Regularität verfügt. 15 1 Einleitung 16 2 Theoretische Grundlagen Die theoretische Analyse von partiellen Differentialgleichungen ist zumeist nicht mit den elementaren Methoden möglich, welche bei gewöhnlichen Differentialgleichungen ausreichend waren. Die Frage nach der Existenz einer Lösung muss bei partiellen Differentialgleichungen neu formuliert werden: statt dem bloßen “existiert eine Lösung?” tritt die Frage “in welchem Sinne und in welchem Funktionenraum kann die Existenz einer Lösung gezeigt werden?” in den Vordergrund. Wir werden daher zunächst einige für diese Vorlesung wichtige Begriffe der Funktionalanalysis zusammenstellen bevor wir zur eigentlichen Theorie der partiellen Differentialgleichungen voranschreiten. 2.1 Grundlagen aus der Funktionalanalysis 2.1.1 Funktionenräume Wir beginnen mit einigen wesentlichen Konzepten. Wir betrachten Vektorräume X über dem Körper R. Definition 2.1 (normierter Raum). Ein linearer Raum X heißt normierter Raum, wenn es eine Funktion (Norm) k · k : X → R+ mit den folgenden Eigenschaften gibt: 1. Definitheit kxk = 0 ⇔ x=0 2. Homogenität kαxk = |α| kxk ∀α ∈ R, x∈X 3. Dreiecksungleichung kx + yk ≤ kxk + kyk ∀x, y ∈ X Normen benötigen wir insbesondere für Konvergenzbetrachtungen. Bei der Untersuchung der Existenz einer Lösung vom Membranproblem hat sich bereits die Vollständigkeit eines normierten Raumes als Problem erwiesen: Definition 2.2 (Banachraum). Ein normierter Raum X heißt vollständig oder Banachraum, falls jede Cauchy-Folge (xn )n≥0 mit Elementen xn ∈ X einen Grenzwert in X hat xn → x ∈ X 17 2 Theoretische Grundlagen Genauer sollte man sagen: ein Raum X ist vollständig bzgl. einer Norm k · k. Denn z.B. ist der Raum der stetigen Funktionen auf einem abgeschlossenen Intervall, etwa C([0, 1]) vollständig bzgl. der Maximumnorm k · kC([0,1]) , jedoch nicht vollständig bzgl. der L2 -Norm k · kL2 (Ω) . Als weitere Struktureigenschaft benötigen wir oft Skalarprodukte: Definition 2.3 (Prä-Hilbertraum). Ein linearer Raum X heißt Prä-Hilbertraum, falls er mit einem Skalarprodukt (·, ·) : X × X → R versehen ist: 1. Definitheit (x, x) ≥ 0, (x, x) = 0 ⇒x=0 2. Symmetrie ∀x, y ∈ X (x, y) = (y, x) 3. Linearität (αx, y) = α(x, y), (x + y, z) = (x, z) + (y, z) ∀x, y, z ∈ X, α ∈ R. Jeder Prä-Hilbertraum ist auch ein normierter Raum, denn durch ein Skalarprodukt wird stets eine Norm induziert: q kxk := (x, x), ∀x ∈ X. Zuletzt Definition 2.4 (Hilbertraum). Ein Prä-Hilbertraum heißt Hilbertraum, falls er in der durch das Skalarprodukt induzierten Norm vollständig ist. Beispiele • Der euklidische Raum Rn ist ein Hilbertraum: (x, y) := n X kxk2 := xi yi , q (x, x) i=1 • Der Raum C(Ω̄) ist mit der Maximum-Norm kvk∞ := max |v(x)| x∈Ω̄ ein Banachraum. • Der Raum C(Ω̄) ist mit dem L2 -Skalarprodukt Z (u, v)2 := uv dx, Ω ein Prä-Hilbertraum, jedoch bzgl. der induzierten L2 -Norm nicht vollständig, daher kein Hilbertraum. 18 2.1 Grundlagen aus der Funktionalanalysis Bei der theoretischen Betrachtung von partiellen Differentialgleichungen stehen Existenzaussagen im Mittelpunkt. Die folgenden Sätze sind hier wesentliche Hilfsmittel: Satz 2.1 (Fixpunktsatz von Banach). Sei X ein Banachraum und T : X → X eine Kontraktion, also eine Abbildung mit der Eigenschaft: ∃γ ∈ [0, 1) : kT (x) − T (y)k ≤ γkx − yk ∀x, y ∈ X. Dann existiert eine eindeutige Lösung der Fixpunktgleichung T (x) = x. Weiter: Definition 2.5 (Lineares Funktional). Ein Funktional f : X → R auf einem normierten Raum X heißt linear, falls f (αx) = αf (x) und f (x + y) = f (x) + f (y), ∀α ∈ R, x, y ∈ X. Ein lineares Funktional heißt beschränkt, wenn es eine Konstante c > 0 gibt, so dass |f (x)| ≤ ckxk ∀x ∈ X. Satz 2.2. Ein lineares Funktional auf einem normierten Raum X ist genau dann stetig, wenn es beschränkt ist. Die linearen Funktionale f : X → R bilden selbst einen Raum: Definition 2.6 (Dualraum). Sei X ein normierter Raum. Der Raum aller beschränkten linearen Funktionale f : X → R heißt Dualraum zu X und wird mit X ∗ bezeichnet. Dieser Raum ist normiert mit der Dualnorm kf kX ∗ := |f (x)| . x∈X, x6=0 kxkX sup Satz 2.3 (Riesz’scher Darstellungssatz). Sei X ein Hilbertraum. Dann ist durch: J : X → X ∗, J(x)(y) = (x, y), ein isometrischer Isomorphismus zwischen X und X ∗ erklärt. Bemerkung 2.1. Die für uns wesentliche Aussage des Riesz’schen Darstellungssatz besagt, dass es für jedes Funktional f ∈ X ∗ eines Hilbertraumes ein Element x ∈ X in eben diesem Hilbertraum gibt, so dass sich das Funktional in der Form f (y) = (x, y) ∀y ∈ X, darstellen lässt. Weiter gilt für die Norm des Funktionals: kf kX ∗ = kxkX . Wir können also einen Hilbertraum X mit seinem Dualraum X ∗ gewissermaßen gleichsetzen. 19 2 Theoretische Grundlagen Beispiel Wir betrachten zunächst den Rn . Dieser Raum ist ein Hilbertraum mit dem euklidischen Skalarprodukt und der euklidischen Norm k · k2 . Ein lineares Funktional ist z.B. gegeben durch: f (y) := n X ∀y ∈ Rn . yi , i=1 Dieses Funktional hat die Norm: | xi | |f (x)| = sup qP . := sup kxk 2 x∈X x∈X x2i P kf k Rn∗ Es gilt: | X xi | ≤ qX qX 1 x2i ⇒ kf kRn∗ ≤ ⇒ kf kRn∗ ≥ √ n, sowie für die spezielle Wahl x̄ = (1, 1, . . . , 1)T sup x∈X |f (x̄)| √ |f (x)| ≥ = n kxk kx̄k √ n. √ Für die Norm des Funktionals gilt somit kf kRn∗ = n. Das Funktional lässt sich mittels des Riesz’schen Darstellungssatz auch durch einen Repräsentanten x ∈ Rn darstellen: f (y) = (x, y) ∀y ∈ Rn , x := (1, 1, . . . , 1)T ∈ Rn , und für diesen Repräsentanten gilt: kxk = kf kRn∗ . 2.1.2 Sobolew-Räume Es sei nun Ω ⊂ Rn ein Lipschitz-Gebiet. Dies bedeutet, dass der Rand ∂Ω lokal als Graph einer Lipschitz-stetigen Funktion betrachtet werden kann und dass das Gebiet nur auf einer Seite dieses Graphen liegt. Ein Lipschitz-Gebiet schließt zum Beispiel die Situation in Abbildung 2.1 rechts aus. Leichter zu verstehen ist die folgende Bedingung: der Rand ist stückweise glatt und erfüllt die Kegelbedingung, d.h., in jeden Punkt des Randes können Kegel mit positivem Innenwinkel platziert werden, welche lokal vollständig im Gebiet liegen, sowie solche, die lokal vollständig außerhalb liegen. Lokal meint hier eine Umgebung, welche den Eckpunkt des Kegels enthält. Lebesgue-Räume Wir definieren: Definition 2.7 (Lp -Raum). Für ein 1 ≤ p < ∞ definieren wir die Lp -Norm Z kf kLp (Ω) := 20 Ω |u(x)|p dx 1 p , 2.1 Grundlagen aus der Funktionalanalysis y= p |x| Abbildung 2.1: Beispiel von Lipschitz-Gebiet (links) und ein Gegenbeispiel (rechts). und für p = ∞ kf kL∞ (Ω) := ess supx∈Ω |u(x)|. sowie den Lp -Raum n o Lp (Ω) := u : Ω → R : kukLp (Ω) < ∞ . Zur Abkürzung schreiben wir die Norm auch kf kp := kf kLp (Ω) . Es gelten die folgenden zentralen Sätze: Satz 2.4. Der Raum Lp (Ω) ist ein Banachraum für alle 1 ≤ p ≤ ∞. Satz 2.5. Der Raum L2 (Ω) ist ein Hilbertraum mit dem Skalarprodukt Z (u, v)2 := uv dx. Ω Satz 2.6 (Hölder’sche Ungleichung). Sei f ∈ Lp (Ω) und g ∈ Lq (Ω) mit 1 1 + = 1, p q dann ist die Funktion f g ∈ L1 (Ω) und es gilt Z |f g| dx ≤ kf kp kgkq . Ω Weiter gilt: 21 2 Theoretische Grundlagen Satz 2.7 (Dualraum von Lp ). Es sei 1 ≤ p < ∞. Dann gilt: ∗ [Lp (Ω)]∗ = Lp (Ω), mit dem dualen Exponenten p∗ ≥ 1 1 1 = 1. + p p∗ Durch Z J(f )(g) := gf dx g ∈ Lp (Ω), f ∈ Lq (Ω), Ω ∗ ist ein linearer isometrischer Isomorphismus J : Lp (Ω) → [Lp (Ω)]∗ gegeben. Genauer bedeutet dieser Satz, dass der Dualraum des Lp isometrisch isomorph zum Raum ∗ Lp mit dem dualen Exponenten ist. D.h., jedes Funktional Lp → R lässt sich durch ein ∗ Element des Lp bzgl des Produktes darstellen: ∗ ∗ p g ∈ [L (Ω)] ⇒ p∗ ∗ ∃g ∈ L (Ω) : g (f ) = Z gf dx ∀f ∈ Lp (Ω). Ω Der Dualraum des L1 (Ω) ist der L∞ (Ω). Der Dualraum des L∞ (Ω) hingegen ist nicht der L1 (Ω) sondern echt größer. Für p = 2 liegt ein Hilbertraum mit p∗ = 2 vor und der isometrische Isomorphismus dieses Satzes stimmt mit demjenigen des Riesz’schen Darstellungssatz überein. Schwache Ableitungen Bei dem Existenzbeweis des Membran-Problems haben wir den Raum H 1 (Ω) eingeführt. Wir haben gesehen, dass die Funktionen in diesem Raum über einen gewissen Ableitungsbegriff verfügen. Auf der anderen Seite sind aber sogar unstetige Funktionen zugelassen. Wir nähern uns hier diesem schwachen Ableitungsbegriff. Zur Bezeichnung von höheren Ableitungen führen wir die Multiindex-Schreibweise ein. Für einen solchen Multiindex α := (α1 , . . . , αn ) ∈ Nn schreiben wir für Funktionen v : Ω → R: α D v := ∂xα11 ∂xα22 . . . ∂xαnn v, |α| := n X αi . i=1 Wir definieren: Definition 2.8. Der Raum der k-mal stetig differenzierbaren Funktionen ist gegeben durch: C k (Ω) := {v ∈ C(Ω) : Dα v ∈ C(Ω), |α| ≤ k}. Als Spezialfall: C ∞ (Ω) := {v ∈ C(Ω) : Dα v ∈ C(Ω), für alle α}. 22 2.1 Grundlagen aus der Funktionalanalysis Definition 2.9 (Träger). Der Träger einer Funktion f ∈ C(Ω) ist gegeben durch supp v := {x ∈ Ω : v(x) 6= 0}. Hiermit erhalten wir die Räume der stetig differenzierbaren Funktionen mit kompakten Träger: Definition 2.10. Der Raum der Funktionen mit kompaktem Träger: C0∞ (Ω) := {v ∈ C ∞ (Ω) : supp v ⊂ Ω ist kompakt}. Für eine Funktion v ∈ C0∞ (Ω) gilt in unserem Kontext insbesondere v = 0 auf dem Rand ∂Ω. Zunächst zitieren wir den Satz 2.8 (Satz von Gauß (partielle Integration)). Für u, v ∈ C 1 (Ω) gilt: Z Z Ω ∂xi uv dx = uv ni ds − Z ∂Ω u∂xi v dx, Ω mit dem nach außen gerichteten Einheitsnormalenvektor zu ∂Ω. Falls v ∈ C0∞ (Ω), gilt Z Ω ∂xi uv dx = − Z Ω u∂xi v dx. Allgemein für u ∈ C k (Ω) mit |α| ≤ k gilt: Z Z vDα u dx = (−1)|α| Ω ∀v ∈ C0∞ (Ω). uDα v dx Ω Eine Folgerung ist der für die Numerik wichtige Satz 2.9 (Satz von Green). Für Funktionen u ∈ C 2 (Ω) und v ∈ C 1 (Ω) ∩ C(Ω̄) gilt: Z ∇u · ∇v dx = Z ∂n uv ds − ∂Ω Ω Z ∆uv dx. Ω Die schwache Ableitung einer Funktion definieren wir nun mit Hilfe des Satzes von Gauß: Definition 2.11 (Schwache Ableitung). Sei u ∈ L1 (Ω). Eine Funktion w ∈ L1 (Ω) heißt schwache Ableitung oder verallgemeinerte Ableitung von u mit Multi-Index α, falls Z |α| Z wv dx = (−1) Ω uDα v dx Ω ∀v ∈ C0∞ (Ω). Es gilt: Satz 2.10 (Eigenschaften der schwachen Ableitung). • Falls eine schwache Ableitung existiert, so ist sie eindeutig bestimmt. • Falls die Ableitung der Funktion u im klassischen Sinne existiert, so stimmt die schwache Ableitung mit der klassischen Ableitung überein. 23 2 Theoretische Grundlagen Beispiel Der zweite Punkt im vorherigen Satz folgt unmittelbar aus dem Satz von Gauß und der Definition der schwachen Ableitung. Wir betrachten nun als Beispiel auf Ω := (−1, 1) die Funktion u(x) = |x|, welche integrierbar ist u ∈ L1 (Ω), jedoch nicht klassisch differenzierbar im Nullpunkt. Es gilt mit beliebiger Funktion v ∈ C0∞ (Ω): − Z 1 −1 uv 0 dx = − Z 0 uv 0 dx − −1 Z −1 uv 0 dx 0 0 = −uv −1 + Z 0 =0+ Z 0 1 −1 u0 v dx − uv 0 + (−1)v dx − 0 + Z 1 u0 v dx 0 Z 1 Z 1 −1 wv dx, 1v dx =: −1 0 mit der Funktion ( w := −1 x < 0 1 x>0 Diese Funktion w ∈ L1 (Ω) ist die erste schwache Ableitung von u. Im Nullpunkt ist w ∈ L1 (Ω) nicht eindeutig definiert. Sobolew-Räume Wir definieren Definition 2.12 (Sobolew-Raum). Es sei Dα die schwache Ableitung mit Index α. Durch W m,p (Ω) := {u ∈ Lp (Ω) : Dα u ∈ Lp (Ω), |α| ≤ m}, ist ein normierter Raum mit Norm 1 kukW m,p (Ω) := p kDα ukpLp (Ω) X , |α|≤m und Halbnorm 1 |u|W m,p (Ω) := p X kDα ukpLp (Ω) |α|=m gegeben. Es gilt: Satz 2.11. Der Raum W m,p (Ω) ist ein Banachraum. 24 , 2.1 Grundlagen aus der Funktionalanalysis Der Spur-Operator Zur Beschreibung von partiellen Differentialgleichungen gehört die Vorgabe von Randwerten. Hierfür muss zunächst geklärt werden, in welchem Sinne eine H 1 (Ω)Funktion auf dem Rand überhaupt erklärt ist. Dies ist wie bereits argumentiert nicht klar, da solche Funktionen ja nicht einmal stetig sein müssen. Es gilt zunächst: Satz 2.12 (Spur-Abbildung). Es existiert ein stetiger linearer Operator τ : W 1,p (Ω) → Lp (∂Ω), so dass für alle v ∈ C(Ω̄) ∩ W 1,p (Ω) gilt: (τ v)(x) = v(x) ∀x ∈ ∂Ω. Der Spuroperator erlaubt nun die Definition von Randwerten. Eine Funktion, welche H 1 im Innern ist, ist also auch L2 auf dem Rand. Wir schreiben einfach: v|∂Ω := τ v. Die Eigenschaft, dass τ ein stetiger linearer Operator ist, bedeutet die Gültigkeit der Abschätzung: kvkLp (∂Ω) ≤ ckvkW 1,p (Ω) ∀v ∈ W 1,p (Ω). Die Existenz einer Spur erlaubt es nun auch, den richtigen Variationsraum für Funktionen zu definieren, welche auf dem Rand verschwinden: Definition 2.13. Es ist: W01,2 (Ω) := {v ∈ W 1,2 (Ω) : τ v = 0}. Ein grundlegendes Resultat besagt nun, dass dieser Raum eben der bereits eingeführte H01 (Ω) ist, welcher auf völlig verschiedene Art eingeführt wurde. Der H01 (Ω) wurde als Vervollständigung aller C0∞ (Ω)-Funktionen bzgl. der W 1,2 (Ω)-Norm erzeugt. Diese Äquivalenz, kurz “H = W ” genannt kann hier nicht gezeigt werden, aber wir schreiben für den Fall p = 2 kurz H m (Ω) := W m,2 (Ω). Aus der Tatsache, dass der Raum H m (Ω) durch Vervollständigung erzeugt werden kann leiten wir die weitere sehr wichtige Eigenschaft ab: der Raum C0∞ (Ω) liegt dicht im H01 (Ω), d.h. für jede Funktion v ∈ H01 (Ω) existiert eine Folge (vn )n≥0 mit vn ∈ C0∞ (Ω) so dass vn → v bzgl. der H 1 -Norm. An dieser Stelle haben wir den Lösungsraum für das Membran-Problem identifiziert: es ist der Raum aller L2 -Funktionen, deren schwachen partiellen Ableitungen wieder L2 -Funktionen sind und deren Spur auf dem Rand verschwindet. Wir wenden uns nun noch kurz der notwendigen Regularität von Dirichlet-Randbedingungen zu. Jede H 1 -Funktion in Ω hat eine L2 -Spur auf dem Rand ∂Ω. Diese Aussage lässt sich allerdings nicht umkehren, es gibt L2 -Funktionen auf dem Rand, welche nicht Spur einer 25 2 Theoretische Grundlagen H 1 -Funktion im Innern sind. Solche Funktionen sind keine zulässigen Randwerte. Daher führt man den folgenden Raum ein: 1 H 2 (∂Ω) = {v ∈ L2 (Ω) : ∃w ∈ H 1 (Ω), τ w = v}, mit der Norm: kvk 1 H 2 (∂Ω) = inf{kwkH 1 (Ω) : τ w = v}. 1 Der Raum H 2 ist ein Teilraum des L2 (∂Ω). Eigenschaften des H01 (Ω) Es gilt: Satz 2.13. Der Raum H m (Ω) ist ein Hilbertraum mit dem Skalarprodukt (u, v)H m (Ω) = X Z |α|≤m Dα uDα v dx. Ω Es gilt: Satz 2.14 (Poincare Ungleichung). Sei Ω ein beschränktes Lipschitz-Gebiet. Dann gibt es eine Konstante cp > 0, so dass kukL2 (Ω) ≤ cp k∇ukL2 (Ω) ∀u ∈ H01 (Ω). Die Poincare-Ungleichung besagt insbesondere, dass die Halbnorm | · |H 1 (Ω) im Raum H01 (Ω) zur vollen H 1 -Norm äquivalent ist: |u|2H 1 (Ω) ≤ kuk2H 1 (Ω) ≤ (c2p + 1)|u|2H 1 (Ω) . Weiter ist im H01 durch (∇u, ∇v) ein Skalarprodukt gegeben. Die Definitheit folgt wieder aus der Poincare-Ungleichung. Daher gilt: Satz 2.15. Der H01 (Ω) ist Hilbertraum bzgl (∇·, ∇·). Nach dem Riesz’schen Darstellungssatz existiert also zu jedem Funktional f ∗ : H01 (Ω) → R ein Element f ∈ H01 (Ω), so dass f ∗ (v) = (∇f, ∇v) ∀v ∈ H01 (Ω). Laut Satz 2.13 ist der H01 (Ω) auch Hilbertraum bzgl. dem H 1 -Skalarprodukt, es existiert zu jedem f ∗ also ein weiteres Element f 0 ∈ H01 (Ω), so dass gilt: f ∗ (v) = (f 0 , v) + (∇f 0 , ∇v) ∀v ∈ H01 (Ω). Dies ist kein Widerspruch zum Riesz’schen Darstellungssatz, es existieren lediglich zwei äquivalente Skalarprodukte. Wir definieren für den H01 (Ω) speziell: 26 2.1 Grundlagen aus der Funktionalanalysis Definition 2.14 (Dualraum des H01 (Ω)). Die linearen Funktionale f : H01 (Ω) → R bilden den Dualraum des H −1 (Ω) des H01 (Ω) mit der Norm. kf kH −1 (Ω) := f (φ) . φ∈H 1 (Ω) k∇φkL2 (Ω) (2.1) sup 0 Für diese Dualnorm ist auch ein kürzere Bezeichung üblich kf k−1 := kf kH −1 (Ω) . Einbettungssätze Wir haben bereits festgestellt, dass eine H 1 Funktion nicht unbedingt stetig sein muss, dass also v ∈ H 1 (Ω) aber v 6∈ C 0 (Ω) möglich sein kann. Allgemein definiert man: Definition 2.15 (Stetige Einbettung). Seien U und V normierte Räume mit Normen k · kU bzw. k · kV . Der Raum U heißt stetig eingebettet in V , wenn es einen stetigen, linearen injektiven Operator i : U → V gibt, so dass mit einer Konstante c > 0 gilt: kixkV ≤ ckxkU ∀x ∈ U. Man schreibt U ,→ V . Im Falle U ⊂ V kann der Einbettungsoperator oft als die Identität gelten und die Einbettung vereinfacht sich zu: ∃c ∈ R+ : kxkV ≤ ckxkU ∀x ∈ U. Beispiel Es gilt offensichtlich H 1 (Ω) ,→ L2 (Ω), hierzu muss man sich lediglich die Konstruktion der H 1 -Norm vergegenwärtigen. Wie bereits erwähnt gilt allerdings keine Einbettung H 1 (Ω) 6,→ C 0 (Ω), da es H 1 -Funktionen gibt, für welche die Maximumnorm nicht beschränkt ist. Ein weiteres Beispiel haben wir bei der Definition von Spuren kennengelernt. Es gilt: 1 H 2 (∂Ω) ,→ L2 (∂Ω), kvkL2 (∂Ω) ≤ ckvk 1 1 H 2 (∂Ω) ∀v ∈ H 2 (∂Ω). Wir definieren einen weiteren, strengeren Begriff der Einbettung: Definition 2.16 (Kompakte Einbettung). Es seien U, V zwei Banachräume mit U ,→ V . Diese Einbettung heißt kompakt, falls es für jede beschränkte Folge {xn } ⊂ U eine Teilfolge von {i(xn )} ⊂ V gibt, welche in V konvergiert. 27 2 Theoretische Grundlagen Wir haben es grundsätzlich mit unendlich dimensionalen Räumen zu tun. Hier ist dieses Konzept sehr wichtig. Denn aus der Beschränktheit einer Folge können wir noch nicht die Existenz einer konvergenten Teilfolge herleiten. Mit dem Konzept der kompakten Einbettung wird es hingegen möglich sein, die Konvergenz in einem schwächeren Sinne zu erlangen: Ist eine Folge xn ∈ V beschränkt und U ,→ V kompakt, so existiert eine konvergente Teilfolge in U . Satz 2.16 (Einbettungssatz in Sobolew-Räume). Es sei Ω ⊂ Rn ein beschränktes Gebiet mit Lipschitz-Rand. Weiter sei m1 ≥ 0 und m2 ≥ 0 sowie 1 ≤ p1 < ∞ und 1 ≤ p2 < ∞. Es gilt: 1. Falls n n ≥ m2 − , p1 p2 m ,p 2 2 ,→ W stetig m1 − so ist die Einbettung W m1 ,p1 2. Falls m1 ≥ m2 n n > m2 − , m1 > m2 p1 p2 m ,p 2 2 ,→ W stetig und kompakt. m1 − so ist die Einbettung W m1 ,p1 Die Einbettung H m (Ω) ,→ H m−1 (Ω), insbesondere H 1 (Ω) ,→ L2 (Ω) ist also kompakt. D.h., jede in H 1 beschränkte Folge hat eine Teilfolge, welche in L2 konvergiert. Satz 2.17 (Einbettungssatz in Räume stetig differenzierbarer Funktionen). Es sei Ω ⊂ Rn ein beschränktes Gebiet mit Lipschitz-Rand. Weiter sei m ≥ 1 und 1 ≤ p < ∞ sowie k ≥ 0. Falls n m − > k, p so ist die Einbettung W m,p ,→ C k (Ω̄) stetig und kompakt. Die Frage, ob eine H 1 -Funktion stetig ist, hängt also zusätzlich noch von der Dimension des Gebietes Ω ab. Eine kompakte Einbettung erhalten wir im Fall: n n m− >0 ⇔ m> . 2 2 Wir betrachten üblicherweise Gebiete in zwei oder drei räumlichen Dimensionen. Um Stetigkeit einer Lösung zu zeigen, muss also u ∈ H 2 (Ω) gelten. Der Existenzbeweis liefert lediglich u ∈ H 1 (Ω). Abschließend formulieren wir einen zweiten Beweis für die Existenz einer Lösung des PoissonProblems: Satz 2.18 (Existenzsatz für das Poisson-Problems in variationeller Formulierung). Auf einem Lipschitzgebiet Ω ⊂ Rd mit d ≥ 2 hat das Dirichlet-Problem u ∈ H01 (Ω) : (∇u, ∇φ) = (f, φ) ∀φ ∈ H01 (Ω), eine eindeutige Lösung für jede rechte Seite f ∈ L2 (Ω). Es gilt mit der Poincare-Konstante: k∇ukL2 (Ω) ≤ cp kf kL2 (Ω) . 28 2.1 Grundlagen aus der Funktionalanalysis Beweis: Für jede Funktion f ∈ L2 (Ω) ist durch l(v) := (f, v) ∀v ∈ H01 (Ω) ein beschränktes lineares Funktional l ∈ H −1 (Ω) definiert, denn: klk−1 = sup v∈H01 (f, v) kf k kvk kf k cp k∇vk ≤ sup ≤ sup = cp kf k. k∇vk k∇vk k∇vk Der Raum H01 (Ω) ist Hilbertraum bzgl. (∇·, ∇·). Es gilt also der Riesz’sche Darstellungssatz und es gibt ein eindeutig bestimmtes Element u ∈ H01 (Ω) so dass gilt: l(v) = (∇u, ∇v) ∀v ∈ H01 (Ω). Dieses u ist die gesuchte Lösung. Die Stabilitätsabschätzung folgt aufgrund von: kukH 1 (Ω) = klkH −1 (Ω) . 0 29 2 Theoretische Grundlagen 2.2 Theorie partieller Differentialgleichungen 2.2.1 Elliptische Probleme In diesem Abschnitt vertiefen wir die theoretische Analyse von elliptischen Differentialgleichungen. Auf einem Lipschitzgebiet Ω ⊂ Rd mit d ≥ 2 betrachten wir allgemein Probleme vom Typ Lu = f, Lu := − d X ∂i (aij (x)∂j u(x)) + i,j=1 d X bj (x)∂j u(x) + c(x)u(x), (2.2) j=1 mit reellen Koeffizientenfunktionen aij , bj und c. Es gilt wegen der Vertauschbarkeit der zweiten Ableitungen ohne Einschränkung aij = aji . Mit der Matrix A = (aij )i,j sowie dem Vektor b = (bj )j schreiben wir kurz: Lu = −∇ · (A∇u) + b · ∇u + cu. Bei elliptischen Problemen sind die Eigenwerte von A ungleich Null und haben das gleiche Vorzeichen. Wir nehmen ohne Einschränkung an, dass die Koeffizientenmatrix A positiv definit ist. Elliptische partielle Differentialgleichungen sind Randwertprobleme. Wir unterscheiden drei verschiedene Arten von Randwerten: 1. Dirichlet-Problem Auf dem Rand ∂Ω geben wir den Funktionswert der Lösung vor: suche u : Lu = f in Ω, u = g auf ∂Ω. Es sei nun ḡ ∈ H 1 (Ω) eine Fortsetzung von g, d.h., g = τ ḡ ist die Spur. Dann können wir das Dirichlet-Problem stets in ein Problem mit homogenen Randdaten transformieren: suche u = ū + ḡ : Lū = f − Lḡ, ū = 0 auf ∂Ω. Die strenge Voraussetzung an die Regularität der Dirichlet-Daten g ist also, dass diese Funktion als Spur einer H 1 (Ω)-Funktion gegeben ist. Wir bezeichnen den Raum aller Spuren von 1 1 H 1 (Ω) Funktionen auf ∂Ω als H 2 (∂Ω). Es gilt H 2 (∂Ω) ⊂ L2 (∂Ω). 2. Neumann-Problem Auf dem Rand von Ω geben wir die Ableitung von u in NormalRichtung vor: suche u : Lu = f in Ω, ∂n u = g auf ∂Ω. Bei Neumann-Problemen ist der Funktionswert von u auf dem Rand nicht fixiert. Die Lösung muss also im vollen Raum H 1 (Ω) gesucht werden. Betrachten wir z.B. das homogene Neumann-Problem −∆u = f in Ω, ∂n u = 0 auf ∂Ω, so hat dies zur Konsequenz, dass die Lösung nicht mehr eindeutig sein muss. Denn ist u ∈ H 1 (Ω) eine Lösung, so ist auch durch u + c für jedes c ∈ R eine Lösung gegeben. 30 2.2 Theorie partieller Differentialgleichungen Um Eindeutigkeit zu erreichen muss der Lösungsraum künstlich eingeschränkt werden, etwa durch die Wahl: Z 1 1 H (Ω)/R := {v ∈ H (Ω), v dx = 0}. Ω 3. Robin-Problem Auf dem Rand ∂Ω geben wir gemischte Randdaten vor: suche u : Lu = f in Ω, ∂n u + αu = g auf ∂Ω, mit einem α 6= 0. Wir werden zunächst ausschließlich das (homogene) Dirichlet-Problem betrachten. Hierzu leiten wir eine variationelle Formulierung der allgemeinen elliptischen Differentialgleichung (2.2) her: Satz 2.19 (Variationsproblem). Die Koeffizientenmatrix A ∈ [L∞ (Ω)]d×d sei positiv definit, P der Vektor b ∈ [W 1,∞ (Ω)]d sei divergenzfrei (also ∇ · b = j ∂i bi = 0) und es sei c ∈ L∞ (Ω) mit c ≥ 0. Jede Lösung u ∈ C 2 (Ω) ∩ C(Ω̄) von (2.2) ist Lösung der Variationsgleichung: a(u, φ) = (f, φ) ∀φ ∈ H01 (Ω). Die Bilinearform a(u, φ) = (A∇u, ∇φ) + (b · ∇u, φ) + (cu, φ). ist stetig ∀u, v ∈ H01 (Ω), a(u, v) ≤ M k∇uk k∇vk sowie positiv definit (Elliptizität) a(u, u) ≥ γk∇uk2 ∀u ∈ H01 (Ω). Beweis: (i) Wir multiplizieren (2.2) für festes t ∈ I¯ mit einer beliebigen Funktion φ ∈ C0∞ (Ω) und integrieren über das Gebiet: (f, φ) = −(∇ · (A∇u), φ) + (b · ∇u, φ) + (cu, φ) = (A∇u, ∇φ) + Z | ∂Ω n · (A∇u)φ ds +(b · ∇u, φ) + (cu, φ). {z } =0 Wegen der Dichtheit von C0∞ (Ω) in H01 (Ω) kann der Testraum erweitert werden. (ii) Weiter gilt für alle u, v ∈ H01 (Ω) wegen der Beschränktheit der Koeffizienten und mit Poincaré: |a(u, v)| ≤ d X |(aij ∂j u, ∂i v)| + i,j=1 ≤ kAk∞ d X |(bj ∂j u, v)| + |(cu, v)| j=1 X ij k∂j ukL2 (Ω) k∂i vkL2 (Ω) + kbk∞ X k∂j ukL2 (Ω) kvkL2 (Ω) + |c|∞ kukL2 (Ω) kvkL2 (Ω) j √ ≤ kAk∞ dk∇ukL2 (Ω) k∇vkL2 (Ω) + kbk∞ dk∇ukL2 (Ω) cp k∇vkL2 (Ω) + |c|∞ c2p k∇ukL2 (Ω) k∇vkL2 (Ω) √ ≤ M k∇ukL2 (Ω) k∇vkL2 (Ω) , M := max{kAk∞ d, cp kbk∞ d, |c|∞ c2p }, 31 2 Theoretische Grundlagen wobei wir die folgende Ungleichung verwendet haben: d X |ai | ≤ √ d d X ! 12 |ai |2 . i=1 i=1 (iii) Wir untersuchen die verschiedenen Terme der Bilinearform getrennt. Zunächst existiert wegen der positiven Definitheit von A ein γ mit: Z (A∇u, ∇u) = hA(x)∇u(x), ∇u(x)idx ≥ γ Ω Z Ω |∇u|2 dx = γk∇uk2L2 (Ω) . (2.3) Wegen der Divergenzfreiheit von b gilt: (b · ∇u, u) = d X (b∂i u, u) = i=1 =− d X d X i=1 i=1 (bi u, ∂i u) = − d X d X i=1 j=1 (∂i bi u, u) − (∂i (bi u), u) + d Z X i=1 | ∂Ω ni (bi u)u ds {z =0 } (bi ∂i u, u) = −((∇ · b)u, u) −(b · ∇u, u), | {z =0 } und also (b · ∇u, u) = 0. Schließlich gilt für c ≥ 0 trivialerweise (cu, u) ≥ 0, und zusammen mit (2.3) ergibt sich die Behauptung. Die stetige, positiv definite Bilinearform unterscheidet sich von einem Skalarprodukt durch die fehlende Symmetrie. Der Riesz’sche Darstellungssatz kann also auf das allgemeine Problem nicht angewendet werden. Definition 2.17 (Schwache Lösung). Eine Funktion u ∈ H01 (Ω) heißt verallgemeinerte (schwache) Lösung von (2.2), falls a(u, φ) = (f, φ) ∀φ ∈ H01 (Ω). (2.4) Wie bereits argumentiert gilt: Satz 2.20. Jede schwache Lösung u ∈ H01 (Ω) von (2.4) für welche u ∈ C 2 (Ω) ∩ C(Ω̄) gilt ist auch klassische Lösung von (2.2). Und weiter gilt: Satz 2.21 (Minimierung des Energiefunktionals). Im Fall b = 0 ist die Lösung der variationellen Formulierung (2.4) äquivalent zur Minimierung des Energiefunktionals. Suche u ∈ H01 (Ω): 1 E(u) ≤ E(v) ∀v ∈ V, E(v) := a(v, v) − (f, v). (2.5) 2 32 2.2 Theorie partieller Differentialgleichungen Beweis: (0) Die stetige und elliptische Bilinearform a(·, ·) ist symmetrisch und somit ein Skalarprodukt. Dies folgt aus b = 0 sowie der Symmetrie von A. (i) Wir gehen zunächst davon aus, dass u eine variationelle Lösung von (2.4) ist. Dann folgt für alle v ∈ H01 (Ω): 1 1 E(u) − E(v) = a(u, u) − (f, u) − a(v, v) + (f, v) 2 2 1 1 = a(u, u) − a(u, u) − a(v, v) + a(u, v) 2 2 o 1n = − a(u, u) − 2a(u, v) + a(v, v) 2 1 γ = − a(u − v, u − v) ≤ − k∇(u − v)k ≤ 0. 2 2 Also, E(u) ≤ E(v). (ii) Nun sei u Minimum des Energiefunktionals. Dann muss gelten: d = 0 ∀v ∈ H01 (Ω). E(u + sv) ds s=0 Also, wegen der Symmetrie von a(·, ·): o d n1 = a(u, v) − (f, v) = 0 ∀v ∈ H01 (Ω). a(u + sv, u + sv) − (f, u + sv) ds 2 s=0 Existenz von Lösungen Auf das allgemeine elliptische Problem kann der Riesz’sche Darstellungssatz nicht angewendet werden. Das Problem ist nicht durch ein Skalarprodukt gegeben. Wir benötigen den allgemeineren: Satz 2.22 (Lax-Milgram). Sei V ein Hilbertraum, l ∈ V ∗ ein stetiges lineares Funktional und a : V × V → R eine stetige und elliptische Bilinearform: a(u, v) ≤ M kukV kvkV ∀u, v ∈ V, a(u, u) ≥ γkuk2V ∀u ∈ V. Dann existiert eine eindeutige Lösung u ∈ V der Variationsgleichung: a(u, v) = l(v) ∀v ∈ V, welche stetig von den Daten abhängt: kukV ≤ 1 klkV ∗ . γ 33 2 Theoretische Grundlagen Beweis: (i) Für jedes feste u ∈ V ist wegen der Stetigkeit der Bilinearform ein stetiges lineares Funktional Au ∈ V ∗ definiert: Au (v) := a(u, v) ≤ Mu kvkV ∀v ∈ V. Da V ein Hilbertraum ist gilt der Darstellungssatz von Riesz und es existiert ein Element Au ∈ V , so dass gilt: (Au, v) = Au (v) = a(u, v) ∀v ∈ V. Es ist also durch den Riesz’schen Darstellungssatz ein Operator A : V → V definiert, welcher jedem Element u ∈ V ein Element Au ∈ V zuordnet, so dass sich die Bilinearform durch das Skalarprodukt ausdrücken lässt. Es gilt: kAukV = kAu kV ∗ = sup v∈V a(u, v) M kukV kvkV ≤ sup ≤ M kukV . kvkV kvkV v∈V (2.6) (ii) Für ein festes r ∈ R+ definieren wir einen weiteren Operator Tr : V → V durch (Tr u, v) := (u, v) + r(l(v) − (Au, v)) ∀v ∈ V. Es gilt für zwei Elemente u, w ∈ V : (Tr u − Tr w, v) = (u − w − rA(u − w), v). Wir wählen die Testfunktion v := Tr u − Tr w kTr u − Tr wk2V = (u − w − rA(u − w), u − w − rA(u − w)) = ku − wk2V − 2r(A(u − w), u − w) + r2 (A(u − w), A(u − w)). (2.7) Es gilt wegen der Elliptizität (A(u − w), u − w) = a(u − w, u − w) ≥ γku − wk2V , und mit (2.6) (A(u − w), A(u − w)) = kA(u − w)k2V ≤ M 2 ku − wk2V . Zusammen folgt aus (2.7) kTr u − Tr wk2V ≤ |1 − 2rγ + M 2 r2 |ku − wk2V . Und für 2γ |1 − 2rγ + M r | < 1 ⇔ r ∈ 0, 2 , M ist Tr eine Kontraktion und mit dem Banach’schen Fixpunktsatz 2.2 existiert ein eindeutig bestimmtes u ∈ V mit Tr u = u. Und dann: 2 2 Tr u = u ⇒ (Au, v) = l(v) ∀v ∈ V. (iii) Es existiert also eine Lösung. Angenommen es würden zwei Lösungen u1 , u2 ∈ V mit w := u1 − u2 existieren. Dann gilt: a(w, v) = 0 ∀v ∈ V. 34 2.2 Theorie partieller Differentialgleichungen Und wegen der Elliptizität: 0 = a(w, w) ≥ γkwk2V ⇒ w = 0. (iv) Abschließend gilt für die Lösung die a priori Schranke: γkuk2V ≤ a(u, u) = l(u) ≤ klkV ∗ kukV . Dieser Satz kann nun unmittelbar auf das allgemeine elliptische Problem angewendet werden: Korollar 2.1. Sei L ein elliptischer Operator mit den Eigenschaften aus Satz 2.19. Weiter sei f ∈ L2 (Ω). Dann hat die Gleichung: Lu = f in Ω, u = 0 auf ∂Ω, eine eindeutig bestimmte schwache Lösung u ∈ H01 (Ω) und es gilt: k∇ukL2 (Ω) ≤ cp kf kL2 (Ω) , γ mit der Poincaré-Konstante cp . Beweis: Durch l(v) = (f, v) ist ein lineares, stetiges Funktional bestimmt: l(v) = (f, v) ≤ kf kL2 (Ω) kvkL2 (Ω) ≤ cp kf kL2 (Ω) k∇vkL2 (Ω) Mit dem Satz von Lax-Milgram 2.22 folgt die Aussage. ∀v ∈ H01 (Ω). Regularität der Lösung Von entscheidender Bedeutung für das weitere Vorgehen ist die Regularität der Lösung u ∈ H01 (Ω). Falls wir z.B. u ∈ H 2 (Ω) zeigen können, so folgt aus dem Einbettungssatz 2.16 H 2 (Ω) ,→ C(Ω) die Stetigkeit der Lösung. Um zu garantieren, dass u eine klassische Lösung ist, also u ∈ C 2 (Ω) benötigen wir höhere Regularität. Der Einbettungssatz 2.17 fordert in d räumlichen Dimensionen für die Einbettung H m (Ω) ,→ C 2 (Ω): d d m− >2 ⇔ m>2+ , 2 2 also benötigen wir m = 4 und u ∈ H 4 (Ω). Zunächst gilt einfach: Satz 2.23 (Schwacher Laplace). Für die verallgemeinerte Lösung u ∈ H01 (Ω) der LaplaceGleichung ist ∆u im schwachen Sinne definiert und liegt in L2 (Ω). 35 2 Theoretische Grundlagen ω Abbildung 2.2: Gebiet mit einspringender Ecke. Beweis: Sei u ∈ H01 (Ω) die schwache Lösung von (∇u, ∇v) = (f, v) für alle v. Dann gilt: (f, v) = (∇u, ∇v) = −(u, ∆v) ∀v ∈ C0∞ (Ω). Also ist f = −∆u im Sinne der schwachen Ableitung mit f = −∆u ∈ L2 (Ω). Es zeigt sich nun, dass sich die Regularität der Daten auf die Regularität der Lösung überträgt. Im Gegensatz zu gewöhnlichen Differentialgleichungen spielt jedoch die Regularität des Gebiets eine entscheidende Bedeutung. Ohne Beweis: Satz 2.24 (Regularität der Lösung). Sei Ω polygonal und konvex, oder besitze einen Rand der Klasse C 2 (lokal parametrisierbar durch eine zweimal stetig differenzierbare Funktion). Im Falle f ∈ L2 (Ω) gilt die a priori Abschätzung: kukH 2 (Ω) ≤ cs kf kL2 (Ω) , mit einer von f unabhängigen Stabilitätskonstante cs . Dieser Satz sichert uns die Stetigkeit der Lösung u ∈ H01 (Ω) ∩ C(Ω̄). Die Konvexität des Gebiets ist entscheidend. Ausgeschlossen sind einspringende Ecken, also Kanten mit Innenwinkel ω größer 180◦ . Wir betrachten auf dem “Tortenstück” aus Abbildung 2.2 die Poisson-Gleichung: −∆u = 0, u(r, θ) = 0 θ ∈ [0, π ], ω π u(1, θ) = sin( ). ω In Polarkoordinaten ist die Lösung gegeben durch: π u(r, θ) = r ω sin π θ . ω Für ω ∈ (π, 2π) gilt u ∈ H 1 (Ω), aber u 6∈ H 2 (Ω). Der Fall ω = 2π wird Schlitz-Gebiet genannt. Allgemein gilt: 36 2.2 Theorie partieller Differentialgleichungen Satz 2.25 (Höhere Regularität der Lösung). Für ein m ≥ 0 sei f ∈ H m−2 (Ω). Weiter sei Ω ein Gebiet der Klasse C m+2 . Dann gilt für die Lösung des Poisson-Problems kukH m (Ω) ≤ ckf kH m−2 (Ω) , mit einer von f unabhängigen Konstante c. Abschließend beweisen wir als wichtige und grundlegende Aussage für elliptische Gleichungen Satz 2.26 (Elliptisches Maximumprinzip). Für den elliptischen Operator Lu := −∆u + au, mit a ≥ 0 gilt auf dem Gebiet Ω ⊂ Rd das Maximumprinzip. D.h., eine Funktion u ∈ C 2 (Ω) ∩ C(Ω̄) mit der Eigenschaft Lu ≤ 0 hat kein positives Maximum im Innern. Es gilt also u(x) ≤ 0 für alle x ∈ Ω oder max u(x) = max u(x) x∈Ω x∈∂Ω Beweis: Wir beweisen den einfachen Fall a > 0. Sei also Lu ≤ 0 und z ∈ Ω ein inneres Maximum mit u(z) > 0. Dann gilt notwendig ∇u(z) = 0, ∂xx u(z) ≤ 0, ∂zz u(z) ≤ 0. Also folgt: −∆u(z) ≥ 0 aus au(z) > 0 folgt der Widerspruch. In einer Dimension besagt das Maximumprinzip gerade die Konvexität einer Funktion mit ∂xx u(x) > 0. 37 2 Theoretische Grundlagen 2.2.2 Parabolische Probleme Es sei nun L ein elliptischer Differentialoperator auf dem Gebiet Ω ⊂ Rd . Dann betrachten wir auf dem Zeit-Orts-Gebiet I ×Ω mit I = [0, T ] die parabolische Anfangs-Randwertaufgabe ∂t u(x, t) + Lu(x, t) = f (x, t) ∀(x, t) ∈ Ω × I, mit der Anfangsbedingung u(x, 0) = u0 (x), und den Randbedingungen von Dirichlet, Neumann oder Robin-Typ. Als Prototyp einer parabolischen Differentialgleichung betrachten wir die Wärmeleitungsgleichung auf einem Gebiet Ω ⊂ Rd und einem Zeitintervall I = [0, T ] mit Dirichlet-Randwerten: ∂t u(x, t) − ∆u(x, t) = f (x, t) u(x, 0) = u0 , in I × Ω, u(x, t) = 0 auf I × ∂Ω. (2.8) Zur Beschreibung einer Lösung dieser Gleichung werden wir wieder eine schwache Formulierung herleiten. Hierzu ist es wesentlich, die notwendige Regularität der auftretenden Funktionen zu untersuchen. Neben der örtlichen Komponente hat die Lösung u : I × Ω → R nun auch eine zeitliche. Im Ort werden wir wie bei den elliptischen Differentialgleichungen den schwachen Regularitätsbegriff der Sobolew-Räume verwenden. Wir definieren: Definition 2.18. Sei V := W n,p (Ω) ein Sobolew-Raum im Ort. Sei I := (0, T ) ein Intervall. ¯ V ) besteht aus allen stetigen Funktionen u : I¯ → V mit Werten in V mit Der Raum C(I; der Norm kukC(I;V ¯ ) := max ku(t)kV . t∈I¯ Wir interpretieren also jede solche Funktion u : I¯ × Ω → R auch als Funktion u : I¯ → V mittels u(t, x) =: [u(t)](x), mit u(t) ∈ V . Diese Funktionen sind stetig in der Zeit und haben einen Wertevorrat im Sobolew-Raum V . Wir müssen diesen Regularitätsbegriff in der Zeit weiter abschwächen und definieren weiter: Definition 2.19 (Zeitliche Sobolew-Räume). Sei V := W n,p (Ω) ein Sobolew-Raum im Ort. Der Raum W m,q (I; V ) besteht aus allen Funktionen u : I × Ω → R deren m-te Zeitableitung ∂tm u im schwachen Sinne existiert und welche beschränkt sind bezüglich der Norm kukW m,q (I;V ) = m X 1 q k∂tj u(t)kqV , j=0 beziehungsweise im Fall q = ∞ kukW m,∞ (I;V ) = ess sup m X j=0 38 k∂tj u(t)kV 2.2 Theorie partieller Differentialgleichungen Für diese Räume gelten wieder die Einbettungssätze. Man beachte, dass die Dimension des “zeitlichen Gebiets” stets 1 ist: Satz 2.27. Sei u ∈ W 1,p (I; V ). Dann gilt: ¯ V ), u ∈ C(I, (i) Z t ∂t u(s) ds u(t) = u(0) + (ii) s ∈ I, 0 kukC(I;V ¯ ) ≤ ckukW 1,p (I,V ) . (iii) Im Folgenden leiten wir eine schwache Formulierung der parabolischen Gleichung (2.8) her. Für die rechte Seite f und den Startwert fordern wir die Regularität f ∈ L2 (I; L2 (Ω)), u0 ∈ L2 (Ω), d.h., die rechte Seite f ist bezüglich Ort und Zeit in L2 . Wir multiplizieren (2.8) für festes t ∈ I¯ mit einer Funktion φ ∈ C0∞ (Ω) und integrieren über das räumliche Gebiet Ω. Mit partieller Integration erhalten wir Z Z ∂t u(x, t)φ(x) dx + Ω ∇u(x, t) · ∇φ(x)dx = Ω Z f (x, t)φ(x) dx, für fast alle t ∈ I. Ω Wir dürfen diese Gleichheit nur für fast alle t ∈ I ansetzen, da die rechte Seite f ∈ L2 (I; L2 (Ω)) aufgefasst als Funktion f : I → L2 (Ω) ja auch nur für fast alle t ∈ I¯ definiert ist. Die gesuchte Lösung u : I → V kann zeitlich gesehen also nur in L2 (I; V ) liegen. Die optimale örtliche Regularität ergibt sich wie bei den elliptischen Gleichungen für V = H01 (Ω), so dass die Ableitungen schwach definiert sind und alle Integrale existieren. Mit u : I → V und f : I → L2 (Ω) schreiben wir kürzer: (∂t u(t), φ)Ω + (∇u(t), ∇φ)Ω = (f (t), φ)Ω ∀φ ∈ H01 (Ω) ¯ und für fast alle t ∈ I. (2.9) Für die Lösung u : I → V gilt also: u ∈ L2 (I; H01 (Ω)). Es bleibt, die Regularität der Zeitableitung ∂t u zu diskutieren, da u zeitlich zunächst nur in L2 liegt (und von Ableitungen im strengen Sinne nicht die Rede sein kann). Es gilt für jedes φ ∈ H01 (Ω): |(∂t u(t), φ)| = (f (t), φ) − (∇u(t), ∇φ) ≤ kf (t)k kφk + k∇u(t)k k∇φk ≤ (cP kf (t)k + k∇u(t)k)k∇φk, mit der Poincaré-Konstante cP . D.h., die Zeitableitung ∂t ũ(t) definiert für fast jedes t ∈ I ein stetiges lineares Funktional auf dem H01 (Ω), oder anders ausgedrückt: ∂t ũ(t) ∈ H −1 (Ω) für fast jedes t ∈ I, denn: k∂t u(t)kH −1 = (∂t u(t), φ) ≤ cP kf (t)k + k∇u(t)k. k∇φk φ∈H 1 (Ω) sup 0 Wir definieren 39 2 Theoretische Grundlagen Definition 2.20 (Schwache Formulierung der Wärmeleitungsgleichung). Sei Ω ⊂ Rd ein Gebiet und I = (0, T ) das zeitliche Intervall. Wir suchen die Lösung ∂t u ∈ L2 (I; H −1 (Ω)), u ∈ L2 (I; H01 (Ω)), (2.10) so dass (∂t u(t), φ) + (∇u(t), ∇φ) = (f (t), φ) ∀φ ∈ H01 (Ω), (2.11) für fast alle t ∈ I und u(0) = u0 , uI×∂Ω = 0. Es gilt der folgende Regularitätssatz für den Lösungsraum Satz 2.28. Angenommen u ∈ L2 (I; H01 (Ω)) und ∂t u ∈ L2 (I; H −1 (Ω)). Dann gilt ¯ L2 (Ω)), u ∈ C(I; und kukC(I;L ¯ 2 (Ω)) ≤ c kukL2 (I;H 1 (Ω)) + k∂t ukL2 (I;H −1 (Ω)) , 0 mit einer Konstante c > 0 unabhängig von u. Weiter ist die Funktion t 7→ ku(t)k2L2 (Ω) absolut stetig und es gilt d ku(t)k2 = 2(∂t u(t), u(t))Ω für fast alle t ∈ I. dt Dieser Satz besagt also, dass jede schwache Lösung von (2.11) mit der Regularität (2.10) eine bezüglich der Zeit stetige Funktion mit Werten in L2 (Ω) ist. Dies erlaubt insbesondere die Vorgabe eines Anfangswertes u0 ∈ L2 (Ω). Existenz einer Lösung Der Nachweis der Existenz einer Lösung der Wärmeleitungsgleichung ist aufwändiger als bei den elliptischen Gleichungen. Wir skizzieren hier nur das Vorgehen. Zunächst sei durch {ωk }k≥0 ein Orthogonalsystem von Eigenvektoren des Laplace-Operators L := −∆ gegeben. Die ωk seien normiert bzgl L2 (Ω). Für ein festes m definieren wir den endlich dimensionalen Raum Vm := span{ω1 , . . . , ωm }, und suchen die Galerkin-Approximation um ∈ L2 (I; Vm ) mit der Darstellung um (x, t) = m X dk (t)ωk (x), (2.12) k=1 als Lösung von (∂t um , ωl ) + (∇um , ∇ωl ) = (f, ωl ), l = 1, . . . , m und für fast alle t ∈ I. Mit dem Ansatz 2.12 gilt: m n X o ∂t dk (t)(ωk , ωl ) + dk (t)(∇ωk , ∇ωl ) = (f, ωk ), k=1 40 k = 1, . . . , m. (2.13) 2.2 Theorie partieller Differentialgleichungen Die ωk sind eine L2 -Orthonormalbasis, das System ist also äquivalent zu einem System aus linearen gewöhnlichen Differentialgleichungen für d(t) : I → Rm : ∂t d(t) + Ad(t) = f¯(t), (2.14) m m ¯ ¯ mit der Matrix A = (akl )m kl=1 und akl := (∇ωk , ∇ωl ) und f : I → R mit f = (f (t), ωk )k=1 . Nun gilt: Satz 2.29. Für jedes m = 1, 2, . . . besitzt das System (2.14) eine eindeutige Lösung um ∈ L2 (I; Vm ) mit max kum (t)k + kum kL2 (I;H 1 (Ω)) + k∂t um kL2 (I;H −1 (Ω)) ≤ kf kL2 (I;L2 (Ω)) + ku0 kL2 (Ω) . t∈I¯ 0 Jetzt beweisen wir Satz 2.30 (Existenz einer Lösung der Wärmeleitungsgleichung). Die Wärmeleitungsgleichung hat für jedes f ∈ L2 (I; L2 (Ω)) und u0 ∈ L2 (Ω) eine schwache Lösung mit max ku(t)k + kukL2 (I;H 1 (Ω)) + k∂t ukL2 (I;H −1 (Ω)) ≤ kf kL2 (I;L2 (Ω)) + ku0 kL2 (Ω) . t∈I¯ 0 Beweis: (i) Es existiert also nach Satz 2.29 eine beschränkte Folge um ∈ L2 (I; H01 (Ω)). D.h., es existiert eine Teilfolge (uml )l≥1 , welche schwach in L2 (I; H01 (Ω)) gegen eine Funktion u ∈ L2 (I; H01 (Ω)) konvergiert, also ∀v ∈ L2 (I; H01 (Ω)) (uml , v) → (u, v) (l → ∞). (ii) Wir wählen nun ein festes N ∈ N und eine Funktion v ∈ C 1 (I; H01 (Ω)) gemäß v(x, t) = N X dk (t)ωk (x), (2.15) k=1 mit stetig differenzierbaren dk ∈ Konvergenz: C 1 (I). Für jedes m > N folgt dann mit der schwachen m→∞ (∂t um , v) + (∇um , ∇v) −−−−→ (∂t u, v) + (∇u, ∇v) ∀v gemäß (2.15). Da die Funktionen gemäß (2.15) für N → ∞ dicht in L2 (I; H01 (Ω)) liegen gilt: ∀v ∈ L2 (Ω), (∂t u, v) + (∇u, ∇v) = (f, v) und der schwache Grenzwert u ist Lösung der Differentialgleichung. (iii) Es bleibt zu zeigen, dass u den Startwert erfüllt, dass also gilt u(·, 0) = u0 . Für ¯ H 1 (Ω)) aus der schwachen Formuv ∈ C 1 (I; H01 (Ω)) mit v(T ) = 0 folgt wegen u ∈ C(I; 0 lierung (2.11): Z Z (f, v) dt = Z (∇u, ∇v) dt (∂t u, v) dt + I I I = (u(T ), v(T )) − (u(0), v(0)) − | {z =0 } = −(u0 , v(0)) − | {z (u0 ,v(0)) } Z Z Z (u, ∂t v) dt + I Z (u, ∂t v) dt + I (∇u, ∇v) dt I (∇u, ∇v) dt I 41 2 Theoretische Grundlagen Ebenso gilt für jedes um ∈ L2 (I; Vm ): Z (f, v) dt = −(um (0), v(0)) − Z I Z (um , ∂t v) dt + I (∇um , ∇v) dt. I Aus der schwachen Konvergenz um * u folgt dann (um (0), v(0)) → (u(0), v(0)) = (u0 , v(0)) ∀v(0) ∈ H01 (Ω). Eindeutigkeit der Lösung Angenommen u1 , u2 ∈ L2 (I; H01 (Ω)) mit ∂t u1 , ∂t u2 ∈ L2 (I; H −1 (Ω)) seien zwei schwache Lösungen von (2.11). Dann gilt für w := u1 − u2 mit w(x, 0) = 0 (∂t w(t), φ) + (∇w(t), ∇φ) = 0 für fast alle t ∈ I. Für φ = w(t) erhalten wir hieraus mit Satz 2.28 1 0 = (∂t w(t), w(t)) + k∇w(t)k2 = ∂t kw(t)k2 + k∇w(t)k2 2 für fast alle t ∈ I. Wir integrieren über t von 0 bis s ∈ I: 0= Z s ∂ 0 ∂t 2 2 kw(t)k + k∇w(t)k dt = kw(s)k2 − kw(0)k2 + | {z } Z s k∇w(t)k2 dt. 0 =0 Also kw(s)k2 = − Z s k∇w(t)k2 dt ≤ 0 ⇒ kw(s)k = 0 ∀s > 0, 0 und die Lösung ist eindeutig. Eigenschaften der Lösung Wie bei den elliptischen Differentialgleichung kann eine analytische Lösung nur in Spezialfällen angegeben werden. Wir versuchen aber formal durch die Methode der “Variablenseparation” eine Lösung zu erstellen. Wir betrachten das homogene Problem ∂t u − ∆u = 0, u(x, 0) = u0 (x), u = 0 auf I × ∂Ω. (2.16) Mit dem Ansatz u(x, t) = v(x)ψ(t) erhalten wir: ∂t u = ∆u ⇒ ∂t ψv = ψ∆v ⇒ ∂t ψ(t) ∆v(x) = =: −λ. ψ(t) v(x) Orts- und Zeitvariablen können unabhängig voneinander variert werden, die Gleichheit gilt für alle x ∈ Ω und t ∈ I. D.h., die beiden Faktoren v(x) sowie ψ(t) müssen Lösungen der Eigenwertprobleme −∆v(x) = λv(x) x ∈ Ω, 42 −ψ 0 (t) = λψ(t) t ≥ 0 2.2 Theorie partieller Differentialgleichungen mit homogenen Dirichlet-Bedingungen v = 0 auf ∂Ω im Ort und ψ(0) = 1 in der Zeit. Für das zeitliche Problem ergibt sich für jedes λ > 0 die Lösung: ψλ (t) = e−λt , t ≥ 0. Im Ort erhalten wir die Eigenwerte des Laplace-Operators, also mit −∆ωj (x) = λj ωj (x) j = 1, 2, . . . , ein L2 -Orthonormalsystem aus Eigenwerten ωj ∈ L2 (Ω) und Eigenwerte 0 < λmin = λ1 ≤ λ2 ≤ · · · . Jede Lösung von (2.16) lässt sich schreiben als u(x, t) = ∞ X µi e−λi t ωi (x), i=1 wobei die Entwicklungskoeffizienten µi gerade die Entwicklungskoeffizienten des Startwerts sind: u0 (x) = u(x, 0) = ∞ X µi ωi . i=1 Für eine parabolische Differentialgleichung mit rechter Seite f = 0 hängt die Lösung naturgemäß lediglich von den Anfangswerten ab. Die einzelnen Lösungskomponenten fallen exponentiell in der Zeit ab. Je größer der Eigenwert λi , umso schneller fällt die entsprechende Lösungskomponenten ab. Im Spezialfall Ω = (0, 1) ⊂ R gilt −∂xx ωj (x) = λj ωj (x), mit sin(jπx) ωj (x) = R I sin2 (jπx) dx 1 , λj = j 2 π 2 . 2 Die Lösung setzt sich also aus Sinus-Schwingungen zusammen. Je größer der Eigenwert, umso größer die Frequenz der Schwingung. Hieraus kann bei genauer Analyse gefolgert werden, dass die Lösung u von (2.16) zu jedem Zeitpunkt t > 0 beliebig regulär ist, auch wenn nur u0 ∈ L2 (Ω) gilt. Dies liegt daran, dass gerade die hochfrequenten, also irregulären Komponenten im Startwert besonders schnell geglättet werden, da exp(−j 2 π 2 t) für j → ∞ schnell klein wird. Wir beweisen für die Lösung der klassischen Formulierung Satz 2.31 (Parabolisches Maximumprinzip). Für jede Lösung der Wärmeleitungs-Ungleichung ∂t u − ∆u ≤ 0 in Ω gilt das Maximumprinzip. Sie nimmt im Innern des halboffenen Zylinders Q := Ω × (0, T ] kein striktes Maximum an. Beweis: Es sei u ∈ C 1 (I; C 2 (Ω) ∩ C(Ω̄)) eine klassische Lösung der Wärmeleitungsgleichung dann ist die Funktion vε := u − εt für jedes ε stetig und nimmt in einem Punkt (x0 , t0 ) ∈ Q̄ 43 2 Theoretische Grundlagen ihr Maximum an. Wir nehmen nun an, dass (x0 , t0 ) ∈ Q, also im Innern des Zylinders liegt. Dann ist ∂xx vε (x0 , t0 ) ≤ 0 und also ∂t vε (x0 , t0 ) ≤ ∂t vε (x0 , t0 ) − ∂xx vε (x0 , t0 ) = ∂t u(x0 , t0 ) − ε − ∂xx u(x0 , t0 ) ≤ −ε. Da die Funktion vε auf Q̄ stetig ist, gilt dann auch in einer Umbebung (x0 , t) für t ∈ (t0 −h, t0 ], dass 1 ∂t vε (x0 , t) ≤ − ε. 2 Dies führt auf einen Widerspruch zu vε (x0 , t0 ) < vε (x0 , t0 ) und die Funktion vε nimmt ihr Maximum notwendig bei t = 0 an. Da vε stetig ist und ε beliebig gilt diese Aussage auch im Grenzfall ε → 0. Aus dem parabolischen Maximumprinzip lässt sich wie im elliptischen Fall die Eindeutigkeit der klassischen Lösung herleiten. Weiter kann gezeigt werden, dass die Lösung der homogenen Gleichung ∂t u − ∆u = 0, u(x, 0) = u0 (x), u = 0 auf I × ∂Ω, mit positiven Anfangsdaten u0 ≥ 0 für alle Zeiten nicht negativ bleibt: 0 ≤ u(x, t) ≤ max u0 (z). z∈Ω Im folgenden befassen wir uns mit dem allgemeinen Fall der inhomogenen Wärmeleitungsgleichung. Es gilt Satz 2.32 (Beschränktheit der Lösung). Für die Lösung der inhomogenen Wärmeleitungsgleichung (2.8) gilt die a priori Abschätzung ku(t)k ≤ e−λt ku0 k + λ−1 sup kf (t)k, t≥0 mit dem kleinsten Eigenwert λ des Laplace-Operators L = −∆ auf Ω mit homogenen DirichletRanddaten. Beweis: (i) Wir stellen die Lösung u = v + w als Summe der Lösungen zweier Hilfsprobleme dar: ∂t v − ∆v = 0 in I × Ω, v t=0 = u0 , ∂t w − ∆w = f in I × Ω, v t=0 = 0, v ∂Ω = 0 v ∂Ω = 0. Diese Aufteilung (Superpositionsprinzip) gilt offenbar wegen der Linearität der Wärmeleitungsgleichung und sie hilft, die beiden Dateneinflüsse durch Anfangswert und rechter Seite zu trennen ku(t)k ≤ kv(t)k + kw(t)k. (ii) Wir starten mit einer Abschätzung für v(t). Wir überführen die erste Gleichung gemäß (2.11) in die variationelle Formulierung und setzen als Testfunktion φ = v. Es gilt: 1 dt kv(t)k2 + k∇v(t)k2 = 0. 2 44 2.2 Theorie partieller Differentialgleichungen Weiter multiplizieren wir mit e2λt und erhalten 1 dt (e2λt kv(t)k2 ) − λe2λt kv(t)k2 + e2λt k∇v(t)k2 = 0. 2 λ ist der kleinste Eigenwert des Laplace-Operators, es gilt also λkvk2 ≤ k∇vk2 und es folgt: 1 dt (e2λt kv(t)k2 ) ≤ 0. 2 Integration über t liefert e2λt kv(t)k2 ≤ kv(0)k2 = ku0 k2 ⇒ kv(t)k ≤ e−λt ku0 k. (iii) Wir betrachten nun kw(t)k. Wir transformieren entsprechend durch Multiplikation mit w(t) und Integration im Ort. Mit der Young’schen Ungleichung |ab| ≤ 12 λ−1 a2 + 12 λb2 gilt: 1 1 1 dt kw(t)k2 + k∇w(t)k2 = (f, w) ≤ λ−1 kf k2 + λkwk2 2 2 2 und mit λkw(t)k2 ≤ k∇w(t)k2 folgt dt kw(t)k2 + k∇w(t)k2 ≤ λ−1 kf k2 . Wir multiplizieren mit eλt dt (eλt kw(t)k2 ) − λeλt kw(t)k2 + eλt k∇w(t)k2 ≤ eλt λ−1 kf k2 , und erhalten also wie in Teil (ii) dt (eλt kw(t)k2 ) ≤ λ−1 eλt kf k2 . Integration über t liefert λt 2 −1 2 e kw(t)k − kw(0)k ≤ λ Z t eλs kf (s)k2 ds, 0 | {z } =0 bzw. 2 kw(t)k ≤ λ −1 −λt Z t e eλs kf (s)k2 ds 0 ≤λ −1 2 −λt sup kf (t)k e Z t eλs ds. 0 t≥0 Es gilt e−λt Z t eλs ds ≤ λ−1 , 0 und somit folgt das Ergebnis: kw(t)k ≤ λ−1 sup kf (t)k. t≥0 Wie bereits im eindimensionalen diskutiert fällt der Einfluss des Startwerts exponentiell ab. Von der rechten Seite hängt die Lösung stetig ab. Die Wärmeleitungsgleichung hat eine sehr wichtige Glättungseigenschaft. Auf für irreguläre Anfangsdaten ist die Lösung für t > 0 stets regulär (wenn dies die rechte Seite erlaubt): 45 2 Theoretische Grundlagen Satz 2.33 (Regularität der Lösung). Für die Lösung der homogenen Wärmeleitungsgleichung mit f = 0 gilt k∂t u(t)k + k∆u(t)k ≤ 2k∆u0 k k∂t u(t)k + k∆u(t)k ≤ 2t−1 ku0 k, vorrausgesetzt der Anfangswert erfüllt jeweils die notwendige Regularität. Beweis: (i) Für den Beweis nutzen wir wieder die Darstellung der Lösung in den Eigenfunktionen ωj des Laplace-Operators u(x, t) = X u0j ωj (x)e−λj t , j≥0 wobei u0j gerade die Entwicklungskoeffizienten des Anfangswerts sind. Es gilt: ∂t u(x, t) = ∆u(x, t) = − X u0j ωj (x)λj e−λj t , j≥0 (ii) Wir wollen jetzt die Norm der Lösung bestimmen. Die ωj sind L2 -orthonormal und mit der Parseval’schen Identität gilt: k∂t u(t)k2 = k∆u(t)k2 = X (u0j )2 λ2j e−2λj t . (2.17) j≥0 Hieraus folgern wir unmittelbar die erste Ungleichung: k∂t u(t)k2 = k∆u(t)k2 ≤ X (u0j )2 λ2j = k∆u0 k2 . j≥0 (iii) Weiter mit (2.17) und der Ungleichung xe−x ≤ 1 für x ≥ 0: k∂t u(t)k2 = k∆u(t)k2 = t−2 X (u0j )2 (tλj )2 e−2λj t ≤ t−2 ku0 k2 . j≥0 | {z ≤1 } Dieser Satz bedeutet also, dass auch für Anfangswerte u0 welche lediglich in L2 (Ω) liegen die Lösung für jeden Zeitpunkt t > 0 glatt ist, dass also z.B. u(t) ∈ H 2 (Ω) liegt. Diese Argumentation kann beliebig fortgeführt werden und wir erhalten die Ungleichung k∂tp u(t)k + k∇2p u(t)k ≤ c(p)t−p ku0 k, Auf 46 t > 0, p ∈ N. 3 Die Finite Elemente Methode für elliptische Probleme Wir betrachten elliptische partielle Differentialgleichungen auf einem Lipschitz-Gebiet Ω ⊂ Rd mit d ≥ 2: −div(A∇u) + b · ∇u + cu = f. Es sei A ∈ [L∞ (Ω)]d×d eine positiv definite Koeffizientenmatrix, b ∈ [L∞ (Ω)]d ein divergenzfreier Transportvektor, sowie c ∈ L∞ (Ω) mit c ≥ 0. Laut Satz 2.19 ist jede Lösung der Differentialgleichung auch Lösung des Variationsproblems u ∈ V : a(u, φ) = (f, φ) ∀φ ∈ V. (3.1) Die genaue Wahl des Test- und Ansatzraums V hängt von den Randwerten des Problems ab. Bei Verwendung von Dirichlet-Werten ist V = H01 (Ω), bei reinen Neumann-Werten ist V = H 1 (Ω)/R. Die Lösung dieses unendlich dimensionalen Problems ist mit analytischen Mitteln nur in Spezialfällen möglich. Wir werden daher Verfahren zur Approximation von Lösungen untersuchen. Die sogenannten Finite Differenzen-Verfahren zielen auf eine Approximation der Ableitungen im Differentialoperator: Die Lösung wird nicht in ganz Ω berechnet, sondern nur in diskreten Punkten xi ∈ Ω. Zwischen diesen Punkten werden die Ableitungen durch Differenzenapproximationen dargestellt. In dieser Vorlesung betrachten wir ausschließlich Variationsmethoden. Wir diskretisieren die variationelle Formulierung durch die Wahl von endlich dimensionalen Test- und Ansatzräumen Vh ⊂ V . 3.1 Allgemeine Galerkin-Verfahren Es sei Vh ⊂ V ein endlich dimensionaler Teilraum mit dim Vh = Nh ∈ N. Der Diskretisierungsparameter h beschreibt die Feinheit der Diskretisierung. Je kleiner der Parameter h, umso größer die Räume: Nh → ∞ (h → 0). Definition 3.1 (Galerkin-Approximation). Sei a(·, ·) eine stetige, elliptische Bilinearform. Die Galerkin-Approximation von (3.1) im Teilraum Vh ⊂ V ist gegeben durch: uh ∈ Vh : a(uh , φh ) = (f, φh ) ∀φh ∈ Vh . (3.2) 47 3 Die Finite Elemente Methode für elliptische Probleme Zur Diskretisierung werden Test- und Ansatzräume auf endlich dimensionale Teilräume Vh ⊂ V eingeschränkt. Dieser endlich dimensionale Teilraum Vh erbt die Eigenschaften von V , er ist wieder ein Hilbertraum. In der Analyse von Galerkin-Approximationen werden wir viele Elemente der theoretischen Betrachtungen wieder anwenden können. 3.1.1 Lösbarkeit und Galerkin-Orthogonalität Satz 3.1 (Lösbarkeit der Galerkin-Approximation). Sei a : V × V → R eine stetige (M ) und elliptische (γ) Bilinearform und sei f ∈ V ∗ ein stetiges lineares Funktional. Dann gibt es eine eindeutige Lösung uh ∈ Vh von (3.2) und es gilt: kuh kV ≤ 1 kf kV ∗ . γ Beweis: Da der Teilraum Vh ⊂ V ein Hilbertraum ist mit der V -Norm und dem V Skalarprodukt, kann der Satz von Lax-Milgram unmittelbar angewendet werden. Aufgrund der Teilraumbeziehung Vh ⊂ V können bei der Analyse von diskreten GalerkinApproximationen die funktionalanalytischen Eigenschaften des Hilbertraums V unmittelbar übertragen werden. Satz 3.2. Unter den Voraussetzungen von Satz 3.1 ist Problem (3.2) äquivalent zur Lösung eines linearen Gleichungssystems Ah uh = bh , mit einem Koeffizientenvektor uh ∈ RNh , einer rechten Seite bh ∈ RNh und mit einer positiv definiten Matrix Ah ∈ RNh ×Nh . Beweis: Wir wählen eine Basis {φ1 , . . . , φNh } ⊂ Vh von Vh . Jede Funktion vh ∈ Vh kann in dieser Basis entwickelt werden: vh (x) = Nj X vj φj (x), h RNh 3 bh := (bi )N i=1 . j=1 Für die Lösung uh mit Koeffizientenvektor uh gilt wegen der Linearität der Bilinearform: a(uh , φi ) = (f, φi ) ∀i = 1, . . . , Nh ⇔ Nh X a(φj , φi )uj = (f, φi ) ∀i = 1, . . . , Nh j=1 ⇔ A h uh = bh , h mit Ah := (Aij )N i,j=1 , sowie bh := h (bi )N i=1 , Aij := a(φj , φi ) bi := (f, φi ). Für beliebigen Koeffizientenvektor vh ∈ RNh gilt: hAh vh , vh i = a(vh , vh ) ≥ γkvh k2V > 0, 48 3.1 Allgemeine Galerkin-Verfahren wobei γ die Elliptizitätskonstante der Bilinearform ist. Die Matrix Ah wird Steifigkeitsmatrix genannt. Diese Matrix “erbt” die Eigenschaften der Bilinearform: ist diese symmetrisch, so ist auch die Steifigkeitsmatrix symmetrisch. Aus der Beschränktheit (Stetigkeit) der Bilinearform folgt die gleichmäßige Beschränktheit der Matrix. Als positiv definite Matrix ist Ah stets regulär. Das allgemeine Galerkin-Verfahren besteht nun aus den folgenden Schritten: 1. Wähle einen diskreten Teilraum Vh ⊂ V . 2. Wähle eine Basis {φi , i = 1, . . . , Nh } von Vh . 3. Löse das lineare Gleichungssystem Ah uh = bh . Um ein konkretes Galerkin-Verfahren zu erhalten muss also zunächst ein Teilraum Vh gewählt werden. Dieser Teilraum soll möglichst groß sein und nahe bei V liegen, nur so ist eine gute Approximation zu erwarten. Andererseits soll das lineare Gleichungssystem möglichst effizient zu lösen sein, d.h., die Matrix Ah soll gut konditioniert und nicht zu groß sein. Schlüssel zur Analyse von Galerkin-Approximationen ist die: Satz 3.3 (Galerkin-Orthogonalität). Der Fehler u − uh ∈ V der Galerkin-Approximation uh ∈ Vh ⊂ V “steht orthogonal” auf dem Testraum Vh : a(u − uh , φh ) = 0 ∀φh ∈ Vh . Beweis: Diese wichtige Eigenschaft folgt durch Subtraktion von (3.1) und (3.2). Bemerkung 3.1. Falls die Bilinearform a(·, ·) symmetrisch ist, so stellt sie ein Skalarprodukt auf V und Vh dar. In diesem Fall fällt die Galerkin-Orthogonalität mit dem üblichen Orthogonalitätsbegriff zusammen. Mit der Galerkin-Orthogonalität erhalten wir schnell den folgenden Approximationssatz: Satz 3.4 (Lemma von Cea). Es seien die Voraussetzungen von Satz 3.1 erfüllt. Es sei u ∈ V die Lösung von (3.1) und uh ∈ Vh die Lösung von (3.2). Es gilt die Fehlerabschätzung ku − uh kV ≤ M inf ku − vh kV . γ vh ∈Vh Beweis: Aus der Elliptizität folgt zusammen mit der Galerkin-Orthogonalität und der Stetigkeit für ein beliebiges vh ∈ Vh ⊂ V : γku − uh k2V ≤ a(u − uh , u − uh ) = a(u − uh , u − uh + vh − vh ) = a(u − uh , u − vh ) + a(u − uh , vh − uh ) | {z } ∈Vh = a(u − uh , u − vh ) ≤ M ku − uh kV ku − vh kV . 49 3 Die Finite Elemente Methode für elliptische Probleme Das Lemma von Cea besagt, dass die Galerkin-Lösung bis auf die Konstante M γ die beste mögliche Approximation von u im Funktionenraum Vh ist. Die Approximationsgüte eines Galerkin-Ansatzes hängt also einzig von der Approximierbarkeit der Lösung u ∈ H01 (Ω) mit Funktionen φh ∈ Vh ab. Für die Herleitung von Fehlerabschätzungen muss eine spezielle Approximation φh ∈ Vh gewählt werden, für welche Fehlerabschätzungen existieren. Hier werden sich lokale Interpolationen anbieten. Interpolationen in diskrete Galerkin-Räume werden wir detailliert untersuchen. Bemerkung 3.2 (Bestapproximation). Im Fall, dass a(·, ·) symmetrisch ist, ist durch kvka := q a(v, v) ∀v ∈ H01 (Ω), eine Norm definiert. In dieser Norm gilt dann die Bestapproximationseigenschaft ku − uh ka = inf ku − φh ka . φh ∈Vh 3.1.2 Einige Begriffe Das Prinzip der Galerkin-Approximationen lässt sich noch erweitern und wir führen abschließend einige weitere Begriffe ein. Definition 3.2 (Konforme und nicht-konforme Galerkin-Approximation). Die Approximation uh ∈ Vh : a(uh , φh ) = (f, φh ) ∈ Vh , der Variationsgleichung u∈V : a(u, φ) = (f, φ) ∈ V, mit einem endlich dimensionalen Raum Vh heißt V -konform, falls Vh ⊂ V , ansonsten, im Fall Vh 6⊂ V heißt sie nicht V -konform. Oft ist es notwendig, nicht-konforme Approximationen zu untersuchen. Die fehlende Konformität macht die Analyse weit aufwändiger, da ohne die Teilraumbeziehung auch die GalerkinOrthogonalität verloren geht. Dann gilt das Lemma von Cea nicht mehr. Ein anderer Spezialfall ist die Wahl von unterschiedlichen Ansatz- und Test-Räumen: Definition 3.3 (Petrov-Galerkin-Verfahren). Es seien Vh ⊂ V und Wh ⊂ V zwei endlich dimensionale Teilräume. Die Approximation uh ∈ Vh : a(uh , φh ) = (f, φh ) heißt Petrov-Galerkin-Approximation. 50 ∀φh ∈ Wh 3.1 Allgemeine Galerkin-Verfahren Petrov-Galerkin-Approximationen können gegebenenfalls wieder nicht-konform sein, wenn Vh 6⊂ V oder Wh 6⊂ V (oder beides). Für Petrov-Galerkin-Verfahren, welche konform im Testraum Wh ⊂ V sind, gilt zwar die Galerkin-Orthogonalität bzgl. des Testraums Wh ⊂ V . Die diskrete Lösung uh ∈ Vh 6= Wh liegt jedoch nicht in diesem Raum. Im Beweis zum Lemma von Cea 3.4 erhalten wir eine Abschätzung durch den Ansatz: γku − uh kV ≤ a(u − uh , u − uh ) = a(u − uh , u − vh ) + a(u − uh , vh − uh ) ∀vh ∈ Wh . |{z} 6∈Wh Wegen der fehlenden Galerkin-Orthogonalität bleibt ein Konformitätsterm erhalten. Die Herleitung einer Abschätzung für diesen Term kann sehr aufwändig sein. 3.1.3 Wahl der Ansatzräume Wie bereits argumentiert sollte der Ansatzraum Vh so gewählt werden, dass er über gute Approximationseigenschaften von Funktionen u ∈ V verfügt. Daneben muss das lineare Gleichungssystem einfach zu lösen sein. Globale Polynomräume Als diskreten Funktionenraum Vh wählen wir den Raum aller Polynome bis zu einem bestimmten Grad, etwa (r) Vh := span{ d Y αj xj , 0 ≤ α1 , . . . , αd ≤ r}. j=1 Dieser Raum hat für großes r gute Approximationseigenschaften und wir kennen Interpolationsabschätzungen um den Fehler angeben zu können. Als Basis wählen wir zunächst die Monombasis. Dann ist die Matrix Aij = a(φj , φi ) voll besetzt. Für das Poisson-Problem ergibt sich eine Matrix, die sehr ähnlich zur HilbertMatrix mit der Kondition cond2 (Ah ) = O(eNh ) ist. Ein lineares Gleichungssystem mit dieser Matrix kann selbst für moderate Nh ≈ 100 nicht numerisch gelöst werden. Dieser GalerkinAnsatz scheidet also aus. Wir nehmen zunächst an, dass die Bilinearform a(·, ·) symmetrisch, also ein Skalarprodukt ist. Angenommen, die Basis {φi , i = 1, . . . , Nh } sei a-orthogonal: a(φi , φj ) = 0 ∀i 6= j. In diesem Fall wäre die Matrix Ah eine Diagonalmatrix und das Lösen des linearen Gleichungssystems wäre trivial. Zur Orthogonalisierung der Basis könnte etwa das Gram-SchmidtVerfahren verwendet werden. In der Praxis treten bei dieser Orthogonalisierung jedoch zu große Rundungsfehler auf. Die resultierende Basis wäre nicht mehr exakt orthogonal. 51 3 Die Finite Elemente Methode für elliptische Probleme Trigonometrische Ansatzräume Es sei Ω = (0, 1) × (0, 1) ⊂ R2 . Als Ansatzraum wählen wir m X 1 Vh := { cij sin(iπx) sin(jπy), cij ∈ R}, h := , Nh := (m + 1)2 . m i,j=0 Als Basisfunktionen werden die Fourier-Koeffizienten φij = sin(iπx) sin(jπy) gewählt. Angewendet auf die Poisson-Gleichung ist die resultierende Matrix sehr gut konditioniert mit cond2 (Ah ) = O(N ) und das Gleichungssystem kann sehr effizient (schnelle Fourier-Transformation) gelöst werden. Dieser Ansatz wird Spektral-Verfahren genannt. Er ist höchst leistungsfähig, falls das Gebiet Ω und der Differentialoperator einfach gehalten sind, jedoch nicht auf allgemeine Fälle übertragbar. “Fast orthogonale” Ansätze (Finite-Elemente) Dieser Ansatz stellt einen Kompromiss zwischen Approximationsgenauigkeit und Effizienz dar: Als Basisfunktionen werden stückweise polynomiale Funktionen gewählt, die jeweils nur einen möglichst kleinen Träger besitzen. Insbesondere soll für verschiedene Basisfunktionen gelten: supp(φi ) ∩ supp(φj ) 6= ∅ nur für sehr wenige i 6= j. Durch diese Konstruktion ist die Steifigkeitsmatrix Ah automatisch dünn besetzt mit nur sehr wenigen Einträgen in jeder Matrix-Zeile. Diesen Ansatz werden wir im Detail untersuchen. 3.2 Finite Elemente Methode Bei der Finite Elemente Methode werden Basisfunktionen des Raums Vh mit einem kleinen, lokalen Träger gewählt. Diese Basisfunktionen sind als stückweise Polynome definiert. Grundlage ist zunächst eine Triangulierung des Gebiets Ω in ein Finite-Elemente Gitter. 3.2.1 Triangulierung und lineare Finite Elemente Es sei Ω ⊂ Rd mit d ≥ 2 ein offenes Gebiet mit zunächst stückweise polygonalem Rand. Alle Innenwinkel seien positiv. Wir definieren: Definition 3.4 (Finite Elemente Gitter). Eine Zerlegung von Ω in offene Teilgebiete T , Zellen oder Elemente genannt, heißt Triangulierung oder Gitter Ωh = {Ti ; i = 1, . . . , NhT } von Ω. Die Elemente sind üblicherweise Dreiecke, Tetraeder, konvexe Vierecke oder konvexe Hexaeder. Wir definieren die Zellgröße hT := diam(T ) und maximale Gitterweite h := maxT ∈Ωh hT . Die Eckpunkte der Elemente heißen Knoten und wir fassen das Gitter bei Bedarf auch als Knoten-Gitter Ωh := {xi , i = 1, . . . , Nh } auf. Das Gitter heißt Strukturregulär Je zwei unterschiedliche Zellen T1 , T2 ∈ Ωh , T1 6= T2 überlappen sich entweder nicht T1 ∩ T2 = ∅, oder in einem gemeinsamen Eckpunkt, oder in einer ganzen Seite. 52 3.2 Finite Elemente Methode Formregulär (Im Fall von Dreiecken) Alle Dreiecke der Triangulierung Ωh sind von ähnlicher Gestalt. Für den Inkreisradius ρT und Zelldurchmesser hT gilt gleichmäßig: max T ∈Ωh hT ≤ cf ρT (h → 0). Größenregulär Die Elemente T ∈ Ωh sind von ähnlicher Größe. Es gilt gleichmäßig: max hT ≤ cg min hT T ∈Ωh T ∈Ωh (h → 0). Es müssen nicht unbedingt alle drei Regularitätseigenschaften gelten um von einem sinnvollen Finite Elemente Gitter zu sprechen. Um zum Beispiel lokal verfeinerte Gitter zu ermöglichen wird es notwendig sein, die Größenregularität fallen zu lassen. Auf mögliche Abschwächungen der Regularitätsbedingungen kommen wir bei Bedarf zurück. In einem Finite Elemente Gitter können verschiedene Elemente, also z.B. Kombinationen aus Hexaedern, Tetraedern und Prismen betrachtet werden. Wir werden jedoch nur reine Dreiecks-, Vierecks-, Tetraeder- oder Hexaedergitter untersuchen. Eine Finite Elemente Basis wird nun unter Zuhilfenahme des Gitters definiert. Das einfachste Beispiel, die stückweise linearen Finite sind gegeben als: (1) Vh := {vh ∈ C(Ω̄) : vh T ∈ P1 (T ), T ∈ Th , v|∂Ω = 0}. (1) (1) Für diesen Vektorraum gilt Vh ⊂ H01 (Ω). Weiter ist jedes vh ∈ Vh durch die Vorgabe der Funktionswerte an den Eckpunkten xi ∈ Ωh der Triangulierung eindeutig beschrieben. Durch die Vorschrift: (i) φh (xj ) = δij ∀i, j = 1, . . . , Nh , wird jedem inneren Knoten eine Basisfunktion zugeordnet. Diese Basis heißt die Knoten(1) Basis des Raums Vh der linearen Finiten Elemente. Siehe Abbildung 3.1. Die Basis erstreckt sich nur über die inneren Knoten des Gebiets xi 6∈ ∂Ω. Auf diese Weise ist sichergestellt, (1) dass Vh ⊂ H01 (Ω), dass also Null-Randwerte von allen diskreten Funktionen erfüllt sind. (1) Jede Funktion vh ∈ Vh besitzt die eindeutige Basisdarstellung: vh (x) = Nh X (i) vi φh (x), i=1 mit einem Koeffizientenvektor v ∈ RNh . Die Summe erstreckt sich nur über die inneren Knoten der Triangulierung. In den Randknoten ist der Wert der diskreten Vektoren aufgrund der Dirichlet-Randwerte stets Null. Wir nennen die Koeffizienten in den inneren Knoten die Freiheitsgrade des diskreten Problems. Die Anzahl der Freiheitsgrade entspricht der Dimension des linearen Gleichungssystems. 53 3 Die Finite Elemente Methode für elliptische Probleme Abbildung 3.1: Lineare Knotenbasisfunktion. Dieser Ansatz erfüllt eine wesentliche Forderung an ein Galerkin-Verfahren. Für die Steifigkeitsmatrix Ah ∈ RNh ×Nh gilt: (j) (i) Aij = a(φh , φh ) 6= 0 nur wenn ein T ∈ Ωh existiert mit xi ∈ T̄ und xj ∈ T̄ . Die Steifigkeitsmatrix ist also dünn besetzt. Für das allgemeine Galerkin-Verfahren haben wir bereits das Lemma von Cea 3.4 bewiesen. (1) Wir betrachten das Poisson-Problem. Für die Finite-Elemente Lösung uh ∈ Vh gilt die Bestapproximation: k∇(u − uh )k = min k∇(u − φh )k. (1) φ∈Vh (1) Konvergenz für h → 0 liegt vor, wenn es ein φh ∈ Vh gibt, so dass k∇(u − φh )k → 0 gilt. (1) Als Wahl für eine Approximation verwenden wir die Interpolation Ih u ∈ Vh : Ih : V → V h , Ih u(x) = Nh X (i) u(xi )φh (x), i=1 für welche wir die folgenden Interpolationsabschätzungen kennenlernen werden: ku − Ih ukT ≤ ci h2T k∇2 ukT , k∇(u − Ih u)kT ≤ ci hT k∇2 ukT . (3.3) Hieraus folgt dann unmittelbar mit der Bestapproximationseigenschaft die a priori Fehlerabschätzung für lineare Finite Elemente k∇(u − uh )kΩ ≤ k∇(u − Ih u)kΩ ≤ ci hk∇2 ukΩ . 3.2.2 Allgemeine Finite Elemente Räume Wir betrachten ein Dreiecks- oder Vierecksgitter Ωh des Gebiets Ω. Finite Elemente Räume werden üblicherweise als stückweise polynomial eingeführt. Hierzu betrachten wir auf einem Dreieck T ∈ Ωh oder Viereck K ∈ Ωh die Polynomräume P r := span{xα1 y α2 , 0 ≤ α1 + α2 ≤ r}, 54 Qr := span{xα1 y α2 , 0 ≤ α1 , α2 ≤ r}, 3.2 Finite Elemente Methode der stückweise linearen, quadratischen u.s.w., bzw. bilinearen, biquadratischen u.s.w. Funktionen. Der Raum P r ist einfach für Tetraeder, der Raum Qr auf Hexaeder zu erweitern. Der Raum der linearen Finite Elemente auf einem Dreiecksgitter, bzw. der bilinearen Finiten Elemente auf einem Vierecksgitter ist definiert als: (1) Vh := {φh ∈ C(Ω̄), φh T ∈ P 1 , T ∈ Ωh }, (1) Vh := {φh ∈ C(Ω̄), φh K ∈ Q1 , K ∈ Ωh }. Allgemeine Finite Elemente Räume werden über die Angabe von Knotenwerten definiert. Dabei wird der Wert der diskreten Funktion φh oder Ableitungen der diskreten Funktion ∇s φh in Eckpunkten, inneren Punkten oder Punkten auf Kanten der Elemente fixiert. Weiter ist es möglich (und manchmal auch zweckdienlich) die diskrete Funktion über gewisse Mittelwerte, etwa über eine Kante zu bestimmen. Die Knotenwerte sind Punkte auf Ecken, Kanten oder im Innern. In diesen Knotenwerten werden sogenannte Knotenfunktionale P (T ), also Punktwerte, Ableitungswerte oder Mittelwerte vorgeschrieben. Ein Finite Elemente Ansatzraum wird durch die Vorgabe eines Polynomraums P (T ) ⊂ P r oder P (K) ⊂ Qr sowie durch einen Satz von Knotenwerten und Knotenfunktionalen beschrieben, welche unter Hinzunahme von globalen Eigenschaften (z.B. Stetigkeit der Knotenfunktionale über Elemente hinweg) eine eindeutige Zuordnung erlauben. Definition 3.5 (Unisolvenz). Ein Polynomraum P (T ) und ein zugehöriger Satz von linearen Knotenfunktionalen K(T ) heißt unisolvent, wenn jedes p ∈ P (T ) eindeutig durch die Vorgabe von χ ∈ K(T ) bestimmt ist. Jedes mögliche Polynom p ∈ P (T ) muss sich also eindeutig durch die Vorgabe der Knotenfunktionale beschreiben lassen. Eine notwendige Bedingung ist natürlich, dass die Dimension des lokalen Polynomraums P (T ) mit der Anzahl der Knotenfunktionale übereinstimmt. Eine hinreichende Bedingung ist aufgrund der Linearität der Knotenfunktionale, dass für ein p ∈ P (T ) aus χ(p) = 0 für alle Knotenfunktionale notwendig p = 0 folgt. Falls wir zum Beispiel den Raum der linearen Finite Elemente auf Drei- oder Vierecken betrachten müssen wir auf jedem Element das Polynom eindeutig beschreiben. Ein Dreieck hat 3 Eckpunkte, somit muss folgerichtig dim(P 1 ) = 3 gelten, in einem Viereck mit 4 Eckpunkten benötigen wir den Raum der bilinearen Funktionen mit dim(Q1 ) = 4. Ist ein Satz von unisolventen Knotenfunktionalen gegeben, kann die lokale Interpolation einer Funktion v ∈ H m (Ω) in diesen Polynomraum definiert werden: Definition 3.6 (Finite Elemente Interpolation). Für jede Zelle T ∈ Ωh sei ein Polynomraum P (T ) und ein Satz von unisolventen Knotenfunktionalen K(T ) mit Dimension R gegeben: χr : H m (T ) → R (r = 1, . . . , R). Durch die Vorgabe: χr (Ih v) = χr (v), r = 1, . . . , R ist dann eindeutig die Finite Elemente Interpolation Ih v ∈ P (T ) beschrieben. 55 3 Die Finite Elemente Methode für elliptische Probleme Bemerkung 3.3. Bei der genauen Definition von Interpolationsoperatoren wird die Regularität der Räume eine wesentliche Rolle spielen. Angenommen u ∈ H 1 (Ω), dann ist u nicht unbedingt stetig. Die Zuordnung eines Punktwertes: χ(u) = u(a), a ∈ Ω, ist kein lineares Funktional in H 1 (Ω) → R und kann somit nicht zur Definition einer Interpolation genutzt werden. Oft liefert die Existenz- und Regulartiätstheorie aber gerade u ∈ H 1 (Ω) und keine höhere Regularität. Für diese Zwecke werden wir einen speziellen Interpolationsoperator betrachten, die Clement-Interpolation, welche auch für Funktionen u ∈ H 1 (Ω) definiert ist. Der übliche Finite Elemente Ansatz ist der: Definition 3.7 (Lagrange-Ansatz). Im Fall, dass alle Knotenfunktionale auf der Vorgabe von Punktwerten beruhen spricht man von einem Lagrange-Ansatz. Und dem gegenüber: Definition 3.8 (Hermite-Ansatz). Im Fall, dass als Knotenfunktionale auch die Vorgabe von Ableitungswerten auftauchen, spricht man von einem Hermite-Ansatz. Beispiele von Finite Elemente Räumen Wir betrachten einige Beispiele von Finite Elemente Räumen. Besonderes Interesse haben wir an H 1 konformen Finite Elemente Räumen, da hier die Galerkin-Orthogonalität sowie das Lemma von Cea gilt. Wir haben bereits mehrfach argumentiert, dass H 1 -Funktionen nicht in jedem Punkt definiert sein müssen, insbesondere müssen diese Funktionen also auch nicht stetig sein. Es zeigt sich aber, dass in zwei und drei Dimensionen, eine H 1 -Funktion nicht entlang eines ganzen Linienstückes, also z.B. einer Elementkante unstetig sein darf. Unter H 1 -Konformität stellen wir uns vereinfacht Stetigkeit vor. Dreieckselemente a) stückweise konstante Funktionen P (T ) = span{1} Der Ansatz niedrigster Ordnung verwendet den lokalen Polynomraum P 0 (T ) = span{1}, also die konstanten Funktionen. Ein mögliches Knotenfunktional in jedem Element ist die Vorgabe des Mittelwerts: p∈P : (p, 1)T = (v, 1)T , Der Mittelwert stellt ein lineares Funktional dar, auch ist dieser Ansatz unisolvent. Ein globaler, nicht-konformer Finite-Elemente Raum ist definiert durch die Vorgabe: Vh0,nc := {φh ∈ L2 (Ω), φh T ∈ span{1}}. 56 3.2 Finite Elemente Methode Dieser Raum spielt bei sogenannten dual-gemischten Formulierungen eine Rolle. Zur direkten Approximation von elliptischen partiellen Differentialgleichungen eignet er sich nicht, da alle Ableitungen verschwinden, also ∇φh = 0 für alle φh ∈ Vh0,nc . Ein H 1 -konformer Finite Elemente Raum lässt sich mit den stückweise konstanten Funktionen nicht erstellen. Durch die Forderung nach globaler Stetigkeit bleiben nur die global konstanten Funktionen übrig. b) stückweise lineare Polynome P (T ) = span{1, x, y} Dieser Raum hat die lokale Dimension 3 und als Knotenfunktionale geben wir den Wert in den Eckpunkten vor. Dieser Ansatz ist unisolvent. Denn eingeschränkt auf eine Kante (also ein Linienstück) ist jedes p ∈ P eine lineare Funktion. Ist diese lineare Funktion Null in zwei Punkten, so ist sie komplett Null, also ist auch die Richtungsableitung in Richtung der Kante Null. Da zwei Kanten sich jeweils schneiden gilt in den Eckpunkten ∇p = 0. Also p (als lineare Funktion) konstant und somit p = 0. Ein globaler H01 -konformer Ansatz ist gegeben durch: (1) Vh := {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Eckpunkten ai ∈ T, φh = 0 in Eckpunkten ai ∈ ∂Ω}. Die globale Stetigkeit φh ∈ C(Ω̄) erhält man, da φh auf jeder Kante durch die Vorgabe beider Eckpunkte eindeutig bestimmt ist. Aus der Stetigkeit in den Eckpunkten folgt die Stetigkeit entlang der ganzen Kante. Stetige, stückweise polynomiale Funktionen sind stets H 1 -konform (Übungsaufgabe). Einen zunächst ungewöhnlichen, in der Anwendung (Navier-Stokes-Gleichungen) jedoch verbreiteten nicht-konformen Ansatz erhält man durch die Vorgabe der Knotenwerte in den drei Kantenmitten: (1),nc Vh := {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Kantenmitten, φh = 0 in Kantenmitten auf ∂Ω}. c) stückweise quadratische Polynome P (T ) = span{1, x, y, x2 , y 2 , xy} Die lokale Dimension des Raumes ist 6. Der einfachste Raum verwendet als Knotenwertvorgabe die drei Eckpunkte sowie drei Kantenmitten der Elemente: (2) Vh := {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Eckpunkten und Kantenmitten, φh = 0 in Eckpunkten und Kantenmitten auf ∂Ω}. (2) Dieser Raum ist global stetig. Denn entlang jeder Kante ist φh ∈ Vh durch Vorgabe von drei Funktionswerten eindeutig bestimmt. Diese Funktionswerte liegen alle auf einer Kante und sind stetig. Ähnlich kann bei der Untersuchung der Unisolvenz argumentiert werden. Angenommen χr (p) = 0 für r = 1, . . . , 6. D.h., das Polynom ist entlang jeder der drei Kanten konstant 57 3 Die Finite Elemente Methode für elliptische Probleme Null. Hieraus folgt, dass der Gradient des Polynoms in den Eckpunkten und somit entlang der ganzen Kante Null ist. p ist also konstant und somit ganz Null. Statt die Knotenwerte in den Kantenmitten vorzugeben, kann jeweils der Mittelwert über eine Kante vorgeschrieben werden. Dieser Ansatz ist auch unisolvent: p∈P : (p, 1)e = (v, 1)e e ∈ ∂T. Ein nicht konformes quadratisches Element ist das Morley Platten-Element. Neben der Vorgabe der Funktionswerte in den Eckpunkten werden die Normalableitungen in den Kantenmitten vorgegeben: VhM orley := {φh : Ω̄ → R : φh T ∈ span{1, x, y, x2 , xy, y 2 }, φh stetig in Eckpunkten , ∂n φh stetig in Kantenmitten}. Dieser Ansatz ist nicht konform, denn nur die Normalableitung, nicht aber die Funktionen selbst müssen stetig sein in den Kantenmitten. Es kann jedoch gezeigt werden, dass dieser Ansatz unisolvent ist. d) stückweise quintisches Argyris-Plattenelement Als letztes Beispiel betrachten wir das Argyris-Element. Lokal wird der Raum der quintischen Polynome verwendet: P (T ) = span{xα y β , 0 ≤ α + β ≤ 5}, mit dim(P (T )) = 21. Als Knotenfunktionale werden in den Eckpunkten die Funktionswerte, der Gradient, sowie die zweiten Ableitungen vorgegeben. Dies sind 3 · (1 + 2 + 3) = 18 (nur 3 zweite Ableitungen wegen ∂x ∂yφh = ∂y ∂x φh ) Werte. Die fehlenden drei Werte werden durch Vorgabe der Normalableitung in den Kantenmitten vorgegeben. Dieser Ansatz ist unisolvent und darüber hinaus H 2 -konform, d.h., es gilt VhArgyris ⊂ H 2 (Ω). Viereckselemente Die meisten Ansätze lassen sich auf Vierecke bzw. Hexaeder verallgemeinern. Es ist üblicherweise notwendig mehr lokale Freiheitsgrade hinzuzunehmen. Daher sind als Grundlage Polynomräume der Art Q1 = span{1, x, y, xy} mit den gemischten Termen xy üblich. stückweise bi-Polynome P (T ) = Qr Das Viereck K wird durch ein uniformes (r +1)×(r + 1)-Gitter überdeckt, wobei die Eckpunkte enthalten sind. In jedem dieser (r + 1)2 Punkte wird der Funktionswert fixiert. Dieser Ansatz ist unisolvent und H 1 (Ω)-konform, da auf jeder Kante r +1 Freiheitsgrade zur Verfügung stehen, um die Funktion hier eindeutig vorzugeben. Ein nicht konformer bilinearer Ansatz könnte durch die Vorgabe der Funktionswerte in den Kantenmitten erzeugt werden. Dieser Ansatz ist jedoch nicht unisolvent, denn die Funktion φh = xy ∈ Q1 , 58 3.2 Finite Elemente Methode ist ungleich Null, eingebettet in das Viereck K = (−1, 1) × (−1, 1) haben jedoch alle Knotenfunktionale den Wert 0. Einen nicht konformen, jedoch unisolventen Ansatz erhält man durch die Wahl der lokalen Räume Q1,rot := span{1, x, y, x2 − y 2 }, welcher durch Rotation des Q1 um π/4 erzeugt wird. Dieser Ansatz ist bei Vorgabe der Funktionswerte in den Kantenmitten unisolvent. Hexaederelemente Das Lagrange-Viereckselement lässt sich unmittelbar in beliebige Dimensionen übertragen, da dieser Ansatzraum in einem Tensorprodukt-Sinne aufgebaut ist. Allgemein hat der Raum r P (K) = Q := span{ d Y αj xj , 0 ≤ α1 , . . . , αd ≤ r}, j=1 die Dimension dim(Qr ) = (r + 1)d . Über die Vorgabe von Knotenfunktionalen in einem uniformen inneren Punktgitter ist ein unisolventes Element definiert. 59 3 Die Finite Elemente Methode für elliptische Probleme x̂4 x̂3 x+y y TK (x, y) = K̂ x̂1 x3 x4 K x̂2 x1 Γ0 x2 Abbildung 3.2: Allgemeines Viereck, welches nicht durch affin-lineare Transformation erzeugt werden kann. 3.2.3 Parametrische Finite Elemente Die Definition von Finite Elemente Räumen über die Angabe von lokalen Knotenfunktionalen ist oft schwierig. Z.B. liefert der lokale Polynomraum P (K) := span{1, x, y, xy} mit der Vorgabe der Funktionswerte in den Eckpunkten einen unisolventen Ansatz auf dem Viereck K = (0, 1) × (0, 1), jedoch nicht auf dem gedrehten Viereck K := {(x, y) ∈ R2 , |x| + |y| < 1}. Denn hier ist die Funktion p = xy in jedem Eckpunkt Null. D.h., alle Knotenfunktionale χi (p) = 0 verschwinden, für das Polynom selbst gilt allerdings p 6= 0. In einem allgemeinen Gitter ist es jedoch nicht möglich diese Fälle auszuschließen. Das Problem ist noch größer, wenn allgemeine Vierecke betrachtet werden, also auch solche, die keine Rechtecke sind, wie in Abbildung 3.2. Auf dem Linienstück Γ0 mit Parametrisierung y = x = t gilt für eine bilineare Funktion φh ∈ Q1 := span{1, x, y, xy}: φh (x, y) Γ0 = span{1, t, t2 }, diese Funktion ist entlang dieser Linie quadratisch und nicht linear. Durch die Vorgabe der zwei Eckpunkte ist diese Funktion nicht eindeutig festgelegt. Alle vier Basisfunktionen beeinflussen den Wert entlang dieser Kante. Der globale Ansatz ist nicht stetig, wenn nur die Stetigkeit in den Knoten vorgeschrieben wird. Ein sinnvoller bilinear Ansatz muss aus Basisfunktionen bestehen, die entlang jeder Kante linear sind. Dieses erreichen wir durch Transformation: 1. In einem ersten Schritt wird der Ansatz auf einem Referenzelement, etwa dem Einheitsviereck T̂ := (0, 1) × (0, 1) definiert. Dies ist einfach, da nur dieses eine Element betrachtet werden muss. 2. Auf diesem Referenzelement wird eine Referenzbasis {φ̂1 , . . . , φ̂r } definiert. Die Dimension dieser Basis entspricht der Anzahl der Knotenfunktionale (z.B. 4 bei bilinearen Finiten Elementen auf dem Viereck). 3. Um einen Finite Elemente Ansatz auf einer Zelle T ∈ Ωh des Gitters zu definieren wird eine Abbildung TT : T̂ → T definiert und mit Hilfe dieser Abbildung werden 60 3.2 Finite Elemente Methode TT x̂3 = (0, 1) x2 T ∈ Ωh T̂ x3 x̂2 = (1, 0) x̂1 = (0, 0) x1 Abbildung 3.3: Referenzdreieck und Transformation auf beliebiges T ∈ Ωh Basisfunktionen transformiert: x∈T : (i) φh (x) = φ̂(i) (TT−1 (x)). T (3.4) Einen solchen Finite Elemente Ansatz nennt man parametrisch. Falls die Transformation TT im gleichen Polynomraum ist, wie die Basis auf T̂ , also φ̂i ∈ P (T ) und TT ∈ P (T ), so spricht man von einem iso-parametrischen Ansatz. Beispiel 3.1 (Isoparametrische lineare Dreieckselemente). Es sei T̂ = {(x, y) : 0 ≤ x + y ≤ 1} das Referenzdreieck wie in Abbildung 3.3. In den drei Knoten definieren wir die linearen Basisfunktionen φ̂(1) (x̂, ŷ) = 1 − x̂ − ŷ, φ̂(2) (x̂, ŷ) = x̂, φ̂(3) (x̂, ŷ) = ŷ. Jetzt sei T ∈ Ωh ein beliebiges Dreieck mit Eckpunkten x1 , x2 , x3 ∈ Ω. Die Transformation TT : T̂ → T soll isoparametrisch sein, also auch aus dem Raum der linearen Funktionen kommen. Damit ist sie affin linear und setzt sich mit Hilfe der Basisfunktionen zusammen: TT (x̂) = x1 φ̂(1) (x̂) + x2 φ̂(2) (x̂) + x3 φ̂(3) (x̂). dies sieht man einfach wegen: TT (x̂i ) = 3 X j=1 xj φ̂(j) (x̂i ) = xi . | {z } =δij Wir können diese affin lineare Transformation auch schreiben als: TT (x̂) = BT x̂ + bT , mit einer Matrix BT ∈ R2×2 und einem Vektor bT ∈ R2 . Diese Matrix ist regulär, wenn die drei Punkte nicht auf einer Geraden liegen und es gilt det(BT ) > 0, falls die drei Eckpunkte xi in gleicher Reihenfolge (also hier gegen Uhrzeigersinn) wie die Referenzpunkte x̂i nummeriert sind. Auf dem Dreieck T gelten nun die Basisfunktionen: φ(i) (x) = φ̂(i) (TT−1 (x)) = φ̂(i) (BT−1 x − BT−1 bT ), mit der Eigenschaft: φ(i) (xj ) = φ̂(i) (TT−1 (xj )) = φ̂(i) (x̂j ) = δij . 61 3 Die Finite Elemente Methode für elliptische Probleme Im Fall von linearen Dreieckselementen fallen die isoparametrischen Ansätzen mit der einfachen Dreiecksbasis auf jedem Element zusammen. Dies liegt an der einfachen Struktur am Ansatzraum: Die Transformation TT sowie ihre Inverse TT−1 sind affin linear. Auch die Aneinanderkettung φ(i) ◦ TT−1 ist wieder eine lineare Funktion. Beispiel 3.2. Isoparametrische bilineare Viereckselemente Wir betrachten wieder den einfachen, bi-linearen Vierecksraum. Auf dem Referenzelement (links in Abbildung 3.2) wird der Raum der Bilinearen Funktionen P (K̂) = Q1 durch die Knotenbasis aufgespannt: φ̂(1) = 1 − x − y + xy, φ̂(2) = x − xy, φ̂(3) = xy, φ̂(4) = y − xy. Für diese Basisfunktionen gilt φ̂(i) (x̂j ) = δij . Entlang jeder Kante des Referenzelements sind die Basisfunktionen linear. Es sei nun K ∈ Ωh ein beliebiges Viereck mit Eckpunkten x1 , . . . , x4 ∈ . Die Transformation TK soll isoparametrisch, also TK ∈ P (K̂). Wir können die Transformation wieder einfach mit Hilfe der Knotenbasis erklären: TK (x̂) = 4 X xi φ̂(i) (x̂), i=1 denn es gilt wieder: TK (x̂j ) = 4 X xi φ̂(i) (x̂j ) = xj . i=1 Wir betrachten nun den speziellen Fall aus Abbildung 3.2 und die vier Eckpunkte in K ∈ Ωh seien gegeben durch: x1 = (0, 0), x2 = (1, 0), x3 = (2, 1), x4 = (0, 1). Dann gilt für die Transformation: TK (x̂) = (0, 0)T φ̂1 (x̂) + (1, 0)T φ̂2 (x̂) + (2, 1)T φ̂3 (x̂) + (0, 1)T φ̂4 (x̂) = x̂ + x̂ŷ ŷ ! Diese Transformation ist bilinear (in jeder Komponente) und liegt also im Polynomraum P (K̂). Für ihre Inverse gilt allerdings: −1 TK (x) = x 1+y y ! , sie ist eine rationale Funktion und liegt nicht mehr im Ansatzraum. Mit (3.4) können wir die Basisfunktionen auf der “Rechenzelle” K ∈ Ωh aufstellen: φ(1) (x) = 1 − y + xy − x , 1+y φ(2) (x) = x(1 − y) , 1+y φ(3) (x) = xy , 1+y φ(4) (x) = y(1 + y − x) . 1+y Man mache sich klar, dass φ(i) (xj ) = δij gilt. Es handelt sich nicht mehr um einen Polynomansatz! Entlang jeder Kante, z.B. Γ := x2 x3 = {(1 + s, s), s ∈ (0, 1)} sind die Basisfunktionen linear und hängen insbesondere nur noch von den beiden begrenzenden Eckpunkten ab: φ(1) |Γ (s) = 0, φ(2) |Γ (s) = 1 − s, φ(3) |Γ (s) = s, φ(4) |Γ (s) = 0. 62 3.3 Interpolation mit Finiten Elemente Γ Γ K Abbildung 3.4: Iso-parametrische Finite Elemente höherer Ordnung zur besseren RandApproximation. Die Verwendung von isoparametrischen Finiten Elementen ist der übliche Zugang für allgemeine Finite Elemente Ansätze. Die Konstruktion erscheint zunächst kompliziert, da die verwendeten Basisfunktionen keine Polynome mehr sind. Bei Betrachtungen zur Realisierung der Finite Elemente Methode werden wir jedoch feststellen, dass es zu keinem Zeitpunkt notwendig sein wird, die Funktionen φ(i) auf der Zelle K ∈ Ωh aufzustellen. Auswerten sowie Integration erfolgt stets durch Transformation auf das Referenzelement. Und hier liegen die klassischen Polynomansätze vor. Im folgenden Abschnitt zur Interpolation mit Finiten Elementen werden wir diese Argumentation bereits kennenlernen. Isoparametrische Ansätze haben eine besondere Bedeutung bei Verwendung höherer Ansatzgrade. Angenommen wir betrachten biquadratische Ansätze. Dann stehen auch zur Definition der Transformation von K̂ auf K biquadratische Funktionen zur Verfügung, für jedes Viereck also 9 Freiheitsgrade. Auf diese Weise können zusätzliche Freiheitsgrade auf dem Rand des Elementes verwendet werden. Wie in Abbildung 3.4 erlaubt dieses Vorgehen eine bessere Approximation von Gebieten mit “krummen Rändern”. Das eigentliche Element K ∈ Ωh ist somit gar kein Viereck mehr! 3.3 Interpolation mit Finiten Elemente Wesentlich für das weitere Vorgehen ist die Herleitung von Abschätzungen für den Interpolationsfehler in Finite Elemente Räumen. Es sei also Vh ein Finite Elemente Raum. Wir betrachten ausschließlich parametrische Finite Elemente. Dazu sei T̂ das Referenzelement, also ein festes Dreieck oder Viereck sowie T ∈ Ωh eine beliebiges Element des Gitters. Die Transformation sei TT : T̂ → T . Zunächst sei diese Transformation affin linear. D.h., für jedes Element T ∈ Ωh existiert eine Matrix BT ∈ Rd×d sowie ein Vektor bT ∈ Rd so dass gilt: TT (x̂) = BT x + bT x. Die Matrix BT sei ferner invertierbar. Satz 3.5 (Referenz-Interpolation). Auf dem Referenzelement T̂ sei durch P (T̂ ) ein Polynomraum mit dim(P (T̂ )) = R sowie ein Satz von linearen Knotenfunktionalen K(T̂ ) = {χ1 , . . . , χR } mit den folgenden Eigenschaften gegeben: 63 3 Die Finite Elemente Methode für elliptische Probleme 1. Der Ansatz sei unisolvent χi (p) = 0 i = 1, . . . , R ⇒ p = 0. 2. Für ein m ≥ 1 gilt P m−1 ⊂ P (T̂ ), d.h., der Polynomraum enthält alle Polynome bis zum Grad m − 1. 3. Die Knotenfunktionale sind stetig auf H m (Ω): i = 1, . . . , R : χi (v) ≤ ckvkH m (Ω) ∀v ∈ H m (Ω). Unter den Bedingungen 1. und 3. ist die Interpolationsaufgabe für jedes v ∈ H m (T̂ ) eindeutig lösbar, d.h., es existiert ein eindeutig bestimmtes IT̂ v ∈ P (T̂ ) mit χi (IT̂ v) = χi (v) ∀i = 1, . . . , R. Die Interpolation hat die Darstellung IT̂ v = R X χi (v)φ̂(i) , (3.5) i=1 mit der verallgemeinerten Lagrange-Basis {φ̂(i) , i = 1, . . . , R}, welche eindeutig durch die Bedingung χi (φ̂(j) ) = δij gegeben ist. Beweis: Wegen der Stetigkeit der Knotenfunktionale auf H m (Ω) ist die Aufgabe wohlgestellt. Die eindeutige Lösbarkeit folgt unmittelbar aus der Unisolvenz. Bedingung 2., also die Reichhaltigkeit des Polynomraums werden wir zur Herleitung von Fehlerabschätzungen für die Interpolation benötigen. 3.3.1 Das Bramble-Hilbert-Lemma Zunächst benötigen wir einige Hilfsätze: Hilfsatz 3.1 (Nullraum von Ableitungsoperatoren). Jede Funktion v ∈ H m (T̂ ) mit der Eigenschaft: Dα v = 0 ∀|α| = m, ist fast überall ein Polynom v ∈ P m−1 (T̂ ). Beweis: Wegen Dα v = 0 für |α| = m folgt für beliebigen Multiindex β also Dβ Dα = 0, d.h., es gilt: k v ∈ ∩∞ k=1 H (T̂ ). Und mit dem Einbettungssatz in Räume stetiger Funktionen 2.17 folgt v ∈ C ∞ (T̂ ) und insbesondere v ∈ C m (T̂ ). Die Aussage folgt nun etwa durch m-maliges bilden der Stammfunktion von Dα v = 0. 64 3.3 Interpolation mit Finiten Elemente Hilfsatz 3.2 (Polynomprojektion). Für jede Funktion v ∈ H m (T̂ ) existiert eine eindeutig bestimmte Projektion q ∈ P m−1 (T̂ ) mit den Eigenschaften: Z Dα (v − q) dx = 0 0 ≤ |α| ≤ m − 1. T̂ Beweis: Wir konstruieren q ∈ P m−1 (T̂ ) gemäß dem Ansatz: X q(x) = ξβ x β , |β|≤m−1 mit den Koeffizienten ξβ ∈ R. Es muss gelten: Z X ξβ |β|≤m−1 Z α β D x dx = T̂ Dα v dx ∀|α| ≤ m − 1. T̂ Dieses Problem ist ein quadratisches lineares Gleichungssystem mit Matrix Z A = (Aαβ )|α|,|β|≤m−1 , Aαβ := Dα xβ dx. T̂ Diese Matrix ist regulär. Ansonsten würde es Koeffizienten ξ := (ξ β )|β|≤m−1 geben mit ξ 6= 0 P aber Aξ = 0. Das zugehörige Polynom q(x) = ξ β xβ vom Grad m − 1 hätte die Eigenschaft R α T̂ D q dx = 0 für alle |α| ≤ m − 1. Hieraus folgt im Widerspruch zur Annahme q = 0. Hilfsatz 3.3 (Verallgemeinerte Poincare-Ungleichung). Für jede Funktion v ∈ H m (T̂ ) mit der Eigenschaft: Z Dα v dx = 0 ∀|α| ≤ m − 1, (3.6) T̂ gilt kvkH m (T̂ ) ≤ c0 |v|H m (T̂ ) , mit einer Konstante c0 , welche nicht von v abhängt. Beweis: Angenommen, diese Ungleichung würde nicht gelten. D.h., zu jeder Konstante cv > 0 existiert ein v ∈ H m (T̂ ) mit Eigenschaft (3.3) und mit kvkH m > cv |v|H m (T̂ ) . Dann existiert also auch eine Folge von Funktionen vn ∈ H m (T̂ ) mit: 1 = kvn kH m (T̂ ) ≥ n|vn |H m (T̂ ) , n ∈ N. (3.7) Die Eigenschaft kvn kH m (T̂ ) = 1 folgt durch einfache Normierung. Die Einbettung von H m (T̂ ) ,→ H m−1 (T̂ ) ist kompakt, siehe Satz 2.16. Also hat die beschränkte Folge vn eine in H m−1 (T̂ ) konvergente Teilfolge (welche wir wieder mit vn bezeichnen): kvn − vkH m−1 (T̂ ) → 0. (3.8) 1 →0 n (3.9) Mit der Annahme (3.7) folgt: |vn |H m (T̂ ) ≤ (n → ∞). 65 3 Die Finite Elemente Methode für elliptische Probleme Zusammen mit (3.8) folgt, dass vn in H m (T̂ ) Cauchy-Folge ist, denn: kvk − vl k2H m (Ω) = kvk − vl k2H m−1 (Ω) + |vk − vl |2H m (Ω) ≤ kvk − vk2H m−1 (Ω) + kvl − vk2H m−1 (Ω) + |vk |2H m (Ω) + |vl |2H m (Ω) → 0. Wegen der Vollständigkeit existiert ein vn → ṽ ∈ H m (Ω) und wegen (3.8) gilt v = ṽ aus (3.8). Aus Hilfsatz 3.1 folgt jetzt v ∈ P m−1 (T̂ ). Weiter gilt mit (3.6) Z Dα v dx = lim Z k→∞ T̂ T̂ Dα vk dx |α| ≤ m − 1. Hieraus folgt v = 0 im Widerspruch zur Annahme (3.7). Mit diesen Hilfsätzen kann nun der folgende Satz bewiesen werden: Satz 3.6 (Bramble-Hilbert-Lemma). Es sei F (·) : H m (T̂ ) → R ein Funktional mit den folgenden Eigenschaften: 1. Beschränktheit |F (v)| ≤ c1 kvkH m (T̂ ) ∀v ∈ H m (T̂ ) 2. Sublinearität |F (u + v)| ≤ c2 (|F (u)| + |F (v)|) ∀u, v ∈ H m (T̂ ) 3. Verschwindet auf P m−1 (T̂ ) F (q) = 0 ∀q ∈ P m−1 (T̂ ) Dann gilt mit der Konstante c0 aus der verallgemeinerten Poincaré-Ungleichung, Hilfsatz 3.3 |F (v)| ≤ c0 c1 c2 |v|H m (T̂ ) . Beweis: Für ein v ∈ H m (T̂ ) gilt mit beliebigem Polynom q ∈ P m−1 (T̂ ) |F (v)| = |F (v − q + q)| ≤ c2 |F (v − q)| + |F (q)| ≤ c1 c2 kv − qkH m (T̂ ) . Das Polynom q ∈ P m−1 (T̂ ) wird nun gemäß Hilfsatz 3.2 gewählt, dann folgt mit der verallgemeinerten Poincaré-Ungleichung |F (v)| ≤ c0 c1 c2 |v − q|H m (T̂ ) = c0 c1 c2 |v|H m (T̂ ) . Eine einfache Anwendung des Bramble-Hilbert-Lemmas ist die Herleitung einer Interpolationsabschätzung auf dem Referenzelement T̂ , denn der Interpolationsoperator Ih erfüllt gerade die Anforderungen an das Funktional aus dem Bramble-Hilbert-Lemma: 66 3.3 Interpolation mit Finiten Elemente Satz 3.7 (Allgemeiner Interpolationssatz). Es sei IT̂ ein Interpolationsoperator mit den Eigenschaften von Satz 3.5. Dann gilt für jede Funktion v ∈ H m (T̂ ) die Abschätzung: |v − IT̂ v| ≤ c|v|H m (T̂ ) , bzgl. einer beliebigen, auf H m (T̂ ) stetigen Halbnorm | · |. Beweis: Ohne Einschränkung sei |v| ≤ kvkH m (T̂ ) für alle v ∈ H m (T̂ ). Wir betrachten das Funktional: F (v) := |v − IT̂ v|. Dieses Funktional erfüllt die Eigenschaften des Bramble-Hilbert-Lemmas. Denn mit Darstellung (3.5) gilt |F (v)| ≤ |v| + |IT̂ v| ≤ |v| + R X |χi (v)| |φ̂(i) | ≤ (1 + Rc max |φ̂(i) |)kvkH m (T̂ ) , i=1,...,R i=1 falls alle Knotenfunktionale χi auf H m beschränkt sind. Dies muss von Fall zu Fall untersucht werden. Etwa die Vorgabe von Ableitungswerten in Eckpunkten benötigt sehr hohe Regularität, Beschränktheit gilt also nur in Räumen H m (T̂ ) mit großem m. Für die Interpolation gilt IT̂ q = q für alle Polynome q ∈ P m−1 (T̂ ). Also gilt F (q) = 0 für alle q ∈ P m−1 (T̂ ). Somit ergibt das Bramble-Hilbert-Lemma die gewünschte Abschätzung. Dieses abstrakte Resultat ist sehr allgemein und kann nun auf verschiedene Normen konkretisiert werden. Die Halbnorm | · | muss lediglich stetig auf H m (T̂ ) sein. Wir betrachten einige Beispiele: 1. L2 -Fehler. Es gilt: |v − IT̂ v| := kv − IT̂ vkL2 (T̂ ) ≤ kv − IT̂ vkH m (T̂ ) m ∈ N. 2. H k (T̂ )-Halbnorm. Wie oben gilt: |v − IT̂ v| := |v − IT̂ v|H k (T̂ ) ≤ kv − IT̂ vkH m (T̂ ) 0 ≤ k ≤ m. 3. Maximum-Fehler. In zwei und drei räumlichen Dimensionen gilt wegen der Einbettung von Sobolew-Räumen in die Räume stetiger Funktionen: |v − IT̂ v| := max |v − IT̂ v| ≤ ckv − IT̂ vkH 2 (T̂ ) . x∈T̂ 4. Auf jeder Kante Γ ⊂ T̂ gilt mit dem Spursatz: |v − IT̂ v| := kv − IT̂ vkΓ ≤ ckv − IT̂ vkH 1 (T̂ ) . 5. Der Fehler kann anstelle von Normen auch in Mittelwerten gemessen werden, etwa: Z |v − IT̂ v| := (v − IT̂ v) dx ≤ ckv − IT̂ vkL1 (T̂ ) . T̂ 67 3 Die Finite Elemente Methode für elliptische Probleme Auf dem festen Referenzelement T̂ gilt also eine Interpolationsabschätzung in sehr beliebigen Halbnormen. Die eigentliche Aufgabe ist es nun, eine Interpolationsabschätzung auf den Elementen T ∈ Ωh der Triangulierung herzuleiten. Jedes Element wird durch eine Transformation TT : T̂ → T erzeugt. Die Interpolation IT v auf dem Element T ∈ Ωh ist durch einen parametrischen Ansatz gebildet, es gilt nicht IT v ∈ P (T̂ ), sondern IT̂ v̂ ∈ P (T̂ ) mit: IT̂ v̂(x̂) = IT v(x), x = TT (x̂) = BT x̂ + bT . Hilfsatz 3.4 (Eigenschaften der Transformation). Es sei TT : T̂ → T eine affin lineare Transformation TT (x̂) = BT x̂ + bT mit einer regulären Matrix BT mit det(BT ) > 0 sowie einem Vektor bT . Für eine Funktion fˆ ∈ W 1,∞ (T̂ ) und f ∈ W 1,∞ (T ) mit fˆ(x̂) = f (x) gilt: Z f (x) dx = | det BT | T Z fˆ(x̂) dx̂, T̂ ∂i f (x) = Z T̂ d X (−1) bji ∂ˆj fˆ(x̂), fˆ(x̂) dx̂ = | det BT−1 | ∂ˆi f (x̂) = j=1 d X Z f (x) dx, (3.10) T bji ∂j f (x), (3.11) j=1 1 |f |H k (T ) ≤ c| det BT | 2 kBT−1 kk |fˆ|H k (T̂ ) , (−1) d )ij=1 mit B = (bij )dij=1 und BT−1 = (bij sion des Gebiets d abhängt. 1 |fˆ|H k (T̂ ) ≤ c| det BT−1 | 2 kBT kk |f |H k (T ) , (3.12) und einer Konstante c, welche nur von der Dimen- Beweis: (i) Zunächst gilt mit dem Transformationssatz unmittelbar: Z Z f (x) dx = T Z f (x) dx = TT (T̂ ) | det(∇TT )|fˆ(x̂) dx̂ = | det BT | T̂ Z fˆ(x̂) dx̂. (3.13) T̂ Entsprechend wird die Rückrichtung bewiesen. (ii) Für die Ableitung gilt: ∂i f (x) = ∂i fˆ(x̂) = d X ∂ x̂j . ∂ˆj fˆ(x̂) ∂i j=1 −1 (x) = BT−1 x − BT−1 bT also gilt weiter: Es ist x̂ = TK ∂i f (x) = d X (−1) ∂ˆj fˆ(x̂)bji . (3.14) j=1 Auch hier folgt die Rückrichtung entsprechend. (iii) Aus 3.14 leiten wir eine Abschätzung her: |∂i f | ≤ kBT−1 k∞ max |∂ˆj fˆ|, j=1,...,d wobei k · k∞ eine für eine beliebige Matrix-Norm stehen kann. Nun sei α ein beliebiger Multiindex. Mehrfache Anwendung liefert: β ˆ |Dα f | ≤ kBT−1 k|α| ∞ max |D̂ f |. |β|=|α| 68 3.3 Interpolation mit Finiten Elemente Quadrieren und integrieren liefert zusammen mit 3.13: |f |2H k (T ) Z = T X α 2 |D f | dx ≤ | det BT | kBT−1 k2k ∞ Z T |α|=k X |α|=k max |D̂β fˆ|2 dx̂. |β|=|α| Wurzelziehen liefert das Ergebnis. Die Rückrichtung transformiert sich entsprechend. . Hilfsatz 3.5 (Eigenschaften der Transformation). Es sei TT : T̂ → T mit TT (x̂) = BT x̂ + bT eine affin lineare Transformation. Es seien ρ̂ und ĥ Inkreisradius und Durchmesser von T̂ , sowie ρT und hT Inkreisradius und Durchmesser von T . Dann gilt: kBT k ≤ c hT , ρ̂ kBT−1 k ≤ c ĥ . ρT Beweis: Übungsaufgabe. Mit diesen Vorbereitungen kann der folgende, für uns wichtige Interpolationssatz bewiesen werden: Satz 3.8 (Spezielle Interpolation). Es sei T ∈ Ωh ein Dreieck mit Inkreisradius ρT und Durchmesser hT . Für jedes v ∈ H m (T ) und die zugehörige Interpolation IT v ∈ P (T ) in den Raum der parametrischen Finite Elemente von Ordnung m − 1 gilt: |v − IT v|H k (T ) ≤ cI hm T |v|H m (T ) ρkT 0 ≤ k ≤ m. Beweis: (i) Auf dem Dreieck T ist die Interpolation konstruiert gemäß: IT̂ v̂(x̂) = IT v(TT (x̂)), wobei v̂(x̂) = v(TT (x̂)) = v(x). Auf dem Referenzdreieck gilt mit Satz 3.7 |v̂ − IT̂ v̂|H k (T̂ ) ≤ c|v|H m (T̂ ) , denn | · |H k (T̂ ) ist auf H m (T̂ ) mit k ≤ m eine stetige Halbnorm. (ii) Wir transformieren den Interpolationsfehler mit Hilfe von (3.12) auf das Referenzdreieck: 1 |v − IT v|H k (T ) ≤ | det BT | 2 kBT−1 kk |v̂ − IT̂ v̂|H k (T̂ ) . (3.15) (iii) Auf der Referenzzelle wenden wir nun den allgemeinen Interpolationssatz 3.7 an und transformieren entsprechend mit 3.12 zurück: 1 |v̂ − IT̂ v̂|H k (T̂ ) ≤ cI |v̂|H m (T̂ ) ≤ cI | det BT−1 | 2 kBT km ∞ |v|H m (T ) . Zusammen mit (3.15) erhalten wir: 1 1 |v − IT v|H k (T ) ≤ cI | det BT | 2 | det BT−1 | 2 kBT−1 kk∞ kBT km ∞ |v|H m (T ) . Mit Hilfsatz 3.5 und | det BT−1 | = | det BT |−1 folgt die Abschätzung. Die Interpolation ist eine lokale Eigenschaft auf jedem Element T ∈ Ωh . Dennoch lässt sich für eine größen- und formreguläre Triangulierung eine globale Interpolationsabschätzung herleiten: 69 3 Die Finite Elemente Methode für elliptische Probleme Satz 3.9 (Globale Interpolationsabschätzung). Es sei Ωh eine form-, größen- und strukturreguläre Triangulierung mit h := maxT ∈Ωh hT . Dann gilt für jedes v ∈ H m (Ω) und die zugehörige Interpolation Ih v in den Raum der parametrischen Finiten Elemente von Ordnung m − 1 die Abschätzung: |v − Ih v|H k (Ω) ≤ cI hm−k |v|H m (Ω) 0 ≤ k ≤ m. Beweis: Übungsaufgabe. Dieser Satz liefert uns die wichtigen Interpolationsabschätzungen für lineare Finite Elemente: k∇(u − Ih u)k ≤ cI hk∇2 uk, ku − Ih uk ≤ cI h2 k∇2 uk ∀u ∈ H 2 (Ω). Zusammen mit dem Lemma von Cea, Satz 3.4 und der Regularitätsabschätzung der Lösung, Satz 2.24 folgt unmittelbar eine Fehlerabschätzung für den Fehler der Galerkin-Approximation der Poisson-Gleichung in der Energie-Norm: k∇(u − uh )k ≤ M M M k∇(u − Ih u)k ≤ cI h k∇2 uk ≤ cI cs h kf k. γ γ γ Abschließend beweisen wir noch eine für die Analyse von Finite Elemente Verfahren wichtige Ungleichung: Satz 3.10 (Inverse Beziehung). Es sei vh ∈ Vh eine parametrische Finite Elemente Funktion vom Grad m − 1. Auf jeder Zelle des Gitters gilt die Beziehung: |vh |H k (T ) ≤ c hsT |v|H s (T ) ρkT 0 ≤ s ≤ k ≤ m − 1. Beweis: Es sei q̂ ∈ P (T̂ ) ein Polynom vom maximalen Grad m − 1 auf der Referenzzelle. Dieser Polynomraum ist endlich-dimensional, d.h., alle Normen sind auf diesem Raum äquivalent. D.h., die Ungleichung gilt auf dem Referenzelement |q̂|H k (T̂ ) ≤ ĉ|q̂|H s (T̂ ) s ≤ k ≤ m − 1. Die Aussage folgt nun durch Transformation auf T → T̂ → T . 3.3.2 Die Clement-Interpolation Der natürliche Raum zur Analyse von elliptischen Differentialgleichungen ist der SobolewRaum H01 (Ω). Der Makel der Knoteninterpolation ist die Verwendung von Punktwerten zur Definition des Interpolationsoperators mittels Ih v(ai ) = v(ai ). Diese Knotenfunktionale sind auf H01 (Ω) nicht stetig definiert. Oft benötigen wir jedoch Interpolationen von Funktionen mit dieser minimalen Regularität. Die Clement-Interpolation ist ein Interpolationsoperator welcher anstelle von Funktionsauswertungen lokale Mittelwerte verwendet. Diese Mittelwerte sind als Funktionale auf dem H 1 beschränkt. Wir definieren: 70 3.3 Interpolation mit Finiten Elemente Abbildung 3.5: Definition der Patche. Links: Knotenpatch und “kleine Zellpatch” PT . Mitte: “großer Zellpatch” P̃T . Rechts: “kleiner Kantenpatch” PE (hell) und “großer Kantenpatch” P̃E (dunkel). Definition 3.9 (Patch). Sei Ωh ein strukturreguläres Gitter. Für jeden Knoten a ∈ Ωh , jedes Element T ∈ Ωh und jede Kante E ∈ Ωh definieren wir den Knotenpatch Pa ∈ Ωh , die Zellpatche PT ∈ Ωh und P̃T ∈ Ωh sowie die Kantenpatche PE ∈ Ωh und P̃E ∈ Ωh Pa := [ T T ∈Ωh , xi ∈T̄ T 0, [ PT := T 0 ∈Ωh , ∃E∈Ωh , E=T̄ ∩T̄ 0 P̃T := [ Pa , Pa ∈Ωh , a∈T̄ PE := T 0, [ T 0 ∈Ωh , E⊂T 0 P̃E := [ Pa Pa ∈Ωh , a∈Ē In Abbildung (3.5) zeigen wir ein Beispiel solcher Patche. Zur Definition des ClementInterpolationsoperators Ch : V → Vh werden nun anstelle von Punktwerten v(a) Mittelwerte über die Knotenpatche Pa verwendet. Diese Funktionale sind auf dem V = H01 (Ω) beschränkt. Satz 3.11 (Clement-Interpolation). Es sei Ωh ein form- größen- und strukturreguläres Gitter. Dann gibt es einen stetigen linearen Operator Ch : V → Vh in den Raum der linearen Finiten Elemente mit den folgenden Eigenschaften: 1 kv − Ch vkL2 (T ) ≤ chT k∇vkL2 (P̃T ) , kv − Ch vkL2 (E) ≤ chE2 k∇vkL2 (P̃E ) ∀v ∈ V = H01 (Ω). Beweis: Wir definieren zunächst die Knotenfunktionale der Clement-Interpolation. Für jeden Knoten xi ∈ Ωh sei: χi : L2 (Pxi ) → R, χi (v) := R 1 |Pxi | Pxi 0 v(x) dx xi 6∈ ∂Ω xi ∈ ∂Ω 71 3 Die Finite Elemente Methode für elliptische Probleme Diese Knotenfunktionale sind linear, auf L2 (Ω) und also auch auf V = H01 (Ω) beschränkt. Nun sei P̂x ein Referenzpatch. Hier gilt: |χ̂i (v̂)| = 1 |P̂x | Z P̂x v̂ dx̂ ≤ ckv̂kP̂x . Weiter sei Txi : P̂x → Pxi mit det(∇Tx ) = |Pxi | = O(h2 ) und k∇Txi k∞ = O(hi ). Dann gilt: kv − χi (v)k2L2 (Px ) ≤ h2 kv̂ − χ̂i (v̂)k2L2 (P̂ ) . x i Weiter mit dem Bramble-Hilbert-Lemma und Rücktransformation: ˆ 2 ≤ cbhl h2 k∇vk2 2 kv − χi (v)k2L2 (Px ) ≤ h2 cbhl k∇v̂k i L (Px ) . P̂ x i i (ii) Wir definieren die Interpolierende als: Ch v(x) := (i) X χi (v)φh (x) ∀v ∈ V. xi ∈Ωh Für die Knotenbasis gilt X (i) φh (x) ≡ 1, xi ∈T̄ T (i) da die Interpolation auch in den Randknoten definiert ist. Weiter folgt mit kφh kL∞ (T ) ≤ 1: X (i) X (i) φh − χi (v)φh kv − Ch vkT = v xi ∈T̄ xi ∈T̄ T X X (i) ≤ k(v − χi (v))φh kT ≤ xi ∈T̄ kv − χi (v)kPxi ≤ xi ∈T̄ X cbhl hi k∇vkPxi xi ∈T̄ q ≤ cbh c(T )h̃T k∇vkP̃T , mit h̃T = diam(P̃T ) und c(T ) der Anzahl der Zellen in einem Patch. Aus der Formregularität des Gitters folgt c(T ) ≤ cT gleichmäßig in h → 0. Die Abschätzung des Interpolationsfehlers auf der Kante folgt entsprechend durch geeignete Transformation auf die Referenzkante. Die Clement-Interpolation wird H 1 -stabil genannt. Es gilt: Satz 3.12 (H 1 -Stabilität der Clement-Interpolation). Auf einem form-, größen und strukturregulärem Gitter Ωh folgt für die Clement-Interpolation: k∇Ch vkL2 (T ) ≤ ck∇vkP̃T . Beweis: Die Knotenfunktionale sind H 1 -stabil. Deswegen kann auf gleichem Wege die H 1 Fehlerabschätzung hergeleitet werden: k∇(v − Ch v)kL2 (T ) ≤ cI k∇vkP̃T . Dann gilt: k∇Ch vkT ≤ k∇(v − Ch v)kT + k∇vkT . Hieraus folgt die Behauptung. 72 3.4 A priori Fehleranalyse für Finite Elemente Verfahren 3.4 A priori Fehleranalyse für Finite Elemente Verfahren Wir betrachten das homogene Dirichlet-Problem u ∈ H01 (Ω) : a(u, φ) = (f, φ) ∀φ ∈ V, mit einer elliptischen, beschränkten Bilinearform. Die natürliche Fehlernorm für elliptische partielle Differentialgleichungen ist die H01 (Ω)Norm. Denn in dieser Norm gilt die Bestapproximationseigenschaft, bzw. das Lemma von Cea. Wir erhalten: Satz 3.13 (A priori Abschätzung für den Energiefehler). Es sei Ω ein konvexes Polygongebiet, f ∈ L2 (Ω). Weiter sei Ωh ein größen-, form- und strukturreguläres Dreiecksgitter. Es (m) sei uh ∈ Vh die Finite Elemente Lösung im Raum der parametrischen Finiten Elementen vom Grad m. Im Fall u ∈ H m+1 (Ω) gilt die a priori Abschätzung: cI cs m k∇(u − uh )k ≤ h kf kH m−1 (Ω) . γ Beweis: Mit dem Lemma von Cea gilt k∇(u − uh )k ≤ 1 k∇(u − φh )k γ (m) ∀φh ∈ Vh . (m) Wir wählen φh := Ih u die Interpolation. Da u ∈ H m+1 (Ω) gilt mit Satz 3.9 k∇(u − uh )k ≤ cI m m+1 h k∇ uk. γ Mit der Stabilitätsabschätzung für die Lösung u aus Satz 2.25 folgt die Aussage. 3.4.1 Der Aubin-Nitsche Trick Die Abschätzung in der Energienorm ist einfach, da gerade in dieser Norm die Elliptizität der Bilinearformkvk2V ≤ γ −1 a(v, v) gilt. Der Zusammenhang zwischen Norm und Bilinearform, also zwischen Norm und schwacher Formulierung, erlaubt die einfache Herleitung einer Fehlerabschätzung. Bei den Finite Differenzen Verfahren ist die Maximum-Norm die natürliche Norm zu Betrachtung der Konvergenz. Um eine Fehlerabschätzung für die Finite Elemente Methode in einer anderen Norm als der Energienorm herzuleiten benötigen wir zunächst einen Ersatz für die Elliptizität. Schlüssel hierzu ist der sogenannte Aubin-Nitsche-Trick. Satz 3.14 (Duales Problem). Sei u ∈ V schwache Lösung von a(u, φ) = l(φ) für alle φ ∈ V , l ∈ V ∗ , a : V × V → R elliptische, beschränkte Bilinearform. Zu einem gegebenen linearen Fehlerfunktional J : V → R besitzt das duale Problem z∈V : a(φ, z) = J(φ) ∀φ ∈ V, (3.16) eine eindeutig bestimmte schwache Lösung z ∈ V und es gilt: kzkV ≤ M kJkV ∗ . γ 73 3 Die Finite Elemente Methode für elliptische Probleme Beweis: Wir definieren die adjungierte Bilinearform a∗ (z, φ) := a(φ, z) ∀z, φ ∈ V. Diese Bilinearform ist wieder elliptisch und beschränkt. Also ist das Lemma von Lax-Milgram auf das duale Problem anwendbar und liefert auch die a priori Fehlerabschätzung. Bevor wir konkrete duale Probleme und Anwendungen kennenlernen skizzieren wir kurz das weitere Vorgehen. Angenommen, zu einem gegebenen Fehlerfunktional J : V → R ist die duale Lösung z ∈ V bekannt. Dann gilt für den Fehler u − uh ∈ V der GalerkinApproximation die Identität: J(u − uh ) = a(u − uh , z), und weiter mit der Galerkin-Orthogonalität sowie der Stetigkeit der Bilinearform: J(u − uh ) = a(u − uh , z − φh ) ≤ M ku − uh kV kz − φh kV ∀φh ∈ Vh . D.h., der Fehler in einem beliebigen Fehlerfunktional J ist gegeben als das Produkt aus Energiefehler ku − uh kV und Approximationsfehler der dualen Lösung. Es gilt nun, die duale Lösung genauer abzuschätzen. Dies muss je nach Fehlerfunktional getrennt geschehen. Beispiel 3.3 (Duales Problem). Wir betrachten zunächst einige Fehlerfunktionale. Der L2 Fehler wird durch die rechte Seite J(φ) := (u − uh , φ) ku − uh k−1 , realisiert. Dieses Funktional ist in φ linear, es gilt wie gewünscht J(u − uh ) = ku − uh k und es handelt sich um ein lineares Funktional in H −1 (Ω), ja sogar in L2 (Ω)∗ , denn: |J(φ)| ≤ ku − uh k kφk ku − hh k−1 ≤ kφk ∀φ ∈ L2 (Ω). Nach dem Riesz’schen Darstellungssatz existiert ein j ∈ L2 (Ω), mit: (j, φ) = J(φ) ∀φ ∈ L2 (Ω), kjkL2 (Ω) = kJkL2 (Ω)∗ = 1. Ein weiteres Beispiel für ein Fehlerfunktional ist der Mittelwert über die Richtungsableitung der Lösung: Z J(φ) = ∂x φ dx, ⇒ |J(φ)| ≤ Z Ω Ω |∂x φ| dx ≤ Z Ω |∇φ| dx ≤ c(Ω)k∇φkL2 (Ω) ∀φ ∈ H01 (Ω). Dieses Funktional liegt in H −1 (Ω). Die duale Gleichung ist durch die duale Bilinearform a∗ (z, φ) = a(φ, z) gegeben. Für symmetrische Probleme, wie die Poisson-Gleichung −∆u = f gilt a∗ (z, φ) := a(φ, z) = (∇φ, ∇z) = (∇z, ∇φ) = a(z, φ), d.h., das duale Problem hat die gleiche Form wie das ursprüngliche: −∆z = j. 74 3.4 A priori Fehleranalyse für Finite Elemente Verfahren Ist die Gleichung nicht symmetrisch, so ändert sich das duale Problem. Wir betrachten die Diffusions-Transport-Gleichung: −∆u + ∂x u = f ⇒ a(u, φ) = (∇u, ∇φ) + (∂x u, φ). Die duale Gleichung errechnet sich durch partielle Integration: a∗ (z, φ) := a(φ, z) = (∇φ, ∇z) + (∂x φ, z) = (∇z, ∇φ) − (∂x z, φ) + Z nx · (φz) ds . ∂Ω | {z =0 } Hier ist a∗ (z, φ) 6= a(z, φ) und im dualen Problem dreht sich die Transportrichtung: −∆z − ∂x z = j. Wir kommen nun zu der zentralen Anwendung des Aubin-Nitsche-Tricks, einer Herleitung für den L2 -Fehler der Galerkin-Approximation: Satz 3.15 (A priori Fehlerabschätzung für den L2 -Fehler). Es gelten die Voraussetzungen (m) von Satz 3.13. Für die Finite Elemente Lösung u ∈ Vh vom Grad m gilt bei entsprechender Regularität der Lösung u ∈ H m+1 (Ω) die L2 -Fehlerabschätzung: ku − uh k ≤ M c2i c2s m+1 h kf kH m−1 (Ω) . γ Beweis: Wir betrachten das duale Problem z ∈ H01 (Ω) : a(φ, z) = J(φ), J(φ) := (eh , φ)keh k−1 . Es gilt eh ∈ H01 (Ω), also beschreibt die rechte Seite J ein lineares beschränktes Funktional L2 (Ω) → R, denn |J(φ)| = |(φ, eh )| keh k−1 ≤ kφk ∀φ ∈ L2 (Ω). Nach dem Riesz’schen Darstellungssatz existiert somit ein Repräsentant j ∈ L2 (Ω) mit: (j, φ) = J(φ) φ ∈ L2 (Ω) ⇒ kjk = 1. Mit Satz 2.24 folgt also wegen den Voraussetzungen an das Gebiet für die duale Lösung z ∈ H 2 (Ω) und: kzkH 2 (Ω) ≤ cs kjkL2 (Ω) = cs . Die Galerkin-Orthogonalität liefert jetzt keh k = J(eh ) = a(eh , z) = a(eh , z − φh ) ≤ M k∇eh k k∇(z − φh )k ∀φh ∈ Vh . (3.17) Der erste Teil ist gerade der Energiefehler aus Satz 3.13. Der zweite Term wird mit der Interpolation φh := Ih z und der Stabilität des dualen Problems weiter abgeschätzt: keh k ≤ M ci cs m M c2i c2s m+1 h kf kH m−1 (Ω) ci hk∇2 zk ≤ h kf kH m−1 (Ω) . γ γ (3.18) 75 3 Die Finite Elemente Methode für elliptische Probleme Das duale Problem wird hier nur als analytisches Hilfsmittel verwendet. Es muss nicht explizit berechnet werden, wir benötigen lediglich eine Abschätzung für den Interpolationsfehler. Später, bei der Betrachtung von a posteriori Fehlerschätzern werden wir duale Probleme als Hilfsprobleme numerisch approximieren. Die Abschätzung für den L2 -Fehler ist um eine Ordnung besser als die Energie-Abschätzung. Man könnte auf die Idee kommen, in (3.18) bei der Abschätzung des dualen Interpolationsfehlers (bei Verwendung von z.B. quadratischen Finiten Elementen) eine höhere Approximationsordnung, etwa k∇(z − Ih z)k ≤ ch2 k∇3 zk zu nutzen. Dies würde die Gesamtordnung des L2 -Fehlers verbessern. Für die rechte Seite des dualen Problems gilt: j := u − uh ∈ H01 (Ω). ku − uh k Nach dem Regularitätssatz 2.25 folgt also falls das Gebiet hinreichend regulär ist z ∈ H 3 (Ω) mit k∇z 3 k ≤ cs k∇jk. Die duale Lösung verfügt also über die entsprechende Regularität um die volle Approximation mit quadratischen Finiten Elementen auszunutzen. Wir setzen in Schritt (3.17) des Beweises zu Satz 3.15 ein und verwenden die Approximationseigenschaften im Raum der quadratischen Finiten Elemente: keh k ≤ M k∇eh k k∇(z − Ih z)k ≤ M cI cs 2 M c2I c2s 4 h kf kH 1 (Ω) cI h2 k∇3 zk ≤ h kf kH 1 (Ω) k∇jk. γ γ Weiter, mit der Definition von j ergibt sich: keh k ≤ M c2I c2s 4 k∇eh k h kf kH 1 (Ω) γ keh k ⇒ keh k2 ≤ M 2 c3I c3s 6 h kf k2H 1 (Ω) . γ2 Nach Wurzelziehen folgt Konvergenz dritter Ordnung für den L2 -Fehler, also erhalten wir wieder nur eine Ordnung mehr als im Fall des Energiefehlers. Es stellt sich die Frage nach der maximalen Ordnung, welche in beliebigen linearen Fehlerfunktionalen erreicht werden kann. Beispiel 3.4. Wir betrachten die Poisson-Gleichung mit einer rechten Seite f : u ∈ H01 (Ω) : (∇u, ∇φ) = (f, φ) ∀φ ∈ H01 (Ω). Die Daten seien hinreichend regulär kukH m+1 (Ω) ≤ cs kf kH m−1 (Ω) , so dass die EnergiefehlerAbschätzung gilt: k∇(u − uh )k ≤ cI cs hm kf kH m−1 (Ω) . Als Fehlerfunktional betrachten wir den Mittelwert der Lösung: Z J(φ) = φ dx. Ω Die duale Lösung z ist gegeben durch: z ∈ H01 (Ω) : 76 (∇z, ∇φ) = (φ, 1) ∀φ ∈ H01 (Ω). 3.4 A priori Fehleranalyse für Finite Elemente Verfahren Die rechte Seite ist konstant 1 und erfüllt somit jede gewünschte Regularitätsstufe: kzkH m+1 (Ω) ≤ cs k1kH m−1 (Ω) = cs c(Ω). Für den Fehler im Mittelwert gilt durch Einschieben der Interpolation und der Energieabschätzung: |J(eh )| = |(∇eh , ∇z)| ≤ k∇eh k k∇(z − Ih z)k ≤ cI cs hm kf kH m−1 (Ω) cI hm k∇m+1 zk. Mit der Regularitätsabschätzung der dualen Lösung folgt die a priori Abschätzung für den Mittelwert des Fehlers: |J(eh )| ≤ ch2m kf kH m−1 (Ω) . Es liegt hier also gerade die doppelte Konvergenzordnung im Vergleich zum Energiefehler vor. L∞ -Fehlerabschätzungen Eine besondere Stellung nehmen L∞ -Fehlerabschätzungen ein. Im Fall von Finiten Differenzen ist die Maximum-Norm die natürliche Norm zur Fehlerkontrolle. Bei der Finite Elemente Approximation erweist sich diese Norm jedoch als sehr sperrig. Abschätzungen in der L∞ -Norm werden auch als punktweise Abschätzungen bezeichnet. Zunächst ist klar, dass um den Approximationsfehler in einem Punkt a ∈ Ω abschätzen zu können die Regularität u ∈ H 2 (Ω) vorliegen muss. Ansonsten könnte die Beschränktheit des Fehlers (u − uh )(a) nicht garantiert werden. Wir beweisen: Satz 3.16 (Suboptimale L∞ -Abschätzung). Angenommen u ∈ H 2 (Ω), dann gilt für den Fehler der linearen Finite Elemente Approximation punktweise: max |eh | ≤ chk∇2 uk. x∈Ω̄ Beweis: Wir betrachten den Punkt a ∈ Ω̄. Dann existiert ein T ∈ Ωh mit a ∈ T̄ . Für jede diskrete Funktion vh ∈ Vh gilt: max |vh | ≤ ch−1 kvh kT (3.19) T Dies folgt durch Transformation auf das Referenz-Element, Ausnutzen der Äquivalenz der Normen und Rücktransformation: 1 max |vh | = max |v̂h | ≤ ckv̂h kT̂ = c|T |− 2 kvh kT T T̂ Mit |T | = O(h2 ) (in zwei räumlichen Dimensionen) folgt (3.19). Mit der Interpolation Ih u und der L∞ -Abschätzung maxT |u − Ih u| ≤ chk∇2 uk: max |eh | ≤ max |u − Ih u| + max |Ih eh | T T T 2 −1 ≤ chk∇ ukT + ch kIh eh k. Mit der Stetigkeit der Knoteninterpolation kIh eh k ≤ cI keh k und der Fehlerabschätzung für den L2 -Fehler folgt die Aussage des Satzes. In der Anwendung zeigt sich, dass dieses Ergebnis nicht optimal ist. Für die meisten Probleme wird quadratische Konvergenz beobachtet: 77 3 Die Finite Elemente Methode für elliptische Probleme Satz 3.17 (Optimale L∞ -Fehlerabschätzung). Im Fall u ∈ H01 (Ω) ∩ C 2 (Ω̄) gilt die Abschätzung: max |eh | ≤ ch2 | ln(h)| + 1 max |∇2 u|. Ω Ω Beweis: Für den Beweis verweisen wir auf [Rannacher]. Schlüssel ist erneut ein Dualitätsargument. Um den Fehler in einem Punkt a ∈ Ω̄ zu schätzen wäre die geeignete rechte Seite im dualen Problem: ( sign(eh (a)) x = a j(x) := δa (x) = 0 x 6= 0, also eine (vorzeichenbehaftete) Dirac-Funktion. Das entsprechende Fehlerfunktional J(φ) ist jedoch nicht regulär genug, es gilt J 6∈ H −1 (Ω). Stattdessen arbeitet man mit einer regularisierten Dirac-Funktion zu einem Element a ∈ T∗ ∈ Ωh : δah (x) = sign(eh ) x ∈ T∗ 0 x 6∈ T∗ . |T∗ | Mit dieser Konstruktion gilt: (∇eh , ∇g h ) = 1 T∗ Z T∗ |eh | dx. Für |T ∗ | → 0 ist dieser Ausdruck eine Approximation des punktweisen Fehlers. Die Schwierigkeit der Analyse besteht nun in einer Abschätzung der dualen Lösung g h . Eine Funktion g, mit der Eigenschaft (∇g, ∇eh ) = eh (a) heißt Green’sche Funktion zum Punkt a. Die duale Lösung g h ist eine regularisierte Green’sche Funktion. Für Details verweisen wir auf [Rannacher]. Der logarithmische Term in der Fehlerabschätzung ist keine Schwäche des Beweises. Auf geeigneten Gittern ist dieser Term auch numerisch zu beobachten. Bei der Verwendung von Finiten Elemente m-ter Ordnung mit m > 1 gilt hingegen unter der Voraussetzung u ∈ C m (Ω̄): sup |eh | ≤ chm sup |∇m u|. Ω Ω Und für lineare Finite Elemente lässt sich der Fehler im Gradienten auch ohne den logarithmischen Term abschätzen: sup |∇eh | ≤ ch sup |∇2 u|. Ω Ω 3.4.2 Approximation von krummen Rändern Oft haben Gebiete Ω ⊂ Rd (d > 1) Ränder Γ := ∂Ω, welche nicht polygonal sind. Eine Triangulierung Ωh kann diese Gebiete nicht exakt darstellen, es gilt, siehe Abbildung 3.6: Ω 6= ∪T ∈Ωh T̄ . Daher ist der diskrete Ansatzraum Vh auf einem anderen Gebiet definiert als der Raum V := H01 (Ω). Eine Diskretisierung kann somit nicht konform sein und die Hilfsmittel zur 78 3.4 A priori Fehleranalyse für Finite Elemente Verfahren Γ Γh Γ Sh Sh Γh T T Abbildung 3.6: Gebiet mit gekrümmten Rand. Fehleranalyse stehen nicht zur Verfügung. Wir unterscheiden zwei Fälle, Gebiete mit konvexem Rand, in Abbildung 3.6 links und Gebiete mit konkavem Rand in der Abbildung rechts. Satz 3.18 (A priori Fehlerabschätzung (konvex)). Sei Ω ein Gebiet mit konvexem C 2 Rand und Ωh eine Triangulierung in Dreiecke. Für die Finite-Elemente Lösung der PoissonGleichung mit linearen Finiten Elementen gelten die a priori Fehlerabschätzungen: ku − uh k ≤ (cI + cΩ )2 c2s h2 kf k, k∇(u − uh )k ≤ (cI + cΩ )cs hkf k, mit der Interpolationskonstante cI , der Stabilitätskonstante cs und einer Konstante cΩ welche vom Gebiet Ω abhängt. Beweis: (i) Da das Gebiet Ω konvex ist gilt Ωh ⊂ Ω. Wir definieren Sh := Ω\Ωh . Der Raum der diskreten Funktionen Vh wird nun modifiziert zu: V̄h := {φ ∈ C(Ω̄) : φT ∈ P 1 , φS = 0}. h Wir setzen die stückweise linearen Funktionen also mit Null außerhalb von Ωh bis an den Rand von Ω fort. Jetzt gilt V̄h ⊂ V = H01 (Ω) und es liegt ein konformer Finite Elemente Ansatz vor. (ii) Mit Galerkin-Orthogonalität: k∇eh k2Ω = k∇(u − Ih u)k2Ω . Auf jedem Element T ∈ Ωh kann die Interpolationsabschätzung angewendet werden, es bleibt ein Integral über den Randstreifen Sh : k∇eh k2Ω = k∇(u − Ih u)k2Ωh + k∇(u − Ih u)k2Sh ≤ c2I h2 k∇2 uk2Ωh + k∇uk2Sh , da Ih u = 0 auf Sh . 79 3 Die Finite Elemente Methode für elliptische Probleme (iii) Der Rand Γ := ∂Ω ist lokal durch eine zweimal stetig differenzierbare Funktion gegeben. In Abbildung 3.6 links sei nun ψ(s) die Parametrisierung der Randkurve Γ, wobei das Koordinatensystem so gedreht sei, dass die Kante Γh in der Achse liegt und von den Koordinaten s0 und s1 beschränkt ist. Es gilt ψ ∈ C 2 ([s0 , s1 ]) und für eine Zwischenstelle ξ ∈ (s0 , s1 ): ψ 0 (ξ) = 0. ψ(s0 ) = ψ(s1 ) = 0, Mit Taylor-Entwicklung folgt für eine beliebige Koordinate Z r ψ(r) = Z rZ s ψ 0 (s) ds = s0 s0 ψ 00 (t) dt ds, ξ und also |ψ(r)| ≤ max |ψ 00 (s)| |s1 − s0 |2 = O(h2T ). s∈[s0 ,s1 ] Folglich gilt maxs∈[s0 ,s1 ] |ψ(s)| = O(h2 ) und damit |Sh | ≤ cΩ h2 . (iv) Wir benötigen nun eine Variante der Poincaré-Ungleichung für die Abschätzung des Integrals über das Randstück Sh . Für eine Funktion v ∈ H 1 (Ω) gilt: kvkSh ≤ c(Ω)hkvkH 1 (Ω) . (3.20) Wir führen den Beweis vereinfacht in einer Dimension, siehe Abbildung 3.7. 1 h2 x y Abbildung 3.7: Skizze zum Beweis. Es sei x ∈ Sh und y ∈ Ω. Dann gilt: v(x) = v(y) − Z y ∂x v(s) ds, x und nach Quadrieren: |v(x)|2 ≤ 2|v(y)|2 + 2|y − x| Z y |∂x v|2 ds. x Nun sei c(Ω) := max(2 maxx,y∈Ω |y − x|, 2) dann folgt weiter: 2 2 |v(x)| ≤ c(Ω) |v(y)| + Z |∂x v|2 ds . Ω Wir integrieren über x ∈ Sh und y ∈ Ω und erhalten mit |Sh | = O(h2 ): kv(x)k2Sh dx ≤ c(Ω)h2 kvk2H 1 (Ω) . 80 3.5 Praktische Aspekte der Finite Elemente Methode Angewendet auf v := ∇u folgt die Abschätzung des Energiefehlers. (v) Für die Abschätzung des L2 -Fehlers wird wieder der Aubin-Nitsche Trick mit einem dualen Problem angewendet: (∇φ, ∇z)Ω = (u − uh , φ)Ω ku − uh k−1 Ω . Es gilt: o n keh kΩ = (∇eh , ∇(z − Ih z))Ω ≤ 2k∇eh k k∇(z − Ih z)kΩh + k∇zkSh . Das Ergebnis folgt nun mit der Energiefehlerabschätzung und wieder mit (3.20). 3.5 Praktische Aspekte der Finite Elemente Methode Die wesentlichen Schritte beim Lösen einer partiellen Differentialgleichung mit der Finite Elemente Methode sind: 1. Wahl eines Finite Elemente Gitters Ωh (i) 2. Wahl einer Finite Elemente Basis {φh , i = 1, . . . , N } 3. Aufstellen der rechten Seite bh = (bi )N i=1 , (i) bi = (f, φh )Ω 4. Aufstellen der Systemmatrix Ah = (Aij )N i,j=1 , (j) (i) Aij = a(φh , φh ) 5. Lösen des linearen Gleichungssystems A h uh = bh . Schritte 3. und 4. bestehen im Wesentlichen aus Integration von Testfunktionen, der rechten Seite und eventuell von weiteren Daten. Zum automatischen Aufbauen von rechter Seite und Matrix muss diese Integration durch numerische Approximation erfolgen. Hierdurch werden zusätzliche numerische Fehler in das diskrete Problem eingeführt. Im Folgenden werden wir den Einfluss der numerischen Integration auf das Gesamtverfahren genauer untersuchen. 81 3 Die Finite Elemente Methode für elliptische Probleme 3.5.1 Numerischer Aufbau der Gleichungen Das Finite Elemente Verfahren ist durch die lokale Vorgabe einer Basis gegeben. Für jede (i) (i) Basisfunktion φh gilt, dass supp(φh ) ∩ T 6= ∅ nur für sehr wenige Elemente des Gitters gilt. Auf jedem Element ist jede Basisfunktion ein Polynom und daher sehr effizient zu integrieren. Der Aufbau von rechter Seite und Systemmatrix bei der Finite Elemente Methode wird Assemblierung genannt und nutzt diese lokale Definition durch geeignetes Sortieren der Terme. Es gilt: Z Z Z (i) bi = Ω f φh dx = X T ∈Ωh T (i) (i) X f φh dx = (i) T ∩supp(φh )6=∅ T f φh dx Zur Integration der Vektorkomponente bi muss also über all diejenigen Elemente T ∈ Ωh (i) integriert werden, welche den Träger von φh schneiden. Bei der praktischen Realisierung von Finite Elemente Methoden ist es meist (aufgrund der verwendeten Datenstrukturen) schwierig zu einer Basisfunktion alle Elemente zu finden, in denen die Basisfunktion definiert ist. Da hingegen die Basisfunktionen lokal durch Vorgabe von Knotenfunktionalen auf jedem Element definiert sind, besteht für jedes Element T ∈ Ωh unmittelbar Zugriff auf alle (i) Basisfunktionen φh welche auf T definiert sind. Die Integration von rechter Seite und Matrix ist deshalb lokal aufgebaut: auf jeder Zelle T ∈ Ωh werden die Integrale über alle auf T definierten Basisfunktionen berechnet und lokal gespeichert: (T,j) bT,j = (f, φh j = 1, . . . , NT , )T (T,j) AT,ij = a(φh (T,i) , φh )T i, j = 1, . . . , NT , wobei NT die lokale Anzahl Basisfunktionen ist, also die Dimension des zugrundeliegenden Polynomraums P (T ). Bei linearen Finiten Elementen auf Dreiecken ist NT = 3. In einem ersten Schritt werden also sogenannte Element-Steifigkeits-Matrizen und Element-Lastvektoren gebildet. Im Anschluss wird die globale Systemmatrix Ah und der Lastvektor bh aus den lokalen Beiträgen zusammengesetzt: Aij = NT X X AT,i(k)j(l) , bi = T ∈Ωh k,l=1 NT X X bT,i(k) . T ∈Ωh k=1 Dieses Vorgehen hat den Vorteil, dass die Integration stets nur auf einzelnen Elementen des Gitters erfolgt. Hier sind die Basisfunktionen Polynome (oder im Fall von parametrischen Finiten Elementen rationale Funktionen) und also auf jedem Element beliebig regulär. Dies ist wichtig für die Verwendung von numerischen Quadraturregeln. Bei parametrischen Finite Elemente Ansätzen erfolgt die Integration der lokalen ElementMatrizen und Element-Lastvektoren durch Transformation auf ein Referenzelement T̂ . Mit der Transformation TT : T̂ → T gilt für die rechte Seite: Z bT,j = T (T,j) f (x)φh (x) dx Z = T̂ (T,j) det(TT (x̂))fˆ(x̂)φ̂h (x̂) dx̂, und für die Matrix (im Fall der Poisson-Gleichung): Z AT,ij = T 82 (j) (i) ∇φh (x)∇φh (x) dx = Z T̂ (j) (i) ˆ φ̂ · B −T ∇ ˆ φ̂ dx̂. det(TT (x̂))BT−T ∇ T h h 3.5 Praktische Aspekte der Finite Elemente Methode Diese Integrale auf der Referenzzelle T̂ werden mit Hilfe einer numerischen Quadraturformel berechnet. Wir betrachten im Folgenden also das Problem, eine gegebene Funktion v̂ auf einer Zelle T̂ zu integrieren, bzw. das Integral mit hinreichender Genauigkeit zu approximieren. Hierzu werden interpolatorische Quadraturformeln verwendet, welche die Funktion v̂ mit einem Polynom p̂ ∈ PT̂ mit dim(PT̂ ) = S interpolieren und das Integral über v̂ durch das Integral über p̂ approximieren: Z Z v̂ dx̂ = T̂ T̂ p̂ dx̂ + RT̂ , mit einem Restglied RT̂ . Ist durch L̂k (x̂), k = 1, . . . , S eine Basis des Polynomraums PT̂ gegeben, so schreibt sich die Quadraturformel einfach durch: S X QT̂ (v̂) = Z ω̂k v̂(x̂k ), ω̂k = T̂ k=1 L̂k (x̂) dx̂, mit Gewichten ω̂k und Stützstellen x̂k ∈ T̂ . Definition 3.10 (Quadratur). Eine interpolatorische Quadraturformel Qh auf der Referenzzelle T̂ heißt von Ordnung r, wenn sie Polynome bis zum Grad r − 1 exakt integriert. Sie heißt zulässig für den Polynomansatz P (T̂ ), falls die Stützstellenmenge reichhaltig genug ist, so dass: q ∈ P (T̂ ) : ∇q(xk ) = 0 (k = 1, . . . , S) ⇒ q ≡ konstant. Eine Quadraturformel QT̂ auf der Referenzzelle kann nun zur Integration einer beliebigen Funktion v auf T verwendet werden. Mit der Schreibweise v̂(x̂) = v(x) und x = TT x̂ gilt: QT (v) := S X ωk v(xk ) = k=1 S X k=1 det(BT (xk ))ω̂k v̂(x̂k ). | {z (3.21) } =:ωk Für den Fehler einer Quadraturformel einer gegebenen Ordnung r auf einer Zelle T ∈ Ωh gilt: Satz 3.19 (Quadraturfehler). Für eine interpolatorische Quadraturformel QT der Ordnung r ≥ d auf einer Zelle T ∈ Ωh angewendet auf eine Funktion v ∈ W r,1 (T ) gilt: Z Z v dx − QT (v) ≤ cT hr |∇r v| dx, T T T mit einer Konstante cT welche von T abhängt. Beweis: Mit TT : T̂ → T und x = TT x̂ verwenden wir wieder die Schreibweise v̂(x̂) = v(x). Auf der Referenzzelle definieren wir ein Fehlerfunktional: Z F (v̂) := T̂ v̂(x̂) dx̂ − QT̂ (v̂) . 83 3 Die Finite Elemente Methode für elliptische Probleme Dieses Funktional ist wohldefiniert, wenn die Auswertung von Punktwerten v̂(x̂k ) erlaubt ist. Der Einbettungssatz fordert hierfür: r− d ≥0 1 ⇔ r ≥ d. Es gilt somit: |F (v̂)| ≤ ckvkW r,1 (T̂ ) . Weiter ist F sublinear |F (v̂ + ŵ)| ≤ c(|F (v̂)|+|F (ŵ)|) und es verschwindet auf dem Polynomraum P r−1 , denn r ist gerade die Ordnung der Quadraturregel. Wir können das BrambleHilbert Lemma anwenden und erhalten: ˆ r v̂k 1 . |F (v̂)| ≤ ck∇ L (T̂ ) Wir haben hier eine Variante des Bramble-Hilbert-Lemmas für die L1 -Norm verwendet. Dieses Fehlerfunktional wird auf die Zelle T transformiert. Hierzu nehmen wir an, dass die Transformation affin linear ist. Es gilt (vergleiche den Beweis zur speziellen Interpolationsabschätzung, Satz 3.8) : Z v(x) dx − QT (v) = | det BT | |F (v̂)|, T sowie −1 r r ˆ r v̂k 1 k∇ L (T̂ ) ≤ c| det BT | hT k∇ vkL1 (T ) . Kombination beider Transformationen ergibt die Behauptung. Die Konstruktion von Quadraturformeln auf allgemeinen Elementen, also Dreiecken, Vierecken, Tetraeder, usw. ist weitaus komplizierter als im eindimensionalen Fall. Der Fall von Vierecks-, sowie Hexaedergittern ist einfach, da hier ein Tensorprodukt-Ansatz möglich ist. Es sei T̂ = (0, 1)d das Referenzelement und Iˆ = (0, 1) das Einheitsintervall. Auf Iˆ sei eine interpolatorische Quadraturregel QIˆ einer gegebenen Ordnung r gegeben: QIˆ(v̂) = S X ω̂k v̂(x̂k ). k=1 Auf Intervallen stehen zum Beispiel die sehr effizienten Gauß’schen Quadraturregeln zur Verfügung. Diese Regeln haben bei Verwendung von S Stützstellen die Ordnung r = 2S. Für die Einheitszelle gilt T̂ = Iˆd und wir definieren die Quadraturregel QT̂ (v̂) = S X k1 =1 ··· S X ω̂k1 · · · ω̂kd v̂(x̂1k1 , . . . , x̂dkd ), kd =1 mit S d Punkten und Gewichten. Ist die ursprüngliche Quadraturformel QIˆ von Ordnung r, so ist die Tensorprodukt-Formel QT̂ auch von Ordnung r und integriert alle Polynome aus dem Raum Qr−1 exakt Qr−1 := {xα1 1 · · · xαd d , 0 ≤ α1 , . . . , αd ≤ r − 1}. 84 3.5 Praktische Aspekte der Finite Elemente Methode Auf allgemeinen Elementen (also etwa Dreiecken) ist diese Konstruktion nicht möglich. Einfache Quadraturformeln auf Dreiecken sind z.B. die Mittelpunktsregel QT (v) = |T |v(s), s Schwerpunkt von T, von Ordnung 1 oder die Trapezregel: QT (v) = |T | 3 X 1 k=1 3 v(xi ), xi Eckpunkt vonT, von Ordnung 2. Durch die Verwendung von numerischer Quadratur werden Steifigkeitsmatrix und Lastvektor nicht exakt berechnet. Anstelle von uh ∈ Vh : a(uh , φh ) = l(φh ) ∀φh ∈ Vh , wird das Problem: ũh ∈ Vh : ah (ũh , φh ) = lh (φh ) ∀φh ∈ Vh , gelöst. Hierdurch wird ein zusätzlicher Fehler eingeführt. Ohne Beweis: Satz 3.20 (Fehler durch numerische Integration). Die Quadraturformel QT̂ sei zulässig und von Ordnung r ≥ d. Die gestörte Finite Elemente Lösung ũh ∈ Vh der Poisson Gleichung ist eindeutig bestimmt und für die Finite Elemente Approximation mit Polynomräumen vom Grad m − 1 gelten die Fehlerabschätzungen: ku − ũh k ≤ chmin{m,r+3−m} kukH m (Ω) , k∇(u − ũh )k ≤ chmin{m−1,r+2−m} kukH m (Ω) . Bemerkung 3.4. Um die maximal mögliche Ordnung des Finite Elemente Verfahrens zu erhalten muss eine Quadraturformel der Ordnung r+3−m≥m ⇔ r ≥ 2m − 3 gewählt werden. Bei linearen Finiten Elementen ist eine Quadraturformel mit Ordnung r = 1 ausreichend, bei quadratischen Finiten Elementen genügt r ≥ 3, d.h. quadratische Polynome müssen exakt integriert werden. 3.5.2 Eigenschaften der Systemmatrix In die Lösung der linearen Gleichungssysteme Ah uh = bh , fließt oft der größte Teil des numerischen Aufwands. Die Steifigkeitsmatrix Ah ∈ RN ×N ist sehr groß, oft gilt N 1 000 000, dafür aber nach Konstruktion der Finite Elemente Basis dünn besetzt mit je nach Ansatzgrad und Dimension zwischen 5 und über 100 Einträgen pro Zeile. Üblicherweise, insbesondere bei Verwendung von allgemeinen Gittern, hat die Matrix keine Bandstruktur sondern die Struktur ändert sich von Zeile zu Zeile. Durch numerische Quadratur treten zwangsläufig Rundungsfehler auf. Beim Lösen des linearen Gleichungssystems werden diese Fehler verstärkt. Es gilt der: 85 3 Die Finite Elemente Methode für elliptische Probleme Satz 3.21 (Störungssatz). Es seien δAh und δbh Störungen der Systemmatrix und der rechten Seite mit kδAh k µ := cond2 (Ah ) < 1. kAh k Dann gilt die Fehlerabschätzung für die gestörte Lösung ũh = uh + δuh : kδuh k cond2 (Ah ) ≤ kuh k 1−µ kδAh k kδbh k . + kAh k kbh k Die bestimmende Größe für die Fehlerfortpflanzung ist also die Konditionszahl der Matrix. Wir beweisen: Satz 3.22 (Konditionierung der Steifigkeitsmatrix). Auf einer Folge von regulären Gittern Ωh gelten für die Konditionszahlen der Steifigkeitsmatrix Ah (der Poisson-Gleichung) sowie für die Massenmatrix Mh : cond2 (Ah ) = O(h−2 ), cond2 (Mh ) = O(1). Beweis: (i) Beide Matrizen sind positiv definit. Die Spektralkondition ist also gegeben durch: λmax (Mh ) λmax (Ah ) , cond2 (Mh ) = . cond2 (Ah ) = λmin (Ah ) λmin (Mh ) Für die Eigenwerte einer positiv definiten Matrix A gilt λmin (A) = min v∈RN hAv, vi hAv, vi ≤ max = λmax (A). N |v|2 |v|2 v∈R (ii) Wir bestimmen zunächst die Konditionszahl der Massenmatrix. Mit den Element- Massenmatrizen MT und der elementweisen Einschränkung vT = v|T gilt für einen Vektor vh ∈ Vh mit Koeffizienten v: hMh v, vi = X hMT vT , vT i T ∈Ωh |vT |2 ≥ |vT |2 min T ∈Ωh , v∈RN hMT vT , vT i X |vT |2 ≥ min {λmin (MT )}|v|2 , T ∈Ωh |vT |2 T ∈Ω h Entsprechend gilt für den maximalen Eigenwert: hMh v, vi ≤ max T ∈Ωh ,v∈RN hMT vT , vT i X |vT |2 ≤ min {λmax (MT )}dmax |v|2 , T ∈Ωh |vT |2 T ∈Ω h wobei dmax die maximale Zahl Zellen ist, die sich in einem Knoten treffen. (Diese Konstante ist auf formregulären Gittern gleichmäßig in h > 0 beschränkt). Für die Einträge der Massenmatrix gilt bei Transformation auf das Referenzelement: mij = | det BT | m̂ij , 86 3.5 Praktische Aspekte der Finite Elemente Methode und es gilt also mit | det BT | = O(hdT ) für die Eigenwerte von MT : λmax (MT ) = | det BT |λmax (MT̂ ) ≤ chdT , λmin (MT ) = | det BT |λmin (MT̂ ) ≥ chdT . Die Matrix MT̂ ist fest, die Eigenwerte können durch Konstanten abgeschätzt werden. Es folgt: λmin (Mh ) ≥ chd , λmax (Mh ) ≤ chd ⇒ cond2 (Mh ) = O(1). (iii) Die Eigenwerte der Steifigkeitsmatrix Ah wollen wir auf die Eigenwerte der Massenmatrix Mh zurückführen. Es gilt: hAh v, vi hMh v, vi = min min vh ∈Vh |v|2 v∈RN hMh v, vi v∈RN hAh v, vi hMh v, vi λmax (Ah ) ≤ max = max max N N vh ∈Vh |v|2 v∈R hMh v, vi v∈R λmin (Ah ) ≥ min a(vh , vh ) λmin (Mh ), kvh k2 a(vh , vh ) λmax (Mh ). kvh k2 Weiter gilt wegen Vh ⊂ V := H01 (Ω): min vh ∈Vh a(vh , vh ) a(v, v) ≥ inf =: λmin (∆), 2 1 kvh k v∈H0 (Ω) kvk2 mit dem kleinsten Eigenwert des Laplace-Operators auf Ω. Mit der inversen Beziehung, Satz 3.10 gilt ferner: a(vh , vh ) ≤ X T ∈Ωh k∇vh k2T ≤ c X T ∈Ωh −2 2 2 h−2 T kvh kT ≤ c max hT kvh k , T ∈Ωh Insgesamt gilt also: λmin (∆)λmin (Mh ) ≤ λmin (Ah ) ≤ λmax (Ah ) ≤ c max h−2 T λmax (Mh ). T ∈Ωh Mit λmin (∆) = c0 > 0 und den Eigenwerten der Massenmatrix folgt die Behauptung. 87 3 Die Finite Elemente Methode für elliptische Probleme 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente In diesem Abschnitt befassen wir uns mit der a posteriori Fehlerschätzung. Hier geht es zum einen um die Frage, eine berechenbare Schranke ηh ∈ R für den Fehler der Finite Elemente Approximation angeben zu können: |J(u − uh )| ≤ ηh (Ωh , uh , f ), also eine Größe ηh , welche bei Kenntnis des Gitters, der Lösung und der Problemdaten berechenbar ist. J soll hier ein beliebiges Fehlerfunktional sein. Im Gegensatz zu a priori Fehlerabschätzungen muss auf unbekannte Konstanten soweit wie möglich verzichtet werden, d.h., zur Berechnung des Schätzers ηh dürfen nur das Gitter Ωh , die Daten f sowie die berechnete diskrete Lösung uh eingehen, nicht aber etwa die Lösung u ∈ H01 (Ω) oder Konstanten welche nicht berechnet werden können (wie die Konstante des Spurlemmas, der Interpolation, oder die Poincaré Konstante). Der zweite Aspekt in diesem Kapitel ist die Berechnung von Fehlerindikatoren {ηT }T ∈Ωh . Das sind verteilte Größen, welche den lokalen Fehleranteil angeben. Lokal kann hier bedeuten, dass etwa ηT den Fehlerbeitrag der Gitterzelle T ∈ Ωh angibt, oder ηi den Fehlerbeitrag des Einzugbereichs einer Finite Elemente Basisfunktion. Solche lokalen Fehlerindikatoren sind Grundlage von adaptiven Verfahren nach dem folgenden Muster: 1. Berechne diskrete Lösung uh ∈ Vh 2. Schätze den Fehler ηh . Falls ηh < T OL einer vorgegebenen Fehlertoleranz, Abbruch. {ηT } 3. Erstelle lokale Fehlerindikatoren {ηT }T ∈Ωh und verfeinere das Gitter Ωh −−−→ Ω0h . Weiter bei 1 mit Vh0 auf Ω0h . Wir betrachten in diesem Abschnitt exemplarisch die Poisson-Gleichung: u ∈ V := H01 (Ω) uh ∈ Vh ⊂ V (∇u, ∇φ) = (f, φ) ∀φ ∈ V, (∇uh , ∇φh ) = (f, φh ) ∀φh ∈ Vh . (3.22) (3.23) 3.6.1 Residuenbasierte Fehlerschätzer Bei der Berechnung von a posteriori Fehlerschätzern darf die unbekannte Lösung u ∈ V nicht eingehen. Ein zentraler Begriff ist das Residuum: Definition 3.11 (Residuum). Das Residuum der Gleichung (3.22) an der Stelle uh ∈ Vh ist ein Funktional Rh : V → R: Rh (uh )(φ) = (f, φ) − (∇uh , ∇φ) ∀φ ∈ V. Das Residuum steht im engen Zusammenhang zum Fehler eh := u − uh der Finite Elemente Approximation: 88 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Satz 3.23 (Residuum). Das Residuum Rh (·) ist ein stetiges lineares Funktional auf V . Ist uh ∈ Vh Lösung von (3.23) und u ∈ V Lösung von (3.22) so gilt: ∀φh ∈ Vh (3.24) k∇(u − uh )kL2 (Ω) = kRh (uh )k−1 , (3.25) Rh (uh )(φh ) = 0 mit der Dualnorm kRh (uh )k−1 := sup φ∈V Rh (uh )(φ) . k∇φk Beweis: (i) Wir zeigen zunächst, dass das Residuum ein stetiges lineares Funktional ist. Es gilt: |Rh (uh )(φ)| = |(f, φ) − (∇uh , ∇φ)| ≤ kf k kφk + k∇uh k k∇φk ≤ (cp kf k + k∇uh k)k∇φk, mit der Poincare-Konstante cp . Für uh ∈ Vh fest gilt also Rh (uh ) ∈ V ∗ . (ii) Für die diskrete Lösung uh ∈ Vh gilt: Rh (uh )(φh ) = (f, φh ) − (∇uh , ∇φh ) = 0 ∀φh ∈ Vh . Gleichung (3.24) folgt also unmittelbar aus der Definition des Residuums und der diskreten Lösung uh . (iii) Für die Lösungen u ∈ V und uh ∈ Vh ⊂ V gilt: Rh (uh )(φ) = (f, φ) − (∇uh , ∇φ) = (∇u − ∇uh , φ) = (∇eh , ∇φ). (3.26) Das heißt, für die Dualnorm des Residuums folgt: kRh (uh )k−1 = sup φ∈V (∇eh , ∇φ) k∇eh k k∇φk ≤ sup = k∇eh k. k∇φk k∇φk φ∈V Umgekehrt gilt mit (3.26): k∇eh k2 = Rh (uh )(eh ) = Rh (uh )(eh ) k∇eh k ≤ k∇eh k kRh (uh )k−1 . k∇eh k Die letzten beiden Ungleichungen ergeben (3.25). Die Dualnorm des Residuums ist also eng mit der Energienorm des Fehlers verwandt. Ist uh ∈ Vh bekannt, so kann für jede gegebene Größe φ ∈ V auch das Residuum berechnet werden. Es ist im Allgemeinen jedoch nicht möglich die Dualnorm kRh (uh )k−1 zu berechnen. Wir benötigen Abschätzungen für diese Dualnorm. Zunächst definieren wir als Hilfsgrößen: Definition 3.12 (Kantensprung). Sei uh ∈ Vh und E ∈ Ωh die Kante einer Zelle T ∈ Ωh . Wir definieren den Kantensprung über die Normalableitung: ( [nE · ∇uh ] := nT1 · ∇uh T1 + nT2 · ∇uh T2 E ⊂ T̄1 ∩ T̄2 , 0 E ⊂ ∂Ω, T1 6= T2 wobei nTi die bzgl. Ti nach außen gerichteten Normalvektoren sind. Da nT1 = −nT2 gilt folgt: |[nE · ∇uh ]| = |nE · (∇uh T1 − ∇uh T2 )|, bei beliebiger Wahl von nE = nTi . 89 3 Die Finite Elemente Methode für elliptische Probleme Satz 3.24 (Residuenbasierter a posteriori Fehlerschätzer für den Energiefehler). Es sei u ∈ V Lösung von (3.22) sowie uh ∈ Vh die lineare Finite Elemente Approximation gemäß (3.23). Dann gilt für den Fehler eh := u − uh 1 k∇eh k ≤ cηh , ηh := 2 X X (ρ2T + T ∈Ωh ρ2E ) , E∈∂T mit den Zellresiduen ρT und den Kantenresiduen ρE : 1 1 ρE := hE2 k[nE · ∇uh ]kL2 (E) . 2 ρT := hT kf kL2 (T ) , Beweis: Es gilt mit Satz 3.23 für die diskrete Lösung uh : k∇eh kL2 (Ω) = kRh (uh )k−1 . Nun seien φ ∈ V sowie φh ∈ Vh beliebig. Dann gilt mit (3.24) Rh (uh )(φ) = Rh (uh )(φ − φh ) = (f, φ − φh ) − (∇uh , ∇(φ − φh )) = X Z T T ∈Ωh = X Z T T ∈Ωh f (φ − φh ) dx − Z ∇uh · ∇(φ − φh ) dx T (f + ∆uh )(φ − φh ) dx − Z ∂T X Z X 1Z f (φ − φh ) dx = T T ∈Ωh E∈∂T 2 (nT · ∇uh )(φ − φh ) ds [nE · ∇uh ](φ − φh ) ds . ∂T Es gilt ∆uh T = 0 wegen der Linearität der Lösung uh . An dieser Stelle schätzen wir mit Cauchy-Schwarz weiter ab: |Rh (uh )(φ)| ≤ X X 1 kf kL2 (T ) kφ − φh kL2 (T ) + T ∈Ωh E∈∂T 2 k[nE · ∇uh ]kL2 (E) kφ − φh kL2 (E) Wir wollen aus den Termen φ − φh positive Potenzen in der Gitterweite h gewinnen. Die Funktion φ nimmt Werte aus V := H01 (Ω) an, verfügt im Allgemeinen jedoch nicht über höhere Regularität. Wir dürfen daher nicht mit dem Ansatz φh := Ih φ, also der Wahl von φh als der Knoteninterpolation von φ weiter rechnen. Denn diese Knoteninterpolation ist im H01 (Ω) nicht definiert. Stattdessen wählen wir mit φh := Ch φ die H 1 -stabile ClementInterpolation aus Satz 3.11 und erhalten: |Rh (uh )(φ)| ≤ X cI hT kf kT k∇φk + P̃T T ∈Ωh E∈∂T cI hT k[nE · ∇uh ]kk∇φkP̃E 1 2 X ρ2T + T ∈Ωh X 2 ρE ≤ cT cI 2 X T ∈Ωh E∈∂T k∇φk2P̃ T 1 2 X T ∈Ωh 90 2 1 2 1 ≤ cI X 1 ρ2T + X E∈∂T ρ2E k∇φkΩ . + X E∈Ωh k∇φk2P̃ E 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Die Konstante cT beschreibt den Überlappungsgrad der Patche P̃T sowie P̃E . Aus der Formregularität des Gitters folgt, dass cT unabhängig von h eine kleine Konstante ist. Aus Satz 3.23 und der Definition der Dualnorm folgt die Behauptung. Um den vorgestellten Energiefehlerschätzer auswerten zu können muss die rechte Seite f vorliegen. Darüber hinaus müssen die Kantensprünge berechnet werden. Die Zellresiduen ρT := kf + ∆uh kT (mit ∆uh = 0 auf jedem T ) messen das Residuum der klassischen Formulierung der Poisson-Gleichung −∆u = f . Die Kantensprünge messen die Glattheit der diskreten Lösung. Für u ∈ C 1 (Ω), also für stetige Differenzierbarkeit über die Elementkanten hinaus gilt ρE (u) = 0. Als Unbekannte gehen in den Fehlerschätzer die Konstante der Clement-Interpolation cI sowie die Konstante cT ein. Die Konstante cT kann für ein gegebenes Gitter berechnet werden. Sie misst lediglich den Überlappungsgrad der Patche PE . Die Konstante der ClementInterpolation kann nur in Spezialfällen bestimmt werden. Üblicherweise muss eine Schätzung cI ≈ 0.1 − 1 vorgenommen werden. Der Fehlerschätzer eignet sich nun für eine Schätzung des Energiefehlers, es gilt: k∇eh k ≤ cI ηh (Ωh , uh , f ). Weiter können wir einfach zellweise Fehlerindikatoren definieren 1 2 1 X ηT := (ρ2T + ρ2E ) = h2T kfT k2T + hE k[nE · ∇uh ]k2E , 2 E∈∂T E∈∂T 1 2 X (3.27) und diese zur Verfeinerung des Gitters verwenden. Algorithmen zur Verfeinerung des Gitters werden in einem folgenden Abschnitt vorgestellt. Idee ist, solche Elemente T in kleinere Elemente aufzuteilen, welche einen großen Fehlerbeitrag ηT haben. Wir haben bisher eine Abschätzung k∇eh k ≤ cηh , also eine obere Schranke für den Fehler bewiesen. Diese Abschätzung ist wichtig, um die Genauigkeit der Lösung zu garantieren. Soll der Fehlerschätzer jedoch zur Verfeinerung des Gitters verwendet werden, so muss er in gewissem Sinne “scharf” sein. D.h., wir benötigen ferner eine umgekehrte Abschätzung der Art: c1 ηh ≤ k∇eh k ≤ c2 ηh . Ein Fehlerschätzer mit dieser Eigenschaft wird effizient genannt. Wenn diese Abschätzung nicht gilt, so ist es möglich, dass die lokale Gitterverfeinerung ineffizient verfeinert, dass also Bereiche verfeinert werden, welche keinen wesentlichen Fehlerbeitrag haben. Wir benötigen als Hilfsatz eine spezielle Spurabschätzung: Hilfsatz 3.6. Auf jedem Element T ∈ Ωh gilt 1 1 k∂n vkL2 (∂T ) ≤ c h 2 k∆vkL2 (T ) + h− 2 k∇vkL2 (Ω) ∀v ∈ H 2 (T ). 91 3 Die Finite Elemente Methode für elliptische Probleme Beweis: (i) Zunächst sei T̂ ein Referenzelement. Hier gilt mit der Spurabschätzung: k∂n v̂k∂ T̂ ≤ ckv̂kH 2 (T̂ ) . Die elliptische Regularität besagt: ˆ k∂n v̂k∂ T̂ ≤ cs k∆v̂k T̂ + kv̂kT̂ (ii) Es sei v̄ ∈ R der Mittelwert von v̂ auf T̂ . Dann gilt mit der Poincaré Ungleichung: ˆ ˆ − v̄)k + kv̂ − v̄k ≤ c k∆v̂k ˆ k∂n v̂k∂ T̂ = k∂n (v̂ − v̄)k∂ T̂ ≤ c k∆(v̂ T̂ + cp k∇v̂kT̂ . T̂ T̂ (iii) Jetzt sei TT (x̂) = BT x̂ + bT die affin lineare Referenztransformation. Es gilt mit det(∇TT ) = O(h2 ), det(∇TT ∂T ) = O(h) sowie kBT k∞ = O(h): ˆ 2 + k∇v̂k ˆ 2) k∂n vk2L2 (∂T ) = ch h−2 k∂ˆn v̂k2L2 (∂ T̂ ) ≤ ch−1 (k∆v̂k T̂ T̂ = ch−1 (h−2 h4 k∆vk2T + h−2 h2 k∇vkT ) = c(hk∆vk2T + h−1 kvk2T ). Jetzt beweisen wir: Satz 3.25 (Effizienz des Energiefehlerschätzers). Seien u ∈ V und uh ∈ Vh Lösungen der Poisson-Gleichung. Auf einer Folge von formregulären Triangulierungen Ωh ist der Energiefehlerschätzer asymptotisch exakt: ηh ≤ ck∇eh k + chkf k. Beweis: Es ist: ηh2 = X h2T kf k2T + hT k[∂n uh ]k2∂T . T ∈Ωh Für die Lösung u ∈ H 2 (Ω) gilt auf jeder Kante [∂n u]E = 0. Also mit Hilfsatz 3.6 k[∂n uh ]k2∂T = k[∂n eh ]k2∂T ≤ 2k[∂n eh ]k2∂T ≤ c(hk∆eh k2T + h−1 k∇eh k2T ) Es ist k∆eh kT = kf + ∆uh kT = kf kT . Also: ηh2 ≤ c X h2T kf k2T + h2T kf k2T + k∇eh k2T = ck∇eh k2 + ch2 kf kL2 (Ω) . T ∈Ωh Weiter kann bewiesen werden, dass bei der Verwendung von linearen Finiten Elementen die Sprungterme in den Fehlerindikatoren überwiegen, dass also gilt: 92 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Satz 3.26 (Dominanz der Sprünge). Für den Fehler der linearen Finite Elemente Approximation gilt für rechte Seiten f ∈ H 1 (Ω) 1 k∇eh k ≤ c hE k[nE · ∇uh ]k2L2 (E) 1 2 X 2 X + h4i k∇f k2L2 (Pi ) . xi ∈Ωh E∈Ωh Der zweite Term konvergiert mit zweiter Ordnung in Bezug auf die Zellweite h, ist also asymptotisch zu vernachlässigen. Erstaunlicherweise dreht sich die Dominanz der lokalen Fehlerbeiträge stets um. Bei quadratischen Finiten Elementen überwiegen die Zellbeiträge. Es stellt sich im folgenden wieder die Frage nach der Schätzung des Fehlers in anderen Fehlerfunktionalen, etwa in der L2 -Norm. Dies erfordert wieder den Aubin-Nitsche-Trick: Satz 3.27 (A posteriori Fehlerschätzer in der L2 -Norm). Für den Fehler der linearen Finite Elemente Approximation gilt auf formregulären Gittern die a posteriori Abschätzung: ku − uh kL2 (Ω) ≤ c 1 X T ∈Ωh 2 1 X 3 2 h4 kf k2 2 hE k[nE · ∇uh ]kL2 (E) . T L (T ) + 2 E∈T̄ Beweis: (i) Wir betrachten das duale Problem z∈V : (∇φ, ∇z) = (eh , φ)keh k−1 , −∆z = eh keh k−1 , mit einer dualen Lösung z ∈ H 2 (Ω) und mit kzkH 2 (Ω) ≤ cs k∆zk = cs . (ii) Es gilt: Rh (uh )(φ) = (∇eh , ∇φ) ∀φ ∈ V. Also für z = φ Rh (uh )(z) = (∇eh , ∇z) = keh kL2 (Ω) . Weiter gilt mit der Galerkin-Orthogonalität und Einschub der Knoteninterpolation: keh k = (∇eh , ∇(z − Ih z)) = (f, z − Ih z) − (∇uh , ∇(z − Ih z)). Durch partielle Integration auf jeder Zelle T ∈ Ωh entstehen wieder Kantenterme X Z keh k = T ∈Ωh T f (z − Ih z) dx − Z ∂T nE · ∇uh · (z − Ih z) ds , welche wir zu Sprüngen zusammenfassen können: keh k = Z X T ∈Ωh T (f + ∆uh ) (z − Ih z) dx − X 1Z E∈∂T 2 ∂T [nE · ∇uh ] · (z − Ih z) ds Da z ∈ H 2 (Ω) gelten die Interpolationsabschätzungen auf jeder Zelle und auf jeder Kante und zusammen mit der Stabilität der dualen Lösung ergibt sich kz − Ih zkT ≤ cI h2T k∇2 zk ≤ cI cs h2T , 3 3 kz − Ih zkE ≤ cI hE2 k∇2 zkPE ≤ cI cs hT2 . 93 3 Die Finite Elemente Methode für elliptische Probleme Weiter mit Cauchy-Schwarz: X keh k ≤ cI h2 kf kT k∇2 zkT + T T ∈Ωh X 1 E∈∂T ≤ cI cs cT 2 3 2 hE k[nE · ∇uh ]kk∇2 zkPE 1 2 X 1 3 2 h4 kf k2 + k∇2 zkL2 (Ω) . hE k[nE · ∇uh ]kE T T X T ∈Ωh E∈∂T 2 Die Aussage folgt unter Verwendung der Stabilitätsabschätzung für die duale Lösung. 3.6.2 Der dual gewichtete Fehlerschätzer Bei technischen Simulationen stellt sich oft die Frage nach einer guten Approximation von speziellen Funktionalwerten. Das kann in der Strukturmechanik etwa die Spannung in einem Punkt sein, in der Strömungsmechanik die Kraft, die auf ein umströmtes Objekt wirkt. Für solche Funktionale ist die Schätzung des Fehlers in globalen Normen nur von geringem Interesse. Die Aubin-Nitsche Trick erlaubt, den Fehler in beliebigen linearen Funktionalen mit Hilfe einer dualen Lösung darzustellen. Mit der Lösung z ∈ V des dualen Problems (∇φ, ∇z) = J(φ), zu einem gegebenen Fehlerfunktional gilt wie im Beweis zu Satz 3.27 J(eh ) = Rh (uh )(z). (3.28) Zur Herleitung von a priori Fehlerschätzern und auch bei der a posteriori-Schätzung des L2 -Fehlers haben wir die duale Lösung z stets mit Hilfe einer Stabilitätsabschätzung gegen die entsprechende Rechte Seite (welche a priori bekannt ist) abgeschätzt. Für allgemeine Funktionale ist dieser Zugang oft nicht möglich. A posteriori Fehlerschätzer nutzen zur Schätzung des Fehlers die numerische Approximationen uh ∈ Vh der Lösung u. Für allgemeine Fehlerfunktionale wollen wir nun auch eine diskrete duale Lösung zh ∈ Vh verwenden. Das Duale Problem ist also nicht mehr nur ein mathematisches Hilfskonstrukt, es wird numerische approximiert und die Lösung zh geht in die Fehlerschätzung ein: Satz 3.28 (Dual gewichteter Fehlerschätzer). Sei J ∈ V ∗ ein beschränktes lineares Fehlerfunktional. Für die Finite Elemente Approximation der Poisson-Gleichung gilt die Fehleridentität J(u − uh ) = X nZ T ∈Ωh T X 1Z (f + ∆uh ) (z − Ih z)dx − E∈∂T 2 E mit der Lösung z ∈ V des dualen Problems (∇φ, ∇z) = J(φ) 94 o [nE · ∇uh ] · (z − Ih z) ds , (3.29) ∀φ ∈ V, 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente sowie die Fehlerabschätzung |J(u − uh )| ≤ X ηT , ηT := ρT ωT + ρ∂T ω∂T (3.30) T ∈Ωh mit den Zell- und Kantenresiduen ρT bzw. ρ∂T sowie den Zell- und Kantengewichten ωT und ω∂T : ρT := kf +∆uh kT , 1 −1 ρ∂T := hT 2 k[n·∇uh ]k∂T , 2 1 ωT := kz−Ih zkT , ω∂T := hT2 kz−Ih zk∂T . Beweis: Die Fehleridentität folgt mit der Galerkin-Orthogonalität sofort aus (3.28) J(eh ) = (∇eh , ∇(z − Ih z)) = X nZ T ∈Ωh T (f + ∆uh ) (z − Ih z) dx − Z o ∂T nE · ∇uh · (z − Ih z) ds , und Übergang zu den Sprungtermen. Abschätzen mit Cauchy-Schwarz liefert |J(u − uh )| ≤ X T ∈Ωh 1 kf + ∆uh kT kz − Ih zkT + k[n · ∇uh ]k∂T kz − Ih zk∂T 2 die Fehlerabschätzung mit den lokalen Fehlerindikatoren. Diese Fehleridentität ist noch kein a posteriori Fehlerschätzer in dem Sinne, dass er ohne unbekannte Größen auswertbar ist. Die duale Lösung z ∈ V ist im Allgemeinen nicht verfügbar. Um den Fehlerschätzer auswerten zu können muss der Interpolationsfehler z − Ih z approximiert werden. Numerische Approximation Zunächst wäre es naheliegend, die duale Lösung zh ∈ Vh durch einen Finite Elemente Ansatz zu diskretisieren (∇φh , ∇zh ) = J(φh ) ∀φh ∈ Vh , und als Approximation z ≈ zh aufzufassen. Wegen zh ∈ Vh und Satz 3.23 gilt jedoch Rh (uh )(zh ) = 0, und auf diese Weise lässt sich keine Fehlerapproximation erstellen. Alternativ kann das duale (∗) Problem in einem Raum höherer Ordnung Vh berechnet werden (∇φ∗h , ∇zh∗ ) = J(φ∗h ) ∀φh ∈ Vh∗ , welcher echt größer ist als der diskrete Raum Vh . Dann kann z ≈ zh∗ approximiert werden und der Fehlerschätzer ist auswertbar. Es gilt: (1) Satz 3.29 (Fehlerapproximation höherer Ordnung). Sei uh ∈ Vh die lineare Finite Elemente Approximation der Poisson-Gleichung. Sei J ∈ V ∗ ein Fehlerfunktional und durch 95 3 Die Finite Elemente Methode für elliptische Probleme (2) zh∗ ∈ Vh die quadratische Finite Elemente Approximation der dualen Lösung. Im Fall z ∈ H 3 (Ω) ist der a posteriori Fehlerschätzer ηh∗ := X Z T T ∈Ωh f (zh∗ − Ih zh∗ ) dx − X 1Z E∈∂T 2 E [nE · ∇uh ] · (zh∗ − Ih zh∗ ) ds . auf einer Folge von größenregulären Gittern asymptotisch effizient: |ηh∗ | = 1 + O(h). |J(eh )| Beweis: (i) Wir wollen zeigen, dass der Fehlerschätzer schneller gegen den Fehler konvergiert |J(eh ) − ηh∗ | → 0 als der Fehler J(eh ) → 0 selbst. Bei der linearen Finite Elemente Approximation ist die optimale Konvergenzordnung eines linearen beschränkten Funktionals O(h2 ). (ii) Es gilt mit der Fehlerabschätzung aus Satz 3.28: |J(eh ) − ηh∗ | ≤ X T ∈Ωh kf kT kz − zh∗ kT + X 1 E∈∂T 2 k[nE · ∇uh ]kE kz − zh∗ kE Auf jeder Kante E nutzen wir das lokale Spur-Lemma: 1 1 kvkE ≤ c h− 2 kvkPE + h 2 k∇vkPE . Dann gilt: |J(eh ) − ηh∗ | ≤ X {kf kT kz − zh kT + T ∈Ωh ch− 1 2 X 1 E∈∂T 2 k[nE · ∇uh ]kE kz − zh∗ kPE + hk∇(z − zh∗ )kPE ≤ kf kL2 (Ω) kz − zh∗ kL2 (Ω) 1 + cT c 2 X −1 h k[nE · ∇uh ]k2E kz − zh∗ kL2 (Ω) + hk∇(z − zh∗ )kL2 (Ω) . E∈∂T Für die quadratische Finite Elemente Approximation der dualen Lösung gelten die a priori Abschätzungen: kz − zh∗ k ≤ ch3 k∇3 zk, k∇(z − zh∗ )k ≤ ch2 k∇3 zk. Mit diesen folgt: 1 2 X 2 ∗ 3 − 21 |J(eh ) − ηh | ≤ cI h kf kL2 (Ω) + cT ch k[nE · ∇uh ]kE k∇3 zkL2 (Ω) . E∈∂T 96 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente (iii) Es bleibt, die Beschränktheit der Sprünge nachzuweisen. Hierzu betrachten wir eine Kante E ∈ Ωh zwischen T1 , T2 ∈ Ωh . Mit der Schreibweise ∂n := n · ∇ gilt: ∂nE uh T1 − ∂nE uh T2 ∂nE uT1 − ∂nE uT2 [nE ·∇uh ] = ∂nE uh T1 −∂nE uh T2 = h ≈≈ h ≈ h∂n2E uE . h h Der Kantensprung über die Normalableitung verhält sich also wie die zweiten Ableitungen der Lösungen. Diese Abschätzung setzt voraus, dass die Ableitungen der diskreten Lösung uh lokal eine gute Approximation der Ableitung von u sind. Auf regulären Gittern lässt sich eine solche Abschätzung beweisen (Super-Approximation). Zusammen gilt: 1 n o |J(eh ) − ηh∗ | ≤ cI h3 kf kL2 (Ω) + cT ch 2 kukH 2 (Ω) k∇3 zk. Der Abstand zwischen Fehler und Schätzwert konvergiert mindestens eine Ordnung besser als der Fehler selbst. Durch die numerische Approximation des dualen Problems mit einer erhöhten Genauigkeit kann der Fehler asymptotisch effizient geschätzt werden. Dieses Vorgehen ist jedoch im Allgemeinen nicht zu rechtfertigen, bedeutet es doch, dass zum Schätzen des Fehlers ein höherer Aufwand betrieben werden muss als zur Lösung des eigentlichen Problem selbst. Numerische Interpolation Eine weitere Idee zur Konstruktion von auswertbaren Fehlerschätzern ist eine nachträgliche Rekonstruktion einer dualen Lösung höherer Ordnung. Zunächst wird zh ∈ Vh aus dem gleichen Finite Elemente Raum der Lösung uh ∈ Vh berechnet. In einem zweiten Schritt wird die Lösung zh in einen Raum von höherer Ordnung interpoliert: (∗) Ih∗ : Vh → Vh . (2) Hier bietet sich zum Beispiel der Raum V2h an, der Raum der Finiten Elemente vom doppelten Grad auf dem doppelt so groben Gitter. Dieser Raum teil sich die gleichen Knoten wie der Raum Vh und es gilt für die Knotenbasis-Funktionen (i) (2),i φh (xj ) = φ2h (xj ) = δij . Somit hat die Interpolierende die einfache Darstellung: Ih∗ uh = N X (2),i φ2h ui . i=1 In Abbildung 3.8 zeigen wir auf einem (eindimensionalen) Gitter einige stückweise lineare (i) Testfunktionen φh , sowie in den gleichen Gitterknoten die stückweise quadratischen Testfunktionen auf dem Gitter mit Gitterweite H = 2h. Rechts in der Abbildung wird die Interpolation einer diskreten Funktion in diesen Raum höherer Ordnung gezeigt. Der Fehlerschätzer ist auswertbar als ηh∗ := X Z T T ∈Ωh f (Ih∗ zh − zh ) dx − X 1Z E∈∂T 2 E [nE · ∇uh ] · (Ih∗ zh − zh ) ds . (3.31) 97 3 Die Finite Elemente Methode für elliptische Probleme φ (1) h φ (2) h φ (3) h uh I (2) u 2h h h H = 2h Abbildung 3.8: Lineare und quadratische Basisfunktionen, sowie diskrete Interpolation in den Raum höherer Ordnung. Die Effizienz dieses Fehlerschätzers hängt nun an der Frage, in wie weit Ih∗ zh eine bessere Approximation zu z ist als zh selbst. Wir benötigen eine Abschätzung der Art: kz − Ih∗ zk ≤ chkz − zh k. Eine Rechtfertigung für eine nachträgliche Verbesserung der Lösung kann wieder durch das Konzept der Superapproximation geschehen. Bei gewisser Gitterregularität kann gezeigt werden, dass die Finite-Elemente Lösung in den Gitterpunkten mit höherer Ordnung konvergiert. Bei linearen Finiten Elementen gilt zum Beispiel falls f ∈ C 1 (Ω) auf gleichmäßigen Tensorproduktgittern eine Abschätzung der Art |u(xi ) − uh (xi )| = o(h2 ) für Gitterpunkte xi ∈ Ωh . Diese höhere Ordnung kann dann genutzt werden, um über eine Interpolation global bessere Genauigkeit zu erreichen. In der praktischen Anwendung ist der Fehlerschätzer (3.31) höchst erfolgreich. Die Berechnung des dualen Problems ist “billig” und zum Auswerten muss lediglich die diskrete Lösung zh mit anderen Basisfunktionen dargestellt werden. Abschätzung der Interpolationsfehler Falls nicht die Fehleridentität (3.29), sondern nur die Abschätzung in Form (3.30) numerisch ausgewertet werden muss, so gilt es, die Residuen ρT = kf + ∆uh kT , und die Gewichte ωT = kz − Ih zkT , 1 1 ρ∂t = h− 2 k[n · ∇uh ]k∂T , 2 1 ω∂T = h 2 kz − Ih zkT zu berechnen. Die Residuen können mit der vorhandenen diskreten Lösung uh ∈ Vh unmittelbar ausgewertet werden. Bei den Gewichten wird zunächst die Interpolationsabschätzung (m−1) im Raum Vh vom Grad m − 1 genutzt: 1 kz − Ih zkT + h 2 kz − Ih zk∂T ≤ cI hm k∇m zkPT . Die m-ten Ableitungen von z können durch Differenzenquotienten approximiert werden: 1 ωT + ω∂T ≤ cI hm k∇m zkT ≈ cI hm |T | 2 |∇m h zh |T,∞ . 98 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Abbildung 3.9: Drei verschiedene Methoden zur Verfeinerung des Gitters. Rechts oben: Verfeinerung mit neuen Inneren Knoten. Links unten: Verfeinerung mit Hilfe von Anschlusselementen. Rechts unten: Verfeinerung mit Hilfe von hängenden Knoten. Hier entstehen vier hängende Knoten. 3.6.3 Adaptive Gitterverfeinerung Bei einem adaptiven Finite Elemente Verfahren werden die Fehlerindikatoren genutzt, um mit Informationen über die lokale Verteilung der Fehler die Triangulierung anzupassen und um dort die Diskretisierungsgenauigkeit zu erhöhen, wo der Fehler entsteht. Hierzu gibt es zwei alternative Optionen. Beim Remeshing wird mit Hilfe der Fehlerindikatoren ein komplett neues Gitter erzeugt. Hierzu wird zunächst eine Dichtefunktion H(x) erzeugt, welche angibt, welche Gitterweite in welchem Bereich des Gebiets realisiert werden soll. Im Anschluss wird ein neues Gitter mit einem Gittergenerator erzeugt. Wir betrachten hier ausschließlich die Gitterverfeinerung. Bei dieser Methode wird mit Hilfe der Fehlerindikatoren {ηT }T ∈Ωh das Gitter Ωh zu einem neuen Gitter Ω0h verändert. Dabei können entweder Elemente von Ωh zusammengefasst werden, wenn ihr Indikator-Beitrag zu dem Gesamtfehler zu vernachlässigen ist, oder aber Gitter-Elemente T ∈ Ωh werden verfeinert, also in kleinere Elemente aufgeteilt. In Abbildung 3.9 zeigen wir einige Methoden zur Verfeinerung von Dreiecks-Gittern. Bei der Gitterverfeinerung ist darauf zu achten, dass die Sequenz von Gittern Ωh für h → 0 immer noch gewissen Regularitätsbedingungen genügt: Größenregularität Die Größenregularität, also die Forderung max hT ≤ c min hT , T ∈Ωh T ∈Ωh 99 3 Die Finite Elemente Methode für elliptische Probleme Abbildung 3.10: Verfeinerung bei Verwendung von Anschlusselementen. kann sicher nicht mehr beibehalten werden. Denn das Ziel der lokalen Gitterverfeinerung ist es gerade, lokal angepasste Diskretisierungen und somit Elemente zu Verwenden. Die üblichen a priori Abschätzungen für den Fehler und die Interpolation lauten z.B.: k∇(u − uh )k ≤ chmax kf k, mit der maximalen Gitterweite hmax . Abschätzungen dieser Art verlieren bei adaptiven Finiten Elementen ihre Aussagekraft, da der Gesamtfehler nicht von der maximalen Gitterweite abhängt, sondern von der optimalen Verteilung. Formregularität Die Formregularität ist wesentlich für die Herleitung von lokalen Interpolationsabschätzungen und darf nicht durch lokale Verfeinerung verletzt werden. Bei der Aufteilung eines Dreiecks in kleinere Dreiecke muss darauf geachtet werden, dass die Innenwinkel weiterhin nicht gegen 0 oder 180 Grad gehen. Strukturregularität In Abbildung 3.9 ist oben rechts eine Methode der Verfeinerung dargestellt, welche die Struktur-Regularität erhält. Bei dieser Verfeinerung degenerieren allerdings die Dreiecke und verletzen die Formregularität. Bei den beiden Methoden in der unteren Zeile wird die Formregularität gewahrt, die vier neuen Dreiecke haben die gleichen Winkel wie das große. Durch das Einführen von zusätzlichen Knoten auf den Eckpunkten wird jedoch die Strukturregularität verletzt. Unten links wird die Verwendung von sogenannten Anschlusselementen gezeigt. Die angrenzenden Elemente werden verfeinert, diese Verfeinerung wird jedoch zurückgenommen, falls diese Elemente selbst verfeinert werden sollen. In Abbildung 3.10 werden zwei Verfeinerungsschritte bei der Verwendung von Anschlusselementen gezeigt. Im zweiten Schritt werden Anschlusselemente aufgelöst, bzw. modifiziert. Bei der Methode unten rechts bleibt die Strukturregularität verletzt. Die neuen Knoten auf den Ecken sind sogenannte hängende Knoten. Diese Knoten sind nicht echte Freiheitsgrade der Triangulierung sondern werden durch den Mittelwert der beiden angrenzenden Eckknoten ersetzt. Ziel der Gittersteuerung ist es mit Hilfe von auswertbaren Fehlerindikatoren das Gitter, also die Diskretisierung, zu verfeinern, so dass der Gesamtfehler möglichst effizient reduziert wird. 100 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Wir wählen als Beispiel die Darstellung (3.30) ηh := X ηT , ηT := ρT ωT , T ∈Ωh welche bereits in lokalisierter Form vorliegt. Verfahren zur Gittersteuerung müssen nun solche Elemente T ∈ Ωh des Gitters wählen, welche einen großen Beitrag zum Gesamtfehler haben. Folgende Leitideen liegen jeder Gitteradaption zu Grunde: 1. Wenn ein Element T ∈ Ωh verfeinert wird, so werden auch alle Elemente mit T 0 ∈ Ωh mit einem größeren Indikatorwert ηT 0 > ηT verfeinert. 2. Es wird versucht, ein Gitter mit ausbalancierten Indikatoren zu erreichen: ηT ≈ ηT 0 ∀T, T 0 , ∈ Ωh . 3. Wenn die Fehlerindikatoren balanciert sind, so wird global, also das ganze Gitter verfeinert. Im Folgenden stellen wir einige Methoden zur Gitterverfeinerung vor. Dazu seien ηi für i = 1, . . . , N die Fehlerindikatoren absteigend sortiert, also mit ηi ≥ ηi+1 : Fixed Number Es werden die p% der Elemente mit höchsten Fehlerindikatoren verfeinert. Fixed Fraction Es werden diejenigen Elemente mit höchsten Fehlerindikatoren verfeinert, die zusammen p% des Gesamtfehlers ausmachen. Balancierung Es werden alle Elemente Verfeinert, deren Fehlerindikator über dem Mittelwert liegt. 101 3 Die Finite Elemente Methode für elliptische Probleme outflow boundary 250 cm 16 cm 10 cm 195 cm 15 cm 41 cm 10 cm 45 cm 41 cm y x z inflow boundary Abbildung 3.11: Umströmung eines Hindernis. Ein numerisches Beispiel In einem Kanal Ω ⊂ R3 soll die Strömung um ein Objekt mit Rand Γo berechnet werden. Die Konfiguration ist in Abbildung 3.11 dargestellt. Ziel der Berechnung ist es, den Strömungswiderstand des Objektes zu Berechnen. Dieser ist durch ein lineares stetiges Funktional gegeben: Z J(v, p) = ν~n · ∇~v · ~e1 − np · ~e1 ds, Γo wobei ~v die Geschwindigkeit der Strömung und p der Druck ist. Auf dem Rand Γo des Hindernis ist ~n der Normalvektor und ~e1 = (1, 0, 0) ist der Einheitsvektor in Strömungsrichtung. Der exakte Wert des Fehlerfunktionals, also J(u) ist durch Vergleichsrechnungen bekannt J(u) ≈ 7.767. Zunächst wird diese numerische Simulation mit stückweise quadratischen Finiten Elementen unter Verwendung von gleichmäßigen Gittern durchgeführt. Die Ergebnisse sind in Tabelle 3.1 zusammengefasst. Um eine Fehlertoleranz von 1% einzuhalten muss bereits ein Problem mit über 1 000 000 Freiheitsgraden gelöst werden. D.h., wir müssen lineare Gleichungssysteme der Dimension A ∈ R1 000 000×1 000 000 lösen! Im Anschluss wird die gleiche Berechnung mit Hilfe von lokal verfeinerten Gittern wiederholt. Als Fehlerschätzer kommt der dual gewichtete Fehlerschätzer zum Einsatz. Das duale Problem wird im gleichen Ansatzraum approximiert wie das eigentliche Problem, also uh ∈ Vh und zh ∈ Vh . Zur Approximation der Fehleridentität wird die oben beschriebene Interpolation von höherer Ordnung verwendet. In Tabelle 3.2 fassen wir die Ergebnisse zusammen. Bei der Verwendung von adaptiven Finiten Elementen auf lokal verfeinerten Gittern wird ein relativer Fehler von 1% bereits mit 85 000 Freiheitsgraden erreicht. Auf global verfeinerten Gittern ist mit 1 300 000 die 15 fache Anzahl von Freiheitsgraden notwendig. Wird eine Fehlertoleranz von unter 0.1% angestrebt, so ist die Ersparnis sogar ein Faktor 150. In Abbildung 3.12 zeigen wir einige Gitter und Ausschnitte von Gittern aus den Berechnungen mit lokal verfeinerten Elementen. 102 3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente Gitterzellen 78 624 4 992 39 936 319 488 2 255 904 Freiheitsgrade 3 696 24 544 177 600 1 348 480 10 787 840 86 302 720 Funktionalwert 13.3149 8.0450 7.9759 7.7878 7.7579 7.7612 Fehler 5.5479 0.2780 0.2089 0.0208 0.0091 0.0058 relativer Fehler 71.4% 3.58% 2.69% 0.27% 0.12% 0.07% Tabelle 3.1: Umströmung eines Hindernis und Widerstandsberechnung mit quadratischen Finiten Elementen unter Verwendung von uniform verfeinerten Gittern. Gitterzellen 78 624 2 427 7 120 16 808 54 880 Freiheitsgrade 3 696 24 544 84 945 242 080 571 472 1 811 040 Funktionalwert 13.3149 8.0450 7.7942 7.7881 7.7595 7.7620 Fehler 5.5479 0.2780 0.0272 0.0211 0.0075 0.0050 relativer Fehler 71.4% 3.58% 0.35% 0.27% 0.10% 0.06% Tabelle 3.2: Widerstandsberechnung mit quadratischen Finiten Elementen. Lokal verfeinerte Gitter mit dem dual gewichteten Fehlerschätzer. Abbildung 3.12: Gitterausschnitte aus der dreidimensionalen Umströmung eines Hindernis. 103 3 Die Finite Elemente Methode für elliptische Probleme 104 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Das Bestimmen der Finite Elemente Approximation uh ∈ Vh einer linearen Randwertaufgabe erfordert das Lösen eines linearen Gleichungssystems Ah uh = bh . In diesem Kapitel befassen wir uns mit iterativen Approximationsverfahren für große lineare Gleichungssysteme, welche von der Finite Elemente Diskretisierung einer partiellen Differentialgleichung stammen. Wir beschränken uns dabei wieder im Wesentlichen auf das Dirichlet-Problem des Laplace-Operators: −∆u = f in Ω ⊂ R2 , u = 0 auf ∂Ω. Bei Bedarf gehen wir auf andere, z.B. nicht-symmetrische Gleichungen, oder auch die (einfache) Erweiterung auf dreidimensionale Probleme ein. Die Matrix A ∈ RN ×N erbt die Eigenschaften des Differentialoperators, d.h., falls z.B. die Randwertaufgabe definit ist, so ist es auch die Matrix, falls sie symmetrisch ist, so ist auch die Matrix symmetrisch. Üblicherweise ist N 1000 sehr groß. Daher scheiden direkte Verfahren, wie die LR- oder Cholesky-Zerlegung als Lösungsmethoden aus. 4.1 Eigenschaften der linearen Gleichungssysteme Das lineare Gleichungssystem Au = b stamme von der Finite Elemente Diskretisierung der Poisson-Gleichung. Wir wissen, dass die Matrix A symmetrisch und positiv definit, also insbesondere auch regulär ist. Für die Kondition der Systemmatrix A gilt cond2 (A) = O(h−2 ). Hierbei ist das quadratische Anwachsen der Kondition durch die zweite Ordnung des betrachteten Laplace-Operators bedingt und gilt für beliebige Finite Elemente Ansatzräume. Aufgrund des Konstruktionsprinzip von Finite Elemente Ansätzen sind die Matrizen dünn besetzt, denn z.B. für Lagrange-Ansätze gilt: (i) (j) supp (φh ) ∩ supp (φh ) 6= ∅ ⇔ ∃T ∈ Ωh , xi , xj ∈ T̄ . Die genaue Anzahl von Matrix-Einträgen pro Matrixzeile hängt jedoch stark vom jeweiligen Finite Elemente Ansatz und auch von der zugrundeliegenden Triangulierung ab. 105 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Abbildung 4.1: Ausschnitt von zwei uniformen Dreiecksgittern und jeweilige Knotenfunktionale der linearen Finiten Elemente Diskretisierung, sowie uniformes Vierecksgitter mit den Knotenfunktionalen der biquadratischen Finiten Elemente. Beispiel 4.1 (Matrix-Struktur). Zunächst betrachten wir die Diskretisierung der PoissonGleichung mit linearen Finiten Elementen auf einem gleichmäßigen Dreiecksgitter wie in Abbildung 4.1 links. Auf jeder Zelle T liegen drei Knotenpunkte xi , das heißt pro Zelle überschneiden sich drei Basisfunktionen. In jedem Knoten xi kommen auf diesem Gitter sechs Eckpunkte zusammen. Jede Matrix-Zeile (die j-te Zeile beinhaltet jeweils die Kopplungen (j) der Testfunktion φh zu allen anderen Testfunktionen) hat neben dem Diagonaleintrag noch sechs Nebendiagonaleinträge. In der mittleren Abbildung ist ein weiteres, auch sehr regelmäßiges Dreiecksgitter gezeigt. Hier gibt es Knoten xi , welche Eckpunkte (die rund markierten) von vier Dreiecken sind, sowie Knoten (die eckigen), in welchen 8 Dreiecke zusammenkommen. Neben der Nebendiagonale gibt es also noch vier oder noch 8 weitere Matrixeinträge pro Zeile. In der Abbildung rechts wird ein uniformes Gitter mit den Knotenpunkten xi der biquadratischen Finiten Elemente gezeigt. Hier muss die Analyse der Matrixeinträge je nach Typ der Knotenfunktionale erfolgen, ob die Punkte im Innern (Viereck), in den Eckpunkten (Kreis) oder auf den Kanten (Dreieck) liegen. In jedem Elemente T überschneiden sich die Träger von 9 Basisfunktionen. Die Matrixzeile, welche zu einem Knoten im Innern eines Elementes gehört hat demnach inklusive Diagonalelement 9 Einträge, da für die zugehörige Basisfunkti(i) on gilt supp (φh ) = T . Basisfunktionen zu Punkten auf den Kanten haben einen Träger auf genau zwei Vierecken und erzeugen somit 15 Matrixeinträge. Für Knotenpunkte auf einer Ecke entstehen 25 Matrixeinträge. Die betrachteten Beispiele zeigen, dass auch bei einfachen Ansätzen und gleichmäßigen Gittern keine einheitliche Matrixstruktur erwartet werden kann. Vielmehr muss davon ausgegangen sein, dass die Matrix generell unstrukturiert ist und sich von Zeile zu Zeile ändern kann. Dies ist insbesondere der Fall, wenn allgemeine Gitter zugelassen werden, in denen sich pro Eckknoten unterschiedlich viele Elemente treffen. Das “Aussehen” der Matrix A hängt zusätzlich noch von der gewählten Nummerierung der Freiheitsgrade im Gitter ab. Angenommen das Gitter habe N = M 2 Knoten, mit M Knoten in jeder Raumrichtung. Werden z.B. die Freiheitsgrade im Gitter links von Abbildung 4.1 106 4.2 Krylow-Raum-Methoden lexikographisch, also von unten links, nach oben rechts nummeriert ergibt sich eine BlockBandmatrix mit der Struktur: B −I −I B −I −I B −I A= .. .. . . −I .. . B −I M, −I 4 −1 −1 4 −1 −1 4 −1 B= .. .. . . −1 B .. . 4 −1 M, −1 4 Man beachte, dass jede Matrixzeile nur 5 Einträge ungleich Null hat, obwohl nach obiger Diskussion 7 Einträge entstehen sollten. Die beiden Einträge zur jeweils Diagonalen Kopplung verschwinden jedoch auf diesem gleichmäßigen Gitter aus Symmetriegründen und sind im Allgemeinen vorhanden. Auf allgemeinen Gittern, oder bei anderer Nummerierung der Freiheitsgrade im Gitter ist üblicherweise keine Bandstruktur gegeben. Zum effizienten Speichern dieser dünn besetzten Matrizen sind daher spezielle Speicherstrukturen notwendig. 4.2 Krylow-Raum-Methoden In diesem Abschnitt diskutieren wir sogenannte Krylow-Raum-Methoden. Hierzu zählt insbesondere das Verfahren der konjugierten Gradienten, CG-Verfahren genannt. Für die weitere Diskussion sei also durch Au = b, (4.1) das lineare Gleichungssystem mit einer positiv definiten symmetrischen (und dünn besetzten) Matrix A ∈ RN ×N gegeben. Weiter sei durch h·, ·i das euklidische Skalarprodukt im RN und durch | · | die entsprechende euklidische Vektornorm gegeben. Es gilt: Satz 4.1 (Minimierungsaufgabe). Die Lösung des linearen Gleichungssystems (4.1) ist unter den gegebenen Voraussetzungen an die Matrix A äquivalent zur Lösung einer quadratischen Minimierungsaufgabe: Au = b ⇔ Q(u) = min Q(x), x∈RN 1 Q(x) := hAx, xi − hb, xi 2 (4.2) Beweis: Es gilt für die notwendige Bedingung an das Minimum: 1 ∇Q(x) = (A + AT )x − b = Ax − b. 2 Für die zweiten Ableitungen der quadratischen Form Q(·) gilt: ∇2 Q(x) = A, und aus der positiven Definitheit der Matrix A folgt, dass ein eindeutig bestimmtes Minimum von (4.2) existiert, welches Lösung von (4.1) ist. 107 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Der Gradient der Form Q(·) in einem Punkt x ist gerade das (negative) Residuum der linearen Gleichung: Q(x) = Ax − b =: −r(x). Für das weitere Vorgehen verwenden wir: Satz 4.2 (A-Norm, A-Skalarprodukt). Es sei A ∈ RN ×N eine symmetrisch positiv definite Matrix. Dann sind durch: 1 hx, yiA := hAx, yi, |x|A := hx, xiA2 , ein Skalarprodukt, bzw. eine Norm definiert. Man nennt diese Norm die diskrete EnergieNorm. Beweis: Übungsaufgabe. Sei x die Lösung von Ax = b. Dann gilt für das Minimum Q(x) auch: 2Q(x) = hAx, xi − 2hb, xi = hAx, xi − hb, xi − hAx, A−1 bi + hb, A−1 bi − hb, A−1 bi = hAx − b, x − A−1 bi − hb, A−1 bi = hA−1 (Ax − b), Ax − bi − hb, A−1 bi = |Ax − b|A−1 − |b|A−1 = hx − A−1 b, A(x − A−1 b)i − hAA−1 b, A−1 bi = |x − u|A − |u|A . Wir bekommen für die Lösung des linearen Gleichungssystems zwei weitere Charakterisierungen: einerseits ist die Minimierung von Q(·) äquivalent zur Minimierung der Defektnorm |Ax − b|A−1 andererseits zur Minimierung der Energienorm |x − u|A . Krylow-Raum Methoden basieren nun auf einer schrittweisen Approximation des Minimierungsproblems in einer der gegebenen Formulierungen. 4.2.1 Abstiegsverfahren Wir beschreiben zunächst das einfache Abstiegsverfahren. Ausgehend von einem Startwert x(0) ∈ RN werden Abstiegsrichtungen d(i) gewählt. Dann wird eine Folge von Iterierten durch die Vorschrift x(t+1) = x(t) + αt d(t) , t ≥ 0, bestimmt. Dabei ist der Parameter αt ∈ R die Lösung des (eindimensionalen) Minimierungsproblems: Q(x(t+1) ) = min Q(x(t) + αd(t) ). α∈R Die Optimalitätsbedingung an α ergibt: d Q(x(t) + αd(t) ) = ∇Q(x(t) + αd(t) )d(t) = hAx(t) − b, d(t) i + αhAd(t) , d(t) i = 0, dα 108 4.2 Krylow-Raum-Methoden Mit dem Residuum r(t) := b − Ax(t) ergibt dies: αt = hr(t) , d(t) i hAd(t) , d(t) i Wir fassen zusammen Algorithmus 4.1 (Abstiegsverfahren). Sei x(0) ∈ RN ein gegebener Startvektor, d(t) Abstiegsrichtungen. Iteriere für t ≥ 0: 1. r(t) := b − Ax(t) 2. αt = hr(t) ,d(t) i hAd(t) ,d(t) i 3. x(t+1) = x(t) + αt d(t) Ein konkretes Abstiegsverfahren erreicht man nun durch Wahl von entsprechenden Abstiegsrichtungen d(t) . Die einfachste Möglichkeit ist die Wahl d(t) := e(t) , wobei e(t) der t-te kartesische Einheitsvektor ist. Es kann gezeigt werden, dass ein kompletter Durchlauf des Abstiegsverfahren mit diesen Abstiegsrichtungen dem Gauß-Seidel-Verfahren entspricht. Der Gradient −∇Q(x(t) ) = r(t) gibt die Richtung des stärksten Abfalls an und ist die Basis des sogenannten Gradientenverfahrens: Algorithmus 4.2 (Gradientenverfahren). Sei x(0) ∈ RN ein gegebener Startvektor. Iteriere für t ≥ 0: 1. r(t) := b − Ax(t) 2. αt = |r(t) |2 |r(t) |2A 3. x(t+1) = x(t) + αt r(t) Dieses sehr einfache Verfahren konvergiert im Allgemeinen jedoch nur äußerst langsam, etwa wie die einfache Richardson-Iteration. Es gilt eine Orthogonalitätsbeziehung zwischen aufeinander folgenden Abstiegsrichtungen: Satz 4.3 (Orthogonalität im Gradientenverfahren). Je zwei aufeinander folgende Abstiegsrichtungen im Gradientenverfahren stehen orthogonal aufeinander: hr(t) , r(t+1) i = 0 t ≥ 0. Beweis: Sei X (t) gegeben. Es gilt: r(t) := b − Ax(t) , sowie x(t+1) = x(t) + |r(t) |2 (t) r |r(t) |2A r(t+1) := b − Ax(t+1) , ⇒ r(t+1) = r(t) − |r(t) |2 Ar(t) . |r(t) |2A 109 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen x(t) Abbildung 4.2: Niveaulinien des Gradientenverfahrens. Dann gilt: hr(t) , r(t+1) i = |r(t) |2 − |r(t) |2 hAr(t) , r(t) i = 0. |r(t) |2A Im Allgemeinen müssen die Abstiegsrichtungen jedoch nicht orthogonal aufeinander stehen, d.h. hr(t) , r(t+2) i = 0 gilt im Allgemeinen nicht (und zwar nicht einmal annähernd). Dies führt in der Anwendung zu einem stark oszillierenden Konvergenzverhalten, insbesondere, wenn die Matrix A stark unterschiedliche Eigenwerte hat. Beispiel 4.2 (Konvergenz der Gradientenverfahrens). Wir betrachten das lineare Gleichungssystem Ax = b, mit der Matrix und rechten Seite ! A := 16 0 , 0 2 ! b := 1 , 1 mit den Eigenwerten 16 und 2. Die Lösung dieses Gleichungssystems ist äquivalent zur Minimierung des quadratischen Funktionals Q(x) = 8x12 + x22 − x1 − x2 . Die Niveaulinien Q(x) = c dieser quadratischen Form sind stark elliptisch, siehe Abbildung (4.2). Angenommen, x(t) sein eine gegebene Approximation. Das Residuum r(x(t) ) als neue Abstiegsrichtung steht orthogonal auf der Durch x(t) laufenden Niveaulinie. Jeweils zwei Richtungen stehen orthogonal aufeinander, r(t) und r(t+2) sind hingegen fast parallel. Dies führt zu sehr langsamen, ineffizienten Konvergenzverhalten. 4.2.2 Das Verfahren der konjugierten Gradienten (CG-Verfahren) Das CG-Verfahren versucht nun die Struktur der Matrix und der quadratischen Form besser auszunutzen: die Abstiegsrichtungen d(t) sollen so gewählt werden, dass sie alle aufeinander orthogonal stehen. Anstelle der Lösung eines eindimensionalen Optimierungsproblems in jedem Schritt des Abstiegsverfahren suchen wir nun die neue Lösung in der Form x(t) ∈ x(0) + Kt , 110 Q(x(t) ) = Q(x), min x∈x(0) +K t 1 Q(x) := hAx, xi − hb, xi, 2 (4.3) 4.2 Krylow-Raum-Methoden mit dem Raum, welcher durch die Abstiegsrichtungen aufgespannt wird: Kt := span{d(0) , . . . , d(t−1) }. Ein solches Verfahren terminiert nach N Schritten zwangsläufig und liefert die gesuchte Lösung. D.h., wir können das Verfahren als ein direktes Verfahren interpretieren. Im Allgemeinen werden wir jedoch nur mit einer kleinen Zahl von Schritten eine Näherungslösung erstellen. Es gilt: Satz 4.4 (Galerkin-Gleichung). Die Lösung x(t) ∈ x(0) + Kt der Minimierungsaufgabe (4.3) ist eindeutig durch die Galerkin-Gleichung beschrieben: hb − Ax(t) , yi = 0 ∀y ∈ Kt . (4.4) Beweis: Übung. Die Lösung x(t) stellen wir nun als Entwicklung in den Abstiegsrichtungen dar: (t−1) x (t) := x (0) + X αi d(i) . i=0 Wir setzen diese Entwicklung in die Galerkin-Gleichung (4.4) ein und erhalten als bestimmendes Gleichungssystem t−1 X αi hAd(i) , d(j) i = hb − Ax(0) , d(j) i. i=0 Wenn es uns nun gelingt, eine A-orthogonale Basis der Abstiegsrichtungen {d(0) , . . . , d(t−1) } zu erzeugen, so kann dieses lineares Gleichungssystem trivial gelöst werden. Für die Ansatzräume Kt wählen wir sogenannte Definition 4.1 (Krylow-Räume). Sei A ∈ RN ×N eine Matrix, sowie r(0) ∈ RN das Residuum zum Startwert r(0) := b − Ax(0) . Wir definieren den Krylow-Raum Kt (r(0) ; A) := span {r(0) , Ar(0) , . . . , At−1 r(0) }, und schreiben kurz Kt := Kt (r(0) , A). Bemerkung 4.1. Wir betrachten den Fall x(0) = 0 und somit r(0) = b. Jeder Vektor y ∈ Kt hat die Form y = p(A)b, mit einem Polynom p(·) vom Grad t−1. Das bedeutet, die Minimierung von Q(·) im KrylowRaum kann als eine polynomiale Approximation der Lösung in der Form x = A−1 b ≈ p(A)b = x(t) verstanden werden. 111 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Es gilt nun für die Galerkin-Lösung im Krylow-Raum Kt der Satz: Satz 4.5 (Residuen der Krylow-Raum Minimierung). Für die Residuuen der Krylow-Raum Minimierung gilt: (i) r(t) ∈ Kt+1 , (ii) r(t) ⊥ Kt , (iii) Kt+1 ⊂ Kt ⇒ x(t) = x. Beweis: (i) Zunächst gilt: r(t) = b − Ax(t) = r(0) − r(0) + b − Ax(t) = r(0) − b + Ax(0) + b − Ax(t) = r(0) + A(x(0) − x(t) ) ∈ Kt + AKt ⊂ Kt+1 (r(0) ; A). (ii) Aus der Galerkin-Gleichung (4.4) folgt unmittelbar: r(t) = b − Ax(t) ⊥ Kt . Wegen r(i) ∈ Kt für alle i < t gilt: r(i) ⊥ r(j) ∀i < j < t (iii) Angenommen Kt+1 ⊂ Kt . Dann ist auch r(t) ∈ Kt+1 ⊂ Kt , aber nach (ii) gilt r(t) ⊥ Kt . Also ist |r(t) | = 0, somit r(t) = 0 und durch Ax(t) = b ist die Lösung bestimmt. Sobald das Krylow-Raum Verfahren abbricht, weil die Krylow-Räume nicht mehr größer werden, ist die Lösung gefunden. Für diese Konstruktion ist es wesentlich, dass der KrylowRaum um das erste Residuum herum aufgespannt wird. Zum Durchführen des Krylow-Raum Verfahrens muss nun eine A-orthogonale Basis der Räume Kt erstellt werden. Diese Basis besteht dann aus den Abstiegsrichtungen Kt = span{d(0) , . . . , d(t−1) }. Prinzipiell wäre es möglich diese Basis mit dem Gram-Schmidt oder anderen Orthogonalisierungsverfahren wie der Householder-Transformation oder den GivensRotations zu erstellen. Diese Verfahren haben allerdings den Nachteil, dass der Aufwand Orthogonalisierung eines Vektors d(t) mit größer werdendem t steigt. Darüber hinaus ist insbesondere das Gram-Schmidt-Verfahren numerische instabil und sehr anfällig für Akkumulation von Rundungsfehlern. Stattdessen werden wir für die symmetrische Matrix A eine zweistufige Rekursionsformel zur Orthogonalisierung entsprechend dem Vorgehen bei den orthogonalen Legendre-Polynomen herleiten. Wir gehen nun also davon aus, dass durch {d(0) , . . . , d(t−1) } eine A-orthogonale Basis des Kt besteht. Weiter sei durch x(t) ∈ x(0) + Kt die Galerkin-Lösung und durch r(t) = b − Ax(t) ∈ Kt+1 das entsprechende Residuum gegeben. Wir suchen nun d(t) ∈ Kt+1 als Orthogonalisierung von r(t) bzgl. der {d(0) , . . . , d(t−1) } gemäß dem Ansatz: d(t) = r(t) + t−1 X j=0 112 βjt−1 d(j) ∈ Kt+1 . (4.5) 4.2 Krylow-Raum-Methoden Ohne Einschränkung sei r(t) 6∈ Kt , denn ansonsten folgt laut Satz 4.5 r(t) = 0 und die Lösung liegt vor. Wir multiplizieren Gleichung (4.5) mit einem Ad(i) für ein i = 0, . . . , t − 1 also ein d(i) ∈ Kt . 0 = hd(t) , Ad(i) i = hr(t) , Ad(i) i + t−1 X βjt−1 hd(j) , Ad(i) i, i = 0, . . . , t − 1. j=0 Es gilt hd(j) , Ad(i) i = 0 für alle i 6= j, also bleibt nur ein Term für j = i in der Summe erhalten: hr(t) − βit−1 d(i) , Ad(i) i = 0, i = 0, . . . , t − 1. Laut Satz 4.5 gilt r(t) ⊥ Kt und wegen Ad(i) ∈ Kt für i < t − 1 folgt hr(t) , Ad(i) i = 0 und βit−1 hd(i) , Ad(i) i = 0 i<t−1: (t−1) ⇒ βi = 0. Es bleibt der Fall i = t − 1: i=t−1: t−1 (t−1) hr(t) , Ad(t−1) i + βt−1 hd , Ad(t−1) i = 0 j−1 βj−1 =− ⇒ hr(t) , Ad(t−1) i . hd(t−1) , Ad(t−1) i Das heißt, mit dem Ansatz (4.5) erhalten wir den neuen A-orthogonalen Basis-Vektor als: t−1 βt−1 := βt−1 = hr(t) , Ad(t−1) i , hd(t−1) , Ad(t−1) i d(t) = r(t) − βt−1 d(t−1) . (4.6) d(t) ist die neue Abstiegsrichtung und die nächste Approximation x(t+1) wird gemäß dem Abstiegsverfahren bestimmt als: αt = hr(t) , d(t) i , hd(t) , Ad(t) i x(t+1) = x(t) + αt d(t) . (4.7) Mit dieser Notation können wir auch für das neue Residuum r(t+1) eine einfache Rekursionsformel herleiten. Es gilt: r(t+1) = b − Ax(t+1) = r(t) − αt Ad(t) . (4.8) Diese drei Rekursionsformeln (4.6-4.8) bilden das klassische CG-Verfahren. Ausgehend von einem Startwert x(0) werden rekursiv Residuen, die A-orthogonale Basis und die neue Lösung berechnet. Die Formeln zur Berechnung der Faktoren βt−1 und αt können effizienter geschrieben werden. Denn wegen der Orthogonalität r(t) ⊥ Kt gilt für den Nenner von αt und βt αt hd(t) , Ad(t) i = hd(t) , αt Ad(t) + r(t+1) i = hd(t) − βt−1 d(t−1) i = |r(t) |2 , | {z } r(t) | {z r(t) ,r(t) } sowie für den Zähler von βt : −αt hr(t+1) , Ad(t) i = hr(t+1) , r(t) − αt Ad(t) i = |r(t+1) |2 . | {z r(t+1) } 113 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Solange r(t) 6= 0 gelten die vereinfachten Formeln: αt = |r(t) |2 , hd(t) , Ad(t) i βt−1 := |r(t) |2 . |r(t−1) |2 Wir fassen zusammen Algorithmus 4.3 (CG-Verfahren). Sei x(0) ∈ RN ein gegebener Startwert sowie d(0) = r(0) = b − Ax(0) . Iteriere für t ≥ 0 (i) αt = |r(t) |2 hAd(t) , d(t) i (ii) x(t+1) = x(t) + αt d(t) (iii) r(t+1) = r(t) − αt Ad(t) (iv) βt = (v) |r(t+1) |2 |r(t) |2 d(t+1) = r(t+1) + βt d(t) . Das CG-Verfahren bricht ab, wenn |r(t) | = 0. In diesem Fall ist die gesuchte Lösung erreicht. Üblicherweise wird das CG-Verfahren jedoch nur zur Approximation der Lösung mit t N verwendet. In jedem Schritt des CG-Verfahrens muss eine Matrix-Vektor Multiplikation, sowie 2 Skalarprodukte und 3 Additionen von Matrizen durchgeführt werden. Angenommen, die dünn besetzte Matrix hat maximal M Einträge pro Zeile (siehe Diskussion in Abschnitt 4.1), dann ist der Gesamtaufwand pro Schritt O((5 + M )N ) arithmetische Operationen. Falls das CG-Verfahren als direkter Löser eingesetzt wird, wäre die Gesamtkomplexität O(N 2 M ). Es gilt: Satz 4.6 (CG-Verfahren). Das CG-Verfahren bricht für jeden Startwert x(0) ∈ RN nach maximal N −1 Schritten ab und liefert x(t) = x. Für 0 ≤ t ≤ N −1 gilt die Fehlerabschätzung: |x − x(t) |A ≤ 2 1− 1+ t √1 κ |x √1 κ − x(0) |A , mit der Spektralkondition κ := cond2 (A). Zur Reduktion des Fehlers um den Faktor ε > 0 sind maximal: √ κ 2 t(ε) ≤ ln +1 2 ε Schritte notwendig. Beweis: Siehe [Rannacher]. 114 4.2 Krylow-Raum-Methoden Bemerkung 4.2 (CG-Verfahren als iteratives Lösungsverfahren). Angenommen, die Finite Elemente Diskretisierung der Poisson-Gleichung soll mit dem CG-Verfahren gelöst werden. Hierzu soll eine feste Genauigkeit ε erreicht werden. Die Konvergenzgeschwindigkeit und die benötigte Anzahl an Schritten wird durch die Spektralkondition der Systemmatrix Ah bestimmt. Es gilt: κ(Ah ) = O(h−2 ), und also: t(ε) = O(h−1 ). In einem d-dimensionalen Gebiet mit uniformen Triangulierung gilt die Relation N = O(h−d ). Also sind 1 t(ε) = O(N d ) Schritte erforderlich. Der Gesamtaufwand zum Lösen des Gleichungssystems ist somit 1 NCG = O((5 + M )N 1+ d ) 3 arithmetische Operationen. In zweidimensionalen Gebieten ergibt sich O(N 2 ). Für große N ist das CG-Verfahren weit effizienter als direkte Methoden, oder als z.B. die Jacobi oder die Gauß-Seidel-Iteration. 4.2.3 Krylow-Raum Verfahren für nicht-symmetrische Gleichungssysteme Satz 4.1 ist Grundlage des CG-Verfahrens, da er die Äquivalenz zwischen linearem Gleichungssystem und Minimierung der quadratischen Form Q(·) herstellt. Dieser Satz gilt nur für symmetrische Matrizen. Allgemeiner erhalten wir: Satz 4.7 (Minimierung des Residuums). Es sei A ∈ RN ×N eine reguläre Matrix. Dann ist das lineare Gleichungssystem Ax = b äquivalent zur Minimierung des Residuums kb − Axk = min kb − Ayk. y∈RN Beweis: Sei x das Minimum des Residuums in der l2 -Norm. Dann gilt: 0= und also 0= d kb − A(x + sy)k2 ds s=0 ∀y ∈ RN , d kb − Ax − sAyk2 = 2hb − Ax, Ayi ds s=0 ∀y ∈ RN . Da A regulär ist folgt hb − Ax, yi = 0 für alle y ∈ RN und schließlich Ax = b. Umgekehrt sei nun x die Lösung des linearen Gleichungssystems. Dann gilt für y beliebig: kb − Ayk2 − kb − Axk2 = hAy, Ayi − hAx, Axi − 2hb, Ayi + 2hb, Axi = hAy, Ayi + hAx, bi − 2hAx, Ayi = kAx − Ayk2 > 0. 115 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Anstelle der quadratischen Form soll jetzt direkt das Residuum der Gleichung minimiert werden. Mit dem Krylow-Raum Kt := Kt (r(0) ; A) = span{r(0) , Ar(0) , . . . , At−1 r(0) }, wird ein x(t) ∈ x(0) + Kt gesucht, so dass gilt: kb − Ax(t) k2 = min kb − Ayk2 . y∈Kt (4.9) Für dieses Minimum gilt wieder eine Orthogonalitätsbeziehung: Satz 4.8 (Galerkin-Gleichung). Die Lösung x(t) ∈ x(0) + Kt der Minimierungsaufgabe (4.9) ist eindeutig durch die Galerkin-Gleichung beschrieben: hb − Ax(t) , Ayi = 0 ∀y ∈ Kt . (4.10) Beweis: Übung. Zum Ansatz sei zunächst eine orthogonale Basis {d(0) , . . . , d(t−1) } des Kt gegeben. Durch Qt := [d(0) , . . . , d(t−1) ] ∈ RN ×t , ist eine Matrix mit QT Q = I gegeben. Jede Lösung x(t) ∈ x(0) + Kt kann dann in der Form x(t) = x(0) + Qt y(t) , y(t) ∈ Rt geschrieben werden. Wir setzen diesen Ansatz in die Galerkin-Gleichung (4.10) ein und erhalten: hr(0) − AQt y(t) , AQz(i) i = 0 ∀z(i) ∈ Rt . Um die gesuchte Approximation x(t) = Qt y(t) zu finden, muss also nur ein lineares Gleichungssystem mit t Unbekannten und Gleichungen gelöst werden. Diese Idee ist Grundlage des Generalized Minimal Residual Verfahrens (GMRES). In einem ersten Schritt wird eine Orthonormalbasis des Kt erstellt. Anschließend wird das lineare Gleichungssystem im Rt gelöst um schließlich mittels x(t) = Qt y(t) die Approximation zu erhalten. Für allgemeine Matrizen A sind Konvergenzaussagen schwer zu treffen. Wegen der Herleitung über die Minimierung des Residuums konvergiert dieses aber monoton, wie bei dem CG-Verfahren. Im Fall fehlerfreier Arithmetik ist das GMRES-Verfahren ein direktes Lösungsverfahren. In der Anwendung werden jedoch stets nur wenige Schritte durchgeführt. Kern des Verfahrens ist die Orthogonalisierung des Krylow-Raums Kt . Je größer der Raum Kt umso aufwändiger ist auch die Orthogonalisierung. Aus diesem Grund wird üblicherweise nur eine feste Zahl m von Schritten des GMRES-Verfahrens ausgeführt und anschließend 0 mit einer besseren Startlösung x(0) = x(m) neu gestartet. (GMRES-Verfahren mit Restart). 116 4.2 Krylow-Raum-Methoden 4.2.4 Vorkonditionierung Satz 4.6 sagt, dass die Konvergenzgeschwindigkeit des CG-Verfahrens im Wesentlichen von der Spektralkondition der Matrix A abhängt. Die Idee der Vorkonditionierung ist es, das Gleichungssystem durch Multiplikation einer Matrix P−1 derart zu ändern, so dass für die Matrix P−1 A gilt: cond2 (P−1 A) conds (A). Dann wird anstelle von Ax = b das System P−1 Ax = Pb, gelöst, welches wegen der weitaus besseren Spektralkondition von P−1 A schneller konvergiert. Wir gehen zunächst davon aus, dass die Matrix A symmetrisch positiv definit ist und mit dem CG-Verfahren gelöst werden soll. Das vorkonditionierte System muss dann auch symmetrisch positiv definit sein. Der symmetrisch positiv definite Vorkonditionierer P liege also in der Form: P = KKT , vor. Dann lösen wir: K−T K−1 A(K −T K T )x = K−T K−1 b ⇒ −1 −T T −1 K AK | {z }K | {z x} = K | {z b} . =:à =x̃ =b̃ Für die Matrix à gilt: K−T ÃKT = (K−T K−1 )A(K−T KT ) = P−1 A. Die Matrix à ist also ähnlich zur Matrix P−1 A. Ähnliche Matrizen haben die gleichen Eigenwerte. Im Fall P = A ist die Matrix à also ähnlich zur Einheitsmatrix mit der Kondition cond2 (I) = 1. In diesem Fall wäre das Konvergenzverhalten des CG-Verfahrens optimal. Im Folgenden formulieren wir das sogenannte Vorkonditionierte CG-Verfahren oder Preconditioned Conjugate Gradient (PCG): Algorithmus 4.4 (PCG-Verfahren). Sei P = KKT ein Vorkonditionierer sowie x(0) ∈ RN ein Startwert. Setze d(0) = r(0) = b − Ax(0) sowie z(0) = P−1 d(0) . Iteriere (i) αt = hr(t) , z(t) i hAd(t) , d(t) i (ii) x(t+1) = x(t) + αt d(t) (iii) r(t+1) = r(t) − αt Ad(t) (iv) z(t+1) = P−1 r(t+1) (v) (vi) βt = hr(t+1) , z(t+1) i hr(t) , z(t) i d(t+1) = r(t+1) + βt d(t) . 117 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Im Vergleich zum einfachen CG-Verfahren fällt als zusätzlicher Aufwand insbesondere das Lösen des Vorkonditionierersystems Pz(t+1) = r(t+1) an. Hierzu kann die Zerlegung P = KKT genutzt werden. Der Vorkonditionierer sollte also einerseit möglichst einfach zu invertieren sein, auf der anderen Seite sollte P ≈ A, insbesondere sollten das Eigenwerte von P−1 A möglichst nahe beieinander liegen. Jacobi-Vorkonditionierung Für P eignet sich z.B. das Jacobi-Verfahren mit 1 1 PJ = D 2 D 2 . PJ = diag(A) =: D, Dieser Vorkonditionierer ist sehr “billig” anzuwenden und sorgt dafür, dass die Einträge der Matrix A skaliert werden. Insbesondere gilt ãii = 1 für i = 1, . . . , N . Dies kann zu einer Reduktion der Kondition führen. Mit Hilfe der Gerschgorin-Kreise kann eine einfache Abschätzung für die Eigenwerte gefunden werden. Bei à liegt der Mittelpunkt stets bei 1. SOR-Vorkonditionierung Das Gauß-Seidel Verfahren kann nicht in der Form P = KKT faktorisiert werden, es ist nicht symmetrisch. Die Matrix A sei additiv zerlegt in A = L + D + R = L + D + LT , da A symmetrisch. Das SOR-Verfahren hat die Iterationsmatrix: 1 1 1 1 PSOR = (D + ωL)D−1 (D + ωLT ) = (D 2 + ωLD− 2 ) (D 2 + ωD− 2 LT ) | {z K }| {z KT } Bei optimaler Wahl der Relaxationsparameters ω (dies ist im Allgemeinen jedoch nicht möglich) wird eine wesentliche Reduktion der Kondition erreicht: cond2 (Ã) = q cond2 (A). Unvollständige Cholesky-Vorkonditionierung Abschließend stellen wir noch ein schwer zu analysierendes, jedoch höchst erfolgreiches Verfahren vor. Durch à ≈ C̃C˜T , sei die unvollständige Cholesky-Zerlegung von A gegeben. Die Cholesky-Zerlegung als Spezialfall der LR-Zerlegung ist üblicherweise voll besetzt. Mit C̃C˜T bezeichnen wir die Approximative Zerlegung der Matrix A. Elemente cij von C̃ werden künstlich auf Null gesetzt, wenn für den Matrixeintrag aij = 0 gilt. Durch gute Vorkonditionierung, etwa mit dem SOR-Verfahren oder der Cholesky-Zerlegung kann die Konditionierung des vorkonditionierten Systems (bei der Poisson-Gleichung) auf cond(Ã) = O(h−1 ) verbessert werden. Hierdurch wird die Konvergenzrate des CG-Verfahrens √ 5 von 1 − O(h) auf 1 − O( h) verbessert. Dies führt zu einem Gesamtaufwand von O(N 4 ). 118 4.3 Mehrgitterverfahren 4.3 Mehrgitterverfahren Alle bisher betrachteten iterativen Lösungsverfahren hängen von der Kondition der Matrix und damit bei der Behandlung der FE Diskretisierung der Poisson-Gleichung vom Gitter. Im Folgenden betrachten wir die eindimensionale Diskretisierung mit linearen Finiten Elementen auf einem uniformen Gitter mit N Elementen. Als prototypisches Iterationsverfahren werden wir die gedämpfte Richardson-Iteration genauer untersuchen. Es ist: x(t+1) = x(t) + θ(b − Ax(t) ) = (I − θA) x(t) + θb, | {z =:Bθ } mit der Iterationsmatrix Bθ . Die positiv definite Matrix A hat in Stencil-Notation die Form: h i A = −1 2 −1 . Diese Matrix hat die Eigenvektoren ωk ∈ RN +1 mit Eigenwerten λk : k λk = 2 1 − cos π N ki (ωk )i = sin π , i = 0, . . . , N. N (4.11) Die Konvergenzordnung der Iterativen Verfahren ist im Allgemeinen sehr langsam, sie hängt vom Spektralradius der Iterationsmatrix B := I − θA ab. Es gilt wieder in Stencil-Notation h Bθ = θ (1 − 2θ) θ i Wir wählen nun θ = 4−1 ≈ λmax (Ah )−1 . Dann ist B= i 1h 1 2 1 4 Diese Matrix B := B 1 hat wieder die gleichen Eigenvektoren (4.11) diesmal mit den Eigen4 werten: λB k 1 k = 1 + cos π 2 N Die Eigenwerte liegen alle im Intervall λB k ∈ (0, 1), der größte Eigenwert von B verhält sich wie λmax (B) = 1 − O(h2 ). Wir untersuchen die Konvergenz des Richardson-Verfahrens für die Poisson-Gleichung im Detail. Es sei also x(t) die letzte Approximation mit Fehler e(t) := x − x(t) . Für den Fehler in der nächsten Iteration gilt: e(t+1) = Be(t) . 119 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Abbildung 4.3: Fehlerreduktion des gedämpften Richardson-Verfahrens für die eindimensionale Poisson-Gleichung in Abhängigkeit der Fehlerfrequenz. Wir schreiben den Vektor e(t) in einer Entwicklung in Eigenwerten (t) e = N −1 X (t) ek ωk . k=1 (t) Dabei sind die ek ∈ R die Entwicklungskoeffizienten in der Eigenvektor-Darstellung und nicht die kartesischen Koeffizienten. Wir nennen (wegen der Sinus-Form der Eigenvektoren) die einzelnen Komponenten ωk die Frequenzen des Fehlers. Wir können nun die Wirkung des Richardson-Verfahrens für jede einzelne Frequenz ωk verfolgen. Es gilt (t+1) ek (t) = λB k ek , das heißt, die k-te Komponente des Fehlers wird genau um den Eigenwert λB gedämpft. In Abbildung 4.3 zeigen wir den Verlauf der Eigenwerte λB k . Fehlerkomponenten, welche zu niedrigen Frequenzen gehören werden nur sehr langsam reduziert, während alle hochfrequenten Anteile schnell reduziert werden. Wir definieren: Definition 4.2 (Fehlerfrequenzen). Komponenten welche zu Eigenwerten λk für k > N2 gehören heißen hochfrequente Anteile, alle anderen Komponenten heißen niederfrequent. Hochfrequente Anteile sind gerade die, welche auf gröberen Gittern nicht dargestellt werden können. Das Richardson-Verfahren ist zwar ein schlechter Löser für die Poisson-Gleichung, es glättet hochfrequente Fehleranteile allerding sehr schnell aus. In Abbildung 4.4 zeigen wir den Fehler der Richardson-Iteration über einige Schritte. Der Gesamtfehler wird nach zehn Schritten nicht wesentlich kleiner, allerdings ist der Fehler bereits nach zwei Schritten stark geglättet. Das Richardson-Verfahren scheint also in der Lage zu sein, lokale Fehleranteile sehr schnell zu glätten. Das Mehrgitterverfahren beruht nun auf der Idee, dass die Frage, ob ein Fehleranteil hochfrequent ist oder nicht vom zugrundeliegenden Gitter abhängt. Auf einem Gitter mit N = 10 Elementen ist die Frequenz (ω4 )i = sin 120 4i π , 10 i = 0, . . . , 10, 4.3 Mehrgitterverfahren Abbildung 4.4: Fehlerverlauf (rot) und approximierte Lösung (grün) der gedämpften Richardson-Iteration. Von links nach rechts: Startfehler, nach einem Schritt, zwei Schritten und nach 9 Schritten. 1 1 sin(3.1415 * 4/10*x) 0.8 sin(3.1415 * 4/5*x) 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 0 -0.2 -0.2 -0.4 -0.4 -0.6 -0.6 -0.8 -0.8 -1 -1 0 2 4 6 8 10 0 1 2 3 4 5 Abbildung 4.5: Die Fehlerfrequenz λ4 auf einem Gitter mit 10 Elementen und auf eine Gitter mit 5 Elementen. niederfrequent, auf einem gröberen Gittern mit N 0 = 5 Elementen ist die gleiche Schwingung jedoch hochfrequent: 4i 0 (ω4 )i = sin π , i = 0, . . . , 5. 5 In Abbildung 4.5 ist diese Frequenz auf beiden Gittern aufgetragen. Wir fassen zusammen: • Einfache Iterationsverfahren wie die Richardson-Iteration sind schlechte Löser aber gute Glätter für hochfrequente Fehleranteiler. • Niederfrequente Anteile auf einem Gitter Ωh sind hochfrequente Anteile auf einem gröberen Gitter Ω2h . • Und ganz trivial: je gröber das Gitter, umso geringer der Aufwand. Beim Mehrgitter-Verfahren sollen diese Leitsätze kombiniert werden. Auf dem feinsten Gitter Ωh wird das Gleichungssystem nicht gelöst, es werden zunächst nur hochfrequente Fehleranteile ausgeglättet und es bleiben nur niederfrequente Fehler eh → enf h . Diese werden auf ein nf hf gröberes Gitter ΩH transferiert eh → eH , wo sie wieder hochfrequent sind. Auf diesem Grobgitter ist das verbleibende Problem sehr viel kleiner und kann einfacher gelöst werden. 121 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Ω1h ΩH Ω2h Abbildung 4.6: Grobgitter ΩH und zwei feinere Gitter. Das Gitter Ω1h ist durch Verfeinerung entstanden und es gilt ΩH b Ω1h . Das Gitter Ω2h stammt nicht von ΩH ab. 4.3.1 Hierarchische Finite Elemente Ansätze Wir müssen zur Notation zunächst einige Begriffe einführen. Durch ΩH = Ω0 , Ω1 , . . . , ΩL = Ωh , sei eine Familie von Gittern des Gebiets Ω gegeben. Wir definieren: Definition 4.3 (Geschachtelte Gitter). Seien ΩH , Ωh zwei Triangulierungen des Gebiets Ω. Die Gitter heißen geschachtelt ΩH b Ωh , falls für jeden Knoten xi ∈ ΩH gilt xi ∈ Ωh und jedes Element K ∈ Ωh durch Verfeinerung eines Elementes K 0 ∈ ΩH entstanden ist. In Abbildung 4.6 zeigen einfache Beispiele von Gittern die geschachtelt sind und Gittern, die nicht geschachtelt sind. Auf jedem Gitter Ωl sei durch Vl ein Finite Elemente Ansatzraum definiert und wir definieren die lokalen Probleme: ul ∈ Vl : a(uk , φl ) = (f, φl ) ∀φl ∈ Vl Als kompakte Schreibweise definieren wir einen Operator Al : Vl → Vl mittels ∀ul , vl ∈ Vl . (Al ul , vl ) = a(ul , vl ) Mit der Vektordarstellung ul = Nl X (i) uli φh , i=1 und der Steifigkeitsmatrix Al ist dies Problem äquivalent zu dem linearen Gleichungssystem Al ul = bl , (j) (i) (Al )ij = a(φh , φh ), (i) (bl )i = (f, φh ). Es gilt: Satz 4.9 (Geschachtelte Finite Elemente Räume). Es seien ΩH b Ωh geschachtelte Gitter und VH sowie Vh isoparametrische Finite Elemente Räume mit dem gleichen Finite Elemente Ansatz {P (T̂ ), χ(T̂ )} auf den Gittern ΩH bzw. Ωh . Es gilt: VH ⊂ Vh . Beweis: Übung. 122 4.3 Mehrgitterverfahren (i) φH 1 (i1 ) φ 2 h 1 (i3 ) φ 2 h (i ) φh 2 H = 2h h (i) Abbildung 4.7: Darstellung einer groben Basisfunktion φH (durchgezogene Linie) durch drei Basisfunktionen des feinen Gitters. Definition 4.4 (Gittertransfer). Es seien Vl−1 ⊂ Vl zwei geschachtelte Finite-Elemente Räume. Für eine Funktion vh ∈ Vh definieren wir den Restriktionsoperator Rl−1 : Vl → Vl−1 durch (Rl−1 vh , φH ) = (vh , φH ) ∀φH ∈ VH , sowie für eine Funktion vH ∈ VH den Prolongationsoperator Pl : Vl−1 → Vl durch Pl vH = vH . Bemerkung 4.3 (Eigenschaften der Restriktion). Seien ΩH b Ωh zwei geschachtelte Gitter. Die Restriktion RH : Vh → VH ist gerade die L2 -Projektion von Vh in den gröberen Raum VH . Die L2 -Projektion ist eine globale Operation, um sie zu berechnen muss ein lineares Gleichungssystem mit der Massenmatrix MH gelöst werden. Obwohl ein lineares Gleichungssystem mit der Massenmatrix relativ einfach zu lösen ist (da cond2 (MH ) = O(1)) sollte dies aus Effizienzgründen vermieden werden. In der Anwendung des Mehrgitterverfahrens werden wir allerdings gar nicht die Finite Elemente Funktion RH vh ∈ VH benötigen, sondern nur den Vektor xH ∈ RNH mit (i) (i) (xH )i := (RH vh , φH ) = (vh , φH ), i = 1, . . . , NH . (4.12) Zu der beliebigen Funktion vh ∈ Vh definieren wir auf dem feinen Gitter Ωh den Vektor xh ∈ RNh als (i) (xh )i = (vh , φh ). (i) Die Räume VH ⊂ Vh sind geschachtelt, d.h., jede Knotenbasisfunktion φH ∈ VH ist auch im (i) feinen Raum φH ∈ Vh und hat dort die Basisdarstellung (i) φH = Nh X (j) µij φh , (4.13) j=1 mit einer Koeffizientenmatrix RH ∈ RNH ×Nh mit (RH )ij = µij welche sehr dünn besetzt ist, also mit µij 6= 0 nur für sehr wenige (insbesondere unabhängig von h und H) Einträge. (i) In Abbildung 4.7 zeigen wir die Kombination einer Basisfunktion φH durch drei Funktionen des feinen Gitters. 123 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Die Einträge des gesuchten Vektors xH aus (4.12) sind dann bestimmt durch die Gleichungen: (i) (xH )i = (vh , φH ) = Nh X (j) µij (vh , φh ) = (RH xh )i . j=1 | {z =:(xh )j } Das heißt, wenn nicht die Funktion RH vh von Interesse ist, sondern nur die Funktion rh (i) (i) h getestet mit den Basisfunktionen φh , also ein Vektor xh = ((rh , φh ))N i=1 , dann besteht der einfache Zusammenhang xH = RH xh . Ebenso betrachten wir nun Bemerkung 4.4 (Eigenschaften der Prolongation). Die Prolongation Ph : VH → Vh ist die Identität auf VH . Mit der Darstellung (4.13) erhalten wir für jeden Vektor vH ∈ VH unmittelbar vH (x) = NH X (i) (vH )i φH (x) = i=1 = Nh X Nh NH X X (j) µij (vH )i φh (x) i=1 j=1 NH X (j) µij (vH )i φ (x) h i=1 j=1 | {z =:(vh )j } Für den Vektor vh ∈ RNh gilt also T vh = RH vH . Die Wirkung der Prolongation auf einen Knotenvektor ist also gerade durch die transponierte Matrix der Restriktion eines integrierten Vektors beschrieben. Man beachte, dass die Hintereinanderausführung von Restriktion und Prolongation nicht die Identität ergibt! Der enge Zusammenhang zwischen Formulierungen in den Funktionenräumen Vh und VH sowie zwischen den Vektorräumen RNH sowie RNh ist typisch für die Analyse des Mehrgitterverfahrens. 4.3.2 Das Zweigitter-Verfahren Als Vorstufe zum Mehrgitterverfahren beschreiben wir zunächst die Zweigitteriteration. Diese formulieren wir im Finite-Elemente Kontext: Algorithmus 4.5 (Zweigitteriteration in Finite-Elemente Räumen). Seien VH ⊂ Vh zwei (0) geschachtelte FE-Räume sowie uh ∈ Vh eine Approximation der Lösung uh ∈ Vh . Weiter sei ω ∈ (0, 1] ein Dämpfungsparameter und durch Gh : Vh → Vh eine Glättungsiteration gegeben. Iteriere: (t+1) (t) uh = ZG(uh , fh ), 124 4.3 Mehrgitterverfahren mit der Zweigitter-Iteration: (i) (ii) (iii) (t) (t) ūh = Ghν1 (uh ) := Ghν1 (uh , a(·, ·), f ) Vorglätten: wH ∈ V H : Grobgitterproblem: (t+1) uh Nachglätten: a(ūh + wH , φH ) = (f, φH ) ∀φH ∈ VH = Ghν2 (ūh + ωwH ) Das Verfahren besteht aus zwei Schritten: zunächst werden im feinen Finite Elemente Raum Vh die hochfrequenten Fehleranteile geglättet. Im Anschluss wird durch die GrobgitterKorrektur das Problem im groben Raum VH ⊂ Vh approximiert. Schließlich kann ein weiteres Mal geglättet werden. Die Approximation wird in zwei Stufen aufgeteilt: die hohen Fehlerfrequenzen werden mit einigen wenigen (üblicherweise ν ∼ 3) Schritten eines einfachen Iterationsverfahrens reduziert, alle niedrig frequenten Fehleranteile werden auf dem Grobgitter behandelt. Bemerkung 4.5 (Nachglätten). Die Zweigitteriteration (und später auch die Mehrgitteriteration) konvergieren auch ohne Nachglättung nur mit Vorglättung. Auch für die Beweise ist die Nachglättung nicht wesentlich. Wir setzen daher im Folgenden ohne Einschränkung ν2 = 0. Im Folgenden beschreiben wir die einzelnen Schritte der Zweigitter-Iteration genauer und leiten darüber hinaus eine Vektor-Schreibweise des Zweigitter-Verfahrens her. (0) Die Vorglättung Mit ūh = Ghν (uh ) ist die ν-fache Ausführung der Glättungsoperation (t) (t−1) (t−1) bezeichnet. Allgemein sei uh = Gh (uh ) := Gh uh + gh affin linear und eine Fixpunkt(ν) Iteration mit Gh (uh ) = uh . Für den Fehler ēh := uh − ūh = uh − uh gilt dann (ν) (ν−1) ēh = uh − uh = Gh (uh ) − Gh (uh (ν−1) ) = Gh eh (0) (0) = Ghν eh = Ghν (uh − uh ). (4.14) Wir betrachten als Beispiel die gedämpfte Richardson-Iteration. In Finite Elemente Schreib(t) weise suchen wir uh ∈ Vh , so dass (t) (t−1) (uh , φh ) = (Gh (uh (t−1) ), φ) := (uh (t−1) , φh ) + θ (fh , φh ) − a(uh , φh ) ∀φh ∈ Vh , also (t+1) uh (t) = (Ih − θAh )uh + θfh . Formuliert mit Vektoren gilt die Vorschrift: (t) (t−1) Mh uh = Mh uh (t) + θ(bh − Ah uh ), oder mit einer Verfahrensmatrix: (t) (t−1) uh = Gh (uh (t−1) ) := Gh uh + gH , Gh := I − θM−1 h Ah , gh := θM−1 h bh . Dann erhalten wir die Fehlerfortpflanzungen in Finite Elemente und Vektorschreibweise: (0) ēh = uh − ūh = Gνh eh , (0) ēh = uh − ūh = Ghν eh . (4.15) 125 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Die Grobgitterkorrektur Wir suchen die Lösung wH ∈ VH von a(wH , φH ) = (f, φH ) − a(ūh , φH ) ∀φH ∈ VH . (4.16) Die rechte Seite dieses Problems ist das Residuum zur vorgeglätteten Approximation ūh ∈ Vh bezüglich der groben Basisfunktionen φH ∈ VH . Wir betrachten das Residuum r̄h ∈ Vh als (r̄h , φh ) := (f, φh ) − a(ūh , φh ) ∀φh ∈ Vh . Dann ist die rechte Seite r̄H ∈ VH von (4.16) gegeben als r̄H = RH r̄h . (4.17) Mit dem Operator AH schreiben wir (4.16) in der Form wH = A−1 H r̄H , (4.18) In Vektor-Schreibweise definieren wir zunächst rh := bh − Ah ūh , für welchen gilt: (i) (rh )i = (rh , φh ). Also, mit Bemerkung 4.3 ist rH = RH rh , (i) (rH )i = (rH , φh ), und die Grobgitterlösung wH ∈ RNH berechnet sich als wH = A−1 H r̄H , (4.19) wH = A−1 H RH (bh − Ah ūh ). (4.20) oder eben Update Schließlich ergibt sich die neue Iteration durch: (1) uh = ūh + ωPh wH , (4.21) (1) (4.22) bzw. in Vektorschreibweise T uh = ūh + ωRH WH . Wir fassen zusammen: Algorithmus 4.6 (Zweigitteriteration). Seien ΩH b Ωh zwei geschachtelte Triangulierungen von Ω und VH ⊂ Vh zwei geschachtelte Finite Elemente Räume mit dim(VH ) = NH und (0) dim(Vh ) = Nh . Sei uh ∈ RNh ein Startvektor. ν > 0 sei die Anzahl an Glättungsschritten, ω ∈ (0, 1] ein Dämpfungsparameter. Iteriere (t+1) uh 126 (t) = ZG(uh , fh ), 4.3 Mehrgitterverfahren (t) mit der Zweigitter-Iteration ZG(uh , fh ): (t) (t) (i) Vorglätten: ūh = Gνh1 (uh ) ūh = Ghν1 (uh ) (ii) Residuum: rh = bh − Ah ūh rh = fh − Ah ūh (iii) Restriktion: rH = RH rh rH = RH rH (iv) (v) Grobgitterproblem: Prolongation: wH = (t+1) uh A−1 H rH wH = A−1 H rH T = ūh + ωRH wH (t+1) uh = ūh + ωPh wH Fehlerfortpflanzung Zur Analyse der Zweigitter-Konvergenz müssen wir nun eine Fehler(t+1) fortpflanzung herleiten, also einen Zusammenhang zwischen eh nach einem Schritt und (t) eh vor dem Schritt. Wir entwickeln diese Fehlerdarstellung wieder simultan in Funktionenschreibweise und für Vektoren. Für den neuen Fehler gilt: (t+1) eh (t+1) = uh − uh (t+1) , bzw. eh = ēh − Ph wH , bzw. eh (t+1) = uh − uh . Mit (4.21) bzw. (4.22) erhalten wir (t+1) eh (t+1) T = ēh − RH WH (t+1) T = ēh − RH A−1 H r̄H . Weiter, mit (4.18) bzw. (4.19) (t+1) eh = ēh − Ph A−1 H r̄H , bzw. eh Die Rechte Seite des Grobgitterproblems ist durch (4.17) bzw. durch (4.20) in Vektorschreibweise gegeben: (t+1) eh = ēh − Ph A−1 H RH (f − Ah ūh ), (t+1) bzw. eh T = ēh − RH A−1 H RH (bh − Ah ūh ). Wir nutzen nun für die exakte Lösung Ah uh = f bzw. Ah uh = bh und erhalten einen Bezug zum Fehler nach der Vorglättung (t+1) eh = ēh − Ph A−1 H RH Ah (uh − ūh ) (t+1) bzw. eh T = ēh − RH A−1 H RH Ah (uh − ūh ), also: (t+1) eh = (Ih − Ph A−1 H RH Ah )ēh , (t+1) bzw. eh T = [Ih − RH A−1 H RH Ah ]ēh . Für diesen gilt mit Darstellung (4.14) und (4.15) (t+1) eh (t) ν1 = (Ih − Ph A−1 H RH Ah )Gh eh (t+1) bzw. eh (t) ν1 T = [Ih − RH A−1 H RH Ah ]Gh eh . Zusammengefasst erhalten wir den Zweigitter-Operator BZG (ν) und die Zweigitter-Matrix BZG (ν): ν BZG (ν) = (Ih − Ph A−1 H RH Ah )Gh , T ν BZG (ν) = [Ih − RH A−1 H RH Ah ]Gh Die Zweigitter-Iteration spaltet sich in zwei Bestandteile: die Glättung und die GrobgitterKorrektur. Bei der mathematischen Konvergenzanalyse des Verfahrens werden diese beiden Anteile getrennt. Wir beweisen getrennt: 127 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Satz 4.10 (Glättungseigenschaft). Die gedämpfte Richardson-Iteration mit θ = λmax (Ah )−1 erfüllt die Glättungseigenschaft cG kvh kL2 (Ω) νh2 kAH Ghν vh kL2 (Ω) ≤ ∀vh ∈ Vh . sowie Satz 4.11 (Approximationseigenschaft). Sei ΩH b Ωh mit H ≤ cH und c > 0 unabhängig von h und H zwei geschachtelte Gitter. Für die Grobgitterkorrektur gilt die Approximationseigenschaft −1 2 k(A−1 h − Ph AH RH )vh kL2 (Ω) ≤ cA h kvh kL2 (Ω) ∀vh ∈ Vh . Mit diesen beiden Sätzen folgt unmittelbar das Konvergenzresultat für die Zweigitter-Iteration: Satz 4.12 (Konvergenz der Zweigitter-Iteration). Es sei G ein Glättungsoperator mit der Eigenschaft von Satz 4.10. Weiter sei H ≤ ch. Dann gilt für hinreichend viele Glättungsschritte ν1 > ν mit ν unabhängig von h kBZG (ν)k ≤ ρZG (ν) = c < 1. ν Beweis: Mit Satz 4.10 und Satz 4.11 gilt: kBZG (ν)vh k ≤ cA cG kvh k ν ∀vh ∈ Vh . Mit ν > cA cG folgt die Aussage des Satzes. Wir beweisen zunächst die Glättungseigenschaft: Beweis von Satz 4.10: Der Operator Ah : Vh → Vh mit (Ah uh , vh ) = (uh , Ah vh ) ist selbstadjungiert, und hat positive reelle Eigenwerte 0 < λ1 ≤ · · · ≤ λNh und verfügt über (1) (N ) ein zugehöriges System aus L2 -orthonormalen Eigenvektoren ωh , . . . , ωh h . Jede Funktion vh ∈ Vh schreiben wir nun in der Form vh = Nh X (i) γ i ωh , γi = (i) (vh , ωh ), kvh k2L2 (Ω) = Nh X γi2 . (4.23) i=1 i=1 Mit θ := λ−1 Nh ist durch die Richardson-Iteration Gh := Ih − 1 Ah , λNh ein Operator Gh : Vh → Vh definiert. Für ein beliebiges vh ∈ Vh gilt in Schreibweise (4.23) Ah Ghν vh = Nh X i=1 128 γi λ i λi 1− λNh !ν (i) ωh . 4.3 Mehrgitterverfahren In der Norm: kAh Ghν vh k2 = Nh X γi2 λ2i i=1 λi 1− λNh !2ν !2 !2 λi ≤ λ2Nh max 1≤i≤Nh λNh = λ2Nh λi max 1≤i≤Nh λNh λi 1− λNh !2ν N h X 2 γi i=1 !2ν λi kv k2 . 1− h λNh Es gilt 0 < λ1 /λNh ≤ 1 und mit der Ungleichung max {x(1 − x)ν } ≤ (1 + ν)−1 , 0≤x≤1 ν≥1 folgt kAh Ghν vh k2 ≤ λ2Nh (1 + ν)−2 kvh k2 . (4.24) Für den größten Eigenwert des Operators Ah gilt der Zusammenhang (Nh ) 2 λNh kωh (Nh ) k = (Ah ωh (Nh ) mit dem Koeffizientenvektor ω h (Nh ) , ωh (Nh ) ) = hAhω h (Nh ) von ωh (Nh ) , ωh (Nh ) 2 ωh i ≤ λmax (Ah )|ω | , in der Knotenbasisdarstellung. Jetzt gilt (Nh ) (N ) (N ) (N ) h) 2 ω (N |ω | = hM−1 , ω h h i ≤ λmin (Mh )−1 (ωh h , ωh h ). h h Mh ω h Mit λmin (Mh ) = O(h2 ) sowie λmax (Ah ) = O(1) folgt λNh ≤ ch−2 und aus (4.24) schließlich die Behauptung. Es bleibt, die Approximationseigenschaft zu zeigen: Beweis von Satz 4.11: Es sei fh ∈ Vh beliebig. Dann ist vh = A−1 h fh definiert durch a(vh , φh ) = (fh , φh ) ∀φh ∈ Vh . (4.25) Weiter sei fH ∈ VH gegeben durch fH = RH vh , also (fH , φH ) = (fh , φH ) ∀φH ∈ VH . −1 Also ist vH = A−1 H fH = AH RH fh definiert durch a(vH , φH ) = (fh , φH ) ∀φH ∈ VH . (4.26) Schließlich definieren wir eine Funktion v ∈ H01 (Ω) ∩ H 2 (Ω) als Lösung der Randwertaufgabe a(v, φ) = (fh , φ) ∀φ ∈ H01 (Ω). (4.27) Für diese Lösung gilt die a priori Abschätzung k∇2 vk ≤ ckfh k. (4.28) 129 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen ΩL = Ωh Ωl Ω0 = ΩH Abbildung 4.8: Schematische Darstellung des V - und W -Zyklus. Die Lösungen vh ∈ Vh von (4.25) und vH ∈ VH (4.26) sind gerade die Galerkin-Approximationen der Lösung v ∈ H01 (Ω) ∩ H 2 (Ω) von (4.27). Es gilt demnach die L2 -Fehlerabschätzung: kv − vh k ≤ ch2 k∇2 vk, kv − vH k ≤ cH 2 k∇2 vk. Mit der Annahme H ≤ ch und der a priori Abschätzung (4.28) folgt kvh − vH k ≤ kv − vh k + kv − vH k ≤ ch2 k∇2 vk ≤ ch2 kfh k. Also folgt für den Grobgitter-Operator −1 2 kA−1 h fh − Ph AH RH fh k ≤ ch kfh k ∀fh ∈ Vh . Dies vervollständigt den Beweis. 4.3.3 Mehrgitter-Verfahren Beim Zweigitter-Verfahren erfolgt die Grobgitter-Korrektur durch Lösen eines Systems AH uH = fH . Dieses Problem ist zwar kleiner als das ursprüngliche, kann jedoch immer noch zu groß zum effizienten Lösen sein. Beim Mehrgitter-Verfahren zur Lösung von AL uL = fL im Raum Vh = VL wird zur Lösung des Grobgitter-Problems AL−1 wL−1 = rL−1 wieder das Zweigitter-Verfahren verwendet. Dies geschieht auf rekursive Art bis wir beim Problem auf dem gröbsten Gitter A0 u0 = r0 ankommen. Dieses nun sehr kleine Gleichungssystem kann mit einem direkten Verfahren gelöst werden. Algorithmus 4.7 (Mehrgitter-Verfahren). Durch ΩH = Ω0 b Ω1 b . . . b ΩL = Ωh sei (0) (0) eine Familie von geschachtelten Triangulierungen mit hl−1 ≤ chl gegeben. Sei uL := uh ein Startwert. Durch ν1 , ν2 ≥ 0 sei die Anzahl der Vor- bzw. Nachglättungsschritte gegeben. Weiter sei R ≥ 1 und ωl ∈ (0, 1] ein Dämpfungsparameter. Iteriere für t ≥ 0 (t+1) uL 130 (t) = MG(L, uL , fL ), 4.3 Mehrgitterverfahren (t) mit der Mehrgitter-Iteration MG(l, ul , fl ): l=0 l>0 (i) Direkter Löser: Vorglätten: (t+1) u0 = A−1 0 f0 ν1 (t) ūl = Gl (ul ) rl = fl − Al ūl (ii) Residuum: (iii) Restriktion: rl−1 = Rl−1 rl (iv) Grobgitterproblem: wl−1 = 0 1≤r≤R: (v) (vi) (vii) (0) (r) (R) wl = Pl wl−1 ¯l = ūl + ωl wl ū Prolongation: Update: Nachglätten: (r−1) wl−1 = MG(l − 1, wl−1 , rl−1 ) (t+1) ul ¯l ) = Glν+2 (ū Da die Grobgitter-Korrektur nun lediglich eine Approximation ist, führen wir R ≥ 1 Korrekturschritte aus. R wird üblicherweise sehr klein als R = 1 oder als R = 2 gewählt. Im Fall R = 1 spricht man vom V -Zyklus, im Fall R = 2 vom W -Zyklus der MehrgitterIteration, siehe Abbildung 4.8 für eine Darstellung des Iterationsschemas. Neben dem V und W -Zyklus existieren weitere Varianten wie der F -Zyklus, beim dem in einer Richtung R = 1 und in der anderen Richtung R = 2 gewählt wird. Weiter kann es zweckdienlich sein, den Mehrgitterprozess nicht auf dem feinsten Gitter Ωh sondern auf dem gröbsten Gitter ΩH zu starten. Iterativ werden mit dem Mehrgitter-Verfahren auf den Gittern Ω0 , Ω1 , . . . Lösungen mit hinreichender Genauigkeit erstellt. Dieses geschachtelte Mehrgitter-Verfahren erreicht die optimale Komplexität O(NL ). Wenn der V -Zyklus konvergiert, so ist er sehr effizient. Bei Problemen mit Unsymmetrien, nicht-glatten Koeffizienten, Singularitäten ist der V -Zyklus hingegen oft instabil. Hier bietet sich dann der robuste W -Zyklus an. Wir beweisen nun: Satz 4.13 (Konvergenz des Mehrgitter-Verfahrens). Der Zweigitter-Zyklus sei auf jedem Paar der Familie V0 ⊂ V1 ⊂ · · · ⊂ VL konvergent mit ρZG (ν) → 0 für ν → 0 gleichmäßig bezüglich l. Dann konvergiert für ν ≥ ν0 groß genug der Mehrgitteralgorithmus im W -Zyklus mit einer von L (und somit h) unabhängigen Konvergenzrate ρM G < 1 bezüglich der L2 Norm: (t) (t) kuL − MG(L, uL , fL )k ≤ ρM G kuL − uL k. Beweis: (i) Wir setzen ν2 = 0. Wir führen den Beweis per Induktion nach L. Zunächst sei ν ≥ ν0 so gewählt, dass für die Zweigitter-Konvergenz gilt ρZG ≤ 18 . Wir wollen zeigen, dass dann gilt ρM G ≤ 41 . Im Fall L ≤ 2 liegt gerade das Zweigitter-Verfahren vor und die Aussage ist richtig. (t) (ii) Sei nun L > 2. Für das Gitterlevel L − 1 gilt nach Voraussetzung ρM G ≤ 14 . Sei uL die letzte Iteration. 131 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen Wir führen nun als Hilfsgröße die Lösung der Zweigitter-Iteration (mit exakter Lösung des Grobgitter-Problems) ein: (t+1) (t) ūL = ZG(L, uL , fL ). Dann gilt für die Differenz zwischen dieser Lösung und zweimaliger Grobgitter-Korrektur (0) MG(l−1) (1) MG(l−1) (2) mit dem Mehrgitter-Verfahren (0 = ωl−1 −−−−−−→ ωl−1 −−−−−−→ ωl−1 ) (t+1) uL (t+1) − ūL (2) = PL (wl−1 − w̄l−1 ), (2) wobei wl−1 die mit Mehrgitter approximierte Grobgitterlösung ist und w̄l−1 die exakte Lösung des Grobgitterproblems. Es gilt: (2) (0) kwl−1 − w̄l−1 k ≤ ρ2M G kwl−1 − w̄l−1 k = ρ2M G kw̄l−1 k, (4.29) (0) da der Startwert in Schritt (iv) von Algorithmus 4.7 gerade wl−1 = 0 ist. Mit (t) ν w̄l−1 = A−1 l−1 Rl−1 (fl − Al Gl (ul )) (t) ν = A−1 l−1 Rl−1 Al (ul − Gl (ul )) (t) ν = A−1 l−1 Rl−1 Al Gl (ul − ul ), da Gl (ul ) = ul eine Fixpunktiteration ist. Also gilt mit (4.29) (2) (t) ν kwl−1 − w̄l−1 k ≤ ρ2M G kA−1 l−1 Rl−1 Al Gl k kul − ul k. Wir schätzen nun die Norm des Grobgitter-Operators mit Hilfe des Zweigitter-Operators ab: −1 −1 ν ν ν ν A−1 l−1 Rl−1 Al Gl = Gl − (Al − Pl Al−1 Rl−1 )Al Gl = Gl − ZG l Hieraus folgt: ν ν kA−1 l−1 Rl−1 Al Gl k ≤ kGl k + kZGk ≤ 1 + ρZG ≤ 2. Insgesamt erhalten wir: (t+1) kul − ul Mit ρZG ≤ 1 8 und ρM G ≤ 1 4 (t) k ≤ (ρZG + 2ρ2M G )kul − ul k. aus der Induktionsannahme folgt die Aussage des Satzes. Im Abschluss betrachten wir nun den numerischen Aufwand in jedem Mehrgitterschritt. Hierzu benötigen wir einige Hilfsgrößen, welche auf jedem Gitter Ωl den Aufwand der einzelnen Mehrgitterkomponenten bezüglich der Anzahl der Freiheitsgrade messen. Es sei C0 (N0 ) := OP (A−1 0 )/N0 , der Aufwand zur Grobgitterlösung pro Grobgitter-Freiheitsgrad. Man beachte, dass C0 von N0 anhängt, da die Grobgitterlösung im Allgemeinen nicht mit linearer Laufzeit erfolgen kann. Dennoch, da N0 fest ist, kann N0 (N0 ) in diesem Zusammenhang als konstant angesehen werden. Weiter sei Cs := OP (Sl )/Nl der Aufwand pro Glättungs-Iteration pro Knoten auf dem Gitterlevel Ωl sowie CT := OP (Rl )/Nl der Aufwand zur Restriktion und auch Prolongation pro Freiheitsgrad und Cr := OP (rl )/Nl der numerische Aufwand zur Berechnung des Residuums. Dann gilt: 132 4.3 Mehrgitterverfahren Satz 4.14 (Komplexität des Mehrgitterverfahrens). Es sei κ := max(Nl−1 /Nl ) < 1, R = 1 oder R = 2 die Anzahl der Grobgitteriterationen und ν1 , ν2 die Anzahl der Vor- bzw. Nachglättungsschritte. Dann gilt im Fall q := κR < 1 für den numerischen Aufwand der Mehrgitteriteration OP (MG(L)) = 1 ((ν1 + ν2 )Cs + Cd + 2CT ) NL + C0 (N0 )q L NL 1−q Der Gesamtaufwand zur Reduktion des L2 -Fehlers bezüglich der L2 -Norm auf die Diskretisierungsgenauigkeit O(h2 ) beträgt daher O(NL ln(NL )). Beweis: Wir betrachten zunächst eine Gitterebene l mit Nl Freiheitsgraden und zählen die auf dieser Ebene notwendigen arithmetischen Operation mit Ausnahme der Grobgitterkorrektur. Mit der Vorbereitung gilt hier: OP (Gl ) = C̃Nl , C̃ := (ν1 + ν2 )Cs + Cd + 2CT (4.30) D.h., auf der feinsten Gitterebene gilt rekursiv: OP (MG L ) = C̃NL + R · OP (MG L−1 ) = C̃NL + RC̃NL−1 + R2 · OP (MG L−2 ) = C̃NL + RC̃NL−1 + R2 CNL−2 + · · · + RL−1 C̃N1 + RL C0 (N0 )N0 , wobei C0 (N0 )N0 der Aufwand zum Lösen des Grobgitterproblems ist. Mit Nl−1 ≤ κNl und q := κR < 1 folgt: OP (MG L ) ≤ C̃ L−1 X (κR)l NL + C0 (N0 )(κR)L NL l=0 = C̃ 1 − qL NL + C0 (N0 )q L NL 1−q ≤ C̃ + C0 (N0 )q L NL . 1−q ! Mit (4.30) folgt die Komplexitätsabschätzung. Zur Abschätzung der Gesamtkomplexität machen wir den Ansatz: −2 ρtM G = h2L ∼ NL d → t∼− ln(NL ) . ln(ρM G ) Die Mehrgitter-Iteration erreicht also fast die optimale Komplexität O(NL ) zum Lösen des Gleichungssystems mit hinreichender Genauigkeit. Der Logarithmische Term ist hierbei in der Anwendung nicht wesentlich. Für den Beweis der optimalen Komplexitätsabschätzung ist die Bedingung κR < 1 wesentlich. D.h., im Fall des W -Zyklus mit R = 2 bedeutet dies κ := max Nl−1 /Nl < 12 . Bei der Verwendung von lokal verfeinerten Gittern ist diese Bedingung oft nicht erfüllt. Um dennoch optimale Mehrgitter-Komplexität zu erhalten muss der Algorithmus modifiziert werden. 133 4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen 134 5 Die Finite Elemente Methode für parabolische Probleme Wir betrachten im Folgenden die Wärmeleitungsgleichung auf dem Zeit-Ortsgebiet I ×Ω mit einem Intervall I = (0, T ) und Ω ⊂ Rd . Wir suchen die Lösung der Wärmeleitungsgleichung mit homogenen Dirichlet-Randwerten ∂t u(x, t) − ∆u(x, t) = f (x, t) in I × Ω, u = u0 für t = 0, u = 0 auf I × ∂Ω, (5.1) mit einer rechten Seite f ∈ L2 (I; L2 (Ω)). Der Fall von nicht-homogenen Randdaten u = g auf I × ∂Ω kann wie bei elliptischen Differentialgleichungen in ein Problem mit modifizierter rechter Seite aber homogenen Randdaten übertragen werden. Zu (5.1) korrespondiert die variationelle Formulierung: (∂t u(t), φ) + (∇u(t), ∇φ) = (f (t), φ), (u(0), φ) = (u0 , φ) ∀φ ∈ H01 (Ω) (5.2) mit der Lösung u ∈ W in u ∈ W, W := {v ∈ L2 (I; H01 (Ω)), ∂t v ∈ L2 (I; L2 (Ω))}, (5.3) Zur Diskretisierung von parabolischen Gleichungen existieren einige verschiedene Ansätze: Orts-Zeit-Diskretisierung Die Diskretisierung erfolgt gleichzeitig in Ort und Zeit. Bei einer Finite Differenzendiskretisierung wird hierbei das Gebiet I × Ω in ein Orts-Zeit-Gitter Ih × Ωh zerlegt und wir suchen in den diskreten Punkten (ti , xj )i,j eine Differenzenapproximation zu (5.1). Alternativ kann die Lösung auch mit einem globalen Galerkin-Ansatz approximiert werden. Hierzu wird ein diskreter Teilraum Wkh ⊂ W gewählt und die Lösung ukh ∈ Wkh gesucht, so dass sie die schwache Formulierung erfüllt. Diesen Ansatz werden wir später näher untersuchen. Er hat seine Stärken in der einfachen mathematischen Untersuchung. Linienmethode Bei der Linienmethode wird die Wärmeleitungsgleichung zunächst im Ort diskretisiert. Dies geschieht zum Beispiel mit der Finite Elemente Methode. D.h., die variationelle Formulierung (5.2) wird im Ort mit einem Finite Elemente Ansatz Vh ⊂ H01 (Ω) diskretisiert und wir erhalten eine Ortsdiskrete Funktion uh : I → Vh . Wir suchen also die örtliche diskrete, aber in der Zeit kontinuierliche Lösung uh (t) von (∂t uh (t), φh )Ωh + (∇uh (t), ∇φh )Ωh = (f (t), φh ) ∀φh ∈ Vh . 135 5 Die Finite Elemente Methode für parabolische Probleme Mit der üblichen Schreibe für die Massen- sowie Steifigkeitsmatrix und der Koeffizientendarstellung der Lösung uh (x, t) = Nh X ui (t)φh (x), i=1 wird die Wärmeleitungsgleichung überführt in ein System von linearen Anfangswertaufgaben: Mh uh0 (t) + Ah uh (t) = bh (t), uh (0) = uh0 , (5.4) mit rechter Seite bh und Startwert uh0 als h bh (t) = (bi (t))N i=1 , (i) bi (t) = (f (t), φh )Ωh , und h uh0 = (ui0 )N i=1 , (i) ui0 = (u0 , φh )Ωh . Das System (5.4) kann nun mit einem üblichen Differenzenverfahren zur Approximation von Anfangswertaufgaben in der Zeit approximiert werden. Hierbei sollten A-stabile Verfahren genutzt werden, da durch die Kondition der Steifigkeitsmatrix cond2 (Ah ) = O(h−2 ) die ODE sehr steif ist. Dieser Verfahrensansatz ist einfach zu analysieren, da die Theorie der gewöhnlichen Differentialgleichungen unmittelbar angewendet werden kann. Die Linienmethode ist jedoch wenig flexibel. Insbesondere baut die Linienmethode auf einer örtlichen Diskretisierung der Gleichung auf, welche für alle Zeitschritte fest ist. Es können also nicht unterschiedliche Gitter zu unterschiedlichen Zeitpunkten gewählt werden. Bei instationären Prozessen ist dies allerdings oft wesentlich. Rothe-Methode Die Rothe-Methode geht umgekehrt vor. Zunächst diskretisieren wir die Wärmeleitungsgleichung in der Zeit durch Einführen eines Zeitgitters t0 < t1 < · · · < tM , M m 1 mit der zeitdiskreten Funktion uk = (um k )m=0 , uk ∈ H0 (Ω). Mit dem impliziten EulerVerfahren erhalten wir u0k = u0 , m−1 m um + km f¯m , k − km ∆uk = uk m = 1, . . . , M. Hier ist f¯m eine Approximation zu f (tm ), welche meistens zur besseren Genauigkeit im zeitlichen Mittel ausgewertet wird, etwa f m = −1 km Z tm f (t) dt. tm−1 Wir erhalten also eine Abfolge von quasi-stationären partiellen Differentialgleichungen, welche nun im Ort diskretisiert werden. Hier betrachten wir im Ort die Finite Elemente Methode, indem zu jedem Zeitschritt tm eine Triangulierung Ωm h von Ω und ein 136 5.1 Die Rothe-Methode für parabolische Differentialgleichungen entsprechender Finite Elemente Raum Vhm ⊂ H01 (Ω) erstellt wird. Dann ist in jedem Zeitschritt das folgende Galerkin-Problem zu lösen: m um kh ∈ Vh : m−1 m ¯m (um kh , φh ) + km (∇ukh , ∇φh ) = (ukh , φh ) + km (f , φh ), ∀φh ∈ Vhm , (5.5) sowie für den Startwert u0kh ∈ Vh0 : (u0kh , φh ) = (u0 , φh ) ∀φh ∈ Vh0 . Eine detaillierte mathematische Analyse der verschiedenen Diskretisierungsmethoden für die Wärmeleitungsgleichung ist sehr komplex. Jeder der drei Ansätze hat verschiedene Vorteile bei der Untersuchung. Wir werden deshalb die grundsätzlichen Fragen nach Existenz, Konvergenz und Stabilität mit zum Teil verschiedenen Ansätzen untersuchen. Es lässt sich aber Zeigen, dass die drei Ansätze eng miteinander verwandt sind. Oft handelt es sich - bis auf einen numerischen Integrationsfehler - um äquivalente Formulierungen. 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Wir betrachten die Rothe-Methode zum Lösen der Wärmeleitungsgleichung. Suche u mit ∂t u − ∆u = f, ut=0 = u0 , u∂Ω = 0. (5.6) Zur Diskretisierung zerlegen wir zunächst das Zeitintervall I = [0, T ] in diskrete Zeitpunkt 0 = t0 < t1 < · · · < tM = T, km := tm − tm−1 , M Auf diesen Zeitpunkten definieren wir durch uk = (um k )m=0 eine zeitdiskrete Funktion.Gleichung (5.6) wird nun durch ein beliebiges Einschritt-Verfahren diskretisiert. Prototypisch betrachten wir: Explizites Euler-Verfahren u0k = u0 , m−1 um + km ∆um−1 + km f¯m k = uk k Implizites Euler-Verfahren u0k = u0 , m 0 ¯m um k − km ∆uk = u + km f Crank-Nicolson-Verfahren u0k = u0 , 1 1 m−1 m 0 + km f¯m . um k − km ∆uk = u + km ∆uk 2 2 Diese drei Verfahren lassen sich mit einem Parameter θ ∈ [0, 1] einheitlich mit der Vorschrift u0k = u0 , m−1 m 0 um + km f m k − km θ∆uk = u + km (1 − θ)∆uk (5.7) formulieren. Diese Einschrittmethode wird das allgemeine Theta-Verfahren genannt. Für θ = 0 ist das Verfahren explizit, d.h. im Kontext von parabolischen Gleichungen, dass der 137 5 Die Finite Elemente Methode für parabolische Probleme elliptische Operator L = −∆ nur an Stelle des alten Zeitschrittes um−1 ausgewertet werden k muss. Die rechte Seite f¯m wird jeweils in einem geeigneten Mittel ausgewertet. Zur Ortsdiskretisierung leiten wir gemäß (5.2) eine schwache Formulierung des Theta-Verfahrens 1 her. Für m = 0, . . . , M , suche um k ∈ H0 (Ω) so dass (u0k , φ) = (u0 , φ) ∀φ ∈ H01 (Ω) m−1 m (um , φ) − km (1 − θ)(∇um−1 , ∇φ) + km (f¯m φ) k , φ) + km θ(∇uk , ∇φ) = (uk k ∀φ ∈ H01 (Ω). (5.8) Wie bei gewöhnlichen Differentialgleichungen handelt es sich um ein Zeitschritt-Verfahren. m−1 Die Lösung um k hängt einzig von den Problemdaten und vom vorherigen Zeitschritt uk ab. In jedem Schritt ist also eine quasi-stationäre partielle Differentialgleichung mit dem Differentialoperator Lk,ε := −kθ∆ + id, zu lösen, welcher für alle kθ > 0 elliptisch ist. Wir diskretisieren, indem wir das Gebiet Ω zu jedem Zeitpunkt tm triangulieren Ωm h . Auf jeder dieser - variierenden - Triangulierungen erstellen wir einen Finite Elemente Raum Vhm ⊂ H01 (Ω). Auch wenn es theoretische möglich wäre, in jedem Zeitschritt einen anderen Finite Elemente Ansatz zu wählen, nehmen wir an, dass alle Räume alle vom gleichen parametrischen Typ sind, also dass z.B. Vhm ein stückweise linearer Finite Elemente Raum für alle m ist. M Das diskrete Theta Verfahren sucht nun die Lösung ukh = (um kh )m=0 von: (u0kh , φ0 ) = (u0 , φ0 ) ∀φ0 ∈ Vh0 m−1 m−1 m m (um kh , φm ) + km θ(∇ukh , ∇φm ) = (ukh , φm ) − km (1 − θ)(∇ukh , ∇φm ) ∀φm ∈ Vh . (5.9) In jedem Zeitschritt stellen wir die Lösung um kh in der üblichen Basisdarstellung dar: um hk (x) = Nm X uim φ(i) m (x), m uhm = (uim )N i=1 . i=1 Jetzt können wir mit der uh0 = Ph0 u0 , L2 -Projektion Phm : L2 (Ω) → Vhm Gleichung (5.9) schreiben als: m−1,m m m m ¯m (Mm − (1 − θ)km Am−1,m uhm−1 + km Mm h + θkm Ah ) uh = Mh h Ph f . h Nm ×Nm und Mm ∈ RNm ×Nm Steifigkeits- und Massenmatrix im Raum Dabei sind Am h ∈ R h m Vh : m Nm Am h = (Aij )i,j=1 , m Nm Mm h = (Mij )i,j=1 , (j) (i) Am ij = (∇φm , ∇φm ), (j) (i) Mm ij = (φm , φm ). Die Matrizen Mm−1,m ∈ RNm ×Nm−1 sowie Am−1,m ∈ RNm ×Nm−1 sind entsprechende Massenh h und Steifigkeits-Transfermatrizen. Hier kommen die Testfunktionen aus dem neuen Raum Vhm und die Ansatzfunktionen aus dem vorherigen Raum Vhm−1 : N ,N m m−1 Am−1,m = (Am−1,m )i,j=1 , ij h N ,Nm−1 m Mm−1,m = (Mm−1,m )ij=1 ij h 138 , (j) Am−1,m = (∇φm−1 , ∇φ(i) m) ij (j) (i) Mm−1,m = (φm−1 , φm ). ij 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Das Verfahren vereinfacht sich, wenn Vhm = Vh für alle Zeitschritte gleich gewählt wird. Dann gilt in jedem Schritt: (Mh + θkm Ah )uhm = (Mh − (1 − θ)km Ah )uhm−1 + km Mh Ph f¯m . mit der Steifigkeits und Massenmatrix im Raum Vh sowie der L2 -Projektion Ph : L2 (Ω) → Vh . Der Vorteil der Rothe-Methode ist die große Flexibilität. In jedem Zeitschritt kann ein speziell angepasstes Ortsgitter verwendet werden. Die Konvergenzanalyse ist sehr aufwändig. Für das implizite Euler-Verfahren gilt Satz 5.1 (Implizites Euler-Verfahren). Für das implizite Euler-Verfahren mit Verbindung einer linearen Finite Elemente Diskretisierung im Ort gelten die Fehlerabschätzungen: 1. Für allgemeine, variierende Ortsgitter max kem kh k ≤ cT 1 2 1≤m≤M max 0≤m≤M −1 {km 2 h2m k∇2 um k} M X +c m=1 2 km Z tm ! 21 k∇∂t uk2 dt tm−1 2. Für feste Ortsgitter mit Vhm = Vh : max kem kh k ≤ cT 1≤m≤M 1 2 max {h2 k∇2 um k} + c 0≤m≤M M X m=1 2 km Z tm ! 21 k∇∂t uk2 dt , tm−1 jeweils mit dem Fehler ek,h = u − uk,h . Für den zweiten Fall mit festen Ortsgittern gilt falls k = km uniform gewählt wird 2 kem kh k = O(h + k), wir erhalten also die bekannte lineare Ordnung des impliziten Euler-Verfahrens in der Zeit und die quadratische Ordnung h2 für den L2 -Fehler der linearen Finite Elemente Approximation im Ort. −1 Auf wechselnden Gittern ist der Faktor km 2 h2m nicht optimal. Fordert man die Schrittweitenbedingung 4 k ≈ h3 , so erhält man einen balancierten Fehler 1 4 2 4 2 −2 kem ) = O(h 3 + h2 h− 3 ) = O(h 3 ). kh k = O(k + h k Im Fall Vhm−1 ⊂ Vhm für alle m, wenn also die Gitter von Zeitschritt zu Zeitschritt nur feiner werden, aber nie gröber, so kann wieder das optimale Resultat gezeigt werden. Für einen allgemeinen Beweis dieses Satzes verweisen wir auf [Rannacher]. Wir werden einen später alternativen Beweis nachtragen. Dazu machen wir einen Umweg und zeigen die Verwandtschaft des impliziten Euler-Verfahrens zu einer Galerkin-Diskretisierung in Ort und Zeit. 139 5 Die Finite Elemente Methode für parabolische Probleme 5.1.1 Praktische Aspekte der Rothe-Methode In jedem Zeitschritt der Rothe-Methode muss ein lineares Gleichungssystem gelöst werden: uhm ∈ RNm : m−1,m m m uhm−1 + km bm (Mm − (1 − θ)km Am−1,m h h + θkm Ah ) uh = Mh h Hierzu sind die folgenden Schritte notwendig 1. Aufbauen der rechten Seite m Nm bm h = (bi )i=1 , ¯m i bm i = (f , φm ). 2. Einfluss des alten Zeitschritts m−1 (i) m , φm ). (Mhm−1,m uhm−1 )N i=1 = (uh 3. Falls θ < 1 m−1 m , ∇φ(i) uhm−1 )N (Am−1,m m ). i=1 = (∇uh h 4. Aufbau der Matrix m Mm h + θkm Ah . 5. Lösen des linearen Gleichungssystems Im Folgenden beschreiben wir die notwendigen Schritte. Der Aufbau der rechten Seite unterscheidet sich nicht vom Vorgehen bei elliptischen partiellen Differentialgleichungen. Auch die Systemmatrix wird aus Steifigkeitsmatrix Ah und Massenmatrix Mh zusammengesetzt. Dies entspricht der Tatsache, dass jeder Zeitschritt gerade die Diskretisierung eines elliptischen Differentialoperators L = −km θ∆ + id ist. Dies bedeutet auch, dass zum Lösen des Systems in Schritt 5. die bekannten Verfahren wie CG oder auch das Mehrgitterverfahren genutzt werden können. Der Gittertransfer Falls Vhm 6= Vhm−1 gehen zur Berechnung von Schritten 2. und 3. beide Finite Elemente Räume ein. Die Funktion um−1 stammt aus Vhm−1 und hat die Darstellung kh Nm−1 um−1 kh = X (i) uim−1 φm−1 (i) φm−1 ∈ Vhm−1 i=1 und z.B. in Schritt 2. müssen die Produkte Nm−1 X (i) uim−1 (φm−1 , φ(j) m ), j = 1, . . . , Nm i=1 berechnet werden. Dies führt zu praktischen Problemen, da die Knotenbasisfunktionen auf den jeweiligen Gittern definiert sind. Im einfachen Fall, dass Vhm−1 ⊂ Vhm , dass das Gitter (i) m−1 Ωm ist, kann jede Basisfunktion φm−1 ∈ Vhm−1 durch h also eine Verfeinerung von Ωh Basisfunktionen aus Vhm dargestellt werden. Siehe hierzu die entsprechende Diskussion beim 140 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Gittertransfer des Mehrgitter-Verfahrens. In diesem Fall kann die alte Lösung uhm−1 zunächst auf dem alten Gitter integriert werden (i) Xm−1 = (uim−1 , φm−1 ) i i = 1, . . . , Nm−1 , anschließend wird dieser Vektor auf das feine Gitter prolongiert m−1 T Xm . h = Rm−1 Xh Ein ähnliches Vorgehen lässt sich herleiten, wenn Vhm ⊂ Vhm−1 , wenn die Gitter also stets gröber werden. Falls die Gitter jedoch von Schritt zu Schritt verfeinert und vergröbert werden, oder falls in jedem Schritt überhaupt ein gänzlich neues Gitter verwendet wird, muss im Allgemeinen eine L2 -Projektion von um−1 in Vhm berechnet werden. h Die Matrix Die Steifigkeitsmatrix Am h ist gerade die Matrix des Poisson-Problems. In Abschnitt 3.5.2 haben wir bereits die Eigenwerte dieser Matrix sowie der Massenmatrix untersucht. Zusammen ergibt sich für die Diskretisierung der Wärmeleitungsgleichung (im Fall zweidimensionaler Gebiete): λmax (Mh + θkAh ) = O h2 + θk , λmin (Mh + θkAh ) = O h2 + θkh2 , und also für die Kondition ! h2 + θk −2 h . 1 + θk cond2 (Mh + θkAh ) = O Im Fall von großen Zeitschritten k = O(1) bezogen auf die Ortsgitterweite h gilt also die bekannte Kondition cond2 = O(h−2 ). Wird die Zeitschrittweite allerdings an die Ortsgitterweite gekoppelt, so verbessert sich die Gesamtkondition. Die Fehlerabschätzung für das implizite Euler-Verfahren in Satz 5.1 legt die Wahl k ≈ h2 nahe. Für das Crank-Nicolson 2 2 Verfahren erhalten wir optimal kem kh k = O(k + h ) und mit k ≈ h einen äquilibrierten Orts-Zeitfehler. Zusammengefasst gilt: ! cond2 (Mh + θkAh ) = O h2 + θk −2 h 1 + θk ! cond2 (Mh + θkAh ) = O h2 + θh −2 h 1 + θh cond2 (Mh + θkAh ) = O h2 + θh2 −2 h 1 + θh2 = O(h−2 ) (k = O(1)) = O(h−1 ) (k = O(h)) ! = O(1) (k = O(h2 )) Je kleiner die Zeitschrittweite (in Bezug auf die Ortsgitterweite h) umso einfacher ist also das Lösen der algebraischen Gleichungen. Diesen Umstand kann man mit einem Vergleich zu Finite Differenzen-Approximationen der Wärmeleitungsgleichung erklären. Hier ist in jedem Schritt die Matrix I + θkAh 141 5 Die Finite Elemente Methode für parabolische Probleme zu invertieren. An die Stelle der Massenmatrix tritt die Einheitsmatrix, welche trivial zu invertieren ist. Für k → 0 ist die Gesamtmatrix nur eine kleine Störung der Einheitsmatrix. Bei der Finite Elemente Methode ist selbst bei rein expliziten Verfahren wie dem expliziten Euler-Verfahren ist in jedem Schritt ein Gleichungssystem zu lösen Mh uhm = (Mh − kAh )uhm−1 . (5.10) Als Matrix ist die Massenmatrix mit Kondition cond2 (Mh ) = O(1). Aus Stabilitätsgründen (welche wir weiter unten diskutieren) müssen explizite Verfahren einer Schrittweitenbedingung k ≤ ch2 genügen. Unter dieser Schrittweitenbedingung haben jedoch auch die impliziten Verfahren eine Matrix mit Kondition der Größenordnung O(1), d.h., der Vorteil einer expliziten Methode fällt hier geringer aus. Werden lineare Finite Elemente zur Diskretisierung im Ort verwendet und sind alle Innenwinkel der Dreiecke stumpf also αi ≤ π/2, so ist die Steifigkeitsmatrix Ah eine M-Matrix, es gilt: Aii > 0, Aij ≤ 0 (i 6= j), (A−1 h )ij ≥ 0. Aus dieser Eigenschaft folgt das diskrete Maximumsprinzip, insbesondere die inverse Monotonie: Ah x ≤ 0 x ≤ 0 (elementweise). Das diskrete Maximumprinzip garantiert, dass die diskrete Lösung wichtige Eigenschaften der kontinuierlichen Lösung u widerspiegelt. Darüber hinaus garantiert die Eigenschaft MMatrix zu sein die Konvergenz grundlegender iterativer Lösungsmethoden. Auf einem uniformen Dreiecksgitter hat die Massenmatrix die Stencil-Notation: 1 1 0 Mh = 1 6 1 , 12 0 1 1 h2 und ist mit positiven Nebendiagonaleinträgen keine M -Matrix. Für die zusammengesetzte Matrix Mh + kθAh gilt diese Eigenschaft auch nicht zwingend für jede Kombination aus Schrittweite k und Ortsgitterweite h. Um diese Eigenschaft immer garantieren zu können greift man oft zu einem Trick beim Aufstellen der Massenmatrix. Die Einträge werden nicht exakt, sondern mit der TrapezRegel integriert: 3 |T | X IT (v) = v(xi ), 3 i=1 mit den drei Eckpunkten des Dreiecks T . So ist die Massenmatrix stets diagonal und z.B. auf dem gleichmäßigen Dreiecksgitter gilt: Mlump h 0 0 0 = h2 0 1 0 . 0 0 0 Dieser Prozess wird Massen-Lumping genannt. Auf diese Weise kann auch der Aufwand zum Lösen des Systems (5.10) bei expliziten Verfahren wesentlich reduziert werden. Die Trapezregel hat bei der Integration einen Fehler der Ordnung O(h2 ). Dieser Integrationsfehler schlägt sich in gleicher Größenordnung auf den Gesamtfehler durch. 142 5.1 Die Rothe-Methode für parabolische Differentialgleichungen 5.1.2 Stabilitätsanalyse Zur Untersuchung der numerischen Stabilität von Zeitdiskretisierungen nehmen wir vereinfacht an, dass die Ortsgitter in jedem Zeitschritt gleich gewählt werden, also Ωh = Ωm h und auch Vh = Vhm für m = 0, . . . , M . In diesem Fall sind Rothe- und Linienmethode äquivalent, die voll diskrete Lösung vkh kann als Diskretisierung eines Systems von gewöhnlichen Differentialgleichungen in der Zeit verstanden werden, uh : I¯ → Vh : uh (0) = u0h , Mh u0h (t) + Ah uh (t) = f¯h (t) t ∈ I, wobei u0h die L2 -Projektion von u0 ∈ L2 (Ω) in den Ansatzraum Vh ist. Nach Multiplikation mit der inversen Massenmatrix gilt uh (0) = u0h , −1 ¯ u0h (t) + M−1 h Ah vh (t) = Mh fh (t) t ∈ I. (5.11) Zur Untersuchung der numerischen Stabilität einer Anfangswertaufgabe haben wir das skalare Modellproblem u(0) = 1, u0 (t) + λu(t) = 0 t ≥ 0, (5.12) mit der Lösung u(t) = exp(−λt) betrachtet. Für λ ∈ C mit Re(λ) ≥ 0 ist u(t) für alle t beschränkt. Wir definieren Definition 5.1 (Absolut stabil). Ein Differenzenverfahren heißt absolut stabil für ein λk 6= 0, wenn sie angewendet auf das Modellproblem (5.12) für alle Re(λ) ≥ 0 beschränkte Lösungen supm≥0 kum k erzeugt. Das Verfahren heißt also stabil, wenn es die Beschränktheit der Lösung auch numerisch wiedergibt. Bei einem System von gewöhnlichen Differentialgleichungen wie (5.11) muss zu einer gewählten Schrittweite k der Faktor −λi k für alle Eigenwerte λi von M−1 h Ah im Stabilitätsgebiet gelten. Diese Herleitung beruht auf der Annahme, dass das System diagonalisierbar ist und in Komponenten ωi0 (t) + λi ωi (t) = fi (t) zerfällt. Jede dieser Komponenten muss stabil gelöst werden. Um die Stabilität beziehungsweise Instabilität eines Systems besser charakterisieren zu können haben wir den Begriff der Steifheit eingeführt. Dieser ist durch den Quotienten maxRe(λ)≥0 |λ| , minRe(λ)≥0 |λ| λ Eigenwerte von M−1 h Ah , zwischen Betrag des größten sowie kleinsten Eigenwerts mit positivem Realteil gegeben. Für die Matrix M−1 h Ah aus (5.11) zeigen wir: Satz 5.2. Die Matrix M−1 h Ah hat positive Eigenwerte und es gilt −2 λmax (M−1 h Ah ) = O(h ), λmin (M−1 h Ah ) = O(1), und also −2 cond2 (M−1 h Ah ) = O(h ). 143 5 Die Finite Elemente Methode für parabolische Probleme (i) Sei λ ∈ R ein Eigenwert und wh der zugehörige Eigenvektor von M−1 h Ah . Dann gilt M−1 h Ah wh = λh wh ⇔ (Mh − λAh )ω = 0 ⇒ λ= hAh wh , wh i hMh wh , wh i Hieraus folgt zunächst (da Ah und Mh symmetrisch positiv definit) dass alle Eigenwerte positiv sind. (ii) Für größten und kleinsten Eigenwert gilt nun λmin (M−1 h Ah ) = min x∈RN hAh xh , xh i , hMh xh , xh i λmax (M−1 h Ah ) = max x∈RN hAh xh , xh i . hMh xh , xh i (5.13) Denn Berechnen des stationären Punktes liefert für alle yh ∈ RN : d hAh (xh + syh ), xh + syh i 0= ds hMh (xh + s + yh ), (xh + s + yh )i s=0 2hAh xh , yh ihMh xh , xh i − 2hMh xh , yh ihAh xh , xh i = hMh xh , xh i2 also mit (5.13) z.B. für λmin nach Multiplikation mit hMh xh , xh i > 0 hAh xh − λmin Mh xh , yh i = 0 ∀yh ∈ RN . Hieraus folgt: M−1 h Ah xh = λmin xh . (iii) Wir schätzen nun ab: λmin (Mh−1 Ah ) = min (∇vh , ∇vh ) hAh xh , xh i (∇v, ∇v) = min ≥ inf = λmin (−∆) 2 1 hMh xh , xh i vh ∈Vh kvh k kvk2 v∈H0 (Ω) λmax (Mh−1 Ah ) = max hAh xh , xh i hAh xh , xh i kxh k2 ≤ max max = λmax (Ah )λmax (M−1 h ). hMh xh , xh i x∈RN kxh k2 x∈RN hMh xh , xh i x∈RN x∈RN Also erhalten wir λmin (M−1 h Ah ) = O(1), −2 λmax (M−1 h Ah ) = O(h ). Das System von gewöhnlichen Differentialgleichungen (5.11) ist also mit h → 0 beliebig steif. Wir benötigen zur Diskretisierung Zeitschrittverfahren, welche über eine möglichst hohe Stabilität verfügen. Zur Untersuchung der Stabilität eines Verfahrens führen wir den sogenannten Verstärkungsfaktor R(z) der Einschrittmethode für ein z = λk ∈ C ein, welcher, angewendet auf das skalare Modellproblem (5.12) die diskrete Lösung liefert: um+1 = R(−λk)um 144 m ≥ 1. 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Bemerkung 5.1 (Verstärkungsfaktor). Die Wahl des Vorzeichens −λk geschieht hier nur aus Konventionsgründen. Bei der Stabilitätsuntersuchung der gewöhnlichen Differentialgleichungen wird üblicherweise die Gleichung u0 (t) = λu(t) mit Re(λ) ≤ 0 anstelle von u0 (t) + λu(t) = 0 mit Re(λ) ≥ 0 betrachtet. Durch die Definition um+1 = R(−λk)um stimmen die Verstärkungsfaktoren wieder überein. Für die gebräuchlichen und bereits angesprochenen Verfahren gilt: Explizites Euler: R(z) = 1 + z Implizites Euler: R(z) = (1 − z)−1 1 + 12 z 1 − 12 z 1 + (1 − θ)z Theta-Verfahren: R(z) = 1 − θz Crank-Nicolson: R(z) = Gilt nun für ein z = −λk dass |R(z)| ≤ 1, so ist die Einschrittmethode absolut stabil. Wir definieren: Definition 5.2 (Stabilitätsgebiet). Wir nennen die Teilmenge der komplexen Zahlenebene SG = {z = −λk ∈ C, |R(z)| ≤ 1} ⊂ C das Stabilitätsgebiet einer Einschrittmethode. Angewendet auf die Wärmeleitungsgleichung muss das Stabilitätsgebiet also einen möglichst großen Anteil der reellen Achse enthalten, da −kλmin (M−1 h Ah ) = O(−k), −2 −kλmax (M−1 h Ah ) = O(−kh ). Für das explizite Euler-Verfahren gilt: SGEE ∩ R = [−2, 0], und damit muss: −2 ≤ −kh−2 ⇔ k ≤ 2h2 . Das explizite Euler-Verfahren ist somit wenig geeignet. Durch Rundungsfehlereinfluss können die Einträge der Systemmatrix fehlerbehaftet sein. Auch kleine Fehler in der Matrix können durch ein Abweichen von der Symmetrie dazu führen, dass Eigenwerte komplexwertig sind. Um auch in diesem Fall Stabilität zu erhalten reicht es nicht, dass nur die negative reelle Achse im Stabilitätsgebiet enthalten ist, wir benötigen auch einen imaginären Anteil. Wir definieren weiter Definition 5.3 (Stabilitätsbegriffe). Im Fall {z ∈ C, Re(z) ≤ 0} ⊂ SG heißt die Methode A-stabil. Die Methode heißt streng A-Stabil falls darüber hinaus mit einem c > 0 gilt: |R(z)| ≤ 1 − ck Re(z) → −∞. 145 5 Die Finite Elemente Methode für parabolische Probleme Gilt unabhängig von der Schrittweite |R(z)| ≤ κ < 1 Re(z) → −∞, so heißt die Methode stark A-stabil. Aus der A-Stabilität einer Methode folgt, dass die Iteration für beliebige Zeitschrittweiten k stabil bleibt sup |uhm | < ∞, m≥1 falls ein homogenes System mit rechter Seite f = 0 betrachtet wird. Die A-Stabilität reicht also gerade um zu garantieren, dass der Einfluss des Startwerts im Laufe der Zeit beschränkt bleibt. Liegt strenge A-Stabilität vor, so bleibt die Lösung auch bei inhomogener rechter Seite beschränkt: sup |uhm | < c sup |f¯m | m≥1 m≥0 Im Fall von starker A-Stabilität werden alle Fehleranteile exponentiell gedämpft. Stark Astabile Verfahren sind besonders robust gegenüber Störungen (z.B. Rundungsfehler). Das implizite Euler-Verfahren ist stark A-stabil, es gilt: −1 |1 − z| = q r (1 − Re(z))2 + Im(z)2 |−1 ≤ 1 2 Re(z) ≤ −1. Dieser Dämpfungsfaktor ist allerdings sehr gering und das implizite Euler-Verfahren neigt zur Überdämpfung. In der Anwendung ist es mit diesem Verfahren sehr schwer möglich natürliche Schwingungsvorgänge (die gewünscht sind) wieder zu geben. Wir definieren Definition 5.4 (Dissipation). Ein Verfahren mit Verstärkungsfaktor R(z) heißt wenig dissipativ, falls R(±i) ≈ 1. Bemerkung 5.2 (Dissipation). Wir betrachten das Modellproblem u0 (t) + iu(t) = 0, u(0) = 1, mit der Lösung u(t) = exp(−it) = cos(t) + i sin(t). Für diese Lösung gilt |u(t)| = 1 für alle t ≥ 0. Die Lösung ist also eine Kosinus-, bzw. Sinus-Schwingung. Das implizite Euler-Verfahren liefert jedoch: um = R(−ik)um−1 = (1 + ik)−1 um−1 . Mit s |(1 + ik)−1 | = folgt die Abschätzung: |um | ≤ 146 1 1 + k2 m 1 2 →0 1 + k2 (m → ∞). 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Das implizite Euler-Verfahren kann also für dieses Problem nicht sinnvoll eingesetzt werden. Betrachten wir die Diskretisierung mit dem Crank-Nicolson-Verfahren, so gilt um = mit 1+ 1− ik 2 ik 2 um−1 , 1 + ik 2 = 1. 1 − ik 2 Das Crank-Nicolson-Verfahren erhält die Energie des Systems also optimal. Für das Theta-Verfahren beweisen wir nun Satz 5.3 (Stabilität des Theta-Verfahrens). Für das Theta-Verfahren mit θ ∈ [0, 1] gilt: 1. Das Theta-Verfahren ist genau dann A-stabil, falls θ ≥ 12 . 2. Für jedes θ ≥ 3. Für jedes θ > stabil. 1 2 1 2 + ck ist das Theta-Verfahren streng A-stabil. unabhängig von der Schrittweite k ist das Theta-Verfahren stark A- 4. Für die Dissipativität des Theta-Verfahrens gilt: |R(i)| ≈ 1, falls θ ≈ 1 2 5. Für θ ∈ [0, 12 ) ist das Stabilitätsgebiet durch eine Ellipse in der linken komplexen Halbebene gegeben. Für das Stabilitätsintervall gilt: SG ∩ R = [−2(1 − 2θ)−1 , 0] 1 0≤θ< . 2 Beweis: 1) Es gilt: 1 + (1 − θ)z ≤1 1 − θz |R(z)| = ⇔ |1 + (1 − θ)z| ≤ |1 − θz| also genau dann, wenn gilt: 1 + (1 − θ)2 |z|2 + 2(1 − θ)Re(z) ≤ 1 + θ2 |z|2 − 2Re(z)θ ⇔ (1 − 2θ)|z|2 ≤ −2Re(z). (5.14) Wir betrachten z ∈ C mit Re(z) ≤ 0 also −Re(z) ≥ 0. Die Ungleichung ist dann genau für alle θ ≥ 12 erfüllt (mit Im(z) beliebig). 2) Wir betrachten den Grenzwert 1 + (1 − θ)λk (1 − θ)k = 1−θ lim |R(−λk)| = lim = 1 − θλk θk θ Re(λ)→∞ Re(λ)→∞ (5.15) 147 5 Die Finite Elemente Methode für parabolische Probleme Es gilt in erster Ordnung 1−θ 1 =1−4 θ− θ 2 und strenge A-Stabilität folgt, wenn θ − 1 2 2 ! θ − 1 , 2 +O ≥ ck. 3) Aus (5.15) folgt sofort lim Re(λ)→∞ |R(−λk)| = 1−θ ≤κ<1 θ ⇔ θ≥ 1 . 1+κ 4) Es gilt: θ2 − 2θ + 2 1 8 |R(±i)| = θ− =1− 2 1+θ 5 2 2 +O 2 ! θ − 1 . 2 5) Nach (5.14) gilt absolute Stabilität für alle z = x + iy mit (1 − 2θ)(x2 + y 2 ) + 2x ≤ 0. Diese Gleichung beschreibt für 1 − 2θ > 0 also θ < (beachte x ≤ 0) (1 − 2θ)x2 + 2x ≤ 0 ⇔ 1 2 eine Ellipse. Auf der reellen Achse gilt (1 − 2θ)x ≥ −2 ⇔ − 2 ≤ x ≤ 0. 1 − 2θ Bemerkung 5.3 (Crank-Nicolson-Verfahren). Das Crank-Nicolson Verfahren scheint auf den ersten Blick ein idealer Kandidat zur Diskretisierung der Wärmeleitungsgleichung zu sein. Es ist A-stabil, von zweiter Ordnung genau und erhält die Energie optimal. Aufgrund fehlender stärkerer Regularität werden Störungen in den Anfangsdaten nur sehr langsam ausgedämpft. Für die homogene Wärmeleitungsgleichung gilt laut Satz 2.32 ku(t)k ≤ e−λt ku0 k, für alle Startwerte u0 ∈ L2 (Ω) mit dem kleinsten Eigenwert λ des Laplace-Operators. Hochfrequente Anteile im Anfangswert werden vom Crank-Nicolson Verfahren nur unzureichend ausgedämpft. Auch Rundungsfehler, welche in jedem Zeitschritt entstehen können, stören den Lösungsverlauf. Um bessere Stabilität zu erreichen verwendet man oft: Satz 5.4 (Das implizit geshiftete Crank-Nicolson-Verfahren). Für θ = 12 + ck mit einer Konstante c > 0 hat das Theta-Verfahren quadratische Konsistenzordnung und ist streng A-stabil. 148 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Beweis: Die strenge A-Stabilität wurde bereits in Satz 5.3 gezeigt. Wir schätzen für eine Anfangswertaufgabe u0 (t) = f (t, u(t)) den Abschneidefehler ab: u(tm ) − u(tm−1 ) 1 1 + + ck f (tm , u(tm )) + − ck f (tm−1 , u(tm−1 )) k 2 2 = u0 (tm− 1 ) + O(k 2 ) + f (tm− 1 , u(tm− 1 )) + O(k 2 ) + ck(f (tm , u(tm )) − f (tm−1 , u(tm−1 ))) τk = 2 2 2 = O(k 2 ) + O(k 2 )|∇f |. Dieses Verfahren verfügt in der Regel über genügend Stabilität um hochfrequente Anteile in der Startlösung hinreichend schnell zu dämpfen. Darüber hinaus ist es von zweiter Ordnung (also balanciert mit einer Ortsdiskretisierung mit linearen Finiten Elementen) und jeder Schritt des Verfahrens ist sehr einfach durchzuführen, der Aufwand entspricht dem CrankNicolson Verfahren. 5.1.3 Verfahren höherer Ordnung Padé-Approximationen Die Verstärkungsfaktoren für die Einschrittmethoden sind alles rationale Funktionen. Bei Betrachtung des Modellproblems ergibt sich der Zusammenhang: u(tm ) = exp(−λtm ), m um k = R(−λk) , R(z) ≈ exp(z). Die Verstärkungsfaktoren sind somit rationale Approximationen der Exponentialfunktion. Dieser Zusammenhang kann nun als Konstruktionsprinzip für Einschrittmethoden verwendet werden. Wir suchen zwei Polynome p ∈ P r und q ∈ P s , so dass Re(z) ≤ 0 : p(z) − ez → 0, q(z) ez q(z) − p(z) → 0 (|z| → 0). Die allgemeine Theorie der sogenannten Padé-Approximationen besagt, dass es zu jedem Polynomgrad r ≥ 0 und s ≥ 0 eine eindeutig bestimmte beste Approximation gibt, so dass |ez q(z) − p(z)| = O(|z|r+s+1 ), Re(z) ≤ 0. Wir fassen diese Approximationen sortiert nach Polynomgrad von Zähler und Nenner im Padé-Schemata zusammen: 1 1 1−z 1 1−z+ 1 z 2 .. . .. . 1+z 1 1+ 12 z 1− 21 z 1+ 13 z 1− 32 z+ 61 z 2 1+z+ 21 z 2 1 1+ 23 z+ 61 z 1− 13 z 1 1 2 1+ 2 z+ 12 z 1 2 1 1− 2 z+ 12 z .. . 1+z+ 21 z 2 + 16 z 3 1 1 3 1+ 34 z+ 14 z 2 + 24 z 1 1− 4 z .. . 1 2 1 1+ 21 z+ 10 z + 120 z3 1 1 2 1 1− 2 z+ 10 z − 120 z 3 .. . . . . . . . · · · Die bisherigen Verfahren sind (bis auf das allgemeine Theta-Verfahren) lassen sich in das Padé-Schema einordnen. Sie sind also alle Ordnungsoptimal. Das Konstruktionsprinzip lässt 149 5 Die Finite Elemente Methode für parabolische Probleme sich umgekehrt auch einfach nutzen, um die Konsistenzordnung eines Verfahrens zu prüfen. Für das Theta-Verfahren etwa gilt: R(z) = 1 + (1 − θ)z = 1 + z + tz 2 + O(|z|3 ). 1 − θz Wir vergleichen mit der Reihenentwicklung der Exponentialfunktion 1 exp(z) = 1 + z + z 2 + O(|z|3 ). 2 Für θ = 21 erhalten wir eine Approximation der Exponentialfunktion dritter Ordnung. Und für θ = 21 + ck folgt mit z = −λk ebenso: R(z) − exp(z) = ckO(k 2 ) + O(k 3 ) = O(k 3 ). Jetzt betrachten wir die Anfangswertaufgabe u0h (t) + Ah uh (t) = fh (t), uh (0) = u0h ∈ RN , mit einer symmetrisch positiven Matrix Ah ∈ RN ×N und die zugehörigen Komponenten ωi0 (t) + λi ωi (t) = fi (t), ωi (0) = ωi0 , i = 1, . . . , N, mit den Eigenwerten λi > 0 von Ah . Jede dieser Gleichungen wird nun mit einem PadéSchema approximiert: ωim = p(−λi k) m−1 ω q(−λi k) i ⇔ q(−λi k)ωim = p(−λi k)ωim−1 , m ≥ 1. Mit der Diagonalmatrix D = diag(λ1 , . . . , λN ) gilt kurz: q(−kD)ωkm = p(−kD)ωkm−1 . (5.16) Die symmetrisch positiv definite Matrix Ah ist mit einer unitären Matrix Qh diagonalisierbar. Es gilt für jedes Polynom: p(A) = p(QT DQ) = QT p(D)Q. Eingesetzt in (5.16) kann das Padé-Schema unmittelbar für das lineare System u0k +Ah uk = 0 formuliert werden: q(−kAh )ukm = p(−kAh )ukm−1 . In jedem Schritt der Padé-Approximation muss also ein Gleichungssystem mit Matrix q(−kAh ) mit Nh Unbekannten gelöst werden. Es gilt (ohne Beweis): Satz 5.5 (Stabilität der Padé-Approximationen). Alle diagonalen Padé-Approximationen (r = s) sind A-stabil. Alle subdiagonalen Padé-Approximationen (s = r + 1) sind stark A-stabil. 150 5.1 Die Rothe-Methode für parabolische Differentialgleichungen Zur Approximation von parabolischen Gleichungen kommen also nur diagonale oder subdiagonale Padé Verfahren in Frage. Verfahren oberhalb der Diagonale haben zu geringe Stabilitätseigenschaften, Verfahren mit Grad(q) Grad(p) sind zwar stabil, erfordern jedoch zur Lösung in jedem Schritt das Lösen eines komplexen Gleichungssystems. Für das subdiagonale s = 2 und r = 1 Verfahren gilt in jedem Schritt: 2 1 1 [Ih − kAh + k 2 A2h ] ukm = ukm−1 + kAh ukm−1 3 6 3 m ≥ 1. Die Matrix auf der linken Seite des Gleichungssystems ist sehr viel dichter besetzt als die Matrix Ah selbst. Darüber hinaus gilt für die Kondition einer Matrix: cond2 (A2h ) = cond2 (Ah )2 , d.h. im Fall der Steifigkeitsmatrix erhalten wir mit cond2 (A2h ) = O(h−4 ) eine äußerst schlecht konditionierte Matrix. Die Padé-Verfahren wären einfach durchzuführen, wenn der rationale Anteil q(z) in Linearfaktoren zerfallen würde: q(z) = (1 − θ1 z)(1 − θ2 z) · · · (1 − θs z). (5.17) Angenommen alle θi ∈ R wären reell, dann könnte ein Schritt des Padé-Verfahrens durch s einfache Schritte eines Theta-Verfahrens ersetzt werden: [I + kθ1 Ah ]u1m = p(−kAh )ukm−1 [I + kθ2 Ah ]u2m = u1m .. . (5.18) m [I + kθs Ah ]um = us−1 . Es gilt allerdings der Satz: Satz 5.6. Der rationale Anteil eine diagonalen bzw. subdiagonalen Padé-Approximation hat höchstens eine reelle Nullstelle. D.h., die Nullstellen von q(z) = 0 sind (bis auf eine) alle komplex. Prinzipiell könnte das System (5.18) auch mit komplexer Arithmetik, also mit kθi 6∈ R gelöst werden. Der numerische Aufwand hingegen ist deutlich größer. Bemerkung 5.4. Die Bedeutung der Padé-Approximationen liegt zunächst in einer einfachen einheitlichen Theorie bzgl. Konsistenzordnung und Stabilität. Das Problem bei der Durchführung ist die zu “teure” Invertierung der Matrix q(−kAh ). Es stellt sich allerdings heraus, dass die Padé-Approximationen angewendet auf das lineare System u0h (t)+Ah uh (t) = fh (t) speziellen impliziten Runge-Kutta Verfahren entsprechen. Eine weitere Analogie werden wir bei der Diskussion von Galerkin-Verfahren zur Zeitdiskretisierung feststellen: die diagonalen Padé-Verfahren entsprechen (bis auf numerischen Quadraturfehlern) einer Galerkin-Diskretisierung in der Zeit mit stetigen Ansatzfunktionen. Die subdiagonalen Padé-Verfahren lassen sich durch eine Galerkin-Diskretisierung mit unstetigen Ansatzfunktionen herleiten. 151 5 Die Finite Elemente Methode für parabolische Probleme Das Teilschritt-Theta-Verfahren Auch wenn die Padé-Verfahren prinzipiell viele gewünschte Eigenschaften wie hohe Ordnung und gute Stabilität vereinen, sind sie wenig zur praktischen Verwendung geeignet, da in jedem Schritt Gleichungssysteme von großer Dimension gelöst werden müssen. Wir verfolgen nun zum Abschluss den umgekehrten Ansatz und konstruieren ein Gesamtverfahren, dessen Verstärkungsfaktor aus Linearfaktoren zusammengesetzt ist. Hierzu führen wir drei Teilschritte mit dem Theta-Verfahren hintereinander aus: θ1 θ2 α1 k α2 k θ3 α3 k tm−1+α tm−1 tm tm−α k Dabei wählen wir für den ersten Teilschritt die Schrittweite α1 k und für daneben θ = θ1 . Schritt zwei wird entsprechend mit α2 k und θ2 , Schritt drei mit α3 k und θ3 ausgeführt. Dabei muss für die Parameter gelten: 0 ≤ θ1 , θ2 , θ3 , α1 , α2 α3 ≤ 1, α1 + α2 + α3 = 1. Das Gesamtverfahren hat den Verstärkungsfaktor: R(z) = 1 + (1 − θ1 )α1 z 1 − θ1 α 1 z 1 + (1 − θ2 )α2 z 1 − θ2 α2 z 1 + (1 − θ3 )α3 z 1 − θ3 α 3 z Bei symmetrische Verfahren wird üblicherweise eine höhere Ordnung erreicht, da sich Terme in der Restgliedentwicklung gegenseitig aufheben. Wir reduzieren daher die freien Parameter machen einen einfachen Ansatz mit nur 2 Parametern: θ1 = θ3 = θ, α1 = α3 = 1, θ2 = 1 − θ, α2 = 1 − 2α. Für den Parameter α muss nun α ∈ (0, 21 ) gelten, ansonsten wäre α2 < 0. Theta ist weiterhin beliebig in θ ∈ [0, 1] zu wählen. Nun gilt: R(z) = | 1 + (1 − θ)αz 1 − θαz {z }| R1 (z) 1 + θ(1 − 2α)z 1 − (1 − θ)(1 − 2α)z {z }| R2 (z) 1 + (1 − θ)αz 1 − θαz {z } R1 (z) Wir wollen diese beiden Parameter nun so bestimmen, dass das Gesamtverfahren im Zeitpunkt tm (also nach den drei Teilschritten) eine möglichst hohe Ordnung hat, stark A-stabil ist und von geringer Dissipativität. Für den Grenzwert Re(z) → −∞ gilt: |R(z)| −−−−−−−→ Re(z)→−∞ θ(1 − θ)2 α2 (1 − 2α) 1−θ = 2 2 θ α (1 − θ)(1 − 2α) θ Der Grenzwert ist kleiner 1 für alle θ > 21 . Dann liegt - unabhängig von α - starke A-Stabilität vor. Zur Bestimmung der Fehlerordnung entwickeln wir R(z) um z = 0 und vergleichen mit der Entwicklung der Exponentialfunktion exp(z) R(z) − exp(z) = α2 − 2α + 152 1 (1 − 2θ)z 2 + O(|z|3 ), 2 5.2 Zeitdiskretisierung mit Galerkin-Verfahren und erhalten für r 1 ≈ 0.293 . . . 2 Konvergenz zweiter Ordnung. Der Parameter θ darf hierbei im Intervall θ ∈ ( 12 , 1] frei gewählt werden. In jedem der drei Teilschritte ist im Fall θ 6= 1 ein implizites Verfahren zu lösen. Mit der speziellen Wahl: α=1− χ := θα = (1 − θ)(1 − 2α) ⇔ θ= 1 − 2α , 1−α wird erreicht, dass in jedem Teilschritt der rationale Anteil im Verstärkungsfaktor identisch ist und somit die gleiche Matrix zu invertieren ist: R(z) = 1 + (1 − θ)αz 1 − χz 1 + θ(1 − 2α)z 1 − χz 1 + (1 − θ)αz 1 − χz Dieses Verfahren wird das Teilschritt-Theta-Verfahren genannt. Schließlich bestimmen wir noch die Dissipativität. Es gilt: |R(±i)| ≈ 0.9997 . . . Das Teilschritt-Theta-Verfahren stellt ein nahezu optimales Verfahren dar: es ist von zweiter Ordnung in der Zeit, somit gut balanciert mit linearen Finiten Elementen. Es ist stark A-stabil, hat aber im Gegensatz zum impliziten Euler-Verfahren eine äußerst geringe Dissipativität, so dass es in der Lage ist, die Energie des Systems sehr gut zu erhalten. Insbesondere bei der Diskretisierung von Strömungsproblemen, wo sowohl Glättungseigenschaften als auch Erhaltungseigenschaften eine wesentliche Rolle spielen ist das Teilschritt-Theta-Verfahren von großer Bedeutung. 5.2 Zeitdiskretisierung mit Galerkin-Verfahren Abschließend betrachten wir wie angekündigt Galerkin-Verfahren zur Diskretisierung der parabolischen Gleichung in Zeit und Ort. Wir suchen wieder u : I × Ω → R als Lösung von ∂t u − ∆u = f in I × Ω, u(0) = u0 . (5.19) Wir wissen aus Satz 2.29, dass es für jede rechte Seite f ∈ L2 (I; L2 (Ω)) und für jeden Startwert u0 ∈ L2 (Ω) eine schwache Lösung der Wärmeleitungsgleichung (5.19) im Raum: u ∈ W (I), W (I) := {v ∈ L2 (I; H01 (Ω)), ∂t v ∈ L2 (I; H −1 (Ω))}. Darüber hinaus gilt dann wegen Satz 2.28 für diese Lösung auch die Regularität ¯ L2 (Ω)), u ∈ C(I; das heißt, die Lösung ist (bis zum Rand von I) stetig in der Zeit. Zur Orts-Zeit Diskretisierung mit Galerkin-Verfahren leiten wir zunächst eine variationelle Formulierung her, welche sowohl in Ort als auch Zeit variationell ist. Dazu multiplizieren (5.19) mit einer Testfunktion φ ∈ L2 (I; H 1 (Ω)) und integrieren über Ort und Zeit. Es gilt: 153 5 Die Finite Elemente Methode für parabolische Probleme Satz 5.7 (Variationelle Formulierung 1). Die schwache Lösung u ∈ W (I) der Wärmeleitungsgleichung (5.19) ist charakterisiert durch das Variationsproblem: Z n o (∂t u, φ) + (∇u, ∇φ) dt = I Z (f, φ) dt ∀φ ∈ L2 (I; H 1 (Ω)) t > 0 I (u(0), φ) = (u0 , φ) ∀ψ ∈ H01 (Ω) (5.20) t = 0. Beweis: Die Hinrichtung folgt unmittelbar durch Multiplikation mit einer Testfunktion φ ∈ L2 (I; H01 (Ω)) und Integration über I und Ω. Die Rückrichtung folgt durch partielle Integration: Z (∂t u − ∆u − f, φ) dt = 0 ∀φ ∈ L2 (I; H 1 (Ω)). I Zu t0 ∈ I wählen wir eine Dirac-Folge δt0 ,ε ∈ C ∞ (I) mit der Eigenschaft: Z I v(t)δt0 ,ε (t) dt −−−→ v(t0 ) ε→0 ∀v ∈ C(I). Für die Testfunktion φt0 ,ε (x, t) := δt0 ,ε (t)ψ(x) mit ψ ∈ H01 (Ω) gilt weiter: Z I (∂t u − ∆u − f, φt0 ,ε ) dt −−−→ (∂t u(t0 ) − ∆u(t0 ) − f (t0 ), ψ) = 0 ∀ψ ∈ C0∞ (Ω) ε→0 Abschließend wird entsprechend im Ort vorgegangen. t0 ∈ I. Zur Diskretisierung (zunächst in der Zeit) suchen wir nun endlich dimensionale Teilräume Xk ⊂ W (I) und Vk ⊂ L2 (I; H01 (Ω)). Dabei unterscheiden wir zwischen zwei alternativen Verfahren: dG(r)-Verfahren Das discontinuous Galerkin-Verfahren verwendet zur Diskretisierung in der Zeit unstetige Ansatzräume Wk mit lokalem Polynomgrad r. Aufgrund von Satz 2.28 ¯ L2 (Ω)) und somit handelt es sich wegen Wk 6⊂ W (I) um einen nichtist u ∈ C(I; konformen Galerkin-Ansatz. cG(r)-Verfahren Beim continuous Galerkin-Verfahren wird zur Diskretisierung ein stetiger, stückweise polynomialer Ansatzraum Wk ⊂ W (I) gewählt. Hierbei handelt es sich um eine konforme Methode. In beiden Fällen darf der Vk Testraum als unstetig gewählt werden, da der Raum L2 (I; H 1 (Ω)) keine Stetigkeitsanforderungen in der Zeit stellt. 5.2.1 Das dG(r)-Verfahren zur Zeitdiskretisierung der Wärmeleitungsgleichung In diesem Abschnitt untersuchen wir die Zeitdiskretisierung der Wärmeleitungsgleichung mit dem dG(r)-Verfahren. Dazu definieren wir zunächst halboffene Teilintervalle Im := (tm−1 , tm ] als 0 = t0 < t1 < · · · < tM = T, km := tm − tm−1 , Im := (tm−1 , tm ]. Auf dieser Zerlegung führen wir einen nicht konformen (bezogen auf W (I)), stückweise definierten Raum ein: WI := {v : I × Ω → R, v Im ∈ W (Im )}. 154 5.2 Zeitdiskretisierung mit Galerkin-Verfahren Dieser Raum ist nicht in W (I) enthalten, da Unstetigkeiten an den Gitterpunkten tm zugelassen sind. Jede Funktion v ∈ WI ist jedoch in jedem Intervall Im stetig bis zu beiden Intervallenden definiert, da ja v Im ∈ W (Im ) auch vIm ∈ C(I¯m ; L2 (Ω)) impliziert. Für eine Funktion v ∈ WI definieren wir nun in einem Gitterpunkt: + vm := v(tm )+ := lim v(tm + s), s↓0 − vm := lim v(tm − s), s↓0 + − [v]m := vm − vm . Der Sprung [v]m misst die Unstetigkeit der Funktion v ∈ WI . Wir definieren ein zweites Variationsproblem: Satz 5.8 (Variationelle Formulierung 2). Das Variationsproblem (5.20) ist äquivalent zum Variationsproblem: suche u ∈ WI , so dass Z n o (∂t u, φ) + (∇u, ∇φ) dt + I M X m−1 ([u] , φ+ m−1 ) Z (f, φ) dt = m=1 ∀φ ∈ L2 (I; H 1 (Ω)), I (5.21) mit der Notation 0 u− 0 := u . Beweis: (i) Sei zunächst u ∈ W (I) eine Lösung von (5.20). Es gilt W (I) ⊂ WI . Weiter gilt ¯ L2 (Ω)), also in jedem Gitterpunkt tm für u ∈ W (I) auch u ∈ C(I; u(tm )+ = u(tm )− im L2 -Sinne, also ([u]m , ψ) = 0 ∀ψ ∈ L2 (Ω). Hieraus folgt, dass u ∈ W (I) ⊂ WI auch Lösung von (5.21) ist. (ii) Nun sei u ∈ WI . Wir müssen zeigen, dass u ∈ W (I), dass die Funktion u also in den Gitterpunkten stetig sein muss. Dann löst u automatisch auch Gleichung (5.20). Hierzu wählen wir spezielle Testfunktionen δm,ε ∈ Im = (tm−1 , m] mit der Eigenschaft: supp (δm,ε ) ⊂ Im , δm,ε (tm ) = 1, δm,ε (t) −−−→ 0 ε→0 für t 6= tm . Mit φm,ε (x, t) := δm,ε (t)ψ(x) und ψ ∈ H01 (Ω) folgt dann Z 0= (f, φ) dt − I Z = Z n o (∂t u, φm,ε ) + (∇u, ∇φm,ε ) dt − I n M X ([u]m−1 , (φm,ε )+ m) m=1 o (f, φ) dt− (∂t u, φm,ε )+(∇u, ∇φm,ε ) dt−([u]m , ψ) −−−→ ([u]m−1 , ψ) m = 1, . . . , M Im ε→0 die Stetigkeit von u ∈ WI in den Zeitpunkten tm , also dass u ∈ W (I). Die Grundlage des dG(r)-Verfahrens ist jetzt eine Galerkin-Diskretisierung von (5.21). Hierzu (r) wählen als konforme Teilräume Wk von WI unstetige, stückweise polynomielle Räume vom Grad r: (r) Wk := {v ∈ WI , v Im ∈ P r (Im ; H01 (Ω))}, wobei P r (Im ; H01 (Ω)) der Raum der Polynome vom Grad r mit Werten in H01 (Ω) ist. Wir formulieren: 155 5 Die Finite Elemente Methode für parabolische Probleme (r) Satz 5.9 (dG(r)-Verfahren). Die Lösung des dG(r)-Verfahrens uk ∈ Wk Formulierung M Z X n M X o (∂t uk , φk ) + (∇uk , ∇φk ) dt + m=1 Im ([uk ]m−1 , φ+ k,m−1 ) = der variationellen Z m=1 I (f, φk ) dt (r) ∀φk ∈ Wk (5.22) ist eindeutig bestimmt und es gilt die a priori Abschätzung 2 ku− k,M k Z + I 2 0 2 k∇uk k dt ≤ ku k + c2P Z kf k2 dt. I (r) Beweis: (i) Eindeutigkeit: Angenommen es existieren zwei Lösungen u1k , u2k ∈ Wk von (5.22). Dann gilt für wk := u1k − u2k : Z n I M X o (∂t wk , φk ) + (∇wk , ∇φk ) dt + (r) ([wk ]m−1 , φ+ k,m−1 ) = 0 ∀φk ∈ Wk . m=1 Wir wählen nun auf dem ersten Intervall φ k I1 = wk , − φk = 0 sonst − − und erhalten mit wk,0 = u1k,0 − u2k,0 = u0 − u0 = 0: Z I1 n o + + (∂t wk , wk ) + (∇wk , ∇wk ) dt + (wk,0 , wk,0 ) = 0, was äquivalent ist zu n1 Z I1 2 o + 2 ∂t kwk k2 + k∇wk k2 dt + kwk,0 k = 0, bzw mit dem Hauptsatz der Differential- und Integralrechnung zu − 2 + 2 kwk,1 k + kwk,0 k + Z I1 k∇wk k2 dt = 0. Hieraus folgt k∇wk k = 0 auf I1 und mit der Poincaré-Ungleichung auch kwk k = 0 auf I1 . Diese Argumentation kann nun auf I2 , I3 , . . . , Im fortgesetzt werden, da für den Startwert in − jedem Intervall gilt wk,m−1 = 0. (ii) Existenz: Der H01 (Ω) kann in eine L2 -orthogonale Summe aus Eigenräumen des LaplaceOperators aufgespalten werden: H01 (Ω) = H1 ⊕ H2 ⊕ · · · . Dabei gilt dim(Hm ) < ∞, d.h., alle Eigenräume sind endlich dimensional. Dies folgt aus dem Spektralsatz für kompakte normale Operatoren (angewendet auf den inversen LaplaceOperator). Wir schreiben die Lösung uk ∈ WI auf einem Intervall Im in der Form: uk (x, t) 156 Im = X l≥1 µlm (t)ω l (x), 5.2 Zeitdiskretisierung mit Galerkin-Verfahren wobei ω l ∈ Hl und µlm (t) ein Polynom im P r ist. Die Räume Hm sind L2 -orthogonal und invariant gegenüber dem Laplace-Operator. Das Problem (5.22) zerfällt somit in endlich dimensionale Probleme in den jeweiligen Teilräumen. Auf dem ersten Intervall gilt: Z m≥0: (ωl , φ) I (∂t µl0 (t) + λl µl0 (t)) dt + (ωl − u0 , φ)µl0 (0) = Z (f, φ) dt ∀φ ∈ Hm (5.23) I Jedes dieser Problem ist endlich-dimensional, da dim(P r ) < ∞ und da dim(Hm ) < ∞. Die Eindeutigkeit einer Lösung impliziert somit die Existenz. (iii) A priori Abschätzung: Wir setzen in (5.22) φk = uk und erhalten: Z n 1 I 2 2 ∂t kuk (t)k + k∇uk (t)k 2 o dt + M X m−1 ([uk ] , u+ k,m−1 ) m=1 Z = I (f, uk ) dt. (5.24) Wir verarbeiten nun die Terme einzeln. Für die Zeitableitung erhalten wir mit dem Hauptsatz der Differential- und Integralrechnung auf jedem Intervall Im : 1 2 Z ∂t kuk (t)k2 dt = I M 1 X 2 m=1 Z ∂t kuk (t)k2 dt = Im M n o 1 X + 2 2 ku− k − ku k k,m k,m−1 2 m=1 (5.25) Den Gradienten-Term k∇uk (t)k in (5.24) lassen wir unberührt, die Sprünge schreiben wir zunächst als: − − + + + + 2 ([uk ]m−1 , u+ k,m−1 ) = (uk,m−1 − uk,m−1 , uk,m−1 ) = kuk,m−1 k − (uk,m−1 , uk,m−1 ) Dann schätzen wir mit Young’scher Ungleichung nach unten ab und erhalten: 1 − 1 + 1 + 1 − + 2 2 2 2 2 ([uk ]m−1 , u+ k,m−1 ) ≥ kuk,m−1 k − kuk,m−1 k − kuk,m−1 k = kuk,m−1 k − kuk,m−1 k 2 2 2 2 (5.26) Zuletzt gilt für die rechte Seite von (5.24) mit Cauchy-Schwarz, Poincaré und Young’scher Ungleichung: Z I (f, uk ) dt ≤ Z I kf k kuk k dt ≤ Z I cP kf k k∇uk k dt ≤ Z I o c2P n 1 kf k2 + k∇uk k2 dt 2 2 (5.27) Wir fassen nun (5.24) mit (5.25), (5.26) und (5.27) zusammen und erhalten die Abschätzung: M n X o − + + 2 2 2 2 + ku− k,m k −kuk,m−1 k + kuk,m−1 k −kuk,m−1 k m=1 | {z } =0 Z Im k∇uk k2 dt ≤ c2P Z kf k2 dt. I 0 Zusammenfassen der Summe und u− k,0 = u liefert dann die gewünschte Abschätzung. Durchführung des dG(r)-Verfahrens (r) Die Lösung u ∈ Wk Intervall ist unstetig über die Intervallgrenzen hinaus. Wir definieren auf jedem r 1 um k := uk Im ∈ P (Im ; H0 (Ω)), 157 5 Die Finite Elemente Methode für parabolische Probleme um 0 um k um+1 0 um+1 k um−1 k um−1 1 tm−1 tm−1 tm um 1 tm Abbildung 5.1: Schematische Darstellung der Ansatzräume im dG(0)- (links) bzw. dG(1)Verfahren (rechts). m−1 und weil die Testfunktionen auch unstetig sind koppelt um nur durch den Sprungk zu uk term m,+ m−1,− + ([uk ]m , φ+ k,m−1 ) = (uk,m−1 − uk,m−1 , φk,m−1 ) Wenn die Lösung um−1 auf Im−1 bekannt ist, so ist insbesondere auch um−1,− k k,m−1 bekannt und um lässt sich berechnen als Lösung des lokalen Variationsproblems k um k ∈P r (Im ; H01 (Ω)) Z n : Im o m,+ m,+ m m m (∂t um k , φk ) + (∇uk , ∇φk ) dt + (uk,m−1 , φk,m−1 ) Z = Im m−1,− m,+ (f, φm k ) dt + (uk,m−1 , φk,m−1 ) r 1 ∀φm k ∈ P (Im ; H0 (Ω)). Bei dem dG(r)-Verfahren handelt es sich also um Zeitschritt-Verfahren. Im Gegensatz zu den einfachen Zeitschritt-Verfahren wie dem Theta-Verfahren müssen in jedem Zeitschritt r 1 r + 1 Unbekannte bestimmt werden, da um k ein Polynom im Raum P (Im ; H0 (Ω)) ist. Beispiel 5.1 (Das dG(0)-Verfahren). Wir betrachten den einfachsten Fall des dG(0)-Verfahrens. Es sei also: (0) Xk := {v ∈ WI , v Im ∈ H01 (Ω)}, (0) d.h., eine Funktion v ∈ Xk und wir schreiben: ist zeitlich konstant auf jedem Intervall (siehe Abbildung (5.1) vkm := vk Im Da die Intervall Im := (tm−1 , tm ] links offen sind gilt + vk,m = vkm+1 , − vk,m = vkm , [vk ]m = vkm+1 − vkm . Weiter gilt ∂t vkm = 0. Damit vereinfacht sich die Variationsgleichung auf jedem Intervall Im zu: 1 um k ∈ H0 (Ω) : m m m km (∇um k , ∇φk ) + (uk , φk ) = Z Im m−1 m (f, φm , φk ) k ) dt + (uk 1 ∀φm k ∈ H0 (Ω). Wenn wir das Zeitintegral über die rechte Seite f mit Hilfe der Box-Regel auswerten, so erhalten wir gerade das implizite Euler-Verfahren: m−1 m m m m (um , φk ) + km (f (tm ), φm k , φk ) + km (∇uk , ∇φk ) = (uk k ) 158 1 ∀φm k ∈ H0 (Ω). 5.2 Zeitdiskretisierung mit Galerkin-Verfahren (1) Beispiel 5.2 (Das dG(1)-Verfahren). Auf jedem Intervall Im ist uk ∈ Wk Wir schreiben: m m uk (x, t)Im = ξ0m (t)um 0 (x) + ξ1 (t)u1 (x), stückweise linear. m 1 1 mit zwei Funktionen um 0 , u1 ∈ H0 (Ω) und Basisfunktionen des P welche gegeben sind durch: t − tm−1 tm − t , ξ1m (t) = . ξ0m (t) = tm − tm−1 tm − tm−1 Dann gilt: m um 1 − u0 . km − Das lokale Gleichungssystem zur Bestimmung der Lösung um k bei bekannter Größe uk,m−1 = m m m m m m 1 um−1 ist dann mit der Testfunktion φm 0 k = ξ0 φ0 + ξ1 φ1 und mit φ0 , φ1 ∈ H0 (Ω): m u+ k,m−1 = u0 , m−1 u− , k,m−1 = u1 ∂t uk Im = 1 1 1 m m−1 m m m m m m (u + um , φ0 ) 0 , φ0 ) + km (∇u0 , ∇φ0 ) + km (∇u1 , ∇φ0 ) = (u1 2 1 3 6 1 1 1 m m m m m m (u1 − um 0 , φ1 ) + km (∇u0 , ∇φ1 ) + km (∇u1 , ∇φ1 ) = 0. 2 6 3 Hier haben wir der Einfachheit halber f = 0 angenommen. Wir haben also ein gekoppeltes m Gleichungssystem mit zwei Unbekannten um 0 und u1 . Wir führen für den schwachen LaplaceOperator wieder eine Operatorschreibweise ein: (Au, v) = (∇u, ∇v) ∀u, v ∈ H01 (Ω), und können das Gleichungssystem kompakt schreiben: I + 32 km A I + 31 km A −I + 13 km A I + 32 km A ! um 0 um 1 ! ! = 2um−1 1 , 0 wobei wir die rechte Seite kurz zusammenfassen. Dieses (unendlich dimensionale) Gleichungssystem lösen wir mit der Gauß-Elimination formal nach um 1 . Wir multiplizieren dazu 1 die erste Zeile von links mit (−I + 3 km A) und die zweite von rechts mit I + 23 km A und ziehen dann die erste von der zweiten ab. So erhalten wir: 2 2 1 1 1 m−1 m (I + km A)(I + km A)um 1 − (−I + km A)(I + km A)u1 = 2(I − km A)u1 3 3 3 3 3 Ausmultiplizieren liefert: 1 2 1 2 2 m (I + km A + km A )u1 = um−1 − km Aum−1 . 1 1 3 6 3 Zur Bestimmung von um 1 ist also eine Gleichung zu lösen, welche als Polynom in A gegeben ist. Dieses Polynom 1 + 32 z + 16 z 2 für z = −km A ist gerade der rationale Anteil der subdiagonalen {2, 1}-Padé-Approximation. Im expliziten Anteil auf der rechten Seite tritt für z = −km A mit 1 − 31 z gerade der Zähler der Padé-Approximation auf. Bemerkung 5.5 (dG(r)-Verfahren). Das dG(0)-Verfahren zur Diskretisierung der Wärmeleitungsgleichung entspricht bis auf numerischen Quadraturfehler gerade dem impliziten Euler-Verfahren. Die allgemeinen dG(r)-Verfahren zur Diskretisierung der Wärmeleitungsgleichung entsprechen bis auf Quadratur jeweils einem Runge-Kutta-Verfahren und können auch durch eine subdiagonale Padé-Approximationen {r + 1, r} ausgedrückt werden. Hieraus können wir folgern, dass jedes dG(r)-Verfahren (bei entsprechender Integration) in den Gitterpunkten die Ordnung 2r + 1 hat und stark A-Stabil ist. 159 5 Die Finite Elemente Methode für parabolische Probleme A priori Fehleranalyse In diesem Abschnitt wollen die eine a priori Fehlerabschätzung für das dG(r) Verfahren herleiten. Dazu soll zunächst der reine Zeitfehler, also die Größe ek := u − uk , der Fehler (r) zwischen Lösung u ∈ WI von (5.21) und uk ∈ Wk der Lösung von (5.22) abgeschätzt (r) werden. Aufgrund der Konstruktion Wk ⊂ WI können wir von einer konformen Methode sprechen und es gilt: Satz 5.10 (Galerkin-Orthogonalität). Für den Fehler ek := u−uk der Lösungen u ∈ WI der (r) Wärmeleitungsgleichung (5.21) und uk ∈ Wk von (5.22) gilt die Galerkin-Orthogonalität BI (ek , φk ) = 0 (r) ∀φk ∈ Wk , in der Orts-Zeit Bilinearform BI (u, φ) := M Z X o n (∂t u, φ)Ω + (∇u, ∇φ)Ω dt + m=1 Im M X ([u]m−1 , φ+ m−1 )Ω . m=1 Beweis: u ∈ WI ist Lösung von: Z BI (u, φ) = ∀φ ∈ WI , (f, φ) dt I (r) und uk ∈ Wk ist Lösung von Z BI (uk , φk ) = I (r) (f, φk ) dt ∀φk ∈ Wk . (r) Der Beweis folgt unmittelbar aus der Beziehung Wk ⊂ WI sowie der Linearität von BI (·, ·). Wir werden nun den folgenden Satz beweisen: Satz 5.11 (A priori Fehlerabschätzung für das dG(r)-Verfahren). Für die Lösung u ∈ WI von (5.21) gelte ∂tr+1 u ∈ L2 (I; L2 (Ω)). Dann gilt für den Fehler der dG(r)-Lösung die a priori Abschätzung Z Z I r+1 kek k dt ≤ ckmax I k∂tr+1 uk dt. Beweis: Wir werden Beweis nur für den Spezialfall r = 0 zeigen. Der allgemeine Teil ist technisch aufwändiger. (i) Wir definieren zunächst einen Projektionsoperator (0) πk : W (I) → Wk , 160 5.2 Zeitdiskretisierung mit Galerkin-Verfahren πk I u πk m Im−1 tm−2 tm−1 tm Abbildung 5.2: Projektion πk in den Raum der stückweise konstanten Funktionen. durch die folgende Vorschrift: auf jedem Intervall Im gelte: πk uIm ∈ P 0 (Im ; H01 (Ω)), − (πk u)− m = um . (5.28) In Abbildung (5.2) ist diese Projektion dargestellt. Am rechten Intervallende stimmen Projektion und Funktion überein. Wir spalten den Fehler nun auf in einen Projektionsfehler ηk := u − πk u und einen diskreten Fehleranteil ξk := πk u − uk : ek = u − uk = u − πk u + πk u − uk . | {z } | =ηk {z =ξk } (ii) Wir werden zeigen, dass der Gesamtfehler ek durch den Projektionsfehler ηk beschränkt ist: Z Z kek k dt ≤ c kηk k dt. (5.29) I I Hierzu definieren wir ein duales Problem: zk ∈ (0) Wk Z : BI (φk , zk ) = I (φ, ek ) dt (0) ∀φk ∈ Wk . (5.30) Wir teilen den Fehler ek nun auf und nutzen die Definition des dualen Problems für φk = (0) ξk ∈ W k : Z I kek k2 dt = Z I Z (ηk , ek ) dt + I Z (ξk , ek ) dt = I (ηk , ek ) dt + BI (ξk , zk ). (5.31) Es gilt: (0) 0 = BI (ek , φk ) = BI (ξk , φk ) + BI (ηk , φk ) ∀φk ∈ Wk . Also, weiter bei (5.31) Z I kek k2 dt = Z I (ηk , ek ) dt − BI (ηk , zk ) (5.32) 161 5 Die Finite Elemente Methode für parabolische Probleme Nun gilt für die duale Bilinearform mit partieller Integration: BI (ηk , zk ) = = M Z X n m=1 Im M Z X n = I − + + (ηk,m−1 − ηk,m−1 , zk,m−1 )Ω o − (ηk , ∂t zk )Ω + (∇ηk , ∇zk ) dt |{z} =0 n − − − + + + + + , zk,m−1 ) (ηk,m , zk,m ) −(ηk,m−1 , zk,m−1 ) + (ηk,m−1 , zk,m−1 ) −(ηk,m−1 m=1 Z M X m=1 m=1 Im M X o (∂t ηk , zk )Ω + (∇ηk , ∇zk )Ω dt + {z | (∇ηk , ∇zk ) dt = − o } =0 Z I (ηk , ∆zk ) dt, (5.33) − − da die Terme mit ηk,m und ηk,m−1 nach der Definition der Projektion (5.28) verschwinden. Weiter in (5.32) ergibt sich mit Young’scher Ungleichung: Z 2 kek k dt = I ≤ ≤ Z Z (ηk , ek ) dt + ZI n I (ηk , ∆zk ) dt o kηk k kek k + kηk k k∆zk k dt ZI n o 1 1 (1 + ε)kηk k2 + kek k2 + k∆zk k2 dt. 4 4ε I Wir nutzen die Stabilitätsabschätzung des dG(r)-Verfahren aus Satz 5.9 angewendet auf das duale Problem mit rechter Seite ek : Z I 2 k∆zk k dt ≤ c Z I kek k2 dt. Wir bekommen nun mit ε = c: Z I 2 kek k dt ≤ o 1 (1 + c)kηk k + kek k2 dt ⇔ 2 Z n I 2 Z I 2 kek k dt ≤ 2(1 + c) Z I kηk k2 dt. (iii) Schließlich benötigen wir eine Abschätzung für den Projektionsfehler ηk = u−πk u. Diese folgt durch Transformation von jedem Teilintervall Im auf ein Referenzintervall Iˆ = (0, 1) − Anwendung von Poincaré (da ηk,m = 0) und Rücktransformation: Z Im 2 kηk k dt = km Z Iˆ kηck k2 dt ≤ km c2P Z Iˆ 2 2 k∂ˆt ηck k2 dt = km cP Z Iˆ 2 k∂t ηk k dt = 2 2 km cP Z Iˆ k∂t uk k2 dt. Ortsdiskretisierung mit Finiten Elementen A posteriori Fehlerschätzung 5.2.2 Das cG(r)-Verfahren 162 Index L2 -Fehlerabschatzung, 75 a posteriori Fehlerschatzung, 88 a priori Fehlerabschatzung, 73, 75 A-Stabilitat, 145 Absolut stabil, 143 Abstiegsverfahren, 108 Adaptive Finite Elemente Methode, 88 Anschlusselemente, 100 Argyris-Element, 58 Assemblierung, 82 Aubin-Nitsche-Trick, 73 Banachraum, 17 Bestapproximation, 50 Bramble-Hilbert-Lemma, 66 cG(r), 154 CG-Verfahren, 107, 110 Clement-Interpolation, 56, 70 continuous Galerkin, 154 dG(r), 154 Differentialoperator, 7 Hauptteil, 9 Dirichlet Problem, 30 Dirichlet-Problem, 12 discontinuous Galerkin, 154 Dissipation, 146 Dualraum, 19 dunn besetzte Matrix, 52 Effizienz, 91 Einbettung, 27 kompakte, 27 Einbettungssatz, 28 Einbettungssatz fur Sobolewraume, 28 einspringende Ecken, 36 Elemente, 52 elliptische Differentialgleichung, 8 Energiefehlerabschatzung, 73 Fehlerfrequenzen, 120 Fehlerindikator, 88 Finite Elemente Verfahren, 52 Fixpunktsatz von Banach, 19 Freiheitsgrade, 53 Galerkin-Approximation, 47 Galerkin-Orthogonalitat, 49 parabolisch, 160 Gitter, 52 Gittertransfer, 123 Gitterverfeinerung, 88 Glättung, 120 GMRES, 116 Gradientenverfahren, 109 hangende Knoten, 100 Hermite-Ansatz, 56 Hilbertraum, 18 hyperbolische Differentialgleichung, 8 Interpolation, 54 klassische Losung, 12 Knoten-Basis, 53 Knotenwert, 55 konform, 50 Krylow-Raum-Methoden, 107 Krylow-Räume, 111 Lagrange-Ansatz, 56 Laplace-Operator, 7 Lemma von Cea, 49 Lineares Funktional, 19 M-Matrix, 142 Massen-Lumping, 142 163 Index Morley-Element, 58 Multiindex, 22 Nachglätten, 125 Neumann Problem, 30 Neumann Randwerte, 8 Norm, 17 Pad’e-Approximationen, 149 parabolische Differentialgleichung, 8 Patch, 71 PCG, 117 Petrov-Galerkin-Verfahren, 50 Poisson-Gleichung, 8 Pra-Hilbertraum, 18 Prolongation, 123 Raum normiert, 17 vollstandig, 17 Residuum, 88 Restriktion, 123 Riesz’scher Darstellungssatz, 19 Robin Problem, 31 Satz von Lax-Milgram, 33 schwache Losung, 12 Schwache Ableitung, 23 Schwache Losung, 32 Skalarprodukt, 18 Sobolev-Raum, 15 Spektral-Verfahren, 52 Stabilitatsgebiet, 145 starke A-Stabilitat, 146 starke Losung, 12 Steifheit, 143 Steifigkeitsmatrix, 49 Stencil-Notation, 119 strenge A-Stabilitat, 145 Superapproximation, 98 System von Differentialgleichungen, 8 Teilschritt-Theta-Verfahren, 153 Theta-Verfahren, 137 Trager einer Funktion, 23 Transportgleichung, 8 Triangulierung, 52 164 Unisolvenz, 55 variationelle Losung, 12 Variationsgleichung, 11 verallgemeinerte Ableitung, 23 Verstarkungsfaktor, 144 Vorglätten, 125 Vorkonditionierung, 117 Warmeleitungsgleichung, 38 stationar, 8 Wellengleichung, 7 Young’sche Ungleichung, 14 Zellen, 52 Zweigitteriteration, 124