Determinanten
Transcription
Determinanten
Kapitel 4 Determinanten Der Untersuchung dieses wichtigen Werkzeugs der linearen Algebra stellen wir einige Betrachtungen über sogenannte Permutationen, also Vertauschungen von Objekten voran. 4.1 Permutationen 4.1.1 Definition. (Gruppen) Eine Halbgruppe ist eine Menge G zusammen mit einer assoziativen Verknüpfung (a, b) 7→ a ∗ b, d.h. für alle a, b, c ∈ G gilt: a ∗ (b ∗ c) = (a ∗ b) ∗ c. G heißt dann Gruppe, falls ein Element e ∈ G (genannt neutrales Element) und zu jedem a ∈ G ein Element a− ∈ G (genannt Inverses) existiert, so dass folgende Bedingungen erfüllt sind: a ∗ e = e ∗ a = a, a ∗ a− = a− ∗ a = e. Falls a ∗ b = b ∗ a für alle a, b ∈ G erfüllt ist, heißt G kommutativ oder abelsch (nach dem Mathematiker Niels Henrik Abel). Eine nichtleere Teilmenge von G heißt Untergruppe, falls für a, b ∈ U auch a ∗ b und a− (folglich auch e) in U liegt. U ist dann selbst eine Gruppe. 4.1.2 Beispiele. (Spezielle Gruppen) (1) Die Permutationen einer Menge M , d. h. die bijektiven Abbildungen von M auf M , bilden bezüglich der (meist nicht kommutativen!) Verknüpfung von Abbildungen eine Gruppe S(M ). Im Folgenden benötigen wir nur die Permutationen der Mengen n = {1, . . . , n} (n ∈ N), d. h. die Elemente der sogenannten symmetrischen Gruppen Sn = S(n). (2) Q, R, C und allgemein jeder Körper ist eine kommutative Gruppe bezüglich der Addition + (mit den Negativen −a als Inversen); Q ist Untergruppe von R, und R Untergruppe von C. Bezüglich der Multiplikation ist jeder Körper eine Halbgruppe, aber keine Gruppe (da das Nullelement kein Inverses hat). (3) Jeder Vektorraum ist bezüglich der Addition eine kommutative Gruppe. Insbesondere gilt dies für den Vektorraum K m×n der m×n–Matrizen. (4) Die invertierbaren n×n–Matrizen bilden eine Gruppe bezüglich Multiplikation (aber nicht bezüglich Addition). Die orthogonalen Matrizen bilden eine Untergruppe, desgleichen die Drehmatrizen (nicht aber die Spiegelungsmatrizen). 55 KAPITEL 4. DETERMINANTEN 56 (5) Eine Drehung um die Achse R(1, 1, 1)T mit einem Drehwinkel von 120◦ bewirkt eine zyklische Permutation der drei kanonischen Einheitsvektoren: Sie dreht e1 nach e2 , entsprechend e2 nach e3 , und e3 nach e1 (vgl. Beispiel 3.2.8 (6)). Nach der früher berechneten Formel hat die Drehung um den normierten Achsenvektor √13 (1, 1, 1)T bei variablem Drehwinkel ϕ die Darstellungsmatrix √ √ 2 cos(ϕ) + 1 1 − cos(ϕ) − sin(ϕ) 3 1 − cos(ϕ) + sin(ϕ) 3 √ √ 1 R(ϕ) = 1 − cos(ϕ) + sin(ϕ) 3 2 cos(ϕ) + 1 1 − cos(ϕ) − sin(ϕ) 3 . 3 √ √ 1 − cos(ϕ) − sin(ϕ) 3 1 − cos(ϕ) + sin(ϕ) 3 2 cos(ϕ) + 1 Jede der drei Spalten dieser Matrix ist eine Parameterdarstellung des Kreises durch die Spitzen der drei kanonischen Einheitsvektoren! Die Matrizen R(ϕ) bilden eine kommutative Untergruppe der nicht kommutativen Gruppe aller Drehmatrizen. Symmetrien geometrischer Figuren beschreibt man mathematisch durch Vertauschungen gewisser Punkte, wobei die Gesamtfigur unverändert bleibt. 4.1.3 Beispiel. (Drehungen und Spiegelungen eines Quadrates) Sie bewirken Vertauschungen der Ecken des Quadrats, bei denen dieses in sich übergeht. Diese Permutationen bilden eine achtelementige Untergruppe der Gruppe aller Permutationen der vier Ecken. Permutationen lassen sich als Anordnungen von n Objekten (z.B. den ersten n natürlichen Zahlen) interpretieren. Wie ein leichter Induktionsbeweis zeigt, gibt es n! = 1 · ... · (n − 1) · n Permutationen von n Objekten. Für n von 1 bis 8 ergeben sich für die „Fakultäten” n! die Zahlen 1, 2, 6, 24, 120, 720, 5040, 40320. KAPITEL 4. DETERMINANTEN 57 Meist bezeichnet man Permutationen mit griechischen Buchstaben und schreibt σ = (σ(1), σ(2), ..., σ(n)) bzw. σ = (σ1 , σ2 , ..., σn ) oder zur besseren Übersicht σ= 1 2 ... n ! . σ1 σ2 ... σn Eine Permutation ist aber nichts Anderes als eine bijektive Abbildung auf der Menge der ersten n natürlichen Zahlen, oder allgemeiner auf irgend einer n-elementigen Menge. Die Verknüpfung zweier Permutationen σ und τ schreibt man als σ ◦ τ oder τ σ (Reihenfolge beachten!), wobei (σ ◦ τ )(i) = σ(τ (i)) = στ (i) = στi . 4.1.4 Definition. Eine n×n–Matrix, bei der in jeder Zeile und jeder Spalte genau eine Eins und sonst nur Nullen stehen, heißt Permutationsmatrix. Eine leichte Rechnung zeigt: 4.1.5 Satz. (Gruppe der Permutationsmatrizen) Die n × n–Permutationsmatrizen bilden eine Untergruppe der Gruppe der orthogonalen Matrizen, die bijektiv der symmetrischen Gruppe Sn entspricht, vermöge der Abbildung σ 7−→ Pσ = (δi,σ(j) ) mit Pσ◦τ = Pσ Pτ . Die Multiplikation einer Matrix A ∈ K n×n mit der Permutationsmatrix Pσ von rechts (bzw. mit Pσ T von links) bewirkt die entsprechende Permutation der Spalten (bzw. Zeilen) von A. 4.1.6 Beispiel. (Türme auf dem Schachbrett) Die 8 × 8–Permutationsmatrizen beschreiben alle Konstellationen von acht Türmen auf dem Schachbrett, von denen keiner einen anderen schlagen kann. Ein Beispiel ist die Permutation σ = (3, 1, 4, 7, 2, 6, 8, 5) mit σ −1 = (2, 5, 1, 3, 8, 6, 4, 7) : 0 1 0 0 0 0 0 0 0 1 0 Pσ = 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 Pσ−1 1 0 0 = 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 T = (Pσ ) . 0 0 1 0 0 0 0 1 0 0 0 KAPITEL 4. DETERMINANTEN 58 4.1.7 Folgerungen. Für jede Permutation σ ∈ Sn gilt: (1) Pσ ej = eσ(j) (j–te Spalte von Pσ ), (2) A Pσ = (a1 , . . . , an )Pσ = (aσ(1) , . . . , aσ(n) ), (3) Pσ T = Pσ−1 = Pσ−1 . Permutationsmatrizen lassen sich wie alle orthogonalen Matrizen spielend leicht invertieren: Die Inverse stimmt mit der Transponierten überein. 4.1.8 Definition. Die Permutation von n, die i mit j vertauscht (i 6= j), heißt Transposition und wird mit τij bezeichnet. P τij ist also die symmetrische Transpositionsmatrix Tij . Jede Transposition ist offenbar selbstinvers: τij = τji . 4.1.9 Satz. (Produktdarstellung durch Transpositionen) Jede Permutationsmatrix kann durch maximal n − 1 Zeilenvertauschungen (Transpositionen) in die Einheitsmatrix transformiert werden. Die Permutation(smatriz)en sind daher genau die Produkte von Transposition(smatriz)en. Ist σ = τ1 ...τk ein Produkt von Transpositionen, so ist σ −1 = τk ...τ1 (Reihenfolge umkehren!). 4.1.10 Definition. Eine Permutation ζ ∈ Sn heißt zyklisch oder Zykel der Länge k, falls es paarweise verschiedene Zahlen j1 , ..., jk ∈ n gibt, so dass gilt: ζ(jm ) = jm+1 für m < k, ζ(jk ) = j1 , und ζ(i) = i sonst. Dieses ζ wird notiert als (j1 . . . jk ) (nicht zu verwechseln mit Permutationen (j1 , ..., jk ) ∈ Sk ). Der nächste, sehr nützliche Satz ergibt sich konstruktiv durch Betrachtung der iterierten Bilder von Elementen unter einer Permutation. Spezielle Beispiele geben wir später in 4.1.19. 4.1.11 Satz. (Faktorisierung in Zykel) Jede Permutation besitzt eine bis auf die Reihenfolge der Faktoren eindeutige Darstellung als Produkt elementfremder und daher paarweise vertauschbarer Zykel. Stellt man das kleinste Element jedes Zykels an den Anfang und ordnet die Zykel nach Größe der Anfangselemente, so ist die Darstellung sogar völlig eindeutig. Transpositionen sind Zykel der Länge 2: τij = (ij). Wir notieren die Darstellung eines Zykels als Produkt von Transpositionen, die man leicht durch Induktion nach k beweist: 4.1.12 Lemma. Für jeden Zykel der Länge k gilt (j1 . . . jk ) = (j1 j2 )...(j1 jk ) = τj1 jk ◦...◦τj1 j2 . Insbesondere hat man die Vertauschungsregel (j1 j2 )(j2 j3 ) = (j2 j1 j3 ) = (j1 j3 j2 ) = (j1 j3 )(j1 j2 ). Von hier aus gelangt man mit einem etwas kniffligen Induktionsbeweis zu folgendem Schluss: 4.1.13 Lemma. Ist die Identität id n ein Produkt von k Transpositionen, so ist k gerade. 4.1.14 Beispiel. (12)(34)(14)(23)(13)(24) = (12)(14)(13)(13)(12)(24) = (12)(14)(12)(24) = (12)(12)(24)(24) = id4 . KAPITEL 4. DETERMINANTEN 59 Die Anzahl der Transpositionen in einer Produktdarstellung einer Permutation σ ist nicht eindeutig durch σ bestimmt, aber sie ist aufgrund des letzten Lemmas für festes σ immer gerade oder immer ungerade. Deshalb ist die folgende grundlegende Definition sinnvoll: 4.1.15 Definition. Eine Permutation heißt gerade oder ungerade, je nachdem ob sie Produkt einer geraden oder einer ungeraden Anzahl k von Transpositionen ist. Das Signum von σ ist ( 1, falls σ gerade, k sign (σ) := (−1) = −1, falls σ ungerade. Aus der Gleichung (−1)k (−1)` = (−1)k+` folgt nun unmittelbar: 4.1.16 Satz und Definition. (Multiplikativität des Signums, alternierende Gruppe) Für je zwei Permutationen σ, τ ∈ Sn gilt: sign (σ ◦ τ ) = sign σ · sign τ. Die geraden Permutationen bilden eine Untergruppe von Sn , die alternierende Gruppe An . 4.1.17 Beispiel. Für n = 3 ist die symmetrische Gruppe Sn die disjunkte Vereinigung der Menge An aller geraden Permutationen und der Menge Tn aller Transpositionen. Im Gegensatz zu An ist aber Tn keine Untergruppe! A3 z (1, 2, 3) 1 0 0 T3 }| (2, 3, 1) (3, 1, 2) 0 0 1 0 1 0 1 0 0 0 1 0 1 0 { z }| (3, 2, 1) 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 1 { (1, 3, 2) 0 0 0 1 0 1 0 (2, 1, 3) 1 0 0 1 0 0 1 0 1 0 Für n > 3 gibt es keine solche Zerlegung, obwohl stets An ∩ Tn = Ø gilt. Zum Beispiel ist die Permutation (2, 3, 4, 1) weder gerade noch eine Transposition. Aber für jede Transposition τ ist Sn die disjunkte Vereinigung von An und τ An = {τ σ | σ ∈ An }. 4.1.18 Folgerung. (Berechnung des Signums) Ein Zykel der Länge k hat das Signum (−1)k−1 , d.h. Zykel gerader Länge sind ungerade, und umgekehrt! Ist eine Permutation σ ein Produkt von m Zykeln der Längen k1 , ..., km , so gilt sign (σ) = (−1)(k1 −1)+...+(km −1) . 4.1.19 Beispiele. (Zykelzerlegung und Signum zweier spezieller Permutationen) σ = (1, 4, 3, 2, 5, 8, 6, 7) = (1)(24)(5)(687), sign (σ) = (−1)0+1+0+2 = −1. % = (2, 8, 4, 5, 6, 7, 3, 1) = (128)(34567), sign (%) = (−1)2+4 = 1. σ % KAPITEL 4. DETERMINANTEN 4.2 60 Multilineare Abbildungen und Determinanten In der Ebene R2 hat man eine Flächenfunktion F , die jedem von Vektoren a = (a1 , a2 )T und b = (b1 , b2 )T aufgespannten Parallelogramm die „orientierte Fläche” F (a, b) = kakkbk sin ∠(a, b) = a1 b2 − a2 b1 zuordnet. Bis auf das Vorzeichen ist F (a, b) der gewöhnliche Flächeninhalt. Das Vorzeichen ist genau dann positiv, wenn man von a nach b gegen den Uhrzeigersinn dreht. a b Die Funktion F : R2 × R2 −→ R2 hat folgende Eigenschaften: • F ist linear in beiden Argumenten, insbesondere F (ra, b) = F (a, rb) = r F (a, b) • F (a, b) = F (a, a + b) = F (a + b, b) • F (b, a) = −F (a, b) • F (a, b) 6= 0 gilt genau dann, wenn (a, b) eine geordnete Basis von R2 ist • F (e1 , e2 ) = 1. Das „orientierte Volumen” eines von Vektoren a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T , c = (c1 , c2 , c3 )T im Raum aufgespannten Spats, also das Spatprodukt, ist gegeben durch S(a, b, c) = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c3 − a3 b2 c1 = a · (b × c) = a1 (b2 c3 − b3 c2 ) + a2 (b3 c1 − b1 c3 ) + a3 (b1 c2 − b2 c1 ) = b · (c × a) = b1 (c2 a3 − c3 a2 ) + b2 (c3 a1 − c1 a3 ) + b3 (c1 a2 − c2 a1 ) = c · (a × b) = c1 (a2 b3 − a3 b2 ) + c2 (a3 b1 − a1 b3 ) + c3 (a1 b2 − a2 b1 ) . Bis auf das Vorzeichen ist dies das gewöhnliche Volumen. Das Vorzeichen verrät, ob es sich um ein Rechtssystem, ein Linkssystem oder um linear abhängige Vektoren handelt (S(a, b, c) = 0). c a b KAPITEL 4. DETERMINANTEN 61 Die Volumenfunktion S hat analoge Eigenschaften wie die Flächenfunktion F : • S ist linear in jedem Argument • Die Addition eines Arguments zu einem anderen ändert den Wert von S nicht • Vertauschung zweier Argumente ändert das Vorzeichen • S(a, b, c) 6= 0 gilt genau dann, wenn (a, b, c) eine geordnete Basis von R3 ist • S(e1 , e2 , e3 ) = 1. Diese Spezialfälle motivieren die folgenden Begriffsbildungen und Überlegungen. Dabei legen wir wieder einen Körper K und einen Vektorraum V über K zugrunde. 4.2.1 Notation. Für A = (a1 , ..., an ) ∈ V n und b ∈ V bezeichnet Aj (b) das n-Tupel, welches bei Ersetzen von aj durch b entsteht: Aj (b)j = b und Aj (b)i = ai für i 6= j. Sind a1 , ...an Spaltenvektoren, so können wir A als Matrix auffassen. 4.2.2 Beispiel. (Spaltenersetzung) a11 a12 a13 b1 a11 b1 a13 A= a21 a22 a23 , b = b2 ⇒ A2 (b) = a21 b2 a23 . a31 a32 a33 b3 a31 b3 a33 4.2.3 Definition. (Multilinear, alternierend) Eine Abbildung F von V n in einen Vektorraum W heißt multilinear (bilinear im Fall n = 2), wenn F linear in jedem Argument ist, d.h. für alle j ∈ n, A ∈ V n , x, y ∈ V und Skalare r, s gilt: F (Aj (rx + sy)) = r F (Aj (x)) + s F (Aj (y)). F heißt alternierend, falls F (A) = 0 für alle A = (a1 , ..., an ) ∈ V n gilt, bei denen zwei der n Argumente aj gleich sind. 4.2.4 Satz. (Alternierende multilineare Abbildungen) Für eine multilineare Abbildung F sind im Falle 1+1 6= 0 ∈ K folgende Aussagen äquivalent: (a) F (A) = 0 , falls A = (a1 , ..., an ) und Rang A = dimha1 , ..., an i < n. (b) F ist alternierend. (c) F ändert bei Vertauschung zweier Argumente das Vorzeichen. Beweis. (a) ⇒ (b): Klar, da dimha1 , ..., an i < n, falls ai = aj für ein Paar i 6= j. (b) ⇒ (c): Nach (b) ist F (..., ai , ..., aj , ...) + F (..., aj , ..., ai , ...) = F (..., ai + aj , ..., ai + aj , ...) −F (..., ai , ..., ai , ...) − F (..., aj , ..., aj , ...) = 0 , d.h. F (..., ai , ..., aj , ...) = −F (..., aj , ..., ai , ...). (c) ⇒ (b): F (..., ai , ..., ai , ...) = −F (..., ai , ..., ai , ...) impliziert (1 + 1)F (..., ai , ..., ai , ...) = 0 , also F (..., ai , ..., ai , ...) = 0 , falls 1 + 1 6= 0. P (b) ⇒ (a): Falls dimha1 , ..., an i < n, ist ein aj Linearkombination der übrigen: aj = i6=j ri ai . P Die Linearität im j-ten Argument liefert dann F (A) = F (..., aj , ...) = i6=j ri F (..., ai , ...) = 0 , da jeweils zwei Argumente der einzelnen Summanden gleich sind. 2 KAPITEL 4. DETERMINANTEN 62 4.2.5 Beispiele. (Spezielle multilineare Abbildungen) (1) Für n = 1 sind die „multilinearen” Abbildungen nichts anderes als die linearen Abbildungen. Aber für n > 1 sind multilineare Abbildungen nicht linear! (2) Die Flächenfunktion des R2 und das Spatprodukt des R3 sind multilinear und alternierend. (3) Das Skalarprodukt des Kn ist bilinear; alternierend ist es nicht. Wenn 1+1 = 0, d. h. 1 = −1 in K gilt, so ist x · y = y · x = −y · x, also (c) in 4.2.4 erfüllt, obwohl das Wort „Vorzeichenänderung” hier bedeutungslos ist. (4) Für jede Matrix A ∈ K n×n ist die Abbildung SA : Kn 2 −→ K, (x, y) 7−→ xT A y bilinear. Sie ist im Falle 1 + 1 6= 0 genau dann alternierend, wenn A schiefsymmetrisch ist. (5) Das Vektorprodukt × : R3 2 −→ R3 ist bilinear und alternierend. Die nächste, grundlegende Definition geht auf Leibniz zurück. 4.2.6 Definition. (Determinante) Für A = (aij ) ∈ K n×n heißt det A := X sign (σ) n Y aσ(j),j (n! Summanden) j=1 σ∈Sn die Determinante der Matrix A. Damit hat man für jedes n ∈ N eine Funktion detK,n = det : K n×n −→ K . 4.2.7 Beispiele. (Explizite Berechnung von Determinanten) (1) A = ( a11 ) ∈ K 1×1 =⇒ det A = a11 . a11 a12 (2) A = a21 a22 ! ∈ K 2×2 =⇒ det A = a11 a22 − a21 a12 . Anwendung: Flächenberechnung Ein von a und b in der Ebene R2 aufgespanntes Parallelogramm hat die Fläche | det(a, b)|. Sie ist genau dann 0, wenn a und b linear abhängig sind. a11 a12 a13 (3) A = a21 a22 3×3 a23 ∈K a31 a32 a33 aQ 11 aQ 12 aQ 13 a 11 a 12 Q Q Q Q Q Q Qa Q Q a 31 a 32 33 aQ 31 aQ 32 Q Q Q a21 Q a22 a23 a21 a22 =⇒ det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 . Diese Regel wird oft als „Regel von Sarrus” (nach einem französischen Mathematiker des 19. Jahrhunderts) zitiert, war aber schon Leibniz bekannt (17. Jahrhundert!) Anwendungen: Volumenberechnung, Orientierung und lineare Abhängigkeit Ein von Vektoren a, b, c im Raum R3 aufgespannter Spat hat das Volumen | det(a, b, c)|. a, b, c bilden ein Rechtssystem (Linkssystem) ⇔ det(a, b, c) > 0 (det(a, b, c) < 0). a, b, c liegen in einer Ebene durch 0 (sind linear abhängig) ⇔ det(a, b, c) = 0. KAPITEL 4. DETERMINANTEN 63 (4) Für die zu einer Permutation σ gehörige Permutationsmatrix gilt det Pσ = sign (σ), da alle Summanden bis auf einen verschwinden. (5) Aus dem gleichen Grund gilt für Elementarmatrizen: det Di (r) = r , det Eij (r) = 1 (i 6= j). Im Gegensatz zur recht kompliziert anmutenden Definition der Determinanten liefert der folgende Hauptsatz mehrere handliche Möglichkeiten für den Umgang mit Determinanten. 4.2.8 Satz. (Charakterisierungen der Determinanten) Die folgenden Aussagen über eine Funktion d : K n×n −→ K sind äquivalent: (a) d = detK,n . (b) Additive Struktur: d ist multilinear, alternierend und „normiert”, d.h. d(E) = 1. (c) Multiplikative Struktur: d(AB) = d(A) d(B) (Produktsatz), d(D) = r1 · r2 · ... · rn , falls D eine Dreiecksmatrix mit den Diagonalelementen r, ..., rn ist. (d) Elementare Umformungsstruktur: d(E) = 1, und d(A) wird mit r multipliziert, wenn man eine Spalte durch ihr r-Faches ersetzt, d(A) bleibt unverändert bei Addition eines Vielfachen einer Spalte zu einer anderen. Der Beweis dieses Satzes ist etwas aufwändig; deshalb verschieben wir ihn in den Anhang. Für die praktische Berechnung von Determinanten ist meist die Eigenschaft (d) am vorteilhaftesten, da man die gegebene Matrix mittels elementarer Umformungen auf Dreiecksgestalt bringen und dann nach (c) die Determinante als Produkt der Diagonalelemente ablesen kann. 4.2.9 Satz. (Transpositionssatz) Für jede quadratische Matrix A gilt det AT = det A. Beweis. Durch Vertauschen der Summanden und der Faktoren in den Produkten sieht man: det AT = n X Y aj,σ(j) = σ∈Sn j=1 n X Y aj,σ−1 (j) = σ∈Sn j=1 n X Y aσ(j),j = det A. σ∈Sn j=1 4.2.10 Folgerungen. (Determinantenregeln) (1) det ist nicht nur spalten-, sondern auch zeilen-multilinear; insbesondere gilt: det(rA) = rn det A. (2) det verändert sich bei Addition eines Vielfachen einer Zeile zu einer anderen nicht. (3) det ändert das Vorzeichen bei Zeilen- oder Spaltenvertauschung. (4) det A 6= 0 gilt genau dann, wenn A invertierbar ist. In diesem Fall ist det(A−1 ) = (det A)−1 . KAPITEL 4. DETERMINANTEN 64 Orthogonale Matrizen A erfüllen die Gleichung AT A = E. Für solche Matrizen gilt also (det A)2 = det(A2 ) = det E = 1. 4.2.11 Folgerung. (Determinanten orthogonaler Matrizen) Jede orthogonale Matrix hat die Determinante 1 oder −1. Jede Drehung hat die Determinante 1 (Rechtssysteme gehen in Rechtssysteme über). Hingegen hat jede Spiegelung an einer Ebene und jede Drehspiegelung die Determinante −1. Die Hintereinanderausführung zweier Drehungen, Ebenenspiegelungen oder Drehspiegelungen liefert daher stets eine Drehung. 4.2.12 Beispiel. (Drehung, Spiegelung, Drehspiegelung) R= −2 −1 1 2 −2 3 1 2 2 −1 −2 1 1 , S = 3 −2 2 2 2 1 2 1 T 1 = S , U = 3 1 −2 2 2 2 Spiegelung: det S = −1 Drehung: det R = 1 2 −1 −2 T 2 6= U 1 Drehspiegelung: det U = −1 Bei der Berechnung von Determinanten ist häufig auch die sogenannte Kästchenregel nützlich: 4.2.13 Satz. (Kästchenregel) det A B ! = det O D A O ! = det A · det D C D für A ∈ K m×m , B ∈ K m×(n−m) , C ∈ K (n−m)×m , D ∈ K (n−m)×(n−m) . Falls A und D obere Dreiecksmatrizen sind, ist die Gleichung klar nach Charakterisierung (c) in Satz 4.2.8. Den allgemeinen Fall führt man hierauf mittels elementarer Zeilen- oder Spaltenumformungen zurück, wobei sich durch Addition einer vervielfachten Zeile zu einer anderen die Determinante nicht ändert und bei Zeilenvertauschung nur das Vorzeichen wechselt. Bequem ist folgende Notation für Determinanten: ∗ ··· ∗ 4.2.14 Schreibweise. ... . . . ... ∗ ··· ∗ . . . . ... statt det .. . ∗ ··· ∗ ∗ ··· ∗ 4.2.15 Beispiel. Determinante einer Kästchenmatrix) Durch Zeilenumformungen oder mit der Kästchenregel erhält man 1 2 3 4 1 2 3 4 2 1 4 3 0 3 2 5 = 0 0 1 2 0 0 1 2 0 0 2 1 0 0 0 3 2 =3·3= 1 2 = 9. 2 1 In der ursprünglichen Definition der Determinante müsste man 24 Produkte aufsummieren, von denen allerdings nur vier ungleich 0 sind: 1 + 16 − 4 − 4 = 9. KAPITEL 4. DETERMINANTEN 4.3 65 Unterdeterminanten Für n ≥ 4 ist die explizite Darstellung der Determinanten nach Leibniz aufgrund der Vielzahl der auftretenden Summanden sehr aufwändig. Man verwendet deshalb zur Berechnung von Determinanten andere Methoden wie elementare Umformungen oder die Entwicklung nach Zeilen oder Spalten, die wir in diesem Abschnitt erläutern werden. Eine frühere Notation, übersetzt in die Sprache der Matrizen, wird sich jetzt wieder als nützlich erweisen: Für A ∈ K n×n und b ∈ Kn entsteht die Matrix Aj (b) aus A, indem die j–te Spalte durch b ersetzt wird. Die folgende Regel geht in ihrer Grundidee ebenfalls auf Leibniz zurück, wird aber meist nach dem Mathematiker Gabriel Cramer (Mitte des 18. Jahrhunderts) benannt. Exakt und allgemein bewiesen wurde sie allerdings erst von Cauchy zu Beginn des 19. Jahrhunderts. 4.3.1 Satz. (Cramersche Regel) Für A ∈ K n×n und b, x = (x1 , . . . , xn )T ∈ Kn gilt: Ax = b ⇒ ∀j ∈ n ( xj det A = det Aj (b)) . Ist A invertierbar, d. h. det A 6= 0, so ist die eindeutige Lösung von Ax = b gegeben durch xj = (det A)−1 det Aj (b) Beweis. b = Ax = (a1 , ...an )x = (j ∈ n). Pn i=1 xi ai ⇒ det Aj (b) = Pn i=1 xi det Aj (ai ) = xj det A. 4.3.2 Beispiel. (Lösung einer Drehspiegelungsgleichung) Welcher Vektor wird durch die Drehspiegelungsmatrix U auf b = (1, 1, 1)T abgebildet? U= 2 −1 −2 1 1 −2 3 2 2 x1 1 x1 1 2 −1 5 1 T 2 , U x2 = 1 ⇔ x2 = U 1 = 3 −1 . 1 x3 1 1 x3 1 Mit der Leibniz-Cramerschen Regel ergibt sich: U1 (b) = 3 −1 −2 1 3 −2 3 3 2 2 1 2 , U2 (b) = 3 1 1 2 3 −2 3 3 1 2 , U3 (b) = 3 1 −2 1 2 2 3 3 , 3 det U = −1, det U1 (b) = − 35 , det U2 (b) = 31 , det U3 (b) = − 13 , x1 = 53 , x2 = − 13 , x3 = 13 . Dieses Beispiel bestätigt zwar die Richtigkeit der Regel, zeigt aber auch, dass ihre Anwendung keineswegs immer den einfachsten Lösungsweg liefert! Schneller führt die Cramersche Regel zum Ziel, wenn die Matrizen viele Nullen enthalten. Allerdings sind auch hier meist andere Verfahren günstiger. Zum Beispiel: 0 1 0 x1 1 1 1 0 0 1 0 2 0 1 x = 0 ⇔ x1 = 0 0 1 = −2, x2 = 2 0 2 1 2 0 x3 0 0 2 0 0 1 1 1 = 1, x3 = 2 0 0 = 4. 1 0 0 Direkt: x2 = 1 , 2 x1 + x3 = 0 , x1 + 2 x2 = 0 ⇔ x1 = −2 , x2 = 1 , x3 = 4 . 1 2 0 KAPITEL 4. DETERMINANTEN 66 Nicht nur bei der Berechnung von Determinanten, sondern auch bei der expliziten Lösung linearer Gleichungssysteme treten häufig sogenannte Unterdeterminanten auf, die durch Streichen gewisser Zeilen und Spalten der Ausgangsmatrix entstehen. 4.3.3 Definition. (Unterdeterminanten, Komplementärmatrix) Für A ∈ K n×n ist Aij ∈ K (n−1)×(n−1) diejenige Matrix, die aus A durch Streichen der i–ten Zeile und j–ten Spalte entsteht, und det Aij heißt (n − 1)–reihige Unterdeterminante von A. Induktiv definiert man damit (n−k)–reihige Unterdeterminanten. Weiter sei aij] := (−1)i+j det Aj i (Vertauschung beachten!), A] := (aij] ) ∈ K n×n . A] heißt Komplementärmatrix oder Adjunkte zu A (nach Cauchy). Mit den Rechenregeln für Determinanten sieht man: 4.3.4 Lemma. aij] = det Ai (ej ). 4.3.5 Satz. (Regeln für die Komplementärmatrix) Für A ∈ K n×n gilt: (1) (A] )T = (AT )] . (2) AA ] = A ] A = (det A)E. Insbesondere A−1 = (det A)−1 A] , falls A invertierbar ist. (3) A]] = (det A)n−2 A (n ≥ 2). Insbesondere A]] = A, falls n = 2, und A]] = O, falls n > 2 und A nicht invertierbar ist. Beweis. (1) A = (aij ), AT = (bij ) ⇒ bij] = (−1)i+j det Aij = aji] . (2) ergibt sich mit Lemma 4.3.4 aus der Multilinearität der Determinante: n X ] n X j=1 j=1 aij ajk = det Ai (ej ) ajk = det Ai (ak ) = (det A) δik . (3) ist überraschend, aber für die Praxis weniger bedeutend. Wir übergehen daher den Beweis. Mit (2) haben wir eine explizite Formel für die inverse Matrix gefunden. Sie erfordert allerdings bereits bei einer 4 × 4–Matrix die Berechnung von 16 3 × 3–Determinanten und einer 4 × 4– Determinante – ein hoher Rechenaufwand! Mit dem Gauß-Jordan-Verfahren geht es schneller! 4.3.6 Beispiele. (1) A = a b ! =⇒ c d A] = d −b −c ! , A]] = A. a 1 2 3 −3 6 −3 ] = (2) A = =⇒ A 6 4 5 6 6 −12 , 7 8 9 −3 6 −3 A]] = O. Neben den elementaren Umformungen ist die nachfolgend beschriebene Methode für die praktische Berechnung von Determinanten von besonderer Wichtigkeit. Sie geht in ihren Ursprüngen ebenfalls auf Leibniz zurück, ist aber nach dem Mathematiker Pierre-Simon Laplace (ein Jahrhundert später) benannt, der sie allgemein beschrieb. Sie folgt unmittelbar aus Satz 4.3.5 (2). KAPITEL 4. DETERMINANTEN 67 4.3.7 Satz. (Laplacescher Entwicklungssatz) Für A = (aij ) ∈ K n×n und jedes feste i ∈ n gilt: det A = n X (−1)i+j aij det Aij (Entwicklung nach der i–ten Zeile) j=1 und entsprechend für jedes feste j ∈ n: det A = n X (−1)i+j aij det Aij (Entwicklung nach der j–ten Spalte). i=1 Die jeweiligen Vorzeichen merkt man sich leicht an einem „Schachbrettmuster”: j + − + ··· + − + ··· i − + − · · · + − + ··· . .. .. . . .. . . . − + − · · · + − + ··· .. .. .. . . . . . . 4.3.8 Beispiel. (Dreireihige Determinanten mittels Laplace–Entwicklung) Berechnung 3-reihiger Determinanten durch Entwicklung nach der 2. Zeile (vgl. 4.2.7): a11 a 21 a31 a12 a13 a 12 a13 a22 a23 = −a21 a32 a33 a32 a33 a 11 + a22 a 31 a 11 − a23 a a13 a33 31 a12 = a32 −a21 a12 a33 + a21 a32 a13 + a22 a11 a33 − a22 a31 a13 − a23 a11 a32 + a23 a31 a12 . Analog sind die Formeln für das Spatprodukt zu Beginn von 4.2 als Entwicklung von det(a, b, c) nach den einzelnen Spalten interpretierbar. 4.3.9 Beispiel. (Interpolation) Bei n verschiedenen Stützstellen a1 , ..., an und vorgegebenen Funktionswerten b1 , ..., bn existiert genau ein Interpolationspolynom p höchstens (n−1)–ten Grades mit p(aj ) = bj für jedes j ∈ n, da die sogenannte Vandermonde–Determinante i−1 det(aj ) = Y an (aj − ai ) = .. . i<j an n−1 1 ... 1 a1 .. . ... a1 n−1 . . . nicht verschwindet. Man berechnet sie induktiv mit Hilfe von Gauß-Jordan-Umformungen (a1 Faches der i-ten Zeile von der (i+1)ten Zeile abziehen!). Die Berechnung mit dem Entwicklungssatz wird hier komplizierter. Explizit ist das Interpolationspolynom nach Lagrange gegeben durch p(x) = n X j=1 bj x − ai . a − ai i∈n\{j} j Y KAPITEL 4. DETERMINANTEN 4.4 68 Anhang I Interpolation durch Kurven Determinanten kann man bei der Interpolation mehrerer Punkte durch Kurven verwenden. 4.4.1 Beispiel. (Geradengleichung als Determinante) Die Gleichung einer Geraden durch zwei Punkte a = (a1 , a2 ) und b = (b1 , b2 ) erhält man, indem man die Determinante der folgenden Matrix gleich Null setzt: a1 b 1 x1 a2 1 b2 1 . x2 1 Denn die Entwicklung nach der letzten Zeile ergibt die Geradengleichung x1 (a2 − b2 ) − x2 (a1 − b1 ) − (a1 b2 − a2 b1 ) = 0 , und Einsetzen von (a1 , a2 ) bzw. (b1 , b2 ) für (x1 , x2 ) liefert jeweils zwei gleiche Zeilen; die Determinante verschwindet in diesen Fällen, weshalb die beiden Punkte auf der Geraden liegen. 4.4.2 Beispiel. (Kreisgleichung als Determinante) Die Gleichung eines Kreises durch drei Punkte a = (a1 , a2 ), b = (b1 , b2 ), c = (c1 , c2 ) erhält man, indem man die Determinante der folgenden Matrix gleich Null setzt: 1 . 1 1 a12 + a22 a1 a2 1 b12 + b22 b1 b2 c12 + c22 c1 c2 x12 x1 x2 + x22 Denn die Entwicklung nach der letzten Zeile führt auf eine Gleichung der Form P (x12 + x22 ) + Q x1 + R x2 + S = 0 und die Ersetzung von (x1 , x2 ) durch (a1 , a2 ) bzw. (b1 , b2 ) bzw. (c1 , c2 ) ergibt jeweils zwei gleiche Zeilen, also die Determinante 0. Somit liegen die drei Punkte tatsächlich auf der durch diese Gleichung beschriebenen Kurve. Der Koeffizient P ist die Determinante der Matrix a1 b 1 c1 a2 1 b2 1 , c2 1 also genau dann von 0 verschieden, wenn die drei Punkte nicht auf einer Geraden liegen. In diesem Fall gewinnt man nach Division durch P eine Kreisgleichung der Form x12 + x22 + q x1 + r x2 + s = 0 und daraus durch quadratische Ergänzung Mittelpunkt und Radius: p q p2 q 2 (x1 + )2 + (x2 + )2 = + − s. 2 2 4 4 also sind (− p2 , − 2q ) die Mittelpunkt-Koordinaten, und d = p p2 + q 2 − 4 s ist der Durchmesser. KAPITEL 4. DETERMINANTEN 69 II Beweis des Determinanten-Hauptsatzes 4.2.8 Wir führen ihn mit zwei Zirkelschlüssen (a) ⇒ (b) ⇒ (d) ⇒ (a) und (a) ⇒ (c) ⇒ (d) ⇒ (a). (a) ⇒ (b): Die Determinante ist normiert: det E = 1 (nur ein Summand ist ungleich 0). Sie ist multilinear: det(Ai (rx + sy)) = X sign (σ)(r xσ(i) + s yσ(i) ) σ∈Sn = r Y aσ(j),j j6=i X sign (σ)xσ(i) σ∈Sn Y aσ(j),j + s X j6=i sign (σ)yσ(i) σ Y aσ(j),j j6=i = r det Aj (x) + s det Aj (y). Sie ist auch alternierend: Ist die i-te Spalte ai gleich der k-ten Spalte ak , so ergibt sich aus der disjunkten Zerlegung von Sn in die alternierende Gruppe An und den Rest Sn \ An = τ An (mit τ = τik ): det A = X sign (σ) σ∈An = X σ∈An sign (σ) n Y j=1 n Y j=1 aσ(j),j + X sign (σ ◦ τ ) aσ(τ (i)),i aσ(τ (k)),k σ∈An aσ(j),j − X Y aσ(τ (j)),j j6=i,k sign (σ) aσ(k),i aσ(i),k σ∈An Y aσ(j),j = 0. j6=i,k (b) ⇒ (d): Da d multilinear und alternierend ist, erhalten wir d(Ai (rai )) = r d(A) und d(Ai (ai + r aj )) = d(Ai (ai )) + r d(Ai (aj )) = d(A) für i 6= j. (d) ⇒ (a): Ist Rang A < n, so kann durch elementare Umformungen aus A eine Matrix B mit einer Nullzeile gemacht werden, und dann ist d(A) = d(B) = 0 = det B = det A. Andernfalls lässt sich A durch elementare Umformungen in die Einheitsmatrix umwandeln, wobei in jedem Schritt sowohl d(·) als auch det(·) aufgrund von (a) ⇒ (b) ⇒ (d) mit dem gleichen Faktor multipliziert wird. Aus d(E) = 1 = det E folgt somit wieder d(A) = det A. (a) ⇒ (c): Ist der Rang von A kleiner als n, so auch der von AB, und es folgt mit (a) ⇒ (b) und Satz 4.2.4: det A = 0 = det(AB). Andernfalls ist A invertierbar, also det A 6= 0. Dann ist die Funktion d : K n×n −→ K mit d(B) = (det A)−1 det(AB) wie det multilinear, alternierend und normiert, muss also wegen der bewiesenen Implikationen (b) ⇒ (d) ⇒ (a) mit det übereinstimmen, und es folgt det(AB) = det A · d(B) = det A · det B. Für jede Dreiecksmatrix D mit Diagonalelementen r1 , ..., rn ist det D = nj=1 rj , da alle Summanden in der Leibnizschen Determinanten-Darstellung außer dem für σ = idn verschwinden. Q (c) ⇒ (d): d(E) = 1 · ... · 1 = 1, und nach 4.2.7 (5): d(A Di (r)) = d(A) d(Di (r)) = r d(A), d(A Eij (r)) = d(A) d(Eij (r)) = d(A). 2 KAPITEL 4. DETERMINANTEN 70 III Historische Anmerkungen Vorstufen des Gauß-Jordan-Algorithmus zur Lösung linearer Gleichungssysteme waren in China bereits vor mehr als 2000 Jahren bekannt, wie das folgende spaltenweise zu lesende Beispiel aus einem chinesischen Lehrbuch für Finanzbeamte zeigt. Rechts die Übersetzung in arabische Ziffern: 1 x1 2 x1 3 x1 +2 x2 +3 x2 +2 x2 +3 x3 +1 x3 +1 x3 = 26 = 34 = 39 Das System wurde durch Spaltenumformungen auf untere Dreiecksgestalt gebracht und dann von rechts nach links aufgelöst: 1 2 3 2 3 2 3 1 1 26 34 39 ⇒ 1 0 0 2 1 4 3 5 8 26 18 39 ⇒ 1 0 0 2 1 0 3 5 4 ⇒ x3 = 11 17 37 ⇒ x2 = ⇒ x1 = 4 4 4 26 18 11 Auch in Europa kannte man ähnliche Verfahren schon vor der Zeit von Carl Friedrich Gauß (1777–1855). Er war aber wohl der erste, der die Umformung in Dreiecksgestalt systematisch anwandte und deren großen rechnerischen Vorteil gegenüber expliziten Methoden wie der Cramerschen Regel erkannte. Diese wiederum war zumindest für Systeme mit drei Unbekannten schon Leibniz bekannt, wie aus einem Manuskript aus dem Jahr 1678 hervorgeht. Gabriel Cramer (1704–1752) gab 1750 für den Fall n = 3 eine explizit formale und für größere n eine verbale Beschreibung der nach ihm benannten Regel, aber noch keinen Beweis. Diesen lieferte 1771 Alexandre–Théophile Vandermonde in einer linearen Eliminationstheorie, die auch erste systematische Betrachtungen über Determinantenfunktionen enthielt, einschließlich elementarer Umformungsregeln. (Die nach Vandermonde benannte spezielle Determinante hat allerdings vermutlich einen anderen Ursprung; die historisch irrtümliche Zuordnung entstand aus einer späteren Fehlinterpretation von Indizes, die er teilweise als Exponenten schrieb). Ein Brief von Leibniz an den Marquis de l’Hospital aus dem Jahr 1683 belegt, dass Leibniz schon zu dieser Zeit die Determinantenbedingung für die Existenz nichttrivialer Lösungen eines homogenen linearen Gleichungssystems in drei Unbekannten zur Verfügung hatte. Im Frankreich des beginnenden 19. Jahrhunderts waren es vor allem Joseph Louis Lagrange (1736–1813), Pierre–Simon Laplace (1749–1827) und später Augustin Louis Cauchy (17891857), die neben Gauß die Determinantentheorie ausbauten. Die erste systematische Untersuchung von Unterdeterminanten, insbesondere die Entdeckung der Adjunkten und ihrer Verwandtschaft mit der inversen Matrix, stammt von Cauchy (1815). Die Bezeichnung „Matrix” für rechteckige Zahlenschemata geht auf James Joseph Sylvester (1814–1887) zurück, der viele fundamentale Sätze über Matrizen entdeckte. Die allgemeine Theorie der Matrizen hinsichtlich Addition und Multiplikation in der heutigen Form verdanken wir in wesentlichen Zügen Arthur Cayley (1821–1895) und Georg Frobenius (1849–1917), der den Rang einer Matrix als wichtiges Werkzeug der Algebra erkannte.