Determinanten

Transcription

Determinanten
Kapitel 4
Determinanten
Der Untersuchung dieses wichtigen Werkzeugs der linearen Algebra stellen wir einige Betrachtungen über sogenannte Permutationen, also Vertauschungen von Objekten voran.
4.1
Permutationen
4.1.1 Definition. (Gruppen)
Eine Halbgruppe ist eine Menge G zusammen mit einer assoziativen Verknüpfung (a, b) 7→ a ∗ b,
d.h. für alle a, b, c ∈ G gilt:
a ∗ (b ∗ c) = (a ∗ b) ∗ c.
G heißt dann Gruppe, falls ein Element e ∈ G (genannt neutrales Element) und zu jedem a ∈ G
ein Element a− ∈ G (genannt Inverses) existiert, so dass folgende Bedingungen erfüllt sind:
a ∗ e = e ∗ a = a, a ∗ a− = a− ∗ a = e.
Falls a ∗ b = b ∗ a für alle a, b ∈ G erfüllt ist, heißt G kommutativ oder abelsch (nach dem
Mathematiker Niels Henrik Abel). Eine nichtleere Teilmenge von G heißt Untergruppe, falls
für a, b ∈ U auch a ∗ b und a− (folglich auch e) in U liegt. U ist dann selbst eine Gruppe.
4.1.2 Beispiele. (Spezielle Gruppen)
(1) Die Permutationen einer Menge M , d. h. die bijektiven Abbildungen von M auf M , bilden
bezüglich der (meist nicht kommutativen!) Verknüpfung von Abbildungen eine Gruppe S(M ).
Im Folgenden benötigen wir nur die Permutationen der Mengen n = {1, . . . , n} (n ∈ N),
d. h. die Elemente der sogenannten symmetrischen Gruppen Sn = S(n).
(2) Q, R, C und allgemein jeder Körper ist eine kommutative Gruppe bezüglich der Addition
+ (mit den Negativen −a als Inversen); Q ist Untergruppe von R, und R Untergruppe von
C. Bezüglich der Multiplikation ist jeder Körper eine Halbgruppe, aber keine Gruppe (da das
Nullelement kein Inverses hat).
(3) Jeder Vektorraum ist bezüglich der Addition eine kommutative Gruppe. Insbesondere gilt
dies für den Vektorraum K m×n der m×n–Matrizen.
(4) Die invertierbaren n×n–Matrizen bilden eine Gruppe bezüglich Multiplikation (aber nicht
bezüglich Addition). Die orthogonalen Matrizen bilden eine Untergruppe, desgleichen die Drehmatrizen (nicht aber die Spiegelungsmatrizen).
55
KAPITEL 4. DETERMINANTEN
56
(5) Eine Drehung um die Achse R(1, 1, 1)T mit einem Drehwinkel von 120◦ bewirkt eine zyklische Permutation der drei kanonischen Einheitsvektoren: Sie dreht e1 nach e2 , entsprechend
e2 nach e3 , und e3 nach e1 (vgl. Beispiel 3.2.8 (6)). Nach der früher berechneten Formel hat
die Drehung um den normierten Achsenvektor √13 (1, 1, 1)T bei variablem Drehwinkel ϕ die
Darstellungsmatrix

√ 
√
2 cos(ϕ) + 1
1 − cos(ϕ) − sin(ϕ) 3 1 − cos(ϕ) + sin(ϕ) 3
√
√ 
1
R(ϕ) = 
1 − cos(ϕ) + sin(ϕ) 3
2 cos(ϕ) + 1
1 − cos(ϕ) − sin(ϕ) 3

.
3
√
√
1 − cos(ϕ) − sin(ϕ) 3 1 − cos(ϕ) + sin(ϕ) 3
2 cos(ϕ) + 1
Jede der drei Spalten dieser Matrix ist eine Parameterdarstellung des Kreises durch die
Spitzen der drei kanonischen Einheitsvektoren! Die Matrizen R(ϕ) bilden eine kommutative
Untergruppe der nicht kommutativen Gruppe aller Drehmatrizen.
Symmetrien geometrischer Figuren beschreibt man mathematisch durch Vertauschungen gewisser Punkte, wobei die Gesamtfigur unverändert bleibt.
4.1.3 Beispiel. (Drehungen und Spiegelungen eines Quadrates)
Sie bewirken Vertauschungen der Ecken des Quadrats, bei denen dieses in sich übergeht. Diese
Permutationen bilden eine achtelementige Untergruppe der Gruppe aller Permutationen der
vier Ecken.
Permutationen lassen sich als Anordnungen von n Objekten (z.B. den ersten n natürlichen
Zahlen) interpretieren. Wie ein leichter Induktionsbeweis zeigt, gibt es
n! = 1 · ... · (n − 1) · n
Permutationen von n Objekten. Für n von 1 bis 8 ergeben sich für die „Fakultäten” n! die
Zahlen
1, 2, 6, 24, 120, 720, 5040, 40320.
KAPITEL 4. DETERMINANTEN
57
Meist bezeichnet man Permutationen mit griechischen Buchstaben und schreibt
σ = (σ(1), σ(2), ..., σ(n)) bzw. σ = (σ1 , σ2 , ..., σn ) oder zur besseren Übersicht
σ=
1
2
...
n
!
.
σ1 σ2 ... σn
Eine Permutation ist aber nichts Anderes als eine bijektive Abbildung auf der Menge der ersten
n natürlichen Zahlen, oder allgemeiner auf irgend einer n-elementigen Menge. Die Verknüpfung
zweier Permutationen σ und τ schreibt man als σ ◦ τ oder τ σ (Reihenfolge beachten!), wobei
(σ ◦ τ )(i) = σ(τ (i)) = στ (i) = στi .
4.1.4 Definition. Eine n×n–Matrix, bei der in jeder Zeile und jeder Spalte genau eine Eins
und sonst nur Nullen stehen, heißt Permutationsmatrix. Eine leichte Rechnung zeigt:
4.1.5 Satz. (Gruppe der Permutationsmatrizen)
Die n × n–Permutationsmatrizen bilden eine Untergruppe der Gruppe der orthogonalen
Matrizen, die bijektiv der symmetrischen Gruppe Sn entspricht, vermöge der Abbildung
σ 7−→ Pσ = (δi,σ(j) ) mit Pσ◦τ = Pσ Pτ .
Die Multiplikation einer Matrix A ∈ K n×n mit der Permutationsmatrix Pσ von rechts (bzw. mit
Pσ T von links) bewirkt die entsprechende Permutation der Spalten (bzw. Zeilen) von A.
4.1.6 Beispiel. (Türme auf dem Schachbrett)
Die 8 × 8–Permutationsmatrizen beschreiben alle Konstellationen von acht Türmen auf dem
Schachbrett, von denen keiner einen anderen schlagen kann. Ein Beispiel ist die Permutation
σ = (3, 1, 4, 7, 2, 6, 8, 5)
mit σ −1 = (2, 5, 1, 3, 8, 6, 4, 7) :



0 1 0 0 0 0 0 0

0


1


0
Pσ = 

0


0

0


0 0 0 1 0 0 0


0 0 0 0 0 0 0


0 1 0 0 0 0 0

0 0 0 0 0 0
0 0 0 0 1 0
0 0 1 0 0 0

1

0


0

0 0 0 0 0 0 1 0

0 0 1 0 0 0 0 0
Pσ−1

1


0


0
=

0


0

0


0 0 0 0 0 0 0


0 0 1 0 0 0 0


0 0 0 0 0 1 0

1 0 0 0 0 0
0 0 0 0 1 0
0 0 0 0 0 0
T
 = (Pσ ) .
0

0


1

0 0 0 0 1 0 0 0
KAPITEL 4. DETERMINANTEN
58
4.1.7 Folgerungen. Für jede Permutation σ ∈ Sn gilt:
(1) Pσ ej = eσ(j) (j–te Spalte von Pσ ),
(2) A Pσ = (a1 , . . . , an )Pσ = (aσ(1) , . . . , aσ(n) ),
(3) Pσ T = Pσ−1 = Pσ−1 .
Permutationsmatrizen lassen sich wie alle orthogonalen Matrizen spielend leicht invertieren:
Die Inverse stimmt mit der Transponierten überein.
4.1.8 Definition. Die Permutation von n, die i mit j vertauscht (i 6= j), heißt Transposition
und wird mit τij bezeichnet. P τij ist also die symmetrische Transpositionsmatrix Tij .
Jede Transposition ist offenbar selbstinvers: τij = τji .
4.1.9 Satz. (Produktdarstellung durch Transpositionen)
Jede Permutationsmatrix kann durch maximal n − 1 Zeilenvertauschungen (Transpositionen)
in die Einheitsmatrix transformiert werden. Die Permutation(smatriz)en sind daher genau die
Produkte von Transposition(smatriz)en.
Ist σ = τ1 ...τk ein Produkt von Transpositionen, so ist σ −1 = τk ...τ1 (Reihenfolge umkehren!).
4.1.10 Definition. Eine Permutation ζ ∈ Sn heißt zyklisch oder Zykel der Länge k, falls es
paarweise verschiedene Zahlen j1 , ..., jk ∈ n gibt, so dass gilt:
ζ(jm ) = jm+1 für m < k, ζ(jk ) = j1 , und ζ(i) = i sonst.
Dieses ζ wird notiert als (j1 . . . jk ) (nicht zu verwechseln mit Permutationen (j1 , ..., jk ) ∈ Sk ).
Der nächste, sehr nützliche Satz ergibt sich konstruktiv durch Betrachtung der iterierten Bilder
von Elementen unter einer Permutation. Spezielle Beispiele geben wir später in 4.1.19.
4.1.11 Satz. (Faktorisierung in Zykel)
Jede Permutation besitzt eine bis auf die Reihenfolge der Faktoren eindeutige Darstellung als
Produkt elementfremder und daher paarweise vertauschbarer Zykel. Stellt man das kleinste
Element jedes Zykels an den Anfang und ordnet die Zykel nach Größe der Anfangselemente,
so ist die Darstellung sogar völlig eindeutig.
Transpositionen sind Zykel der Länge 2: τij = (ij). Wir notieren die Darstellung eines Zykels
als Produkt von Transpositionen, die man leicht durch Induktion nach k beweist:
4.1.12 Lemma. Für jeden Zykel der Länge k gilt (j1 . . . jk ) = (j1 j2 )...(j1 jk ) = τj1 jk ◦...◦τj1 j2 .
Insbesondere hat man die Vertauschungsregel
(j1 j2 )(j2 j3 ) = (j2 j1 j3 ) = (j1 j3 j2 ) = (j1 j3 )(j1 j2 ).
Von hier aus gelangt man mit einem etwas kniffligen Induktionsbeweis zu folgendem Schluss:
4.1.13 Lemma. Ist die Identität id n ein Produkt von k Transpositionen, so ist k gerade.
4.1.14 Beispiel.
(12)(34)(14)(23)(13)(24) = (12)(14)(13)(13)(12)(24) = (12)(14)(12)(24) = (12)(12)(24)(24) = id4 .
KAPITEL 4. DETERMINANTEN
59
Die Anzahl der Transpositionen in einer Produktdarstellung einer Permutation σ ist nicht
eindeutig durch σ bestimmt, aber sie ist aufgrund des letzten Lemmas für festes σ immer
gerade oder immer ungerade. Deshalb ist die folgende grundlegende Definition sinnvoll:
4.1.15 Definition. Eine Permutation heißt gerade oder ungerade, je nachdem ob sie Produkt
einer geraden oder einer ungeraden Anzahl k von Transpositionen ist. Das Signum von σ ist
(
1, falls σ gerade,
k
sign (σ) := (−1) =
−1, falls σ ungerade.
Aus der Gleichung (−1)k (−1)` = (−1)k+` folgt nun unmittelbar:
4.1.16 Satz und Definition. (Multiplikativität des Signums, alternierende Gruppe)
Für je zwei Permutationen σ, τ ∈ Sn gilt:
sign (σ ◦ τ ) = sign σ · sign τ.
Die geraden Permutationen bilden eine Untergruppe von Sn , die alternierende Gruppe An .
4.1.17 Beispiel. Für n = 3 ist die symmetrische Gruppe Sn die disjunkte Vereinigung der
Menge An aller geraden Permutationen und der Menge Tn aller Transpositionen. Im Gegensatz
zu An ist aber Tn keine Untergruppe!
A3
z
(1, 2, 3)

1 0 0
T3
}|
(2, 3, 1)
 
(3, 1, 2)
 
0 0 1

 
0 1 0 1 0

 
0 0 1
0 1 0
 
{ z
}|
(3, 2, 1)



 
 
1 0 0 0 1 0 0 0

 
 
1 0 0
0 1 0
0 0 1
 
0 0 1
{
(1, 3, 2)



0
 0 0 1 
0 1 0
(2, 1, 3)
 
1 0 0

1 0 0

1

0 1 0
Für n > 3 gibt es keine solche Zerlegung, obwohl stets An ∩ Tn = Ø gilt. Zum Beispiel ist die
Permutation (2, 3, 4, 1) weder gerade noch eine Transposition. Aber für jede Transposition τ
ist Sn die disjunkte Vereinigung von An und τ An = {τ σ | σ ∈ An }.
4.1.18 Folgerung. (Berechnung des Signums)
Ein Zykel der Länge k hat das Signum (−1)k−1 , d.h. Zykel gerader Länge sind ungerade, und
umgekehrt! Ist eine Permutation σ ein Produkt von m Zykeln der Längen k1 , ..., km , so gilt
sign (σ) = (−1)(k1 −1)+...+(km −1) .
4.1.19 Beispiele. (Zykelzerlegung und Signum zweier spezieller Permutationen)
σ = (1, 4, 3, 2, 5, 8, 6, 7) = (1)(24)(5)(687), sign (σ) = (−1)0+1+0+2 = −1.
% = (2, 8, 4, 5, 6, 7, 3, 1) = (128)(34567), sign (%) = (−1)2+4 = 1.
σ
%
KAPITEL 4. DETERMINANTEN
4.2
60
Multilineare Abbildungen und Determinanten
In der Ebene R2 hat man eine Flächenfunktion F , die jedem von Vektoren a = (a1 , a2 )T und
b = (b1 , b2 )T aufgespannten Parallelogramm die „orientierte Fläche”
F (a, b) = kakkbk sin ∠(a, b)
= a1 b2 − a2 b1
zuordnet. Bis auf das Vorzeichen ist F (a, b) der gewöhnliche Flächeninhalt. Das Vorzeichen ist
genau dann positiv, wenn man von a nach b gegen den Uhrzeigersinn dreht.
a
b
Die Funktion F : R2 × R2 −→ R2 hat folgende Eigenschaften:
• F ist linear in beiden Argumenten, insbesondere F (ra, b) = F (a, rb) = r F (a, b)
• F (a, b) = F (a, a + b) = F (a + b, b)
• F (b, a) = −F (a, b)
• F (a, b) 6= 0 gilt genau dann, wenn (a, b) eine geordnete Basis von R2 ist
• F (e1 , e2 ) = 1.
Das „orientierte Volumen” eines von Vektoren a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T , c = (c1 , c2 , c3 )T
im Raum aufgespannten Spats, also das Spatprodukt, ist gegeben durch
S(a, b, c)
= a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c3 − a3 b2 c1 =
a · (b × c) = a1 (b2 c3 − b3 c2 ) + a2 (b3 c1 − b1 c3 ) + a3 (b1 c2 − b2 c1 ) =
b · (c × a) = b1 (c2 a3 − c3 a2 ) + b2 (c3 a1 − c1 a3 ) + b3 (c1 a2 − c2 a1 ) =
c · (a × b) = c1 (a2 b3 − a3 b2 ) + c2 (a3 b1 − a1 b3 ) + c3 (a1 b2 − a2 b1 ) .
Bis auf das Vorzeichen ist dies das gewöhnliche Volumen. Das Vorzeichen verrät, ob es sich um
ein Rechtssystem, ein Linkssystem oder um linear abhängige Vektoren handelt (S(a, b, c) = 0).
c
a
b
KAPITEL 4. DETERMINANTEN
61
Die Volumenfunktion S hat analoge Eigenschaften wie die Flächenfunktion F :
• S ist linear in jedem Argument
• Die Addition eines Arguments zu einem anderen ändert den Wert von S nicht
• Vertauschung zweier Argumente ändert das Vorzeichen
• S(a, b, c) 6= 0 gilt genau dann, wenn (a, b, c) eine geordnete Basis von R3 ist
• S(e1 , e2 , e3 ) = 1.
Diese Spezialfälle motivieren die folgenden Begriffsbildungen und Überlegungen. Dabei legen
wir wieder einen Körper K und einen Vektorraum V über K zugrunde.
4.2.1 Notation. Für A = (a1 , ..., an ) ∈ V n und b ∈ V bezeichnet Aj (b) das n-Tupel, welches
bei Ersetzen von aj durch b entsteht:
Aj (b)j = b und Aj (b)i = ai für i 6= j.
Sind a1 , ...an Spaltenvektoren, so können wir A als Matrix auffassen.
4.2.2 Beispiel. (Spaltenersetzung)

a11 a12 a13





b1




a11 b1 a13







A=
 a21 a22 a23  , b =  b2  ⇒ A2 (b) =  a21 b2 a23  .
a31 a32 a33
b3
a31 b3 a33
4.2.3 Definition. (Multilinear, alternierend)
Eine Abbildung F von V n in einen Vektorraum W heißt multilinear (bilinear im Fall n = 2),
wenn F linear in jedem Argument ist, d.h. für alle j ∈ n, A ∈ V n , x, y ∈ V und Skalare r, s gilt:
F (Aj (rx + sy)) = r F (Aj (x)) + s F (Aj (y)).
F heißt alternierend, falls F (A) = 0 für alle A = (a1 , ..., an ) ∈ V n gilt, bei denen zwei der n
Argumente aj gleich sind.
4.2.4 Satz. (Alternierende multilineare Abbildungen)
Für eine multilineare Abbildung F sind im Falle 1+1 6= 0 ∈ K folgende Aussagen äquivalent:
(a) F (A) = 0 , falls A = (a1 , ..., an ) und Rang A = dimha1 , ..., an i < n.
(b) F ist alternierend.
(c) F ändert bei Vertauschung zweier Argumente das Vorzeichen.
Beweis. (a) ⇒ (b): Klar, da dimha1 , ..., an i < n, falls ai = aj für ein Paar i 6= j.
(b) ⇒ (c): Nach (b) ist F (..., ai , ..., aj , ...) + F (..., aj , ..., ai , ...) = F (..., ai + aj , ..., ai + aj , ...)
−F (..., ai , ..., ai , ...) − F (..., aj , ..., aj , ...) = 0 , d.h. F (..., ai , ..., aj , ...) = −F (..., aj , ..., ai , ...).
(c) ⇒ (b): F (..., ai , ..., ai , ...) = −F (..., ai , ..., ai , ...) impliziert (1 + 1)F (..., ai , ..., ai , ...) = 0 , also
F (..., ai , ..., ai , ...) = 0 , falls 1 + 1 6= 0.
P
(b) ⇒ (a): Falls dimha1 , ..., an i < n, ist ein aj Linearkombination der übrigen: aj = i6=j ri ai .
P
Die Linearität im j-ten Argument liefert dann F (A) = F (..., aj , ...) = i6=j ri F (..., ai , ...) = 0 ,
da jeweils zwei Argumente der einzelnen Summanden gleich sind.
2
KAPITEL 4. DETERMINANTEN
62
4.2.5 Beispiele. (Spezielle multilineare Abbildungen)
(1) Für n = 1 sind die „multilinearen” Abbildungen nichts anderes als die linearen Abbildungen.
Aber für n > 1 sind multilineare Abbildungen nicht linear!
(2) Die Flächenfunktion des R2 und das Spatprodukt des R3 sind multilinear und alternierend.
(3) Das Skalarprodukt des Kn ist bilinear; alternierend ist es nicht. Wenn 1+1 = 0, d. h. 1 = −1
in K gilt, so ist x · y = y · x = −y · x, also (c) in 4.2.4 erfüllt, obwohl das Wort „Vorzeichenänderung” hier bedeutungslos ist.
(4) Für jede Matrix A ∈ K n×n ist die Abbildung
SA : Kn 2 −→ K, (x, y) 7−→ xT A y
bilinear. Sie ist im Falle 1 + 1 6= 0 genau dann alternierend, wenn A schiefsymmetrisch ist.
(5) Das Vektorprodukt × : R3 2 −→ R3 ist bilinear und alternierend.
Die nächste, grundlegende Definition geht auf Leibniz zurück.
4.2.6 Definition. (Determinante)
Für A = (aij ) ∈ K n×n heißt
det A :=
X
sign (σ)
n
Y
aσ(j),j
(n! Summanden)
j=1
σ∈Sn
die Determinante der Matrix A. Damit hat man für jedes n ∈ N eine Funktion
detK,n = det : K n×n −→ K .
4.2.7 Beispiele. (Explizite Berechnung von Determinanten)
(1) A = ( a11 ) ∈ K 1×1 =⇒ det A = a11 .
a11 a12
(2) A =
a21 a22
!
∈ K 2×2 =⇒ det A = a11 a22 − a21 a12 .
Anwendung: Flächenberechnung
Ein von a und b in der Ebene R2 aufgespanntes Parallelogramm hat die Fläche | det(a, b)|.
Sie ist genau dann 0, wenn a und b linear abhängig sind.

a11 a12 a13

(3) A = 
 a21
a22


3×3
a23 
∈K
a31 a32 a33
aQ
11 aQ
12 aQ
13 a
11 a
12
Q Q Q
Q Q Q
Qa Q
Q
a
31 a
32
33 aQ
31 aQ
32
Q
Q
Q
a21 Q
a22
a23
a21 a22
=⇒ det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 .
Diese Regel wird oft als „Regel von Sarrus” (nach einem französischen Mathematiker
des 19. Jahrhunderts) zitiert, war aber schon Leibniz bekannt (17. Jahrhundert!)
Anwendungen: Volumenberechnung, Orientierung und lineare Abhängigkeit
Ein von Vektoren a, b, c im Raum R3 aufgespannter Spat hat das Volumen | det(a, b, c)|.
a, b, c bilden ein Rechtssystem (Linkssystem) ⇔ det(a, b, c) > 0 (det(a, b, c) < 0).
a, b, c liegen in einer Ebene durch 0 (sind linear abhängig) ⇔ det(a, b, c) = 0.
KAPITEL 4. DETERMINANTEN
63
(4) Für die zu einer Permutation σ gehörige Permutationsmatrix gilt
det Pσ = sign (σ),
da alle Summanden bis auf einen verschwinden.
(5) Aus dem gleichen Grund gilt für Elementarmatrizen:
det Di (r) = r ,
det Eij (r) = 1 (i 6= j).
Im Gegensatz zur recht kompliziert anmutenden Definition der Determinanten liefert der folgende Hauptsatz mehrere handliche Möglichkeiten für den Umgang mit Determinanten.
4.2.8 Satz. (Charakterisierungen der Determinanten)
Die folgenden Aussagen über eine Funktion d : K n×n −→ K sind äquivalent:
(a) d = detK,n .
(b) Additive Struktur: d ist multilinear, alternierend und „normiert”, d.h. d(E) = 1.
(c) Multiplikative Struktur: d(AB) = d(A) d(B) (Produktsatz),
d(D) = r1 · r2 · ... · rn , falls D eine Dreiecksmatrix mit den Diagonalelementen r, ..., rn ist.
(d) Elementare Umformungsstruktur: d(E) = 1, und
d(A) wird mit r multipliziert, wenn man eine Spalte durch ihr r-Faches ersetzt,
d(A) bleibt unverändert bei Addition eines Vielfachen einer Spalte zu einer anderen.
Der Beweis dieses Satzes ist etwas aufwändig; deshalb verschieben wir ihn in den Anhang.
Für die praktische Berechnung von Determinanten ist meist die Eigenschaft (d) am vorteilhaftesten, da man die gegebene Matrix mittels elementarer Umformungen auf Dreiecksgestalt
bringen und dann nach (c) die Determinante als Produkt der Diagonalelemente ablesen kann.
4.2.9 Satz. (Transpositionssatz)
Für jede quadratische Matrix A gilt det AT = det A.
Beweis. Durch Vertauschen der Summanden und der Faktoren in den Produkten sieht man:
det AT =
n
X Y
aj,σ(j) =
σ∈Sn j=1
n
X Y
aj,σ−1 (j) =
σ∈Sn j=1
n
X Y
aσ(j),j = det A.
σ∈Sn j=1
4.2.10 Folgerungen. (Determinantenregeln)
(1) det ist nicht nur spalten-, sondern auch zeilen-multilinear; insbesondere gilt:
det(rA) = rn det A.
(2) det verändert sich bei Addition eines Vielfachen einer Zeile zu einer anderen nicht.
(3) det ändert das Vorzeichen bei Zeilen- oder Spaltenvertauschung.
(4) det A 6= 0 gilt genau dann, wenn A invertierbar ist. In diesem Fall ist
det(A−1 ) = (det A)−1 .
KAPITEL 4. DETERMINANTEN
64
Orthogonale Matrizen A erfüllen die Gleichung AT A = E. Für solche Matrizen gilt also
(det A)2 = det(A2 ) = det E = 1.
4.2.11 Folgerung. (Determinanten orthogonaler Matrizen)
Jede orthogonale Matrix hat die Determinante 1 oder −1.
Jede Drehung hat die Determinante 1 (Rechtssysteme gehen in Rechtssysteme über).
Hingegen hat jede Spiegelung an einer Ebene und jede Drehspiegelung die Determinante −1.
Die Hintereinanderausführung zweier Drehungen, Ebenenspiegelungen oder Drehspiegelungen
liefert daher stets eine Drehung.
4.2.12 Beispiel. (Drehung, Spiegelung, Drehspiegelung)

R=
−2 −1
1
 2 −2
3
1 2
2


−1 −2

1

1 
 , S = 3  −2
2
2
2
1
2



1
T

1 
 = S , U = 3  1 −2
2
2 2
Spiegelung: det S = −1
Drehung: det R = 1
2 −1 −2

T
2 
 6= U

1
Drehspiegelung: det U = −1
Bei der Berechnung von Determinanten ist häufig auch die sogenannte Kästchenregel nützlich:
4.2.13 Satz. (Kästchenregel)
det
A B
!
= det
O D
A O
!
= det A · det D
C D
für A ∈ K m×m , B ∈ K m×(n−m) , C ∈ K (n−m)×m , D ∈ K (n−m)×(n−m) .
Falls A und D obere Dreiecksmatrizen sind, ist die Gleichung klar nach Charakterisierung (c)
in Satz 4.2.8. Den allgemeinen Fall führt man hierauf mittels elementarer Zeilen- oder Spaltenumformungen zurück, wobei sich durch Addition einer vervielfachten Zeile zu einer anderen
die Determinante nicht ändert und bei Zeilenvertauschung nur das Vorzeichen wechselt.
Bequem ist folgende Notation für Determinanten:
∗ ··· ∗
4.2.14 Schreibweise. ... . . . ...


∗ ··· ∗
 . .

. . ... 
statt det 
 ..
.
∗ ··· ∗
∗ ··· ∗
4.2.15 Beispiel. Determinante einer Kästchenmatrix)
Durch Zeilenumformungen oder mit der Kästchenregel erhält man
1 2 3 4
1 2 3 4
2 1 4 3
0 3 2 5
=
0 0 1 2
0 0 1 2
0 0 2 1
0 0 0 3
2
=3·3=
1 2
= 9.
2 1
In der ursprünglichen Definition der Determinante müsste man 24 Produkte aufsummieren,
von denen allerdings nur vier ungleich 0 sind: 1 + 16 − 4 − 4 = 9.
KAPITEL 4. DETERMINANTEN
4.3
65
Unterdeterminanten
Für n ≥ 4 ist die explizite Darstellung der Determinanten nach Leibniz aufgrund der Vielzahl
der auftretenden Summanden sehr aufwändig. Man verwendet deshalb zur Berechnung von
Determinanten andere Methoden wie elementare Umformungen oder die Entwicklung nach
Zeilen oder Spalten, die wir in diesem Abschnitt erläutern werden.
Eine frühere Notation, übersetzt in die Sprache der Matrizen, wird sich jetzt wieder als nützlich
erweisen: Für A ∈ K n×n und b ∈ Kn entsteht die Matrix Aj (b) aus A, indem die j–te Spalte
durch b ersetzt wird.
Die folgende Regel geht in ihrer Grundidee ebenfalls auf Leibniz zurück, wird aber meist nach
dem Mathematiker Gabriel Cramer (Mitte des 18. Jahrhunderts) benannt. Exakt und allgemein
bewiesen wurde sie allerdings erst von Cauchy zu Beginn des 19. Jahrhunderts.
4.3.1 Satz. (Cramersche Regel)
Für A ∈ K n×n und b, x = (x1 , . . . , xn )T ∈ Kn gilt:
Ax = b ⇒ ∀j ∈ n ( xj det A = det Aj (b)) .
Ist A invertierbar, d. h. det A 6= 0, so ist die eindeutige Lösung von Ax = b gegeben durch
xj = (det A)−1 det Aj (b)
Beweis. b = Ax = (a1 , ...an )x =
(j ∈ n).
Pn
i=1 xi ai
⇒ det Aj (b) =
Pn
i=1 xi det Aj (ai )
= xj det A.
4.3.2 Beispiel. (Lösung einer Drehspiegelungsgleichung)
Welcher Vektor wird durch die Drehspiegelungsmatrix U auf b = (1, 1, 1)T abgebildet?

U=
2 −1 −2
1
 1 −2
3
2 2


x1


1


x1


1


2 −1

5




 





1
T 



 




2 
 , U  x2  =  1  ⇔  x2  = U  1  = 3  −1  .
1
x3
1
1
x3
1
Mit der Leibniz-Cramerschen Regel ergibt sich:

U1 (b) =
3 −1 −2
1
 3 −2
3
3 2


2

1

2 
 , U2 (b) = 3  1
1
2
3 −2
3
3


1

2 
 , U3 (b) = 3  1 −2
1
2 2
3


3 
,
3
det U = −1, det U1 (b) = − 35 , det U2 (b) = 31 , det U3 (b) = − 13 , x1 = 53 , x2 = − 13 , x3 = 13 .
Dieses Beispiel bestätigt zwar die Richtigkeit der Regel, zeigt aber auch, dass ihre Anwendung
keineswegs immer den einfachsten Lösungsweg liefert!
Schneller führt die Cramersche Regel zum Ziel, wenn die Matrizen viele Nullen enthalten.
Allerdings sind auch hier meist andere Verfahren günstiger. Zum Beispiel:

0 1 0

x1


1

1 1 0
0 1 0


  
 2 0 1   x  =  0  ⇔ x1 = 0 0 1 = −2, x2 = 2 0

 2   
1 2 0
x3
0
0 2 0
0 1 1
1 = 1, x3 = 2 0 0 = 4.
1 0 0
Direkt: x2 = 1 , 2 x1 + x3 = 0 , x1 + 2 x2 = 0 ⇔ x1 = −2 , x2 = 1 , x3 = 4 .
1 2 0
KAPITEL 4. DETERMINANTEN
66
Nicht nur bei der Berechnung von Determinanten, sondern auch bei der expliziten Lösung linearer Gleichungssysteme treten häufig sogenannte Unterdeterminanten auf, die durch Streichen
gewisser Zeilen und Spalten der Ausgangsmatrix entstehen.
4.3.3 Definition. (Unterdeterminanten, Komplementärmatrix)
Für A ∈ K n×n ist Aij ∈ K (n−1)×(n−1) diejenige Matrix, die aus A durch Streichen der i–ten
Zeile und j–ten Spalte entsteht, und det Aij heißt (n − 1)–reihige Unterdeterminante von A.
Induktiv definiert man damit (n−k)–reihige Unterdeterminanten. Weiter sei
aij] := (−1)i+j det Aj i (Vertauschung beachten!), A] := (aij] ) ∈ K n×n .
A] heißt Komplementärmatrix oder Adjunkte zu A (nach Cauchy).
Mit den Rechenregeln für Determinanten sieht man:
4.3.4 Lemma. aij] = det Ai (ej ).
4.3.5 Satz. (Regeln für die Komplementärmatrix)
Für A ∈ K n×n gilt:
(1) (A] )T = (AT )] .
(2) AA ] = A ] A = (det A)E.
Insbesondere A−1 = (det A)−1 A] , falls A invertierbar ist.
(3) A]] = (det A)n−2 A (n ≥ 2).
Insbesondere A]] = A, falls n = 2, und A]] = O, falls n > 2 und A nicht invertierbar ist.
Beweis. (1) A = (aij ), AT = (bij ) ⇒ bij] = (−1)i+j det Aij = aji] .
(2) ergibt sich mit Lemma 4.3.4 aus der Multilinearität der Determinante:
n
X
]
n
X
j=1
j=1
aij ajk =
det Ai (ej ) ajk = det Ai (ak ) = (det A) δik .
(3) ist überraschend, aber für die Praxis weniger bedeutend. Wir übergehen daher den Beweis.
Mit (2) haben wir eine explizite Formel für die inverse Matrix gefunden. Sie erfordert allerdings
bereits bei einer 4 × 4–Matrix die Berechnung von 16 3 × 3–Determinanten und einer 4 × 4–
Determinante – ein hoher Rechenaufwand! Mit dem Gauß-Jordan-Verfahren geht es schneller!
4.3.6 Beispiele.
(1) A =
a
b
!
=⇒
c d



A]
=
d −b
−c
!
, A]] = A.
a

1 2 3
−3
6 −3




] =

(2) A = 
=⇒
A
6 
 4 5 6 
 6 −12
,
7 8 9
−3
6 −3
A]] = O.
Neben den elementaren Umformungen ist die nachfolgend beschriebene Methode für die praktische Berechnung von Determinanten von besonderer Wichtigkeit. Sie geht in ihren Ursprüngen
ebenfalls auf Leibniz zurück, ist aber nach dem Mathematiker Pierre-Simon Laplace (ein Jahrhundert später) benannt, der sie allgemein beschrieb. Sie folgt unmittelbar aus Satz 4.3.5 (2).
KAPITEL 4. DETERMINANTEN
67
4.3.7 Satz. (Laplacescher Entwicklungssatz)
Für A = (aij ) ∈ K n×n und jedes feste i ∈ n gilt:
det A =
n
X
(−1)i+j aij det Aij
(Entwicklung nach der i–ten Zeile)
j=1
und entsprechend für jedes feste j ∈ n:
det A =
n
X
(−1)i+j aij det Aij
(Entwicklung nach der j–ten Spalte).
i=1
Die jeweiligen Vorzeichen merkt man sich leicht an einem „Schachbrettmuster”:
j
+ − + ··· + − + ··· i − + − · · ·
+ − + ···
.
.. .. . .
..
.
. .
− + − · · · + − + ···
.. .. .. . .
.
. . .
4.3.8 Beispiel. (Dreireihige Determinanten mittels Laplace–Entwicklung)
Berechnung 3-reihiger Determinanten durch Entwicklung nach der 2. Zeile (vgl. 4.2.7):
a11
a
21
a31
a12 a13 a
12 a13
a22 a23 = −a21 a32 a33
a32 a33 a
11
+ a22 a
31
a
11
− a23 a
a13 a33
31
a12 =
a32 −a21 a12 a33 + a21 a32 a13 + a22 a11 a33 − a22 a31 a13 − a23 a11 a32 + a23 a31 a12 .
Analog sind die Formeln für das Spatprodukt zu Beginn von 4.2 als Entwicklung von det(a, b, c)
nach den einzelnen Spalten interpretierbar.
4.3.9 Beispiel. (Interpolation)
Bei n verschiedenen Stützstellen a1 , ..., an und vorgegebenen Funktionswerten b1 , ..., bn existiert
genau ein Interpolationspolynom p höchstens (n−1)–ten Grades mit p(aj ) = bj für jedes j ∈ n,
da die sogenannte Vandermonde–Determinante
i−1
det(aj ) = Y
an
(aj − ai )
=
..
.
i<j
an n−1 1
... 1
a1
..
.
...
a1 n−1 . . .
nicht verschwindet. Man berechnet sie induktiv mit Hilfe von Gauß-Jordan-Umformungen (a1 Faches der i-ten Zeile von der (i+1)ten Zeile abziehen!).
Die Berechnung mit dem Entwicklungssatz wird hier komplizierter.
Explizit ist das Interpolationspolynom nach Lagrange gegeben durch
p(x) =
n
X
j=1
bj
x − ai
.
a
− ai
i∈n\{j} j
Y
KAPITEL 4. DETERMINANTEN
4.4
68
Anhang
I Interpolation durch Kurven
Determinanten kann man bei der Interpolation mehrerer Punkte durch Kurven verwenden.
4.4.1 Beispiel. (Geradengleichung als Determinante)
Die Gleichung einer Geraden durch zwei Punkte a = (a1 , a2 ) und b = (b1 , b2 ) erhält man,
indem man die Determinante der folgenden Matrix gleich Null setzt:
a1
b
1
x1
a2 1 b2 1 .
x2 1 Denn die Entwicklung nach der letzten Zeile ergibt die Geradengleichung
x1 (a2 − b2 ) − x2 (a1 − b1 ) − (a1 b2 − a2 b1 ) = 0 ,
und Einsetzen von (a1 , a2 ) bzw. (b1 , b2 ) für (x1 , x2 ) liefert jeweils zwei gleiche Zeilen; die Determinante verschwindet in diesen Fällen, weshalb die beiden Punkte auf der Geraden liegen.
4.4.2 Beispiel. (Kreisgleichung als Determinante)
Die Gleichung eines Kreises durch drei Punkte a = (a1 , a2 ), b = (b1 , b2 ), c = (c1 , c2 ) erhält
man, indem man die Determinante der folgenden Matrix gleich Null setzt:
1 .
1 1 a12 + a22
a1
a2 1 b12 + b22
b1
b2
c12 + c22
c1
c2
x12
x1 x2
+
x22
Denn die Entwicklung nach der letzten Zeile führt auf eine Gleichung der Form
P (x12 + x22 ) + Q x1 + R x2 + S = 0
und die Ersetzung von (x1 , x2 ) durch (a1 , a2 ) bzw. (b1 , b2 ) bzw. (c1 , c2 ) ergibt jeweils zwei
gleiche Zeilen, also die Determinante 0. Somit liegen die drei Punkte tatsächlich auf der durch
diese Gleichung beschriebenen Kurve. Der Koeffizient P ist die Determinante der Matrix
a1
b
1
c1
a2 1 b2 1 ,
c2
1 also genau dann von 0 verschieden, wenn die drei Punkte nicht auf einer Geraden liegen.
In diesem Fall gewinnt man nach Division durch P eine Kreisgleichung der Form
x12 + x22 + q x1 + r x2 + s = 0
und daraus durch quadratische Ergänzung Mittelpunkt und Radius:
p
q
p2 q 2
(x1 + )2 + (x2 + )2 =
+
− s.
2
2
4
4
also sind (− p2 , − 2q ) die Mittelpunkt-Koordinaten, und d =
p
p2 + q 2 − 4 s ist der Durchmesser.
KAPITEL 4. DETERMINANTEN
69
II Beweis des Determinanten-Hauptsatzes 4.2.8
Wir führen ihn mit zwei Zirkelschlüssen (a) ⇒ (b) ⇒ (d) ⇒ (a) und (a) ⇒ (c) ⇒ (d) ⇒ (a).
(a) ⇒ (b): Die Determinante ist normiert: det E = 1 (nur ein Summand ist ungleich 0).
Sie ist multilinear:
det(Ai (rx + sy)) =
X
sign (σ)(r xσ(i) + s yσ(i) )
σ∈Sn
= r
Y
aσ(j),j
j6=i
X
sign (σ)xσ(i)
σ∈Sn
Y
aσ(j),j + s
X
j6=i
sign (σ)yσ(i)
σ
Y
aσ(j),j
j6=i
= r det Aj (x) + s det Aj (y).
Sie ist auch alternierend: Ist die i-te Spalte ai gleich der k-ten Spalte ak , so ergibt sich aus
der disjunkten Zerlegung von Sn in die alternierende Gruppe An und den Rest Sn \ An = τ An
(mit τ = τik ):
det A =
X
sign (σ)
σ∈An
=
X
σ∈An
sign (σ)
n
Y
j=1
n
Y
j=1
aσ(j),j +
X
sign (σ ◦ τ ) aσ(τ (i)),i aσ(τ (k)),k
σ∈An
aσ(j),j −
X
Y
aσ(τ (j)),j
j6=i,k
sign (σ) aσ(k),i aσ(i),k
σ∈An
Y
aσ(j),j = 0.
j6=i,k
(b) ⇒ (d): Da d multilinear und alternierend ist, erhalten wir
d(Ai (rai )) = r d(A) und d(Ai (ai + r aj )) = d(Ai (ai )) + r d(Ai (aj )) = d(A) für i 6= j.
(d) ⇒ (a): Ist Rang A < n, so kann durch elementare Umformungen aus A eine Matrix B mit
einer Nullzeile gemacht werden, und dann ist d(A) = d(B) = 0 = det B = det A. Andernfalls
lässt sich A durch elementare Umformungen in die Einheitsmatrix umwandeln, wobei in jedem
Schritt sowohl d(·) als auch det(·) aufgrund von (a) ⇒ (b) ⇒ (d) mit dem gleichen Faktor multipliziert wird. Aus d(E) = 1 = det E folgt somit wieder d(A) = det A.
(a) ⇒ (c): Ist der Rang von A kleiner als n, so auch der von AB, und es folgt mit (a) ⇒ (b)
und Satz 4.2.4: det A = 0 = det(AB).
Andernfalls ist A invertierbar, also det A 6= 0. Dann ist die Funktion
d : K n×n −→ K mit d(B) = (det A)−1 det(AB)
wie det multilinear, alternierend und normiert, muss also wegen der bewiesenen Implikationen
(b) ⇒ (d) ⇒ (a) mit det übereinstimmen, und es folgt det(AB) = det A · d(B) = det A · det B.
Für jede Dreiecksmatrix D mit Diagonalelementen r1 , ..., rn ist det D = nj=1 rj , da alle Summanden in der Leibnizschen Determinanten-Darstellung außer dem für σ = idn verschwinden.
Q
(c) ⇒ (d): d(E) = 1 · ... · 1 = 1, und nach 4.2.7 (5):
d(A Di (r)) = d(A) d(Di (r)) = r d(A),
d(A Eij (r)) = d(A) d(Eij (r)) = d(A).
2
KAPITEL 4. DETERMINANTEN
70
III Historische Anmerkungen
Vorstufen des Gauß-Jordan-Algorithmus zur Lösung linearer Gleichungssysteme waren in
China bereits vor mehr als 2000 Jahren bekannt, wie das folgende spaltenweise zu lesende
Beispiel aus einem chinesischen Lehrbuch für Finanzbeamte zeigt. Rechts die Übersetzung in
arabische Ziffern:
1 x1
2 x1
3 x1
+2 x2 +3 x2 +2 x2
+3 x3 +1 x3 +1 x3
= 26
= 34
= 39
Das System wurde durch Spaltenumformungen auf untere Dreiecksgestalt gebracht und dann
von rechts nach links aufgelöst:
1
2
3
2
3
2
3
1
1
26 34 39
⇒
1
0
0
2
1
4
3
5
8
26 18 39
⇒
1
0
0
2
1
0
3
5
4
⇒ x3 =
11
17
37
⇒ x2 =
⇒ x1 =
4
4
4
26 18 11
Auch in Europa kannte man ähnliche Verfahren schon vor der Zeit von Carl Friedrich Gauß
(1777–1855). Er war aber wohl der erste, der die Umformung in Dreiecksgestalt systematisch anwandte und deren großen rechnerischen Vorteil gegenüber expliziten Methoden wie der
Cramerschen Regel erkannte. Diese wiederum war zumindest für Systeme mit drei Unbekannten schon Leibniz bekannt, wie aus einem Manuskript aus dem Jahr 1678 hervorgeht.
Gabriel Cramer (1704–1752) gab 1750 für den Fall n = 3 eine explizit formale und für größere
n eine verbale Beschreibung der nach ihm benannten Regel, aber noch keinen Beweis. Diesen lieferte 1771 Alexandre–Théophile Vandermonde in einer linearen Eliminationstheorie, die
auch erste systematische Betrachtungen über Determinantenfunktionen enthielt, einschließlich
elementarer Umformungsregeln. (Die nach Vandermonde benannte spezielle Determinante hat
allerdings vermutlich einen anderen Ursprung; die historisch irrtümliche Zuordnung entstand
aus einer späteren Fehlinterpretation von Indizes, die er teilweise als Exponenten schrieb).
Ein Brief von Leibniz an den Marquis de l’Hospital aus dem Jahr 1683 belegt, dass Leibniz
schon zu dieser Zeit die Determinantenbedingung für die Existenz nichttrivialer Lösungen eines
homogenen linearen Gleichungssystems in drei Unbekannten zur Verfügung hatte.
Im Frankreich des beginnenden 19. Jahrhunderts waren es vor allem Joseph Louis Lagrange
(1736–1813), Pierre–Simon Laplace (1749–1827) und später Augustin Louis Cauchy (17891857), die neben Gauß die Determinantentheorie ausbauten. Die erste systematische Untersuchung von Unterdeterminanten, insbesondere die Entdeckung der Adjunkten und ihrer Verwandtschaft mit der inversen Matrix, stammt von Cauchy (1815).
Die Bezeichnung „Matrix” für rechteckige Zahlenschemata geht auf James Joseph Sylvester
(1814–1887) zurück, der viele fundamentale Sätze über Matrizen entdeckte. Die allgemeine
Theorie der Matrizen hinsichtlich Addition und Multiplikation in der heutigen Form verdanken
wir in wesentlichen Zügen Arthur Cayley (1821–1895) und Georg Frobenius (1849–1917), der
den Rang einer Matrix als wichtiges Werkzeug der Algebra erkannte.