Matrixnormen und Eigenwertabschäatzungen

Transcription

Matrixnormen und Eigenwertabschäatzungen
50
50.1
Matrixnormen und Eigenwertabschätzungen
Motivation
• Die Berechnung der Eigenwerte einer Matrix ist aufwändig (vgl. Kapitel 45,
Kapitel 51).
• Kann man die Eigenwerte einer Matrix mit geringem Aufwand abschätzen?
• Dies spielt z. B. eine Rolle bei Konvergenzbetrachtungen zu iterativen Algorithmen.
• Ein wichtiges Hilfsmittel für solche Abschätzungen sind Matrixnormen.
50.2
Definition: Matrixnorm
Unter einer Matrixnorm versteht man eine Funktion k · k : IRn×n → IR mit
folgenden Eigenschaften:
a) kAk ≥ 0 für alle A ∈ IRn×n (Nichtnegativität)
kAk = 0 genau dann, wenn A = 0 (Nichtdegeneriertheit)
b) kλAk = |λ| · kAk für alle λ ∈ IR, A ∈ IRn×n
c) kA + Bk ≤ kAk + kBk für alle A, B ∈ IRn×n (Dreiecksungleichung)
d) kA · Bk ≤ kAk · kBk für alle A, B ∈ IRn×n (Submultiplikativität)
50.3
Beispiele
Es sei A ∈ IRn×n .
a) Gesamtnorm:
kAkG := n · max |aij |
b) Zeilensummennorm:
kAkZ := max
c) Spaltensummennorm:
i,j
i
kAkS := max
j
177
n
P
j=1
n
P
i=1
|aij |
|aij |
d) Frobeniusnorm:
kAkF :=
e) Spektralnorm:
kAk2 :=
P
n
i,j=1
p
a2ij
1/2
λmax (AT A),
wobei λmax (AT A) der größte Eigenwert von AT A ist.
n
o
Falls A symmetrisch ist, gilt kAk2 = max |λi | λi Eigenwert von A .
i
Da Matrizen und Vektoren oft gemeinsam auftreten, sollten Matrix- und Vektornormen zueinander passend gewählt werden.
50.4
Definition: Verträglichkeit von Normen
Eine Matrixnorm k · kM heißt verträglich (kompatibel) mit einer Vektornorm
k · kV , falls für alle A ∈ IRn×n und x ∈ IRn gilt
kAxkV ≤ kAkM · kxkV .
50.5
Beispiele
Zu den p-Normen
kxkp :=
 n
1/p
P
p


|x
|
, 1≤p<∞,
i

i=1


 max |xi | ,
i=1,...,n
p=∞
als Vektornormen bestehen folgende Verträglichkeiten von Matrixnormen:
a) kAkG und kAkS sind kompatibel zur Betragssummennorm kxk1 .
b) kAkG , kAkF und kAk2 sind kompatibel zur euklidischen Norm kxk2 .
c) kAkG und kAkZ sind kompatibel zur Maximumsnorm kxk∞ .
178
Beweis: Wir zeigen nur beispielhaft die Verträglichkeit von kAkG und kxk∞ .
kAxk∞
X
n
= max aij xj i
j=1
X
n
≤ max
|aij xj |
i
j=1
X
n
≤ max
i
j=1
(Dreiecksungleichungen)
max |akl | · max |xm |
m
k,l
= n · max |akl | · max |xm |
m
k,l
= kAkG · kxk∞ .
Zu einer gegebenen Vektornorm k · kV existieren oftmals viele kompatible Matrixnormen k · kM . Es gibt jedoch eine Matrixnorm, für die die Abschätzung
kAxkV ≤ kAkM · kxkV
am schärfsten ist und die daher in der Praxis häufig verwendet wird.
50.6
Definition: Zugeordnete Matrixnorm
Die zu einer gegebenen Vektornorm k · k = k · kV definierte Zahl
kAk := max
x6=0
kAxkV
= max kAxkV
kxkV =1
kxkV
heißt der Vektornorm k · kV zugeordnete Matrixnorm.
Bemerkung: Man kann zeigen, dass die zugeordnete Matrixnorm alle Eigenschaften der Definitionen 50.2 und 50.4 besitzt und die kleinste aller Matrixnormen mit dieser Verträglichkeit ist.
179
50.7
Beispiele
Vektornorm
zugeordnete Matrixnorm
Betragssummennorm kxk1
Spaltensummennorm kAkS
Maximumsnorm kxk∞
Zeilensummennorm kAkZ
euklidische Norm kxk2
Spektralnorm kAk2
Matrixnormen sind nützlich zur Abschätzung von Eigenwerten.
50.8
Satz: Eigenwertabschätzung mit Matrixnormen
Ist λ ein Eigenwert von A ∈ IRn×n und kAk eine beliebige, zu einer Vektornorm
kompatible Matrixnorm, so gilt
|λ| ≤ kAk .
Beweis: Es sei v ein Eigenvektor zu λ. Dann folgt
|λ| · kvk = kλvk = kAvk ≤ kAk · kvk .
Da v 6= 0, gilt kvk =
6 0. Also ist |λ| ≤ kAk.
50.9
Beispiel

1

Für A =
0
−0,2

0,1 −0,1
2
0,4 erhält man
0
3
kAkG = 3 max |aij | = 3 · 3 = 9
i,j
kAkZ = max{1,2 ; 2,4 ; 3,2} = 3,2
kAkS = max{1,2 ; 2,1 ; 3,5} = 3,5
p
kAkF = 12 + 0,12 + (−0,1)2 + 22 + 0,42 + (−0,2)2 + 32
p
= 14,22 ≈ 3,77 .
180
kAkZ liefert die schärfste Abschätzung:
|λ| ≤ kAkZ = 3,2 .
Tatsächlich gilt
λ1 ≈ 3,0060 ;
λ2 ≈ 2,0078 ;
λ3 ≈ 0,9862 .
Offenbar erlaubt Satz 50.8 nur die Abschätzung des betragsmäßig größten Eigenwertes. Gibt es auch Abschätzungen für alle Eigenwerte?
50.10
Satz von Gerschgorin
Gegeben sei eine Matrix A = (aij ) ∈ IRn×n .
a) Die Vereinigung der Kreisscheiben
Ki := µ ∈ C
n
X
|µ − aii | ≤
|aij |
j=1
j6=i
enthält alle Eigenwerte der Matrix A.
b) Jede Zusammenhangskomponente aus m solchen Kreisen enthält genau m
Eigenwerte (mit ihren Vielfachheiten gezählt).
Beweis: Siehe z. B. Stoer/Bulirsch: Einführung in die numerische Mathematik
II. Springer, Berlin.
50.11
Beispiel

1

Für A =
0
−0,2

0,1 −0,1
2
0,4 findet man
0
3
n
o
K1 = µ ∈ C |µ − 1| ≤ 0,2
181
Im µ
n
K2 = µ ∈ C
n
K3 = µ ∈ C
o
|µ − 2| ≤ 0,4
o
|µ − 3| ≤ 0,2 .
K2
K1
λ1
1
K3
λ2
2
3
λ3
Re µ
Sämtliche Eigenwerte liegen in K1 ∪ K2 ∪ K3 . Da K1 , K2 , K3 sich gegenseitig
nicht überlappen, liegt nach (b) in jeder der Kreisscheiben genau ein Eigenwert.
Ferner ist A invertierbar, da 0 außerhalb von K1 ∪ K2 ∪ K3 liegt und somit kein
Eigenwert sein kann (vgl. 45.6).
50.12
Definition und Korollar: Invertierbarkeit strikt diagonaldominanter Matrizen
Eine Matrix A = (aij ) ∈ IRn×n heißt strikt diagonaldominant, wenn für alle
i = 1, . . . , n gilt
n
X
|aii | >
|aij | .
j=1
j6=i
Jede strikt diagonaldominante Matrix A ist invertierbar.
Beweis: Für eine solche Matrix A liegt 0 außerhalb der Gerschgorin-Kreisscheiben,
ist also nach dem Satz von Gerschgorin kein Eigenwert von A.
Bemerkung: Ganz analog lässt sich schließen, dass eine symmetrische Matrix
A = (aij ) ∈ IRn×n mit positiven Diagonaleinträgen aii , die strikt diagonaldominant ist, positiv definit ist.
182