4.6 Rang

Comments

Transcription

4.6 Rang
4.6 Rang
I
Til enhver m × n matrise A kan vi knytte et tall, rangen til A,
som gir viktig informasjon.
Definisjon: Rangen til en m × n matrise A betegnes med rank A
og er definert som dimensjonen til kolonnerommet til A. Altså:
rank A = dim(Col A) = antall pivoter i rref(A)
Så
rank A ≤ minimum(m, n) og
I
rank A er det største antall lineært uavhengige kolonner i
matrisen A.
I
rank A er det minste antall kolonner i A som er nødvendig for
å utspenne Col A.
1 / 14
Hvis vi lar r1 , . . . , rm betegne radvektorene til A og betrakter disse
som vektorer i Rn , er radrommet til A definert som underrommet
av Rn gitt ved
Row A = Span{r1 , . . . , rm } .
Derfor er Row A = Col AT .
Så en basis for Col AT gir en basis for Row A. Alternativt kan vi
observere at:
I Radrommet til en matrise forandrer seg ikke under
radoperasjoner.
I Dermed er Row A = Row R der R = rref(A).
I En basis for Row R, og dermed for Row A, består av
alle radvektorene i R som inneholder en pivot.
Dette gir (jf. Teorem 14):
dim(Row A) = antall pivoter i R = dim(Col A) = rank A
Videre gjelder dimensjonsformelen
rank A + dim(Nul A) = n (= antall kolonner i A)
2 / 14
Teorem (Tillegg til IMT): La A være en n × n matrise. Da er
følgende utsagn ekvivalente:
a A er invertibel.
m Kolonnene i A er en basis for Rn .
n Col A = Rn .
o dim(Col A) = n.
p rank A = n
(Vi sier da at A har full rang).
q Nul A = {0}.
r dim(Nul A) = 0.
Merk: I m kan vi bytte kolonnene med radene, og i n og o kan vi
bytte Col A med Row A.
3 / 14
Hvordan kan vi beregne rangen til en matrise A?
I
Vi kan bruke Gauss eliminasjon og beregne rref(A) ...
... men dette vil kunne gi feil p.g.a. avrunding underveis.
I
I stedet beregnes gjerne rangen til A ut fra den såkalte
singulær verdi dekomposisjonen til A (SVD’en til A).
Skal gå nærmere inn på dette helt på slutten av kurset
(i avsnitt 7.4).
I
I Matlab finnes en (nokså komplisert) algoritme som beregner
SVD’en til A, og rank A fastsettes på grunnlag av denne.
4 / 14
4.7 Bytte av basis
I noen situasjoner vil et problem bli forenklet hvis vi går over til en
annen basis. Følgende teorem sier hvordan koordinatene til en
vektor endrer seg når vi bytter basis:
Teorem 15: Anta at B = {b1 , b2 , . . . , bn } og C = {c1 , c2 , . . . , cn }
er (ordnede) basiser for et vektorrom V .
Da finnes en unik n × n matrise PC←B som er slik at
[x]C = PC←B [x]B
for alle x ∈ V .
Kolonnene i PC←B er C-koordinatvektorene til vektorene i B:
h
i
PC←B = [b1 ]C [b2 ]C · · · [bn ]C
Matrisen PC←B kalles basisskiftematrisen (eller koordinatskiftematrisen) fra B til C.
5 / 14
Merk: Basisskiftematriser er alltid invertible: dette følger av
korollaret til Teorem 8 i Notat 1, og vi har at
−1
= PB←C
PC←B
Merk: Hvis B = {b1 , · · · , bn } er en basis for Rn og E er
standardbasisen for Rn , så er
PE←B = b1 · · · bn = PB
Merk: En oppskrift for å beregne basisskiftematrisen PC←B mellom
to basiser B = {b1 , · · · , bn } og C = {c1 , · · · , cn } for Rn er å sette
opp matrisen
c1 · · · cn | b1 · · · bn
og radredusere denne til redusert trappeform. På venstre siden vil
man da komme frem til In , mens PC←B vil stå på høyre siden:
c1 · · · cn | b1 · · · bn ∼ · · · ∼ In | PC←B
6 / 14
4.8 Anvendelse på differenslikninger
Vi minner om at signalrommet S består av alle reelle følger av
typen
y = {yk }∞
k=−∞ = (. . . , y−2 , y−1 , y0 , y1 , y2 , . . .)
Vi vil som regel skrive y = {yk } for vektorer i S. Vektorromsoperasjonene i S er gitt ved
x + y = {xk + yk },
cy = {c yk }
Hva med lineær uavhengighet i S?
Betrakt f.eks. tre signaler u = {uk }, v = {vk } og w = {wk } i S.
Anta at
c1 u + c2 v + c3 w = 0,
der c1 , c2 , c3 ∈ R.
Dette betyr at {c1 uk + c2 vk + c3 wk } = 0, dvs at
c1 uk + c2 vk + c3 wk = 0
for alle k ∈ Z
7 / 14
For en gitt k ∈ Z kan vi bruke dette for
likningssystemet


uk
vk
wk
 uk+1 vk+1 wk+1  
uk+2 vk+2 wk+2
k, k + 1 og k + 2 og får da
  
c1
0
c2  =  0 
c3
0
Koeffisientmatrisen


uk
vk
wk
Ck =  uk+1 vk+1 wk+1 
uk+2 vk+2 wk+2
til systemet ovenfor kalles Casorati matrisen nr. k til signalene u, v
og w.
Hvis det fins en k ∈ Z slik at Ck er invertibel, vil systemet ovenfor
bare ha den trivielle løsningen c1 = c2 = c3 = 0 , og vi kan da
konkludere med at u, v og w er lineært uavhengige.
8 / 14
Eksempel. La r , s, t være tre forskjellige reelle tall.
Betrakt signalene u = {r k }, v = {s k } og w = {t k }.
Casorati-matrisen for k = 0 blir


1 1 1
C0 =  r s t 
r 2 s2 t2
og en utregning gir at det(C0 ) = (r − s) (s − t) (t − r ) 6= 0.
Så C0 er invertibel.
Dermed kan vi konkludere at signalene {r k }, {s k }, {t k } er lineært
uavhengige i S.
Merk: Man kan gå frem på tilsvarende måte for å undersøke lineær
uavhengighet av et endelig antall gitte signaler i S.
9 / 14
Lineære differenslikninger
En lineær differenslikning av orden n for en følge {yk } i S er en
likning på formen
a0 yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = zk
(k ∈ Z)
der a0 , a1 , . . . , an ∈ R med a0 6= 0, an 6= 0, og {zk } ∈ S.
Ved å dele på a0 kan vi likegodt anta at a0 = 1 .
Hvis zk = 0 for alle k, kalles likningen for homogen.
Merk: La T : S → S være definert ved
T ({yk }) = yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk .
Da er T lineær og likningen ovenfor kan skrives som
T ({yk }) = {zk }
I signalbehandling kalles T for et linært filter, mens aj -ene kalles
filterkoeffisientene.
10 / 14
Underrommet av S gitt ved H = KerT = { y ∈ S | T (y) = 0 } er
løsningsmengden til den homogene differenslikningen
yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = 0
(k ∈ Z)
H består da av signalene som blir ”filtrert bort” av T .
Teorem 16: Anta at y0 , y1 , . . . , yn−1 er spesifiserte (og husk at vi
antar at an 6= 0). Da har likningen
yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = zk
(k ∈ Z)
nøyaktig en løsning.
Idéen er:
I Bestem yn (ved å sette k = 0 i likningen), deretter yn+1 (ved
å sette k = 1), osv.
I Tilsvarende, bestem yk for k < 0 ved å bruke at
yk =
1
[ zk − (yk+n + a1 yk+n−1 + · · · + an−1 yk+1 )] .
an
11 / 14
Teorem 17: Løsningsmengden H til en n-te ordens homogen likning
yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = 0
(k ∈ Z)
er et n-dimensjonalt underrom av S. [Igjen er an 6= 0 her.]
Merk: Til en en homogen differenslikning som i Teorem 17 kan vi
assosiere en polynomlikning i variabelen t :
t n + a1 t n−1 + · · · + an−1 t + an = 0
(∗)
som ofte kalles den karakteristiske likningen (jf. tidligere emner).
Da gjelder bl.a.:
I
Dersom r er en reell rot i (∗), så er følgen {r k } med i H, dvs
den er en løsning av den homogene likningen.
Reelle røtter som er forskjellige gir lineært uavhengige følger i
H. Fins det f.eks. n forskjellige reelle røtter r1 , . . . , rn for (∗),
så vil derfor {r1k }, {r2k }, . . . , {rnk } være en basis for H.
12 / 14
I
Dersom z = ρe iθ er en kompleks rot i (∗), angitt på polar
form, så er begge følgene
{ρk cos(kθ)} og {ρk sin(kθ)} med i H
(og disse er lineært uavhengige).
I
Dersom en rot har multiplisitet større enn 1 vil den gi opphav
til flere løsninger.
Hvis f.eks. r er en reell ”dobbel” rot i (∗) (m.a.o. r har
multiplisitet 2), så vil også følgen {kr k } være i H.
Vi går ikke nærmere inn på det generelle tilfellet. Når n er lik
2 eller 3 vil løsningene av typen beskrevet ovenfor stort sett
være nok til å kunne angi en basis for H.
13 / 14
Om ikkehomogene lineære differenslikninger
Disse løses ved
I
å finne en spesiell løsning (ved passende kvalifisert gjetting)
I
å finne den generelle løsningen av den tilhørende homogene
likningen.
I
Generell løsning blir da
den spesielle + generell løsning av den homogene likningen.
Dette er helt analogt med situasjonen for lineære likningsystemer.
14 / 14