4.6 Rang
Transcription
4.6 Rang
4.6 Rang I Til enhver m × n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon. Definisjon: Rangen til en m × n matrise A betegnes med rank A og er definert som dimensjonen til kolonnerommet til A. Altså: rank A = dim(Col A) = antall pivoter i rref(A) Så rank A ≤ minimum(m, n) og I rank A er det største antall lineært uavhengige kolonner i matrisen A. I rank A er det minste antall kolonner i A som er nødvendig for å utspenne Col A. 1 / 14 Hvis vi lar r1 , . . . , rm betegne radvektorene til A og betrakter disse som vektorer i Rn , er radrommet til A definert som underrommet av Rn gitt ved Row A = Span{r1 , . . . , rm } . Derfor er Row A = Col AT . Så en basis for Col AT gir en basis for Row A. Alternativt kan vi observere at: I Radrommet til en matrise forandrer seg ikke under radoperasjoner. I Dermed er Row A = Row R der R = rref(A). I En basis for Row R, og dermed for Row A, består av alle radvektorene i R som inneholder en pivot. Dette gir (jf. Teorem 14): dim(Row A) = antall pivoter i R = dim(Col A) = rank A Videre gjelder dimensjonsformelen rank A + dim(Nul A) = n (= antall kolonner i A) 2 / 14 Teorem (Tillegg til IMT): La A være en n × n matrise. Da er følgende utsagn ekvivalente: a A er invertibel. m Kolonnene i A er en basis for Rn . n Col A = Rn . o dim(Col A) = n. p rank A = n (Vi sier da at A har full rang). q Nul A = {0}. r dim(Nul A) = 0. Merk: I m kan vi bytte kolonnene med radene, og i n og o kan vi bytte Col A med Row A. 3 / 14 Hvordan kan vi beregne rangen til en matrise A? I Vi kan bruke Gauss eliminasjon og beregne rref(A) ... ... men dette vil kunne gi feil p.g.a. avrunding underveis. I I stedet beregnes gjerne rangen til A ut fra den såkalte singulær verdi dekomposisjonen til A (SVD’en til A). Skal gå nærmere inn på dette helt på slutten av kurset (i avsnitt 7.4). I I Matlab finnes en (nokså komplisert) algoritme som beregner SVD’en til A, og rank A fastsettes på grunnlag av denne. 4 / 14 4.7 Bytte av basis I noen situasjoner vil et problem bli forenklet hvis vi går over til en annen basis. Følgende teorem sier hvordan koordinatene til en vektor endrer seg når vi bytter basis: Teorem 15: Anta at B = {b1 , b2 , . . . , bn } og C = {c1 , c2 , . . . , cn } er (ordnede) basiser for et vektorrom V . Da finnes en unik n × n matrise PC←B som er slik at [x]C = PC←B [x]B for alle x ∈ V . Kolonnene i PC←B er C-koordinatvektorene til vektorene i B: h i PC←B = [b1 ]C [b2 ]C · · · [bn ]C Matrisen PC←B kalles basisskiftematrisen (eller koordinatskiftematrisen) fra B til C. 5 / 14 Merk: Basisskiftematriser er alltid invertible: dette følger av korollaret til Teorem 8 i Notat 1, og vi har at −1 = PB←C PC←B Merk: Hvis B = {b1 , · · · , bn } er en basis for Rn og E er standardbasisen for Rn , så er PE←B = b1 · · · bn = PB Merk: En oppskrift for å beregne basisskiftematrisen PC←B mellom to basiser B = {b1 , · · · , bn } og C = {c1 , · · · , cn } for Rn er å sette opp matrisen c1 · · · cn | b1 · · · bn og radredusere denne til redusert trappeform. På venstre siden vil man da komme frem til In , mens PC←B vil stå på høyre siden: c1 · · · cn | b1 · · · bn ∼ · · · ∼ In | PC←B 6 / 14 4.8 Anvendelse på differenslikninger Vi minner om at signalrommet S består av alle reelle følger av typen y = {yk }∞ k=−∞ = (. . . , y−2 , y−1 , y0 , y1 , y2 , . . .) Vi vil som regel skrive y = {yk } for vektorer i S. Vektorromsoperasjonene i S er gitt ved x + y = {xk + yk }, cy = {c yk } Hva med lineær uavhengighet i S? Betrakt f.eks. tre signaler u = {uk }, v = {vk } og w = {wk } i S. Anta at c1 u + c2 v + c3 w = 0, der c1 , c2 , c3 ∈ R. Dette betyr at {c1 uk + c2 vk + c3 wk } = 0, dvs at c1 uk + c2 vk + c3 wk = 0 for alle k ∈ Z 7 / 14 For en gitt k ∈ Z kan vi bruke dette for likningssystemet uk vk wk uk+1 vk+1 wk+1 uk+2 vk+2 wk+2 k, k + 1 og k + 2 og får da c1 0 c2 = 0 c3 0 Koeffisientmatrisen uk vk wk Ck = uk+1 vk+1 wk+1 uk+2 vk+2 wk+2 til systemet ovenfor kalles Casorati matrisen nr. k til signalene u, v og w. Hvis det fins en k ∈ Z slik at Ck er invertibel, vil systemet ovenfor bare ha den trivielle løsningen c1 = c2 = c3 = 0 , og vi kan da konkludere med at u, v og w er lineært uavhengige. 8 / 14 Eksempel. La r , s, t være tre forskjellige reelle tall. Betrakt signalene u = {r k }, v = {s k } og w = {t k }. Casorati-matrisen for k = 0 blir 1 1 1 C0 = r s t r 2 s2 t2 og en utregning gir at det(C0 ) = (r − s) (s − t) (t − r ) 6= 0. Så C0 er invertibel. Dermed kan vi konkludere at signalene {r k }, {s k }, {t k } er lineært uavhengige i S. Merk: Man kan gå frem på tilsvarende måte for å undersøke lineær uavhengighet av et endelig antall gitte signaler i S. 9 / 14 Lineære differenslikninger En lineær differenslikning av orden n for en følge {yk } i S er en likning på formen a0 yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = zk (k ∈ Z) der a0 , a1 , . . . , an ∈ R med a0 6= 0, an 6= 0, og {zk } ∈ S. Ved å dele på a0 kan vi likegodt anta at a0 = 1 . Hvis zk = 0 for alle k, kalles likningen for homogen. Merk: La T : S → S være definert ved T ({yk }) = yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk . Da er T lineær og likningen ovenfor kan skrives som T ({yk }) = {zk } I signalbehandling kalles T for et linært filter, mens aj -ene kalles filterkoeffisientene. 10 / 14 Underrommet av S gitt ved H = KerT = { y ∈ S | T (y) = 0 } er løsningsmengden til den homogene differenslikningen yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = 0 (k ∈ Z) H består da av signalene som blir ”filtrert bort” av T . Teorem 16: Anta at y0 , y1 , . . . , yn−1 er spesifiserte (og husk at vi antar at an 6= 0). Da har likningen yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = zk (k ∈ Z) nøyaktig en løsning. Idéen er: I Bestem yn (ved å sette k = 0 i likningen), deretter yn+1 (ved å sette k = 1), osv. I Tilsvarende, bestem yk for k < 0 ved å bruke at yk = 1 [ zk − (yk+n + a1 yk+n−1 + · · · + an−1 yk+1 )] . an 11 / 14 Teorem 17: Løsningsmengden H til en n-te ordens homogen likning yk+n + a1 yk+n−1 + · · · + an−1 yk+1 + an yk = 0 (k ∈ Z) er et n-dimensjonalt underrom av S. [Igjen er an 6= 0 her.] Merk: Til en en homogen differenslikning som i Teorem 17 kan vi assosiere en polynomlikning i variabelen t : t n + a1 t n−1 + · · · + an−1 t + an = 0 (∗) som ofte kalles den karakteristiske likningen (jf. tidligere emner). Da gjelder bl.a.: I Dersom r er en reell rot i (∗), så er følgen {r k } med i H, dvs den er en løsning av den homogene likningen. Reelle røtter som er forskjellige gir lineært uavhengige følger i H. Fins det f.eks. n forskjellige reelle røtter r1 , . . . , rn for (∗), så vil derfor {r1k }, {r2k }, . . . , {rnk } være en basis for H. 12 / 14 I Dersom z = ρe iθ er en kompleks rot i (∗), angitt på polar form, så er begge følgene {ρk cos(kθ)} og {ρk sin(kθ)} med i H (og disse er lineært uavhengige). I Dersom en rot har multiplisitet større enn 1 vil den gi opphav til flere løsninger. Hvis f.eks. r er en reell ”dobbel” rot i (∗) (m.a.o. r har multiplisitet 2), så vil også følgen {kr k } være i H. Vi går ikke nærmere inn på det generelle tilfellet. Når n er lik 2 eller 3 vil løsningene av typen beskrevet ovenfor stort sett være nok til å kunne angi en basis for H. 13 / 14 Om ikkehomogene lineære differenslikninger Disse løses ved I å finne en spesiell løsning (ved passende kvalifisert gjetting) I å finne den generelle løsningen av den tilhørende homogene likningen. I Generell løsning blir da den spesielle + generell løsning av den homogene likningen. Dette er helt analogt med situasjonen for lineære likningsystemer. 14 / 14