- MATH.MA.140
- 6. Determinantti ja ominaisarvot
- 6.6 Diagonalisointi
Diagonalisointi¶
Lävistäjämatriisit eli diagonaalimatriisit ovat hyvin yksinkertaisia matriiseja. Niitä on helppo kertoa keskenään, niiden determinantti on lävistäjäalkioiden tulo ja niiden ominaisarvot näkyvät suoraan matriisissa. Tässä osiossa tutustutaan menetelmään, jonka avulla tietynlaiset neliömatriisit saadaan muutettua lävistäjämatriiseksi. Näin saadulla lävistäjämatriisilla on samat ominaisarvot kuin alkuperäisillä matriiseilla ja paljon muitakin yhteisiä ominaisuuksia aluperäisen matriisin kanssa. Matriiseja, joilla tämä menetelmä toimii, kutsutaan diagonalisoituviksi ja menetelmää diagonalisoinniksi. Diagonalisoinnin avulla saadaan siis muutettua matriisi yksinkertaisempaan ja helpommin käsiteltävään muotoon.
Määritelmä 6.6.1
Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos on olemassa kääntyvä matriisi \(P\in\R^{n\times n}\) ja lävistäjämatriisi \(D\in\R^{n\times n}\), joille pätee
Esimerkki 6.6.2
Esimerkin 6.4.4 matriisi
on diagonalisoituva. Valitsemalla
ja etsimällä esimerkiksi lauseen 4.6.6 avulla sen käänteismatriisi
saadaan
Näin siis matriisi
diagonalisoitiin lävistäjämatriisiksi
Esimerkissä 6.6.2 matriisi \(P\) vain tupsahti jostakin. Vertaamalla esimerkkiin 6.4.4 huomataan kuitenkin, että matriisin \(D\) lävistäjäalkiot ovat matriisin \(A\) ominaisarvot, ja matriisin \(P\) sarakkeet ovat jotkin niitä vastaavat ominaisvektorit. Seuraava lause osoittaa, että näin on aina, jos matriisi on diagonalisoituva.
Lause 6.6.3
Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos ja vain jos sillä on \(n\) lineaarisesti riippumatonta ominaisvektoria. Tällöin
missä matriisin \(P\in\R^{n\times n}\) sarakkeet ovat matriisin \(A\) lineaarisesti riippumattomia ominaisvektoreita ja \(\lambda_1,\dots\lambda_n\) ovat niitä vastaavat ominaisarvot samassa järjestyksessä.
”\(\Rightarrow\)”: Oletetaan, että \(P^{-1}AP=D\), missä \(P \in \R^{n\times n}\) on jokin kääntyvä matriisi ja \(D \in \R^{n\times n}\) lävistäjämatriisi. Nyt \(AP=PD\). Olkoot matriisin \(P\) sarakkeet \(\bp_1, \dots, \bp_n\) ja matriisin \(D\) lävistäjäalkiot \(\lambda_1, \dots, \lambda_n\). Nyt siis
Matriisituloa laskettaessa tulon \(AP\) jokainen sarake saadaan kertomalla matriisilla \(A\) vastaava sarake matriisista \(P\):
Toisaalta lävistäjämatriisia \(D\) kerrottaessa tullaan kertoneeksi matriisin \(P\) jokainen sarake vastaavalla lävistäjäalkiolla:
Koska \(AP=PD\), nähdään nyt, että \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Siis jokainen \(\lambda_i\) on ominaisarvo ja \(\bp_i\) sitä vastaava ominaisvektori.
On vielä osoitettava, että ominaisvektorit \(\bp_1, \ldots, \bp_n\) ovat lineaarisesti riippumattomia. Koska \(P\) on kääntyvä, yhtälöllä \(P\bx=\nv\) on lauseen 4.7.1 mukaan täsmälleen yksi ratkaisu \(\bx=\nv\). Yhtälö \(P\bx=\nv\) voidaan kirjoittaa myös muotoon
Tämän yhtälön ainoa ratkaisu on siis \(x_1 = 0, \dots, x_n = 0\). Näin ollen matriisin \(A\) ominaisvektorit \(\bp_1, \dots, \bp_n\) ovat lineaarisesti riippumattomia.
”\(\Leftarrow\)”: Oletetaan, että \(\bp_1, \dots, \bp_n\) ovat jotkin matriisin \(A\) lineaarisesti riippumattomat ominaisvektorit. Olkoot niitä vastaavat ominaisarvot \(\lambda_1, \dots, \lambda_n\). Nyt \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Olkoon \(P\) matriisi, jonka sarakkeet ovat ominaisvektorit: \(P=[\bp_1 \cdots \bp_n]\). Olkoon \(D\) puolestaan lävistäjämatriisi, jonka lävistäjäalkiot ovat \(\lambda_1, \dots, \lambda_n\). Tällöin nähdään samaan tapaan kuin edellä, että \(AP=PD\).
Koska matriisin \(P\) sarakkeet ovat lineaarisesti riippumattomat, on yhtälöllä \(P\bx=\nv\) täsmälleen yksi ratkaisu \(\bx=\nv\). (Tämä nähdään samalla tavalla kuin todistuksen ensimmäisessä osassa.) Lauseen 4.8.6 nojalla matriisi \(P\) on nyt kääntyvä. Yhtälö \(AP = PD\) saadaan siis muotoon
Olkoon \(\lambda\) matriisin \(A\) ominaisarvo. Ominaisarvon \(\lambda\) algebralliseksi kertaluvuksi \(\alg(\lambda)\) kutsutaan sen kertalukua karakteristisen polynomin juurena. Ominaisarvon \(\lambda\) geometriseksi kertaluvuksi \(\geom(\lambda)\) kutsutaan sitä vastaavan ominaisavaruuden \(E_{\lambda}\) dimensiota. Toisin sanoen \(\geom(\lambda) = \dim(E_{\lambda})\). Nyt edellinen lause voidaan esittää kertalukujen avulla: matriisi on diagonalisoituva, jos sen jokaisen ominaisarvon algebrallinen ja geometrinen kertaluku ovat samat.
Esimerkki 6.6.4
Tutkitaan, onko esimerkin 6.5.2 matriisi
diagonalisoituva. Esimerkissä 6.5.2 todettiin, että matriisin ominaisarvot ovat \(4\) ja \(-1\). Eräät näitä ominaisarvoja vastaavat ominaisvektorit ovat \((2,3)\) ja \((-1,1)\). Nämä ominaisvektorit ovat lineaarisesti riippumattomat, joten lauseen 6.6.3 perusteella \(A\) on diagonalisoituva. Muodostetaan ominaisvektoreista matriisi
ja ominaisarvoista matriisi
Nyt lauseen 6.6.3 nojalla pätee \(P^{-1}AP=D\). Tämän voi vielä tarkistaa laskemalla.
Tutkitaan vielä toisellakin tavalla, onko matriisi \(A\) diagonalisoituva. Esimerkin 6.5.2 perusteella matriisin \(A\) ominaisarvot ovat \(4\) ja \(-1\). Ominaisarvo \(4\) on karakteristisen polynomin yksinkertainen juuri, joten sen algebrallinen kertaluku on yksi. Toisaalta ominaisarvoa \(4\) vastaa yksiulotteinen ominaisavaruus, joten sen geometrinen kertaluku on yksi. Siten ominaisarvon \(4\) algebralliset ja geometriset kertaluvut ovat samat. Samalla tavalla voidaan perustella, että ominaisarvon \(-1\) algebralliset ja geometriset kertaluvut ovat molemmat yksi. Siten ominaisarvon \(-1\) algebrallinen ja geometrinen kertaluku on sama. Koska jokaisella ominaisarvolla geometrinen ja algebrallinen kertaluku on sama, on matriisi \(A\) diagonalisoituva.
Esimerkki 6.6.5
Diagonalisoidaan matriisi
jos mahdollista. Selvitetään aluksi matriisin ominaisarvot. Koska matriisi \(A\) on kolmiomatriisi, sen ominaisarvot ovat sen lävistäjän alkiot. Näin matriisin \(A\) ainoa ominaisarvo on \(2\). Ominaisarvoa vastaavat ominaisvektorit saadaan yhtälöstä \(B\bx=2\bx\). Kun yhtälö ratkaistaan, nähdään sen ratkaisujen olevan muotoa \(\bx=(t,0)\), missä \(t \in \R \setminus \{0\}\). Matriisilla \(B\) ei siis ole kahta lineaarisesti riippumatonta ominaisvektoria, joten \(B\) ei ole diagonalisoituva.
Tutkitaan vielä toisellakin tavalla, onko matriisi \(B\) diagonalisoituva. Voidaan laskea, että matriisin \(B\) karakteristinen polynomi on \((\lambda-2)^2\). Tämän polynomin ainoa juuri on \(\lambda=2\) ja se on kaksinkertainen juuri. Siten ainoa ominaisarvo on \(2\) ja sen algebrallinen kertaluku on kaksi. Ominaisarvoa 2 vastaava ominaisavaruus on
Tämän avaruuden dimensio on yksi, joten ominaisarvon 2 geometrinen kertaluku on yksi. Koska algebrallinen ja geometrinen kertaluku eivät ole samat, ei matriisi ole diagonalisoituva.
Oletetaan, että \(A \in \R^{n \times n}\) ja \(B \in \R^{n \times n}\). Jos löytyy kääntyvä matriisi \(P\), jolle pätee \(P^{-1}AP=B\), sanotaan, että \(A\) ja \(B\) ovat similaarisia. Diagonalisoituva matriisi \(A\) on siis similaarinen diagonaalimatriisin \(D\) kanssa. Similaarisilla matriiseilla on paljon yhteisiä omainaisuuksia. Voidaan osoittaa, että niillä on esimerkiksi samat ominaisarvot, sama determinantti ja sama aste.
Diagonalisoituva matriisi voidaan hajottaa tuloksi matriiseista, jotka koostuvat ominaisvektoreista ja ominaisarvoista. Jos nimittäin diagonalisoituvalle matriisille \(A\) pätee \(P^{-1}AP = D\), voidaan yhtälöä kertoa vasemmalta matriisilla \(P\) ja oikealta matriisilla \(P^{-1}\). Näin saadaan \(A = PDP^{-1}\). Tuloa kutsutaan matriisin \(A\) ominaisarvohajotelmaksi. Ominaisarvohajotelmaa hyödynnetään seuraavassa esimerkissä, jossa esitellään eräs diagonalisoinnin sovellus.
Esimerkki 6.6.6 (Diagonalisoituvan matriisin potenssit)
Lasketaan esimerkissä 6.6.2 esiintyneen matriisin
seitsemäs potenssi. Suora matriisikertolasku olisi työläs suorittaa, mutta koska matriisi \(A\) on diagonalisoituva, voidaan käyttää hyväksi sen ominaisarvoja. Tällöin laskut ovat helpompia.
Esimerkissä 6.6.2 todettiin, että \(P^{-1}AP = D\), missä
Jos kerrotaan yhtälöä \(P^{-1}AP = D\) vasemmalta matriisilla \(P\) ja oikealta matriisilla \(P^{-1}\), saadaan \(A = PDP^{-1}\). Nyt voidaan laskea
Matriisin \(A\) potenssin määritäminen on siis muuttunut matriisin \(D\) potenssin määrittämiseksi. Se osoittautuu helposksi. Huomataan nimittäin, että
Lävistäjämatriisin potenssi saadaan itse asiassa aina selville laskemalla pelkät lävistäjäalkioiden potenssit.
Nyt
Matriisipotenssin laskeminen saatiin siis muutettua pariksi matriisikertolaskuksi sekä tavallisten kokonaislukujen potenssiksi. Samalla vaivalla voitaisiin laskea paljon suurempiakin potensseja. Tämä temppu onnistuu kuitenkin vain, jos alkuperäinen matriisi on diagonalisoituva.
Palataan vielä tutkimaan matriisin ominaisvektoreita. Seuraava lause osoittaa, että eri ominaisarvoja vastaavat ominaisvektorit ovat lineaarisesti riippumattomia. Tästä tuloksesta on toisinaan hyötyä, kun tutkitaan, onko matriisi diagonalisoituva.
Lause 6.6.7
Oletetaan, että \(A\) on \(n \times n\)-matriisi. Oletetaan, että \(\lambda_1, \dots, \lambda_m\) ovat matriisin \(A\) eri ominaisarvoja ja \(\bv_1, \dots, \bv_m \in \R^n\) jotkin niitä vastaavat ominaisvektorit. Tällöin vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.
Oletetaan vastoin väitettä, että vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippuvia. Nyt lauseen 5.4.9 nojalla jokin vektoreista on muiden lineaarikombinaatio. Tästä seuraa, että jokin vektoreista on sitä edeltävien vektoreiden lineaarikombinaatio. Olkoon \(\bv_{k+1}\) ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio. Tällöin on olemassa reaaliluvut \(c_1, \dots, c_k\), joille pätee
Lisäksi vektorit \(\bv_1, \dots, \bv_k\) ovat lineaarisesti riippumattomia. Jos ne nimittäin olisivat lineaarisesti riippuvia, \(\bv_{k + 1}\) ei olisikaan ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio.
Kertomalla yhtälön (1) molemmat puolet vasemmalta matriisilla \(A\) saadaan yhtälö
Matriisien laskusääntöjen avulla yhtälö saa muodon \(c_1A\bv_1 + \dots + c_kA\bv_k = A\bv_{k+1}\). Kun vielä muistetaan, että vektorit \(\bv_1, \dots, \bv_k\) ovat matriisin \(A\) ominaisvektoreita, saadaan lopulta yhtälö
Toisaalta voidaan kertoa yhtälön (1) molemmat puolet luvulla \(\lambda_{k+1}\) päätyen yhtälöön
Vähennetään yhtälöstä (2) puolittain yhtälö (3), jolloin saadaan
Vektorit \(\bv_1, \dots, \bv_k\) ovat lineaarisesti riippumattomia, joten kaikkien yhtälössä olevien kertoimien on oltava nollia:
Koska \(\lambda_1, \dots, \lambda_m\) ovat kaikki eri ominaisarvoja, niin tiedetään, että \((\lambda_i - \lambda_{k+1}) \neq 0\) kaikilla \(i \in \{1, \dots, k\}\). Tulon nollasäännön nojalla
Näin ollen
Toisaalta oletuksen mukaan \(\bv_{k+1}\) on matriisin \(A\) ominaisvektori, joten \(\bv_{k+1} \neq \nv\). Koska päädyttiin ristiriitaan, vastaoletus ei voi olla tosi. Siis alkuperäinen väite pätee, eli vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.
Edellisestä lauseesta seuraa, että toisinaan matriisin diagonalisoituvuus on helppo todeta.
Seuraus 6.6.8
Oletetaan, että \(n \times n\)-matriisilla on \(n\) eri ominaisarvoa. Tällöin \(A\) on diagonalisoituva.
Huomaa, että diagonalisoituvan \(n \times n\)-matriisin ominaisarvojen lukumäärän ei tarvitse olla \(n\). Esimerkiksi lävistäjämatriisi
on diagonalisoituva, sillä \(I^{-1}AI=A\). Lävistäjämatriisi on kolmiomatriisi, joten sen ominaisarvot voidaan lukea suoraan lävistäjältä. Havaitaan, että matriisilla \(A\) on vain yksi ominaisarvo, \(-3\).
- Jotkin matriisit on mahdollista muuttaa matriisikertolaskun avulla lävistäjä- eli diagonaalimatriiseiksi.
- Tällaisia matriiseja kutsutaan diagonalisoituviksi ja prosessia kutsutaan diagonalisoinniksi.
- Koska lävistäjämatriiseja on helppo käsitellä, voidaan diagonalisoinnin avulla helpottaa laskuja kuten potenssiin korotusta.