\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\pv}{\overline} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|}\]

Diagonalisointi

Edellä nähtiin, että kolmiomatriisien ja siten myös lävistäjämatriisien ominaisarvot voidaan lukea suoraan matriisista. Tässä kappaleessa tutustutaan menetelmään, jonka avulla tietynlaiset neliömatriisit saadaan muutettua lävistäjämatriiseksi, joilla on samat ominaisarvot kuin alkuperäisillä matriiseilla. Matriiseja, joilla tämä menetelmä toimii, kutsutaan diagonalisoituviksi.

Määritelmä 6.6.1

Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos on olemassa kääntyvä matriisi \(P\in\R^{n\times n}\) ja lävistäjämatriisi \(D\in\R^{n\times n}\), joille pätee

\[P^{-1}AP=D.\]

Esimerkki 6.6.2

Esimerkin 6.4.4 matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}\]

on diagonalisoituva. Valitsemalla

\[\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\]

ja etsimällä esimerkiksi lauseen 3.6.6 avulla sen käänteismatriisi

\[\begin{split}P^{-1}=\frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\]

saadaan

\[ \begin{align}\begin{aligned}\begin{split}P^{-1}AP = \frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2} \begin{augmatrix}{rr} 4 & 4 \\ 2 & -2 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\\\begin{split}=\frac{1}{2} \begin{augmatrix}{cc} 8 & 0 \\ 0 & 4 \end{augmatrix} =\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\end{aligned}\end{align} \]

Määritelmässä 6.6.1 vaadittu lävistäjämatriisi on siis

\[\begin{split}D=\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\]

Esimerkissä 6.6.2 matriisi \(P\) vain tupsahti jostakin. Vertaamalla esimerkkiin 6.4.4 huomataan kuitenkin, että matriisin \(D\) lävistäjäalkiot ovat matriisin \(A\) ominaisarvot, ja matriisin \(P\) sarakkeet ovat jotkin niitä vastaavat ominaisvektorit. Seuraava lause osoittaa, että näin on aina, jos matriisi on diagonalisoituva.

Lause 6.6.3

Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos ja vain jos sillä on \(n\) lineaarisesti riippumatonta ominaisvektoria. Tällöin

\[\begin{split}P^{-1}AP= \begin{augmatrix}{cccc} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & & 0 \\ \vdots & & \ddots & \vdots \\ 0 & \cdots & 0 & \lambda_n \end{augmatrix},\end{split}\]

missä matriisin \(P\in\R^{n\times n}\) sarakkeet ovat matriisin \(A\) lineaarisesti riippumattomia ominaisvektoreita ja \(\lambda_1,\dots\lambda_n\) ovat niitä vastaavat ominaisarvot samassa järjestyksessä.

Todistus

\(\Rightarrow\)”: Oletetaan, että \(P^{-1}AP=D\), missä \(P \in \R^{n\times n}\) on jokin kääntyvä matriisi ja \(D \in \R^{n\times n}\) lävistäjämatriisi. Nyt \(AP=PD\). Olkoot matriisin \(P\) sarakkeet \(\bp_1, \dots, \bp_n\) ja matriisin \(D\) lävistäjäalkiot \(\lambda_1, \dots, \lambda_n\). Nyt siis

\[\begin{split}P = \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} \qquad \text{ja} \qquad D = \begin{augmatrix}{ccccc} \lambda_{1}&0&\cdots&0&0 \\ 0&\lambda_{2}&\cdots&0&0 \\ \vdots&\vdots&\ddots&\vdots&\vdots \\ 0&0&\cdots&\lambda_{n-1}&0 \\ 0&0&\cdots&0&\lambda_n \end{augmatrix}.\end{split}\]

Matriisituloa laskettaessa tulon \(AP\) jokainen sarake saadaan kertomalla matriisilla \(A\) vastaava sarake matriisista \(P\):

\[AP=A \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} = \begin{augmatrix}{ccc} A\bp_1 & \cdots & A\bp_n \end{augmatrix}.\]

Toisaalta lävistäjämatriisia \(D\) kerrottaessa tullaan kertoneeksi matriisin \(P\) jokainen sarake vastaavalla lävistäjäalkiolla:

\[PD=\begin{augmatrix}{ccc} \lambda_1\bp_1 & \cdots & \lambda_n\bp_n \end{augmatrix}.\]

Koska \(AP=PD\), nähdään nyt, että \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Siis jokainen \(\lambda_i\) on ominaisarvo ja \(\bp_i\) sitä vastaava ominaisvektori.

On vielä osoitettava, että ominaisvektorit \(\bp_1, \ldots, \bp_n\) ovat lineaarisesti riippumattomia. Koska \(P\) on kääntyvä, yhtälöllä \(P\bx=\nv\) on lauseen 4.5.1 mukaan täsmälleen yksi ratkaisu \(\bx=\nv\). Yhtälö \(P\bx=\nv\) voidaan kirjoittaa myös muotoon

\[x_1\bp_1 + x_2\bp_2 +\dots + x_n\bp_n = \nv.\]

Tämän yhtälön ainoa ratkaisu on siis \(x_1 = 0, \dots, x_n = 0\). Näin ollen matriisin \(A\) ominaisvektoreiden jono \((\bp_1, \dots, \bp_n)\) on lineaarisesti riippumaton.

\(\Leftarrow\)”: Oletetaan, että \(\bp_1, \dots, \bp_n\) ovat jotkin matriisin \(A\) lineaarisesti riippumattomat ominaisvektorit. Olkoot niitä vastaavat ominaisarvot \(\lambda_1, \dots, \lambda_n\). Nyt \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Olkoon \(P\) matriisi, jonka sarakkeet ovat ominaisvektorit: \(P=[\bp_1 \cdots \bp_n]\). Olkoon \(D\) puolestaan lävistäjämatriisi, jonka lävistäjäalkiot ovat \(\lambda_1, \dots, \lambda_n\). Tällöin nähdään samaan tapaan kuin edellä, että \(AP=PD\).

Koska matriisin \(P\) sarakkeet ovat lineaarisesti riippumattomat, on yhtälöllä \(P\bx=\nv\) täsmälleen yksi ratkaisu \(\bx=\nv\). (Tämä nähdään samalla tavalla kuin todistuksen ensimmäisessä osassa.) Lauseen 4.6.6 nojalla matriisi \(P\) on nyt kääntyvä. Yhtälö \(AP = PD\) saadaan siis muotoon

\[P^{-1}AP = D.\qedhere\]

Esimerkki 6.6.4

Tutkitaan, onko esimerkin 6.5.2 matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 1 & 2 \\ 3 & 2 \end{augmatrix}\end{split}\]

diagonalisoituva. Esimerkissä 6.5.2 todettiin, että matriisin ominaisarvot ovat \(4\) ja \(-1\). Eräät näitä ominaisarvoja vastaavat ominaisvektorit ovat \((2,3)\) ja \((-1,1)\). Nämä ominaisvektorit ovat lineaarisesti riippumattomatm joten lauseen 6.6.3 perusteella \(A\) on diagonalisoituva. Muodostetaan ominaisvektoreista matriisi

\[\begin{split}P=\begin{augmatrix}{rr} 2 & -1 \\ 3 & 1 \end{augmatrix}\end{split}\]

ja ominaisarvoista matriisi

\[\begin{split}D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & -1 \end{augmatrix}\end{split}\]

Nyt lauseen 6.6.3 nojalla pätee \(P^{-1}AP=D\). Tämän voi vielä tarkistaa laskemalla.

Esimerkki 6.6.5

Diagonalisoidaan matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 2&1\\ 0&2 \end{augmatrix},\end{split}\]

jos mahdollista. Selvitetään aluksi matriisin ominaisarvot. Koska matriisi \(A\) on kolmiomatriisi, sen ominaisarvot ovat sen lävistäjän alkiot. Näin matriisin \(A\) ainoa ominaisarvo on \(2\). Ominaisarvoa vastaavat ominaisvektorit saadaan yhtälöstä \(A\bx=2\bx\). Kun yhtälö ratkaistaan, nähdään sen ratkaisujen olevan muotoa \(\bx=(t,0)\), missä \(t \in \R \setminus \{0\}\). Matriisilla \(A\) ei siis ole kahta lineaarisesti riippumatonta ominaisvektoria, joten \(A\) ei ole diagonalisoituva.

Esimerkki 6.6.6 (Diagonalisoituvan matriisin potenssit)

Lasketaan esimerkissä 6.6.2 esiintyneen matriisin

\[\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}\]

seitsemäs potenssi. Suora matriisikertolasku olisi työläs suorittaa, mutta koska matriisi \(A\) on diagonalisoituva, voidaan käyttää hyväksi sen ominaisarvoja.

Esimerkissä 6.6.2 todettiin, että \(P^{-1}AP = D\), missä

\[\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \quad \text{ja} \quad D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\]

Jos kerrotaan yhtälöä \(P^{-1}AP = D\) vasemmalta matriisilla \(P\) ja oikealta matriisilla \(P^{-1}\), saadaan \(A = PDP^{-1}\). Nyt voidaan laskea

\[\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7 \\[2mm] &= \underbrace{(PDP^{-1})(PDP^{-1})\dots (PDP^{-1})(PDP^{-1})}_{7 \text{ kpl}} \\ &= PD(P^{-1}P)D\dots (P^{-1}P)DP^{-1} \\ &= P\underbrace{D\dots D}_{7 \text{ kpl}}P^{-1} \\ &= PD^7P^{-1}. \end{aligned}\end{split}\]

Matriisin \(A\) potenssin määritäminen on siis muuttunut matriisin \(D\) potenssin määrittämiseksi. Se osoittautuu helposksi. Huomataan nimittäin, että

\[\begin{split}D^7= \begin{augmatrix}{cc} 4^7 & 0 \\ 0 & 2^7 \end{augmatrix} = \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix}.\end{split}\]

Lävistäjämatriisin potenssi saadaan itse asiassa aina selville laskemalla pelkät lävistäjäalkioiden potenssit.

Nyt

\[\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7=PD^7 P^{-1} =\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix} \left(\frac{1}{2}\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\right) \\[1mm] & =\frac{1}{2}\begin{augmatrix}{rr} 16384 & 128 \\ 16384 & -128 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2}\begin{augmatrix}{cc} 16512 & 16256 \\ 16256 & 16512 \end{augmatrix} =\begin{augmatrix}{cc} 8256 & 8128 \\ 8128 & 8256 \end{augmatrix}. \end{aligned}\end{split}\]

Matriisipotenssin laskeminen saatiin siis muutettua pariksi matriisikertolaskuksi sekä tavallisten kokonaislukujen potenssiksi. Samalla vaivalla voitaisiin laskea paljon suurempiakin potensseja. Tämä temppu onnistuu kuitenkin vain, jos alkuperäinen matriisi on diagonalisoituva.

Palataan vielä tutkimaan matriisin ominaisvektoreita. Seuraava lause osoittaa, että eri ominaisarvoja vastaavat ominaisvektorit ovat lineaarisesti riippumattomia. Tästä tuloksesta on toisinaan hyötyä, kun tutkitaan, onko matriisi diagonalisoituva.

Lause 6.6.7

Oletetaan, että \(A\) on \(n \times n\)-matriisi. Oletetaan, että \(\lambda_1, \dots, \lambda_m\) ovat matriisin \(A\) eri ominaisarvoja ja \(\bv_1, \dots, \bv_m \in \R^n\) jotkin niitä vastaavat ominaisvektorit. Tällöin vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.

Todistus

Oletetaan vastoin väitettä, että vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippuvia. Nyt lauseen 5.4.9 nojalla jokin jonon vektoreista on muiden lineaarikombinaatio. Tästä seuraa, että jokin jonon vektoreista on sitä edeltävien jonon vektoreiden lineaarikombinaatio. Olkoon \(\bv_{k+1}\) jonon ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio. Tällöin on olemassa reaaliluvut \(c_1, \dots, c_k\), joille pätee

(1)\[c_1\bv_1 + \dots + c_k\bv_k = \bv_{k+1}.\]

Lisäksi vektorit \(\bv_1, \dots, \bv_k\) ovat lineaarisesti riippumatttomia. Jos ne nimittäin olisivat lineaarisesti riippuvia, \(\bv_{k + 1}\) ei olisikaan ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio.

Kertomalla yhtälön (1) molemmat puolet vasemmalta matriisilla \(A\) saadaan yhtälö

\[A(c_1\bv_1 + \dots + c_k\bv_k) = A\bv_{k+1}.\]

Matriisien laskusääntöjen avulla yhtälö saa muodon \(c_1A\bv_1 + \dots + c_kA\bv_k = A\bv_{k+1}\). Kun vielä muistetaan, että vektorit \(\bv_1, \dots, \bv_k\) ovat matriisin \(A\) ominaisvektoreita, saadaan lopulta yhtälö

(2)\[c_1\lambda_1\bv_1 + \dots + c_k\lambda_k\bv_k = \lambda_{k+1}\bv_{k+1}.\]

Toisaalta voidaan kertoa yhtälön (1) molemmat puolet luvulla \(\lambda_{k+1}\) päätyen yhtälöön

(3)\[c_1\lambda_{k+1}\bv_1 + \dots + c_k\lambda_{k+1}\bv_k = \lambda_{k+1}\bv_{k+1}.\]

Vähennetään yhtälöstä (2) puolittain yhtälö (3), jolloin saadaan

\[c_1(\lambda_1-\lambda_{k+1})\bv_1 + \dots + c_k(\lambda_k-\lambda_{k+1})\bv_k =\nv.\]

Jono \((\bv_1, \dots, \bv_k)\) on lineaarisesti riippumaton, joten kaikkien yhtälössä olevien kertoimien on oltava nollia:

\[c_1(\lambda_1-\lambda_{k+1}) = 0, \ c_2(\lambda_2-\lambda_{k+1}) = 0, \ldots, \ c_k(\lambda_k-\lambda_{k+1}) = 0.\]

Koska \(\lambda_1, \dots, \lambda_m\) ovat kaikki eri ominaisarvoja, niin tiedetään, että \((\lambda_i - \lambda_{k+1}) \neq 0\) kaikilla \(i \in \{1, \dots, k\}\). Tulon nollasäännön nojalla

\[c_1 = 0, \ c_2 = 0, \ \ldots, \ c_k = 0.\]

Näin ollen

\[\bv_{k+1}= c_1\bv_1 + \dots + c_k\bv_k= 0\bv_1 + \dots + 0\bv_k = \nv.\]

Toisaalta oletuksen mukaan \(\bv_{k+1}\) on matriisin \(A\) ominaisvektori, joten \(\bv_{k+1} \neq \nv\). Koska päädyttiin ristiriitaan, vastaoletus ei voi olla tosi. Siis alkuperäinen väite pätee, eli vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.

Edellisestä lauseesta seuraa, että toisinaan matriisin diagonalisoituvuus on helppo todeta.

Seuraus 6.6.8

Oletetaan, että \(n \times n\)-matriisilla on \(n\) eri ominaisarvoa. Tällöin \(A\) on diagonalisoituva.

Todistus
Olkoot \(\bv_1, \dots, \bv_n\) jotkin eri ominaisarvoihin liittyvät ominaisvektorit. Ne ovat lineaarisesti riippumattomia lauseen 6.6.7 nojalla. Koska matriisilla \(A\) on \(n\) lineaarisesti riippumatonta ominaisvektoria, on \(A\) diagonalisoituva lauseen 6.6.3 nojalla.

Huomaa, että diagonalisoituvan \(n \times n\)-matriisin ominaisarvojen lukumäärän ei tarvitse olla \(n\). Esimerkiksi lävistäjämatriisi

\[\begin{split}A = \begin{augmatrix}{rr} -3 & 0 \\ 0 & -3 \end{augmatrix}\end{split}\]

on diagonalisoituva, sillä \(I^{-1}AI=A\). Lävistäjämatriisi on kolmiomatriisi, joten sen ominaisarvot voidaan lukea suoraan lävistäjältä. Havaitaan, että matriisilla \(A\) on vain yksi ominaisarvo, \(-3\).

Oletetaan, että \(A \in \R^{n \times n}\) on diagonalisoituva, sekä että \(P \in \R^{n \times n}\) on kääntyvä matriisi ja \(D \in \R^{n \times n}\) lävistäjämatriisi, jotka toteuttavat ehdon \(P^{-1}AP=D\). Valitse väite, joka ei pidä paikkaansa.
Palautusta lähetetään...

Palautus on vastaanotettu.