Loading [MathJax]/extensions/TeX/boldsymbol.js
\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\pv}{\overline} \newcommand{\iu}{\mathrm{i}} \newcommand{\ju}{\mathrm{j}} \newcommand{\im}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\real}{\operatorname{Re}} \newcommand{\imag}{\operatorname{Im}} \newcommand{\Arg}{\operatorname{Arg}} \newcommand{\Ln}{\operatorname{Ln}} \DeclareMathOperator*{\res}{res} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\abs}[1]{\lvert#1\rvert} \newcommand{\pysty}[1]{\left[\begin{array}{@{}r@{}}#1\end{array}\right]} \newcommand{\piste}{\cdot} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|} \newcommand{\trans}{\mathrm{T}} \newcommand{\EUR}{\text{\unicode{0x20AC}}} \newcommand{\SI}[3][]{#2\,\mathrm{#3}} \newcommand{\si}[2][]{\mathrm{#2}} \newcommand{\num}[2][]{#2} \newcommand{\ang}[2][]{#2^{\circ}} \newcommand{\meter}{m} \newcommand{\metre}{\meter} \newcommand{\kilo}{k} \newcommand{\kilogram}{kg} \newcommand{\gram}{g} \newcommand{\squared}{^2} \newcommand{\cubed}{^3} \newcommand{\minute}{min} \newcommand{\hour}{h} \newcommand{\second}{s} \newcommand{\degreeCelsius}{^{\circ}C} \newcommand{\per}{/} \newcommand{\centi}{c} \newcommand{\milli}{m} \newcommand{\deci}{d} \newcommand{\percent}{\%} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}}

Diagonalisointi

Lävistäjämatriisit eli diagonaalimatriisit ovat hyvin yksinkertaisia matriiseja. Niitä on helppo kertoa keskenään, niiden determinantti on lävistäjäalkioiden tulo ja niiden ominaisarvot näkyvät suoraan matriisissa. Tässä osiossa tutustutaan menetelmään, jonka avulla tietynlaiset neliömatriisit saadaan muutettua lävistäjämatriiseksi. Näin saadulla lävistäjämatriisilla on samat ominaisarvot kuin alkuperäisillä matriiseilla ja paljon muitakin yhteisiä ominaisuuksia aluperäisen matriisin kanssa. Matriiseja, joilla tämä menetelmä toimii, kutsutaan diagonalisoituviksi ja menetelmää diagonalisoinniksi. Diagonalisoinnin avulla saadaan siis muutettua matriisi yksinkertaisempaan ja helpommin käsiteltävään muotoon.

Määritelmä 6.6.1

Neliömatriisi A\in\R^{n\times n} on diagonalisoituva, jos on olemassa kääntyvä matriisi P\in\R^{n\times n} ja lävistäjämatriisi D\in\R^{n\times n}, joille pätee

P^{-1}AP=D.

Esimerkki 6.6.2

Esimerkin 6.4.4 matriisi

\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}

on diagonalisoituva. Valitsemalla

\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}

ja etsimällä esimerkiksi lauseen 4.6.6 avulla sen käänteismatriisi

\begin{split}P^{-1}=\frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}

saadaan

\begin{align}\begin{aligned}\begin{split}P^{-1}AP = \frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2} \begin{augmatrix}{rr} 4 & 4 \\ 2 & -2 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\\\begin{split}=\frac{1}{2} \begin{augmatrix}{cc} 8 & 0 \\ 0 & 4 \end{augmatrix} =\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\end{aligned}\end{align}

Näin siis matriisi

\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}

diagonalisoitiin lävistäjämatriisiksi

\begin{split}D=\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}

Esimerkissä 6.6.2 matriisi P vain tupsahti jostakin. Vertaamalla esimerkkiin 6.4.4 huomataan kuitenkin, että matriisin D lävistäjäalkiot ovat matriisin A ominaisarvot, ja matriisin P sarakkeet ovat jotkin niitä vastaavat ominaisvektorit. Seuraava lause osoittaa, että näin on aina, jos matriisi on diagonalisoituva.

Lause 6.6.3

Neliömatriisi A\in\R^{n\times n} on diagonalisoituva, jos ja vain jos sillä on n lineaarisesti riippumatonta ominaisvektoria. Tällöin

\begin{split}P^{-1}AP= \begin{augmatrix}{cccc} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & & 0 \\ \vdots & & \ddots & \vdots \\ 0 & \cdots & 0 & \lambda_n \end{augmatrix},\end{split}

missä matriisin P\in\R^{n\times n} sarakkeet ovat matriisin A lineaarisesti riippumattomia ominaisvektoreita ja \lambda_1,\dots\lambda_n ovat niitä vastaavat ominaisarvot samassa järjestyksessä.

Piilota/näytä todistus

\Rightarrow”: Oletetaan, että P^{-1}AP=D, missä P \in \R^{n\times n} on jokin kääntyvä matriisi ja D \in \R^{n\times n} lävistäjämatriisi. Nyt AP=PD. Olkoot matriisin P sarakkeet \bp_1, \dots, \bp_n ja matriisin D lävistäjäalkiot \lambda_1, \dots, \lambda_n. Nyt siis

\begin{split}P = \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} \qquad \text{ja} \qquad D = \begin{augmatrix}{ccccc} \lambda_{1}&0&\cdots&0&0 \\ 0&\lambda_{2}&\cdots&0&0 \\ \vdots&\vdots&\ddots&\vdots&\vdots \\ 0&0&\cdots&\lambda_{n-1}&0 \\ 0&0&\cdots&0&\lambda_n \end{augmatrix}.\end{split}

Matriisituloa laskettaessa tulon AP jokainen sarake saadaan kertomalla matriisilla A vastaava sarake matriisista P:

AP=A \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} = \begin{augmatrix}{ccc} A\bp_1 & \cdots & A\bp_n \end{augmatrix}.

Toisaalta lävistäjämatriisia D kerrottaessa tullaan kertoneeksi matriisin P jokainen sarake vastaavalla lävistäjäalkiolla:

PD=\begin{augmatrix}{ccc} \lambda_1\bp_1 & \cdots & \lambda_n\bp_n \end{augmatrix}.

Koska AP=PD, nähdään nyt, että A\bp_i=\lambda_i\bp_i kaikilla i \in \{1, \dots, n\}. Siis jokainen \lambda_i on ominaisarvo ja \bp_i sitä vastaava ominaisvektori.

On vielä osoitettava, että ominaisvektorit \bp_1, \ldots, \bp_n ovat lineaarisesti riippumattomia. Koska P on kääntyvä, yhtälöllä P\bx=\nv on lauseen 4.7.1 mukaan täsmälleen yksi ratkaisu \bx=\nv. Yhtälö P\bx=\nv voidaan kirjoittaa myös muotoon

x_1\bp_1 + x_2\bp_2 +\dots + x_n\bp_n = \nv.

Tämän yhtälön ainoa ratkaisu on siis x_1 = 0, \dots, x_n = 0. Näin ollen matriisin A ominaisvektorit \bp_1, \dots, \bp_n ovat lineaarisesti riippumattomia.

\Leftarrow”: Oletetaan, että \bp_1, \dots, \bp_n ovat jotkin matriisin A lineaarisesti riippumattomat ominaisvektorit. Olkoot niitä vastaavat ominaisarvot \lambda_1, \dots, \lambda_n. Nyt A\bp_i=\lambda_i\bp_i kaikilla i \in \{1, \dots, n\}. Olkoon P matriisi, jonka sarakkeet ovat ominaisvektorit: P=[\bp_1 \cdots \bp_n]. Olkoon D puolestaan lävistäjämatriisi, jonka lävistäjäalkiot ovat \lambda_1, \dots, \lambda_n. Tällöin nähdään samaan tapaan kuin edellä, että AP=PD.

Koska matriisin P sarakkeet ovat lineaarisesti riippumattomat, on yhtälöllä P\bx=\nv täsmälleen yksi ratkaisu \bx=\nv. (Tämä nähdään samalla tavalla kuin todistuksen ensimmäisessä osassa.) Lauseen 4.8.6 nojalla matriisi P on nyt kääntyvä. Yhtälö AP = PD saadaan siis muotoon

P^{-1}AP = D.\qedhere

Olkoon \lambda matriisin A ominaisarvo. Ominaisarvon \lambda algebralliseksi kertaluvuksi \alg(\lambda) kutsutaan sen kertalukua karakteristisen polynomin juurena. Ominaisarvon \lambda geometriseksi kertaluvuksi \geom(\lambda) kutsutaan sitä vastaavan ominaisavaruuden E_{\lambda} dimensiota. Toisin sanoen \geom(\lambda) = \dim(E_{\lambda}). Nyt edellinen lause voidaan esittää kertalukujen avulla: matriisi on diagonalisoituva, jos sen jokaisen ominaisarvon algebrallinen ja geometrinen kertaluku ovat samat.

Esimerkki 6.6.4

Tutkitaan, onko esimerkin 6.5.2 matriisi

\begin{split}A=\begin{augmatrix}{cc} 1 & 2 \\ 3 & 2 \end{augmatrix}\end{split}

diagonalisoituva. Esimerkissä 6.5.2 todettiin, että matriisin ominaisarvot ovat 4 ja -1. Eräät näitä ominaisarvoja vastaavat ominaisvektorit ovat (2,3) ja (-1,1). Nämä ominaisvektorit ovat lineaarisesti riippumattomat, joten lauseen 6.6.3 perusteella A on diagonalisoituva. Muodostetaan ominaisvektoreista matriisi

\begin{split}P=\begin{augmatrix}{rr} 2 & -1 \\ 3 & 1 \end{augmatrix}\end{split}

ja ominaisarvoista matriisi

\begin{split}D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & -1 \end{augmatrix}\end{split}

Nyt lauseen 6.6.3 nojalla pätee P^{-1}AP=D. Tämän voi vielä tarkistaa laskemalla.

Tutkitaan vielä toisellakin tavalla, onko matriisi A diagonalisoituva. Esimerkin 6.5.2 perusteella matriisin A ominaisarvot ovat 4 ja -1. Ominaisarvo 4 on karakteristisen polynomin yksinkertainen juuri, joten sen algebrallinen kertaluku on yksi. Toisaalta ominaisarvoa 4 vastaa yksiulotteinen ominaisavaruus, joten sen geometrinen kertaluku on yksi. Siten ominaisarvon 4 algebralliset ja geometriset kertaluvut ovat samat. Samalla tavalla voidaan perustella, että ominaisarvon -1 algebralliset ja geometriset kertaluvut ovat molemmat yksi. Siten ominaisarvon -1 algebrallinen ja geometrinen kertaluku on sama. Koska jokaisella ominaisarvolla geometrinen ja algebrallinen kertaluku on sama, on matriisi A diagonalisoituva.

Esimerkki 6.6.5

Diagonalisoidaan matriisi

\begin{split}B=\begin{augmatrix}{cc} 2&1\\ 0&2 \end{augmatrix},\end{split}

jos mahdollista. Selvitetään aluksi matriisin ominaisarvot. Koska matriisi A on kolmiomatriisi, sen ominaisarvot ovat sen lävistäjän alkiot. Näin matriisin A ainoa ominaisarvo on 2. Ominaisarvoa vastaavat ominaisvektorit saadaan yhtälöstä B\bx=2\bx. Kun yhtälö ratkaistaan, nähdään sen ratkaisujen olevan muotoa \bx=(t,0), missä t \in \R \setminus \{0\}. Matriisilla B ei siis ole kahta lineaarisesti riippumatonta ominaisvektoria, joten B ei ole diagonalisoituva.

Tutkitaan vielä toisellakin tavalla, onko matriisi B diagonalisoituva. Voidaan laskea, että matriisin B karakteristinen polynomi on (\lambda-2)^2. Tämän polynomin ainoa juuri on \lambda=2 ja se on kaksinkertainen juuri. Siten ainoa ominaisarvo on 2 ja sen algebrallinen kertaluku on kaksi. Ominaisarvoa 2 vastaava ominaisavaruus on

\{(t,0) \mid t \in \R\}=\vir\{(1,0)\}.

Tämän avaruuden dimensio on yksi, joten ominaisarvon 2 geometrinen kertaluku on yksi. Koska algebrallinen ja geometrinen kertaluku eivät ole samat, ei matriisi ole diagonalisoituva.

Oletetaan, että A \in \R^{n \times n} ja B \in \R^{n \times n}. Jos löytyy kääntyvä matriisi P, jolle pätee P^{-1}AP=B, sanotaan, että A ja B ovat similaarisia. Diagonalisoituva matriisi A on siis similaarinen diagonaalimatriisin D kanssa. Similaarisilla matriiseilla on paljon yhteisiä omainaisuuksia. Voidaan osoittaa, että niillä on esimerkiksi samat ominaisarvot, sama determinantti ja sama aste.

Diagonalisoituva matriisi voidaan hajottaa tuloksi matriiseista, jotka koostuvat ominaisvektoreista ja ominaisarvoista. Jos nimittäin diagonalisoituvalle matriisille A pätee P^{-1}AP = D, voidaan yhtälöä kertoa vasemmalta matriisilla P ja oikealta matriisilla P^{-1}. Näin saadaan A = PDP^{-1}. Tuloa kutsutaan matriisin A ominaisarvohajotelmaksi. Ominaisarvohajotelmaa hyödynnetään seuraavassa esimerkissä, jossa esitellään eräs diagonalisoinnin sovellus.

Esimerkki 6.6.6 (Diagonalisoituvan matriisin potenssit)

Lasketaan esimerkissä 6.6.2 esiintyneen matriisin

\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}

seitsemäs potenssi. Suora matriisikertolasku olisi työläs suorittaa, mutta koska matriisi A on diagonalisoituva, voidaan käyttää hyväksi sen ominaisarvoja. Tällöin laskut ovat helpompia.

Esimerkissä 6.6.2 todettiin, että P^{-1}AP = D, missä

\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \quad \text{ja} \quad D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}

Jos kerrotaan yhtälöä P^{-1}AP = D vasemmalta matriisilla P ja oikealta matriisilla P^{-1}, saadaan A = PDP^{-1}. Nyt voidaan laskea

\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7 \\[2mm] &= \underbrace{(PDP^{-1})(PDP^{-1})\dots (PDP^{-1})(PDP^{-1})}_{7 \text{ kpl}} \\ &= PD(P^{-1}P)D\dots (P^{-1}P)DP^{-1} \\ &= P\underbrace{D\dots D}_{7 \text{ kpl}}P^{-1} \\ &= PD^7P^{-1}. \end{aligned}\end{split}

Matriisin A potenssin määritäminen on siis muuttunut matriisin D potenssin määrittämiseksi. Se osoittautuu helposksi. Huomataan nimittäin, että

\begin{split}D^7= \begin{augmatrix}{cc} 4^7 & 0 \\ 0 & 2^7 \end{augmatrix} = \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix}.\end{split}

Lävistäjämatriisin potenssi saadaan itse asiassa aina selville laskemalla pelkät lävistäjäalkioiden potenssit.

Nyt

\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7=PD^7 P^{-1} =\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix} \left(\frac{1}{2}\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\right) \\[1mm] & =\frac{1}{2}\begin{augmatrix}{rr} 16384 & 128 \\ 16384 & -128 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2}\begin{augmatrix}{cc} 16512 & 16256 \\ 16256 & 16512 \end{augmatrix} =\begin{augmatrix}{cc} 8256 & 8128 \\ 8128 & 8256 \end{augmatrix}. \end{aligned}\end{split}

Matriisipotenssin laskeminen saatiin siis muutettua pariksi matriisikertolaskuksi sekä tavallisten kokonaislukujen potenssiksi. Samalla vaivalla voitaisiin laskea paljon suurempiakin potensseja. Tämä temppu onnistuu kuitenkin vain, jos alkuperäinen matriisi on diagonalisoituva.

Palataan vielä tutkimaan matriisin ominaisvektoreita. Seuraava lause osoittaa, että eri ominaisarvoja vastaavat ominaisvektorit ovat lineaarisesti riippumattomia. Tästä tuloksesta on toisinaan hyötyä, kun tutkitaan, onko matriisi diagonalisoituva.

Lause 6.6.7

Oletetaan, että A on n \times n-matriisi. Oletetaan, että \lambda_1, \dots, \lambda_m ovat matriisin A eri ominaisarvoja ja \bv_1, \dots, \bv_m \in \R^n jotkin niitä vastaavat ominaisvektorit. Tällöin vektorit \bv_1, \dots, \bv_m ovat lineaarisesti riippumatttomia.

Piilota/näytä todistus

Oletetaan vastoin väitettä, että vektorit \bv_1, \dots, \bv_m ovat lineaarisesti riippuvia. Nyt lauseen 5.4.9 nojalla jokin vektoreista on muiden lineaarikombinaatio. Tästä seuraa, että jokin vektoreista on sitä edeltävien vektoreiden lineaarikombinaatio. Olkoon \bv_{k+1} ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio. Tällöin on olemassa reaaliluvut c_1, \dots, c_k, joille pätee

(1)c_1\bv_1 + \dots + c_k\bv_k = \bv_{k+1}.

Lisäksi vektorit \bv_1, \dots, \bv_k ovat lineaarisesti riippumattomia. Jos ne nimittäin olisivat lineaarisesti riippuvia, \bv_{k + 1} ei olisikaan ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio.

Kertomalla yhtälön (1) molemmat puolet vasemmalta matriisilla A saadaan yhtälö

A(c_1\bv_1 + \dots + c_k\bv_k) = A\bv_{k+1}.

Matriisien laskusääntöjen avulla yhtälö saa muodon c_1A\bv_1 + \dots + c_kA\bv_k = A\bv_{k+1}. Kun vielä muistetaan, että vektorit \bv_1, \dots, \bv_k ovat matriisin A ominaisvektoreita, saadaan lopulta yhtälö

(2)c_1\lambda_1\bv_1 + \dots + c_k\lambda_k\bv_k = \lambda_{k+1}\bv_{k+1}.

Toisaalta voidaan kertoa yhtälön (1) molemmat puolet luvulla \lambda_{k+1} päätyen yhtälöön

(3)c_1\lambda_{k+1}\bv_1 + \dots + c_k\lambda_{k+1}\bv_k = \lambda_{k+1}\bv_{k+1}.

Vähennetään yhtälöstä (2) puolittain yhtälö (3), jolloin saadaan

c_1(\lambda_1-\lambda_{k+1})\bv_1 + \dots + c_k(\lambda_k-\lambda_{k+1})\bv_k =\nv.

Vektorit \bv_1, \dots, \bv_k ovat lineaarisesti riippumattomia, joten kaikkien yhtälössä olevien kertoimien on oltava nollia:

c_1(\lambda_1-\lambda_{k+1}) = 0, \ c_2(\lambda_2-\lambda_{k+1}) = 0, \ldots, \ c_k(\lambda_k-\lambda_{k+1}) = 0.

Koska \lambda_1, \dots, \lambda_m ovat kaikki eri ominaisarvoja, niin tiedetään, että (\lambda_i - \lambda_{k+1}) \neq 0 kaikilla i \in \{1, \dots, k\}. Tulon nollasäännön nojalla

c_1 = 0, \ c_2 = 0, \ \ldots, \ c_k = 0.

Näin ollen

\bv_{k+1}= c_1\bv_1 + \dots + c_k\bv_k= 0\bv_1 + \dots + 0\bv_k = \nv.

Toisaalta oletuksen mukaan \bv_{k+1} on matriisin A ominaisvektori, joten \bv_{k+1} \neq \nv. Koska päädyttiin ristiriitaan, vastaoletus ei voi olla tosi. Siis alkuperäinen väite pätee, eli vektorit \bv_1, \dots, \bv_m ovat lineaarisesti riippumatttomia.

Edellisestä lauseesta seuraa, että toisinaan matriisin diagonalisoituvuus on helppo todeta.

Seuraus 6.6.8

Oletetaan, että n \times n-matriisilla on n eri ominaisarvoa. Tällöin A on diagonalisoituva.

Piilota/näytä todistus
Olkoot \bv_1, \dots, \bv_n jotkin eri ominaisarvoihin liittyvät ominaisvektorit. Ne ovat lineaarisesti riippumattomia lauseen 6.6.7 nojalla. Koska matriisilla A on n lineaarisesti riippumatonta ominaisvektoria, on A diagonalisoituva lauseen 6.6.3 nojalla.

Huomaa, että diagonalisoituvan n \times n-matriisin ominaisarvojen lukumäärän ei tarvitse olla n. Esimerkiksi lävistäjämatriisi

\begin{split}A = \begin{augmatrix}{rr} -3 & 0 \\ 0 & -3 \end{augmatrix}\end{split}

on diagonalisoituva, sillä I^{-1}AI=A. Lävistäjämatriisi on kolmiomatriisi, joten sen ominaisarvot voidaan lukea suoraan lävistäjältä. Havaitaan, että matriisilla A on vain yksi ominaisarvo, -3.

  • Jotkin matriisit on mahdollista muuttaa matriisikertolaskun avulla lävistäjä- eli diagonaalimatriiseiksi.
  • Tällaisia matriiseja kutsutaan diagonalisoituviksi ja prosessia kutsutaan diagonalisoinniksi.
  • Koska lävistäjämatriiseja on helppo käsitellä, voidaan diagonalisoinnin avulla helpottaa laskuja kuten potenssiin korotusta.
Oletetaan, että A \in \R^{n \times n} on diagonalisoituva, sekä että P \in \R^{n \times n} on kääntyvä matriisi ja D \in \R^{n \times n} lävistäjämatriisi, jotka toteuttavat ehdon P^{-1}AP=D. Valitse väite, joka ei pidä paikkaansa.
Palautusta lähetetään...