Matriisialgebraa ominaisarvoilla
Tutkitaan seuraavaksi erilaisten matriisien ominaisarvojen
ominaisuuksia.
Lause.
Matriisilla A ja sen transpoosilla AT on
samat ominaisarvot, eli σ(A)=σ(AT).
Koska
det
matriiseilla A ja A^T on samat karakteristiset polynomit
ja siten myös \sigma(A^T) = \sigma(A). \square
Lause.
Ylä- ja alakolmiomatriisin ominaisarvot ovat sen
päädiagonaalin alkiot.
Jos A = [a_{ij}]_{n \times n} on ylä- tai
alakolmiomatriisi, niin myös A - \lambda I_n on. Tällöin
determinantti saadaan diagonaalialkioiden tulona, eli karakteristinen
polynomi
\det(A-\lambda I) = (a_{11}-\lambda)(a_{22}-\lambda) \cdots (a_{nn}-\lambda).
Siis karakteristisen polynomin juuret ovat \lambda = a_{ii}, kun
i = 1, 2, \ldots, n. \square
Lause.
Ortogonaalisen matriisin Q jokainen (kompleksinen)
ominaisarvo \lambda toteuttaa ehdon |\lambda|=1.
Ortogonaaliselle matriisille Q^TQ = I_n = QQ^T.
Koska matriisilla ja sen transpoosilla on samat ominaisarvot,
Q\mathbf{x}= \lambda\mathbf{x} jos ja vain jos
Q^T\mathbf{x}= \lambda\mathbf{x}. Tällöin
\|\mathbf{x}\| = \|I_n\mathbf{x}\| = \|Q^T(Q\mathbf{x})\| = \|Q^T(\lambda\mathbf{x})\| = \|\lambda(Q^T\mathbf{x})\| = \|\lambda^2\mathbf{x}\| = |\lambda|^2\|\mathbf{x}\|.
Koska \mathbf{x} on ominaisvektori, on oltava
\mathbf{x}\not= \mathbf{0}, ja täten |\lambda| = 1.
\square
Huomautus.
Karakteristisen polynomin juurten ajatellaan tässä
kattavan myös kompleksiset juuret. Tämä kuitenkin tarkoittaa sitä, että
ominaisvektoreiden komponentit voivat olla kompleksisia. Täydellistä
käsittelyä varten tulisi siis oikeastaan määritellä kompleksiset
vektori- ja matriisiavaruudet \mathbb C^n ja
\mathbb C^{m \times n}, mutta tähän palataan vasta myöhemmillä
opintojaksoilla. Esimerkiksi usean differentiaaliyhtälön systeemien
ratkaiseminen on kätevämpää, kun käytössä on myös kompleksisia
ominaisarvoja ja -vektoreita.
Matriisin A ominaisarvojen ja -vektoreiden avulla voidaan
välittömästi muodostaa ratkaisut myös seuraaviin ominaisarvo-ongelmiin.
Lause.
Olkoon A neliömatriisi, sekä \lambda sen
ominaisarvo ja \mathbf{x} tähän ominaisarvoon liittyvä
ominaisvektori. Tällöin
- \lambda^n on matriisin A^n ominaisarvo ja
\mathbf{x} siihen liittyvä ominaisvektori aina, kun n
on positiivinen kokonaisluku,
- \lambda^{-1} on matriisin A^{-1} ominaisarvo ja
\mathbf{x} siihen liittyvä ominaisvektori aina, kun A
on kääntyvä.
Molempien väitteiden toteutuessa \lambda^n on matriisin
A^n ominaisarvo ja \mathbf{x} siihen liittyvä
ominaisvektori aina, kun n on kokonaisluku.
Jätetään harjoitustehtäväksi. Pohdi, miten voisit ilmaista
väitteet yhtälömuotoisina, ja sovella oletuksia niihin.
\square
Seuraava tulos on erityisen tärkeä jatkon kannalta.
Lause.
Olkoon A n \times n-neliömatriisi, jolla on
erilliset ominaisarvot \lambda_1, \lambda_2, \ldots, \lambda_m,
sekä niihin liittyvät ominaisvektorit
\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_m. Tällöin
vektorit \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_m ovat
lineaarisesti riippumattomia.
Todistetaan väite induktiolla luvun m suhteen.
Alkuaskel. Jos m = 1, niin ominaisvektori
\mathbf{v}_1 on lineaarisesti riippumaton, ja väite on tosi.
Induktioaskel. Tehdään induktio-oletus, jonka mukaan matriisin
A erillisiä ominaisarvoja
\lambda_1, \lambda_2, \ldots, \lambda_k vastaavat
ominaisvektorit
\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_k ovat
lineaarisesti riippumattomia. Pyritään osoittamaan, että vielä
erillistä ominaisarvoa \lambda_{k + 1} vastaavan
ominaisvektorin \mathbf{v}_{k + 1} lisääminen ei riko tätä
ominaisuutta. Tehdään vastaoletus, jonka mukaan
\mathbf{v}_{k + 1} on lineaarisesti riippuva muista
vektoreista, eli
\mathbf{v}_{k + 1} = c_1\mathbf{v}_1 + c_2\mathbf{v}_2 + \cdots + c_k\mathbf{v}_k.
Koska kyseessä on ominaisvektori, tästä seuraa että
\lambda_{k + 1}\mathbf{v}_{k + 1} = A\mathbf{v}_{k + 1} = c_1A\mathbf{v}_1 + c_2A\mathbf{v}_2 + \cdots + c_kA\mathbf{v}_k = c_1\lambda_1\mathbf{v}_1 + c_2\lambda_2\mathbf{v}_2 + \cdots + c_k\lambda_k\mathbf{v}_k.
Toisaalta myös suoraan kertomalla nähdään, että
\lambda_{k + 1}\mathbf{v}_{k + 1} = c_1\lambda_{k + 1}\mathbf{v}_1 + c_2\lambda_{k + 1}\mathbf{v}_2 + \cdots + c_k\lambda_{k + 1}\mathbf{v}_k.
Vähennetään nämä kaksi yhtälöä puolittain, ja saadaan
\mathbf{0}= c_1(\lambda_1 - \lambda_{k + 1})\mathbf{v}_1 + c_2(\lambda_2 - \lambda_{k + 1})\mathbf{v}_2 + \cdots + c_k(\lambda_k - \lambda_{k + 1})\mathbf{v}_k.
Induktio-oletuksen nojalla vektorit
\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_k ovat
lineaarisesti riippumattomia, joten
c_1(\lambda_1 - \lambda_{k + 1}) = c_2(\lambda_2 - \lambda_{k + 1}) = \cdots = c_k(\lambda_k - \lambda_{k + 1}) = 0.
Nyt kuitenkin ominaisarvojen erillisyyden vuoksi on oltava
c_1 = c_2 = \cdots = c_k = 0, jolloin
\mathbf{v}_{k + 1} = 0 \cdot \mathbf{v}_1 + 0 \cdot \mathbf{v}_2 + \cdots + 0 \cdot \mathbf{v}_k = \mathbf{0}.
Tämä on ristiriita, sillä nollavektori ei voi olla ominaisvektori, ja
täten vastaoletus on väärä ja induktioväite tosi.
Induktioperiaatteen nojalla vektorit
\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_m ovat
lineaarisesti riippumattomia. \square
Esimerkki.
Tutki, onko riviekvivalenteilla matriiseilla aina samat
ominaisarvot. Jos on, todista väite ja jos ei, anna vastaesimerkki.
Riviekvivalentit matriisit voidaan muuttaa toisikseen
rivimuunnoksilla, joten väite on tosi jos ja vain jos matriisin
ominaisarvot säilyvät rivimuunnoksessa. Tarkastellaan
yläkolmiomatriiseja
\begin{split}\begin{bmatrix}
1 & 3 & 2 \\ 0 & 4 & -1 \\ 0 & 0 & 3
\end{bmatrix} \xrightarrow{2R_1}
\begin{bmatrix}
2 & 6 & 4 \\ 0 & 4 & -1 \\ 0 & 0 & 3
\end{bmatrix}.\end{split}
Tiedetään, että yläkolmiomatriisin ominaisarvot ovat sen
diagonaalialkiot, joten ensimmäisen matriisin spektri on
\{1, 3, 4\}, ja rivimuunnetun matriisin spektri
\{2, 3, 4\}. Näillä kahdella riviekvivalentilla matriisilla ei
siis ole samoja ominaisarvoja, joten väite on epätosi. Keksitkö
yksinkertaisemman vastaesimerkin?
Esimerkki.
Neliömatriisi A on idempotentti, jos
A^2 = A. Osoita, että jos \lambda on idempotentin
matriisin A ominaisarvo, niin \lambda = 0 tai
\lambda = 1.
Tiedetään, että \lambda on matriisin A
ominaisarvo, joten \lambda^2 on matriisin A^2
ominaisarvo. Koska nyt A^2 = A, niin
\lambda\mathbf{x}= A\mathbf{x}= A^2\mathbf{x}= \lambda^2\mathbf{x}
aina, kun \mathbf{x}\not= \mathbf{0} on ominaisarvoon
\lambda liittyvä ominaisvektori. On siis oltava
(\lambda^2 - \lambda)\mathbf{x}= \mathbf{0}, eli
\lambda^2 - \lambda = 0, ja tämän vuoksi \lambda = 0 tai
\lambda = 1. \square