$\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \renewcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bbf}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-10mu}\,#1}^{\,#2}} \newcommand{\qedhere}{}$

# Varianssien testaus¶

Olkoon $$X_1,X_2,\ldots,X_n$$ otos satunnaismuuttujasta $$X\sim\rN(\mu, \sigma^2)$$, jonka odotusarvo ja varianssi ovat tuntemattomia. Varianssin nollahypoteesin

$H_0 : \sigma^2=\sigma_0^2$

testaaminen lähtee liikkeelle havainnosta, että sen sisältävä otossuure

$\frac{(n-1)S^2}{\sigma^2} \sim \chi^2(n-1).$

Nollahypoteesin ollessa voimassa siis testisuureeksi saadaan

$W=\frac{(n-1)S^2}{\sigma_0^2}\sim\chi^2(n-1),$

missä $$n$$ on otoskoko ja $$S^2$$ muuttujan $$X$$ otosvarianssi. Riippuen vaihtoehtoisesta hypoteesista merkitsevyystasoa $$\alpha$$ vastaava kriittinen alue valitaan yksi- tai kaksiosaisena ei-symmetrisen $$\chi^2$$-jakauman toisesta tai molemmista reunoista. Kriittisen alueen muodot ja $$p$$-arvot on tiivistetty seuraavaan taulukkoon, jossa testisuureelle $$W$$ realisoitunutta arvoa merkitään symbolilla $$w$$, ja merkinnöillä $$w_{1, \gamma}$$ ja $$w_{2, \gamma}$$ tarkoitetaan lukuja, joille $$P(W < w_{1, \gamma}) = \gamma$$ ja $$P(W < w_{2, \gamma}) = 1 - \gamma$$.

$\begin{split}\begin{array}{c c c}\hline H_1 & \text{kriittinen alue} & p\text{-arvo} \\\hline \sigma^2 < \sigma_0^2 & {[0, w_{1, \alpha})} & P(W < w) \\ \sigma^2 > \sigma_0^2 & (w_{2, \alpha}, \infty) & 1 - P(W < w) \\ \sigma^2 \not= \sigma_0^2 & {[0, w_{1, \alpha/2})} \cup (w_{2, \alpha/2}, \infty) & 2\min\{P(W < w), 1 - P(W < w)\} \\\hline \end{array}\end{split}$

Esimerkki 6.3.1

Oletetaan, että mittaustulos $$X$$ on normaalijakaumasta $$X\sim\rN(\mu, \sigma^2)$$ ja että aikaisempien tulosten perusteella varianssiksi on arvioitu $$\sigma^2=1100$$. Nyt halutaan tietää, onko varianssi pysynyt ennallaan ja suoritetaan $$11$$ mittausta ja saadaan mittaustulokset $$453, 460, 351, 421, 339, 439, 402, 422, 470, 310, 416$$. Suorita hypoteesin testaus $$1~\%$$:n merkitsevyystasolla.

Näytä/piilota ratkaisu

Nyt nollahypoteesi on muotoa $$H_0 : \sigma^2=1100$$ ja $$\alpha = 0{,}01$$. Realisoitunut otosvarianssi $$s^2 \approx 2761{,}1$$ (esimerkiksi Matlabin funktio var). Tämän perusteella näyttäisi siltä, että jos varianssi on muuttunut, se on kasvanut. Valitaan vaihtoehtoiseksi hypoteesiksi siis $$H_1 : \sigma^2>1100$$.

Testisuure ja sen jakauma on

$W = \frac{(n - 1)S^2}{\sigma^2} \sim \chi^2(10),$

ja testisuureelle realisoituu arvo $$w \approx 25{,}1007$$. Kriittinen alue on jakauman oikeassa reunassa, ja taulukon vapausastelukua $$10$$ vastaavalta riviltä, tai Matlabin komennolla chi2inv(1 - 0.01, 10) (R-komennolla qchisq(1 - 0.01, 10)) arvioidaan, että $$w_{2, \alpha} \approx 23{,}2093$$. Kriittinen alue on siis väli $$(23{,}2093, \infty)$$ ja testisuureen realisoitunut arvo kuuluu sille. Nollahypoteesi hylätään ja päätellään, että todellinen varianssi on todennäköisesti suurempi kuin $$1100$$. Testin $$p$$-arvoksi voidaan laskea Matlab-komennolla

1 - chi2cdf(25.1007, 10)


tai R-komennolla

1 - pchisq(25.1007, 10)


$$p = 1 - P(W < w) \approx 0{,}0052$$, mikä luonnollisesti johtaa samaan johtopäätökseen.

Testataan varianssin $$\sigma^2$$ suuruutta kaksisuuntaisesti, riskitasolla $$\alpha = 0{,}05$$ ja otoskoolla $$N = 10$$. Millä seuraavista lukupareista $$( p, n )$$ saadaan Matlab-komennolla chi2inv(p, n) testauksessa mahdollisesti tarvittavaa tietoa?

## Kahden varianssin yhtäsuuruuden testaus¶

Myös kahden populaation varianssien yhtäsuuruutta voidaan testata, mutta sitä varten tarvitaan uusi jakauma.

Määritelmä 6.3.2

Jatkuva satunnaismuuttuja $$F$$ noudattaa $$\rF$$-jakaumaa vapausasteluvuin $$n_1$$ ja $$n_2$$ ($$\rF$$ distribution with parameters $$n_1$$ and $$n_2$$), $$F \sim \rF(n_1, n_2)$$, jos sen tiheysfunktio

$f(x) = \frac{\Gamma\left(\frac{n_1 + n_2}{2}\right)}{\Gamma\left(\frac{n_1}{2}\right)\Gamma\left(\frac{n_2}{2}\right)}\left(\frac{n_1}{n_2}\right)^{\frac{n_1}{2}}x^{\frac{n_1-2}{2}}\left(1 + \frac{n_1}{n_2}x\right)^{-\frac{n_1+n_2}{2}}, \qquad\text{kun } x \in \Omega = \R_{+},$

missä $$\Gamma(t) = \int_{0}^{\infty}e^{-x}x^{t - 1}\,\rd x$$ on Eulerin gammafunktio. $$\rF$$-jakaumaa kutsutaan myös Fisherin tai Snedecorin jakaumaksi.

Liitetaulukoista löytyy tai valmisohjelmien (Matlab, R) funktioilla voi laskea muuttujan $$F \sim \rF(n_1, n_2)$$ kertymäfunktion $$F(x)=P(F\leq x)$$ ja sen käänteisfunktion arvoja.

Esimerkki 6.3.3

Oletetaan, että $$F \sim \rF(10, 15)$$ ja tutkitaan mitä ovat luvut $$f_1$$ ja $$f_2$$, kun $$P(F \leq f_1) = 0{,}95$$ ja $$P(F \geq f_2) = 0{,}01$$. Taulukoiden arvot on rajattu kertymäfunktioiden arvoihin $$0{,}95$$, $$0{,}975$$ ja $$0{,}99$$, jolloin ensimmäisestä taulukosta luetaan, että $$f_1 \approx 2{,}54$$ ja kolmannesta että $$f_2 \approx 3{,}80$$. Matlabin komentojen

finv(0.95, 10, 15), finv(1 - 0.01, 10, 15)


tai R-ohjelmiston komentojen

qf(0.95, 10, 15), qf(1 - 0.01, 10, 15)


avulla saadaan tarkemmat likiarvot $$f_1 \approx 2{,}5437$$ ja $$f_2 \approx 3{,}8049$$.

Harjoitustehtäväksi jätetään osoittaa, että jos $$F \sim \rF(n_1, n_2)$$, niin

$\frac{1}{F} \sim \rF(n_2, n_1).$

Sen seurauksena ehto $$P(F \leq x) = \alpha$$ on yhtäpitävää ehdon $$P\left(\frac{1}{F} \geq \frac{1}{x}\right) = \alpha$$, eli

$P\left(\frac{1}{F}\leq\frac{1}{x}\right)=1-\alpha.$

Tämä laajentaa $$\rF$$-jakauman taulukoiden käyttökelpoisuutta myös tapauksiin, joissa kertymäfunktion arvo $$P(F \leq x) \in \{0{,}05, 0{,}025, 0{,}01\}$$. Yksinkertaisempaa, tarkempaa ja yleisemmin toimivaa on kuitenkin hyödyntää esimerkiksi ohjelmistoihin toteutettuja kertymäfunktion käänteisfunktioita.

Missä jakaumassa toteutuu tarkimmin $$P(F \leq 3{,}15) = 0{,}95$$?
Missä jakaumassa on toteutuu tarkimmin $$P(F \leq 0{,}25) = 0{,}025$$?

Erityisesti kahden $$\chi^2$$-jakautuneen satunnaismuuttujan sopivasti painotettu osamäärä on $$\rF$$-jakautunut.

Lause 6.3.4

Oletetaan, että satunnaismuuttujat $$W_1\sim\chi^2(n_1)$$ ja $$W_2\sim\chi^2(n_2)$$ ovat riippumattomia. Tällöin satunnaismuuttuja

$F = \frac{W_1/n_1}{W_2/n_2} \sim \rF(n_1, n_2).$

$$\rF$$-jakaumaa käytetään normaalijakautuneiksi oletettujen satunnaismuuttujien varianssien yhtäsuuruuden testaamiseen seuraavan tuloksen perusteella.

Lause 6.3.5

Olkoot $$X_1, X_2, \ldots, X_n$$ ja $$Y_1, Y_2, \ldots, Y_m$$ otoksia riippumattomista satunnaismuuttujista $$X \sim \rN(\mu_X, \sigma_X^2)$$ ja $$Y \sim \rN(\mu_Y, \sigma_Y^2)$$. Tällöin

$F = \frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim \rF(n-1,m-1),$

missä $$S_X^2$$ ja $$S_Y^2$$ ovat muuttujien $$X$$ ja $$Y$$ otosvarianssit.

Näytä/piilota todistus

Koska muuttujat $$X$$ ja $$Y$$ ovat riippumattomia, myös $$S_X^2$$ ja $$S_Y^2$$ ovat riippumattomia. Lauseen 5.3.8 mukaan

$\frac{(n - 1)S_X^2}{\sigma_X^2} \sim \chi^2(n - 1) \qquad\text{ja}\qquad \frac{(m - 1)S_Y^2}{\sigma_Y^2} \sim \chi^2(m - 1),$

joten edellisen lauseen nojalla

$\frac{\frac{(n-1)S_X^2/\sigma_X^2}{n-1}}{\frac{(m-1)S_Y^2/\sigma_Y^2}{m-1}}=\frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim F(n-1,m-1),$

kuten väitettiinkin.

Jos nyt $$X_1, X_2, \ldots, X_n$$ ja $$Y_1, Y_2, \ldots, Y_m$$ ovat otoksia riippumattomista normaalijakautuneista muuttujista $$X$$ ja $$Y$$, joiden tuntemattomat varianssit ovat $$\sigma_X^2$$ ja $$\sigma_Y^2$$, niin

$\frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim \rF(n - 1, m - 1),$

missä $$S_X^2$$ ja $$S_Y^2$$ ovat muuttujien $$X$$ ja $$Y$$ otosvarianssit. Yhtäsuuruustestin nollahypoteesiksi asetetaan $$H_0 : \sigma_X^2 = \sigma_Y^2$$, ja sen voimassa ollessa

$F = \frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} = \frac{S_X^2}{S_Y^2} \sim \rF(n - 1, m - 1),$

joten valitaan se testisuureeksi. Riippuen vaihtoehtoisesta hypoteesista merkitsevyystasoa $$\alpha$$ vastaava kriittinen alue valitaan yksi- tai kaksiosaisena epäsymmetrisen $$\rF$$-jakauman toisesta tai molemmista reunoista. Kriittisten alueiden muodot ja $$p$$-arvot on tiivistetty seuraavaan taulukkoon, jossa testisuureelle $$F$$ realisoitunutta arvoa merkitään symbolilla $$f$$, ja merkinnöillä $$f_{1, \gamma}$$ ja $$f_{2, \gamma}$$ tarkoitetaan lukuja, joille $$P(F < f_{1, \gamma}) = \gamma$$ ja $$P(F < f_{2, \gamma}) = 1 - \gamma$$.

$\begin{split}\begin{array}{c c c}\hline H_1 & \text{kriittinen alue} & p\text{-arvo} \\\hline \sigma_X^2 < \sigma_Y^2 & {[0, f_{1, \alpha})} & P(F < f) \\ \sigma_X^2 > \sigma_Y^2 & (f_{2, \alpha}, \infty) & 1 - P(F < f) \\ \sigma_X^2 \not= \sigma_Y^2 & {[0, f_{1, \alpha/2})} \cup (f_{2, \alpha/2}, \infty) & 2\min\{P(F < f), 1 - P(F < f)\} \\\hline \end{array}\end{split}$

Esimerkki 6.3.6

Kurssin A tenttiin osallistui $$51$$ opiskelijaa ja tulosten otosvarianssi $$s_A^2=478$$. Rinnakkaisen kurssin B tenttiin osallistui $$26$$ opiskelijaa otosvarianssin ollessa $$s_B^2=372$$. Voidaanko näitä havaintoja pitää näyttönä siitä, että tenttitulosten varianssit rinnakkaisilla kursseilla ovat erisuuret? Pistemäärien jakaumat oletetaan normaaleiksi.

Näytä/piilota ratkaisu

Testataan siis hypoteesiparia $$H_0: \sigma_A^2=\sigma_B^2$$ ja $$H_1: \sigma_A^2\neq \sigma_B^2$$. Valitaan merkitsevyystasoksi $$\alpha=0{,}05$$, ja testisuureeksi

$F = \frac{S_A^2}{S_B^2} \sim \rF(50,25),$

jolle realisoituu arvo $$f = \frac{478}{372} \approx 1{,}2849$$. Kriittinen alue on $$[0, f_{1, \alpha/2}) \cup (f_{2, \alpha/2}, \infty)$$, missä päätepisteiksi ratkaistaan Matlabin komennolla

finv([0.05/2, 1 - 0.05/2], 50, 25)


tai R-ohjelmiston komennoilla

qf(0.05/2, 50, 25), qf(1 - 0.05/2, 50, 25)


arvot $$f_{1, \alpha/2} \approx 0{,}5212$$ ja $$f_{2, \alpha/2} \approx 2{,}0787$$. Testisuureelle realisoitunut arvo jää siis kriittisen alueen $$[0, 0{,}5212) \cup (2{,}0787, \infty)$$ ulkopuolelle, joten nollahypoteesi jää voimaan. Vastaavasti $$p$$-arvoksi lasketaan Matlab-komennolla

2 * min([fcdf(1.2849, 50, 25), 1 - fcdf(1.2849, 50, 25)])


tai R-komennolla

2 * min(pf(1.2849, 50, 25), 1 - pf(1.2849, 50, 25))


arvo $$p \approx 0{,}5033$$, joka on selvästi suurempi kuin riskitaso $$\alpha$$. Tulosten valossa kurssien tenttien variansseja voidaan siis pitää yhtä suurina.

Testauksen yhteydessä on käytetty $$t$$-jakautunutta satunnaismuuttujaa. Mitä silloin on testattu? Valitse kaikki mahdolliset vaihtoehdot.
Palautusta lähetetään...