\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \renewcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bbf}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-10mu}\,#1}^{\,#2}} \newcommand{\qedhere}{}\]

Varianssien testaus

Olkoon \(X_1,X_2,\ldots,X_n\) otos satunnaismuuttujasta \(X\sim\rN(\mu, \sigma^2)\), jonka odotusarvo ja varianssi ovat tuntemattomia. Varianssin nollahypoteesin

\[H_0 : \sigma^2=\sigma_0^2\]

testaaminen lähtee liikkeelle havainnosta, että sen sisältävä otossuure

\[\frac{(n-1)S^2}{\sigma^2} \sim \chi^2(n-1).\]

Nollahypoteesin ollessa voimassa siis testisuureeksi saadaan

\[W=\frac{(n-1)S^2}{\sigma_0^2}\sim\chi^2(n-1),\]

missä \(n\) on otoskoko ja \(S^2\) muuttujan \(X\) otosvarianssi. Riippuen vaihtoehtoisesta hypoteesista merkitsevyystasoa \(\alpha\) vastaava kriittinen alue valitaan yksi- tai kaksiosaisena ei-symmetrisen \(\chi^2\)-jakauman toisesta tai molemmista reunoista. Kriittisen alueen muodot ja \(p\)-arvot on tiivistetty seuraavaan taulukkoon, jossa testisuureelle \(W\) realisoitunutta arvoa merkitään symbolilla \(w\), ja merkinnöillä \(w_{1, \gamma}\) ja \(w_{2, \gamma}\) tarkoitetaan lukuja, joille \(P(W < w_{1, \gamma}) = \gamma\) ja \(P(W < w_{2, \gamma}) = 1 - \gamma\).

\[\begin{split}\begin{array}{c c c}\hline H_1 & \text{kriittinen alue} & p\text{-arvo} \\\hline \sigma^2 < \sigma_0^2 & {[0, w_{1, \alpha})} & P(W < w) \\ \sigma^2 > \sigma_0^2 & (w_{2, \alpha}, \infty) & 1 - P(W < w) \\ \sigma^2 \not= \sigma_0^2 & {[0, w_{1, \alpha/2})} \cup (w_{2, \alpha/2}, \infty) & 2\min\{P(W < w), 1 - P(W < w)\} \\\hline \end{array}\end{split}\]

Esimerkki 6.3.1

Oletetaan, että mittaustulos \(X\) on normaalijakaumasta \(X\sim\rN(\mu, \sigma^2)\) ja että aikaisempien tulosten perusteella varianssiksi on arvioitu \(\sigma^2=1100\). Nyt halutaan tietää, onko varianssi pysynyt ennallaan ja suoritetaan \(11\) mittausta ja saadaan mittaustulokset \(453, 460, 351, 421, 339, 439, 402, 422, 470, 310, 416\). Suorita hypoteesin testaus \(1~\%\):n merkitsevyystasolla.

Näytä/piilota ratkaisu

Nyt nollahypoteesi on muotoa \(H_0 : \sigma^2=1100\) ja \(\alpha = 0{,}01\). Realisoitunut otosvarianssi \(s^2 \approx 2761{,}1\) (esimerkiksi Matlabin funktio var). Tämän perusteella näyttäisi siltä, että jos varianssi on muuttunut, se on kasvanut. Valitaan vaihtoehtoiseksi hypoteesiksi siis \(H_1 : \sigma^2>1100\).

Testisuure ja sen jakauma on

\[W = \frac{(n - 1)S^2}{\sigma^2} \sim \chi^2(10),\]

ja testisuureelle realisoituu arvo \(w \approx 25{,}1007\). Kriittinen alue on jakauman oikeassa reunassa, ja taulukon vapausastelukua \(10\) vastaavalta riviltä, tai Matlabin komennolla chi2inv(1 - 0.01, 10) (R-komennolla qchisq(1 - 0.01, 10)) arvioidaan, että \(w_{2, \alpha} \approx 23{,}2093\). Kriittinen alue on siis väli \((23{,}2093, \infty)\) ja testisuureen realisoitunut arvo kuuluu sille. Nollahypoteesi hylätään ja päätellään, että todellinen varianssi on todennäköisesti suurempi kuin \(1100\). Testin \(p\)-arvoksi voidaan laskea Matlab-komennolla

1 - chi2cdf(25.1007, 10)

tai R-komennolla

1 - pchisq(25.1007, 10)

\(p = 1 - P(W < w) \approx 0{,}0052\), mikä luonnollisesti johtaa samaan johtopäätökseen.

Testataan varianssin \(\sigma^2\) suuruutta kaksisuuntaisesti, riskitasolla \(\alpha = 0{,}05\) ja otoskoolla \(N = 10\). Millä seuraavista lukupareista \(( p, n )\) saadaan Matlab-komennolla chi2inv(p, n) testauksessa mahdollisesti tarvittavaa tietoa?

Kahden varianssin yhtäsuuruuden testaus

Myös kahden populaation varianssien yhtäsuuruutta voidaan testata, mutta sitä varten tarvitaan uusi jakauma.

Määritelmä 6.3.2

Jatkuva satunnaismuuttuja \(F\) noudattaa \(\rF\)-jakaumaa vapausasteluvuin \(n_1\) ja \(n_2\) (\(\rF\) distribution with parameters \(n_1\) and \(n_2\)), \(F \sim \rF(n_1, n_2)\), jos sen tiheysfunktio

\[f(x) = \frac{\Gamma\left(\frac{n_1 + n_2}{2}\right)}{\Gamma\left(\frac{n_1}{2}\right)\Gamma\left(\frac{n_2}{2}\right)}\left(\frac{n_1}{n_2}\right)^{\frac{n_1}{2}}x^{\frac{n_1-2}{2}}\left(1 + \frac{n_1}{n_2}x\right)^{-\frac{n_1+n_2}{2}}, \qquad\text{kun } x \in \Omega = \R_{+},\]

missä \(\Gamma(t) = \int_{0}^{\infty}e^{-x}x^{t - 1}\,\rd x\) on Eulerin gammafunktio. \(\rF\)-jakaumaa kutsutaan myös Fisherin tai Snedecorin jakaumaksi.

Liitetaulukoista löytyy tai valmisohjelmien (Matlab, R) funktioilla voi laskea muuttujan \(F \sim \rF(n_1, n_2)\) kertymäfunktion \(F(x)=P(F\leq x)\) ja sen käänteisfunktion arvoja.

Esimerkki 6.3.3

Oletetaan, että \(F \sim \rF(10, 15)\) ja tutkitaan mitä ovat luvut \(f_1\) ja \(f_2\), kun \(P(F \leq f_1) = 0{,}95\) ja \(P(F \geq f_2) = 0{,}01\). Taulukoiden arvot on rajattu kertymäfunktioiden arvoihin \(0{,}95\), \(0{,}975\) ja \(0{,}99\), jolloin ensimmäisestä taulukosta luetaan, että \(f_1 \approx 2{,}54\) ja kolmannesta että \(f_2 \approx 3{,}80\). Matlabin komentojen

finv(0.95, 10, 15), finv(1 - 0.01, 10, 15)

tai R-ohjelmiston komentojen

qf(0.95, 10, 15), qf(1 - 0.01, 10, 15)

avulla saadaan tarkemmat likiarvot \(f_1 \approx 2{,}5437\) ja \(f_2 \approx 3{,}8049\).

Harjoitustehtäväksi jätetään osoittaa, että jos \(F \sim \rF(n_1, n_2)\), niin

\[\frac{1}{F} \sim \rF(n_2, n_1).\]

Sen seurauksena ehto \(P(F \leq x) = \alpha\) on yhtäpitävää ehdon \(P\left(\frac{1}{F} \geq \frac{1}{x}\right) = \alpha\), eli

\[P\left(\frac{1}{F}\leq\frac{1}{x}\right)=1-\alpha.\]

Tämä laajentaa \(\rF\)-jakauman taulukoiden käyttökelpoisuutta myös tapauksiin, joissa kertymäfunktion arvo \(P(F \leq x) \in \{0{,}05, 0{,}025, 0{,}01\}\). Yksinkertaisempaa, tarkempaa ja yleisemmin toimivaa on kuitenkin hyödyntää esimerkiksi ohjelmistoihin toteutettuja kertymäfunktion käänteisfunktioita.

Missä jakaumassa toteutuu tarkimmin \(P(F \leq 3{,}15) = 0{,}95\)?
Missä jakaumassa on toteutuu tarkimmin \(P(F \leq 0{,}25) = 0{,}025\)?

Erityisesti kahden \(\chi^2\)-jakautuneen satunnaismuuttujan sopivasti painotettu osamäärä on \(\rF\)-jakautunut.

Lause 6.3.4

Oletetaan, että satunnaismuuttujat \(W_1\sim\chi^2(n_1)\) ja \(W_2\sim\chi^2(n_2)\) ovat riippumattomia. Tällöin satunnaismuuttuja

\[F = \frac{W_1/n_1}{W_2/n_2} \sim \rF(n_1, n_2).\]

\(\rF\)-jakaumaa käytetään normaalijakautuneiksi oletettujen satunnaismuuttujien varianssien yhtäsuuruuden testaamiseen seuraavan tuloksen perusteella.

Lause 6.3.5

Olkoot \(X_1, X_2, \ldots, X_n\) ja \(Y_1, Y_2, \ldots, Y_m\) otoksia riippumattomista satunnaismuuttujista \(X \sim \rN(\mu_X, \sigma_X^2)\) ja \(Y \sim \rN(\mu_Y, \sigma_Y^2)\). Tällöin

\[F = \frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim \rF(n-1,m-1),\]

missä \(S_X^2\) ja \(S_Y^2\) ovat muuttujien \(X\) ja \(Y\) otosvarianssit.

Näytä/piilota todistus

Koska muuttujat \(X\) ja \(Y\) ovat riippumattomia, myös \(S_X^2\) ja \(S_Y^2\) ovat riippumattomia. Lauseen 5.3.8 mukaan

\[\frac{(n - 1)S_X^2}{\sigma_X^2} \sim \chi^2(n - 1) \qquad\text{ja}\qquad \frac{(m - 1)S_Y^2}{\sigma_Y^2} \sim \chi^2(m - 1),\]

joten edellisen lauseen nojalla

\[\frac{\frac{(n-1)S_X^2/\sigma_X^2}{n-1}}{\frac{(m-1)S_Y^2/\sigma_Y^2}{m-1}}=\frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim F(n-1,m-1),\]

kuten väitettiinkin.

Jos nyt \(X_1, X_2, \ldots, X_n\) ja \(Y_1, Y_2, \ldots, Y_m\) ovat otoksia riippumattomista normaalijakautuneista muuttujista \(X\) ja \(Y\), joiden tuntemattomat varianssit ovat \(\sigma_X^2\) ja \(\sigma_Y^2\), niin

\[\frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} \sim \rF(n - 1, m - 1),\]

missä \(S_X^2\) ja \(S_Y^2\) ovat muuttujien \(X\) ja \(Y\) otosvarianssit. Yhtäsuuruustestin nollahypoteesiksi asetetaan \(H_0 : \sigma_X^2 = \sigma_Y^2\), ja sen voimassa ollessa

\[F = \frac{S_X^2/\sigma_X^2}{S_Y^2/\sigma_Y^2} = \frac{S_X^2}{S_Y^2} \sim \rF(n - 1, m - 1),\]

joten valitaan se testisuureeksi. Riippuen vaihtoehtoisesta hypoteesista merkitsevyystasoa \(\alpha\) vastaava kriittinen alue valitaan yksi- tai kaksiosaisena epäsymmetrisen \(\rF\)-jakauman toisesta tai molemmista reunoista. Kriittisten alueiden muodot ja \(p\)-arvot on tiivistetty seuraavaan taulukkoon, jossa testisuureelle \(F\) realisoitunutta arvoa merkitään symbolilla \(f\), ja merkinnöillä \(f_{1, \gamma}\) ja \(f_{2, \gamma}\) tarkoitetaan lukuja, joille \(P(F < f_{1, \gamma}) = \gamma\) ja \(P(F < f_{2, \gamma}) = 1 - \gamma\).

\[\begin{split}\begin{array}{c c c}\hline H_1 & \text{kriittinen alue} & p\text{-arvo} \\\hline \sigma_X^2 < \sigma_Y^2 & {[0, f_{1, \alpha})} & P(F < f) \\ \sigma_X^2 > \sigma_Y^2 & (f_{2, \alpha}, \infty) & 1 - P(F < f) \\ \sigma_X^2 \not= \sigma_Y^2 & {[0, f_{1, \alpha/2})} \cup (f_{2, \alpha/2}, \infty) & 2\min\{P(F < f), 1 - P(F < f)\} \\\hline \end{array}\end{split}\]

Esimerkki 6.3.6

Kurssin A tenttiin osallistui \(51\) opiskelijaa ja tulosten otosvarianssi \(s_A^2=478\). Rinnakkaisen kurssin B tenttiin osallistui \(26\) opiskelijaa otosvarianssin ollessa \(s_B^2=372\). Voidaanko näitä havaintoja pitää näyttönä siitä, että tenttitulosten varianssit rinnakkaisilla kursseilla ovat erisuuret? Pistemäärien jakaumat oletetaan normaaleiksi.

Näytä/piilota ratkaisu

Testataan siis hypoteesiparia \(H_0: \sigma_A^2=\sigma_B^2\) ja \(H_1: \sigma_A^2\neq \sigma_B^2\). Valitaan merkitsevyystasoksi \(\alpha=0{,}05\), ja testisuureeksi

\[F = \frac{S_A^2}{S_B^2} \sim \rF(50,25),\]

jolle realisoituu arvo \(f = \frac{478}{372} \approx 1{,}2849\). Kriittinen alue on \([0, f_{1, \alpha/2}) \cup (f_{2, \alpha/2}, \infty)\), missä päätepisteiksi ratkaistaan Matlabin komennolla

finv([0.05/2, 1 - 0.05/2], 50, 25)

tai R-ohjelmiston komennoilla

qf(0.05/2, 50, 25), qf(1 - 0.05/2, 50, 25)

arvot \(f_{1, \alpha/2} \approx 0{,}5212\) ja \(f_{2, \alpha/2} \approx 2{,}0787\). Testisuureelle realisoitunut arvo jää siis kriittisen alueen \([0, 0{,}5212) \cup (2{,}0787, \infty)\) ulkopuolelle, joten nollahypoteesi jää voimaan. Vastaavasti \(p\)-arvoksi lasketaan Matlab-komennolla

2 * min([fcdf(1.2849, 50, 25), 1 - fcdf(1.2849, 50, 25)])

tai R-komennolla

2 * min(pf(1.2849, 50, 25), 1 - pf(1.2849, 50, 25))

arvo \(p \approx 0{,}5033\), joka on selvästi suurempi kuin riskitaso \(\alpha\). Tulosten valossa kurssien tenttien variansseja voidaan siis pitää yhtä suurina.

Testauksen yhteydessä on käytetty \(t\)-jakautunutta satunnaismuuttujaa. Mitä silloin on testattu? Valitse kaikki mahdolliset vaihtoehdot.
Palautusta lähetetään...