\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\pv}{\overline} \newcommand{\iu}{\mathrm{i}} \newcommand{\ju}{\mathrm{j}} \newcommand{\im}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\real}{\operatorname{Re}} \newcommand{\imag}{\operatorname{Im}} \newcommand{\Arg}{\operatorname{Arg}} \newcommand{\Ln}{\operatorname{Ln}} \DeclareMathOperator*{\res}{res} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\abs}[1]{\lvert#1\rvert} \newcommand{\pysty}[1]{\left[\begin{array}{@{}r@{}}#1\end{array}\right]} \newcommand{\piste}{\cdot} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|} \newcommand{\trans}{\mathrm{T}} \newcommand{\EUR}{\text{\unicode{0x20AC}}} \newcommand{\SI}[3][]{#2\,\mathrm{#3}} \newcommand{\si}[2][]{\mathrm{#2}} \newcommand{\num}[2][]{#2} \newcommand{\ang}[2][]{#2^{\circ}} \newcommand{\meter}{m} \newcommand{\metre}{\meter} \newcommand{\kilo}{k} \newcommand{\kilogram}{kg} \newcommand{\gram}{g} \newcommand{\squared}{^2} \newcommand{\cubed}{^3} \newcommand{\minute}{min} \newcommand{\hour}{h} \newcommand{\second}{s} \newcommand{\degreeCelsius}{^{\circ}C} \newcommand{\per}{/} \newcommand{\centi}{c} \newcommand{\milli}{m} \newcommand{\deci}{d} \newcommand{\percent}{\%} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}}\]

Otosvarianssi

Satunnaismuuttujan vaihtelua kuvaavat tärkeimmät otossuureet ovat otosvarianssi ja otoskeskihajonta.

Määritelmä 5.3.1

Olkoon \(X_1,X_2,\ldots,X_n\) otos satunnaismuuttujasta \(X\). Satunnaismuuttujan \(X\) otosvarianssi (sample variance) on satunnaismuuttuja

\[S^2=\frac{1}{n-1}\sum_{i=1}^n(X_i-\overline{X})^2,\]

ja otoshajonta (sample standard deviation) \(S=\sqrt{S^2}\). Näiden satunnaismuuttujien realisoituneita arvoja (reaalilukuja) kutsutaan myös otosvarianssiksi ja otoshajonnaksi ja niitä merkitään

\[s^2=\frac{1}{n-1}\sum_{i=1}^n(x_i-\overline{x})^2\]

ja \(s=\sqrt{s^2}\).

Satunnaismuuttujan \(X\) otosvarianssi on sen varianssin harhaton estimaattori.

Lause 5.3.2

Olkoon \(X_1,X_2,\ldots,X_n\) otos satunnaismuuttujasta \(X\). Muuttujan \(X\) otosvarianssi \(S^2\) on sen varianssin \(\sigma^2\) harhaton estimaattori, eli

\[\rE(S^2)=\Var(X)=\sigma^2.\]
Piilota/näytä todistus

Koska muuttujat \(X_i\), \(i = 1, 2, \ldots, n\) muodostavat otoksen satunnaismuuttujasta \(X\), on oltava \(\rE(X_i) = \rE(X) = \mu\) ja \(\Var(X_i) = \Var(X) = \sigma^2\). Väite seuraa odotusarvon lineaarisuudesta, kun otosvarianssin lausekkeessa merkitään \(X_i - \overline{X} = (X_i - \mu) - (\overline{X} - \mu)\) ja \(\sum\limits_{i = 1}^{n}X_i = n\overline{X}\):

\[\begin{split}\begin{aligned} \rE(S^2) &= \rE\left(\frac{1}{n - 1}\sum_{i = 1}^n(X_i - \overline{X})^2\right) = \rE\left(\frac{1}{n - 1} \sum_{i = 1}^n\left((X_i - \mu) - (\overline{X} - \mu)\right)^2\right) \\ &= \rE\left(\frac{1}{n - 1}\sum_{i = 1}^n \left((X_i - \mu)^2 - 2(X_i - \mu)(\overline{X} - \mu) + (\overline{X} - \mu)^2\right)\right) \\ &= \frac{1}{n - 1}\rE\left(\sum_{i = 1}^n(X_i - \mu)^2 - 2(\overline{X} - \mu)\sum_{i = 1}^n(X_i - \mu) + \sum_{i = 1}^n(\overline{X} - \mu)^2\right) \\ &= \frac{1}{n - 1}\rE\left(\sum_{i = 1}^n(X_i - \mu)^2 - 2(\overline{X} - \mu)(n\overline{X} - n\mu) + n(\overline{X} - \mu)^2\right) \\ &= \frac{1}{n - 1}\rE\left(\sum_{i = 1}^n(X_i - \mu)^2 - n(\overline{X} - \mu)^2 \right) = \frac{1}{n - 1}\left(\sum_{i = 1}^nE\left((X_i - \mu)^2\right) - n\rE\left((\overline{X} - \mu)^2\right)\right) \\ &= \frac{1}{n - 1}\left(\sum_{i = 1}^n\Var(X_i) - n\Var(\overline{X})\right) = \frac{1}{n - 1}\left(n\sigma^2 - n\frac{\sigma^2}{n}\right) = \sigma^2. \end{aligned}\end{split}\]

Tässä lauseessa on syy siihen, miksi otosvarianssin määritelmässä nimittäjään kirjoitetaan \(n-1\) eikä \(n\).

Tutkitaan sitten otosvarianssin jakaumaa. Normaalijakautuneiden satunnaismuuttujien muunnoksina saadaan eräitä uusia jakaumia, joita käytetään erityisesti tilastollisessa testaamisessa useiden testisuureiden jakaumina. Ensimmäisenä niistä määritellään \(\chi^2\)-jakauma (lausutaan khii toiseen).

Määritelmä 5.3.3

Jatkuva satunnaismuuttuja \(W\) noudattaa \(\chi^2\)-jakaumaa vapausastein \(n\) (\(\chi^2\) distribution with \(n\) degrees of freedom), \(W \sim \chi^2(n)\), jos sen tiheysfunktio

\[f(x) = \frac{1}{2^{\frac{n}{2}}\Gamma\left(\frac{n}{2}\right)}x^{\frac{n}{2} - 1}e^{-\frac{x}{2}}, \qquad\text{kun } x \in \Omega = [0, \infty),\]

missä \(\Gamma(t) = \int_{0}^{\infty}e^{-x}x^{t - 1}\,\rd x\) on Eulerin gammafunktio.

Laskuja varten satunnaismuuttujan \(W \sim \chi^2(n)\) kertymäfunktion \(F(t)=P(W \leq t)\) ja sen käänteisfunktion arvoja on kerätty liitetaulukkoon eri vapausasteluvuilla. Luonnollisesti arvot voi laskea myös ohjelmilla.

Esimerkki 5.3.4

Oletetaan, että \(W\sim\chi^2(14)\), ja etsitään ei-negatiiviset reaaliluvut \(w_1\) ja \(w_2\), joille \(P(W \leq w_1) = 0.1\) ja \(P(W \geq w_2) = 0.1\). Taulukossa valitaan ensin vapausastelukua \(14\) vastaava rivi, ja luetaan sitten, että \(P(W \leq w_1) = 0.1 = 1 - 0.9\), kun \(w_1 \approx 7.790\). Vastaavasti luvusta \(w_2\) päätellään ensin, että \(P(W < w_2) = 1 - 0.1 = 0.9\), joten \(w_2 \approx 21.064\).

Matlabilla laskettaessa voidaan käyttää komentoa

   w = chi2inv([0.1 0.9], 14)

joka antaa vastaukseksi vektorin \(w =[w_1, w_2]\). Vastaavasti R:llä arvot saadaan

   chisq(0.1, 14) # w1
   qchisq(0.9, 14) # w2 

Lause 5.3.5

Satunnaismuuttujan \(W\sim\chi^2(n)\) odotusarvo ja varianssi ovat

\[E(W)=n\qquad\text{ja}\qquad\mathrm{Var}(W)=2n\]

Todistus sivuutetaan.

\(\chi^2-\)jakauman hyödyllisyys otosvarianssin kannalta käy ilmi seuraavien lauseiden myötä. Niiden todistukset sivuutetaan.

Lause 5.3.6

Oletetaan, että satunnaismuuttujat \(Z_i \sim \rN(0, 1)\), \(i=1,2,\ldots,n\) ovat riippumattomia. Tällöin niiden neliösumma

\[W = \sum_{i = 1}^nZ_i^2 = Z_1^2 + Z_2^2 + \cdots + Z_n^2 \sim \chi^2(n).\]

Jos siis lasketaan yhteen \(n\) riippumattoman standardinormaalijakautuneen satunnaismuuttujan neliöt, saadaan \(\chi^2(n)-\)jakautunut satunnaismuuttuja.

Olkoon \(X_1, X_2, \ldots, X_n\) otos satunnaismuuttujasta \(X\sim\rN(\mu, \sigma^2)\). Muuttujan \(X\) otosvarianssin \(S^2\) jakauman sijaan tutkitaan otossuureen

\[\frac{(n - 1)S^2}{\sigma^2}\]

jakaumaa. Voidaan osoittaa, että tämä otosvarianssin funktio on \(\chi^2-\)jakautunut.

Jos satunnaismuuttujan \(W\) tiheysfunktio on

\[f(x) = \frac{1}{\sqrt{2^3}}\frac{\sqrt{x}e^{-x/2}}{\int_{0}^{\infty}e^{-t}\sqrt{t}\,\rd t},\]

niin se noudattaa \(\chi^2\)-jakaumaa.

Mikä on muuttujan \(W\) jakauman vapausasteluku?
Mikä on muuttujan \(W\) odotusarvo?
Mikä on muuttujan \(W\) varianssi?
Satunnaismuuttujat \(W_1 \sim \chi^2(n)\) ja \(W_2 \sim \chi^2(m)\) ovat riippumattomia, sekä löydetään satunnaismuuttujat \(Z_1, Z_2, \ldots, Z_n\) ja \(U_1, U_2, \ldots, U_m\), joille \(W_1=\sum_{i=1}^n Z_i^2\) ja \(W_2=\sum_{i=1}^m U_i^2\). Tällöin

Lause 5.3.7

Jos \(X_1,X_2,\ldots,X_n\) on otos muuttujasta \(X\sim\mathrm{N}(\mu,\sigma^2)\), niin

  1. \(\overline{X}\) ja \(S^2\) ovat riippumattomia,
  2. otossuure \(\dfrac{(n - 1)S^2}{\sigma^2} \sim \chi^2(n - 1)\).
Piilota/näytä todistus

Ensimmäisen kohdan todistus sivuutetaan, ja toisesta kohdasta hahmotellaan todistuksen idea. Koska voidaan kirjoittaa

\[\frac{(n - 1)S^2}{\sigma^2} = \frac{1}{\sigma^2}\sum_{i = 1}^n(X_i - \overline{X})^2 = \sum_{i = 1}^{n}\left(\frac{X_i - \overline{X}}{\sigma}\right)^2 = \sum_{i = 1}^{n}\left(\frac{X_i - \mu}{\sigma}\right)^2 - \left(\frac{\overline{X} - \mu}{\sigma/\sqrt{n}}\right)^2,\]

päätellään että

\[\sum_{i = 1}^{n}\left(\frac{X_i - \mu}{\sigma}\right)^2 = \frac{(n - 1)S^2}{\sigma^2} + \left(\frac{\overline{X} - \mu}{\sigma/\sqrt{n}}\right)^2,\]

missä \(\displaystyle{\sum\limits_{i = 1}^{n}\left(\dfrac{X_i - \mu}{\sigma}\right)^2 \sim \chi^2(n)}\) ja \(\left(\dfrac{\overline{X} - \mu}{\sigma/\sqrt{n}}\right)^2 \sim \chi^2(1)\).

Kun \(\chi^2-\)jakautunut satunnaismuuttuja voidaan ajatella olevan \(\mathrm{N}(0,1)-\)jakautuneiden muuttujien neliöiden summa, päätellään epäsuorasti, että \(\dfrac{(n - 1)S^2}{\sigma^2} \sim \chi^2(n - 1)\).

Tätä tulosta tarvitaan varianssin luottamusvälin määrittämisessä.

Palautusta lähetetään...