Tämä kurssi on jo päättynyt.
\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\pv}{\overline} \newcommand{\iu}{\mathrm{i}} \newcommand{\ju}{\mathrm{j}} \newcommand{\im}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\real}{\operatorname{Re}} \newcommand{\imag}{\operatorname{Im}} \newcommand{\Arg}{\operatorname{Arg}} \newcommand{\Ln}{\operatorname{Ln}} \DeclareMathOperator*{\res}{res} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\abs}[1]{\lvert#1\rvert} \newcommand{\pysty}[1]{\left[\begin{array}{@{}r@{}}#1\end{array}\right]} \newcommand{\piste}{\cdot} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|} \newcommand{\trans}{\mathrm{T}} \newcommand{\EUR}{\text{\unicode{0x20AC}}} \newcommand{\SI}[3][]{#2\,\mathrm{#3}} \newcommand{\si}[2][]{\mathrm{#2}} \newcommand{\num}[2][]{#2} \newcommand{\ang}[2][]{#2^{\circ}} \newcommand{\meter}{m} \newcommand{\metre}{\meter} \newcommand{\kilo}{k} \newcommand{\kilogram}{kg} \newcommand{\gram}{g} \newcommand{\squared}{^2} \newcommand{\cubed}{^3} \newcommand{\minute}{min} \newcommand{\hour}{h} \newcommand{\second}{s} \newcommand{\degreeCelsius}{^{\circ}C} \newcommand{\per}{/} \newcommand{\centi}{c} \newcommand{\milli}{m} \newcommand{\deci}{d} \newcommand{\percent}{\%} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}}\]

Riippumattomien satunnaismuuttujien summa ja keskiarvo

Jatkon kannalta erityisen tärkeä satunnaismuuttujien tyyppi on riippumattomien satunnaismuuttujien \(X_1,X_2,\ldots,X_n\) summa \(Y=X_1+X_2+\ldots+X_n\). Ensimmäinen tähän satunnaismuuttujaan liittyvä kiinnostava ongelma on selvittää sen jakauma. Usein voidaan olettaa, että muuttujat \(X_i\), \(i = 1, 2, \ldots, n\) noudattavat samaa, tunnettua jakaumaa. Asiaa tutkitaan tyypillisesti seuraavan momentit generoivan funktion ominaisuuden ja induktioperiaatteen avulla.

Lause 5.1.1

Riippumattomien satunnaismuuttujien \(X_1\) ja \(X_2\) summan \(Y=X_1+X_2\) momentit generoiva funktio

\[M_Y(t)=M_{X_1}(t)M_{X_2}(t),\]

kun \(M_{X_1}(t)\) ja \(M_{X_2}(t)\) ovat muuttujien \(X_1\) ja \(X_2\) momentit generoivat funktiot.

Piilota/näytä todistus

Koska \(X_1\) ja \(X_2\) ovat riippumattomia, niin lauseen 2.6.8 mukaan myös niiden funktiot \(e^{tX_1}\) ja \(e^{tX_2}\), missä \(t \in \R\), ovat riippumattomia. Täten riippumattomien satunnaismuuttujien tulon odotusarvona

\[M_Y(t) = \rE(e^{tY}) = \rE(e^{t(X_1+X_2)}) = \rE(e^{tX_1}e^{tX_2}) = \rE(e^{tX_1})\rE(e^{tX_2})=M_{X_1}(t)M_{X_2}(t). \qedhere\]

Esimerkki 5.1.2

Oletetaan, että \(X\sim\Bin(n,p)\) ja \(Y\sim\Bin(m,p)\), ja että muuttujat \(X\) ja \(Y\) ovat riippumattomia. Tällöin

\[M_{X+Y}(t) = M_X(t)M_Y(t) = (pe^t+1-p)^n(pe^t+1-p)^m = (pe^t+1-p)^{n+m},\]

eli \(M_{X+Y}(t)\) on jakauman \(\Bin(n+m, p)\) momenttifunktio. Täten momentit generoivan funktion yksikäsitteisyysominaisuuden nojalla \(X + Y \sim \Bin(n + m, p)\).

Tärkeänä tuloksena voidaan todistaa, että riippumattomien normaalijakautuneiden satunnaismuuttujien lineaarikombinaatio on normaalijakautunut.

Lause 5.1.3

Jos satunnaismuuttujat \(X_i \sim \rN(\mu_i, \sigma_i^2)\), \(i = 1, 2, \ldots, n\) ovat riippumattomia ja kertoimet \(a_1, a_2, \ldots, a_n \in \R\), niin muuttujien lineaarikombinaatio

\[Y=a_1X_1+a_2X_2+\cdots+a_nX_n \sim \rN(\mu_Y,\sigma_Y^2),\]

missä

\[\mu_Y = a_1\mu_1+a_2\mu_2+\cdots+a_n\mu_n \qquad\text{ja}\qquad \sigma_Y^2 = a_1^2\sigma_1^2+a_2^2\sigma_2^2+\cdots+a_n^2\sigma_n^2.\]
Piilota/näytä todistus

Käytetään induktiota.

  1. Alkuaskel \(n = 2\). Lauseen 4.4.3 mukaan \(a_iX_i \sim \rN(a_i\mu_i, a_i^2\sigma_i^2)\), missä \(i = 1\) tai \(i = 2\). Täten hyödyntämällä normaalijakauman momenttifunktiota ja lausetta 5.1.1 saadaan satunnaismuuttujan \(Y\) momentit generoivaksi funktioksi

    \[\begin{split}\begin{aligned} M_Y(t) &= M_{a_1X_1}(t)M_{a_2X_2}(t) = e^{a_1\mu_1t + \frac{1}{2}a_1^2\sigma_1^2t^2}e^{a_2\mu_2t + \frac{1}{2}a_2^2\sigma_2^2t^2} \\ &= e^{(a_1\mu_1 + a_2\mu_2)t + \frac{1}{2}(a_1^2\sigma_1^2 + a_2^2\sigma_2^2)t^2}, \end{aligned}\end{split}\]

    joka on myös jakauman \(\rN(a_1\mu_1 + a_2\mu_2, a_1^2\sigma_1^2 + a_2^2\sigma_2^2)\) momenttifunktion lauseke. Siis momentit generoivan funktion yksikäsitteisyysominaisuuden nojalla \(Y\) noudattaa tätä normaalijakaumaa, kuten väitettiinkin.

  2. Induktioaskel. Oletetaan sitten, että

    \[Y = a_1X_1 + a_2X_2 + \cdots + a_kX_k \sim \rN(\mu_Y, \sigma_Y^2),\]

    missä \(k\) on luonnollinen luku. Nyt lisäksi \(X_{k + 1} \sim \rN(\mu_{k + 1}, \sigma_{k + 1}^2)\), ja koska muuttujat \(X_1, X_2, \ldots, X_{k + 1}\) ovat riippumattomia, myös \(a_1X_1 + a_2X_2 + \cdots + a_kX_k\) ja \(a_{k + 1}X_{k + 1}\) ovat riippumattomia. Voidaan siis todistaa samaan tapaan kuin alkuaskeleessa, että

    \[Y + a_{k + 1}X_{k + 1} \sim \rN(\mu_Y + a_{k + 1}\mu_{k + 1}, \sigma_Y^2 + a_{k + 1}^2\sigma_{k + 1}^2),\]

    kuten väitettiinkin.

Induktioperiaatteen nojalla väite on voimassa aina, kun \(n \in \N\).

Olkoot satunnaismuuttujien \(X\) ja \(Y\) momentit generoivat funktiot \(M_X(t)\) ja \(M_Y(t)\). Jos satunnaismuuttujat \(X\) ja \(Y\) ovat riippumattomia, niin niiden summan \(X + Y\) momentit generoiva funktio on \(M_{X+Y}(t) = M_X(t)M_Y(t)\).
Oletetaan, että satunnaismuuttujat \(X_i\sim \rN(\mu, \sigma^2)\), \(i = 1, 2, \ldots, n\). Summa \(Y = X_1 + X_2 + \cdots + X_n\) noudattaa normaalijakaumaa parametrein

Tarkastellaan sitten \(n\)-toistokoetta, jossa satunnaismuuttujalle \(X\) realisoituu jokin arvo, ja merkitään toistossa \(i\) realisoituvaa satunnaismuuttujaa \(X_i\). Koetoistojen satunnaismuuttujien \(X_1,X_2,\ldots,X_n\) sanotaan olevan otos satunnaismuuttujasta \(X\), jolloin muuttujat \(X_i\) ovat riippumattomia ja noudattavat samaa jakaumaa kuin \(X\). Erityisesti \(\rE(X_i)=\rE(X)\) ja \(\Var(X_i)=\Var(X)\). Satunnaisvektorille \((X_1, X_2, \ldots, X_n)\) realisoituvia arvoja \((x_1, x_2, \ldots, x_n)\) kutsutaan toisinaan myös otokseksi, mutta tässä otoksella tarkoitetaan nimenomaan kokoelmaa satunnaismuuttujia.

Otoksesta \(X_1,X_2,\ldots,X_n\) riippuvia otossuureita (statistics) \(\Theta\) käytetään usein satunnaismuuttujan \(X\) jakauman tuntemattomien parametrien \(\theta\), kuten odotusarvon ja varianssin arviointiin, sekä parametreihin kohdistuvien väitteiden testaamiseen. Otossuureet muodostuvat otosmuuttujien \(X_i\) funktioina, ja ovat täten nekin satunnaismuuttujia, joilla on omat jakaumansa. Parametriin \(\theta\) liittyvää otossuuretta \(\Theta\) kutsutaan myös parametrin estimaattoriksi, ja sille realisoituvaa arvoa estimaatiksi tai piste-estimaatiksi. Satunnaismuuttujan \(X\) sijaintia kuvaava tärkein otossuure on otoskeskiarvo.

Määritelmä 5.1.4

Olkoon \(X_1,X_2,\ldots,X_n\) otos satunnaismuuttujasta \(X\), sekä luvut \(x_1, x_2, \ldots, x_n\) otosmuuttujien realisoituneet arvot. Satunnaismuuttujan \(X\) otoskeskiarvo (sample mean) on satunnaismuuttuja

\[\overline{X}=\frac{1}{n}\sum_{i=1}^nX_i,\]

ja sen realisoitunut arvo (reaaliluku)

\[\overline{x}=\frac{1}{n}\sum_{i=1}^nx_i.\]

Satunnaismuuttujan \(X\) otoskeskiarvon \(\overline{X}\) jakauman odotusarvo ja varianssi voidaan päätellä suoraan muuttujan \(X\) vastaavista parametreistä. Odotusarvon lineaarisuuden nojalla

\[\rE\left(\frac{1}{n}\sum_{i = 1}^{n}X_i\right) = \frac{1}{n}\rE\left(\sum_{i = 1}^{n}X_i\right) = \frac{1}{n}\sum_{i = 1}^{n}\rE(X_i),\]

ja jos satunnaismuuttujat \(X_i\) ovat riippumattomia (otosmuuttujina ne ovat), niin

\[\Var\left(\frac{1}{n}\sum_{i = 1}^{n}X_i\right) = \frac{1}{n^2}\sum_{i = 1}^{n}\Var(X_i)\]

lauseen 3.4.8 nojalla. Koska tässä muuttujat \(X_1,X_2,\ldots,X_n\) muodostavat otoksen satunnaismuuttujasta \(X\), niin \(\rE(X_i)=\rE(X)\) ja \(\Var(X_i)=\Var(X)\), \(i = 1, 2, \ldots, n\). Näin otoskeskiarvon odotusarvolle ja varianssille saadaan seuraava tulos.

Lause 5.1.5

Olkoon \(X_1,X_2,\ldots,X_n\) otos satunnaismuuttujasta \(X\). Tällöin muuttujan \(X\) otoskeskiarvon \(\overline{X}\) odotusarvo

\[\rE(\overline{X})=\rE(X)=\mu\]

ja varianssi

\[\Var(\overline{X})=\frac{\Var(X)}{n}=\frac{\sigma^2}{n},\]

kun \(\rE(X) = \mu\) ja \(\Var(X) = \sigma^2\).

Oletetaan, että \(X_1, X_2, \ldots, X_n\) on satunnaismuuttujaan \(X\) liittyvä otos.

Satunnaismuuttujan \(X\) otoskeskiarvo on
Otoskeskiarvon \(\overline{X}\) odotusarvo

Satunnaismuuttujan \(X\) otoksesta \(X_1, X_2, \ldots, X_n\) lasketun otossuureen \(\Theta\) (satunnaismuuttuja) sanotaan olevan tietyn muuttujan \(X\) jakauman parametrin \(\theta\) harhaton estimaattori (unbiased estimator), jos \(\rE(\Theta) = \theta\). Otossuureelle realisoitunut arvo antaa tälle parametrille harhattoman estimaatin (unbiased estimate). Edellisen lauseen mukaan otoskeskiarvo \(\overline{X}\) odotusarvon \(\rE(X) = \mu\) harhaton estimaatti.

Otoskeskiarvon keskihajontaa

\[\rD(\overline{X})=\sqrt{\Var(\overline{X})}=\frac{\sigma}{\sqrt{n}}\]

kutsutaan keskiarvon keskivirheeksi (the standard error of the mean). Otoksesta arvioitu satunnaismuuttujan \(X\) odotusarvo ja sen virhearvio voidaan ilmaista muodossa \(\mu \pm \sigma/\sqrt{n}\). Tätä karkeaa arviota luotettavampi tapa on muodostaa odotusarvolle \(\mu\) luottamusväli, joka suurella todennäköisyydellä sisältää varsinaisen odotusarvon.

Jos muuttuja \(X\) noudattaa normaalijakaumaa, niin lauseen 5.1.3 nojalla myös otoskeskiarvo \(\overline{X}\) noudattaa normaalijakaumaa.

Seuraus 5.1.6

Jos \(X_1,X_2,\ldots,X_n\) on otos muuttujasta \(X\sim\rN(\mu,\sigma^2)\), niin otoskeskiarvo

\[\overline{X}\sim\rN\left(\mu,\frac{\sigma^2}{n}\right).\]
Satunnaismuuttujan \(X\) otoksesta \(X_1, X_2, \ldots, X_n\) lasketun otossuureen \(\Theta\), jolle \(\rE(\Theta) = \theta\) sanotaan olevan muuttujan \(X\) jakauman parametrin \(\theta\)
Jos satunnaismuuttuja \(X \sim \rN(\mu, \sigma^2)\), niin sen otoksen \(X_1,X_2,\ldots,X_n\) otoskeskiarvo

Aina ei voida olettaa, että satunnaismuuttujan \(X\) jakauma olisi normaalinen tai edes tunnettu. Seuraavaksi käsiteltävän keskeisen raja-arvolauseen mukaan suurilla otoksilla otoskeskiarvo noudattaa onneksi likimain normaalijakaumaa riippumatta satunnaismuuttujan \(X\) jakaumasta.

Palautusta lähetetään...