Otoshajonta

Otoshajonta eli otoskeskihajonta s {\displaystyle s} on otosvarianssin s 2 {\displaystyle s^{2}} neliöjuuri, missä

s 2 = i = 1 n ( x i x ¯ ) 2 n 1   {\displaystyle s^{2}=\sum _{i=1}^{n}{\frac {(x_{i}-{\overline {x}})^{2}}{n-1}}\,\,\,\,{\ }}

ja

x ¯ = i = 1 n x i n   {\displaystyle {\overline {x}}=\sum _{i=1}^{n}{\frac {x_{i}}{n}}\,\,\,\,\,{\ }}

on tutkittavan muuttujan x {\displaystyle x} otoskeskiarvo.

Kun luvut x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} ovat satunnainen otos isommasta joukosta X, s {\displaystyle s} on harhaton estimaatti joukon X keskihajonnasta. Intuitiivisesti tämä selittyy sillä, että otoskeskiarvo x ¯ {\displaystyle {\overline {x}}} poikkeaa joukon X todellisesta keskiarvosta otoksen suuntaan, mikä tuottaisi keskihajonnan ( s 2 {\displaystyle s^{2}} yllä) kaavaan liian pienen osoittajan, mutta yhdellä pienennetty nimittäjä kompensoi tämän harhan. Jos käytettävissä olisi joukon X todellinen keskiarvo, nimittäjässä pitäisi olla n kuten yleensäkin keskihajonnan kaavassa.

Otosvarianssin harhattomuus

Todistus

Tiedetään, että satunnaismuuttujan varianssi Var ( x i ) = σ 2 = E [ x i 2 ] ( E [ x i ] ) 2 = {\displaystyle \operatorname {Var} (x_{i})=\sigma ^{2}=\mathbb {E} [x_{i}^{2}]-(\mathbb {E} [x_{i}])^{2}=} E [ x i 2 ] μ 2 E [ x i 2 ] = σ 2 + μ 2 {\displaystyle \mathbb {E} [x_{i}^{2}]-\mu ^{2}\iff \mathbb {E} [x_{i}^{2}]=\sigma ^{2}+\mu ^{2}} ja että otoksen keskiarvon varianssi Var ( x ¯ ) = σ 2 n = E [ x ¯ 2 ] ( E [ x ¯ ] ) 2 = {\displaystyle \operatorname {Var} ({\bar {x}})={\frac {\sigma ^{2}}{n}}=\mathbb {E} [{\bar {x}}^{2}]-(\mathbb {E} [{\bar {x}}])^{2}=} E [ x ¯ 2 ] μ 2 E [ x ¯ 2 ] = σ 2 n + μ 2 {\displaystyle \mathbb {E} [{\bar {x}}^{2}]-\mu ^{2}\iff \mathbb {E} [{\bar {x}}^{2}]={\frac {\sigma ^{2}}{n}}+\mu ^{2}} , missä n {\displaystyle n} on otoskoko.

E [ s 2 ] = E [ i = i n ( x i x ¯ ) 2 n 1 ] = 1 n 1 E [ i = i n ( x i 2 2 x i x ¯ + x ¯ 2 ) ] = {\displaystyle \mathbb {E} [s^{2}]=\mathbb {E} \left[\sum _{i=i}^{n}{\frac {(x_{i}-{\bar {x}})^{2}}{n-1}}\right]={\frac {1}{n-1}}\mathbb {E} \left[\sum _{i=i}^{n}(x_{i}^{2}-2x_{i}{\bar {x}}+{\bar {x}}^{2})\right]=}

1 n 1 E [ i = i n ( x i 2 ) i = i n ( 2 x i x ¯ ) + i = i n ( x ¯ 2 ) ] = {\displaystyle {\frac {1}{n-1}}\mathbb {E} \left[\sum _{i=i}^{n}(x_{i}^{2})-\sum _{i=i}^{n}(2x_{i}{\bar {x}})+\sum _{i=i}^{n}({\bar {x}}^{2})\right]=}

1 n 1 E [ i = i n ( x i 2 ) 2 x ¯ i = i n ( x i ) + i = i n ( x ¯ 2 ) ] = {\displaystyle {\frac {1}{n-1}}\mathbb {E} \left[\sum _{i=i}^{n}(x_{i}^{2})-2{\bar {x}}\sum _{i=i}^{n}(x_{i})+\sum _{i=i}^{n}({\bar {x}}^{2})\right]=}

1 n 1 E [ i = i n ( x i 2 ) 2 n x ¯ 2 + i = i n ( x ¯ 2 ) ] = {\displaystyle {\frac {1}{n-1}}\mathbb {E} \left[\sum _{i=i}^{n}(x_{i}^{2})-2n{\bar {x}}^{2}+\sum _{i=i}^{n}({\bar {x}}^{2})\right]=}

1 n 1 ( n E [ x i 2 ] 2 n E [ x ¯ 2 ] + n E [ x ¯ 2 ] ) = {\displaystyle {\frac {1}{n-1}}\left(n\mathbb {E} [x_{i}^{2}]-2n\mathbb {E} [{\bar {x}}^{2}]+n\mathbb {E} [{\bar {x}}^{2}]\right)=}

1 n 1 ( n E [ x i 2 ] n E [ x ¯ 2 ] ) = {\displaystyle {\frac {1}{n-1}}\left(n\mathbb {E} [x_{i}^{2}]-n\mathbb {E} [{\bar {x}}^{2}]\right)=}

1 n 1 ( n ( σ 2 + μ 2 ) n ( σ 2 n + μ 2 ) ) = {\displaystyle {\frac {1}{n-1}}\left(n(\sigma ^{2}+\mu ^{2})-n({\frac {\sigma ^{2}}{n}}+\mu ^{2})\right)=}

1 n 1 ( n σ 2 + n μ 2 σ 2 n μ 2 ) ) = {\displaystyle {\frac {1}{n-1}}\left(n\sigma ^{2}+n\mu ^{2}-\sigma ^{2}-n\mu ^{2})\right)=}

1 n 1 ( n 1 ) σ 2 = σ 2 {\displaystyle {\frac {1}{n-1}}(n-1)\sigma ^{2}=\sigma ^{2}}

Siis otosvarianssin odotusarvo on sama kuin satunnaismuuttujan varianssi, joten otosvarianssi on harhaton estimaatti.

Katso myös

  • Hajontaluku
Tämä matematiikkaan liittyvä artikkeli on tynkä. Voit auttaa Wikipediaa laajentamalla artikkelia.