Chi-Quadrat-Verteilung

Die Chi-Quadrat-Verteilung bzw. χ 2 {\displaystyle \chi ^{2}} -Verteilung (ältere Bezeichnung: Helmert-Pearson-Verteilung, nach Friedrich Robert Helmert und Karl Pearson) ist eine stetige Wahrscheinlichkeitsverteilung über der Menge der nichtnegativen reellen Zahlen. Üblicherweise ist mit „Chi-Quadrat-Verteilung“ die zentrale Chi-Quadrat-Verteilung gemeint. Die Chi-Quadrat-Verteilung hat einen einzigen Parameter, nämlich die Anzahl der Freiheitsgrade n {\displaystyle n} .

Dichten der Chi-Quadrat-Verteilung mit unterschiedlicher Anzahl an Freiheitsgraden k

Sie ist eine der Verteilungen, die aus der Normalverteilung N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}\left(\mu ,\sigma ^{2}\right)} abgeleitet werden kann: Sind Z 1 , . . . , Z n {\displaystyle Z_{1},...,Z_{n}} unabhängige und standardnormalverteilte Zufallsvariablen, so ist die Chi-Quadrat-Verteilung mit n {\displaystyle n} Freiheitsgraden definiert als die Verteilung der Summe Z 1 2 + + Z n 2 {\displaystyle Z_{1}^{2}+\dotsb +Z_{n}^{2}} der quadrierten Zufallsvariablen. Solche Summen quadrierter Zufallsvariablen treten bei Schätzfunktionen wie der Stichprobenvarianz zur Schätzung der empirischen Varianz auf. Die Chi-Quadrat-Verteilung ermöglicht damit unter anderem ein Urteil über die Kompatibilität eines vermuteten funktionalen Zusammenhangs (Abhängigkeit von der Zeit, Temperatur, Druck etc.) mit empirisch ermittelten Messpunkten. Kann z. B. eine Gerade die Daten erklären, oder braucht man doch eine Parabel oder vielleicht einen Logarithmus? Man wählt verschiedene Modelle aus, und dasjenige mit der besten Anpassungsgüte, dem kleinsten Chi-Quadrat-Wert, bietet die beste Erklärung der Daten.[1][2] So stellt die Chi-Quadrat-Verteilung durch die Quantifizierung der zufälligen Schwankungen die Auswahl verschiedener Erklärungsmodelle auf eine numerische Basis. Außerdem erlaubt sie, wenn man die empirische Varianz bestimmt hat, die Schätzung des Vertrauensintervalls, das den (unbekannten) Wert der Varianz der Grundgesamtheit mit einer gewissen Wahrscheinlichkeit einschließt. Diese und weitere Anwendungen sind weiter unten und im Artikel Chi-Quadrat-Test beschrieben.

Die Chi-Quadrat-Verteilung wurde 1876 eingeführt von Friedrich Robert Helmert, die Bezeichnung stammt von Karl Pearson (1900).[3]

Definition

Dichte und Verteilung von mehreren Chi-Quadrat-verteilten Zufallsgrößen

Sind Z 1 , , Z n {\displaystyle Z_{1},\dotsc ,Z_{n}} stochastisch unabhängige und standardnormalverteilte Zufallsvariablen, so heißt die Verteilung der Zufallsvariablen X {\displaystyle X} mit

X = Z 1 2 + + Z n 2 {\displaystyle X=Z_{1}^{2}+\cdots +Z_{n}^{2}}

Chi-Quadrat-Verteilung mit n {\displaystyle n} Freiheitsgraden.[4] Hierfür schreibt man symbolisch

X χ n 2 oder X χ 2 ( n ) {\displaystyle X\sim \chi _{n}^{2}\quad {\text{oder}}\quad X\sim \chi ^{2}(n)}

und sagt, dass sie χ n 2 {\displaystyle \chi _{n}^{2}} -verteilt ist.

Hinweis: In der Statistik werden oftmals Stichprobenfunktionen, die unter gewissen Bedingungen chi-Quadrat-verteilt sind, mit χ 2 {\displaystyle \chi ^{2}} bezeichnet.

Eigenschaften

Dichtefunktion

Die Summe quadrierter Größen kann keine negativen Werte annehmen. Deshalb hat die Dichte f n {\displaystyle f_{n}} der χ n 2 {\displaystyle \chi _{n}^{2}} -Verteilung für x < 0 {\displaystyle x<0} den Wert null. Für x > 0 {\displaystyle x>0} lässt sie sich darstellen als

f n ( x ) = 1 2 n 2 Γ ( n 2 ) x n 2 1 exp ( x 2 ) . {\displaystyle f_{n}(x)={\frac {1}{2^{\frac {n}{2}}\Gamma ({\tfrac {n}{2}})}}x^{{\frac {n}{2}}-1}\exp \left(-{\frac {x}{2}}\right).} [4]

Dabei steht Γ {\displaystyle \Gamma } für die Gammafunktion. Die Werte von Γ ( n 2 ) {\displaystyle \Gamma ({\tfrac {n}{2}})} kann man rekursiv aus

Γ ( 1 2 ) = π , Γ ( 1 ) = 1 , {\displaystyle \Gamma ({\tfrac {1}{2}})={\sqrt {\pi }}\;,\quad \Gamma (1)=1\;,}
Γ ( x + 1 ) = x Γ ( x ) mit x R + {\displaystyle \Gamma (x+1)=x\cdot \Gamma (x)\quad {\text{mit}}\quad x\in \mathbb {R} ^{+}}

berechnen.

Spezialfall: Für die Dichte f 2 {\displaystyle f_{2}} der χ 2 {\displaystyle \chi ^{2}} -Verteilung mit n = 2 {\displaystyle n=2} Freiheitsgraden gilt für x > 0 {\displaystyle x>0}

f 2 ( x ) = 1 2 exp ( x 2 ) . {\displaystyle f_{2}(x)={\frac {1}{2}}\exp \left(-{\frac {x}{2}}\right).}

Verteilungsfunktion

Die Verteilungsfunktion kann man mit Hilfe der regularisierten unvollständigen Gammafunktion P ( a , x ) {\displaystyle P(a,x)} ausdrücken:

F n ( x ) = P ( n 2 , x 2 ) . {\displaystyle F_{n}(x)=P({\tfrac {n}{2}},{\tfrac {x}{2}}).}

Wenn n {\displaystyle n} eine natürliche Zahl ist, dann kann die Verteilungsfunktion wie folgt dargestellt werden:

P ( n 2 , x 2 ) = { 1 e x 2 k = 0 n / 2 1 1 Γ ( k + 1 ) ( x 2 ) k  falls  n  gerade , erf ( x 2 ) e x 2 k = 0 n / 2 1 1 Γ ( k + 3 2 ) ( x 2 ) k + 1 2  falls  n  ungerade , {\displaystyle P\left({\tfrac {n}{2}},{\tfrac {x}{2}}\right)={\begin{cases}1-e^{-{\frac {x}{2}}}\sum \limits _{k=0}^{n/2-1}{\frac {1}{\Gamma (k+1)}}({\tfrac {x}{2}})^{k}&{\text{ falls }}n{\text{ gerade}},\\\operatorname {erf} \left({\sqrt {\tfrac {x}{2}}}\right)-e^{-{\frac {x}{2}}}\sum \limits _{k=0}^{\lfloor n/2\rfloor -1}{\frac {1}{\Gamma (k+{\tfrac {3}{2}})}}({\tfrac {x}{2}})^{k+{\tfrac {1}{2}}}&{\text{ falls }}n{\text{ ungerade}},\end{cases}}}

wobei erf {\displaystyle \operatorname {erf} } die Fehlerfunktion bezeichnet.

Spezialfall: Für die Verteilungsfunktion F 2 {\displaystyle F_{2}} der χ 2 {\displaystyle \chi ^{2}} -Verteilung mit n = 2 {\displaystyle n=2} Freiheitsgraden gilt für x > 0 {\displaystyle x>0}

F 2 ( x ) = 1 exp ( x 2 ) . {\displaystyle F_{2}(x)=1-\exp \left(-{\frac {x}{2}}\right).}

Reproduktivität

Ist X {\displaystyle X} die Summe der Quadrate von m {\displaystyle m} unabhängigen standardnormalverteilten Zufallsvariablen und Y {\displaystyle Y} die Summe der Quadrate von n {\displaystyle n} unabhängigen standardnormalverteilten Zufallsvariablen, so gilt

X χ m 2 {\displaystyle X\sim \chi _{m}^{2}} und Y χ n 2 {\displaystyle Y\sim \chi _{n}^{2}} .

Die Summe X + Y {\displaystyle X+Y} ist dann aber die Summe der Quadrate von m + n {\displaystyle m+n} unabhängigen standardnormalverteilten Zufallsvariablen, also gilt

X + Y χ m + n 2 {\displaystyle X+Y\sim \chi _{m+n}^{2}} .

Die Chi-Quadrat-Verteilung ist also reproduktiv.

Erwartungswert

Der Erwartungswert einer chi-quadrat-verteilten Zufallsvariable mit n {\displaystyle n} Freiheitsgraden ist

E ( χ n 2 ) = n {\displaystyle \operatorname {E} \left(\chi _{n}^{2}\right)=n} .

Varianz

Die Varianz einer chi-quadrat-verteilten Zufallsvariable mit n {\displaystyle n} Freiheitsgraden beträgt

Var ( χ n 2 ) = 2 n {\displaystyle \operatorname {Var} (\chi _{n}^{2})=2n} .

Modus

Eine Chi-Quadrat-Verteilung mit n 3 {\displaystyle n\geq 3} Freiheitsgraden hat den Modus n 2 {\displaystyle n-2} . Die Dichte der Chi-Quadrat-Verteilungen mit einem und zwei Freiheitsgraden nimmt das Supremum auf dem offenen Intervall ( 0 , ) {\displaystyle (0,\infty )} nicht an, die Dichten sind in diesen beiden Fällen aber monoton fallend. Man findet daher auch teils die Bezeichnung Modus 0 für die Chi-Quadrat-Verteilungen mit einem und zwei Freiheitsgraden.

Schiefe

Die Schiefe γ m {\displaystyle \gamma _{m}} der Chi-Quadrat-Verteilung mit n {\displaystyle n} Freiheitsgraden ist

γ m ( χ n 2 ) = 2 2 n {\displaystyle \gamma _{m}(\chi _{n}^{2})={\frac {2{\sqrt {2}}}{\sqrt {n}}}} .

Die Chi-Quadrat-Verteilung besitzt eine positive Schiefe, d. h., sie ist linkssteil- bzw. rechtsschief. Je höher die Anzahl der Freiheitsgrade n {\displaystyle n} , desto weniger schief ist die Verteilung.

Kurtosis

Die Kurtosis (Wölbung) β 2 {\displaystyle \beta _{2}} der Chi-Quadrat-Verteilung mit n {\displaystyle n} Freiheitsgraden ist gegeben durch

β 2 = 3 + 12 n {\displaystyle \beta _{2}=3+{\frac {12}{n}}} .

Der Exzess γ 2 {\displaystyle \gamma _{2}} gegenüber der Normalverteilung ergibt sich damit zu   γ 2 = 12 n {\displaystyle \gamma _{2}={\tfrac {12}{n}}} .[5] Daher gilt: Je höher die Anzahl der Freiheitsgrade n {\displaystyle n} , desto geringer der Exzess.

Momenterzeugende Funktion

Die momenterzeugende Funktion für X χ n 2 {\displaystyle X\sim \chi _{n}^{2}} hat die Form[6]

M X ( t ) = 1 ( 1 2 t ) n / 2 {\displaystyle M_{X}(t)={\frac {1}{(1-2t)^{n/2}}}} .

Charakteristische Funktion

Die charakteristische Funktion für X χ n 2 {\displaystyle X\sim \chi _{n}^{2}} ergibt sich aus der momenterzeugenden Funktion als:

φ X ( s ) = 1 ( 1 2 i s ) n / 2 {\displaystyle \varphi _{X}(s)={\frac {1}{(1-2is)^{n/2}}}} .

Entropie

Die Entropie der Chi-Quadrat-Verteilung (ausgedrückt in nats) beträgt

H ( X ) = ln ( 2 Γ ( n 2 ) ) + ( 1 n 2 ) ψ ( n 2 ) + n 2 , {\displaystyle H(X)=\ln \left(2\Gamma \left({\frac {n}{2}}\right)\right)+\left(1-{\frac {n}{2}}\right)\psi \left({\frac {n}{2}}\right)+{\frac {n}{2}},}

wobei ψ {\displaystyle \psi } die Digamma-Funktion bezeichnet.

Nichtzentrale Chi-Quadrat-Verteilung

Wenn die normalverteilten Zufallsvariablen nicht bezüglich ihres Erwartungswertes μ i ( i = 1 , , n ) {\displaystyle \mu _{i}(i=1,\ldots ,n)} zentriert sind (d. h., wenn nicht alle μ i = 0 {\displaystyle \mu _{i}=0} sind), erhält man die nichtzentrale Chi-Quadrat-Verteilung. Sie hat als zweiten Parameter neben n {\displaystyle n} den Nichtzentralitätsparameter λ > 0 {\displaystyle \lambda >0} .

Seien Z i N ( μ i , 1 ) , i = 1 , 2 , , n {\displaystyle Z_{i}\sim {\mathcal {N}}(\mu _{i},1),\,i=1,2,\ldots ,n} , so ist

i = 1 n Z i 2 χ 2 ( n , λ ) {\displaystyle \sum _{i=1}^{n}{Z_{i}}^{2}\sim \chi ^{2}(n,\lambda )} mit λ = i = 1 n μ i 2 {\displaystyle \lambda =\sum _{i=1}^{n}{\mu _{i}}^{2}} .

Insbesondere folgt aus X χ 2 ( n 1 ) {\displaystyle \,X\sim \chi ^{2}(n-1)} und Z N ( λ , 1 ) {\displaystyle Z\sim {\mathcal {N}}({\sqrt {\lambda }},1)} , dass X + Z 2 χ 2 ( n , λ ) {\displaystyle \,X+Z^{2}\sim \chi ^{2}(n,\lambda )} ist.

Eine zweite Möglichkeit, eine nichtzentrale Chi-Quadrat-Verteilung zu erzeugen, ist als Mischverteilung der zentralen Chi-Quadrat-Verteilung. Dabei ist

χ 2 ( n + 2 j ) = χ 2 ( n , λ ) {\displaystyle \chi ^{2}(n+2\,j)=\chi ^{2}(n,\lambda )} ,

wenn j P ( λ 2 ) {\displaystyle j\sim {\mathcal {P}}\left({\tfrac {\lambda }{2}}\right)} aus einer Poisson-Verteilung gezogen wird.

Dichtefunktion

Die Dichtefunktion der nichtzentralen Chi-Quadrat-Verteilung ist

f ( x ) = exp { 1 2 ( x + λ ) } 2 n 2 j = 0 x n 2 + j 1 λ j 2 2 j Γ ( n 2 + j ) j ! {\displaystyle f(x)={\frac {\exp \left\{-{\frac {1}{2}}(x+\lambda )\right\}}{2^{\frac {n}{2}}}}\,\sum _{j=0}^{\infty }{\frac {x^{{\frac {n}{2}}+j-1}\lambda ^{j}}{2^{2j}\,\Gamma \left({\frac {n}{2}}+j\right)\,j!}}} für x 0 {\displaystyle x\geq 0} , f ( x ) = 0 {\displaystyle \,f(x)=0} für x < 0 {\displaystyle \,x<0} .

Die Summe über j führt auf eine modifizierte Bessel-Funktion erster Gattung I q ( x ) {\displaystyle I_{q}(x)} . Damit erhält die Dichtefunktion folgende Form:

f ( x ) = exp { 1 2 ( x + λ ) } x 1 2 ( n 1 ) λ 2 ( λ x ) n 4 I n 2 1 ( λ x ) {\displaystyle f(x)={\frac {\exp \left\{-{\frac {1}{2}}(x+\lambda )\right\}x^{{\frac {1}{2}}(n-1)}{\sqrt {\lambda }}}{2(\lambda x)^{\frac {n}{4}}}}\,I_{{\frac {n}{2}}-1}\left({\sqrt {\lambda x}}\right)} für x 0 {\displaystyle x\geq 0} .

Erwartungswert und Varianz der nichtzentralen Chi-Quadrat-Verteilung n + λ {\displaystyle n+\lambda } und 2 n + 4 λ {\displaystyle 2n+4\lambda } gehen ebenso wie die Dichte selbst bei λ 0 {\displaystyle \lambda \to 0} in die entsprechenden Ausdrücke der zentralen Chi-Quadrat-Verteilung über.

Verteilungsfunktion

Die Verteilungsfunktion der nichtzentralen Chi-Quadrat-Verteilung kann mit Hilfe der Marcum-Q-Funktion Q M ( a , b ) {\displaystyle Q_{M}(a,b)} ausgedrückt werden:[7]

F ( x ) = 1 Q n 2 ( λ , x ) {\displaystyle F(x)=1-Q_{\frac {n}{2}}\left({\sqrt {\lambda }},{\sqrt {x}}\right)}

Beispiel

Gegeben sind n {\displaystyle n} Messungen einer Größe x {\displaystyle x} , die aus einer normalverteilten Grundgesamtheit stammen. Sei x ¯ {\displaystyle {\overline {x}}} der empirische Mittelwert der n {\displaystyle n} gemessenen Werte und

s 2 = 1 n 1 k = 1 n ( x k x ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n-1}}\sum _{k=1}^{n}(x_{k}-{\overline {x}})^{2}}

die korrigierte Stichprobenvarianz.

Dann lässt sich z. B. das Konfidenzintervall für die Varianz der Grundgesamtheit σ 2 {\displaystyle \sigma ^{2}} angeben:

n 1 χ b 2 s 2 σ 2 n 1 χ a 2 s 2 {\displaystyle {\tfrac {n-1}{\chi _{b}^{2}}}\,s^{2}\leq \sigma ^{2}\leq {\tfrac {n-1}{\chi _{a}^{2}}}\,s^{2}}

Die Grenzen ergeben sich daraus, dass ( n 1 ) s 2 σ 2 {\displaystyle {\tfrac {(n-1)s^{2}}{\sigma ^{2}}}} wie χ n 1 2 {\displaystyle \chi _{n-1}^{2}} verteilt ist.

Konkretes Beispiel: Stichprobe mit n = 100 {\displaystyle n=100} Werten, Varianz s 2 = 1 , 0 {\displaystyle s^{2}=1{,}0} , 95%-Konfidenzintervall:

95 % der Werte sollen sich innerhalb des Intervalls befinden. Es wird also davon ausgegangen, dass je 2,5 % der Werte die obere bzw. untere Intervallgrenze überschreiten dürfen. In diesem Fall wird daher χ b 2 {\displaystyle \chi _{b}^{2}} durch F n 1 ( χ b 2 ) = 0,975 {\displaystyle F_{n-1}(\chi _{b}^{2})=0{,}975} und χ a 2 {\displaystyle \chi _{a}^{2}} durch F n 1 ( χ a 2 ) = 0,025 {\displaystyle F_{n-1}(\chi _{a}^{2})=0{,}025} bestimmt.

Bei der Berechnung der Grenzen des Konfidenzintervalls in Programmen wird üblicherweise die Inverse Funktion verwendet (Kehrwert der kumulierten Chi-Quadrat-Verteilung): z. B. in Excel oder Numbers die Funktion CHIINV(p,n-1) :

Die obere Intervallgrenze ergibt sich mit s 2 = 1 , 0 {\displaystyle s^{2}=1{,}0} aus:

=CHIINV(0,025; 99) / 99 * s^2 = 1,2971

Die untere Intervallgrenze ergibt sich aus:

=CHIINV(0,975; 99) / 99 * s^2 = 0,7410

Herleitung der Verteilung der Stichprobenvarianz

Sei x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} eine Stichprobe von n {\displaystyle n} Messwerten, gezogen aus einer normalverteilten Zufallsvariablen X {\displaystyle X} mit empirischen Mittelwert x ¯ = 1 n i = 1 n x i {\displaystyle {\overline {x}}={\tfrac {1}{n}}\sum _{i=1}^{n}x_{i}} und Stichprobenvarianz s 2 = 1 n 1 i = 1 n ( x i x ¯ ) 2 {\displaystyle s^{2}={\tfrac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}} als Schätzfunktionen für Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} der Grundgesamtheit.

Dann lässt sich zeigen, dass ( n 1 ) s 2 σ 2 = i = 1 n ( x i x ¯ ) 2 σ 2 {\displaystyle {\tfrac {(n-1)s^{2}}{\sigma ^{2}}}=\sum _{i=1}^{n}{\tfrac {(x_{i}-{\overline {x}})^{2}}{\sigma ^{2}}}} verteilt ist wie χ n 1 2 {\displaystyle \chi _{n-1}^{2}} .

Dazu werden nach Helmert[8] die ( x i ) {\displaystyle (x_{i})} mittels einer orthonormalen Linearkombination in neue Variablen ( y j ) {\displaystyle (y_{j})} transformiert. Die Transformation lautet:

y 1 = 1 2 x 1 1 2 x 2 {\displaystyle y_{1}={\tfrac {1}{\sqrt {2}}}x_{1}-{\tfrac {1}{\sqrt {2}}}x_{2}}
y 2 = 1 6 x 1 + 1 6 x 2 2 6 x 3 {\displaystyle y_{2}={\tfrac {1}{\sqrt {6}}}x_{1}+{\tfrac {1}{\sqrt {6}}}x_{2}-{\tfrac {2}{\sqrt {6}}}x_{3}}
    {\displaystyle \vdots }
y n 1 = 1 n ( n 1 ) x 1 + 1 n ( n 1 ) x 2 + + 1 n ( n 1 ) x n 1 n 1 n ( n 1 ) x n {\displaystyle y_{n-1}={\tfrac {1}{\sqrt {n(n-1)}}}x_{1}+{\tfrac {1}{\sqrt {n(n-1)}}}x_{2}+\dotsb +{\tfrac {1}{\sqrt {n(n-1)}}}x_{n-1}-{\tfrac {n-1}{\sqrt {n(n-1)}}}x_{n}}
y n = 1 n x 1 + 1 n x 2 + + 1 n x n 1 + 1 n x n = n x ¯ . {\displaystyle y_{n}={\tfrac {1}{\sqrt {n}}}x_{1}+{\tfrac {1}{\sqrt {n}}}x_{2}+\dotsb +{\tfrac {1}{\sqrt {n}}}x_{n-1}+{\tfrac {1}{\sqrt {n}}}x_{n}={\sqrt {n}}\,{\overline {x}}.}

Die neuen unabhängigen Variablen y i {\displaystyle y_{i}} sind wie X {\displaystyle X} normalverteilt mit gleicher Varianz σ y i 2 = σ x i 2 = σ 2 , ( i = 1 , , n ) {\displaystyle \sigma _{y_{i}}^{2}=\sigma _{x_{i}}^{2}=\sigma ^{2},(i=1,\dots ,n)} , aber mit Erwartungswert E ( y i ) = 0 , ( i = 1 , , n 1 ) , {\displaystyle \mathrm {E} (y_{i})=0,(i=1,\dots ,n-1),} beides aufgrund der Faltungsinvarianz der Normalverteilung.

Außerdem gilt für die Koeffizienten a i j {\displaystyle a_{ij}} in y i = j = 1 n a i j x j {\displaystyle y_{i}=\sum _{j=1}^{n}a_{ij}x_{j}} (falls j > i + 1 {\displaystyle j>i+1} , ist a i j = 0 {\displaystyle a_{ij}=0} ) wegen der Orthonormalität i = 1 n a i j a i k = δ j k {\displaystyle \sum _{i=1}^{n}a_{ij}a_{ik}=\delta _{jk}} (Kronecker-Delta) und damit

i = 1 n y i 2 = i = 1 n j = 1 n a i j x j k = 1 n a i k x k = j = 1 n k = 1 n δ j k x j x k = j = 1 n x j 2 . {\displaystyle \sum _{i=1}^{n}y_{i}^{2}=\sum _{i=1}^{n}\sum _{j=1}^{n}a_{ij}x_{j}\sum _{k=1}^{n}a_{ik}x_{k}=\sum _{j=1}^{n}\sum _{k=1}^{n}\delta _{jk}x_{j}x_{k}=\sum _{j=1}^{n}x_{j}^{2}.}

Deshalb ergibt sich nun für die Summe der Abweichungsquadrate

( n 1 ) s 2 = i = 1 n ( x i x ¯ ) 2 = i = 1 n x i 2 n x ¯ 2 = i = 1 n y i 2 y n 2 = i = 1 n 1 y i 2 {\displaystyle (n-1)s^{2}=\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}=\sum _{i=1}^{n}x_{i}^{2}-n{\overline {x}}^{2}=\sum _{i=1}^{n}y_{i}^{2}-y_{n}^{2}=\sum _{i=1}^{n-1}y_{i}^{2}}

und schlussendlich nach Division durch σ 2 {\displaystyle \sigma ^{2}}

( n 1 ) s 2 σ 2 = i = 1 n 1 y i 2 σ 2 . {\displaystyle (n-1){\frac {s^{2}}{\sigma ^{2}}}=\sum _{i=1}^{n-1}{\frac {y_{i}^{2}}{\sigma ^{2}}}.}

Der Ausdruck auf der linken Seite ist offenbar verteilt wie eine Summe von quadrierten standardnormalverteilten unabhängigen Variablen mit n 1 {\displaystyle n-1} Summanden, wie für χ n 1 2 {\displaystyle \chi _{n-1}^{2}} gefordert.

Demnach ist also die Summe Chi-Quadrat-verteilt mit n 1 {\displaystyle n-1} Freiheitsgraden i = 1 n ( x i x ¯ σ ) 2 χ n 1 2 {\displaystyle \sum _{i=1}^{n}\left({\tfrac {x_{i}-{\overline {x}}}{\sigma }}\right)^{2}\sim \chi _{n-1}^{2}} , während laut Definition der Chi-Quadrat-Summe i = 1 n ( x i μ σ ) 2 χ n 2 {\displaystyle \sum _{i=1}^{n}\left({\tfrac {x_{i}-\mu }{\sigma }}\right)^{2}\sim \chi _{n}^{2}} . Ein Freiheitsgrad wird hier „verbraucht“, denn aufgrund der Schwerpunkteigenschaft des empirischen Mittels i = 1 n ( x i x ¯ ) = 0 {\displaystyle \sum \nolimits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)=0} ist die letzte Abweichung ( x n x ¯ ) {\displaystyle \left(x_{n}-{\overline {x}}\right)} bereits durch die ersten ( n 1 ) {\displaystyle (n-1)} bestimmt. Folglich variieren nur ( n 1 ) {\displaystyle (n-1)} Abweichungen frei und man mittelt die empirische Varianz deshalb, indem man durch die Anzahl der Freiheitsgrade ( n 1 ) {\displaystyle (n-1)} dividiert.

Beziehung zu anderen Verteilungen

Beziehung zur Gammaverteilung

Die Chi-Quadrat-Verteilung ist ein Spezialfall der Gammaverteilung. Ist X χ n 2 {\displaystyle X\sim \chi _{n}^{2}} , so gilt

X G ( n 2 , 1 2 ) . {\displaystyle X\sim {\mathcal {G}}({\tfrac {n}{2}},{\tfrac {1}{2}}).}

Beziehung zur Normalverteilung

Quantile einer Normalverteilung und einer Chi-Quadrat-Verteilung
Q = Z 1 2 + + Z n 2 χ 2 ( n ) {\displaystyle Q=Z_{1}^{2}+\dotsb +Z_{n}^{2}\;\sim \;\chi ^{2}(n)} .
  • Für n 30 {\displaystyle n\geq 30} ist Y = 2 X 2 n 1 {\displaystyle Y={\sqrt {2X}}-{\sqrt {2n-1}}} näherungsweise standardnormalverteilt.
  • Für n > 100 {\displaystyle n>100} ist die Zufallsvariable X n {\displaystyle X_{n}} näherungsweise normalverteilt, mit Erwartungswert n {\displaystyle n} und Standardabweichung 2 n {\displaystyle {\sqrt {2n}}} bzw. bei einer nichtzentralen Chi-Quadrat-Verteilung mit Erwartungswert n + λ {\displaystyle n+\lambda } und Standardabweichung 2 n + 4 λ {\displaystyle {\sqrt {2n+4\lambda }}} .

Beziehung zur Exponentialverteilung

Eine Chi-Quadrat-Verteilung mit 2 Freiheitsgraden ist eine Exponentialverteilung Exp ( λ ) {\displaystyle \operatorname {Exp} (\lambda )} mit dem Parameter λ = 1 / 2 {\displaystyle \,\lambda =1/2} .

Beziehung zur Erlang-Verteilung

Eine Chi-Quadrat-Verteilung mit 2 n {\displaystyle 2n} Freiheitsgraden ist identisch mit einer Erlang-Verteilung Erl ( λ , n ) {\displaystyle \operatorname {Erl} (\lambda ,n)} mit n {\displaystyle n} Freiheitsgraden und λ = 1 / 2 {\displaystyle \,\lambda =1/2} .

Beziehung zur F-Verteilung

Seien X 1 {\displaystyle X_{1}} und X 2 {\displaystyle X_{2}} unabhängige Chi-Quadrat-verteilte Zufallsvariablen mit r 1 {\displaystyle r_{1}} bzw. r 2 {\displaystyle r_{2}} Freiheitsgraden, dann ist der Quotient

X 1 / r 1 X 2 / r 2 {\displaystyle {\frac {X_{1}/r_{1}}{X_{2}/r_{2}}}}

F-verteilt mit r 1 {\displaystyle r_{1}} Zählerfreiheitsgraden und r 2 {\displaystyle r_{2}} Nennerfreiheitsgraden.[9]

Beziehung zur Poisson-Verteilung

Die Verteilungsfunktionen der Poisson-Verteilung und der Chi-Quadrat-Verteilung hängen auf folgende Weise zusammen:

Die Wahrscheinlichkeit, n {\displaystyle n} oder mehr Ereignisse in einem Intervall zu finden, innerhalb dessen man im Mittel λ {\displaystyle \lambda } Ereignisse erwartet, gleicht der Wahrscheinlichkeit, dass der Wert von χ 2 n 2 2 λ {\displaystyle \chi _{2n}^{2}\leq 2\lambda } ist. Es gilt nämlich

1 Q ( n , λ ) = P ( n , λ ) {\displaystyle 1-Q(n,\lambda )=P(n,\lambda )} ,

mit P {\displaystyle P} und Q {\displaystyle Q} als regularisierte Gammafunktionen.

Beziehung zur stetigen Gleichverteilung

Ist U {\displaystyle U} gleichverteilt auf dem Intervall [ 0 , 1 ] {\displaystyle [0,1]} , dann gilt X = 2 ln ( U ) χ 2 ( 2 ) {\displaystyle X=-2\ln(U)\sim \chi ^{2}(2)} , denn

P ( X x ) = P ( U exp ( x / 2 ) ) = 1 exp ( x / 2 ) = F 2 ( x ) , x > 0. {\displaystyle P(X\leq x)=P(U\geq \operatorname {exp} (-x/2))=1-\operatorname {exp} (-x/2)=F_{2}(x),\qquad x>0.}

Sind U 1 , , U m {\displaystyle U_{1},\ldots ,U_{m}} unabhängig und identisch verteilte Zufallsvariablen mit U k U ( 0 , 1 ) {\displaystyle U_{k}\sim {\mathcal {U}}(0,1)} , dann gilt somit

2 k = 1 m ln ( U k ) χ 2 ( 2 m ) . {\displaystyle -2\sum _{k=1}^{m}\ln(U_{k})\sim \chi ^{2}(2m).}

Herleitung der Dichtefunktion

Die Dichte der Zufallsvariable X = Z 1 2 + + Z n 2 {\displaystyle X=Z_{1}^{2}+\dotsb +Z_{n}^{2}} , mit Z 1 , , Z n {\displaystyle Z_{1},\dots ,Z_{n}} unabhängig und standardnormalverteilt, ergibt sich aus der gemeinsamen Dichte der Zufallsvariablen Z 1 , , Z n {\displaystyle Z_{1},\dots ,Z_{n}} . Diese gemeinsame Dichte ist das n {\displaystyle n} -fache Produkt der Standardnormalverteilungsdichte:

f Z 1 , , Z n ( z 1 , , z n ) = i = 1 n e 1 2 z i 2 2 π = ( 2 π ) n 2 e 1 2 ( z 1 2 + + z n 2 ) . {\displaystyle f_{Z_{1},\dots ,Z_{n}}(z_{1},\dots ,z_{n})=\prod _{i=1}^{n}{\frac {e^{-{\frac {1}{2}}z_{i}^{2}}}{\sqrt {2\pi }}}=(2\pi )^{-{\frac {n}{2}}}e^{-{\frac {1}{2}}(z_{1}^{2}+\dotsb +z_{n}^{2})}.}

Für die gesuchte Dichte gilt:

f n ( x ) = lim h 0 1 h P ( x < X x + h ) = lim h 0 1 h K ( 2 π ) n 2 e 1 2 ( z 1 2 + + z n 2 ) d z 1 d z n = ( 2 π ) n 2 e x 2 lim h 0 1 h K d z 1 d z n {\displaystyle {\begin{aligned}f_{n}(x)&=\lim _{h\to 0}{\frac {1}{h}}P(x<X\leq x+h)\\&=\lim _{h\to 0}{\frac {1}{h}}\int \limits _{K}(2\pi )^{-{\frac {n}{2}}}e^{-{\frac {1}{2}}(z_{1}^{2}+\dotsb +z_{n}^{2})}\,dz_{1}\ldots dz_{n}\\&=(2\pi )^{-{\tfrac {n}{2}}}e^{-{\frac {x}{2}}}\lim _{h\to 0}{\frac {1}{h}}\int \limits _{K}dz_{1}\ldots dz_{n}\\\end{aligned}}}

mit K = { x z 1 2 + + z n 2 x + h } . {\displaystyle K=\{x\leq z_{1}^{2}+\dotsb +z_{n}^{2}\leq x+h\}.}

Im Grenzwert ist die Summe im Argument der Exponentialfunktion gleich x {\displaystyle x} . Man kann zeigen, dass man den Integranden als ( 2 π ) n 2 e x 2 {\displaystyle (2\pi )^{-{\tfrac {n}{2}}}e^{-{\frac {x}{2}}}} vor das Integral und den Limes ziehen kann.

Das verbleibende Integral

K d z 1 d z n = V n ( x + h ) V n ( x ) {\displaystyle \int \limits _{K}dz_{1}\ldots dz_{n}=V_{n}({\sqrt {x+h}})-V_{n}({\sqrt {x}})}

entspricht dem Volumen der Schale zwischen der Kugel mit Radius x + h {\displaystyle {\sqrt {x+h}}} und der Kugel mit Radius x {\displaystyle {\sqrt {x}}} ,

wobei V n ( R ) = π n 2 R n Γ ( n 2 + 1 ) {\displaystyle V_{n}(R)={\frac {\pi ^{\frac {n}{2}}R^{n}}{\Gamma ({\frac {n}{2}}+1)}}} das Volumen der n-dimensionalen Kugel mit Radius R angibt.

Es folgt: lim h 0 1 h K d z 1 d z n = d V n ( x ) d x = π n 2 x n 2 1 Γ ( n 2 ) {\displaystyle \lim _{h\to 0}{\frac {1}{h}}\int \limits _{K}dz_{1}\ldots dz_{n}={\frac {d\,V_{n}({\sqrt {x}})}{d\,x}}={\frac {\pi ^{\tfrac {n}{2}}x^{{\tfrac {n}{2}}-1}}{\Gamma ({\tfrac {n}{2}})}}}

und nach Einsetzen in den Ausdruck für die gesuchte Dichte: f n ( x ) = 1 2 n 2 Γ ( n 2 ) x n 2 1 exp ( x 2 ) , x > 0 {\displaystyle f_{n}(x)={\frac {1}{2^{\frac {n}{2}}\Gamma ({\tfrac {n}{2}})}}x^{{\frac {n}{2}}-1}\exp \left(-{\frac {x}{2}}\right)\quad ,x>0} .

Quantilfunktion

Die Quantilfunktion x p {\displaystyle x_{p}} der Chi-Quadrat-Verteilung ist die Lösung der Gleichung p = P ( n 2 , x p 2 ) {\displaystyle p=P({\tfrac {n}{2}},{\tfrac {x_{p}}{2}})} und damit prinzipiell über die Umkehrfunktion zu berechnen. Konkret gilt hier

x p = 2 P 1 ( n 2 , p ) , {\displaystyle x_{p}=2P^{-1}\left({\tfrac {n}{2}},p\right),}

mit P 1 {\displaystyle P^{-1}} als Inverse der regularisierten unvollständigen Gammafunktion. Dieser Wert x p {\displaystyle x_{p}} ist in der Quantiltabelle unter den Koordinaten p {\displaystyle p} und n {\displaystyle n} eingetragen.

Quantilfunktion für kleinen Stichprobenumfang

Für wenige Werte n {\displaystyle n} (1, 2, 4) kann man die Quantilfunktion auch alternativ angeben:

n = 1 : x p = 2 ( Erf 1 ( p ) ) 2 , {\displaystyle n=1:x_{p}=2(\operatorname {Erf} ^{-1}(p))^{2},}
n = 2 : x p = 2 ln ( 1 p ) , {\displaystyle n=2:x_{p}=-2\,\ln(1-p),}
n = 4 : x p = 2 ( 1 + W 1 ( ( 1 p ) / e ) ) , {\displaystyle n=4:x_{p}=-2\,(1+W_{-1}(-(1-p)/e)),}

wobei Erf {\displaystyle \operatorname {Erf} } die Fehlerfunktion, W 1 ( x ) {\displaystyle W_{-1}(x)\,} den unteren Zweig der Lambertschen W-Funktion bezeichnet und e {\displaystyle e} die Eulersche Zahl.

Näherung der Quantilfunktion für feste Wahrscheinlichkeiten

Für bestimmte feste Wahrscheinlichkeiten p {\displaystyle p} lassen sich die zugehörigen Quantile x p {\displaystyle x_{p}} durch die einfache Funktion des Stichprobenumfangs n {\displaystyle n}

x p n + a n + sgn ( a ) n + b + c / n {\displaystyle x_{p}\approx n+a{\sqrt {n+\operatorname {sgn}(a){\sqrt {n}}}}+b+c/n}

mit den Parametern a , b , c {\displaystyle a,b,c} aus der Tabelle annähern, wobei sgn ( a ) {\displaystyle \operatorname {sgn}(a)} die Signum-Funktion bezeichnet, die einfach das Vorzeichen ihres Arguments darstellt:

p {\displaystyle p} 0,005 0,01 0,025 0,05 0,1 0,5 0,9 0,95 0,975 0,99 0,995
a {\displaystyle a} −3,643 −3,298 −2,787 −2,34 −1,83 0 1,82 2,34 2,78 3,29 3,63
b {\displaystyle b} 1,8947 1,327 0,6 0,082 −0,348 −0,67 −0,58 −0,15 0,43 1,3 2
c {\displaystyle c} −2,14 −1,46 −0,69 −0,24 0 0,104 −0,34 −0,4 −0,4 −0,3 0

Der Vergleich mit einer χ 2 {\displaystyle \chi ^{2}} -Tabelle zeigt ab n > 3 {\displaystyle n>3} einen relativen Fehler unter 0,4 %, ab n > 10 {\displaystyle n>10} unter 0,1 %. Da die χ 2 {\displaystyle \chi ^{2}} -Verteilung für große n {\displaystyle n} in eine Normalverteilung mit Standardabweichung 2 n {\displaystyle {\sqrt {2n}}} übergeht, besitzt der Parameter a {\displaystyle a} aus der Tabelle, der hier frei angepasst wurde, bei der entsprechenden Wahrscheinlichkeit p {\displaystyle p} etwa die Größe des 2 {\displaystyle {\sqrt {2}}} -fachen des Quantils der Normalverteilung ( 2 Erf 1 ( 2 p 1 ) {\displaystyle {\sqrt {2}}\,\operatorname {Erf} ^{-1}(2p-1)} ), wobei Erf 1 {\displaystyle \operatorname {Erf} ^{-1}} die Umkehrfunktion der Fehlerfunktion bedeutet.

Das 95 %-Konfidenzintervall für die Varianz der Grundgesamtheit aus dem Abschnitt Beispiel kann z. B. mit den beiden Funktionen x p {\displaystyle x_{p}} aus den Zeilen mit p = 0,025 χ a 2 {\displaystyle p=0{,}025\to \chi _{a}^{2}} und p = 0,975 χ b 2 {\displaystyle p=0{,}975\to \chi _{b}^{2}} auf einfache Weise als Funktion von n {\displaystyle n} grafisch dargestellt werden.

Der Median befindet sich in der Spalte der Tabelle mit p = 0 , 5 {\displaystyle p=0{,}5} .

Literatur

  • Joachim Hartung, Bärbel Elpelt, Karl-Heinz Klösener: Statistik. 12. Auflage. Oldenbourg, 1999, ISBN 3-486-24984-3, S. 152 ff. 
Wikibooks: Tabelle der χ2-Verteilung (Quantiltabelle) – Lern- und Lehrmaterialien

Einzelnachweise

  1. R. Barlow: Statistics Wiley, 1989, S. 152 (Goodness of Fit).
  2. Kendall, Stuart: The Advanced Theory Of Statistics Vol. 2 Third Edition, London, 1973, S. 436 (Goodness of Fit).
  3. F. R. Helmert. In: Zeitschrift fuer Math. und Physik 21, 1876, S. 192–219. Karl Pearson: On the Criterion that a Given System of Deviations from the Probable in the Case of a Correlated System of Variables is such that it Can Reasonably Be Supposed to have Arisen from Random Sampling. In: Philosophical Magazine 5, Band 50, 1900, S. 157–175. Zitiert nach L. Schmetterer: Mathematische Statistik. Springer, Wien 1966, S. 93
  4. a b Ilja Nikolajewitsch Bronstein, Konstantin Adolfowitsch Semendjajew: Taschenbuch der Mathematik. 5. Auflage. Verlag Harri Deutsch, 2000, ISBN 3-8171-2005-2, S. 782. 
  5. Wolfram Mathworld
  6. A. C. Davison: Statistical Models, Cambridge University Press 2008, ISBN 1-4672-0331-9, Kapitel 3.2
  7. Albert H. Nuttall: Some Integrals Involving the QM Function. In: IEEE Transactions on Information Theory. Nr. 21, 1975, S. 95–96, doi:10.1109/TIT.1975.1055327.
  8. Helmert. In: Astronomische Nachrichten, 88, 1876, S. 113–132
  9. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore 1988, ISBN 0-471-62414-4, S. 51.
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart