Wilcoxon-Vorzeichen-Rang-Test

Der Wilcoxon-Vorzeichen-Rang-Test ist ein nichtparametrischer statistischer Test. Er prüft anhand zweier gepaarter Stichproben die Gleichheit der zentralen Tendenzen der zugrundeliegenden (verbundenen) Grundgesamtheiten. Im Anwendungsbereich ergänzt er den Vorzeichentest, da er nicht nur die Richtung (d. h. das Vorzeichen) der Differenzen, sondern auch die Höhe der Differenzen zwischen zwei gepaarten Stichproben berücksichtigt.[1]

Der Wilcoxon-Vorzeichen-Rang-Test wurde von dem Chemiker und Statistiker Frank Wilcoxon (1892–1965)[2] im Jahr 1945 vorgeschlagen und durch Sidney Siegels Lehrbuch Nonparametric Statistics for the Behavioural Sciences populär.

Hypothesen und Voraussetzungen

Für den Test bzgl. der beiden Mediane x ~ 1 {\displaystyle {\tilde {x}}_{1}} und x ~ 2 {\displaystyle {\tilde {x}}_{2}} gibt es drei mögliche Hypothesenpaare:

  1. zweiseitig: H 0 : x ~ 1 = x ~ 2 {\displaystyle H_{0}:{\tilde {x}}_{1}={\tilde {x}}_{2}} vs. H 1 : x ~ 1 x ~ 2 {\displaystyle H_{1}:{\tilde {x}}_{1}\neq {\tilde {x}}_{2}} .
  2. einseitige: H 0 : x ~ 1 x ~ 2 {\displaystyle H_{0}:{\tilde {x}}_{1}\leq {\tilde {x}}_{2}} vs. H 1 : x ~ 1 > x ~ 2 {\displaystyle H_{1}:{\tilde {x}}_{1}>{\tilde {x}}_{2}} bzw. H 0 : x ~ 1 x ~ 2 {\displaystyle H_{0}:{\tilde {x}}_{1}\geq {\tilde {x}}_{2}} vs. H 1 : x ~ 1 < x ~ 2 {\displaystyle H_{1}:{\tilde {x}}_{1}<{\tilde {x}}_{2}} .

Eine Voraussetzung ist, dass die Stichprobenvariablen D i {\displaystyle D_{i}}

D i = X i , 1 X i , 2 {\displaystyle D_{i}=X_{i,1}-X_{i,2}}

unabhängig, identisch verteilt, stetig und symmetrisch sind. Die letzte Voraussetzung wird jedoch oft vernachlässigt. Wenn die Verteilung stetig ist, treten keine Bindungen auf. In der Praxis ist das häufig nicht der Fall. Es müssen Korrekturen durchgeführt werden und es ist nicht mehr möglich die Verteilung der Prüfgröße exakt zu bestimmen.[3]

Teststatistik

Zunächst wird für die Teststatistik der Rang R i {\displaystyle R_{i}} der absoluten Differenzen berechnet:

R i = rang ( | D i | ) {\displaystyle R_{i}={\text{rang}}(|D_{i}|)}

Die Teststatistik W {\displaystyle W} berechnet sich als das Minimum der negativen und der positiven Rangsummen:

W + = i = 1 n I ( x i , 1 x i , 2 > 0 ) R i W = i = 1 n I ( x i , 1 x i , 2 < 0 ) R i W = min ( W + , W ) {\displaystyle {\begin{aligned}W_{+}&=\sum _{i=1}^{n}I(x_{i,1}-x_{i,2}>0)R_{i}\\W_{-}&=\sum _{i=1}^{n}I(x_{i,1}-x_{i,2}<0)R_{i}\\W=&\min(W_{+},W_{-})\end{aligned}}}

Dabei bezeichnet I {\displaystyle I} die Indikatorfunktion.

Im Fall, dass eine oder mehrere Differenzen x i , 1 x i , 2 = 0 {\displaystyle x_{i,1}-x_{i,2}=0} sind, gibt es zwei Möglichkeiten:

  1. Die zugehörigen Rangwerte werden zur Hälfte W + {\displaystyle W_{+}} und zur Hälfte W {\displaystyle W_{-}} zugeordnet.[4]
  2. Die Beobachtungen fließen nicht in den Test ein, d. h., n {\displaystyle n} muss korrigiert werden. Eine größere Anzahl von gleichen Beobachtungswerten deutet allerdings auf die Gültigkeit der Nullhypothese hin.

Unter Annahme der Nullhypothese ist die Teststatistik approximativ normalverteilt, als Faustregel ist die Approximation durch die Normalverteilung für n > 20 {\displaystyle n>20} nützlich:

W 1 4 n ( n + 1 ) n ( n + 1 ) ( 2 n + 1 ) 24 N ( 0 ; 1 ) {\displaystyle {\frac {W-{\tfrac {1}{4}}n(n+1)}{\sqrt {\tfrac {n(n+1)(2n+1)}{24}}}}\approx N(0;1)} .

Außerdem sollte für n 60 {\displaystyle n\leq 60} noch eine Stetigkeitskorrektur durchgeführt werden

| W 1 4 n ( n + 1 ) | 0 , 5 n ( n + 1 ) ( 2 n + 1 ) 24 N ( 0 ; 1 ) {\displaystyle {\frac {|W-{\tfrac {1}{4}}n(n+1)|-0{,}5}{\sqrt {\tfrac {n(n+1)(2n+1)}{24}}}}\approx N(0;1)} .

Für Werte kleiner gleich 50 liegen die kritischen Werte auch tabelliert vor.[5]

Kritische Werte für W {\displaystyle W} , die unterschritten werden müssen um die Nullhypothese abzulehnen
α {\displaystyle \alpha } n
zweiseitig einseitig 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50
0,1000 0,0500 0 2 3 5 8 10 13 17 21 25 30 35 41 47 53 60 100 151 213 286 371 466
0,0500 0,0250 0 2 3 5 8 10 13 17 21 25 29 34 40 46 52 89 137 195 264 343 434
0,0200 0,0100 0 1 3 5 7 9 12 15 19 23 27 32 37 43 76 120 173 238 312 397
0,0100 0,0050 0 1 3 5 7 9 12 15 19 23 27 32 37 68 109 159 220 291 373
0,0050 0,0025 0 1 3 5 7 9 12 15 19 23 27 32 60 98 146 204 272 350
0,0010 0,0005 0 1 2 4 6 8 11 14 18 21 45 78 120 172 233 304

Bindungen bei den Rängen

Im Fall, dass Bindungen bei den Rängen der | D i | {\displaystyle |D_{i}|} auftreten (d. h., mehrere absolute Differenzen den gleichen Rang bekommen), werden jeder Differenz die Mittelwerte der entsprechenden Ränge zugeordnet (siehe Beispiel unten).

Sei { R 1 , , R k } {\displaystyle \{R_{1},\dots ,R_{k}\}} die Menge aller auftretenden Ränge, mit R j 1 R j 2 {\displaystyle R_{j_{1}}\neq R_{j_{2}}} für j 1 j 2 {\displaystyle j_{1}\neq j_{2}} . Bezeichnet t j {\displaystyle t_{j}} die Anzahl der Beobachtungen mit dem Rang R j {\displaystyle R_{j}} , so gilt

Var ( W ) = n ( n + 1 ) ( 2 n + 1 ) 24 j = 1 k t j 3 t j 48 {\displaystyle \operatorname {Var} (W)={\tfrac {n(n+1)(2n+1)}{24}}-\sum _{j=1}^{k}{\tfrac {t_{j}^{3}-t_{j}}{48}}}

und für die Approximation

W 1 4 n ( n + 1 ) n ( n + 1 ) ( 2 n + 1 ) 24 j = 1 k t j 3 t j 48 N ( 0 ; 1 ) . {\displaystyle {\frac {W-{\tfrac {1}{4}}n(n+1)}{\sqrt {{\tfrac {n(n+1)(2n+1)}{24}}-\sum _{j=1}^{k}{\tfrac {t_{j}^{3}-t_{j}}{48}}}}}\approx N(0;1).}

Lässt man den Korrekturfaktor weg, so ist der Test zu konservativ, d. h., er entscheidet zu oft für die Nullhypothese.

Beispiel

Ein Beispiel für dessen Anwendung: Ein statistisch versierter Bauer möchte feststellen, ob Rinder Heu oder Stroh vorziehen. Er teilt eine Fläche in zwei Bereiche ein, zwischen denen die Tiere frei hin und her wechseln können. Im einen Bereich bietet er den fünf Rindern Stroh resp. im anderen Heu an. Jede halbe Stunde notiert er, wie viele Tiere sich in welchem Bereich aufhalten, und erhält n = 6 Paare von Stichproben.

Das Ergebnis seiner Beobachtungen ist eine Tabelle incl. Differenzen aus den Werten:

Tiere beim Heu Tiere beim Stroh Differenz
4 1 +3
3 2 +1
2 3 −1
5 0 +5
5 0 +5
3 2 +1
Beitrag zu
Differenz Rang W + {\displaystyle W^{+}} W {\displaystyle W^{-}}
+1 2 2
+1 2 2
−1 2 2
+3 4 4
+5 5,5 5,5
+5 5,5 5,5
19 2

Rang: Die drei 1er Werte müssten die Ränge 1 bis 3 belegen, da sie aber gleichwertig sind, wird der Mittelwert ihrer Ränge eingetragen, also (1+2+3)/3=2. Bei den 5er Werten ebenso: (5+6)/2=5,5.

Dann werden die Differenzen nach der Größe geordnet (das Vorzeichen wird dabei nicht berücksichtigt); und jeder Differenz wird ein Rang zugeordnet – die größte Differenz erhält den höchsten Rang. Sind mehrere Differenzen gleichrangig, wird jedem Wert der durchschnittliche Rang zugeordnet.

Die Rangsumme der positiven Differenzen beträgt w + = 19 {\displaystyle w^{+}=19} und die Rangsumme der negativen Differenzen beträgt w = 2 {\displaystyle w^{-}=2} , also

w = min ( w + , w ) = 2 {\displaystyle w=\min(w^{+},w^{-})=2} .

Zweiseitiger Test

Beim zweiseitigen Test mit

H 0 : x ~ H = x ~ S {\displaystyle H_{0}:{\tilde {x}}_{H}={\tilde {x}}_{S}} (Rinder mögen Heu und Stroh gleich) vs.
H 1 : x ~ H x ~ S {\displaystyle H_{1}:{\tilde {x}}_{H}\neq {\tilde {x}}_{S}} (Rinder bevorzugen eine Sorte)

kann die Nullhypothese zum Signifikanzniveau α = 10 % {\displaystyle \alpha =10\,\%} bzw. α = 5 % {\displaystyle \alpha =5\,\%} nicht abgelehnt werden. Denn

  • aus der Tabelle oben ergibt sich für α = 10 % {\displaystyle \alpha =10\,\%} und n = 6 {\displaystyle n=6} ein kritischer Wert von 2 {\displaystyle 2} . Da der Prüfwert w = 2 {\displaystyle w=2} nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
  • aus der Tabelle oben ergibt sich für α = 5 % {\displaystyle \alpha =5\,\%} und n = 6 {\displaystyle n=6} ein kritischer Wert von 0 {\displaystyle 0} . Da der Prüfwert w = 2 {\displaystyle w=2} nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.

Einseitige Tests

Auch bei den einseitigen Tests mit

Nullhypothese H 0 {\displaystyle H_{0}} Alternativhypothese H 1 {\displaystyle H_{1}}
Linksseitig x ~ H x ~ S {\displaystyle {\tilde {x}}_{H}\geq {\tilde {x}}_{S}} (Rinder mögen Heu mehr oder beide Sorten gleich) x ~ H < x ~ S {\displaystyle {\tilde {x}}_{H}<{\tilde {x}}_{S}} (Rinder mögen Stroh mehr)
Rechtsseitig x ~ H x ~ S {\displaystyle {\tilde {x}}_{H}\leq {\tilde {x}}_{S}} (Rinder mögen Stroh mehr oder beide Sorten gleich) x ~ H > x ~ S {\displaystyle {\tilde {x}}_{H}>{\tilde {x}}_{S}} (Rinder mögen Heu mehr)

können die Nullhypothesen nicht abgelehnt werden. Denn

  • aus der Tabelle oben ergibt sich für α = 5 % {\displaystyle \alpha =5\,\%} und n = 6 {\displaystyle n=6} ein kritischer Wert von 2 {\displaystyle 2} . Da der Prüfwert w = 2 {\displaystyle w=2} nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
  • aus der Tabelle oben ergibt sich für α = 2 , 5 % {\displaystyle \alpha =2{,}5\,\%} und n = 6 {\displaystyle n=6} ein kritischer Wert von 0 {\displaystyle 0} . Da der Prüfwert w = 2 {\displaystyle w=2} nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.

Approximation mit der Normalverteilung beim zweiseitigen Test

Berechnet man – als Näherung – daraus den normalverteilten z-Wert:

z = w + n ( n + 1 ) 4 n ( n + 1 ) ( 2 n + 1 ) 24 = 19 6 7 4 6 7 13 24 = + 8 , 5 22 , 75 = + 1,782 1 {\displaystyle z={\frac {w^{+}-{\frac {n(n+1)}{4}}}{\sqrt {\frac {n(n+1)(2n+1)}{24}}}}={\frac {19-{\tfrac {6\cdot 7}{4}}}{\sqrt {\tfrac {6\cdot 7\cdot 13}{24}}}}={\tfrac {+8{,}5}{\sqrt {22{,}75}}}=+1{,}7821}

Aus der Standardnormalverteilungstabelle ergeben sich für den zweiseitigen Test

  • für α = 5 % {\displaystyle \alpha =5\,\%} kritische Werte von ± 1 , 96 {\displaystyle \pm 1{,}96} . Da der Prüfwert z = 1,782 1 {\displaystyle z=1{,}7821} im Intervall [ 1 , 96 ; + 1 , 96 ] {\displaystyle [-1{,}96;+1{,}96]} liegt, kann die Nullhypothese nicht abgelehnt werden.
  • für α = 10 % {\displaystyle \alpha =10\,\%} kritischer Werte von ± 1 , 65 {\displaystyle \pm 1{,}65} . Da der Prüfwert z = 1,782 1 {\displaystyle z=1{,}7821} nicht im Intervall [ 1 , 65 ; + 1 , 65 ] {\displaystyle [-1{,}65;+1{,}65]} liegt, kann die Nullhypothese abgelehnt werden.

Damit haben die Rinder zu einem 10 % Signifikanzniveau eine Vorliebe für eine der beiden Sorten.

Dies scheint ein Widerspruch zu sein zu dem Ergebnis aus dem exakten zweiseitigen Test. Jedoch ist der mittels der angegebenen Formel berechnete z-Wert nur eine Näherung und nur für einen Stichprobenumfang n > 20 {\displaystyle n>20} zuverlässig!

Für die Approximation spielt es bei zweiseitigen Test keine Rolle, ob in der Formel der Wert w + {\displaystyle w^{+}} oder w {\displaystyle w^{-}} (oder das Minimum von beiden) eingesetzt wird, denn es folgt

z = w n ( n + 1 ) 4 n ( n + 1 ) ( 2 n + 1 ) 24 = 2 6 7 4 6 7 13 24 = 8 , 5 22 , 75 = 1,782 1 {\displaystyle z={\frac {w^{-}-{\frac {n(n+1)}{4}}}{\sqrt {\frac {n(n+1)(2n+1)}{24}}}}={\frac {2-{\tfrac {6\cdot 7}{4}}}{\sqrt {\tfrac {6\cdot 7\cdot 13}{24}}}}={\tfrac {-8{,}5}{\sqrt {22{,}75}}}=-1{,}7821} .

D. h., die Testentscheidung wäre die gleiche.

Vergleich mit dem Vorzeichentest

Fünf Stichproben tragen ein positives Vorzeichen (+), eine ein negatives (-). Gemäß der Tabelle der kritischen Werte (MacKinnon, 1964) kann man bei diesem Beispiel lediglich von p < 0,5 ausgehen (d. h. weniger als 50 Prozent Irrtumswahrscheinlichkeit). Hätten alle sechs Stichproben das gleiche Vorzeichen, läge p zwischen 0,02 und 0,1 – hier wurde also eindrücklich gezeigt, dass das Verfahren von Wilcoxon besonders bei kleineren Stichproben-Umfängen brauchbare Resultate liefert.

Literatur

  • Sidney Siegel: Nichtparametrische statistische Methoden. Verlag Dietmar Klotz, Eschborn b. Frankfurt am Main 2001, ISBN 3-88074-102-6.
  • Sidney Siegel: Nonparametric statistics for the behavioral sciences. McGraw-Hill, New York 1988, ISBN 0-07-057357-3.

Einzelnachweise

  1. Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, 2008, S. 256, 259. 
  2. Frank Wilcoxon: Individual Comparisons by Ranking Methods. In: Biometrics Bulletin. Band 1, Nr. 6, 1945, S. 80–83. JSTOR:3001968
  3. Joachim Hartung: Statistik Lehr- und Handbuch der angewandten Statistik ; [mit zahlreichen durchgerechneten Beispielen]. 15., überarb. und wesentlich erw. Auflage. München 2009, ISBN 978-3-486-59028-9. 
  4. Leonard A. Marascuilo, Maryellen McSweeney: Nonparametric and Distribution-free Methods for the Social Sciences. Brooks/Cole Publishing, 1977, ISBN 0-8185-0202-9. 
  5. Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, Berlin 2010, S. 729.