Cliff's Delta ist ein parameterfreier statistischer Test und liefert eine intuitiv verständliche Maßzahl für den Unterschied oder der Überlappung bzw. der Übereinstimmung zweier Stichproben auf ordinalem Niveau. Die Maßzahl ist eine ordinale Alternative zu den traditionellen Mittelwertsvergleichen (z.B. t-Test), die ohne Normalverteilungsannahme (oder andere Annahmen!) auskommt. Auch eine Signifikanzprüfung dieser Maßzahl ist vorgesehen. Der Test wurde ursprünglich von näher beschrieben und später von seinen Kollegen Jeffrey Long und Du Feng fortentwickelt.

Grundidee Bearbeiten

Jeder der in einer Grundgesamtheit   zu findenden Werte   kann ordinal (="größer oder kleiner"?) mit jedem Wert   aus einer anderen Grundgesamtheit   verglichen werden. Cliff's   bezeichnet dann die Wahrscheinlichkeit  , dass ein Wert aus   größer ist als aus   abzüglich der Wahrscheinlichkeit, dass ein Wert aus   kleiner ist als aus  :

 .

Cliff's delta beschreibt damit die Tendenz einer Variable, größere Werte anzuehmen als eine Vergleichsvariable (="Dominanz").

  liegt damit zwischen -1.00 (nichtüberlappende Verteilungen mit   linksseitig, d.h. 100% der Werte aus   sind kleiner) bis +1.00 (nichtüberlappende Verteilungen mit   rechtsseitig, d.h. 100% der Werte aus   sind größer). Ist   gleich 0, überlappen die Verteilungen vollständig und sind damit strukturell nicht unterschiedlich.


Dominanzanalyse von zwei Stichproben Bearbeiten

Der aus Stichproben zu errechnende, erwartungstreue Schätzer für Cliff's Delta,  , bezeichnet den Anteil der Stichprobenwerte, die größer sind, als die Stichprobenwerte der Vergleichsstichprobe, abzüglich des Anteils der Stichprobenwerte, die kleiner sind, als die Vergleichsstichprobenwerte. Jeder der n Stichprobenwerte   wird also mit jedem der m Vergleichsstichprobenwerte   verglichen (das sind genau mn Vergleiche. Die Anzahl der Vergleiche, in denen die Bedingung   erfüllt ist (=   ) wird ermittelt, und ebenso die Anzahl der Vergleichsfälle, in denen das Gegenteil gilt (=   ). Dann gilt für

 .

  ist robust und hat Power (Cliff, 1996, 126).

Teststatistik Bearbeiten

Für das Testen der Hypothesen des Wilcoxon-Mann-Whitney-Test

 

gibt es zwei Teststatistiken: die Mann-Whitney-U-Statistik   und die Wilcoxon-Rangsummenstatistik  . Aufgrund des Zusammenhangs zwischen den Teststatistiken

 

sind der Wilcoxon-Rangsummentest und der Mann-Whitney-U-Test äquivalent.

Mann-Whitney-U-Statistik Bearbeiten

Die Mann-Whitney-U-Teststatistik ist

 ,

worin S(X,Y) = 1 wenn Y < X und sonst 0. Abhängig von der Alternativhypothese wird die Nullhypothese abgelehnt für zu kleine oder zu große von  . In dieser Form findet er sich bei Mann und Whitney und wird oft als Mann-Whitney-U-Test bezeichnet.

Exakte kritische Werte Bearbeiten

Exakte kritische Werte liegen nur tabelliert vor und können für kleine Stichprobenumfänge der Tabelle unten entnommen werden (  beim zweiseitigen Test und   beim einseitigen Test).

Approximative kritische Werte Bearbeiten

Für  ,   und   kann

 

durch die Normalverteilung approximiert werden.[1] Die kritischen Werte ergeben sich dann aus den kritischen Werten der approximativen Normalverteilung.

Wilcoxon-Rangsummenstatistik Bearbeiten

Die Wilcoxon-Rangsummenstatistik ist

 

mit   der Rang der i-ten X in der gepoolten, geordneten Stichprobe. In dieser Form trägt der Test häufig die Bezeichnung Wilcoxon-Rangsummentest.

Exakte kritische Werte Bearbeiten

Die exakte Verteilung von   unter der Bedingung der Nullhypothese kann mittels kombinatorischer Überlegungen leicht gefunden werden. Allerdings steigt der Rechenaufwand für große Werte von   rasch an. Man kann die exakten kritischen Werte   zum Signifikanzniveau  mittels einer Rekursionsformel berechnen:

  (oder   oder   oder  )

Die Formel entsteht, wenn man konditioniert auf die Bedingung, ob der letzte Wert in der Anordnung ein X (...X) oder ein Y (...Y) ist.

 
 

Approximative kritische Werte Bearbeiten

Für   oder   (auch:   oder  ) kann die Teststatistik

 

durch die Normalverteilung approximiert werden.[2] [3] Die kritischen Werte ergeben sich dann aus den kritischen Werten der approximativen Normalverteilung.

Einseitige Hypothesen Bearbeiten

Der Test kann auch für die einseitigen Hypothesen

  bzw.
 

formuliert werden.

Abgeleitete Hypothesen Bearbeiten

Der Test ist speziell interessant, weil bei Annahme bzw. Ablehnung der Null- oder Alternativhypothese auch die folgenden Null- und Alternativhypothesen (unter den oben genannten Voraussetzungen) angenommen bzw. abgelehnt werden können:

 , d.h. die Mittelwerte   der Verteilungen A und B unterscheiden sich.
 , d.h. die Mediane   der Verteilungen A und B unterscheiden sich.

Sind die Voraussetzungen bei der Hypothese über die Mediane nicht erfüllt, dann kann man auf den Median-Test ausweichen.

Beispiel Bearbeiten

Aus den Daten der Allgemeinen Bevölkerungsumfrage der Sozialwissenschaften 2006 wurden zufällig 20 Personen gezogen und ihr Nettoeinkommen ermittelt:

Rang 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Nettoeinkommen 0 400 500 550 600 650 750 800 900 950 1000 1100 1200 1500 1600 1800 1900 2000 2200 3500
Geschlecht M W M W M W M M W W M M W M W M M M M M

Man hat zwei Stichproben vor sich, Stichprobe der Männer mit   Werten und Stichprobe der Frauen mit   Werten. Wir könnten nun prüfen, ob das Einkommen der Männer und Frauen gleich ist (zweiseitiger Test) oder das Einkommen der Frauen geringer (einseitiger Test) mit   die Verteilungsfunktion des Einkommens der Männer und   die Verteilungsfunktion des Einkommens der Frauen. Wir betrachten hier die Tests

Zweiseitiger Test Einseitiger Test
   

Zunächst wird aus beiden Zahlenreihen je eine Prüfgröße   gebildet:

 
 

  und   sind dabei die Anzahlen der Zahlenwerte pro Reihe,   und   sind die Rangzahlen der geordneten Reihen. Die Rangzahlen der Zahlenwerte werden für   und für   getrennt in zwei Spalten aufsummiert. Sind zwei oder mehrere Werte in beiden Datensätzen gleich, dann müssen in beiden Rangspalten jeweils die Mediane (bzw. arithmetischen Mittel) eingetragen werden. Für die Tests benötigt man das Minimum von   und  , also  .

Für unser Beispiel ergibt sich

  und  .
  und   und
 .

Bei korrekter Berechnung muss gelten   bzw.  .   wirden nun mit den kritischen Wert(en) verglichen. Das Beispiel ist so gewählt, dass sowohl ein Vergleich mit den exakten kritischen Werten als auch mit den approximativen Werten möglich ist.

Zweiseitiger Test Bearbeiten

Exakte kritische Werte Bearbeiten

Anhand der Tabelle ergibt sich mit   und   ein kritischer Wert von   für ein Signifikanzniveau vom  . Ablehnt wird die Nullhypothese, wenn   ist; dies ist hier aber nicht der Fall.

Approximative kritische Werte Bearbeiten

Da die Teststatistik   approximativ normal verteilt ist, folgt dass die

 

verteilt ist. Für ein Signifikanzniveau vom   muss für die Annahme der Alternativhypothese im zweiseitigen Test   außerhalb des Intervalls   liegen. Es ergibt sich jedoch  , d.h. die Nullhypothese kann nicht abgelehnt werden.

Einseitiger Test Bearbeiten

Exakte kritische Werte Bearbeiten

Anhand der Tabelle ergibt sich mit   und   ein kritischer Wert von   für ein Signifikanzniveau vom   (anderes Signifikanzniveau als beim zweiseitigen Test!). Abgelehnt wird die Nullhypothese, wenn   ist; dies ist hier aber nicht der Fall.

Approximative kritische Werte Bearbeiten

Für ein Signifikanzniveau vom   muss für die Annahme der Alternativhypothese im zweiseitigen Test   außerhalb des Intervalls   liegen. Es ergibt sich jedoch  , d.h. die Nullhypothese kann nicht abgelehnt werden.

Tabelle der kritischen Werte der Mann-Whitney-U-Statistik Bearbeiten

Die folgende Tabelle ist gültig für   (zweiseitig) bzw.   (einseitig) mit  . Ein - Eintrag bedeutet, dass die Nullhypothese in jedem Fall zu dem gegebenen Signifikanzniveau angenommen werden muss.

 
  1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
1 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 0 0
2 - - - - - - 0 0 0 0 1 1 1 1 1 2 2 2 2 3 3 3 3 3 4 4 4 4 5 5 5 5 5 6 6 6 6 7 7
3 - - 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 10 10 11 11 12 13 13 14 14 15 15 16 16 17 17 18 18
4 0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 14 15 16 17 17 18 19 20 21 22 23 24 24 25 26 27 28 29 30 31 31
5 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20 22 23 24 25 27 28 29 30 32 33 34 35 37 38 39 40 41 43 44 45
6 5 6 8 10 11 13 14 16 17 19 21 22 24 25 27 29 30 32 33 35 37 38 40 42 43 45 46 48 50 51 53 55 56 58 59
7 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 54 56 58 60 62 64 66 68 70 72 74
8 13 15 17 19 22 24 26 29 31 34 36 38 41 43 45 48 50 53 55 57 60 62 65 67 69 72 74 77 79 81 84 86 89
9 17 20 23 26 28 31 34 37 39 42 45 48 50 53 56 59 62 64 67 70 73 76 78 81 84 87 89 92 95 98 101 103
10 23 26 29 33 36 39 42 45 48 52 55 58 61 64 67 71 74 77 80 83 87 90 93 96 99 103 106 109 112 115 119
11 30 33 37 40 44 47 51 55 58 62 65 69 73 76 80 83 87 90 94 98 101 105 108 112 116 119 123 127 130 134
12 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97 101 105 109 113 117 121 125 129 133 137 141 145 149
13 45 50 54 59 63 67 72 76 80 85 89 94 98 102 107 111 116 120 125 129 133 138 142 147 151 156 160 165
14 55 59 64 69 74 78 83 88 93 98 102 107 112 117 122 127 131 136 141 146 151 156 161 165 170 175 180
15 64 70 75 80 85 90 96 101 106 111 117 122 127 132 138 143 148 153 159 164 169 174 180 185 190 196
16 75 81 86 92 98 103 109 115 120 126 132 137 143 149 154 160 166 171 177 183 188 194 200 206 211
17 87 93 99 105 111 117 123 129 135 141 147 154 160 166 172 178 184 190 196 202 209 215 221 227
18 99 106 112 119 125 132 138 145 151 158 164 171 177 184 190 197 203 210 216 223 230 236 243
19 113 119 126 133 140 147 154 161 168 175 182 189 196 203 210 217 224 231 238 245 252 258
20 127 134 141 149 156 163 171 178 186 193 200 208 215 222 230 237 245 252 259 267 274

Einzelnachweise Bearbeiten

  1. Rönz, B., Strohe, H.G. (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, ISBN 3-409-19952-7
  2. Rinne, H. (2003), Taschenbuch der Statistik (3. Auflage), Verlag Harri Deutsch, S. 534
  3. Kotz, S., Read, C.B., Balakrishnan, N. (2003), Encyclopedia of Statistical Sciences, Wiley, Band ?, S. 208

Literatur Bearbeiten

  • Herbert Büning, Götz Trenkler (1998), Nichtparametrische statistische Methoden, de Gruyter, ISBN 3-11-016351-9
  • Sidney Siegel: Nichtparametrische statistische Methoden. Fachbuchhandlung für Psychologie, Eschborn bei Frankfurt am Main, 2. Ausgabe, 1985)
  • W. H. Kruskal: Historical notes on the Wilcoxon unpaired two-sample test, In: J. Amer. Stat. Assn. 52, 1957, S. 356–360.

Weblinks Bearbeiten