Kontingenzkoeffizient

Quantitatives, statistisches Maß zur Beschreibung des Zusammenhangs von Merkmalen
(Weitergeleitet von Phi-Koeffizient)

Der Kontingenzkoeffizient (nach Karl Pearson) ist ein statistisches Zusammenhangsmaß. Der Pearsonsche Kontingenzkoeffizient drückt die Stärke des Zusammenhangs zwischen zwei (oder mehreren) nominalen oder ordinalen Variablen aus. Er basiert auf dem Vergleich von tatsächlich ermittelten Häufigkeiten zweier Merkmale mit den Häufigkeiten, die man bei Unabhängigkeit dieser Merkmale erwartet hätte.

Quadratische KontingenzBearbeiten

Die quadratische Kontingenz[1] oder der Chi-Quadrat-Koeffizient  , auf dem auch der Kontingenzkoeffizient beruht, ist ein Maß für den Zusammenhang der betrachteten Merkmale:

 

Die Aussagekraft des  -Koeffizienten ist gering, da seine Obergrenze, d. h. der Wert, den er bei vollkommener Abhängigkeit der betrachteten Merkmale annimmt, abhängig von der Größe (Dimension) der Kontingenztafel (d. h. von der Anzahl der Ausprägungen der Variablen) und der Größe der untersuchten Gesamtheit   ist. Eine Vergleichbarkeit von Werten des  -Koeffizienten über verschiedene Kontingenztabellen und Stichprobengrößen ist daher nicht gegeben.[1][2] Bei völliger Unabhängigkeit der Merkmale ist  .

Es gilt:[3]

 ,

wobei   das Minimum der Anzahl   der Zeilen und der Anzahl   der Spalten der Kontingenztabelle bezeichnet.

VerwendungBearbeiten

Die  -Größe wird benötigt, um den Kontingenzkoeffizienten   zu ermitteln. Auch bei statistischen Tests findet die  -Größe Verwendung (siehe Chi-Quadrat-Test).

BeispielBearbeiten

Es sei folgende Kontingenztafel aus einer Befragung entstanden:

     
       
       
       

Berechnung des  -Koeffizienten:

 

Mittlere quadratische KontingenzBearbeiten

Ein weiteres Maß, um die Stärke der Abhängigkeit der Merkmale in einer Kontingenztafel anzugeben, ist die mittlere quadratische Kontingenz, die im Wesentlichen eine Erweiterung des  -Koeffizienten darstellt:

 

Je größer dieses Maß ist, desto stärker ist der Zusammenhang zwischen den zwei analysierten Merkmalen. Sind die beiden Merkmale unabhängig, so wird jeder Summand durch den Zähler des Bruches zu  , das Maß selbst damit auch. Im Falle einer ( )-Kontingenztafel ist das Maß normiert und nimmt Werte im Intervall   an.

Kontingenzkoeffizient nach Karl PearsonBearbeiten

  kann grundsätzlich sehr große Werte annehmen und ist nicht auf das Intervall   beschränkt. Um die Abhängigkeit des Koeffizienten vom Stichprobenumfang auszuschalten, wird auf Basis des   der Kontingenzkoeffizient   (auch   oder  ) nach Karl Pearson ermittelt:

 .

mit   der Stichprobenumfang.

Dieser kann Werte im Intervall   annehmen. Problematisch ist, dass die obere Grenze des Kontingenzkoeffizienten   abhängig von der Anzahl der betrachteten Dimensionen ist:[4]

Es gilt   mit   das Minimum der Anzahl   der Zeilen und der Anzahl   der Spalten der Kontingenztabelle.

Korrigierter KontingenzkoeffizientBearbeiten

Um zusätzlich zum Einfluss des Stichprobenumfangs auch den Einfluss der Dimension der betrachteten Kontingenztafel (der Anzahl der Merkmalsausprägungen) auf die Obergrenze des Koeffizienten auszuschalten und damit die Vergleichbarkeit von Ergebnissen zu gewährleisten, wird der korrigierte Kontingenzkoeffizient   (häufig auch  ) zur Messung des Zusammenhangs genutzt:

 ,

mit   wie oben.

Es gilt  : Ein   nahe   deutet dabei auf unabhängige Merkmale hin, ein   nahe   auf ein hohes Maß an Abhängigkeit zwischen den Merkmalen.

Für das Beispiel ergibt sich ein korrigierter Kontingenzkoeffizient  .

Cramérs VBearbeiten

Cramérs   (englisch: Cramér’s  ) ist ein Kontingenzkoeffizient, genauer ein  -basiertes Zusammenhangsmaß. Es ist benannt nach dem schwedischen Mathematiker und Statistiker Harald Cramér.

Cramérs   ist eine  -basierte Maßzahl. Cramérs   ist eine symmetrische Maßzahl für die Stärke des Zusammenhangs zwischen zwei oder mehr nominalskalierten Variablen, wenn (mindestens) eine der beiden Variablen mehr als zwei Ausprägungen hat. Bei einer  -Tabelle entspricht Cramérs   dem absoluten Betrag des Phi-Koeffizienten.

VorgehenBearbeiten

 .
 : Gesamtzahl der Fälle (Stichprobenumfang)
  das Minimum der Anzahl   der Zeilen und der Anzahl   der Spalten der Kontingenztabelle

InterpretationBearbeiten

Cramérs   liegt bei jeder Kreuztabelle – unabhängig von der Anzahl der Zeilen und Spalten – zwischen   und  . Er kann bei beliebig großen Kreuztabellen angewandt werden. Da Cramérs   immer positiv ist, kann keine Aussage über die Richtung des Zusammenhangs getroffen werden.

Phi-Koeffizient ϕBearbeiten

Der Phi-Koeffizient (auch Vierfelder-Korrelationskoeffizient, Vierfelderkoeffizient)   (auch  ) ist ein Maß für die Stärke des Zusammenhangs zweier dichotomer Merkmale.

BerechnungBearbeiten

Um die Vierfelderkorrelation zwischen zwei dichotomen Merkmalen   und   zu schätzen, stellt man zuerst eine Kontingenztafel auf, die die gemeinsame Häufigkeitsverteilung der Merkmale enthält.

       
       
       
       

Mit den Daten aus der Tabelle kann man   nach der Formel

 

berechnen.[5] Die Formel ergibt sich aus der allgemeineren Definition des Korrelationskoeffizienten   im Spezialfall zweier binärer Zufallsvariablen   und  .

BeispieleBearbeiten

Messen der Assoziation zwischen …

  • … Zustimmung zu oder Ablehnung einer Politikentscheidung und dem Geschlecht, …
  • … Vorführung bzw. Nichtvorführung eines Werbespots und Kauf oder Nichtkauf eines Produkts.
  • Anwendung von   auf eine Konfusionsmatrix mit zwei Klassen.

HinweisBearbeiten

Zwischen   und   besteht der Zusammenhang    bzw.   , wobei   die Anzahl der Beobachtungen bezeichnet. Damit ist   die Quadratwurzel (das Vorzeichen spielt keine Rolle) aus der mittleren quadratischen Kontingenz (siehe oben).

Als Teststatistik verwendet ist   unter der Annahme, dass   gleich null ist,  -verteilt mit einem Freiheitsgrad.

Phi als Maß für die EffektstärkeBearbeiten

Wenn ein Maß zur Bestimmung der Effektstärke mit Orientierung auf Wahrscheinlichkeiten gesucht wird, kann dafür   verwendet werden. Da bei Kreuztabellen, die nicht absolute Häufigkeiten, sondern Wahrscheinlichkeiten enthalten, an der Stelle, an der normalerweise die Fallzahl zu finden ist, immer   steht, wird   identisch mit Cohens  :

 

Dabei wird   eben nicht in Bezug auf absolute Häufigkeiten, sondern in Bezug auf Wahrscheinlichkeiten berechnet. Zu Cohens  .[6] und[7] Ebenfalls numerisch identisch ist es, wenn in Bezug auf Kreuztabellen, die Wahrscheinlichkeiten enthalten, als   mit   berechnet wird.[8]

LiteraturBearbeiten

  • J. Bortz, G.A., Lienert, K. Boehnke: Verteilungsfreie Methoden in der Biostatistik. Springer, Berlin 1190 (Kap. 8.1, S. 326 und S. 355 ff).
  • J. M. Diehl, H.U. Kohr: Deskriptive Statistik. 12. Auflage. Klotz Eschborn 1999, S. 161.
  • P. Zöfel: Statistik für Psychologen. Pearson Studium, München 2003.
  • Signifikanzprüfung für die Vierfelderkorrelation (PDF; 13 kB).

WeblinksBearbeiten

EinzelnachweiseBearbeiten

  1. a b Backhaus: Multivariate Analysemethoden. 11. Auflage. Springer, 2006, S. 241, 700.
  2. W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 115.
  3. W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 114.
  4. H. Toutenburg, C. Heumann: Deskriptive Statistik: Eine Einführung in Methoden und Anwendungen mit R und SPSS. 6. Auflage. Springer, 2008, S. 115.
  5. Bernd Rönz, Hans Gerhard Strohe (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, S. 25.
  6. J. Bortz: Statistik für Human- und Sozialwissenschaftler. 6. Auflage. Springer 2005, S. 167–168.
  7. D. Wentura: Ein kleiner Leitfaden zur Teststärke-Analyse. Fachrichtung Psychologie der Universität des Saarlandes 2004, S. 6, (researchgate.net).
  8. Jacob Cohen: Statistical Power Analysis for the Behavioral Sciences. 2. Aufl. Lawrence Erlbaum Associates, Hillsdale 1988, ISBN 0-8058-0283-5.