Schiefe (Statistik)

statistische Kennzahl

Die Schiefe (englisch skewness bzw. skew) ist eine statistische Kennzahl, die die Art und Stärke der Asymmetrie einer Wahrscheinlichkeitsverteilung beschreibt. Sie zeigt an, ob und wie stark die Verteilung nach rechts (rechtssteil, linksschief, negative Schiefe) oder nach links (linkssteil, rechtsschief, positive Schiefe) geneigt ist.

Definition Bearbeiten

Die Schiefe   einer Zufallsvariablen   ist das zentrale Moment 3. Ordnung   (falls das Moment 3. Ordnung existiert), normiert auf die Standardabweichung  :

 .

mit dem Erwartungswert   und der Varianz  . Diese Darstellung wird auch Momentenkoeffizient der Schiefe genannt. Mit den Kumulanten   ergibt sich die Darstellung

 .

Die Schiefe kann jeden reellen Wert annehmen.

   
  • Bei negativer Schiefe,  , spricht man von einer linksschiefen oder rechtssteilen Verteilung; sie fällt in typischen Fällen auf der linken Seite flacher ab als auf der rechten.
  • Bei positiver Schiefe,  , spricht man von einer rechtsschiefen oder linkssteilen Verteilung; sie fällt typischerweise umgekehrt auf der rechten Seite flacher ab als auf der linken.

Typische Vertreter rechtsschiefer Verteilungen sind die Bernoulli-Verteilung für  , die Exponentialverteilung und die Pareto-Verteilung für  .

Die Schiefe ist invariant unter linearer Transformation mit  :

 

Für die Summe unabhängiger normierter Zufallsgrößen   gilt:

 ,

d. h. die Schiefe der Summe unabhängiger und identisch verteilter Zufallsgrößen ist die ursprüngliche Schiefe, dividiert durch  .

Empirische Schiefe Bearbeiten

Zur Berechnung der Schiefe einer empirischen Häufigkeitsverteilung wird die folgende Formel benutzt:

 

Damit die Schiefe unabhängig von der Maßeinheit der Variablen ist, werden die Messwerte mit Hilfe des arithmetischen Mittelwertes   und der empirischen Standardabweichung   der Beobachtungswerte  

 

standardisiert. Durch die Standardisierung gilt

  und  .

Schätzung der Schiefe einer Grundgesamtheit Bearbeiten

Zur Schätzung der unbekannten Schiefe   einer Grundgesamtheit mittels Stichprobendaten   (  der Stichprobenumfang) müssen der Erwartungswert und die Varianz aus der Stichprobe geschätzt werden, d. h. die theoretischen durch die empirischen Momente ersetzt werden:

 

mit   der Stichprobenmittelwert und   die Stichprobenstandardabweichung. Dieser Schätzer ist jedoch nicht erwartungstreu für   im Gegensatz zu

 .

Weitere Schiefemaße Bearbeiten

Lage von Mittelwert und Median Bearbeiten

Auf Karl Pearson geht die Definition

 

mit dem Erwartungswert  , dem Median   und der Standardabweichung   zurück. Der Wertebereich von S ist das Intervall  . Für symmetrische Verteilungen ist  . Rechtsschiefe Verteilungen besitzen häufig ein positives  , es gibt jedoch Ausnahmen von dieser Faustregel.[1]

Wenn die Standardabweichung divergiert, kann die Pearsonsche Definition verallgemeinert werden, indem eine Verteilung rechtsschief bezeichnet wird, wenn der Median kleiner als der Erwartungswert ist. In diesem Sinn ist die Pareto-Verteilung für beliebigen Parameter   rechtsschief.

Quantilskoeffizient der Schiefe Bearbeiten

Der Quantilskoeffizient der Schiefe beschreibt die normierte Differenz zwischen der Entfernung des  - und des  -Quantils zum Median. Er wird also wie folgt berechnet:

 

Dabei kann der Quantilskoeffizient Werte zwischen   und   annehmen. Der Quantilskoeffizient existiert für beliebige Verteilungen, auch wenn Erwartungswert oder die Standardabweichung nicht definiert sein sollten.

Eine symmetrische Verteilung besitzt den Quantilskoeffizienten  ; eine rechtsschiefe (linksschiefe) Verteilung besitzt in der Regel einen positiven (negativen) Quantilskoeffizienten. Für   ergibt sich der Quartilskoeffizient. Die Pareto-Verteilung besitzt für beliebige Parameter   positive Quantilskoeffizienten.

Deutung Bearbeiten

 
Beispiel von experimentellen Daten mit einer positiven Schiefe (rechtsschief)

Ist  , so ist die Verteilung rechtsschief, ist  , ist die Verteilung linksschief. Für gutartige Verteilungen gilt: Bei rechtsschiefen Verteilungen sind Werte, die kleiner sind als der Mittelwert, häufiger zu beobachten, so dass sich der Gipfel (Modus) links vom Mittelwert befindet; der rechte Teil des Graphs ist flacher als der linke. Gilt  , so ist die Verteilung auf beiden Seiten ausgeglichen. Bei symmetrischen Verteilungen ist immer  . Umgekehrt müssen Verteilungen mit   nicht symmetrisch sein.

Als Faustregeln kann man für gutartige Verteilungen also festhalten:

  • rechtsschief:  
  • symmetrisch:  
  • linksschief:  

Die Schiefe ist ein Maß für die Asymmetrie einer Wahrscheinlichkeitsverteilung. Da die Gaußsche Normalverteilung symmetrisch ist, also eine Schiefe von null besitzt, ist die Schiefe eine mögliche Maßzahl, um eine Verteilung mit der Normalverteilung zu vergleichen. (Für einen Test dieser Eigenschaft siehe z. B. den Kolmogorow-Smirnow-Test.)

Interpretation der Schiefe Bearbeiten

Rechtsschiefe Verteilungen findet man z. B. häufig beim Pro-Kopf-Einkommen. Hier gibt es einige wenige Personen mit extrem hohem Einkommen und sehr viele Personen mit eher niedrigem Einkommen. Durch die 3. Potenz erhalten die wenigen sehr extremen Werte ein hohes Gewicht und es entsteht ein Schiefemaß mit positivem Vorzeichen. Es gibt verschiedene Formeln, um die Schiefe zu berechnen. Die gängigen Statistikpakete wie SPSS, SYSTAT, Stata etc. nutzen besonders im Falle einer kleinen Fallzahl von obiger, momentbasierter Berechnungsvorschrift abweichende Formeln.

Siehe auch Bearbeiten

Literatur Bearbeiten

  • W. H. Press et al.: Numerical Recipes in C. 2. Auflage. Cambridge University Press, 1992, Kapitel 14.1.

Einzelnachweise Bearbeiten

  1. Paul T. von Hippel: Mean, Median, and Skew: Correcting a Textbook Rule. In: Journal of Statistics Education. 13. Jahrgang, Nr. 2, 2005 (amstat.org (Memento des Originals vom 14. Oktober 2008 im Internet Archive) [abgerufen am 16. November 2013]).

Weblinks Bearbeiten