Hauptmenü öffnen

Eine empirische Verteilungsfunktion – auch Summenhäufigkeitsfunktion oder Verteilungsfunktion der Stichprobe genannt – ist in der beschreibenden Statistik und der Stochastik eine Funktion, die jeder reellen Zahl den Anteil der Stichprobenwerte, die kleiner oder gleich sind, zuordnet. Die Definition der empirischen Verteilungsfunktion kann in verschiedenen Schreibweisen erfolgen.

DefinitionBearbeiten

Allgemeine DefinitionBearbeiten

Wenn   die Beobachtungswerte in der Stichprobe sind, dann ist die empirische Verteilungsfunktion definiert als

 

mit  , wenn   und Null sonst, d. h.   bezeichnet hier die Indikatorfunktion der Menge  . Die empirische Verteilungsfunktion entspricht somit der Verteilungsfunktion der empirischen Verteilung.

 
Empirische Verteilungsfunktion für unklassierte Daten.

Alternativ lässt sich die empirische Verteilungsfunktion mit den Merkmalsausprägungen   und den zugehörigen relativen Häufigkeiten   in der Stichprobe definieren:

 

Die Funktion   ist damit eine monoton wachsende rechtsstetige Treppenfunktion mit Sprüngen an den jeweiligen Merkmalsausprägungen.

Definition für klassierte DatenBearbeiten

 
Empirische Verteilungsfunktion für klassierte Daten.

Manchmal liegen Daten nur klassiert vor, d. h. es sind   Klassen mit Klassenuntergrenzen  , Klassenobergrenzen   und relativen Klassenhäufigkeiten   gegeben,  .

Dann wird die Verteilungsfunktion definiert als

 

An den Klassenober- und -untergrenzen stimmt die Definition mit der Definition für unklassierte Daten überein, in den Bereichen dazwischen jedoch findet nun eine lineare Interpolation statt (siehe auch Summenhäufigkeitspolygon), bei der man unterstellt, dass die Beobachtungen innerhalb der Klassen gleichmäßig verteilt sind. Empirische Verteilungsfunktionen klassierter Daten sind damit (ebenso wie Verteilungsfunktionen stetiger Wahrscheinlichkeitsverteilungen, z. B. der Normalverteilung) zwar stetig, doch nur zwischen den Klassengrenzen differenzierbar, wobei ihr Anstieg der Höhe der jeweiligen Säule des zugrundeliegenden Histogramms entspricht.

Zu beachten ist dabei allerdings, dass die Intervallgrenzen klassierter Daten nach Möglichkeit so gewählt werden, dass die beobachteten Merkmalsausprägungen zwischen und nicht (wie im Fall unklassierter Daten) auf den Intervallgrenzen liegen, wodurch je nach Wahl der Klassengrenzen für ein und denselben Datenbestand ggf. leicht verschiedene Summenhäufigkeitspolygone entstehen können.

BeispieleBearbeiten

Allgemeiner Fall: Unklassierte DatenBearbeiten

Als Beispiel sollen die Pferdetrittdaten von Ladislaus von Bortkewitsch dienen. Im Zeitraum von 1875 bis 1894 starben in 14 Kavallerieregimentern der preußischen Armee insgesamt 196 Soldaten an Pferdetritten:

 
Empirische Verteilungsfunktion der unklassierten Pferdetritt-Daten.
Jahr 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94  
Tote 3 5 7 9 10 18 6 14 11 9 5 11 15 6 11 17 12 15 8 4 196

Schreibt man die Tabelle mit den Merkmalsausprägungen und relativen Häufigkeiten auf, dann ergibt sich

  3 4 5 6 7 8 9 10 11 12 14 15 17 18
Jahre 1 1 2 2 1 1 2 1 3 1 1 2 1 1
  0,05 0,05 0,10 0,10 0,05 0,05 0,10 0,05 0,15 0,05 0,05 0,10 0,05 0,05
  0,05 0,10 0,20 0,30 0,35 0,40 0,50 0,55 0,70 0,75 0,80 0,90 0,95 1,00

Die letzte Zeile enthält den Wert der Verteilungsfunktion an der entsprechenden Stelle  . Beispielsweise an der Stelle   ergibt sich  .

Klassierte DatenBearbeiten

Klassiert man die Daten, so erhält man folgende Datentabelle. Die Grafik dazu findet man bei der Definition.

ab   2 4 6 8 10 12 14 16
bis   4 6 8 10 12 14 16 18
  0,10 0,20 0,10 0,15 0,20 0,05 0,10 0,10
  0,10 0,30 0,40 0,55 0,75 0,80 0,90 1,00

Die letzte Zeile enthält den Wert der Verteilungsfunktion an der entsprechenden Stelle  . An der Stelle   ergibt sich  .

KonvergenzeigenschaftenBearbeiten

Das starke Gesetz der großen Zahlen sichert zu, dass der Schätzer   fast sicher für jeden Wert   gegen die wahre Verteilungsfunktion   konvergiert:

 ,

d. h. der Schätzer   ist konsistent. Damit ist die punktweise Konvergenz der empirischen Verteilungsfunktion gegen die wahre Verteilungsfunktion gegeben. Ein weiteres, stärkeres Resultat, der Satz von Glivenko-Cantelli sagt aus, dass dies sogar gleichmäßig geschieht:

 .

Diese Eigenschaft ist die mathematische Begründung dafür, dass es überhaupt sinnvoll ist, Daten mit einer empirischen Verteilungsfunktion zu beschreiben.

OgiveBearbeiten

 
Ogive (Verteilungsfunktion) einer theoretischen und einer empirischen Verteilung.

Ogive bezeichnete ursprünglich das gotische Bau-Stilelement Spitzbogen sowie die verstärkten Rippen in den Gewölben. Der Ausdruck wurde in der Statistik für eine Verteilungsfunktion erstmals 1875 von Francis Galton verwendet:

„When the objects are marshalled in the order of their magnitude along a level base at equal distances apart, a line drawn freely through the tops of the ordinates..will form a curve of double curvature... Such a curve is called, in the phraseology of architects, an ‘ogive’.“

Francis Galton: Aus Statistics by intercomparison with remarks on the Law of Frequency of Error., Philosophical Magazine 49, S. 35

Auf der horizontalen Achse des Koordinatensystems werden hier die geordneten (oft gruppierten) Merkmalsausprägungen aufgetragen; auf der vertikalen Achse die relativen kumulierten Häufigkeiten in Prozent.

Die Grafik rechts zeigt die kumulierte Verteilungsfunktion einer theoretischen Standardnormalverteilung. Wird der rechte Teil der Kurve an der Stelle   gespiegelt (rot gestrichelt), dann sieht die entstehenden Figur wie eine Ogive aus.

Darunter wird eine empirische Verteilungsfunktion gezeigt. Für die Grafik wurden 50 Zufallszahlen aus einer Standardnormalverteilung gezogen. Je mehr Zufallszahlen man zieht desto stärker nähert man sich der theoretischen Verteilungsfunktion an.

LiteraturBearbeiten

  • Horst Mayer: Beschreibende Statistik. München – Wien 1995

Siehe auchBearbeiten