Stichprobenverteilung

Wahrscheinlichkeitsverteilung einer Stichprobenfunktion

In der Statistik und Wahrscheinlichkeitstheorie wird die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion auch als Stichprobenverteilung der Stichprobenfunktion bezeichnet.

Zur Bezeichnung „Stichprobenverteilung“

Bearbeiten

Die Bezeichnung „Stichprobenverteilung“ ist zwar gebräuchlich,[1][2] kann aber missverständlich sein, da damit nicht die Verteilung einer Zufallsstichprobe oder der möglichen Stichprobenwerte bezeichnet wird. Während ‚Verteilung der Stichprobenfunktion‘ unmissverständlich ist, kann die Bezeichnung ‚Stichprobenverteilung der Stichprobenfunktion‘ so missverstanden werden, dass es noch andere Verteilungen einer Stichprobenfunktion gibt. Diese beiden möglichen Missverständnisse können den Grund dafür bilden, dass viele Autoren die Bezeichnung Stichprobenverteilung völlig vermeiden und einfach von der Verteilung der Stichprobenfunktion sprechen.[3]

Der Begriff sampling distribution wurde 1922 von Ronald Aylmer Fisher beiläufig eingeführt[4] und in den Jahren 1928 und 1929 mit der Verwendung im Titel von zwei Aufsätzen[5][6] etabliert.[7]

Zu unterscheiden ist die Stichprobenverteilungsfunktion, eine seltene Bezeichnung für die empirische Verteilungsfunktion.

Bestimmung der Stichprobenverteilung

Bearbeiten

Wenn   die Stichprobenvariablen einer Zufallsstichprobe vom Umfang   sind und   eine Stichprobenfunktion ist, dann ist   eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung als Stichprobenverteilung von   bezeichnet wird. Die Stichprobenverteilung der Stichprobenfunktion   hängt über die (messbare) Funktion   von der Wahrscheinlichkeitsverteilung des Stichprobenvektors   ab.

Häufig interessierende Stichprobenfunktionen sind

  • die Summenvariable  , die in diesem Zusammenhang auch Stichprobensumme heißt,
  • das arithmetische Mittel  , das in diesem Zusammenhang auch Stichprobenmittel heißt,
  • die mittlere quadratische Abweichung vom Stichprobenmittel  , die in diesem Zusammenhang auch auch Stichprobenvarianz heißt,
  • das Minimum   und,
  • das Maximum  .

Allgemeines Vorgehen

Bearbeiten

Wenn die Wahrscheinlichkeitsverteilung des Stichprobenvektors   und die Funktion   gegeben ist, dann ergibt sich die Verteilungsfunktion – und mit dieser die Stichprobenverteilung – der Stichprobenfunktion   als

 

Dabei ist  .

Wenn der häufige Fall vorliegt, dass die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind und jede Stichprobenvariable die Wahrscheinlichkeitsverteilung   hat, dann ist die Wahrscheinlichkeitsverteilung des Zufallsvektor   durch die  -fache Produktverteilung   gegeben.

Bei Anwendungen in der parametrischen Statistik mit stochastisch unabhängigen und identisch verteilten Stichprobenvariablen ist typischerweise die Verteilung einer Stichprobenvariablen nicht exakt bekannt, sondern durch eine parametrische Familie   eingeschränkt. In diesem Fall ergibt sich auch für   eine parametrische Familie   von Verteilungen und es ergibt sich nicht nur eine Stichprobenverteilung, sondern eine durch den Parameter   indizierte Familie von Stichprobenverteilungen der Stichprobenfunktion  .

Vorgehen in speziellen Fällen

Bearbeiten

Für spezielle Verteilungen der Stichprobenvariablen und spezielle Stichprobenfunktionen sind Zusammenhänge bekannt, mit deren Hilfe die Stichprobenverteilung der jeweiligen Stichprobenfunktion angegeben werden kann, ohne den oben angegebenen allgemeinen Weg zu beschreiten.

Unter der Voraussetzung, dass die Stichprobenvariablen   stochastisch unabhängig und identisch verteilt sind, gilt z. B.:

 .
  • Die Stichprobenverteilung des Minimums und des Maximums Bernoulli-verteilter Stichprobenvariablen ist eine Bernoulli-Verteilung;
 
 
  • Die Stichprobenverteilung der Summe normalverteilter Stichprobenvariablen ist eine Normalverteilung;
 .
  • Die Stichprobenverteilung des Stichprobenmittels normalverteilter Stichprobenvariablen ist eine Normalverteilung;
     
    Dichtefunktionen der Stichprobenverteilung des arithmetischen Mittels   stochastisch unabhängiger standardnormalverteilter Zufallsvariablen für unterschiedliche Stichprobenumfänge  . Mit größerem Stichprobenumfang   wird die Varianz   kleiner und die Dichtefunktion ist enger um die Stelle   konzentriert. Die Dichtefunktion der Stichprobenvariable   ist eine Dirac-Folge.
 .
  • Die Stichprobenverteilung des Produkts lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
 ;
  • Die Stichprobenverteilung des geometrischen Mittels lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
 .
  • Die Stichprobenverteilung der Stichprobenvarianz   normalverteilter Stichprobenvariablen ist durch eine Chi-Quadrat-Verteilung mit   Freiheitsgraden bestimmt,
 .

Es sind viele weitere ähnliche Zusammenhänge bekannt, die es ermöglichen, die Stichprobenverteilung bestimmter Stichprobenfunktionen unmittelbar anzugeben. Für die Stichprobenverteilung der Summe von Stichprobenvariablen anderer Verteilungen siehe auch Reproduktivitätseigenschaft.

Kennzahlen der Stichprobenverteilung

Bearbeiten

Wenn die Stichprobenvariablen   stochastisch unabhängig und identisch verteilt sind und Kennzahlen der Verteilung der Stichprobenvariablen bekannt sind, können Aussagen über Kennzahlen einer Stichprobenverteilung gemacht werden, z. B. gelten für den Erwartungswert und die Varianz der Summenvariable   und des arithmetischen Mittels   die Aussagen:

Aus   folgt

 

und

 .

Aus   folgt

 
 

und

 

Approximative Stichprobenverteilung

Bearbeiten

Wenn die Stichprobenvariablen   stochastisch unabhängig und identisch verteilt sind und wenn   und   gilt, dann sind für hinreichend großes   die Summe   und das arithmetische Mittel   approximativ normalverteilt (siehe Zentraler Grenzwertsatz, Gesetz der großen Zahlen, Gleichung von Bienaymé). Die Stichprobenverteilungen von   und   sind also näherungsweise durch Normalverteilungen charakterisierbar;

 

Diese Approximationen beruhen auf dem Zentralen Grenzwertsatz der Statistik, der besagt, dass die Folge   der standardisierten Zufallsvariablen

 

für   in Verteilung gegen eine standardnormalverteilte Zufallsvariable   konvergiert. Die Approximation der Verteilung von   durch eine Standardnormalverteilung ist dann äquivalent zu den angegebenen Approximationen für die Stichprobenverteilungen von   und  .

Statistische Schätzung der Stichprobenverteilung

Bearbeiten

Wenn die Stichprobenwerte   aus einer hinreichend große Zufallsstichprobe vorliegen, kann die empirische Verteilung der Stichprobenwerte als statistische Schätzung der Verteilung der Grundgesamtheit angesehen werden. Die Stichprobenverteilung einer beliebige Stichprobenfunktion kann dann ohne parametrisches Modell mit Hilfe des Bootstrap-Verfahrens geschätzt werden, ohne dass die Verteilung der Stichprobenvariablen bekannt sein muss. Jedoch muss allgemein mathematisch gezeigt werden, dass die Bootstrap-Stichprobenverteilungen mit steigender Zahl der Bootstrap-Stichproben gegen die Stichprobenverteilung konvergieren. Für das Beispiel im Bild ist die Bootstrap-Stichprobenverteilung um   zentriert, und im Allgemeinen nicht um  , hat jedoch die zu erwartende richtige Streuungsbreite.

Anwendungsbereiche

Bearbeiten

Die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion dient in der statistischen Schätz- und Testtheorie zur Gewinnung von Aussagen über unbekannte Parameter in der Grundgesamtheit aufgrund einer Stichprobe.

Statistische Schätztheorie

Bearbeiten

In der statistischen Schätztheorie ist die interessierende Stichprobenverteilung häufig die Wahrscheinlichkeitsverteilung einer Schätzfunktion für einen unbekannten Parameter der Grundgesamtheit.

Beispiel

Bearbeiten

Sind die Stichprobenvariablen   stochastisch unabhängig und identisch verteilte Bernoulli-Variablen mit dem unbekannten Bernoulli-Parameter  , dann ist die Stichprobenverteilung der Summenvariablen   eine Binomialverteilung mit den Parametern   und  . Die Stichprobenverteilung der Stichprobenvariablen   hängt vom unbekannten Parameter   ab.

Statistische Testtheorie

Bearbeiten

In der statistischen Testtheorie hängt die Verteilung einer Teststatistik typischerweise von den Stichprobenvariablen  , dem Stichprobenumfang   und einem spezifizierten Wert eines unbekannten Parameters der Grundgesamtheit ab.

Beispiel

Bearbeiten

Sind die Stichprobenvariablen stochastisch unabhängig und identisch normalverteilt mit unbekanntem Parameter   und bekannter Varianz  , dann ist die Zufallsvariable

 

die Teststatistik eines Gauß-Tests mit den Hypothesen   und  . Die Stichprobenverteilung der Teststatistik   ist die Normalverteilung mit dem Erwartungswert   und der Varianz 1,

 

Die Stichprobenverteilung der Stichprobenfunktion   hängt vom unbekannten Parameter   ab. Wenn die Nullhypothese richtig ist, also   gilt, dann ist   standardnormalverteilt. Diese spezielle Stichprobenverteilung heißt dann auch die Verteilung der Teststatistik unter  .

Stichproben aus endlichen Grundgesamtheiten

Bearbeiten

Im statistischen Methodengebiet der Stichproben aus endlichen Grundgesamtheiten sind die Stichprobenvariablen typischerweise zwar identisch verteilt, aber nicht stochastisch unabhängig, wenn Schemata der Stichprobenziehung berücksichtigt werden, die nicht dem Schema Ziehen mit Zurücklegen entsprechen, das zu stochastisch unabhängigen und identisch verteilten Stichprobenvariablen führt.

Bei vielen Anwendungen erfolgt ein Ziehen ohne Zurücklegen, bei dem die Stichprobenvariablen zwar identisch verteilt, aber nicht stochastisch unabhängig sind. Wenn die Grundgesamtheit aus   unterscheidbaren statistischen Einheiten in der Menge   besteht, so gibt es beim Ziehen einer Stichprobe vom Umfang   ohne Zurücklegen insgesamt   mögliche Stichproben, nämlich Paare   in der Menge

 

der möglichen Stichproben. Durch dieses Ziehungsschema sind den möglichen Stichproben die Auswahlwahrscheinlichkeiten

 

zugeordnet. Wenn den Einheiten in   die Werte   eines statistischen Merkmals zugeordnet sind, so wird in einer Stichprobe   das Wertepaar   beobachtet. Die Stichprobenvariablen  , die die zufälligen Werte bei der ersten und zweiten Ziehung beschreiben, haben die gemeinsame zweidimensionale diskrete Wahrscheinlichkeitsverteilung

 

Für die Stichprobenfunktion   ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

 

Für die Stichprobenfunktion   ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

 

Beispiel

Bearbeiten

Für eine Grundgesamt mit   Einheiten und   ergeben sich beim Ziehen ohne Zurücklegen die   verschiedenen Stichproben   vom Umfang  . Dies haben jeweils die Auswahlwahrscheinlichkeit  . Die zugehörigen Beobachtungswerte sind  ,   und  . Die gemeinsame diskrete Wahrscheinlichkeitsverteilung von   ist

 

Die Stichprobenverteilung der Stichprobenfunktion   ist

 

Die Stichprobenverteilung der Stichprobenfunktion   ist

 

Bayesianische Inferenzstatistik

Bearbeiten

Bei der bayesianischen Inferenz wird die A-priori-Verteilung, die auf dem Parameterraum eines zu schätzenden Parameters definiert ist, unter Berücksichtigung der Wahrscheinlichkeitsverteilung des Stichprobenvektors   und unter Verwendung eines realisierten und beobachteten Wertes   des Stichprobenvektors in die A-posteriori-Verteilung transformiert. Dabei ist die A-posteriori-Verteilung proportional zum Produkt aus A-priori-Verteilung und der Likelihoodfunktion. Die Likelihoodfunktion gibt im diskreten Fall die Wahrscheinlichkeit und im stetigen Fall die Wahrscheinlichkeitsdichte des beobachten Wertes   für alternative Parameter an und wird als Funktion auf dem Parameterraum interpretiert.

Aus der A-posteriori-Verteilung können verschiedene Schätzwerte für den zu schätzenden Parameter gewonnen werden, indem z. B. im stetigen Fall der Wert mit maximalen Dichte bzw. im diskreten Fall der Wert mit maximaler Wahrscheinlichkeit, der Median oder der Erwartungswert der A-posteriori-Verteilung als Schätzwert verwendet werden. Ein solcher aus der A-posteriori-Verteilung gewonnener Schätzwert hängt von dem realisierten und beobachteten Wert   des Stichprobenvektors ab. Ersetzt man diesen durch den zufälligen Stichprobenvektor   so ergibt sich die zu dem jeweiligen Schätzwert gehörige Schätzfunktion, deren Wahrscheinlichkeitsverteilung eine Stichprobenverteilung ist.

Falls eine suffiziente Stichprobenfunktion (suffiziente Statistik) existiert, kann die Stichprobenverteilung dieser Stichprobenfunktion an die Stelle der Verteilung des Stichprobenvektors treten, ohne dass sich die resultierende A-posteriori-Verteilung ändert.

Beispiel

Bearbeiten

Die Stichprobenvariablen   seien stochastisch unabhängig und identisch Bernoulli-verteilt mit unbekanntem Bernoulli-Parameter  . Die Wahrscheinlichkeitsverteilung des Stichprobenvektors   ist dann

 

wobei  . Wenn   die gegebene Dichtefunktion einer A-Priori-Verteilung auf dem Intervall   ist und   ein realisierter und beobachteter Wert des Suchprobenvektors   ist, dann ist die Dichtefunktion   der A-Posteriori-Verteilung proportional zum Produkt aus   und der Likelihoodfunktion

 

Es gilt also

 .

Damit ist die A-priori-Verteilung spezifiziert. Dies kann für bestimmte Anwendungen ausreichend sein. Um einen Schätzwert für den Parameter   zu erhalten, muss in einem zweiten Schritt eine Kennzahl der A-Posterior-Verteilung bestimmt werden.

Wenn   konstant ist – dies ist die Dichtefunktion einer Beta-Verteilung mit den Parametern   –, dann ist die A-priori-Verteilung proportional zur Likelihoodfunktion und die Stelle mit maximaler A-Priori-Dichte ist der Maximum-Likelihood-Schätzwert   für  . Die zugehörige Schätzfunktion für   ist   mit  . Die A-Priori-Verteilung ist eine Beta-Verteilung mit den Parametern   und   und dem Erwartungswert  , so dass   ein alternativer bayesianischer Schätzwert mit der zugehörigen Schätzfunktion   ist. Die Stichprobenverteilungen beider Schätzfunktionen sind durch eine Binomialverteilung bestimmt, da   binomialverteilt ist, .

Die Summe   der Stichprobenvariablen ist eine suffiziente Stichprobenfunktion für den Parameter   mit der Stichprobenverteilung

 

und der Likelihoodfunktion

 

Da sich die Likelihoodfunktionen   und   nur durch einen konstanten Faktor unterscheiden, gilt auch

 .

Die bayessche Inferenz beruhend auf der Verteilung des Stichprobenvektors und auf der Stichprobenverteilung der suffizienten Stichprobenfunktion führt zur selben A-Posteriori-Verteilung.

Zu diesem Beispiel siehe auch Bayessche Statistik#Bayessche Inferenz am Beispiel des Münzwurfes und Suffiziente Statistik#Beispiel: Binomialverteilung.

Anwendung

Bearbeiten

Anwendung findet die Stichprobenverteilung in der Herleitung von Konfidenzintervallen, siehe dort.

Siehe auch

Bearbeiten

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Rainer Schlittgen: Einführung in die Statistik – Analyse und Modellierung von Daten. 12., korrigierte Auflage. Oldenbourg Verlag, München 2012, ISBN 978-3-486-71524-8, S. 277, doi:10.1524/9783486715910.
  2. Jürgen Bortz, Christof Schuster: Statistik für Human- und Sozialwissenschaftler. 7., vollständig überarbeitete und erweiterte Auflage. Springer, Berlin 2010, ISBN 978-3-642-12769-4, 6.2 Stichprobenverteilung, S. 82.
  3. Beispielsweise gibt es keinen Eintrag Stichprobenverteilung und keine Verwendung des Begriffs in:
  4. Ronald A. Fisher: The goodness of fit of regression formulae, and the distribution of regression coefficients. In: Journal of the Royal Statistical Society. Band 85, Nr. 4, 1922, S. 597–612, S. 598, JSTOR:2341124.
  5. Ronald A. Fisher: The general sampling distribution of the multiple correlation coefficient. In: Proceedings of Royal Society A. Band 121, 1928, S. 654–673, doi:10.1098/rspa.1928.0224.
  6. Ronald A. Fisher: Moments and Product Moments of Sampling Distributions. In: Proceedings of the London Mathematical Society, Series 2. Band 30, 1929.
  7. Earliest Known Uses of Some of the Words of Mathematics – Sampling Distribution. Abgerufen am 17. Mai 2024.