Schwaches Gesetz der großen Zahlen

Das schwache Gesetz der großen Zahlen ist eine Aussage der Wahrscheinlichkeitstheorie, die sich mit dem Grenzwertverhalten von Folgen von Zufallsvariablen beschäftigt. Dabei werden Aussagen über die Konvergenz in Wahrscheinlichkeit der Mittelwerte der Zufallsvariablen getroffen. Das schwache Gesetz der großen Zahlen ist eng mit dem starken Gesetz der großen Zahlen verwandt, dieses verwendet jedoch einen anderen Konvergenzbegriff, die fast sichere Konvergenz. Beide zählen zu den Gesetzen der großen Zahlen und damit zu den Grenzwertsätzen der Stochastik.

Im Laufe der Zeit wurden die Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt, immer weiter abgeschwächt, während dementsprechend die zum Beweis nötigen Mittel immer fortgeschrittener wurden. Einige der geschichtlich bedeutsamen Formulierungen des schwachen Gesetzes der großen Zahlen tragen auch Eigennamen wie beispielsweise Bernoullis Gesetz der großen Zahlen (nach Jakob I Bernoulli), Tschebyscheffs schwaches Gesetz der großen Zahlen (nach Pafnuti Lwowitsch Tschebyschow) oder Khinchins schwaches Gesetz der großen Zahlen (nach Alexander Jakowlewitsch Chintschin). Bisweilen finden sich noch Bezeichnungen wie -Version oder -Version des schwachen Gesetzes der großen Zahlen für Formulierungen, die lediglich die Existenz der Varianz oder des Erwartungswertes als Voraussetzung benötigen.

Formulierung

Bearbeiten

Gegeben sei eine Folge von Zufallsvariablen  , für deren Erwartungswert gelte   für alle  . Man sagt, die Folge genügt dem schwachen Gesetz der großen Zahlen, wenn die Folge

 

der zentrierten Mittelwerte in Wahrscheinlichkeit gegen 0 konvergiert, das heißt, es gilt

 

für alle  .

Interpretation und Unterschied zum starken Gesetz der großen Zahlen

Bearbeiten

Aus dem starken Gesetz der großen Zahlen folgt immer das schwache Gesetz der großen Zahlen.

Gültigkeit

Bearbeiten

Im Folgenden sind verschiedene Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt, aufgelistet. Dabei steht die schwächste und auch speziellste Aussage ganz oben, die stärkste und allgemeinste ganz unten.

Bernoullis Gesetz der großen Zahlen

Bearbeiten

Sind   unabhängig identisch Bernoulli-verteilte Zufallsvariablen zum Parameter  , das heißt

 ,

so genügt   dem schwachen Gesetz der großen Zahlen und der Mittelwert konvergiert in Wahrscheinlichkeit gegen den Parameter  .

Diese Aussage geht auf Jakob I Bernoulli zurück, wurde jedoch erst 1713 posthum in der von seinem Neffen Nikolaus I Bernoulli herausgegebenen Ars conjectandi veröffentlicht.[1][2]

Tschebyscheffs schwaches Gesetz der großen Zahlen

Bearbeiten

Sind   unabhängig identisch verteilte Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz, so genügt   dem schwachen Gesetz der großen Zahlen.

Diese Aussage geht auf Pafnuti Lwowitsch Tschebyschow (alternative Transkriptionen aus dem Russischen Tschebyscheff oder Chebyshev) zurück, der sie 1866 bewies.[3]

L2-Version des schwachen Gesetzes der großen Zahlen

Bearbeiten

Sind   eine Folge von Zufallsvariablen, für die gilt:

  • Die   sind paarweise unkorreliert, das heißt, es ist   für  .
  • Für die Folge der Varianzen der   gilt[4]
 .

Dann genügt   dem schwachen Gesetz der großen Zahlen.

Dabei ist die Bedingung an die Varianzen beispielsweise erfüllt, wenn die Folge der Varianzen beschränkt ist, es ist also  .

Diese Aussage ist aus zweierlei Gründen eine echte Verbesserung gegenüber dem schwachen Gesetz der großen Zahlen von Tschebyscheff:

  1. Paarweise Unkorreliertheit ist eine schwächere Forderung als Unabhängigkeit, da aus Unabhängigkeit immer paarweise Unkorreliertheit folgt, der Umkehrschluss aber im Allgemeinen nicht gilt.
  2. Die Zufallsvariablen müssen auch nicht mehr dieselbe Verteilung besitzen, es genügt die obige Forderung an die Varianzen.

Die Benennung in L2-Version kommt aus der Forderung, dass die Varianzen endlich sein sollen, dies entspricht in maßtheoretischer Sprechweise der Forderung, dass die Zufallsvariable (messbare Funktion) im Raum der quadratintegrierbaren Funktionen liegen soll.

Khinchins schwaches Gesetz der großen Zahlen

Bearbeiten

Sind   unabhängig identisch verteilte Zufallsvariablen mit endlichem Erwartungswert, so genügt die Folge dem schwachen Gesetz der großen Zahlen.

Dieser Satz wurde 1929 von Alexander Jakowlewitsch Chintschin (alternative Transkriptionen aus dem Russischen Khintchine oder Khinchin) bewiesen[5] und zeichnet sich dadurch aus, dass er die erste Formulierung eines schwachen Gesetzes der großen Zahlen liefert, die ohne die Voraussetzung einer endlichen Varianz auskommt.

L1-Version des schwachen Gesetzes der großen Zahlen

Bearbeiten

Sei   eine Folge von paarweise unabhängigen Zufallsvariablen, die identisch verteilt sind und einen endlichen Erwartungswert besitzen. Dann genügt   dem schwachen Gesetz der großen Zahlen.

Diese Aussage ist eine echte Verbesserung gegenüber dem schwachen Gesetz der großen Zahlen von Khinchin, da aus paarweiser Unabhängigkeit von Zufallsvariablen nicht die Unabhängigkeit der gesamten Folge von Zufallsvariablen folgt.

Beweisskizzen

Bearbeiten

Als Abkürzungen seien vereinbart

 

Versionen mit endlicher Varianz

Bearbeiten

Die Beweise der Versionen des schwachen Gesetzes der großen Zahlen, welche die Endlichkeit der Varianz als Voraussetzung benötigen, beruhen im Kern auf der Tschebyscheff-Ungleichung

 ,

hier für die Zufallsvariable   formuliert.

Der Beweis von Bernoullis Gesetz der großen Zahlen ist somit elementar möglich: Gilt für  , so ist   binomialverteilt, also  . Damit ist

 .

Wendet man nun die Tschebyscheff-Ungleichung auf die Zufallsvariable   an, so folgt

 

für   und alle  .

Analog folgt der Beweis von Tschebyscheffs schwachem Gesetz der großen Zahlen. Ist   und  , ist aufgrund der Linearität des Erwartungswertes

 .

Die Identität

 

folgt aus der Gleichung von Bienaymé und der Unabhängigkeit der Zufallsvariablen. Der weitere Beweis folgt wieder mit der Tschebyscheff-Ungleichung, angewandt auf die Zufallsvariable  .

Zum Beweis der  -Version geht man o.B.d.A. davon aus, dass alle Zufallsvariablen den Erwartungswert 0 haben. Aufgrund der paarweisen Unkorreliertheit gilt die Gleichung von Bienaymé noch, es ist dann

 .

Durch Anwendung der Tschebyscheff-Ungleichung erhält man

 .

für   nach der Voraussetzung an die Varianzen.

Khinchins schwaches Gesetz der großen Zahlen

Bearbeiten

Verzichtet man auf die endliche Varianz als Voraussetzung, so steht die Tschebyscheff-Ungleichung zum Beweis nicht mehr zur Verfügung.

Der Beweis erfolgt stattdessen mithilfe von charakteristischen Funktionen. Ist  , so folgt mit den Rechenregeln für die charakteristischen Funktionen und der Taylor-Entwicklung, dass

 ,

was für   aufgrund der Definition der Exponentialfunktion gegen   konvergiert, der charakteristischen Funktion einer Dirac-verteilten Zufallsvariable. Also konvergiert   in Verteilung gegen eine Dirac-verteilte Zufallsvariable im Punkt  . Da aber diese Zufallsvariable fast sicher konstant ist, folgt auch die Konvergenz in Wahrscheinlichkeit der   gegen  , was zu zeigen war.

Alternative Formulierungen

Bearbeiten

Allgemeinere Formulierung

Bearbeiten

Etwas allgemeiner sagt man, dass die Folge der Zufallsvariablen dem schwachen Gesetz der großen Zahlen genügt, wenn es reelle Folgen   mit   und   gibt, so dass für die Partialsumme

 

die Konvergenz

 

in Wahrscheinlichkeit gilt.[6]

Mit dieser Formulierung lassen sich auch Konvergenzaussagen treffen, ohne dass die Existenz der Erwartungswerte vorausgesetzt werden muss.

Speziellere Formulierung

Bearbeiten

Manche Autoren betrachten die Konvergenz in Wahrscheinlichkeit der gemittelten Partialsummen   gegen  . Diese Formulierung setzt jedoch voraus, dass alle Zufallsvariablen denselben Erwartungswert haben.

Empirisches Gesetz der großen Zahlen

Bearbeiten

Wenn man die relative Häufigkeit eines Zufallsexperiments als Zufallsvariable   auffasst, kann man das empirische Gesetz der großen Zahlen formulieren:

Der Erwartungswert der Zufallsvariablen   ist die betreffende Wahrscheinlichkeit  . Für große   konvergiert die Varianz der Zufallsvariablen gegen 0, also  .

Das kann man wie folgt beweisen.

Ein Zufallsexperiment wird  -mal unabhängig voneinander durchgeführt. Man beobachtet dabei jeweils, ob das Ereignis   eintritt oder nicht. Dieses Zufallsexperiment kann mit einer Bernoulli-Kette der Länge   und der Erfolgswahrscheinlichkeit   modelliert werden. Die Zufallsvariable  , die die Anzahl der Erfolge angibt, kann zugleich als die Zufallsvariable der absoluten Häufigkeiten   aufgefasst werden. Somit lässt sich die relative Häufigkeit   als Zufallsvariable   interpretieren.

Die Zufallsvariable ist binomialverteilt mit dem Erwartungswert   und der Varianz  . Wegen der Linearität des Erwartungswerts ergibt sich daraus

 

und

 

also  .[7]

Bearbeiten

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Hesse: Angewandte Wahrscheinlichkeitstheorie. 2003, S. 241.
  2. Yu.V. Prokhorov: Bernoulli theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
  3. Hesse: Angewandte Wahrscheinlichkeitstheorie. 2003, S. 243.
  4. Meintrup Schäffler: Stochastik. 2005, S. 151.
  5. Hesse: Angewandte Wahrscheinlichkeitstheorie. 2003, S. 243.
  6. Hesse: Angewandte Wahrscheinlichkeitstheorie. 2003, S. 242.
  7. lernhelfer.de: Empirisches Gesetz der großen Zahlen