Unabhängig und identisch verteilte Zufallsvariablen

(Weitergeleitet von U.i.v.)

Unabhängig und identisch verteilte Zufallsvariablen[1][2] sind eine zentrale Konstruktion der Stochastik und eine wichtige Voraussetzung vieler mathematischer Sätze der Statistik. Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung, nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an, beeinflussen sich dabei aber nicht. Somit sind unabhängig und identisch verteilte Zufallsvariablen die stochastische Modellierung eines allgemeinen naturwissenschaftlichen Experiments: Die Unabhängigkeit sorgt dafür, dass sich die einzelnen Experimente nicht gegenseitig beeinflussen, die identische Verteilung dafür, dass dasselbe Experiment immer wieder durchgeführt wird.

Als Abkürzung finden sich in der Literatur unter anderem iid[3] oder i.i.d.[4] als Abkürzung des englischen independent and identically distributed oder das auf dem Deutschen basierende u.i.v.[5]

Definition

Bearbeiten

Eine Familie   von Zufallsvariablen heißt unabhängig und identisch verteilt, wenn die folgenden beiden Kriterien erfüllt sind:[1]

  • Die Familie   ist stochastisch unabhängig.
  • Die Zufallsvariablen besitzen alle dieselbe Verteilung. Das bedeutet, es existiert eine Wahrscheinlichkeitsverteilung  , so dass   für alle  .

Varianten

Bearbeiten

Die Definition lässt sich problemlos auf beliebige Indexmengen ausdehnen. Gängig ist die Definition für die Indexmenge  , also für eine endliche Folge von Zufallsvariablen  , oder für eine beliebige, möglicherweise überabzählbare Indexmenge  .

Existenz

Bearbeiten

Eine grundlegende Frage ist, ob überhaupt Folgen aus unendlich vielen Zufallsvariablen existieren, die unabhängig und identisch verteilt sind. Dies ist nicht offensichtlich, da die stochastische Unabhängigkeit eine starke Eigenschaft ist, die auf dem zugrunde liegenden Mengensystem definiert ist und nicht a priori klar ist, ob ein Mengensystem existiert, das groß genug ist, um die stochastische Unabhängigkeit vieler Zufallsvariablen zu ermöglichen.

Tatsächlich lässt sich mit fortgeschrittenen Methoden zeigen, dass beliebig große Familien von unabhängig und identisch verteilten Zufallsvariablen existieren. In einführender Literatur wird meist eine vereinfachte Konstruktion angegeben und die Aussage, welche die Existenz von unabhängig und identisch verteilten Zufallsvariablen liefert, auch als „Klonsatz“ bezeichnet.[6]

Im Kern basieren viele Konstruktionen auf der Existenz des unendlichen Produktmaßes, in der allgemeinsten Version garantiert durch den Satz von Andersen-Jessen. Zur Konstruktion einer Folge von unabhängigen, identisch verteilten Zufallsvariablen mit Verteilungen   auf den reellen Zahlen wird der Produktraum

 

konstruiert, wobei   die Produkt-σ-Algebra ist und   das unendliche Produktmaß.

Definiert man dann

 

als Projektion der n-ten Komponente, so sind die   alle Zufallsvariablen (da messbar aufgrund der Definition der Produkt-σ-Algebra) und identisch verteilt sowie stochastisch unabhängig. Die allgemeineren Konstruktionen mit allgemeineren Bildräumen und Indexmengen verlaufen analog.

Verwandte Konzepte

Bearbeiten

Austauschbare Familie von Zufallsvariablen

Bearbeiten

Als austauschbare Familie von Zufallsvariablen bezeichnet man eine Familie von Zufallsvariablen, bei denen sich die Verteilung der gesamten Familie nicht ändert, wenn man endlich viele der Zufallsvariablen miteinander vertauscht. Austauschbare Familien sind immer identisch verteilt, umgekehrt ist jede unabhängig und identisch verteilte Familie immer austauschbar.

Bedingt unabhängig und identisch verteilt

Bearbeiten

Einen analogen Begriff zu unabhängig identisch verteilten Zufallsvariablen erhält man, indem man die Unabhängigkeit von Mengensystemen, auf der die Unabhängigkeit von Zufallsvariablen aufbaut, durch die auf dem bedingten Erwartungswert aufbauende bedingte Unabhängigkeit (von Mengensystemen) ersetzt. Dann heißt eine Familie von Zufallsvariablen   unabhängig und identisch verteilt gegeben  , wenn

  • die von den Zufallsvariablen erzeugten σ-Algebren   bedingt unabhängig gegeben   sind und
  • die bedingten Verteilungen   alle gleich sind.[7]

Weitere verwandte Begriffe

Bearbeiten

Insbesondere im Bereich der klassischen Grenzwertsätze der Stochastik (Gesetz der großen Zahlen und Zentraler Grenzwertsatz) finden sich diverse Abwandlungen der Voraussetzung, dass eine Folge unabhängig und identisch verteilt sein soll. Hierbei wird beispielsweise die stochastische Unabhängigkeit ersetzt durch

  • paarweise stochastische Unabhängigkeit, also die stochastische Unabhängigkeit von   und   für  . Dies ist eine echte Abschwächung gegenüber der stochastischen Unabhängigkeit der gesamten Familie von Zufallsvariablen, wie ein Beispiel für die stochastische Unabhängigkeit von Ereignissen hier belegt.
  • Unkorreliertheit, wobei diese immer nur als paarweise Unkorreliertheit definiert ist. Da aus Unabhängigkeit immer Unkorreliertheit folgt, der Umkehrschluss aber im Allgemeinen nicht gilt, ist dies eine echte Abschwächung gegenüber der paarweisen Unabhängigkeit (und somit auch der Unabhängigkeit).

Eine weitere Abwandlung sind die unabhängigen Schemata von Zufallsvariablen, wie sie beispielsweise im zentralen Grenzwertsatz von Lindeberg-Feller auftreten. Dabei werden die Zufallsvariablen einer Folge gruppiert und die stochastische Unabhängigkeit nur innerhalb der Gruppen gefordert. Die Abhängigkeiten zwischen den Gruppen sind dabei irrelevant.

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. a b Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  2. Schmidt: Maß- und Wahrscheinlichkeit. 2011, S. 347.
  3. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 246.
  4. Czado, Schmidt: Mathematische Statistik. 2011, S. 7.
  5. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  6. Behrends: Elementare Stochastik. 2013, S. 141.
  7. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 243.