Die fdd-Konvergenz ist eine spezielle Konvergenzart in der Wahrscheinlichkeitstheorie für die Verteilungen von Zufallsvariablen oder für Wahrscheinlichkeitsmaße. Bei ihr handelt es sich um eine Abschwächung der Konvergenz in Verteilung speziell für Zufallsvariablen, die als Werte stetige Funktionen annehmen. Dabei wird die Konvergenz über die Konvergenz der endlichdimensionalen Verteilungen definiert (fdd steht für englisch finite-dimensional distributions, deutsch endlichdimensionale Verteilungen).

Anwendung findet die fdd-Konvergenz beispielsweise bei funktionalen zentralen Grenzwertsätzen wie dem Donsker’schen Invarianzprinzip.

Definition

Bearbeiten

Seien   für   stetige stochastische Prozesse bzw. Zufallsvariablen mit Werten in  , dem Raum der stetigen Funktionen auf den positiven reellen Zahlen.

Es bezeichne   die k-te Komponente der Zufallsvariable  .

Dann konvergieren die endlichdimensionalen Verteilungen der   gegen  , wenn für alle   und alle   aus   gilt, dass

  in Verteilung gegen   konvergiert.

Dies wird als   oder als   notiert.

Eigenschaften

Bearbeiten

Die fdd-Konvergenz ist eindeutig, das heißt, ist   und  , so ist  .

Dies folgt direkt aus dem Erweiterungssatz von Kolmogorov, da die Randverteilungen eines Wahrscheinlichkeitsmaßes das Maß eindeutig bestimmen.

Außerdem ist die fdd-Konvergenz schwächer als die schwache Konvergenz/Konvergenz in Verteilung. Das bedeutet, dass aus der schwachen Konvergenz immer die fdd-Konvergenz folgt, der Umkehrschluss gilt aber im Allgemeinen nur, wenn man zusätzlich noch die Straffheit der Folge voraussetzt.

Literatur

Bearbeiten