Kopplung (von engl. coupling) ist eine Beweismethode im mathematischen Teilgebiet der Wahrscheinlichkeitstheorie. Eine Kopplung zweier Zufallsvariablen und ist dabei ein Zufallsvektor, dessen Randverteilungen gerade den Verteilungen von und entsprechen. Die Methode wurde 1938 von Wolfgang Doeblin im Zusammenhang mit Markow-Ketten entwickelt, erst ca. 1970 führte Frank Spitzer den Begriff coupling ein.[1]

Definition Bearbeiten

Hinweis: Hier werden nur reelle Zufallsvariablen betrachtet. Das Konzept lässt sich aber auf beliebige messbare Funktionen übertragen.

Es seien   und   zwei Zufallsvariablen. Die beiden Wahrscheinlichkeitsräume brauchen nicht notwendig gleich zu sein. Durch   wird ein Wahrscheinlichkeitsmaß auf dem Messraum   der reellen Zahlen versehen mit der Borel-σ-Algebra erklärt. Dieses wird Bildmaß oder Verteilung von   genannt, in Zeichen  . Für   gilt entsprechendes.

Eine Kopplung von   und   ist ein gemeinsamer Wahrscheinlichkeitsraum   mit zwei Variablen   derart, dass   und   gilt.

Man schreibt auch   und   um anzudeuten, dass die neuen Zufallsvariablen genauso verteilt sind wie die ursprünglichen.

Konventionen Bearbeiten

Für die meisten Anwendungen genügt es, das kartesische Produkt   und die Produkt-σ-Algebra   zu verwenden. Sind   und   die jeweiligen Projektionen auf den ersten bzw. zweiten Faktor, so bieten sich außerdem die Variablen   und   an. Das Maß   muss dann so gewählt werden, dass die eindimensionalen Randverteilungen der gemeinsamen Verteilung des Vektors   die Verteilungen von   und von   sind. Ein solches Maß ist in der Regel nicht eindeutig. Der Kern der Beweistechnik besteht gerade darin,   für den jeweiligen Zweck geeignet zu wählen.

Beispiele Bearbeiten

Unabhängigkeit Bearbeiten

Eine triviale Kopplung ergibt sich aus der Annahme, die Variablen   und   seien stochastisch unabhängig. Die Verteilung von   ist dann durch   für alle Borel-Mengen   eindeutig bestimmt. Zieht man diese Verteilung auf den Urbildraum   zurück, so ergibt sich das Produktmaß   von   und  .

Diese Kopplung wird selten verwendet, da die meisten Beweise eine irgendwie geartete Abhängigkeit zwischen den gekoppelten Variablen benötigen.

Unfaire Münzen Bearbeiten

Seien   zwei reelle Zahlen. Angenommen, man hat zwei Münzen, die erste zeigt mit Wahrscheinlichkeit   Kopf, die andere mit Wahrscheinlichkeit  . Intuitiv sollte also die zweite Münze „öfter“ Kopf zeigen. Genauer ist zu beweisen, dass bei   Würfen für jedes   die Wahrscheinlichkeit, dass die erste Münze  -mal Kopf zeigt, kleiner ist als die Wahrscheinlichkeit des gleichen Ereignisses für die zweite Münze. Es kann relativ schwierig sein, dies mit klassischen Zählargumenten zu zeigen.[2] Eine einfache Kopplung leistet dagegen das Gewünschte.

Seien   die Indikatorvariablen für die Kopf-Würfe der ersten Münze und   die der zweiten. Die erste Folge von Zufallsvariablen wird unverändert übernommen,  . Für die   gelte jedoch:

  • Falls  , so setze   auf  .
  • Falls  , setze   auf   mit Wahrscheinlichkeit  , ansonsten auf  .

Die Werte von   hängen jetzt also wirklich vom Ausgang von   (und damit von  ) ab, sie sind gekoppelt. Dennoch gilt  , also  . Die   sind aber mindestens immer dann  , wenn es die   sind, also

 .

In der Sprache der Wahrscheinlichkeitstheorie gilt fast sicher  , d. h.  . In diesem Fall spricht man von einer monotonen Kopplung.

Satz von Strassen Bearbeiten

In der Theorie der stochastischen Ordnung verallgemeinert der Satz von Strassen das letzte Beispiel. Er besagt, dass eine Zufallsvariable eine andere genau dann stochastisch dominiert, wenn es eine monotone Kopplung zwischen ihnen gibt. Die entscheidende Richtung der Äquivalenz ist die hin zur Kopplung. Ihr Beweis liefert ein Beispiel, in dem   nicht der Produktraum ist.[1]

Die Verteilung einer reellen Zufallsvariable   über einem beliebigen Wahrscheinlichkeitsraum lässt sich durch ihre Verteilungsfunktion   beschreiben:

  für alle  .

  heißt von   stochastisch dominiert,  , falls stets   gilt. (Man beachte die Umkehrung des Relationszeichens.)

Als gemeinsamer Wahrscheinlichkeitsraum dient nun das Einheitsintervall   versehen mit der Borel-σ-Algebra   und dem Lebesgue-Borel-Maß  , das jedem Teilintervall seine Länge zuweist. Als Zufallsvariable setzt man

  für alle  .

Ebenso wird auch   aus   abgeleitet. Nach Konstruktion gilt für alle   und  

 .

Die beiden Funktionen   sind daher gleich, also müssen es auch die Verteilungen   sein.   folgt analog. Außerdem impliziert diese Äquivalenz zusammen mit   schließlich  , wie gewünscht.

Einzelnachweise Bearbeiten

  1. a b Geoffrey Grimmett, David Stirzaker: Probability and Random Processes. 3. Auflage. Oxford University Press, Oxford / New York 2001.
  2. Devdatt Dubhashi, Alessandro Panconesi: Concentration of Measure for the Analysis of Randomized Algorithms. Cambridge University Press, Cambridge / New York 2009.

Literatur Bearbeiten

  • Hans-Otto Georgii: Stochastik – Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4., überarbeitete Auflage. De Gruyter, Berlin 2009.
  • Torgny Lindvall: Lectures on the Coupling Method. Wiley, New York 1992.
  • Hermann Thorisson: Coupling, Stationarity, and Regeneration. Springer, New York 2000.