Kopplung (Stochastik)
Kopplung (von engl. coupling) ist eine Beweismethode im mathematischen Teilgebiet der Wahrscheinlichkeitstheorie. Eine Kopplung zweier Zufallsvariablen <math>X</math> und <math>Y</math> ist dabei ein Zufallsvektor, dessen Randverteilungen gerade den Verteilungen von <math>X</math> und <math>Y</math> entsprechen. Die Methode wurde 1938 von Wolfgang Doeblin im Zusammenhang mit Markow-Ketten entwickelt, erst ca. 1970 führte Frank Spitzer den Begriff coupling ein.<ref name="Random Processes">{{#invoke:Vorlage:Literatur|f}}</ref>
Definition
Hinweis: Hier werden nur reelle Zufallsvariablen betrachtet. Das Konzept lässt sich aber auf beliebige messbare Funktionen übertragen.
Es seien <math>X \colon (\Omega_1,\mathcal A_1, \mu) \to \R</math> und <math>Y \colon (\Omega_2,\mathcal A_2, \nu) \to \R</math> zwei Zufallsvariablen. Die beiden Wahrscheinlichkeitsräume brauchen nicht notwendig gleich zu sein. Durch <math>\mu_X = \mu \circ X^{-1}</math> wird ein Wahrscheinlichkeitsmaß auf dem Messraum <math>(\R,\mathcal B(\R))</math> der reellen Zahlen versehen mit der Borel-σ-Algebra erklärt. Dieses wird Bildmaß oder Verteilung von <math>X</math> genannt, in Zeichen <math>X \sim \mu_X</math>. Für <math>\nu_Y = \nu \circ Y^{-1}</math> gilt entsprechendes.
- Eine Kopplung von <math>X</math> und <math>Y</math> ist ein gemeinsamer Wahrscheinlichkeitsraum <math>(\Omega,\mathcal A, \gamma)</math> mit zwei Variablen <math>\hat X, \hat Y \colon \Omega \to \R</math> derart, dass <math>\hat X \sim \mu_X</math> und <math>\hat Y \sim \nu_Y</math> gilt.
Man schreibt auch <math>\hat X \,\stackrel{\mathcal D}=\, X</math> und <math>\hat Y \,\stackrel{\mathcal D}=\, Y</math> um anzudeuten, dass die neuen Zufallsvariablen genauso verteilt sind wie die ursprünglichen.
Konventionen
Für die meisten Anwendungen genügt es, das kartesische Produkt <math>\Omega = \Omega_1 \times \Omega_2</math> und die Produkt-σ-Algebra <math>\mathcal A = \mathcal{A}_1 \otimes\mathcal{A}_2</math> zu verwenden. Sind <math>\pi_1</math> und <math>\pi_2</math> die jeweiligen Projektionen auf den ersten bzw. zweiten Faktor, so bieten sich außerdem die Variablen <math>\hat X = X \circ \pi_1</math> und <math>\hat Y = Y \circ \pi_2</math> an. Das Maß <math>\gamma</math> muss dann so gewählt werden, dass die eindimensionalen Randverteilungen der gemeinsamen Verteilung des Vektors <math>(\hat X,\hat Y)</math> die Verteilungen von <math>X</math> und von <math>Y</math> sind. Ein solches Maß ist in der Regel nicht eindeutig. Der Kern der Beweistechnik besteht gerade darin, <math>\gamma</math> für den jeweiligen Zweck geeignet zu wählen.
Beispiele
Unabhängigkeit
Eine triviale Kopplung ergibt sich aus der Annahme, die Variablen <math>X</math> und <math>Y</math> seien stochastisch unabhängig. Die Verteilung von <math>(\hat X,\hat Y)</math> ist dann durch <math>P[(\hat X,\hat Y) \in A_1 \times A_2] = \mu_X(A_1) \cdot \nu_Y(A_2)</math> für alle Borel-Mengen <math>A_1,A_2 \in \mathcal B(\R)</math> eindeutig bestimmt. Zieht man diese Verteilung auf den Urbildraum <math>\Omega = \Omega_1 \times \Omega_2</math> zurück, so ergibt sich das Produktmaß <math>\gamma = \mu \otimes \nu</math> von <math>\mu</math> und <math>\nu</math>.
Diese Kopplung wird selten verwendet, da die meisten Beweise eine irgendwie geartete Abhängigkeit zwischen den gekoppelten Variablen benötigen.
Unfaire Münzen
Seien <math>0 \le p < q \le 1</math> zwei reelle Zahlen. Angenommen, man hat zwei Münzen, die erste zeigt mit Wahrscheinlichkeit <math>p</math> Kopf, die andere mit Wahrscheinlichkeit <math>q</math>. Intuitiv sollte also die zweite Münze „öfter“ Kopf zeigen. Genauer ist zu beweisen, dass bei <math>n</math> Würfen für jedes <math>k \le n</math> die Wahrscheinlichkeit, dass die erste Münze mindestens <math>k</math>-mal Kopf zeigt, kleiner ist als die Wahrscheinlichkeit des gleichen Ereignisses für die zweite Münze. Es kann relativ schwierig sein, dies mit klassischen Zählargumenten zu zeigen.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Eine einfache Kopplung leistet dagegen das Gewünschte.
Seien <math>X_1,X_2 \dots, X_n</math> die Indikatorvariablen für die Kopf-Würfe der ersten Münze und <math>Y_1,Y_2, \dots, Y_n</math> die der zweiten. Die erste Folge von Zufallsvariablen wird unverändert übernommen, <math>\hat X_i = X_i</math>. Für die <math>\hat Y_i</math> gelte jedoch:
- Falls <math>X_i = 1</math>, so setze <math>\hat Y_i</math> auf <math>1</math>.
- Falls <math>X_i = 0</math>, setze <math>\hat Y_i</math> auf <math>1</math> mit Wahrscheinlichkeit <math>\tfrac{q-p}{1-p}</math>, ansonsten auf <math>0</math>.
Die Werte von <math>\hat Y_i</math> hängen jetzt also wirklich vom Ausgang von <math>X_i</math> (und damit von <math>\hat X_i</math>) ab, sie sind gekoppelt. Dennoch gilt <math>P[\hat Y_i = 1] = q = P[Y_i = 1]</math>, also <math>\hat Y_i \,\stackrel{\mathcal D}=\, Y_i</math>. Die <math>\hat Y_i</math> sind aber mindestens immer dann <math>1</math>, wenn es die <math>\hat X_i</math> sind, also
- <math>P[ \hat X_1 + \hat X_2 + \dots + \hat X_n \ge k] \le P[\hat Y_1 + \hat Y_2 + \dots + \hat Y_n \ge k]</math>.
In der Sprache der Wahrscheinlichkeitstheorie gilt fast sicher <math>\hat X_i \le \hat Y_i</math>, d. h. <math>P[\hat X_i \le \hat Y_i] =1</math>. In diesem Fall spricht man von einer monotonen Kopplung.
Satz von Strassen
In der Theorie der stochastischen Ordnung verallgemeinert der Satz von Strassen das letzte Beispiel. Er besagt, dass eine Zufallsvariable eine andere genau dann stochastisch dominiert, wenn es eine monotone Kopplung zwischen ihnen gibt. Die entscheidende Richtung der Äquivalenz ist die hin zur Kopplung. Ihr Beweis liefert ein Beispiel, in dem <math>\Omega</math> nicht der Produktraum ist.<ref name="Random Processes" />
Die Verteilung einer reellen Zufallsvariable <math>X</math> über einem beliebigen Wahrscheinlichkeitsraum lässt sich durch ihre Verteilungsfunktion <math>F_X</math> beschreiben:
- <math>F_X(x) = P[X \le x] = \mu_X((-\infty,x])</math> für alle <math>x \in \R</math>.
<math>X</math> heißt von <math>Y</math> stochastisch dominiert, <math>X \preccurlyeq_{st} Y</math>, falls stets <math>F_X(x) \ge F_Y(x)</math> gilt. (Man beachte die Umkehrung des Relationszeichens.)
Als gemeinsamer Wahrscheinlichkeitsraum dient nun das Einheitsintervall <math>\Omega = [0,1]</math> versehen mit der Borel-σ-Algebra <math>\mathcal A = \mathcal B([0,1])</math> und dem Lebesgue-Borel-Maß <math>\gamma = \lambda</math>, das jedem Teilintervall seine Länge zuweist. Als Zufallsvariable setzt man
- <math>\hat X(\omega) = \inf \,\{x \mid \omega \le F_X(x)\}</math> für alle <math>\omega \in [0,1]</math>.
Ebenso wird auch <math>\hat Y</math> aus <math>F_Y</math> abgeleitet. Nach Konstruktion gilt für alle <math>\omega \in [0,1]</math> und <math>x \in \R</math>
- <math>\omega \le F_X(x) \Leftrightarrow \hat X(\omega) \le x</math>.
Die beiden Funktionen <math>F_{\hat X} = F_X</math> sind daher gleich, also müssen es auch die Verteilungen <math>\hat X \,\stackrel{\mathcal D}=\, X</math> sein. <math>\hat Y \,\stackrel{\mathcal D}=\, Y</math> folgt analog. Außerdem impliziert diese Äquivalenz zusammen mit <math>F_X(x) \ge F_Y(x)</math> schließlich <math>\hat X(\omega) \le \hat Y(\omega)</math>, wie gewünscht.
Einzelnachweise
<references/>
Literatur
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}