Kopplung (Stochastik)

Aus testwiki
Zur Navigation springen Zur Suche springen

Kopplung (von engl. coupling) ist eine Beweismethode im mathematischen Teilgebiet der Wahrscheinlichkeitstheorie. Eine Kopplung zweier Zufallsvariablen X und Y ist dabei ein Zufallsvektor, dessen Randverteilungen gerade den Verteilungen von X und Y entsprechen. Die Methode wurde 1938 von Wolfgang Doeblin im Zusammenhang mit Markow-Ketten entwickelt, erst ca. 1970 führte Frank Spitzer den Begriff coupling ein.[1]

Definition

Hinweis: Hier werden nur reelle Zufallsvariablen betrachtet. Das Konzept lässt sich aber auf beliebige messbare Funktionen übertragen.

Es seien X:(Ω1,𝒜1,μ) und Y:(Ω2,𝒜2,ν) zwei Zufallsvariablen. Die beiden Wahrscheinlichkeitsräume brauchen nicht notwendig gleich zu sein. Durch μX=μX1 wird ein Wahrscheinlichkeitsmaß auf dem Messraum (,()) der reellen Zahlen versehen mit der Borel-σ-Algebra erklärt. Dieses wird Bildmaß oder Verteilung von X genannt, in Zeichen XμX. Für νY=νY1 gilt entsprechendes.

Eine Kopplung von X und Y ist ein gemeinsamer Wahrscheinlichkeitsraum (Ω,𝒜,γ) mit zwei Variablen X^,Y^:Ω derart, dass X^μX und Y^νY gilt.

Man schreibt auch X^=𝒟X und Y^=𝒟Y um anzudeuten, dass die neuen Zufallsvariablen genauso verteilt sind wie die ursprünglichen.

Konventionen

Für die meisten Anwendungen genügt es, das kartesische Produkt Ω=Ω1×Ω2 und die Produkt-σ-Algebra 𝒜=𝒜1𝒜2 zu verwenden. Sind π1 und π2 die jeweiligen Projektionen auf den ersten bzw. zweiten Faktor, so bieten sich außerdem die Variablen X^=Xπ1 und Y^=Yπ2 an. Das Maß γ muss dann so gewählt werden, dass die eindimensionalen Randverteilungen der gemeinsamen Verteilung des Vektors (X^,Y^) die Verteilungen von X und von Y sind. Ein solches Maß ist in der Regel nicht eindeutig. Der Kern der Beweistechnik besteht gerade darin, γ für den jeweiligen Zweck geeignet zu wählen.

Beispiele

Unabhängigkeit

Eine triviale Kopplung ergibt sich aus der Annahme, die Variablen X und Y seien stochastisch unabhängig. Die Verteilung von (X^,Y^) ist dann durch P[(X^,Y^)A1×A2]=μX(A1)νY(A2) für alle Borel-Mengen A1,A2() eindeutig bestimmt. Zieht man diese Verteilung auf den Urbildraum Ω=Ω1×Ω2 zurück, so ergibt sich das Produktmaß γ=μν von μ und ν.

Diese Kopplung wird selten verwendet, da die meisten Beweise eine irgendwie geartete Abhängigkeit zwischen den gekoppelten Variablen benötigen.

Unfaire Münzen

Seien 0p<q1 zwei reelle Zahlen. Angenommen, man hat zwei Münzen, die erste zeigt mit Wahrscheinlichkeit p Kopf, die andere mit Wahrscheinlichkeit q. Intuitiv sollte also die zweite Münze „öfter“ Kopf zeigen. Genauer ist zu beweisen, dass bei n Würfen für jedes kn die Wahrscheinlichkeit, dass die erste Münze mindestens k-mal Kopf zeigt, kleiner ist als die Wahrscheinlichkeit des gleichen Ereignisses für die zweite Münze. Es kann relativ schwierig sein, dies mit klassischen Zählargumenten zu zeigen.[2] Eine einfache Kopplung leistet dagegen das Gewünschte.

Seien X1,X2,Xn die Indikatorvariablen für die Kopf-Würfe der ersten Münze und Y1,Y2,,Yn die der zweiten. Die erste Folge von Zufallsvariablen wird unverändert übernommen, X^i=Xi. Für die Y^i gelte jedoch:

  • Falls Xi=1, so setze Y^i auf 1.
  • Falls Xi=0, setze Y^i auf 1 mit Wahrscheinlichkeit qp1p, ansonsten auf 0.

Die Werte von Y^i hängen jetzt also wirklich vom Ausgang von Xi (und damit von X^i) ab, sie sind gekoppelt. Dennoch gilt P[Y^i=1]=q=P[Yi=1], also Y^i=𝒟Yi. Die Y^i sind aber mindestens immer dann 1, wenn es die X^i sind, also

P[X^1+X^2++X^nk]P[Y^1+Y^2++Y^nk].

In der Sprache der Wahrscheinlichkeitstheorie gilt fast sicher X^iY^i, d. h. P[X^iY^i]=1. In diesem Fall spricht man von einer monotonen Kopplung.

Satz von Strassen

In der Theorie der stochastischen Ordnung verallgemeinert der Satz von Strassen das letzte Beispiel. Er besagt, dass eine Zufallsvariable eine andere genau dann stochastisch dominiert, wenn es eine monotone Kopplung zwischen ihnen gibt. Die entscheidende Richtung der Äquivalenz ist die hin zur Kopplung. Ihr Beweis liefert ein Beispiel, in dem Ω nicht der Produktraum ist.[1]

Die Verteilung einer reellen Zufallsvariable X über einem beliebigen Wahrscheinlichkeitsraum lässt sich durch ihre Verteilungsfunktion FX beschreiben:

FX(x)=P[Xx]=μX((,x]) für alle x.

X heißt von Y stochastisch dominiert, XstY, falls stets FX(x)FY(x) gilt. (Man beachte die Umkehrung des Relationszeichens.)

Als gemeinsamer Wahrscheinlichkeitsraum dient nun das Einheitsintervall Ω=[0,1] versehen mit der Borel-σ-Algebra 𝒜=([0,1]) und dem Lebesgue-Borel-Maß γ=λ, das jedem Teilintervall seine Länge zuweist. Als Zufallsvariable setzt man

X^(ω)=inf{xωFX(x)} für alle ω[0,1].

Ebenso wird auch Y^ aus FY abgeleitet. Nach Konstruktion gilt für alle ω[0,1] und x

ωFX(x)X^(ω)x.

Die beiden Funktionen FX^=FX sind daher gleich, also müssen es auch die Verteilungen X^=𝒟X sein. Y^=𝒟Y folgt analog. Außerdem impliziert diese Äquivalenz zusammen mit FX(x)FY(x) schließlich X^(ω)Y^(ω), wie gewünscht.

Einzelnachweise

Literatur