fdd-Konvergenz

Aus testwiki
Version vom 10. September 2022, 12:54 Uhr von imported>Tensorproduct (Hyperlink endlichdimensionale Verteilung)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die fdd-Konvergenz ist eine spezielle Konvergenzart in der Wahrscheinlichkeitstheorie für die Verteilungen von Zufallsvariablen oder für Wahrscheinlichkeitsmaße. Bei ihr handelt es sich um eine Abschwächung der Konvergenz in Verteilung speziell für Zufallsvariablen, die als Werte stetige Funktionen annehmen. Dabei wird die Konvergenz über die Konvergenz der endlichdimensionalen Verteilungen definiert (fdd steht für Vorlage:EnS, deutsch endlichdimensionale Verteilungen).

Anwendung findet die fdd-Konvergenz beispielsweise bei funktionalen zentralen Grenzwertsätzen wie dem Donsker’schen Invarianzprinzip.

Definition

Seien X,Xn für n stetige stochastische Prozesse bzw. Zufallsvariablen mit Werten in C([0,)), dem Raum der stetigen Funktionen auf den positiven reellen Zahlen.

Es bezeichne Yk die k-te Komponente der Zufallsvariable Y.

Dann konvergieren die endlichdimensionalen Verteilungen der Xn gegen X, wenn für alle k und alle t1,t2,,tk aus [0,) gilt, dass

(Xt1n,Xt2n,,Xtkn) in Verteilung gegen (Xt1,Xt2,,Xtk) konvergiert.

Dies wird als XnfddnX oder als PXnfddnPX notiert.

Eigenschaften

Die fdd-Konvergenz ist eindeutig, das heißt, ist PXnfddnPX und PXnfddnPY, so ist PX=PY.

Dies folgt direkt aus dem Erweiterungssatz von Kolmogorov, da die Randverteilungen eines Wahrscheinlichkeitsmaßes das Maß eindeutig bestimmen.

Außerdem ist die fdd-Konvergenz schwächer als die schwache Konvergenz/Konvergenz in Verteilung. Das bedeutet, dass aus der schwachen Konvergenz immer die fdd-Konvergenz folgt, der Umkehrschluss gilt aber im Allgemeinen nur, wenn man zusätzlich noch die Straffheit der Folge voraussetzt.

Literatur