Multivariate Verteilung

Aus testwiki
Version vom 8. November 2024, 08:32 Uhr von imported>-haznK (growthexperiments-addlink-summary-summary:1|0|1)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Vorlage:Dieser Artikel

Eine multivariate Verteilung ist in der Wahrscheinlichkeitsrechnung und in der Statistik die Verteilung eines Zufallsvektors – also einer Zufallsvariablen, deren Werte Vektoren im n sind. Im zweidimensionalen Fall n=2 spricht man auch von einer bivariaten Verteilung. Die multivariate Verteilung eines Zufallsvektors X=(X1,,Xn) ist somit ein Wahrscheinlichkeitsmaß auf n, das messbaren Teilmengen An die Wahrscheinlichkeit zuordnet, dass X einen Wert aus A annimmt. Eine multivariate Verteilung kann durch eine multivariate Verteilungsfunktion charakterisiert werden. Die Verteilungen der einzelnen Komponenten Xi eines Zufallsvektors werden die Randverteilungen von X genannt. Beispiele für multivariate Verteilungen sind die Multinomialverteilung oder die multivariate Normalverteilung, weitere finden sich in der Liste multivariater und matrixvariater Wahrscheinlichkeitsverteilungen.

Einführendes Beispiel

Wir betrachten zwei Zufallsexperimente:

  1. Zweimaliges Würfeln mit einem idealen Würfel. Dies ist äquivalent zu einem Urnenexperiment mit sechs unterscheidbaren Kugeln, wobei zweimal mit Zurücklegen gezogen wird. Es gibt 36 mögliche Ergebnispaare (da wir die Reihenfolge des Würfelns bzw. der Ziehung berücksichtigen), und alle 36 Möglichkeiten sind gleich wahrscheinlich, haben also eine Wahrscheinlichkeit von 1/36.
  2. Ein ähnliches Urnenexperiment, aber ohne Zurücklegen. In diesem Fall kommen die Ergebnisse (1,1), (2,2), …, (6,6) nicht vor, da die i-te Kugel beim zweiten Ziehen nicht vorkommen kann, wenn sie bereits bei der ersten Ziehung herausgenommen wurde. Die übrigen 30 Paare sind gleich wahrscheinlich und haben daher die Wahrscheinlichkeit 1/30.

Diese beiden Experimente ergeben nun zweidimensionale diskrete Zufallsvariablen Z1 und Z2, welche die gleichen Randverteilungen haben (jede Zahl von 1 bis 6 ist bei beiden Experimenten in beiden Ziehungen gleich wahrscheinlich und tritt mit Wahrscheinlichkeit 1/6 auf).

Jedoch sind die beiden Ziehungen im ersten Experiment unabhängig, da die gezogene Kugel zurückgelegt wird, während sie im zweiten Experiment nicht unabhängig sind. Das wird am deutlichsten, wenn man sich klarmacht, dass die Paare (1,1), (2,2), …, (6,6) bei einem unabhängigen Experiment jeweils mit Wahrscheinlichkeit 1/36 vorkommen müssen (Produkt der Randwahrscheinlichkeiten 1/6), sie aber beim zweiten Experiment überhaupt nicht auftreten können (Wahrscheinlichkeit 0 haben), da die Kugel nicht zurückgelegt wird.

Die Verteilungen von Z1 und Z2 sind daher verschieden; es handelt sich also um ein Beispiel zweier unterschiedlicher diskreter multivariater Verteilungen mit gleichen Randverteilungen.

Vorlage:Anker Bivariate Verteilung

10000 Stichproben einer mit der Clayton-Copula modellierten bivariaten Verteilung (mit α=2,88), bei der die Randverteilungen eindimensionale Standardnormalverteilungen sind

Die Realisationen eines bivariaten Zufallsvektors (einer zweidimensionalen Zufallsvariablen) Z=(X,Y) sind Vektoren in 2=×. Die bivariate Verteilung des Zufallsvektors Z liegt durch die Angabe der Wahrscheinlichkeiten

P(ZB)für alle B(2)

fest, wobei (2) die Borelsche σ-Algebra auf 2 bezeichnet. Durch PZ(B):=P(ZB) für alle B(2) ist ein Wahrscheinlichkeitsmaß PZ:(2)[0,1] definiert, das (2,(2),PZ) zu einem Wahrscheinlichkeitsraum macht. PZ ist die bivariate Wahrscheinlichkeitsverteilung oder kurz bivariate Verteilung von Z.

Bivariate Verteilungsfunktion

Die Verteilung des Zufallsvektors Z liegt bereits dann fest, wenn die Wahrscheinlichkeiten

P(Z(,x]×(,y])für alle x,y

gegeben sind. Dies motiviert das Konzept der bivariaten Verteilungsfunktion des Zufallsvektors Z, die durch

FZ(x,y)=P(Xx,Yy)für alle x,y

definiert ist. Durch Angabe der Funktion FZ:2[0,1] liegt die Wahrscheinlichkeitsverteilung von Z fest, da sich aus den durch die Verteilungsfunktion angegebenen Wahrscheinlichkeiten mit den Regeln der Wahrscheinlichkeitsrechnung die Wahrscheinlichkeiten aller anderen Ereignisse ergeben.

Bivariate Dichtefunktion

Falls der Zufallsvektor Z eine bivariate (oder zweidimensionale) Dichtefunktion fX,Y besitzt, dann besteht zwischen der bivariaten Verteilungsfunktion und der bivariaten Dichtefunktion der Zusammenhang

FZ(x,y)=yxfX,Y(u,v)dudv.

Somit liegt durch die Angabe einer bivariaten Dichtefunktion die bivariate Verteilungsfunktion und damit die bivariate Verteilung fest.

Bivariate Verteilung und bedingte Wahrscheinlichkeiten

Wenn die Zufallsvariable diskret ist, dann kann man die gemeinsame Verteilung mit Hilfe bedingter Wahrscheinlichkeiten so schreiben:

P(X=x und Y=y)=P(Y=yX=x)P(X=x)=P(X=xY=y)P(Y=y)

und im stetigen Fall entsprechend

fX,Y(x,y)=fY|X(y|x)fX(x)=fX|Y(x|y)fY(y).

Hier sind fY|X(y|x) und fX|Y(x|y) die bedingten Dichten (Y unter der Bedingung X=x, bzw. von X unter der Bedingung Y=y) und fX(x),fY(y) die Dichten der Randverteilungen von X und Y.

Stochastische Unabhängigkeit

Die Komponenten des Zufallsvektors Z=(X,Y) sind genau dann stochastisch unabhängig, wenn

P(Xx,Yy)=P(Xx)P(Yy)für alle x,y

gilt. Anderenfalls liegt stochastische Abhängigkeit vor. Wenn für diskrete Zufallsvariablen

P(X=x,Y=y)=P(X=x)P(Y=y)für alle x,y

gilt oder wenn für stetige Zufallsvariablen

fX,Y(x,y)=fX(x)fY(y)für alle x,y

gilt, dann sind die Zufallsvariablen X und Y unabhängig.

Abhängigkeitsstruktur und Copula

Wenn die Komponenten des Zufallsvektors (X,Y) nicht stochastisch unabhängig sind, kann die Abhängigkeitsstruktur durch die sogenannte Copula charakterisiert werden. In der Abbildung ist ein Beispiel für die Modellierung der Abhängigkeitsstruktur mit Hilfe einer speziellen Copula gezeigt. Insbesondere ist das ein Beispiel dafür, dass eine bivariate Zufallsvariable mit normalen Randverteilungen nicht bivariat normalverteilt sein muss.

Der allgemeine mehrdimensionale Fall

Multivariate Verteilungen ordnen einem geeigneten Teilmengensystem von n, dem sogenannten Ereignissystem, Wahrscheinlichkeiten zu. Typischerweise wird als Ereignissystem die Borelsche σ-Algebra auf n gewählt, die mit (n) bezeichnet wird. Aus wahrscheinlichkeitstheoretischer Sicht gilt: „Multivariate Verteilungen sind Wahrscheinlichkeitsmaße auf (n).“[1]

Bei Anwendungen, insbesondere im Bereich der Statistik, steht ein Zufallsvektor (eine n-dimensionale Zufallsvariable), X:Ωn im Vordergrund, dessen Komponenten Zufallsvariablen sind. Der Zufallsvektor X=(X1,,Xn) besitzt dann eine multivariate Verteilung, die das Bildmaß PX von P unter X ist. Dabei gilt

PX(B)=P(XB)für alle B(n).

Verteilungsfunktion

Vorlage:Hauptartikel Die Verteilungsfunktion FP einer multivariaten Verteilung P:(n)[0,1] ist durch

FP(x1,,xn)=P((,x1]××(,xn])für alle (x1,,xn)n

definiert.[2]

Die Verteilungsfunktion FX eines Zufallsvektors X:Ωn ist durch

FX(x1,,xn)=P(X1x1,,Xnxn)=P(X(,x1]××(,xn])für alle (x1,,xn)n

definiert.[3]

Besitzt der Zufallsvektor X=(X1,,Xn) eine Dichtefunktion fX:n[0,), dann hängen die Verteilungsfunktion FX und die Dichte fX über

FX(x1,,xn)=xnx1fX(u1,,un)du1dun

zusammen.[3]

Randverteilungen

Es gibt für Randverteilungen mehr Möglichkeiten als im zweidimensionalen Fall, da nun Randverteilungen für jede niedrigere Dimension 1k<n existieren und man (nk) Möglichkeiten hat, einen k-dimensionalen Teilvektor aus einem n-dimensionalen Vektor auszuwählen. Beispielsweise gibt es im dreidimensionalen Fall zur Verteilung des Zufallsvektors (X1,X2,X3) die drei eindimensionale Randverteilungen der Komponenten X1, X2 und X3 sowie die drei zweidimensionale Randverteilungen der Teilvektoren (X1,X2), (X1,X3) und (X2,X3).

Verteilungen von Zufallsmatrizen

Eine Zufallsmatrix 𝐗 ist eine Matrix, deren Elemente Zufallsvariablen sind. Sie kann als eine Funktion 𝐗:Ωm×n aufgefasst werden. Die Verteilung einer Zufallsmatrix ordnet den (Borel-messbaren) Teilmengen von m×n Wahrscheinlichkeiten zu.

Im Zusammenhang mit der Schätzung der Kovarianzmatrix einer d-dimensionalen multivariaten Normalverteilung spielt eine d×d-dimensionale Wishart-Verteilung eine entscheidende Rolle.[4][5] Die Wishart-Verteilung ist eine Matrix-Verallgemeinerung der Chi-Quadrat-Verteilung.[6]

Spezielle multivariate Verteilungen

Diskrete multivariate Verteilungen

Spezielle multivariate Verteilungen sind z. B. die Multinomialverteilung,[7] die negative Multinomialverteilung,[8] die multivariate Poissonverteilung,[9] die multivariate hypergeometrische Verteilung,[10] die multivariate Pólya-Eggenberger-Verteilung[11] und die multivariate Ewens-Verteilung[12].

Stetige multivariate Verteilungen

Spezielle stetige multivariate Verteilungen sind z. B. die multivariate Normalverteilung,[13] verschiedene Konzepte multivariater Exponentialverteilungen,[14] Gammaverteilungen,[15] logistischer Verteilungen,[16] die multivariate Dirichlet-Verteilung,[17] die multivariate Liouville-Verteilung[18] und die multivariaten Extremwertverteilungen[19].

Literatur

  • Ludwig Fahrmeir, Alfred Hamerle (Hrsg.): Multivariate statistische Verfahren. de Gruyter, New York 1996, ISBN 3-11-008509-7.
  • Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Oldenbourg, München/Wien 1999, ISBN 3-486-25287-9.
  • Vorlage:Literatur
  • K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. Acad. Press, New York 1979, ISBN 0-12-471250-9 (engl.).
  • Vorlage:Literatur

Einzelnachweise

Vorlage:Navigationsleiste Wahrscheinlichkeitsverteilungen