Wahrscheinlichkeitserzeugende Funktion

Aus testwiki
Version vom 6. Dezember 2024, 22:35 Uhr von imported>Rosenfalter (growthexperiments-addlink-summary-summary:2|0|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Eine wahrscheinlichkeitserzeugende Funktion, auch kurz erzeugende Funktion[1] oder Erzeugendenfunktion[2] genannt, ist in der Wahrscheinlichkeitstheorie eine spezielle reelle Funktion. Jeder diskreten Wahrscheinlichkeitsverteilung auf den natürlichen Zahlen und jeder Zufallsvariable mit Werten in den natürlichen Zahlen kann eine wahrscheinlichkeitserzeugende Funktion zugeordnet werden. Umgekehrt kann auch aus jeder wahrscheinlichkeitserzeugenden Funktion die Wahrscheinlichkeitsverteilung oder die Verteilung der Zufallsvariable eindeutig rekonstruiert werden.

Aufgrund dieser eindeutigen Zuordnung ermöglichen es wahrscheinlichkeitserzeugende Funktionen, gewisse Eigenschaften der Verteilungen und Operationen von Zufallsvariablen auf Eigenschaften und Operationen von Funktionen zu übertragen. So existiert beispielsweise eine Beziehung zwischen den Ableitungen der wahrscheinlichkeitserzeugenden Funktion und dem Erwartungswert, der Varianz und weiteren Momenten der Zufallsvariable. Ebenso entspricht der Addition von stochastisch unabhängigen Zufallsvariablen oder der Faltung der Wahrscheinlichkeitsverteilungen der Multiplikation der entsprechenden wahrscheinlichkeitserzeugenden Funktionen. Diese Vereinfachung wichtiger Operationen ermöglicht dann beispielsweise die Untersuchung von komplexen stochastischen Objekten wie dem Bienaymé-Galton-Watson-Prozess.

Definition

Die wahrscheinlichkeitserzeugende Funktion lässt sich auf zwei Arten angeben: einerseits mittels einer Wahrscheinlichkeitsverteilung, andererseits mittels der Verteilung einer Zufallsvariablen. Beide Arten sind äquivalent in dem Sinn, dass jede Wahrscheinlichkeitsverteilung als Verteilung einer Zufallsvariablen aufgefasst werden kann und jede Verteilung einer Zufallsvariable wieder eine Wahrscheinlichkeitsverteilung ist. Bei beiden Definitionen ist 00:=1 gesetzt. Mit 0 sei die Menge der natürlichen Zahlen inklusive der 0 bezeichnet.

Für Wahrscheinlichkeitsverteilungen

Ist P eine Wahrscheinlichkeitsverteilung auf (0,𝒫(0)) mit Wahrscheinlichkeitsfunktion fP(k)=P({k}), so heißt die Funktion

mP:[0,1][0,1]

definiert durch

mP(t)=k=0fP(k)tk

die wahrscheinlichkeitserzeugende Funktion von P beziehungsweise von fP.[3]

Für Zufallsvariablen

Für eine Zufallsvariable X mit Werten in 0 ist die wahrscheinlichkeitserzeugende Funktion

mX:[0,1][0,1]

von X beziehungsweise von PX definiert als

mX(t):=mPX1(t)=k=0tkP[X=k].[4]

Somit ist die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable genau die wahrscheinlichkeitserzeugende Funktion ihrer Verteilung. Alternativ lässt sich die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable auch über den Erwartungswert definieren als

mX(t):=E[tX].[4]

Elementare Beispiele

Gegeben sei eine Bernoulli-verteilte Zufallsvariable X, also XBer(p). Dann ist P(X=0)=1p und P(X=1)=p. Rein formell fasst man X als Zufallsvariable mit Werten in ganz 0 auf und setzt dann P(X=n)=0 für n2. Dann ist

mX(t)=k=0tkP[X=k]=1p+pt

Ist die Zufallsvariable Y binomialverteilt mit Parametern n und p, also YBinn,p, so ist für kn

P(X=k)=(nk)pk(1p)nk

und P(X=k)=0 für k>n. Die wahrscheinlichkeitserzeugende Funktion ist dann

mX(t)=k=0n(nk)(pt)k(1p)nk=(pt+1p)n.

Dies folgt mittels des binomischen Lehrsatzes.

Eigenschaften

Eigenschaften als Funktion

Die wahrscheinlichkeitserzeugende Funktion ist eine Potenzreihe und hat einen Konvergenzradius von mindestens 1, sie konvergiert also für alle t[0,1]. Dies folgt daraus, dass alle Koeffizienten der Potenzreihe positiv sind und sich zu 1 aufsummieren. Daraus folgt dann k=0|tkP[X=k]|1 für t[1,1]. Damit erben die wahrscheinlichkeitserzeugenden Funktionen auf dem untersuchten Intervall [0,1] alle Eigenschaften der Potenzreihen: Sie sind stetig und auf dem Intervall [0,1) unendlich oft differenzierbar.

Da jedes der Monome xk konvex und monoton wachsend ist und diese Eigenschaften abgeschlossen bezüglich konischen Kombinationen sind, ist auch die wahrscheinlichkeitserzeugende Funktion konvex und monoton wachsend.

Umkehrbarkeit

Die wahrscheinlichkeitserzeugende Funktion bestimmt die Verteilung von X eindeutig:

Sind X und Y 0-wertige Zufallsvariable mit mX(t)=mY(t) für alle t[0,c] mit einem c>0, dann folgt P[X=k]=P[Y=k] für alle k0.

Es gilt dann nämlich nach der Taylor-Formel für alle k0

P[X=k]=mX(k)(0)k!=mY(k)(0)k!=P[Y=k].

Dieser Zusammenhang zeigt, dass mX die Wahrscheinlichkeiten P[X=k] „erzeugt“ und die Wahrscheinlichkeitsfunktion aus der wahrscheinlichkeitserzeugenden Funktion rekonstruiert werden kann.

Faltung und Summen von Zufallsvariablen

Sind X und Y unabhängige 0-wertige Zufallsvariablen, so gilt für die wahrscheinlichkeitserzeugende Funktion von X+Y

mX+Y(t)=E(tX+Y)=E(tXtY)=E(tX)E(tY)=mX(t)mY(t),

denn mit X und Y sind auch tX und tY unabhängig. Das lässt sich direkt auf endliche Summen unabhängiger Zufallsvariabler verallgemeinern: Sind X1,,Xn unabhängige 0-wertige Zufallsvariablen, dann gilt für Sn=i=1nXi

mSn(t)=i=1nmXi(t).

Daraus folgt dann direkt für die wahrscheinlichkeitserzeugende Funktion der Faltung P*Q der Wahrscheinlichkeitsmaße P,Q

mP*Q(t)=mP(t)mQ(t).

Beispiel

Seien X1,X2 unabhängige, Bernoulli-verteilte Zufallsvariablen zum selben Parameter p. Dann ist die Summe der Zufallsvariablen bekanntermaßen binomialverteilt zu den Parametern 2 und p, also X1+X2Bin2,p. Mit den oben im Abschnitt Elementare Beispiele hergeleiteten wahrscheinlichkeitserzeugenden Funktionen für die Bernoulli-Verteilung und die Binomialverteilung folgt

mX1(t)mX2(t)=(1p+pt)2=mBin2,p(t)=mX1+X2(t).

Momenterzeugung

Für eine 0-wertige Zufallsvariable X und k0 ist

E[(Xk)]=limt1mX(k)(t)k!

beziehungsweise

E[X(X1)(Xk+1)]=limt1mX(k)(t).

Dabei sind beide Seiten der beiden Gleichungen genau dann endlich, wenn E[Xk] endlich ist.

Damit lassen sich insbesondere der Erwartungswert und die Varianz einer 0-wertigen Zufallsvariablen aus ihrer wahrscheinlichkeitserzeugenden Funktion ermitteln:

E[X]=limt1mX(t),
Var[X]=E[X(X1)]+E[X]E[X]2=limt1(mX(t)+mX(t)mX(t)2).

Die Betrachtung des linksseitigen Grenzwertes ist hier notwendig, da die Differenzierbarkeit von Potenzreihen auf dem Rande des Konvergenzradius nicht notwendigerweise gegeben ist.

Beispiel

Sei X eine binomialverteilte Zufallsvariable, also XBinn,p. Dann ist

mX(t)=(pt+1p)n,m'X(t)=np(pt+1p)n1 und m'X(t)=n(n1)p2(pt+1p)n2

Beide Ableitungen sind Polynome und können daher problemlos für t=1 ausgewertet werden, der linksseitige Grenzwert braucht also nicht betrachtet werden. Es ist

m'X(1)=np und m'X(1)=n(n1)p2.

Damit folgt mit den obigen Ergebnissen

E(X)=m'X(1)=np,Var(X)=mX(1)+mX(1)mX(1)2=np(1p).

Lineare Transformation von Zufallsvariablen

Lineare Transformationen der Zufallsvariable wirken wie folgt auf die wahrscheinlichkeitserzeugende Funktion:

maX+b(t)=tbmX(ta).

Beispiel

Ist X eine Bernoulli-verteilte Zufallsvariable, also XBer(p), so ist für a,b die Zufallsvariable Y=aX+b zweipunktverteilt auf {b,a+b}. Die wahrscheinlichkeitserzeugende Funktion ist dann

mY(t)=maX+b(t)=tbmX(ta)=tb(1p+pta)=(1p)tb+pta+b.

Konvergenz

Die punktweise Konvergenz der wahrscheinlichkeitserzeugenden Funktion lässt sich direkt mit der Konvergenz in Verteilung in Beziehung setzen:

Sind X,X1,X2,X3, Zufallsvariablen mit zugehörigen wahrscheinlichkeitserzeugenden Funktionen m,m1,m2,m3,, so konvergieren die Xn genau dann in Verteilung gegen X, wenn die wahrscheinlichkeitserzeugenden Funktionen mn für alle t[0,ε) mit einem ε(0,1) punktweise gegen m konvergieren.[5]

Die Aussage gilt ebenso für die wahrscheinlichkeitserzeugenden Funktionen von Wahrscheinlichkeitsverteilungen und die schwache Konvergenz.

Wahrscheinlichkeitserzeugende Funktionen von zufälligen Summen

Mittels wahrscheinlichkeitserzeugender Funktionen lassen sich leicht Summen über eine zufällige Anzahl von Summanden berechnen. Sind (Xi)i unabhängig identisch verteilte Zufallsvariablen mit Werten in 0 und T eine weitere, von allen Xi unabhängige Zufallsvariable mit demselben Wertebereich. Dann hat die Zufallsvariable

Z=i=1TXi

die wahrscheinlichkeitserzeugende Funktion

mZ(t)=mT(mX1(t)).

Diese Eigenschaft macht man sich zum Beispiel bei der Analyse des Galton-Watson-Prozesses zunutze. Nach den obigen Regeln für die Berechnung des Erwartungswertes gilt dann mit der Kettenregel

E(Z)=E(T)E(X1),

was der Formel von Wald entspricht.

Für die Varianz gilt dann

Var(Z)=Var(T)E(X1)2+E(T)Var(X1).

Dies ist genau die Blackwell-Girshick-Gleichung. Auch sie folgt mittels der obigen Regeln zur Bestimmung der Varianz und der Produktregel.

Multivariate wahrscheinlichkeitserzeugende Funktion

Ist X=(X1,,Xk) ein k-dimensionaler Zufallsvektor mit Werten in 0k, so ist die wahrscheinlichkeitserzeugende Funktion von X definiert als

mX(t):=mX(t1,,tk)=E(i=1ktiXi)=x1,,xk=0fP(x1,,xk)t1x1tkxk

mit fP(x1,,xk)=P(X1=x1,,Xk=xk).

Erwartungswert, Varianz und Kovarianz

Analog zum eindimensionalen Fall gilt

E(Xi)=mXti(1,,1)i{1,,k}

sowie

Var(Xi)=2mXti2(1,,1)+mXti(1,,1)(1mXti(1,,1))i{1,,k}

und

Cov(Xi,Xj)=2mXtitj(1,,1)mXti(1,,1)mXtj(1,,1)i,j{1,,k}

Beispiele

In der Tabelle sind einige wahrscheinlichkeitserzeugende Funktionen von gängigen diskreten Verteilungen aufgeführt. Wahrscheinlichkeitserzeugende Funktionen von Wahrscheinlichkeitsverteilungen, die hier nicht aufgeführt sind, stehen in dem jeweiligen Artikel der Wahrscheinlichkeitsfunktion.

Verteilung Wahrscheinlichkeitserzeugende Funktion mX(t)
Bernoulli-Verteilung mX(t)=1p+pt
Zweipunktverteilung mX(t)=(1p)ta+ptb
Binomialverteilung B(n,p) mX(t)=(1p+pt)n
Geometrische Verteilung G(p) mX(t)=p1(1p)t
Negative Binomialverteilung NB(r,p) mX(t)=(p1(1p)t)r
Diskrete Gleichverteilung auf {1,,n} mX(t)=k=1n1ntk=tn+1tn(t1)
Logarithmische Verteilung mX(t)=ln(1pt)ln(1p)
Poisson-Verteilung Pλ mX(t)=eλ(t1)
Verallgemeinerte Binomialverteilung GB(p) mX(t)=j=1n(1pj+pjt)
Multivariate Verteilungen
Multinomialverteilung mX(t)=(i=1kpiti)n

Insbesondere ist die wahrscheinlichkeitserzeugende Funktion der Binomialverteilung gleich dem n-fachen Produkt der wahrscheinlichkeitserzeugenden Funktion der Bernoulli-Verteilung, da die Binomialverteilung genau die Summe von unabhängigen Bernoulli-Verteilungen ist. Dasselbe gilt für die geometrische Verteilung und die negative Binomialverteilung.

Zusammenhang mit weiteren erzeugenden Funktionen

Die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable X mit Wahrscheinlichkeitsfunktion p ist ein Spezialfall einer erzeugenden Funktion mit ai=p(i) für i0. Außer der wahrscheinlichkeitserzeugenden Funktion gibt es noch drei weitere erzeugende Funktionen in der Stochastik, die aber nicht nur für diskrete Verteilungen definiert werden. Die momenterzeugende Funktion ist definiert als MX(t):=E(etX). Demnach gilt mX(et)=MX(t) Die charakteristische Funktion ist definiert als φX(t):=E(eitX). Demnach gilt mX(eit)=φX(t).

Außerdem gibt es noch die kumulantenerzeugende Funktion als Logarithmus der momenterzeugenden Funktion. Aus ihr wird der Begriff der Kumulante abgeleitet.

Literatur

Einzelnachweise