Momenterzeugende Funktion

Aus testwiki
Zur Navigation springen Zur Suche springen

Die momenterzeugende Funktion ist eine Funktion, die in der Wahrscheinlichkeitstheorie einer Zufallsvariablen zugeordnet wird. In vielen Fällen ist diese Funktion in einer Umgebung des Nullpunktes in den reellen bzw. komplexen Zahlen definiert und kann dann mittels Ableitung zur Berechnung der Momente der Zufallsvariablen verwendet werden, woraus sich ihr Name erklärt.

Definition

Die momenterzeugende Funktion einer Zufallsvariablen X ist definiert durch[1]

MX(t):=E(etX),

wobei für t reelle Zahlen eingesetzt werden können, sofern der Erwartungswert auf der rechten Seite existiert. Dieser Ausdruck ist mindestens für t=0 definiert. In vielen Fällen, siehe unten, ist diese Funktion in einer Umgebung von 0 definiert, und kann dann wie folgt in eine Potenzreihe entwickelt werden:

MX(t)=E(n=0(tX)nn!)=n=0tnn!E(Xn)=n=0tnn!mXn.

Dabei gilt 00:=1 und die mXn=E(Xn) sind die Momente von X.

Die momenterzeugende Funktion hängt nur von der Verteilung von X ab. Wenn die momenterzeugende Funktion einer Verteilung in einer Umgebung von 0 existiert, so sagt man, etwas unpräzise aber allgemein gebräuchlich, die Verteilung habe eine momenterzeugende Funktion. Existiert MX(t) nur für t=0, so sagt man entsprechend, dass die Verteilung keine momenterzeugende Funktion habe.

Stetige Wahrscheinlichkeitsverteilungen

Falls X eine stetige Wahrscheinlichkeitsdichte f hat, kann man obigen Erwartungswert mittels dieser Dichte schreiben und erhält für die momenterzeugende Funktion

MX(t)=etxf(x)dx
=(1+tx+t22!x2+)f(x)dx
=1+tmX1+t22!mX2+

Dabei ist mXk das k-te Moment von X. Der Ausdruck MX(t) ist also gerade die zweiseitige Laplacetransformation des durch X festgelegten Wahrscheinlichkeitsmaßes.

Bemerkungen

Ursprung des Begriffs der momenterzeugenden Funktion

Die Bezeichnung momenterzeugend bezieht sich darauf, dass die k-te Ableitung von MX im Punkt 0 (Null) gleich dem k-ten Moment der Zufallsvariablen X ist:

dkdtkMX(t)|t=0=E(Xk)=mXk.

Das liest man direkt an der oben angegebenen Potenzreihe ab. Durch die Angabe aller nicht verschwindenden Momente ist jede Wahrscheinlichkeitsverteilung vollständig festgelegt, falls die momenterzeugende Funktion auf einem offenen Intervall (ε,ε) existiert (ε>0).

Die erste Erwähnung des Begriffs momenterzeugende Funktion scheint französischsprachig (la fonction génératrice des moments) im Jahr 1925 durch V. Romanovsky erfolgt zu sein.[2][3] Im englischen Sprachraum wird die erste Verwendung des Begriffs moment generating function Ronald A. Fisher im Jahr 1929 zugeschrieben.[4][3]

Zusammenhang mit der charakteristischen Funktion

Die momenterzeugende Funktion steht in engem Zusammenhang mit der charakteristischen Funktion φX(t)=E(eitX). Es gilt φX(t)=MiX(t)=MX(it), falls die momenterzeugende Funktion existiert. Im Gegensatz zur momenterzeugenden Funktion existiert die charakteristische Funktion für beliebige Zufallsvariablen.

Zusammenhang mit der wahrscheinlichkeitserzeugenden Funktion

Des Weiteren besteht noch ein Zusammenhang zur wahrscheinlichkeitserzeugenden Funktion. Diese ist jedoch nur für 0-wertige Zufallsvariablen definiert und zwar als mX(t)=E(tX). Damit gilt mX(et)=MX(t) für diskrete Zufallsvariablen.

Zusammenhang mit der kumulantenerzeugenden Funktion

Die kumulantenerzeugende Funktion wird als natürlicher Logarithmus der momenterzeugenden Funktion definiert. Aus ihr wird der Begriff der Kumulante abgeleitet.

Summen unabhängiger Zufallsvariablen

Die momenterzeugende Funktion einer Summe unabhängiger Zufallsvariablen ist das Produkt ihrer momenterzeugenden Funktionen: Sind X1,,Xn unabhängig, dann gilt für Y=X1++Xn

MY(t)=E(etY)=E(etX1++tXn)=E(etX1etXn)=E(etX1)E(etXn)=MX1(t)MXn(t),

wobei beim vorletzten Gleichheitszeichen verwendet wurde, dass der Erwartungswert eines Produktes unabhängiger Zufallsvariablen gleich dem Produkt ihrer Erwartungswerte ist.

Linear-affine Transformationen

Ist X eine Zufallsvariable mit momenterzeugender Funktion MX, so hat die transformierte Zufallsvariable a+bX mit a,b die momenterzeugende Funktion Ma+bX mit

Ma+bX(t)=eatMX(bt).

Eindeutigkeitseigenschaft

Ist die momenterzeugende Funktion einer Zufallsvariablen X in einer Umgebung von 0 endlich, so bestimmt sie die Verteilung von X eindeutig.[5]

Seien X und Y zwei Zufallsvariablen mit momenterzeugenden Funktionen MX und MY derart, dass es ein ε>0 gibt mit MX(s),MY(s)< für alle s(ε,ε). Dann gilt PX=PY genau dann, wenn MX(s)=MY(s) für alle s(ε,ε) gilt.

Konvexität

Jede momenterzeugende Funktion ist konvex. Sie ist sogar strikt konvex, wenn X0.[6]

Beispiele

Für viele Verteilungen kann man die momenterzeugende Funktion direkt angeben:

Verteilung Momenterzeugende Funktion MX(t)
Bernoulli-Verteilung B(p) MX(t)=1p+pet
Betaverteilung B(a,b,p,q)[7] MX(t)=1+n=1(k=0n1a+ka+b+k)tnn!
Binomialverteilung B(p,n) MX(t)=(1p+pet)n
Cauchy-Verteilung Die Cauchy-Verteilung hat keine momenterzeugende Funktion.[8]
Chi-Quadrat-Verteilung χn2 [9] MX(t)=1(12t)n/2
Erlang-Verteilung Erlang(λ,n) MX(t)=(λλt)n für t<λ
Exponentialverteilung Exp(λ) MX(t)=λλt für t<λ
Gammaverteilung γ(p,b) MX(t)=(bbt)p
Geometrische Verteilung mit Parameter p MX(t)=pet1(1p)et
Gleichverteilung über [0,a] MX(t)=eta1ta
Laplace-Verteilung mit Parametern μ,σ[10] MX(t)=eμt1σ2t2
Negative Binomialverteilung NB(r,p) MX(t)=(pet1(1p)et)r für t<|ln(1p)|
Normalverteilung N(μ,σ2) MX(t)=exp(μt+σ2t22)
Poisson-Verteilung mit Parameter λ MX(t)=exp(λ(et1))

Verallgemeinerung auf mehrdimensionale Zufallsvariablen

Die momenterzeugende Funktion lässt sich auf -dimensionale reelle Zufallsvektoren 𝐗=(X1,,X) wie folgt erweitern:

M𝐗(𝐭)=M𝐗(t1,,tl)=E(e𝐭,𝐗)=E(j=1etjXj),

wobei 𝐭,𝐗=j=1tjXj das Standardskalarprodukt bezeichnet.

Wenn die Komponenten des Zufallsvektors paarweise voneinander unabhängig sind, dann ergibt sich die momenterzeugende Funktion als Produkt aus den momentgenerierenden Funktionen von eindimensionalen Zufallsvariablen:

M𝐗(t1,,tl)=E(e𝐭,𝐗)=j=1E(etjXj)=j=1MXj(tj).

Siehe auch

Literatur

  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2. Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 378 ff.

Einzelnachweise

  1. Robert G. Gallager: Stochastic Processes. Cambridge University Press, 2013, ISBN 978-1-107-03975-9, Kapitel 1.5.5: Moment generating functions and other transforms
  2. Vorlage:Literatur
  3. 3,0 3,1 Vorlage:Internetquelle
  4. Vorlage:Literatur
  5. Vorlage:Literatur
  6. Vorlage:Literatur
  7. Otto J.W.F. Kardaun: Classical Methods of Statistics. Springer-Verlag, 2005, ISBN 3-540-21115-2, S. 44.
  8. Allan Gut: Probability: A Graduate Course. Springer-Verlag, 2012, ISBN 978-1-4614-4707-8, Kapitel 8, Beispiel 8.2.
  9. A. C. Davison: Statistical Models. Cambridge University Press, 2008, ISBN 978-1-4672-0331-9, Kapitel 3.2.
  10. Hisashi Tanizaki: Computational Methods in Statistics and Econometrics. Verlag Taylor and Francis, 2004, ISBN 0-203-02202-5, Abschnitt 2.2.11.