Kumulante

Aus testwiki
Version vom 1. Juli 2024, 14:51 Uhr von imported>Invisigoth67 (typo)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Kumulanten sind in der Wahrscheinlichkeitstheorie und Statistik Kenngrößen der Verteilung einer Zufallsvariablen, die in Bezug auf die Summenbildung von stochastisch unabhängigen Zufallsvariablen einfachen Rechengesetzen genügen. Die Folge der Kumulanten beginnt mit dem Erwartungswert und der Varianz.

Definition

Ist MX(t) die momenterzeugende Funktion der Zufallsvariablen X, d. h., es ist

MX(t)=E(etX),

so heißt die Funktion

gX(t)=lnMX(t)=lnE(etX)

kumulantenerzeugende Funktion. Die n-te Kumulante κn der Zufallsvariablen X ist dann definiert durch

κn=ntngX(t)|t=0.

Alternativ lassen sich Kumulanten auch durch die charakteristische Funktion GX(t)=E(eitX) einer Zufallsvariablen X definieren.

Die n-te Kumulante κn ist dann definiert durch

κn=1inntnlnGX(t)|t=0

Die ersten vier Kumulanten einer Zufallsvariablen X sind, wie unten noch umfassender dargelegt wird:

κ1=E(X),
κ2=Var(X),
κ3=E((XE(X))3) (drittes zentrales Moment) und
κ4=E((XE(X))4)3Var(X)2.

Eigenschaften

Kumulanten können aufgrund der für sie geltenden Rechengesetze oft einfach berechnet werden:

Verschiebungs-Invarianz

Die Kumulanten werden auch als Semiinvarianten der Dichtefunktion p(x) bezeichnet, da sie sich, mit Ausnahme von κ1, bei einer Verschiebung des Erwartungswertes nicht ändern. Sei X eine Zufallsvariable, dann gilt für eine beliebige Konstante c:

κ1(X+c)=κ1(X)+c
κn(X+c)=κn(X) mit n2

Homogenität

Die n-te Kumulante ist homogen vom Grad n, sei c eine beliebige Konstante, dann gilt:

κn(cX)=cnκn(X)

Additivität

Seien X1 und X2 stochastisch unabhängige Zufallsvariablen, dann gilt für Y=X1+X2

κn(Y)=κn(X1)+κn(X2)

Analog gilt für die Summe Y=i=1NXi aus N stochastisch unabhängigen Zufallsvariablen X1,X2,,XN:

κn(Y)=i=1Nκn(Xi)

Die Additivität beruht darauf, dass für die charakteristische Funktionen einer Summe unabhängiger Zufallsvariablen die Produktdarstellung GY(k)=GX1(k)GX2(k) gilt. Für die Logarithmen gilt somit eine Additivität:

n=1(it)nn!κn(Y)=lnGY(t)=lnGX1(t)+lnGX2(t)=n=1(it)nn![κn(X1)+κn(X2)]

Besonderheit der Normalverteilung

Für eine Normalverteilung mit Erwartungswert μ und Varianz σ2 ist die charakteristische Funktion gleich G(t)=exp(iμtσ2t2/2) und somit die Kumulanten:

κ1=μ;κ2=σ2;κn=0 für n3.

Alle Kumulanten größer als 2. Ordnung verschwinden. Diese Eigenschaft charakterisiert die Normalverteilung.

Man kann zeigen, dass

  • entweder alle Kumulanten außer den ersten beiden verschwinden
  • oder unendlich viele nichtverschwindende Kumulanten existieren.

Anders ausgedrückt: Die Kumulanten generierende Funktion lnG(k) kann kein endliches Polynom von Grad größer 2 sein.

Kumulanten und Momente

Kumulanten als Funktion der Momente

Bezeichne mn das n-te Moment einer Zufallsvariablen X. Durch G(k) lässt sich mn darstellen als

mn=1inntnG(t)|t=0

Folglich lassen sich die Kumulanten durch die Momente mn bzw. folgendermaßen ausdrücken:

κ1=m1
κ2=m2m12
κ3=m33m2m1+2m13
κ4=m44m3m13m22+12m2m126m14
κ5=m5+5m1(6m22m4)10m3m2+20m3m1260m2m13+24m15

Im Allgemeinen lässt sich die Abhängigkeit der Kumulanten von den Momenten durch folgende Rekursionsformel beschreiben:

κn=mnk=1n1(n1k1)κkmnk

Alternativ lässt sich aus der Formel von Faà di Bruno die k-te Kumulante mittels der Bell-Polynome Bn,k und der Momente m1,,mn darstellen als

κn=k=1n(k1)!(1)k+1Bn,k(m1,,mnk+1).

Mit den zentralen Momenten μn sind die Formeln meist kürzer:

κ1=m1
κ2=μ2
κ3=μ3
κ4=μ43μ22
κ5=μ510μ3μ2
κ6=μ615μ4μ210μ32+30μ23

Von besonderer Bedeutung sind die ersten beiden Kumulanten: κ1 ist der Erwartungswert m1=E(X) und κ2 ist die Varianz μ2=V(X). Ab der vierten Ordnung stimmen Kumulante und zentrales Moment nicht mehr überein.

Herleitung der ersten Kumulanten

Man entwickelt lnG(t) um G(t)=1

lnG(t)=n=1(1)n+1(G(t)1)nn=(G(t)1)(G(t)1)22+(G(t)1)33

und setzt die Reihendarstellung von G(k)

G(t)=n=0(it)nn!mn=1+itm1+(it)22m2+(it)36m3+

in obige Entwicklung ein

lnG(t)=[itm1+(it)22m2+(it)36m3+]12[itm1+(it)22m2+]2+13[itm1+(it)22m2+]3=[itm1+(it)22m2+(it)36m3+]12[(it)2m12+2(it)32m1m2+(it)44m22+]+13[(it)3m13+2(it)42m12m2+2(it)54m1m22+(it)68m23+]

Sortiert man noch nach Potenzen von t, so erhält man die Kumulanten:

lnG(t)=it[m1]κ1+(it)22[m2m12]κ2+(it)36[m33m1m2+2m13]κ3+

Momente als Funktion der Kumulanten

Das n-te Moment ist ein Polynom n-ten Grades der ersten n Kumulanten. Hier die ersten sechs Momente:

m1=κ1
m2=κ2+κ12
m3=κ3+3κ2κ1+κ13
m4=κ4+4κ3κ1+3κ22+6κ2κ12+κ14
m5=κ5+5κ4κ1+10κ3κ2+10κ3κ12+15κ22κ1+10κ2κ13+κ15
m6=κ6+6κ5κ1+15κ4κ2+15κ4κ12+10κ32+60κ3κ2κ1+20κ3κ13+15κ23+45κ22κ12+15κ2κ14+κ16

Die Koeffizienten entsprechen genau denjenigen in der Formel von Faà di Bruno. Allgemeiner ist das n-te Moment genau das n-te vollständige Bell-Polynom Bn, ausgewertet an der Stelle (κ1,,κn):

mn=Bn(κ1,,κn).

Um die zentralen Momente als Funktion der Kumulanten auszudrücken, vernachlässige in obigen Polynomen für die Momente alle Terme, bei denen κ1 als Faktor auftaucht:

μ1=0
μ2=κ2
μ3=κ3
μ4=κ4+3κ22
μ5=κ5+10κ3κ2
μ6=κ6+15κ4κ2+10κ32+15κ23

Kumulanten und Mengenpartitionen

Oben haben wir die Momente als Polynome in den Kumulanten ausgedrückt. Diese Polynome haben eine interessante kombinatorische Interpretation: ihre Koeffizienten zählen Mengenpartitionen. Die allgemeine Form dieser Polynome kann folgendermaßen geschrieben werden

mn=πΠBπκ|B|

wobei

  • π die Menge aller Partitionen einer n-elementigen Menge durchläuft;
  • "Bπ" bedeutet, dass B einer der Blöcke ist, in welche die Menge zerlegt wurde; und
  • |B| ist die Größe des Blocks B.

Multivariate Kumulanten

Die multivariaten (oder gemeinsamen) Kumulanten von mehreren Zufallsvariablen X1, ..., Xn kann auch durch eine Kumulanten-erzeugende Funktion definiert werden:

K(t1,t2,,tn)=logE(ej=1ntjXj).

Diese Formel kann wieder in kombinatorischer Form interpretiert werden gemäß

κn(X1,,Xn)=π(|π|1)!(1)|π|1BπE(iBXi)

wobei π alle Partitionen von { 1, ..., n } durchläuft, B läuft durch die Menge aller Blöcke der Partition π, und |π| ist die Anzahl der Blöcke in π. Zum Beispiel haben wir

κ3(X,Y,Z)=E(XYZ)E(XY)E(Z)E(XZ)E(Y)E(YZ)E(X)+2E(X)E(Y)E(Z).

Dieser kombinatorische Zusammenhang zwischen Kumulanten und Momenten erhält eine einfachere Form, wenn man Momente durch Kumulanten ausdrückt:

E(X1Xn)=πBπκ(Xi:iB).

Zum Beispiel haben wir dann:

E(XYZ)=κ(X,Y,Z)+κ(X,Y)κ(Z)+κ(X,Z)κ(Y)+κ(Y,Z)κ(X)+κ(X)κ(Y)κ(Z).

Die erste Kumulante einer Zufallsvariable ist ihr Erwartungswert, die gemeinsame zweite Kumulante von zwei Zufallsvariablen ist ihre Kovarianz. Sind einige der Zufallsvariablen unabhängig voneinander, so verschwindet jede gemischte Kumulante, welche mindestens zwei der unabhängigen Variablen enthält. Sind alle Zufallsvariablen gleich, so reduziert sich die gemeinsame Kumulante κn(X,,X) auf die gewöhnliche n-te Kumulante κn von X.

Eine weitere wichtige Eigenschaft der multivariaten Kumulanten ist Multilinearität in den Variablen:

κn(X+Y,Z1,Z2,)=κn(X,Z1,Z2,)+κn(Y,Z1,Z2,).

Folgerungen

Gegeben seien die identisch verteilten und stochastisch unabhängigen Zufallsvariablen X1,X2,,XN.

Zentraler Grenzwertsatz

Für die Zufallsvariable

Y=1N(X1+X2++XN)

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

κn(Y)=1Nni=1Nκn(Xi)𝒪(N1n/2)

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten i=1Nκn von der Ordnung 𝒪(N) ist. Hier die Ordnungen der ersten Kumulanten:

κ1(Y)=𝒪(N1/2) ,κ2(Y)=𝒪(N0) ,κ3(Y)=𝒪(N1/2) ,κ4(Y)=𝒪(N1)

Für n3 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

limNκn(Y)=0mitn3

D. h., es bleiben nur die beiden ersten Kumulanten übrig. Die einzige Verteilung, die nur die erste und zweite Kumulante besitzt, ist die Gauß-Verteilung. Damit wird plausibel, dass die Summe beliebiger Zufallsvariablen geteilt durch die Wurzel der Anzahl gegen die Gauß-Verteilung konvergiert; dies ist der Zentrale Grenzwertsatz. Um diese Plausibilitätsbetrachtung zu einem Beweis zu vervollständigen, bedarf es der Verwendung allgemeiner Gesetzmäßigkeiten von charakteristischen Funktionen. Die Gauß-Verteilung nimmt also eine besondere Stellung unter allen Verteilungen ein. Wirken bei einem Experiment viele stochastisch unabhängige Einflüsse, so kann man die Gesamtheit der Einflüsse durch eine Gaußsche Zufallsvariable darstellen.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch Xi=X mit Mittelwert 0, Varianz σ2 und beliebigen höheren Momenten.

κ1(Y)=1Ni=1N0=0 ,κ2(Y)=1Ni=1Nσ2=σ2 ,κ3(Y)=1N3i=1Nκ3(X)=κ3(X)NN0

Für die Zufallsvariable Z

Z:=YE(Y)=1N(X1E(X1)+X2E(X2)++XNE(XN))

kann man gegenüber Y die Verschiebungsinvarianz der Kumulanten der Ordnung größer gleich 2 ausnutzen. Der einzige Unterschied zur Zufallsvariablen Y ist, dass Erwartungswert von Z Null ist, auch dann wenn die Erwartungswerte der Xi nicht verschwinden.

κ1(Z)=1Ni=1Nκ1(XiE(Xi))E(Xi)E(Xi)=0κ2(Z)=1Ni=1Nκ2(XiE(Xi))=1Ni=1Nκ2(Xi)=κ2(Y)=1Ni=1Nσi2=σi=σ,i Spezialfall σ2κ3(Z)=1N3i=1Nκ3(XiE(Xi))=1N3i=1Nκ3(Xi)=κ3(Y)N0

Gesetz der großen Zahlen

Für die Zufallsvariable

Y=1N(X1+X2++XN)

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

κn(Y)=1Nni=1Nκn(Xi)𝒪(N1n)

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten i=1Nκn von der Ordnung 𝒪(N) ist. Hier die Ordnungen der ersten Kumulanten:

κ1(Y)=𝒪(N0) ,κ2(Y)=𝒪(N1) ,κ3(Y)=𝒪(N2) ,κ4(Y)=𝒪(N3)

Für n2 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

limNκn(Y)=0mitn2

D. h., es bleibt nur die erste Kumulante bzw. das erste Moment übrig. Mit wachsendem N erhält man eine Gauß-Verteilung um den Mittelwert

κ1(Y)=1Ni=1Nκ1(Xi),

wobei die Breite von der Ordnung N1 ist, und im Grenzfall N einen scharfen (Delta-förmigen) Peak bei κ1.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch Xi=X mit Mittelwert μ, Varianz σ2 und beliebigen höheren Momenten.

κ1(Y)=1Ni=1Nm=m ,κ2(Y)=1N2i=1Nσ2=σ2NN0 ,κ3(Y)=1N3i=1Nκ3(X)=κ3(X)N2N0

Somit ist Y eine Zufallsvariable mit demselben Mittelwert wie X (man nennt Y erwartungstreuer Schätzer für den Mittelwert von X). Die für wachsende N immer schmaler werdende Breite der Gauß-Verteilung (Standardabweichung um Mittelwert) beträgt σY=σX/N.

Geschichte

Kumulanten und ihre Eigenschaften wurden erstmals 1889 von dem dänischen Mathematiker Thorvald Nicolai Thiele in einem in dänischer Sprache erschienenen Buch beschrieben.[1] Obwohl dieses Buch im gleichen Jahr im Jahrbuch über die Fortschritte der Mathematik ausführlich referiert wurde,[2] blieben die Ergebnisse zunächst weitgehend unbeachtet, so dass Felix Hausdorff noch 1901 diese Kenngrößen in einer Arbeit als (von ihm) „neueingeführt“ bezeichnete.[3]

Freie Kumulanten

In obiger kombinatorischer Momenten-Kumulanten-Formel

E(X1Xn)=πBπκ(Xi:iB)

summiert man über alle Partitionen der Menge {1,,n}. Wenn man stattdessen nur über nicht-kreuzende Partitionen summiert, so erhält man die freien Kumulanten. Diese wurden von Roland Speicher[4] eingeführt und spielen in der freien Wahrscheinlichkeitstheorie eine analoge Rolle wie die üblichen Kumulanten in der klassischen Wahrscheinlichkeitstheorie.[5] Insbesondere sind die freien Kumulanten additiv für freie Zufallsvariable. Die Wignersche Halbkreisverteilung, welche das freie Gegenstück zur Normalverteilung ist, ist dadurch charakterisiert, dass nur die freie Kumulante zweiter Ordnung nicht verschwindet.

Literatur

  • Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3-8348-1753-2, doi:10.1007/978-3-8348-8264-6, S. 68–70.
  • Crispin W. Gardiner: Stochastic methods: a handbook for the natural and social sciences. Springer, 2009. ISBN 978-3-540-70712-7, S. 33–35.
  • M. Abramowitz, I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover, 1965. ISBN 978-0-486-61272-0

Einzelnachweise

  1. Thorvald Nicolai Thiele: Forelæsninger over almindelig Iagttagelseslære: Sandsynlighedsregning og mindste Kvadraters Methode, Kopenhagen 1889.
  2. Jahrbuch über die Fortschritte der Mathematik JFM 21.0210.01.
  3. Felix Hausdorff: Gesammelte Werke, Band V: Astronomie, Optik und Wahrscheinlichkeitstheorie. 2006, ISBN 978-3-540-30624-5, S. 544, 577, doi:10.1007/3-540-30669-2_8.
  4. Speicher, Roland (1994), "Multiplicative functions on the lattice of non-crossing partitions and free convolution", Mathematische Annalen, 298 (4): 611–628
  5. Vorlage:Cite journal