Satz von Sanov

Aus testwiki
Zur Navigation springen Zur Suche springen

Der Satz von Sanov ist ein Resultat des mathematischen Teilgebiets der Stochastik. Er ist eine zentrale Aussage der Theorie der großen Abweichungen (engl. large deviations theory) und ist eng mit der Informationstheorie verbunden. Der Satz formalisiert die Intuition, dass die Gesamtwahrscheinlichkeit eines seltenen Ereignisses von der Wahrscheinlichkeit des plausibelsten Teilereignisses dominiert wird.[1] Er ist nach dem russischen Mathematiker Ivan Nikolajewitsch Sanov (1919–1968) benannt.[2]

Einleitendes Beispiel

Sei X1,X2,X3, eine Folge von fairen Münzwürfen, modelliert als i.i.d. Bernoulli-Variablen mit Erfolgswahrscheinlichkeit 1/2, also X1Ber(1/2). „Kopf“ entspreche dabei der 1, „Zahl“ der 0. Das starke Gesetz der großen Zahlen besagt, dass das arithmetische Mittel

Sn=1ni=1nXi

fast sicher gegen den Erwartungswert E[X1]=E[X2]==1/2 konvergiert. Es trifft aber keine Aussage über die Geschwindigkeit der Konvergenz. Typischerweise wird der Mittelwert nahe bei 1/2 sein, es ist aber nicht ausgeschlossen, dass er für ein beliebig großes n immer noch stark vom Grenzwert abweicht, also bspw. Sn2/3 gilt. Der Satz von Sanov quantifiziert, wie schnell die Wahrscheinlichkeit einer solchen Abweichung gegen 0 geht. Über das asymptotische Verhalten hinaus kann man sich auch fragen, wie wahrscheinlich der Mittelwert für ein konkretes n abweicht. In seinem berühmten Werk The Doctrine of Chances behandelte Abraham de Moivre beispielsweise ein Gedankenexperiment von 3600 Münzwürfen. Wie hoch ist die Wahrscheinlichkeit für S36002/3?

Solche Fragen lassen sich wie folgt maßtheoretisch formalisieren: Sei 𝒫 die Menge aller Wahrscheinlichkeitsmaße auf {0,1}, also die Gesamtheit aller Bernoulli-Verteilungen. Für jede positive ganze Zahl n sei

P^n=1ni=1nδXi

die empirische Verteilung der ersten n Münzwürfe, wobei δx das Dirac-Maß an der Stelle x bezeichne. Es gilt dann stets P^n𝒫 und nach dem Gesetz der großen Zahlen konvergiert P^nf.s.Ber(1/2). Außerdem sei Γ={Ber(p)|p2/3}𝒫 die Teilmenge aller Verteilungen mit Erwartungswert mindestens 2/3. Dann ist die Wahrscheinlichkeit P[P^nΓ], dass das zufällige Maß P^n in Γ liegt, genau die Wahrscheinlichkeit P[Sn2/3].

Endlicher Fall

Sei 𝒳 eine endliche Menge und 𝒫 die Menge aller Wahrscheinlichkeitsmaße auf 𝒳 versehen mit der schwachen Topologie (vgl. Konvergenz in Verteilung). Sei weiter (Xi)i1 eine Folge von i.i.d. Zufallsvariablen, wobei X1P gemäß einem festen P𝒫 verteilt sei, und sei P^n die empirische Verteilung von X1,,Xn. Für ein Wahrscheinlichkeitsmaß Q𝒫 bezeichne schließlich D(QP)=x𝒳Q(x)logQ(x)P(x) die Kullback-Leibler-Divergenz von P zu Q.

Unter diesen Voraussetzungen besagt der Satz von Sanov, dass für jede Menge Γ𝒫 gilt:[3][4]

infQint(Γ)D(QP)lim infn1nlog(P[P^nΓ])lim supn1nlog(P[P^nΓ])infQcl(Γ)D(QP)

Hierbei ist int(Γ) das Innere und cl(Γ) der Abschluss von Γ. Falls außerdem die linke und die rechte Seite der Ungleichungskette übereinstimmen, dann existiert der Grenzwert und es gilt:

limn1nlog(P[P^nΓ])=infQΓD(QP)

Bemerkungen

  • Die konkrete Wahl der Basis des Logarithmus ist unerheblich, es muss aber darauf geachtet werden, dass dieselbe wie bei der Divergenz verwendet wird (vgl. Shannon (Einheit)).
  • Aus der Endlichkeit von 𝒳 und der Stetigkeit von D(P) folgt infQcl(Γ)D(QP)=infQΓD(QP), das Infimum über das Innere von Γ kann aber echt größer sein.
  • Falls Γ konvex ist, dann ist das Maß P*=argminQΓD(QP) wohldefiniert und wird die Informationsprojektion (engl. information projection) von P auf Γ genannt.[5]
  • Bis auf sublineare additive Terme im Exponenten (d. h. subexponentielle Faktoren) gilt asymptotisch P[P^nΓ]eninfD(QP), wenn die Divergenz in Nat angegeben ist. Es lässt sich sogar zeigen:[4] Für jedes n gilt P[P^nΓ](n+1)|𝒳|eninfD(QP).
  • Das empirische Maß P^n kann nicht beliebige Werte annehmen, sondern liegt stets in 𝒫n={Q𝒫|x𝒳:nQ(x){0,1,,n}}, die Elemente von 𝒫n werden Typen genannt. Die Wahrscheinlichkeit, dass P^n ein konkreter Typ Q𝒫n ist, lässt sich durch (n+1)|𝒳|enD(QP)P[P^n=Q]enD(QP) abschätzen.[4]

Insgesamt wird also die Wahrscheinlichkeit P[P^nΓ] von demjenigen Typ QΓ dominiert, der die kleinste Divergenz von der „wahren“ Verteilung P hat. Jeder andere Typ Q mit D(QP)D(QP)+ε hat eine exponentiell kleinere Wahrscheinlichkeit.

Allgemeiner Fall

Der Satz von Sanov lässt sich erheblich verallgemeinern, insbesondere ist die Endlichkeit der Grundmenge unnötig. Sei nun 𝒳 ein beliebiger polnischer Raum (bspw. der d), 𝒫 die Menge aller Wahrscheinlichkeitsmaße auf 𝒳 mit der schwachen Topologie und wieder (Xi)i1 eine Folge von i.i.d. 𝒳-wertigen Zufallsvariablen mit X1P für ein P𝒫. Jedes absolut stetige Maß QP besitzt eine Radon-Nikodým-Dichte f bezüglich P, die Divergenz ist dann durch D(QP)=flogfdP erklärt, für alle übrigen Maße kann man gefahrlos D(QP)=+ setzen. Beachte, dass die empirischen Maße P^nP offensichtlich immer absolut stetig bezüglich P sind.

Mit diesen angepassten Voraussetzungen besagt der Satz von Sanov erneut, dass für jede Menge Γ𝒫 gilt:[1][3]

infQint(Γ)D(QP)lim infn1nlog(P[P^nΓ])lim supn1nlog(P[P^nΓ])infQcl(Γ)D(QP)

Falls Γ=cl(int(Γ)) der Abschluss seines Inneren ist, dann gilt:

limn1nlog(P[P^nΓ])=infQΓD(QP)

Literatur

Einzelnachweise