Konvergenz im p-ten Mittel

Aus testwiki
Zur Navigation springen Zur Suche springen

Vorlage:Dieser Artikel Die Konvergenz im p-ten Mittel und die beiden Spezialfälle der Konvergenz im quadratischen Mittel und der Konvergenz im Mittel sind Konvergenzbegriffe aus der Maßtheorie und der Wahrscheinlichkeitstheorie, zwei Teilgebieten der Mathematik. In der Maßtheorie ist sie grundlegend für die Konvergenz von Funktionenfolgen in den Funktionenräumen der p-fach integrierbaren Funktionen, den p und Lp-Räumen, in der Wahrscheinlichkeitstheorie ist sie neben der fast sicheren Konvergenz, der Konvergenz in Verteilung und der stochastischen Konvergenz einer der gängigen Konvergenzbegriffe.

Teilweise wird die Konvergenz im p-ten Mittel zur Abgrenzung von der schwachen Konvergenz in Lp und p auch als starke Konvergenz in Lp beziehungsweise p oder Normkonvergenz in p beziehungsweise Lp bezeichnet.

Definition

Maßtheoretische Formulierung

Gegeben sei ein Maßraum (X,𝒜,μ), eine reelle Zahl p(0,) und der entsprechende Funktionenraum p(X,𝒜,μ), kurz mit p bezeichnet. Des Weiteren sei eine Funktionenfolge (fn)n aus p gegeben sowie eine weitere Funktion fp. Definiert man

fp=(|f(x)|pdμ(x))1/p,

so heißt die Funktionenfolge konvergent im p-ten Mittel gegen f, wenn

limnfnfp=0

ist. Ist p=2, so spricht man von Konvergenz im quadratischen Mittel. Ist p=1, so spricht man von Konvergenz im Mittel.

Ebenso definiert man die Konvergenz von (fn)nLp(X,𝒜,μ) gegen fLp(X,𝒜,μ).

Wahrscheinlichkeitstheoretische Formulierung

Gegeben sei eine Folge von Zufallsvariablen (Xn)n und eine weitere Zufallsvariable X. Es gelte E(|X|p)< und E(|Xn|p)< für alle n.

Die Folge (Xn)n konvergiert im p-ten Mittel gegen X, wenn

limnE(|XnX|p)=0

ist. Man schreibt dann XnpX.

Wie im maßtheoretischen Fall spricht man für p=2 von Konvergenz im quadratischen Mittel, für p=1 spricht man von Konvergenz im Mittel.

Eigenschaften

  • Für Funktionen fp ist der Grenzwert nur μ-fast überall bestimmt, da aus f=0 nur f=0 μ-fast überall folgt. Für fLp ist der Grenzwert eindeutig.
  • Für p[1,) bildet fp auf p aufgrund der obigen Aussage eine Halbnorm. Auf Lp handelt es sich dann um eine Norm. Für p(0,1) gilt dies jedoch nicht, da hier die Dreiecksungleichung (in diesem speziellen Fall die Minkowski-Ungleichung) nicht mehr gilt. Allerdings lässt sich durch
d(f,g):=fgpp
eine Metrik definieren, für die
f+gppfpp+gpp
gilt.

Eigenschaften für unterschiedliche Parameter p

Es sei 0<p<p*<. Für endliche Maßräume folgt aus der Konvergenz im p*-ten Mittel die Konvergenz im p-ten Mittel. Denn es gilt

fpμ(X)1/p+1/p*fp*,

die im p-ten Mittel konvergente Folge wird also von der im p*-ten Mittel konvergenten Folge majorisiert. Die obige Ungleichung folgt aus der Hölder-Ungleichung, angewandt auf die Funktionen |f|p und 1 mit Exponenten r=p*p,s=(11/r)1.

Die Aussage ist aber im Allgemeinen falsch. Betrachtet man beispielsweise für reelles k auf (,(),λ) die Funktionenfolge

fn(x):=nkχ[0,n],

so ist

fnp=nk+1p

und somit

limnfnp={falls p<1k0falls 1k<p

Der Umkehrschluss, also von der Konvergenz im p-ten Mittel zur Konvergenz im p*-ten Mittel ist sowohl im Falle eines endlichen Maßes als auch im Allgemeinen falsch. Beispiel hierfür wäre die Funktionenfolge auf ([0,1],([0,1]),λ) definiert durch

fn(x):=nkχ[0,1n]

Wie oben ist dann

fnp=nk1p und limnfnp={0 falls p<1k falls 1k<p.

Cauchy-Folgen

Eine Folge von Funktionen (fn)n in p (bzw. Lp) heißt eine Cauchy-Folge für die Konvergenz im p-ten Mittel, wenn zu jedem ϵ>0 ein Index N existiert, so dass

fnfmp<ϵ

für alle n,mN. Jede im p-ten Mittel konvergente Folge ist eine Cauchy-Folge. Denn für p[1,) ist

fnfmp=fnf+ffmpfnfp+fmfp,

für p(0,1) gilt dieselbe Ungleichung mit pp. Der Satz von Fischer-Riesz liefert die Umkehrung, also dass jede Cauchy-Folge konvergiert. Damit sind der p und der Lp vollständige Räume.

Beziehung zu Konvergenzbegriffen der Wahrscheinlichkeitstheorie

Allgemein gelten für die Konvergenzbegriffe der Wahrscheinlichkeitstheorie die Implikationen

Fast sichereKonvergenzKonvergenz inWahrscheinlichkeitKonvergenz inVerteilung

und

Konvergenz imp-ten MittelKonvergenz inWahrscheinlichkeitKonvergenz inVerteilung.

Die Konvergenz im p-ten Mittel ist also einer der starken Konvergenzbegriffe der Wahrscheinlichkeitstheorie. In den unten stehenden Abschnitten sind die Beziehungen zu den anderen Konvergenzarten genauer ausgeführt.

Konvergenz in Wahrscheinlichkeit

Aus der Konvergenz im p-ten Mittel folgt für p>0 unmittelbar die Konvergenz in Wahrscheinlichkeit. Dazu wendet man die Markow-Ungleichung auf die Funktion h=Yp an, die für p>0 monoton wachsend ist, und die Zufallsvariable Y=|XnX| an. Dann folgt

P(|XnX|ϵ)1ϵpE(|XnX|p),

was im Grenzwert gegen null geht. Die Umkehrung gilt im Allgemeinen nicht. Ein Beispiel hierfür ist: sind die Zufallsvariablen definiert durch

P(Xn=enα)=en=1P(Xn=0)

mit α>0. Dann ist

E(|Xn|1)=en(α1)n0,

wenn α<1. Also konvergiert die Folge für α(0,1) im Mittel gegen 0. Für beliebiges ϵ(0,1) ist aber

P(|Xn|ϵ)=P(Xn=enα)=enn0. Also konvergiert die Folge für alle α in Wahrscheinlichkeit gegen 0.

Ein Kriterium, unter dem die Konvergenz im p-ten Mittel aus der Konvergenz in Wahrscheinlichkeit gilt ist, dass eine Majorante Y mit E(|Y|p)< existiert, so dass P(|Xn|Y)=1 für alle n gilt. Konvergieren dann die Xn in Wahrscheinlichkeit gegen X, so konvergieren sie auch im p-ten Mittel gegen X. Allgemeiner lässt sich eine Verbindung zwischen der Konvergenz im p-ten Mittel und der Konvergenz in Wahrscheinlichkeit mittels des Konvergenzsatzes von Vitali und der gleichgradigen Integrierbarkeit im p-ten Mittel ziehen: Eine Folge konvergiert genau dann im p-ten Mittel, wenn sie gleichgradig integrierbar im p-ten Mittel ist und sie in Wahrscheinlichkeit konvergiert.

Fast sichere Konvergenz

Im Allgemeinen folgt aus der Konvergenz im p-ten Mittel nicht die fast sichere Konvergenz. Betrachtet man beispielsweise eine Folge von stochastisch unabhängigen Zufallsvariablen mit

P(Xn=1)=1P(Xn=0)=1n,

so ist für alle p>0

E(|Xn|p)=P(Xn=1)=1n,

was gegen null konvergiert. Somit konvergieren die Zufallsvariablen im p-ten Mittel gegen 0. Sie konvergieren aber nicht fast sicher, wie mithilfe des zweiten Borel-Cantelli-Lemmas gezeigt werden kann.

Konvergiert allerdings eine Folge von Zufallsvariablen (Xn)n im p-ten Mittel gegen X und gilt

n=1E(|XnX|p)<,

dann konvergiert die Folge auch fast sicher gegen X. Die Konvergenz muss also „schnell genug“ sein. (Alternativ kann man auch nutzen, dass bei Gültigkeit des Konvergenzsatz von Vitali die Konvergenz nach Wahrscheinlichkeit und die fast sichere Konvergenz zusammenfallen. Sind somit die Voraussetzungen dieses Satzes erfüllt, so folgt aus Konvergenz im p-ten Mittel die fast sichere Konvergenz, da aus der Konvergenz im p-ten Mittel automatisch die Konvergenz in Wahrscheinlichkeit folgt.)

Umgekehrt folgt aus der fast sicheren Konvergenz auch nicht die Konvergenz im p-ten Mittel. Betrachtet man beispielsweise auf dem Wahrscheinlichkeitsraum ([0,1],([0,1]),𝒰[0,1]) die Zufallsvariablen

Xn(ω)=n2𝟏[0,1n](ω),

so konvergiert diese für ω(0,1] punktweise gegen 0 und damit auch ganz [0,1] fast sicher gegen 0 (𝒰[0,1] bezeichnet hier die Gleichverteilung auf [0,1]).

so ist E(|Xn|p)=n2p1 und die Folge ist demnach unbeschränkt für alle p1, kann also nicht konvergieren.

Allerdings liefert der Satz von der majorisierten Konvergenz ein Kriterium, unter dem diese Folgerung korrekt ist. Konvergieren die Xn fast sicher und existiert eine Zufallsvariable Y mit E(|Y|p)< und ist XnY fast sicher, so konvergieren die Xn im p-ten Mittel gegen X und auch für X gilt E(|X|p)<.

Beziehung zu Konvergenzbegriffen der Maßtheorie

Konvergenz lokal nach Maß

Nach dem Konvergenzsatz von Vitali ist eine Folge genau dann Konvergent im p-ten Mittel, wenn sie lokal nach Maß konvergent ist und gleichgradig integrierbar im p-ten Mittel ist.

Auf die gleichgradige Integrierbarkeit kann dabei nicht verzichtet werden, wie das folgende Beispiel verdeutlicht. Setzt man p=1 und definiert die Funktionenfolge

fn=n2χ[0,1/n].

auf dem Maßraum ([0,1],([0,1]),λ|[0,1]), so konvergiert diese lokal nach Maß gegen 0, denn für ε(0,1] ist

limnλ({n2χ[0,1/n]ε})=limn1n=0.

Aber sie ist nicht gleichgradig integrierbar (im ersten Mittel), denn es ist

infa[0,)supf(fn)n{a<|f|}|f|dλ=

Dem Konvergenzsatz von Vitali folgend ist sie auch nicht (im ersten Mittel) konvergent gegen 0, denn es ist

limn[0,1]|fn|dλ=limnn21n=.

Ebenso wenig kann auf die Konvergenz lokal nach Maß verzichtet werden, denn wählt man p=1 und den Maßraum ([0,1],([0,1]),λ|[0,1]), so ist die Funktionenfolge, die durch

fn:={χ[0;1/2] für n gerade χ(1/2;1] für n ungerade .

definiert wird gleichgradig integrierbar im ersten Mittel, da sie von der integrierbaren Funktion, die konstant 1 ist, majorisiert wird. Aufgrund ihres oszillierenden Verhaltens kann die Folge aber nicht lokal nach Maß konvergieren, denn für die Grundmenge und ε<12 gibt es keine Funktion f, so dass λ({fnfε}) klein wird. Mit einem analogen Argument folgt dann auch, dass die Funktionenfolge nicht im ersten Mittel konvergiert.

Konvergenz nach Maß

Aus der Konvergenz im p-ten Mittel folgt die Konvergenz nach Maß, denn es ist

μ({|fnf|ε})1εpX|fnf|pdμ=1εpfnfpp.

Nach dem Konvergenzsatz von Vitali ist die Konvergenz im p-ten Mittel äquivalent zur Konvergenz nach Maß und der gleichgradigen Integrierbarkeit im p-ten Mittel. Dabei kann weder auf die Konvergenz nach Maß noch auf die gleichgradige Integrierbarkeit verzichtet werden. Die Beispiele hierzu finden sich im Abschnitt „Konvergenz lokal nach Maß“.

Punktweise Konvergenz μ-fast überall

Aus der punktweisen Konvergenz μ-fast überall folgt im Allgemeinen nicht die Konvergenz im p-ten Mittel. Ebenso folgt aus der Konvergenz im p-ten Mittel im Allgemeinen nicht die punktweise Konvergenz μ-fast überall.

Ein Beispiel hierfür ist die Funktionenfolge

fn(x)=n2χ[0,1n](x).

auf dem Maßraum ([0,1],([0,1]),λ). Sie konvergiert fast überall punktweise gegen 0, aber es ist

fn1=n und damit limnfn1=.

Betrachtet man umgekehrt die Folge von Intervallen

(In)n=[0,1],[0,12],[12,1],[0,13],[13,23],[23,1],[0,14],[14,24],

und definiert die Funktionenfolge als

fn(x)=χIn(x),

so ist limnfn1=0, da die Breite der Intervalle gegen 0 konvergiert. Die Folge konvergiert aber nicht fast überall punktweise gegen 0, da an einer beliebigen Stelle x jeder der Werte 0 und 1 beliebig oft angenommen wird.

Allerdings besitzt jede im p-ten Mittel konvergente Folge eine fast sicher konvergente Teilfolge mit demselben Grenzwert. Im obigen Beispiel könnte man beispielsweise Indizes nk auswählen, so dass

Ink=[0,1m]

für m ist. Dann konvergieren auch die fnk fast sicher punktweise gegen 0.

Ein Kriterium, unter dem aus der punktweisen Konvergenz μ-fast überall die Konvergenz im p-ten Mittel folgt, liefert der Satz von der majorisierten Konvergenz. Er sagt aus, dass wenn zusätzlich zur Konvergenz fast überall noch eine Majorante aus p existiert, auch die Konvergenz im p-ten Mittel folgt. Allgemeiner genügt es, wenn anstelle der Existenz einer Majorante nur die gleichgradige Integrierbarkeit der Funktionenfolge gefordert wird, denn aus der Konvergenz fast überall folgt die Konvergenz lokal nach Maß. Somit kann dann bei gleichgradiger integrierbarkeit im p-ten Mittel mittels des Konvergenzsatzes von Vitali auf die Konvergenz im p-ten Mittel geschlossen werden. Die Majorante ist aus dieser Perspektive bloß ein hinreichendes Kriterium für die gleichgradige Integrierbarkeit.

Gleichmäßige Konvergenz μ-fast überall

Im Falle eines endlichen Maßraumes folgt aus der gleichmäßigen Konvergenz fast überall die Konvergenz im p-ten Mittel mit p(0,), denn mittels der Hölder-Ungleichung kann man zeigen, dass

fpμ(X)1/pf.

gilt. Für nicht-endliche Maßräume ist dieser Schluss jedoch im Allgemeinen falsch. Definiert man die beispielsweise die Funktionenfolge

fn(x)=1nχ[0,n](x)

auf (,(),λ), so ist

limnfn=limn1n=0 aber limnfn1=1.

Der Schluss von der Konvergenz im p-ten Mittel zur gleichmäßigen Konvergenz fast überall ist sowohl in endlichen Maßräumen als auch in allgemeinen Maßräumen im Allgemeinen falsch. Die Funktionenfolge fn(x)=xn auf dem endlichen Maßraum ([0,1],([0,1]),λ) konvergiert beispielsweise für p[1,) im p-ten Mittel gegen 0, aber nicht fast überall gleichmäßig gegen 0.

Schwache Konvergenz in Lp

Jede im p-ten Mittel konvergente Folge konvergiert für p[1,) auch schwach, denn aus der Hölder-Ungleichung folgt für 1p+1q=1:

|XfngdμXfgdμ|X|fnf||g|dμfnfpgq,

somit existiert eine konvergente Majorante. Die Grenzwerte stimmen dann überein. Der Satz von Radon-Riesz liefert unter einer Voraussetzung auch die Umkehrung. Er besagt, dass für p(1,) eine Funktionenfolge genau dann im p-ten Mittel konvergiert, wenn sie schwach konvergiert und die Folge der Normen der Funktionenfolge gegen die Norm der Grenzfunktion konvergiert.

Literatur