Laguerre-Samuelson-Ungleichung

Aus testwiki
Zur Navigation springen Zur Suche springen

Die Laguerre-Samuelson-Ungleichung, auch nur Samuelson-Ungleichung genannt, ist eine Ungleichung aus der beschreibenden Statistik. Sie gibt an, um wie viele empirische Standardabweichungen eine einzelne Beobachtung maximal vom arithmetischen Mittel aller Beobachtungen abweichen kann. Sie ist benannt nach dem amerikanischen Wirtschaftswissenschaftler Paul Samuelson, der sie im Jahre 1968 beschrieb. Vor ihm hat sie aber bereits der französische Mathematiker Edmond Laguerre im Jahr 1880 im Zusammenhang mit der Größenabschätzung der Nullstellen von Polynomen gefunden.

Samuelsons Ungleichung

Für einen Datensatz (x1,,xn)n sei

x¯=1ni=1nxi

das arithmetische Mittel und

s~=1ni=1n(xix¯)2

die empirische Standardabweichung (hier im Unterschied zur sonst üblichen Variante s=1n1i=1n(xix¯)2 mit s~ bezeichnet).

Dann gilt:

|xjx¯|n1s~

für jede Einzelbeobachtung xj, j=1,,n.

Die Ungleichung ist scharf in dem Sinne, dass die rechte Seite ohne zusätzliche Annahmen über die Verteilung der Daten nicht verbessert werden kann.

Arnolds Beweis von Samuelsons Ungleichung

Im Jahre 1974 veröffentlichte Barry C. Arnold einen einfachen Beweis der Ungleichung, der sich auf die Cauchy-Schwarzsche Ungleichung stützt:

Sei j{1,2,,n} beliebig aber fest gewählt, und a=(x1x¯xnx¯)ijn1, b=(11)n1.

Wendet man auf a und b die Cauchy-Schwarzsche Ungleichung (aTb)2|a|2|b|2 mit dem Standardskalarprodukt an, so folgt

(ij(xix¯))2ij(xix¯)2(n1)

und daraus

(i=1n(xix¯) (xjx¯))2(n1)(i=1n(xix¯)2 (xjx¯)2).

Die erste Summe auf der linken Seite ist 0, daher

(xjx¯)2(n1)i=1n(xix¯)2 (n1)(xjx¯)2

und

n(xjx¯)2(n1)i=1n(xix¯)2.

Division durch n liefert

(xjx¯)2(n1)1ni=1n(xix¯)2=(n1)s~2.

Wurzelziehen auf beiden Seiten schließt den Beweis ab.

Gleichheit in Samuelsons Ungleichung tritt für ein xj genau dann ein, wenn die anderen n1 Daten einander gleich sind und xj als einziges davon verschieden.

Beispiel

Für den Datensatz (2,2,2,2,7) mit n=5 berechnet man x¯=3 und s~=2. Für den fünften Wert gilt dann

|x5x¯|=|73|=4=n1s~,

in der Ungleichung herrscht also Gleichheit.

Laguerres Ungleichung

Im Jahr 1880 veröffentlichte Laguerre folgenden Satz über die Abschätzung der Nullstellen von Polynomen: Ist

p(x)=xn+a1xn1+a2xn2++an

ein Polynom mit n (nicht notwendig verschiedenen) reellen Nullstellen x1,x2,,xn, so genügen die Nullstellen folgender Ungleichung:

a1nn1bxja1n+n1b

mit

b=1n(n1)a122na2.

Diese Abschätzung ist Samuelsons Ungleichung, nur mit anderen Bezeichnungen. Dazu faktorisiert man das Polynom zu

p(x)=(xx1)(xx2)(xxn)

und multipliziert aus:

p(x)=xn(i=1nxi)xn1+(i<jxixj)xn2+

Koeffizientenvergleich mit der ursprünglichen Form liefert

a1=i=1nxi und a2=i<jxixj.

Damit ist der Term a1n in Laguerres Ungleichung gleich x¯, und eine etwas längere aber elementare Rechnung zeigt b=s~.

Vergleich mit Tschebyscheffs Ungleichung

Tschebyscheffs Ungleichung ist eine Ungleichung aus der Wahrscheinlichkeitsrechnung über eine Zufallsvariable X mit Erwartungswert μ und Standardabweichung σ und lautet

P(|Xμ|kσ)11k2

Um Vergleichbarkeit mit Samuelsons Ungleichung herzustellen, wählt man für X die diskrete gleichverteilte Zufallsvariable, die die Werte xj mit Wahrscheinlichkeiten P(X=xj)=1n, j=1,,n, annimmt. Dann ist

μ=E(X)=x¯

und

σ2=Var(X)=s~2.

Tschebyscheffs Ungleichung lautet dann

P(|Xx¯|ks~)11k2

Sie macht eine Aussage über den Anteil der Daten, die innerhalb eines symmetrisch zu x¯ gelegenen Intervalls liegen, und zwar unabhängig von der Größe des Datensatzes, während Samuelsons Ungleichung besagt, dass alle Werte eines n-elementigen Datensatzes innerhalb von n1 Standardabweichungen um x¯ liegen, die Aussage wird mit wachsendem n also immer ungenauer.

Beispiel

Für einen Datensatz mit n=1000 Werten sagt Tschebyscheff, dass mindestens 99 % der Werte innerhalb von 10 Standardabweichungen um den Mittelwert liegen, dagegen Samuelson, dass alle Werte innerhalb von 31,6070 Standardabweichungen um den Mittelwert liegen. Der Preis für das Erfassen aller Werte ist also der viel schlechtere Faktor bei der Standardabweichung.

Literatur