Lemma von Stein

Aus testwiki
Version vom 2. Mai 2019, 09:17 Uhr von imported>MaxBE (Stil)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Das Lemma von Stein ist in der Testtheorie, einem Teilgebiet der mathematischen Statistik, eine Aussage darüber, wie sich die Wahrscheinlichkeit für einen Fehler 2. Art bei Neyman-Pearson-Tests für größer werdende Stichproben verändert.

Die Aussage ist nach Charles Stein benannt, der sie 1952 bewies.

Rahmenbedingungen

Gegeben sei ein statistisches Modell (X,𝒜,{P0,P1}) mit einfacher Nullhypothese P0 und einfacher Alternative P1, für die beide die Wahrscheinlichkeitsdichtefunktionen f0 und f1 existieren und echt positiv sind. Des Weiteren sei (X,𝒜,{P0,P1}) das entsprechende unendliche Produktmodell und Xi die Projektion auf die Komponenten des Produktmodells.

Sei Φn ein Neyman-Pearson-Test zum Niveau α, der nur von X1,,Xn abhängt. Des Weiteren bezeichne

D(P0P1):=f0(x)logf0(x)f1(x)dx

die Kullback-Leibler-Entropie von P0 und P1

Aussage

Unter den obigen Bedingungen gilt: Die Trennschärfe von Φn strebt mit exponentieller Geschwindigkeit gegen 1. Genauer gilt

EP1(Φn)1exp(nD(P0P1))

für große n.

Interpretation

Nach dem Neyman-Pearson-Lemma sind Neyman-Pearson-Tests gleichmäßig beste Tests, haben also eine größere Trennschärfe als jeder weitere Test zum selben Niveau. Das Lemma von Stein ergänzt diese Aussage noch, indem es angibt, wie groß die Trennschärfe wird. Somit sind Neyman-Pearson-Tests nicht nur gleichmäßig besser als jeder andere Test, sondern auch noch gut in dem Sinne, dass ihre Trennschärfe beliebig nahe an 1 herankommt sowie dass dies sehr schnell mit wachsender Stichprobengröße geschieht.

Bestimmender Faktor bei der Konvergenzgeschwindigkeit ist die Kullback-Leibler-Entropie. Sie liefert ein Maß dafür, wie gut zwei Wahrscheinlichkeitsmaße aufgrund einer Stichprobe auseinandergehalten werden können.

Literatur