Likelihood-Quotienten-Test

Aus testwiki
Version vom 22. Januar 2025, 19:10 Uhr von imported>Bithisarea (growthexperiments-addlink-summary-summary:2|0|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Vorlage:Belege Der Likelihood-Quotienten-Test (kurz LQT), auch Plausibilitätsquotiententest (Vorlage:EnS likelihood-ratio test), ist ein statistischer Test, der zu den typischen Hypothesentests in parametrischen Modellen gehört. Viele klassische Tests wie der F-Test für den Varianzenquotienten oder der Zwei-Stichproben-t-Test lassen sich als Beispiele für Likelihood-Quotienten-Tests interpretieren. Einfachstes Beispiel eines Likelihood-Quotienten-Tests ist der Neyman-Pearson-Test.

Definition

Formal betrachtet man das typische parametrische Testproblem: Gegeben ist eine Grundmenge von Wahrscheinlichkeitsverteilungen Pθ, abhängig von einem unbekannten Parameter θ, der aus einer bekannten Grundmenge Θ stammt. Als Nullhypothese H0 soll getestet werden, ob der Parameter zu einer echten Teilmenge Θ0 gehört. Also:

H0:θΘ0.

Die Alternative H1 lautet entsprechend:

H1:θΘ1,

wobei Θ1 das Komplement zu Θ0 in Θ bezeichnet.

Die beobachteten Daten sind Realisierungen von Zufallsvariablen X1,,Xn, die jeweils die (unbekannte) Verteilung Pθ besitzen und stochastisch unabhängig sind.

Der Begriff des Likelihood-Quotienten-Tests suggeriert bereits, dass die Entscheidung des Tests auf der Bildung eines Likelihood-Quotienten bzw. Plausibilitätsquotienten (Quotient zweier Likelihood-Funktionen bzw. Plausibilitätsfunktionen) beruht. Man geht dabei so vor, dass man ausgehend von den Daten x=(x1,,xn) und den zu den einzelnen Parametern gehörenden Dichtefunktionen fX1,,Xn(;θ) den folgenden Ausdruck berechnet:

Λ(x):=supθΘ0fX1,,Xn(x1,,xn;θ)supθΘfX1,,Xn(x1,,xn;θ).

Heuristisch gesprochen: Man bestimmt anhand der Daten zunächst den Parameter aus der gegebenen Grundmenge, der die größte Wahrscheinlichkeit dafür liefert, dass die gefundenen Daten gemäß der Verteilung Pθ realisiert worden sind. Der Wert der Dichtefunktion bezüglich dieses Parameters wird dann als repräsentativ für die gesamte Menge gesetzt. Im Zähler betrachtet man als Grundmenge den Raum der Nullhypothese, also Θ0; für den Nenner betrachtet man die gesamte Grundmenge Θ.

Es lässt sich intuitiv schließen: Je größer der Quotient ist, desto schwächer ist die Evidenz gegen H0. Ein Wert von Λ(x) in der Nähe von Eins bedeutet, dass anhand der Daten kein großer Unterschied zwischen den beiden Parametermengen Θ und Θ0 zu erkennen ist. Die Nullhypothese sollte in solchen Fällen also nicht verworfen werden.

Demnach wird bei einem Likelihood-Quotienten-Test die Hypothese H0 zum Niveau α abgelehnt, falls

Λ(x)<kα*

gilt. Hierbei ist der kritische Wert kα* so zu wählen, dass supθΘ0Pθ(Λ(X)<kα*)=α gilt.

Die konkrete Bestimmung dieses kritischen Werts ist in der Regel problematisch.

Beispiel 1

Für unabhängige Zufallsvariablen X1,,Xn, die jeweils eine Normalverteilung mit bekannter Varianz σ2 und unbekanntem Erwartungswert μ besitzen, ergibt sich für das Testproblem H0:μ=μ0 gegen H1:μ=μ1 mit μ0<μ1 der folgende Likelihood-Quotient:

Λ(X)=exp(1σ2l=1nXl(μ1μ0))k(μ0,μ1,σ2)

mit der von den konkreten Daten unabhängigen Konstanten k(μ0,μ1,σ2)=exp(n2σ2(μ12μ02)). Man erhält dann, dass Λ(X)>c~ äquivalent zur Ungleichung

1ni=1nXi>c

ist. Dies liefert als Resultat den bekannten Gauß-Test; man wählt c=μ0+σnu1a, wobei u1a das (1α)-Quantil einer Standardnormalverteilung bezeichnet.

Approximation der Likelihood-Quotienten-Funktion durch eine Chi-Quadrat-Verteilung

Unter bestimmten Voraussetzungen lässt sich die im Allgemeinen schwierig zu betrachtende Teststatistik Λ(X) durch Chi-Quadrat-verteilte Zufallsvariablen annähern, so dass sich vergleichsweise leicht asymptotische Tests herleiten lassen. In der Regel ist das möglich, wenn die Nullhypothese sich durch eine lineare Parameter-Transformation als ein Spezialfall der Alternativ-Hypothese darstellen lässt, wie im unten genannten Beispiel des Münzwurfes. Präzise formuliert ist neben eher technischen Annahmen an die Verteilungsfamilie Pθ die folgende Annahme einer „Parametrisierbarkeit der Nullhypothese“ fundamental:

Es seien der Parameterraum der Alternative Θd und der Nullhypothese Δc gegeben, beide Mengen seien offen und es gelte: c<d. Zudem existiere eine zweimal stetig differenzierbare Abbildung h:ΔΘ mit h(Δ)=Θ0, deren Jacobi-Matrix h(η) für jedes ηΔ vollen Rang besitzt.

Dann gilt:

Tn:=2logΛ(X)χdc2,

wobei die Zufallsvariablen in Verteilung konvergieren.

Die Beweisidee beruht auf einer Aussage über die Existenz von Maximum-Likelihood-Schätzern in allgemeinen parametrischen Familien und ihrer Konvergenz gegen eine normalverteilte Zufallsvariable, deren Varianz das Inverse der Fisher-Information ist.

Beispiel 2: Münzwurf

Ein Beispiel ist der Vergleich, ob zwei Münzen die gleiche Wahrscheinlichkeit haben, Kopf als Ergebnis zu erhalten (Nullhypothese). Wird die erste Münze N-mal geworfen mit n Kopfwürfen und die zweite Münze M-mal geworfen mit m Kopfwürfen, dann ergibt sich die Kontingenztabelle unter Beobachtungen. Unter Gültigkeit der Nullhypothese (p=q) und der Alternativhypothese (pq) ergeben sich die Wahrscheinlichkeiten wie unter Alternativhypothese und Nullhypothese.

Beobachtungen Alternativhypothese (H1) Nullhypothese (H0)
Münze 1 Münze 2 Münze 1 Münze 2 Münze 1 Münze 2
Kopf n m p q r r
Zahl Nn Mm 1p 1q 1r 1r

Unter Gültigkeit der Nullhypothese ergibt sich die Likelihood-Funktion als

LH0(n,m)=rn(1r)Nnrm(1r)Mm=rn+m(1r)Nn+Mm

und es folgt mit Hilfe der Log-Likelihood-Funktion die Schätzung r^=(n+m)/(N+M).

Unter Gültigkeit der Alternativhypothese ergibt sich die Likelihood-Funktion als

LH1(n,m)=pn(1p)Nnqm(1q)Mm

und es folgt mit Hilfe der Log-Likelihood-Funktion die Schätzungen p^=n/N bzw. q^=m/M.

Damit ergibt sich Λ als

Λ(n,m)=(n+mN+M)n+m(1n+mN+M)Nn+Mm(nN)n(1nN)Nn(mM)m(1mM)Mm

und als Prüfwert

2log(Λ(m,n)),

der mit einem vorgegebenen kritischen Wert aus der χ12-Verteilung verglichen wird. Da wir in der Alternativhypothese zwei Parameter (p, q) und in der Nullhypothese einen Parameter (r) haben, ergibt sich die Anzahl der Freiheitsgrade als 21=1.

Literatur

P. J. Bickel, K. Doksum: Mathematical statistics. Holden-Day.