Wald-Test

Aus testwiki
Version vom 10. Juni 2024, 22:15 Uhr von imported>Edward Steintain (zusätzliches Info für Suchmaschinen und Erkennungsmerkmal des Wald-Testes)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Der Wald-Test ist in der Ökonometrie ein parametrischer statistischer Test, der 1939 von Abraham Wald (1902–1950) entwickelt worden ist. Mit dem Test kann die Verteilung einer geeigneten Teststatistik unter Gültigkeit der Nullhypothese bestimmt werden. Eine allgemeine Teststatistik für verschiedenste ökonometrische Fragestellungen ist die Wald-Statistik, die asymptotisch einer Chi-Quadrat-Verteilung bzw. χ2-Verteilung folgt. Der Wald-Test basiert auf der Tatsache, dass der Maximum-Likelihood-Schätzer ϑ^ML für den unbekannten Parameter für große Beobachtungszahlen in Verteilung gegen eine Normalverteilung strebt. Viele Tests lassen sich daher als Spezialfälle des Wald-Tests auffassen.

Eindimensionaler Fall

Aus der Maximum-Likelihood-Theorie weiß man, dass der Maximum-Likelihood-Schätzer des unbekannten Parameters in Verteilung für große Beobachtungszahlen gegen eine Normalverteilung strebt. Sei ϑ ein unbekannter Parameter in der Grundgesamtheit und ϑ0 ein vorgegebener Wert. Um die folgende Nullhypothese gegen korrespondierende Alternativhypothese zu testen

H0:ϑ=ϑ0  gegen  H1:ϑϑ0,

kann man eine der folgenden Test-Statistiken benutzen:[1]

I(ϑ^ML)(ϑ^MLϑ0)a𝒩(0,1)

oder

J(ϑ^ML)(ϑ^MLϑ0)a𝒩(0,1),

die beide unter der Nullhypothese asymptotisch normalverteilt sind. Hierbei bezeichnet I() die Fisher-Information und J() die erwartete Fisher-Information. Beide Teststatistiken sind approximative Pivotgrößen für ϑ und werden Wald-Statistiken genannt.

Betrachtet man die quadrierte Teststatistik, so gilt:

W:=F(ϑ^ML)(ϑ^MLϑ0)2aχ2(1),

d. h., sie ist bei großen Stichproben asymptotisch Chi-Quadrat-verteilt. Dies gilt, da eine quadrierte standardnormalverteilte Zufallsgröße einer Chi-Quadrat-Verteilung mit einem Freiheitsgrad folgt.

Wald-Vertrauensintervall

Bezeichne ϑ^ML den Maximum-Likelihood-Schätzer für ϑ, dann gilt für die Wahrscheinlichkeit, dass die Wald-Statistik innerhalb der 1α/2-Quantile der Standardnormalverteilung liegt

P(z(1α2)I(ϑ^ML)(ϑ^MLϑ)z(1α2))1α

und damit ergibt sich das (1α)-Wald-Vertrauensintervall zu[2]

KI1α(ϑ)=[ϑ^MLz(1α2)1I(ϑ^ML);ϑ^ML+z(1α2)1I(ϑ^ML)].

Mehrdimensionaler Fall

Im mehrdimensionalen Fall, wobei ϑ^=(ϑ1^,ϑ2^,,ϑk^) der Vektor der Schätzfunktionen ist und Σϑ^ die asymptotische nichtsinguläre Kovarianzmatrix des Maximum-Likelihood-Schätzers ist, kann die Nullhypothese H0:ϑ=ϑ0 mit folgender Teststatistik getestet werden[3]

W=(ϑ^ϑ0)Σϑ^1(ϑ^ϑ0) a,H0χ2(k)

ist dann asymptotisch Chi-Quadrat-verteilt mit k Freiheitsgraden. Die Restriktionsfunktion r(ϑ^)=(ϑ^ϑ0) muss hierzu unter H0 vollständig differenzierbar sein und vollen Rang haben.

Wald-Statistiken für allgemeine lineare Hypothesen

Um allgemeine lineare Hypothesen zu testen, spielt die asymptotische Verteilung der Wald-Statistik eine große Rolle. Sei 𝑹 eine q×(k+1) Restriktionsmatrix, mit q(k+1) Sei weiterhin angenommen, dass die q Restriktionen an den (k+1)×1 Parametervektor β ausgedrückt werden können als :H0:𝑹β=𝒓, wobei 𝒓 ein q×1-Vektor bestehend aus bekannten Konstanten darstellt. Unter bestimmten Voraussetzungen folgt unter der Nullhypothese die gewichtete Hypothesenquadratsumme

W=1σ2(𝑹β^𝒓)(𝑹(𝐗𝐗)1𝑹)1(𝑹β^𝒓)χ2(q)

einer Chi-Quadrat-Verteilung mit q (Anzahl der Restriktionen) Freiheitsgraden. Hierbei misst 𝑹β^𝒓 wie weit der geschätzte Wert β^ von der Nullhypothese 𝑹β𝒓=𝟎 abweicht. Weiterhin ist (𝑹β𝒓)(𝑹β𝒓) die dazugehörige Summe der Abweichungsquadrate (Analog zur Residuenquadratsumme). Diese Summe der Abweichungsquadrate wird mit der inversen Kovarianzmatrix der Nullhypothese (𝑹(𝐗𝐗)1𝑹)1/σ2 gewichtet, weil für eine große Kovarianz ebenso so große Abweichungen 𝑹β^𝒓 nicht notwendigerweise ein Indikator für H0 sind. Falls der erwartungstreue Schätzer für die Störgrößenvarianz σ^2=1nk1i=1nε^i2 benutzt wird, kann man zeigen, dass die Wald-Statistik W dividiert durch die Anzahl der Restriktionen q genau der F-Statistik des multiplen linearen Testproblems entspricht.[4]

Beispiele

Einstichproben-Gauß-Test als Spezialfall des Wald-Tests

Wenn eine Variable in einer Grundgesamtheit normalverteilt ist mit X𝒩(μ;σ2) mit unbekanntem Parameter μ und bekanntem σ, dann ist der Stichprobenmittelwert

X=1ni=1nXi𝒩(μ,σ2/n)

auch der Maximum-Likelihood-Schätzer für μ. Eine der Hypothesen für den Einstichproben-Gauß-Test lautet:

H0:μ=μ0  gegen  H1:μμ0

und die Teststatistik nach Wald wäre

T=Xμ0σ/n𝒩(0,1).

Somit kann der Einstichproben-Gauß-Test als Spezialfall des Wald-Tests aufgefasst werden.

Globaler F-Test als Spezialfall des Wald-Tests

Einen weiteren Spezialfall des Wald-Tests stellt der globale F-Test dar. Bei diesem wird geprüft, ob mindestens eine erklärende Variable einen Erklärungsgehalt für das Modell liefert. Falls diese Hypothese verworfen wird, ist somit das Modell nutzlos. Die Nullhypothese des F-Tests auf Gesamtsignifikanz des Modells sagt aus, dass alle erklärenden Variablen keinen Einfluss auf die abhängige Variable haben, und die Alternativhypothese, dass mindestens eine erklärende Variable Einfluss auf sie hat. Sowohl die erklärenden Variablen als auch die unabhängigen Variablen können binär (kategoriell) oder metrisch sein. Der Wald-Test kann dann die Hypothesen testen (ohne Einbezug des Achsenabschnitts):[5]

H0:β1=β2==βk=0ρ2=0  gegen  H1:βj0fu¨rmindestenseinj{1,,k}ρ2>0.

Alternativen

Eine Alternative zum Wald-Test bietet der Likelihood-Quotienten-Test. Dieser ist zwar rechenaufwändiger, dafür zeigt er in kleinen Stichproben jedoch auch bessere Eigenschaften. Eine weitere Alternative ist der sogenannte Lagrange-Multiplikator-Tests (LM-Tests, siehe auch Lagrange-Multiplikator). Asymptotisch sind diese drei Tests jedoch identisch.

Literatur

  • Wald's W-Statistics. In: Encyclopedia of Statistical Sciences. Wiley, Hoboken 2006, S. 9028–9029.
  • Abraham Wald: Tests of Statistical Hypotheses Concerning Several Parameters When the Number of Observations is Large. In: Transactions of the American Mathematical Society. Vol. 54, No. 3, Nov 1943, S. 426–482, Vorlage:DOI, Vorlage:JSTOR.
  • Tim F. Liao: Comparing Social Groups: Wald Statistics for Testing Equality Among Multiple Logit Models. In: International Journal of Comparative Sociology. Vol. 45, No. 1–2, 2004, S. 3–16, Vorlage:DOI.
  • Robert F. Engle: Wald, Likelihood Ratio and Lagrange Multiplier Tests in Econometrics. In: Zvi Griliches, Michael D. Intriligator (Hrsg.): Handbook of Econometrics. Vol. 2, Elsevier, Amsterdam u. a. 1984, S. 775–826.

Einzelnachweise

  1. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 99.
  2. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 100.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 109.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 810
  5. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.