Globaler F-Test

Aus testwiki
Zur Navigation springen Zur Suche springen

Der globale F-Test (Vorlage:EnS Overall-F-Test), auch Globaltest, Gesamttest, Test auf Gesamtsignifikanz eines Modells, F-Test der Gesamtsignifikanz, Test auf den Gesamtzusammenhang eines Modells[1] stellt eine globale Prüfung der Regressionsfunktion dar. Es wird geprüft, ob mindestens eine Variable einen Erklärungsgehalt für das Modell liefert und das Modell somit als Gesamtes signifikant ist. Falls diese Hypothese verworfen wird, ist das Modell nutzlos. Diese Variante des F-Tests ist die gebräuchlichste Anwendung des F-Tests.

Zugrundeliegendes Modell

Das zugrundeliegende Modell ist das der linearen Mehrfachregression, also

yi=β0+xi1β1+xi2β2++xikβk+εi=𝐱iβ+εi.

Hierbei wird angenommen, dass die Störgrößen unabhängig und homoskedastisch sind und für sie gilt, dass sie einer Normalverteilung folgen, d. h.

εi𝒩(0,σ2),i=1,,n.[1]

Null- und Alternativhypothese

Die Nullhypothese H0 des globalen F-Tests sagt aus, dass alle erklärenden Variablen keinen Einfluss auf die abhängige Variable haben. Sowohl die abhängige Variable, als auch die unabhängigen Variablen können binär (kategorial) oder metrisch sein. Der Wald-Test kann dann die globale Nullhypothese (ohne Einbezug des Absolutglieds) testen:

H0:β1=β2==βk=0ρ2=0  gegen  H1:βj0fu¨rmindestenseinj{1,,k}ρ2>0.

Dieser Test lässt sich so interpretieren, als würde man die gesamte Güte der Regression, also das Populationsbestimmtheitsmaß ρ2 der Regression, testen. Aus diesem Grund wird der globale F-Test auch als Anpassungsgüte-Test bezeichnet. Die Bezeichnung Anpassungsgüte-Test ist allerdings etwas irreführend, da streng genommen nicht die Anpassung der Regressionsgerade an die Daten überprüft wird, sondern ob wenigstens einer der erklärenden Variablen einen signifikanten Erklärungsbeitrag liefert.[2] Bei Zutreffen der Nullhypothese H0 ergibt sich das sogenannte Nullmodell. Das Nullmodell ist ein Modell, das nur aus einem Absolutglied β0 besteht.

Teststatistik

Die Teststatistik dieses Tests bekommt man, wenn man zunächst die R-Quadrat-Schreibweise der F-Statistik betrachtet. Die allgemeine Form der F-Statistik ist gegeben durch[3]

F(SQRH0SQR)/qSQR/(nk1),

wobei q die Anzahl der zu testenden Restriktionen und SQRH0 Residuenquadratsumme des eingeschränkten und SQR die Residuenquadratsumme des uneingeschränkten Modells darstellt. Vorliegend werden, da die Nullhypothese H0:β1=β2==βk=0 lautet, q=k Restriktionen getestet. Dadurch kann man die Teststatistik auch schreiben als F=(𝑅2𝑅H02)/k(1𝑅2)/(np) und unter der Nullhypothese gilt[4]

F=MQEMQR=SQESQRnpk=𝑅21𝑅2npkH0F(k,np),

wobei 𝑅2 das multiple Bestimmtheitsmaß darstellt. Die Teststatistik eines globalen F-Tests ist also gegeben durch den Quotienten aus dem „mittleren Quadrat der erklärten Abweichungen“ und dem „mittleren Residuenquadrat“. Sie ist unter der Nullhypothese F-verteilt mit k und (np) Freiheitsgraden. Die Berechnung der F-Teststatistik lässt sich in folgender Tafel der Varianzanalyse zusammenfassen:[5]

Variationsquelle Abweichungsquadratsumme Anzahl der Freiheitsgrade Mittleres Abweichungsquadrat F-Teststatistik
Regression (erklärt) SQE=i=1n(y^iy^)2 (erklärte Quadratsumme) k MQE=SQEk F=MQEMQR
Residuen (unerklärt) SQR=i=1n(yiy^i)2 (Residuenquadratsumme) (np) MQR=SQRnp
Gesamt SQT=i=1n(yiy¯)2 (totale Quadratsumme)

Vorgehen und Interpretation

Überschreitet der empirische F-Wert bei einem a priori festgelegten Signifikanzniveau α den kritischen F-Wert F(1α)(k,np) (das (1α)-Quantil der F-Verteilung mit k und (np) Freiheitsgraden) so verwirft man die Nullhypothese:

F>F(1α)(k,np)H0verwerfen.

Das 𝑅2 ist dann ausreichend groß und mindestens eine erklärende Variable trägt vermutlich genügend Information zur Erklärung von y bei. Es ist naheliegend, bei hohen F-Werten die Nullhypothese zu verwerfen, da ein hohes Bestimmtheitsmaß zu einem hohen F-Wert führt. Wenn der Wald-Test für eine oder mehrere unabhängige Variablen die Nullhypothese ablehnt, dann kann man davon ausgehen, dass die zugehörigen Regressionsparameter ungleich Null sind, so dass die Variablen in das Modell mit einbezogen werden sollten. Wenn es nur um eine unabhängige Variable geht (H0:βi=0  vs.  H1:βi0), dann wird ein t-Test benutzt, um zu überprüfen, ob der Parameter signifikant ist. Für einen einzelnen Parameter stimmt das Ergebnis der Wald-Statistik mit dem Ergebnis des Quadrates der t-Statistik überein.

Einzelnachweise

  1. 1,0 1,1 Karl Mosler und Friedrich Schmid: Wahrscheinlichkeitsrechnung und schließende Statistik. Springer-Verlag, 2011, S. 310.
  2. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.
  3. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2015, S. 146.
  4. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.
  5. William H. Greene: Econometric Analysis. 5. Auflage. Prentice Hall International, 2002, ISBN 0-13-110849-2, S. 33.