Globaler F-Test

globale Prüfung der Regressionsfunktion

Der globale F-Test (englisch Overall-F-Test), auch Globaltest, Gesamttest, Test auf Gesamtsignifikanz eines Modells, F-Test der Gesamtsignifikanz, Test auf den Gesamtzusammenhang eines Modells[1] stellt eine globale Prüfung der Regressionsfunktion dar. Es wird geprüft, ob mindestens eine Variable einen Erklärungsgehalt für das Modell liefert und das Modell somit als Gesamtes signifikant ist. Falls diese Hypothese verworfen wird, ist das Modell nutzlos. Diese Variante des F-Tests ist die gebräuchlichste Anwendung des F-Tests.

Zugrundeliegendes ModellBearbeiten

Das zugrundeliegende Modell ist das der linearen Mehrfachregression, also

 .

Hierbei wird angenommen, dass die Störgrößen unabhängig und homoskedastisch sind und für sie gilt, dass sie einer Normalverteilung folgen, d. h.

 .[1]

Null- und AlternativhypotheseBearbeiten

Die Nullhypothese   des globalen F-Tests sagt aus, dass alle erklärenden Variablen keinen Einfluss auf die abhängige Variable haben. Sowohl die abhängige Variable, als auch die unabhängigen Variablen können binär (kategorial) oder metrisch sein. Der Wald-Test kann dann die globale Nullhypothese (ohne Einbezug des Absolutglieds) testen:

   gegen   .

Dieser Test lässt sich so interpretieren, als würde man die gesamte Güte der Regression, also das Populationsbestimmtheitsmaß   der Regression, testen. Aus diesem Grund wird der globale F-Test auch als Anpassungsgüte-Test bezeichnet. Die Bezeichnung Anpassungsgüte-Test ist allerdings etwas irreführend, da streng genommen nicht die Anpassung der Regressionsgerade an die Daten überprüft wird, sondern ob wenigstens einer der erklärenden Variablen einen signifikanten Erklärungsbeitrag liefert.[2] Bei Zutreffen der Nullhypothese   ergibt sich das sogenannte Nullmodell. Das Nullmodell ist ein Modell, das nur aus einem Absolutglied   besteht.

TeststatistikBearbeiten

Die Teststatistik dieses Tests bekommt man, wenn man zunächst die R-Quadrat-Schreibweise der F-Statistik betrachtet. Die allgemeine Form der F-Statistik ist gegeben durch[3]

 ,

wobei   die Anzahl der zu testenden Restriktionen und   Residuenquadratsumme des eingeschränkten und   die Residuenquadratsumme des uneingeschränkten Modells darstellt. Vorliegend werden, da die Nullhypothese   lautet,   Restriktionen getestet. Dadurch kann man die Teststatistik auch schreiben als   und unter der Nullhypothese gilt[4]

 ,

wobei   das multiple Bestimmtheitsmaß darstellt. Die Teststatistik eines globalen F-Tests ist also gegeben durch den Quotienten aus dem „mittleren Quadrat der erklärten Abweichungen“ und dem „mittleren Residuenquadrat“. Sie ist unter der Nullhypothese F-verteilt mit   und   Freiheitsgraden. Die Berechnung der F-Teststatistik lässt sich in folgender Tafel der Varianzanalyse zusammenfassen:[5]

Variationsquelle Abweichungsquadratsumme Anzahl der Freiheitsgrade Mittleres Abweichungsquadrat F-Teststatistik
Regression (erklärt)   (erklärte Quadratsumme)      
Residuen (unerklärt)   (Residuenquadratsumme)    
Gesamt   (totale Quadratsumme)

Vorgehen und InterpretationBearbeiten

Überschreitet der empirische F-Wert bei einem a priori festgelegten Signifikanzniveau   den kritischen F-Wert   (das  -Quantil der F-Verteilung mit   und   Freiheitsgraden) so verwirft man die Nullhypothese:

 .

Das   ist dann ausreichend groß und mindestens eine erklärende Variable trägt vermutlich genügend Information zur Erklärung von   bei. Es ist naheliegend, bei hohen F-Werten die Nullhypothese zu verwerfen, da ein hohes Bestimmtheitsmaß zu einem hohen F-Wert führt. Wenn der Wald-Test für eine oder mehrere unabhängige Variablen die Nullhypothese ablehnt, dann kann man davon ausgehen, dass die zugehörigen Regressionsparameter ungleich Null sind, so dass die Variablen in das Modell mit einbezogen werden sollten. Wenn es nur um eine unabhängige Variable geht (   vs.   ), dann wird ein t-Test benutzt, um zu überprüfen, ob der Parameter signifikant ist. Für einen einzelnen Parameter stimmt das Ergebnis der Wald-Statistik mit dem Ergebnis des Quadrates der t-Statistik überein.

EinzelnachweiseBearbeiten

  1. a b Karl Mosler und Friedrich Schmid: Wahrscheinlichkeitsrechnung und schließende Statistik. Springer-Verlag, 2011, S. 310.
  2. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.
  3. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2015, S. 146.
  4. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.
  5. William H. Greene: Econometric Analysis. 5. Auflage. Prentice Hall International, 2002, ISBN 0-13-110849-2, S. 33.