Hauptmenü öffnen

Der Wald-Test ist in der Ökonometrie ein parametrischer statistischer Test, der 1939 von Abraham Wald (1902–1950) entwickelt worden ist. Das Problem ist, die Verteilung einer geeigneten Teststatistik unter Gültigkeit der Nullhypothese zu bestimmen. Eine allgemeine Teststatistik für verschiedenste ökonometrische Fragestellungen ist die Wald-Statistik, die asymptotisch einer Chi-Quadrat-Verteilung folgt. Der Wald-Test basiert auf der Tatsache, dass der Maximum-Likelihood-Schätzer für den unbekannten Parameter für große Beobachtungszahlen in Verteilung gegen eine Normalverteilung strebt. Viele Tests lassen sich daher als Spezialfälle des Wald-Tests auffassen.

Inhaltsverzeichnis

Eindimensionaler FallBearbeiten

Aus der Maximum-Likelihood-Theorie weiß man, dass der Maximum-Likelihood-Schätzer des unbekannten Parameters in Verteilung für große Beobachtungszahlen gegen eine Normalverteilung strebt. Sei   ein unbekannter Parameter in der Grundgesamtheit und   ein vorgegebener Wert. Um die folgende Nullhypothese gegen korrespondierende Alternativhypothese zu testen

   gegen   ,

kann man eine der folgenden Test-Statistiken benutzen:[1]

 

oder

 ,

die beide unter der Nullhypothese asymptotisch normalverteilt sind. Hierbei bezeichnet   die Fisher-Information und   die erwartete Fisher-Information. Beide Teststatistiken sind approximative Pivotgrößen für   und werden Wald-Statistiken genannt.

Betrachtet man die quadrierte Teststatistik, so gilt:

 ,

d. h., sie ist bei großen Stichproben asymptotisch Chi-Quadrat-verteilt. Dies gilt, da eine quadrierte standardnormalverteilte Zufallsgröße einer Chi-Quadrat-Verteilung mit einem Freiheitsgrad folgt.

Wald-VertrauensintervallBearbeiten

Bezeichne   den Maximum-Likelihood-Schätzer für  , dann gilt für die Wahrscheinlichkeit, dass die Wald-Statistik innerhalb der  -Quantile der Standardnormalverteilung liegt

 

und damit ergibt sich das  -Wald-Vertrauensintervall zu[2]

 .

Mehrdimensionaler FallBearbeiten

Im mehrdimensionalen Fall, wobei   der Vektor der Schätzfunktionen ist und   die asymptotische nichtsinguläre Kovarianzmatrix des Maximum-Likelihood-Schätzers ist, kann die Nullhypothese   mit folgender Teststatistik getestet werden[3]

 

ist dann asymptotisch Chi-Quadrat-verteilt mit   Freiheitsgraden. Die Restriktionsfunktion   muss hierzu unter   vollständig differenzierbar sein und vollen Rang haben.

Wald-Statistiken für allgemeine lineare HypothesenBearbeiten

Um allgemeine lineare Hypothesen zu testen, spielt die asymptotische Verteilung der Wald-Statistik eine große Rolle. Sei   eine   Restriktionsmatrix, mit   Sei weiterhin angenommen, dass die   Restriktionen an den   Parametervektor   ausgedrückt werden können als : , wobei   ein  -Vektor bestehend aus bekannten Konstanten darstellt. Unter bestimmten Voraussetzungen kann gezeigt werden, dass unter der Nullhypothese die gewichtete Hypothesenquadratsumme

 

einer Chi-Quadrat-Verteilung mit   (Anzahl der Restriktionen) Freiheitsgraden folgt. Hierbei misst   wie weit der geschätzte Wert   von der Nullhypothese   abweicht. Weiterhin ist   die dazugehörige Summe der Abweichungsquadrate (Analog zur Residuenquadratsumme). Diese Summe der Abweichungsquadrate wird mit der inversen Kovarianzmatrix der Nullhypothese   gewichtet, weil für eine große Kovarianz ebenso so große Abweichungen   nicht notwendigerweise ein Indikator für   sind. Falls der erwartungstreue Schätzer für die Störgrößenvarianz   benutzt wird kann man zeigen, dass die Wald-Statistik   dividiert durch die Anzahl der Restriktionen   genau der F-Statistik des multiplen linearen Testproblems entspricht.[4]

BeispieleBearbeiten

Einstichproben-Gauß-Test als Spezialfall des Wald-TestsBearbeiten

Wenn eine Variable in einer Grundgesamtheit normalverteilt ist mit   mit unbekanntem Parameter   und bekanntem  , dann ist der Stichprobenmittelwert

 

auch der Maximum-Likelihood-Schätzer für  . Eine der Hypothesen für den Einstichproben-Gauß-Test lautet:

   gegen   

und die Teststatistik nach Wald wäre

 .

Somit kann der Einstichproben-Gauß-Test als Spezialfall des Wald-Tests aufgefasst werden.

Globaler F-Test als Spezialfall des Wald-TestsBearbeiten

Ein weiterer Spezialfall des Wald-Tests, stellt der globale F-Test dar. Bei diesem wird geprüft, ob mindestens eine erklärende Variable einen Erklärungsgehalt für das Modell liefert. Falls diese Hypothese verworfen wird ist somit das Modell nutzlos Die Nullhypothese des F-Test auf Gesamtsignifikanz des Modells sagt aus, dass alle erklärenden Variablen keinen Einfluss auf die abhängige Variable haben und die Alternativhypothese, dass mindestens eine erklärende Variable Einfluss auf sie hat. Sowohl die erklärenden Variablen als auch die unabhängigen Variablen können binär (kategoriell) oder metrisch sein. Der Wald-Test kann dann die Hypothesen testen (ohne Einbezug des Achsenabschnitts):[5]

   gegen   .

AlternativenBearbeiten

Eine Alternative zum Wald-Test bietet der Likelihood-Quotienten-Test. Dieser ist zwar rechenaufwändiger, dafür zeigt er in kleinen Stichproben jedoch auch bessere Eigenschaften. Eine weitere Alternative ist der sogenannte Lagrange-Multiplikator-Tests (LM-Tests, siehe auch Lagrange-Multiplikator). Asymptotisch sind diese drei Tests jedoch identisch.

LiteraturBearbeiten

  • Wald's W-Statistics. In: Encyclopedia of Statistical Sciences. Wiley, Hoboken 2006, S. 9028–9029.
  • Abraham Wald: Tests of Statistical Hypotheses Concerning Several Parameters When the Number of Observations is Large. In: Transactions of the American Mathematical Society. Vol. 54, No. 3, Nov 1943, S. 426–482.
  • Tim F. Liao: Comparing Social Groups: Wald Statistics for Testing Equality Among Multiple Logit Models. In: International Journal of Comparative Sociology. Vol. 45, No. 1–2, 2004, S. 3–16.
  • Robert F. Engle: Wald, Likelihood Ratio and Lagrange Multiplier Tests in Econometrics. In: Zvi Griliches, Michael D. Intriligator (Hrsg.): Handbook of Econometrics. Vol. 2, Elsevier, Amsterdam u. a. 1984, S. 775–826.

EinzelnachweiseBearbeiten

  1. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 99.
  2. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 100.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 109.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 810
  5. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.