Testen allgemeiner linearer Hypothesen

In der Testtheorie ist das Testen allgemeiner linearer Hypothesen, Testen linearer Hypothesen,[1] allgemeine lineare Hypothesentests, multiple Hypothesentests die Verallgemeinerung von Testproblemen in Regressionsmodellen. Dieses Testverfahren erlaubt im Vergleich zum t-Test das Testen mehrerer Nullhypothesen bezüglich einer Gruppe von Parametern in linearen Einzelgleichungsmodellen. Unter multiplen Hypothesentests versteht man zum einen den F-Test für das multiple Regressionsmodell, welcher sich dadurch auszeichnet, dass die Teststatistik des Hypothesentests unter der Nullhypothese einer F-Verteilung folgt und den t-Test für das multiple Regressionsmodell. Bei einem gewöhnlichen F-Test wird lediglich eine Einzelgleichung getestet.

AusgangslageBearbeiten

Da viele Variablen des Interesses nicht nur von einer unabhängigen Variablen abhängen, betrachten wir eine abhängige Variable, die durch mehrere unabhängige Variablen erklärt werden sollen. Zum Beispiel ist die Gesamtproduktion einer Volkswirtschaft von dessen Kapitaleinsatz, Arbeitseinsatz und dessen Fläche abhängig. Solch eine multiple Abhängigkeit kommt der Realität viel näher und man gibt die Annahme der einfachen linearen Regression auf, bei der die Variable des Interesses nur von einer Variablen abhängt. Um solch eine multiple Abhängigkeit zu modellieren, betrachten wir als Ausgangslage ein typisches multiples lineares Regressionsmodell oder genauer gesagt ein die Normalverteilungsannahme einschließendes klassisches lineares Modell mit gegebenen Daten   für   statistische Einheiten. Hierbei ist zu beachten, dass wir zusätzlich zur Dimension der unabhängigen Variablen auch eine zeitliche Dimension integrieren, wodurch sich ein lineares Gleichungssystem ergibt was sich auch matriziell darstellen lässt. Der Zusammenhang zwischen der abhängigen Variablen und den unabhängigen Variablen kann wie folgt dargestellt werden

 .

In Vektor-Matrix-Form auch


 

oder in kompakter Schreibweise

 

Hier stellt   einen Vektor von unbekannten Parametern dar (bekannt als Regressionskoeffizienten), die mithilfe der Daten geschätzt werden müssen. Des Weiteren wird angenommen, dass die Fehlerterme im Mittel null sind:  , was bedeutet, dass wir davon ausgehen können, dass unser Modell im Mittel korrekt ist. Hierbei nimmt man von der Datenmatrix   an, dass sie vollen (Spalten-)Rang hat, das heißt, es gilt   bzw.  . Ferner erwartet man für die Kovarianzmatrix der Fehler, dass   gilt. Des Weiteren wird angenommen, dass die Gauß-Markow-Annahmen gelten, damit man obiges Modell effizient und unverzerrt mittels der Methode der kleinsten Quadrate schätzen kann.

Allgemeine lineare HypotheseBearbeiten

Die allgemeinste Nullhypothese umfasst eine Anzahl von a linearen Restriktionen an die Koeffizienten. Man kann diese allgemeine lineare Hypothese, also die Hypothese bei der das Interesse daran liegt sie zu verwerfen, formulieren als

 

beziehungsweise[2]

 

mit  , der  -Hypothesenmatrix   und dem  -Vektor der Restriktionen   und dem  -Vektor der Regressionskoeffizienten und den  -Zeilenvektoren  . Das Testproblem lautet dann

 ,

wobei angenommen wird, dass   beziehungsweise   gilt und   linear unabhängigen Restriktionen vorliegen. Für den Vektor der Regressionskoeffizienten wird wie für üblich angenommen, dass man ihn mit der Methode der kleinsten Quadrate schätzt. Für den Kleinste-Quadrate-Schätzer gilt die folgende Effizienzeigenschaft

 

Die bedeutet, dass jede Parameterkonstellation des Kleinste-Quadrate-Schätzers besser ist als die eines beliebigen linearen erwartungstreuen Schätzers ist. Dieses Resultat wird auch als Satz von Gauß-Markow bezeichnet.

T-Test für das multiple RegressionsmodellBearbeiten

EinzelgleichungsmodellBearbeiten

In vielen Fällen ist man nur daran interessiert eine einzelne Hypothese zu testen, z. B. eine einzelne Linearkombination der Regressionskoeffizienten. Zum Beispiel könnte man testen daran interessiert sein, ob die Summe der Regressionskoeffizienten einem bestimmten Wert entspricht, d. h.

 

oder in Vektorschreibweise

 

Wenn man beispielsweise testen würde, ob die Summe der Koeffizienten 1 ergibt, d. h.  , dann würde dies aus ökonomischer Sicht ein Test auf konstante Skalenerträge darstellen. Zunächst gilt es die Testatistik für diesen Test aufzustellen. Daher ist man daran interessiert die Parametrisierung der Verteilung der einzelnen Linearkombination herauszubekommen. Für die Verteilung ergibt sich

 ,

wobei   den Kleinste-Quadrate-Schätzer darstellt. Man standardisiert zur Standardnormalverteilung   und erhält für die Pivotgröße

 ,

dass die Grenzen des zentralen Schwankungsintervalls sie mit der Wahrscheinlichkeit   umschließt, d. h.


 ,[3]

wobei   das  -Quantil der Standardnormalverteilung ist. Das Problem an diesem Ausdruck ist, dass die Varianz der Störgrößen   für gewöhnlich unbekannt ist. Ersetzt man den unbekannten Parameter durch den erwartungstreuen Schätzer für die Störgrößenvarianz   ergibt sich für die Pivotgröße folgende Verteilung

 .

Die Pivotgröße ist nun also statt standardnormalverteilt, t-verteilt mit   Freiheitsgeraden. Dadurch ergibt sich für das testen der Einzelgleichung folgende Wahrscheinlichkeit

 

und somit folgendes Konfidenzintervall

 .

Einzelgleichungsmodelle lassen sich nicht nur als F-Test für das multiple Regressionsmodell, sondern alternativ auch als t-test darstellen.

F-Test für das multiple RegressionsmodellBearbeiten

Konstruktion der TeststatistikBearbeiten

Für die Konstruktion der Teststatistik benutzt man folgendes, mithilfe der Annahme der Erwartungstreue des Kleinste-Quadrate-Schätzers und der Rechenregeln für Kovarianzmatrizen, einfach nachzuprüfendes Resultat

 ,

d. h. die Nullhypothese folgt beim vorliegenden klassischem Modell einer Normalverteilung mit Kovarianzmatrix   und Erwartungswert  .

Es kann gezeigt werden, dass die gewichtete Hypothesenquadratsumme unter der Nullhypothese

 

einer Chi-Quadrat-Verteilung mit   Freiheitsgeraden folgt. Hierbei misst   wie weit der geschätzte Wert   von der Nullhypothese   abweicht. Weiterhin ist   die dazugehörige Summe der quadrierten Abweichungen (Analog zur Residuenquadratsumme). Diese Summe der quadrierten Abweichungen wird mit der inversen Kovarianzmatrix   gewichtet, weil für eine große Kovarianz ebenso so große Abweichungen   nicht notwendigerweise ein Indikator für   sind. Ein weiteres wichtiges Resultat, dass zu Konstruktion der Teststatistik gebraucht wird lautet

 

Die Teststatistik ergibt sich nun bei stochastischer Unabhängigkeit von   und   als

 .

Aus diesem Resultat wird ersichtlich, dass sich die Teststatistik alternativ auch als Quotient aus dem „mittleren Hypothesenquadrat“ und dem „mittleren Residuenquadrat

  und  ,

darstellen lässt also als

 ,


wobei   der Rang der residuenerzeugenden Matrix darstellt und   der Rang der Hypothesenmatrix darstellt. Dividiert man die Quadratsummen durch   (bzw.  ), erhält man mittlere Abweichungsquadrate. Dies ist sinnvoll, da für mehr Hypothesen (Beobachtungen) auch größere Abweichungen zu erwarten sind. Diese Teststatistik stellt das Gerüst und die Basis für das Testen allgemeiner linearer Hypothesen und Intervallschätzer für den unbekannten Vektor   dar. Wie für gewöhnlich ist diese Teststatistik sensitiv für das Testproblem, d. h. wenn also die Abweichung   groß relativ zur Fehlervarianz ist, so spricht dies gegen  

Um den Test schließlich durchzuführen benutzt man entsprechende Quantile der F-Verteilung. Die Nullhypothese wird abgelehnt, wenn

 ,

die F-Statistik also größer als der kritische Wert   ist. Der kritische Wert kann anhand einer Quantil-Tabelle für der F-Verteilung abgelesen werden.

Problem des multiplen TestensBearbeiten

Das Problem des multiplen Testens besteht darin, dass man bei jedem einzelnen Test bei einem Signifikanzniveau von 5 % eine 5-prozentige Wahrscheinlichkeit hat den gesuchten Unterschied fälschlicherweise herauszubekommen (Alpha-Fehler) und sich diese Fehler aufgrund mehrfachen Nullhypothesen aufsummieren. Eine wichtige Rolle spielt in diesem Kontext die Falscherkennungsrate, sie ist für ein Testverfahren als erwartetes Verhältnis aus fälschlicherweise zurückgewiesenen Nullhypothesen zu den zurückgewiesenen Nullhypothesen insgesamt definiert.

WeblinksBearbeiten

LiteraturBearbeiten

EinzelnachweiseBearbeiten

  1. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 296 ff.
  2. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 285 ff.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 242 ff.