Erwartungstreue Schätzung der Varianz der Störgrößen

In der Statistik ist die erwartungstreue Schätzung der Varianz der Störgrößen, auch erwartungstreue Schätzung der Fehlervarianz genannt, ein Punktschätzer, der die Güteeigenschaft aufweist, dass er unbekannte Varianz der Störgrößen erwartungstreu schätzt, falls die Gauß-Markow-Annahmen zutreffen.

Einführung in die Problemstellung Bearbeiten

Die Fehlervarianz, auch Restvarianz, Versuchsfehler, Störgrößenvarianz[1], Varianz der Störgrößen, nicht erklärte Varianz, unerklärte Varianz, bezeichnet mit  , ist die Varianz der Regressionsfunktion in der Grundgesamtheit und damit die Varianz der Fehlerterme bzw. Störgrößen. Die Fehlervarianz   ist ein unbekannter Parameter, der anhand der Stichprobeninformation geschätzt werden muss. Sie bemisst diejenige Variation, die auf die Messfehler bzw. Störgrößen zurückzuführen sind. Ein erster naheliegender Ansatz wäre, die Varianz der Störgrößen wie gewöhnlich mit der Maximum-Likelihood-Schätzung zu schätzen (siehe klassischen linearen Modells der Normalregression). Allerdings ist dieser Schätzer problematisch, wie im Folgenden erläutert wird.

Erwartungstreuer Schätzer für die Varianz der Störgrößen Bearbeiten

Einfache lineare Regression Bearbeiten

Obwohl für die homoskedastische Varianz in der Grundgesamtheit   manchmal angenommen wird, dass sie bekannt ist, muss man davon ausgehen, dass sie in den meisten Anwendungsfällen unbekannt ist (beispielsweise bei der Schätzung von Nachfrageparametern in ökonomischen Modellen, oder Produktionsfunktionen). Da die Störgrößenvarianz einen unbekannten Wert besitzt, können die numerischen Werte der Varianzen des Steigungsparameters und des Absolutglieds nicht geschätzt werden, da die Formeln von dieser abhängen. Jedoch kann aus den vorliegenden Daten eine Schätzung dieser Größen vorgenommen werden.[2] Ein naheliegender Schätzer der Störgrößen   ist das Residuum  , wobei   die Stichproben-Regressionsfunktion darstellt. Die in den Residuen steckende Information könnte also für einen Schätzer der Störgrößenvarianz genutzt werden. Aufgrund der Tatsache, dass   gilt, ist   aus frequentistischer Sicht der „Mittelwert“ von  . Die Größe   ist aber unbeobachtbar, da die Störgrößen unbeobachtbar sind. Wenn man statt   nun das beobachtbare Pendant   benutzt, führt dies zum folgenden Schätzer für die Störgrößenvarianz

 ,

wobei   die Residuenquadratsumme darstellt. Dieser Schätzer ist das Stichprobenmittel der geschätzten Residuenquadrate und könnte zur Schätzung der Störgrößenvarianz genutzt werden.[3] Man kann zeigen, dass die obige Definition ebenfalls dem Maximum-Likelihood-Schätzer entspricht ( ). Allerdings erfüllt der Schätzer nicht gängige Qualitätskriterien für Punktschätzer und wird daher nicht oft genutzt.[4] Beispielsweise ist der Schätzer nicht erwartungstreu für  . Dies liegt daran, dass der Erwartungswert der Residuenquadratsumme   ergibt und daher für den Erwartungswert dieses Schätzers   gilt.[5] In der einfachen linearen Regression lässt sich unter den Voraussetzungen des klassischen Modells der linearen Einfachregression zeigen, dass eine erwartungstreue Schätzung für  , d. .h eine Schätzung, die   erfüllt, gegeben ist durch

 ,

wobei vorausgesetzt wird, dass  . Diese erwartungstreue Schätzung für   ist das mittleres Residuenquadrat und wird gelegentlich als Residualvarianz bezeichnet. Die Quadratwurzel dieser erwartungstreuen Schätzung bzw. der Residualvarianz wird als Standardfehler der Regression bezeichnet.[6] Die Residualvarianz kann als mittlerer Modellschätzfehler interpretiert werden und bildet die Grundlage für alle weiteren Berechnungen (Konfidenzintervalle, Standardfehler der Regressionsparameter etc.). Sie unterscheidet sich zu obigen Ausdruck in der Hinsicht, dass die Residuenquadratsumme um die Anzahl der Freiheitsgrade adjustiert wird. Intuitiv lässt sich diese Adjustierung damit erklären, dass man durch die Schätzung der beiden unbekannten Regressionsparameter   und   zwei Freiheitsgrade verliert.

Wie bereits oben erwähnt ist eine erwartungstreue Schätzung für   in der einfachen linearen Regression gegeben durch

 ,

wobei   und   die Kleinste-Quadrate-Schätzer für   und   sind.

Um die Erwartungstreue zu zeigen, benutzt man die Eigenschaft, dass sich die Residuen als Funktion der Störgrößen darstellen lassen als  .[7][8] Des Weiteren wird die Eigenschaft benutzt, dass die Varianz des KQ-Schätzers   gegeben ist durch  . Außerdem ist zu beachten, dass der Erwartungswert des KQ-Schätzers   gegeben ist durch   und gleiches gilt für  .[9] Die Erwartungstreue für   lässt sich wie folgt beweisen:

 .

Mit dem erwartungstreuen Schätzer lassen sich ebenfalls die Varianzen der KQ-Schätzer   und   schätzen. Beispielsweise lässt sich   schätzten, indem man   durch   ersetzt. Die geschätzte Varianz des Steigungsparameters ist dann gegeben durch

 .

Multiple lineare Regression Bearbeiten

In der multiplen linearen Regression ist die erwartungstreue Schätzung der Varianz der Störgrößen bzw. die Residualvarianz gegeben durch

 ,

wobei   den Kleinste-Quadrate-Schätzer und   die  -te Zeile der Versuchsplanmatrix   darstellt. Alternativ lässt sich die erwartungstreue Schätzung der Varianz der Störgrößen im multiplen Fall darstellen als

 .

Diese Darstellung ergibt sich aus der Tatsache, dass man die Residuenquadratsumme   schreiben kann als  . Eine weitere alternative Darstellung der Residualvarianz ergibt sich aus der Tatsache, dass sich die Residuenquadratsumme mittels der residuenerzeugenden Matrix auch darstellen lässt als  . Damit ergibt sich für die Residualvarianz

 

Diese Schätzung kann wiederum benutzt werden, um die Kovarianzmatrix des KQ-Schätzvektors zu berechnen. Wenn nun   durch   ersetzt wird, ergibt sich für die geschätzte Kovarianzmatrix des KQ-Schätzvektors

 .

Regression mit stochastischen Regressoren Bearbeiten

Bei der Regression mit stochastischen Regressoren mit der stochastischen Regressormatrix   ist die Erwartungstreue Schätzung der Varianz der Störgrößen ebenfalls gegeben durch

 .

Die Erwartungstreue kann mittels des Gesetzes des iterierten Erwartungswertes gezeigt werden.

Weblinks Bearbeiten

Einzelnachweise Bearbeiten

  1. Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6., durchges. u. aktualisierte Auflage. 2013.
  2. Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6., durchges. u. aktualisierte Auflage. 2013, S. 191.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 170.
  4. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 109.
  5. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 109.
  6. Karl Mosler und Friedrich Schmid: Wahrscheinlichkeitsrechnung und schließende Statistik. Springer-Verlag, 2011, S. 308.
  7. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education 2015
  8. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 55.
  9. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 55.