Benutzer:JonskiC/Kleinste-Quadrate-Schätzer

Die gewöhnliche Kleinste-Quadrate-Schätzung (englisch ordinary least squares, kurz: OLS), gewöhnliche MKQ-Schätzung (MKQ für Methode der kleinsten Quadrate) auch verkürzt Kleinste-Quadrate-Schätzung oder lediglich KQ-Schätzung ist in der Regressionsanalyse der Standardlösungsansatz zur Schätzung von unbekannten Parameter in linearen Einzelgleichungsmodellen (Modell bei der eine Antwortvariable durch eine oder mehrere unabhängige Variablen erklärt wird). Diese Schätzmethode baut auf der numerischen Methode der kleinsten Quadrate auf einer Methode um eine Näherungslösung für überbestimmte lineare Gleichungssysteme (d. h. ein System von Gleichungen in dem mehr Gleichungen als unbekannte sind) zu finden. Bei der Kleinste-Quadrate-Schätzung werden die Schätzer (auch Kleinste-Quadrate-Schätzer gennant) gewonnen, indem die Residuenquadratsumme minimiert wird. Der Zusatz "gewöhnliche" wird zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B. der verallgemeinerten Kleinste-Quadrate-Schätzung, oder der zweistufigen leinste-Quadrate-Schätzung abzugrenzen. Die mit der gewöhnlichen Kleinste-Quadrate-Schätzung gewonnenen Parameterschätzer heißen (gewöhnliche) Kleinste-Quadrate-Schätzer. Im Gegensatz zur Maximum-Likelihood-Methode (Methode der größten Plausibilität) ist die gewöhnliche Kleinste-Quadrate-Schätzung unabhängig von der Wahrscheinlichkeitsverteilung der Störgrößen.

Einführung in die Problemstellung Bearbeiten

Geschichte Bearbeiten

Minimierungsansatz Bearbeiten

Sei die zu minimierende Zielfunktion die folgende Quadratsumme

 .

In einem linearen Modell, heißt jedes heißt jede Wahl von   für die gilt[1]

 

Kleinste-Quadrate-Schätzer (oder kurz: KQ-Schätzer) des unbekannten Parametervektors  .

Parameterschätzung im einfachen linearen Regressionsmodell Bearbeiten

Im Fall der linearen Einfachregression, bei der Ziel ist den Achsenabschnitt   und die Steigung   der Regressionsgeraden sowie die Schätzung der Varianz der Störgrößen zu schätzen ergeben sich die Kleinste-Quadrate-Schätzer durch das folgende Minimierungsproblem

 .

Die Lösung dieses Minimierungsproblem ist gegeben durch die beiden Schätzfunktionen

  und  ,

Diese beiden Schätzfunktionen der Regressionsparameter hängen linear von   ab, da

  mit der Gewichtsfunktion  
 .
Beweis

Dass die Kleinste-Quadrate-Schätzer sich im Falle der linearen Einfachregression durch () ergeben kann wie folgt gezeigt werden:

Es sind die Parameterschätzer   und   gesucht, die Lösung des folgenden Mnimierungsproblems sind

 .

Um das Minimum zu finden gilt es die Quadratsumme partiell nach   und   abzuleiten. Die Bedingungen erster Ordnung (notwendige Bedingungen) lauten:

  und  .

Zunächst berechnet man die partielle Ableitung nach  

 
 .

Bevor man die partielle Ableitung in Bezug auf   bildet, setzt man zunächst das Ergebnis für   ein:

 .

Nun gilt es die partielle Ableitung nach   zu bilden:

 .

Schließlich muss   ersetzt werden, um   zu bestimmen. Die beiden Lösungen, d. h. die KQ-Schätzer lauten somit:

  und  .

Die mit dieser Methode gewonnene Gerade wird Kleinste-Quadrate-Gerade (KQ-gerade) genannt.

Parameterschätzung im multiplen linearen Regressionsmodell Bearbeiten

Auch im multiplen linearen Regressionsmodell wird der Vektor der Störgrößen mithilfe der Kleinste-Quadrate-Schätzung (KQ-Schätzung) minimiert, das heißt, es soll   so gewählt werden, dass die euklidische Norm   minimal wird. Im Folgenden wird der Ansatz benutzt, dass die Residuenquadratsumme minimiert wird. Dazu wird vorausgesetzt, dass   den Rang   hat. Dann ist   invertierbar und man erhält als Minimierungsproblem:

 

Die Bedingung erster Ordnung (Nullsetzen des Gradienten) lautet:

 
 
Die Kleinste-Quadrate-Schätzung kann als eine Projektion auf die Ebene, die durch die Regressoren aufgespannt wird, interpretiert werden.

Die partiellen Ableitungen erster Ordnung lauten:

 

Dies zeigt, dass sich die Bedingung erster Ordnung für den Vektor   der geschätzten Regressionsparameter kompakt darstellen lässt als:

 

bzw.

 .

Dieses lineare Gleichungssystem wird in der Regel (Gaußsches) Normalgleichungssystem genannt.

Da die Matrix   den Rang   hat, ist die quadratische symmetrische Matrix   nichtsingulär und die Inverse für   existiert. Daher erhält man nach linksseitiger Multiplikation mit der Inversen der Produktsummenmatrix   als Lösung des Minimierungsproblems den folgenden Vektor der geschätzten Regressionskoeffizienten:[2]

 

Wenn der Rang von   kleiner als   ist, dann ist   nicht invertierbar, also das Normalgleichungssystem nicht eindeutig lösbar, mithin   nicht identifizierbar, siehe hierzu aber den Begriff der Schätzbarkeit. Da   die Residuenquadratsumme minimiert, wird   auch Kleinste-Quadrate-Schätzer (kurz: KQ-Schätzer) genannt.[3] Alternativ kann der Kleinste-Quadrate-Schätzer durch Einsetzen des wahren Modells   auch dargestellt werden als[4]

 

Für die Kovarianzmatrix des Kleinste-Quadrate-Schätzers ergibt sich (dargestellt in kompakter Form):[5]

 

Im Fall der linearen Einfachregression ( ) reduziert sich die obigen Formel auf die bekannten Ausdrücke für die Varianzen der KQ-Schätzer   und   (siehe Statistische Eigenschaften der Kleinste-Quadrate-Schätzer).[6]

Beweis
 

Man erhält mit Hilfe des Kleinste-Quadrate-Schätzers   das Gleichungssystem

 ,

wobei   der Vektor der Residuen und   die Schätzung für   ist. Das Interesse der Analyse liegt oft in der Schätzung   oder in der Vorhersage der abhängigen Variablen   für ein gegebenes Tupel von  . Der Vorhersagevektor berechnet sich als

 .

Güteeigenschaften des Kleinste-Quadrate-Schätzers Bearbeiten

Erwartungstreue Bearbeiten

Im multiplen Fall kann man genauso wie im einfachen Fall zeigen, dass der Kleinste-Quadrate-Schätzvektor erwartungstreu für   ist. Dies gilt allerdings nur, wenn die Annahme der Exogenität der Regressoren gegeben ist. Dies ist der Fall, wenn die möglicherweise zufälligen Regressoren und die Störgrößen unkorreliert sind, d. h. wenn   gilt. Wenn man also hier voraussetzt, dass die exogenen Variablen keine Zufallsvariablen sind, sondern wie in einem Experiment kontrolliert werden können, gilt   bzw.   und damit ist   erwartungstreu für  .

Beweis
 

Falls die Exogenitätsannahme nicht zutrifft,  , ist der Kleinste-Quadrate-Schätzer nicht erwartungstreu für  . Es liegt also eine Verzerrung (englisch bias) vor, d. h., „im Mittel“ weicht der Parameterschätzer vom wahren Parameter ab:

 .

Der Erwartungswert des Kleinste-Quadrate-Parametervektor für   ist also nicht gleich dem wahren Parameter  , siehe dazu auch unter Regression mit stochastischen Regressoren.

Effizienz Bearbeiten

Der Kleinste-Quadrate-Schätzer ist linear:

 .

Nach dem Satz von Gauß-Markow ist der Schätzer  , bester linearer erwartungstreuer Schätzer (BLES bzw. englisch Best Linear Unbiased Estimator, kurz: BLUE), das heißt, er ist derjenige lineare erwartungstreue Schätzer, der unter allen linearen erwartungstreuen Schätzern die kleinste Varianz bzw. Kovarianzmatrix besitzt. Für diese Eigenschaften der Schätzfunktion   braucht keine Verteilungsinformation der Störgröße vorzuliegen. Wenn die Störgrößen normalverteilt sind, ist   Maximum-Likelihood-Schätzer und nach dem Satz von Lehmann-Scheffé beste erwartungstreue Schätzung (BES bzw. englisch Best Unbiased Estimator, kurz: BUE).

Konsistenz Bearbeiten

Der KQ-Schätzer ist unter den bisherigen Annahmen erwartungstreu für   ( ), wobei die Stichprobengröße   keinen Einfluss auf die Erwartungstreue hat (schwaches Gesetz der großen Zahlen). Ein Schätzer ist genau dann konsistent für den wahren Wert, wenn er in Wahrscheinlichkeit gegen den wahren Wert konvergiert (englisch probability limit, kurz: plim). Die Eigenschaft der Konsistenz bezieht also das Verhalten des Schätzers mit ein, wenn die Anzahl der Beobachtungen größer wird.

Für die Folge   gilt, dass sie in Wahrscheinlichkeit gegen den wahren Parameterwert   konvergiert

 

oder vereinfacht ausgedrückt   bzw.  

Die Grundlegende Annahme, um die Konsistenz des KQ-Schätzers sicherzustellen lautet

 ,

d. h. man geht davon aus, dass das durchschnittliche Quadrat der beobachteten Werte der erklärenden Variablen auch bei einem ins Unendliche gehendem Stichprobenumfang endlich bleibt (siehe Produktsummenmatrix#Asymptotische Resultate). Außerdem nimmt man an, dass

 .

Die Konsistenz für   kann wie folgt gezeigt werden:[7]

Beweis
 

Hierbei wurde das Slutsky-Theorem und die Eigenschaft verwendet, dass wenn   deterministisch bzw. nichtstochastisch ist   gilt.

Folglich ist der Kleinste-Quadrate-Schätzer konsistent für  . Die Eigenschaft besagt, dass mit steigender Stichprobengröße die Wahrscheinlichkeit, dass der Schätzer   vom wahren Parameter   abweicht, sinkt. Weiterhin lässt sich durch das Chintschin-Theorem zeigen, dass für die durch die KQ-Schätzung gewonnene Störgrößenvarianz gilt, dass sie konsistent für   ist, d. h.  .

Beweis

Dazu schreibt man zunächst die geschätzte Störgrößenvarianz wie folgt um

 

Damit ergibt sich als Wahrscheinlichkeitslimes

 

Somit ist   ein konsistenter Schätzer für  .

Anmerkungen Bearbeiten

  1.   bezeichnet analog zu  (Argument des Maximums) das Argument des Minimums
  2. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 192.
  3. Alvin C. Rencher, G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008, S. 143
  4. Peter Hackl: Einführung in die Ökonometrie. 2. aktualisierte Auflage, Pearson, 2008., ISBN 978-3-86894-156-2, S. 48.
  5. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 201.
  6. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 168.
  7. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 266.