Dieser Artikel ist im Entstehen und noch nicht Bestandteil der freien Enzyklopädie Wikipedia.
Solltest du über eine Suchmaschine darauf gestoßen sein, bedenke, dass der Text noch unvollständig sein und Fehler oder ungeprüfte Aussagen enthalten kann. Wenn du Fragen zum Thema hast, nimm Kontakt mit dem Autor JonskiC auf.
Die gewöhnliche Kleinste-Quadrate-Schätzung (englischordinary least squares, kurz: OLS), gewöhnliche MKQ-Schätzung (MKQ für Methode der kleinsten Quadrate) auch verkürzt Kleinste-Quadrate-Schätzung oder lediglich KQ-Schätzung ist in der Regressionsanalyse der Standardlösungsansatz zur Schätzung von unbekannten Parameter in linearen Einzelgleichungsmodellen (Modell bei der eine Antwortvariable durch eine oder mehrere unabhängige Variablen erklärt wird). Diese Schätzmethode baut auf der numerischen Methode der kleinsten Quadrate auf einer Methode um eine Näherungslösung für überbestimmte lineare Gleichungssysteme (d. h. ein System von Gleichungen in dem mehr Gleichungen als unbekannte sind) zu finden. Bei der Kleinste-Quadrate-Schätzung werden die Schätzer (auch Kleinste-Quadrate-Schätzer gennant) gewonnen, indem die Residuenquadratsumme minimiert wird. Der Zusatz "gewöhnliche" wird zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B. der verallgemeinerten Kleinste-Quadrate-Schätzung, oder der zweistufigen leinste-Quadrate-Schätzung abzugrenzen. Die mit der gewöhnlichen Kleinste-Quadrate-Schätzung gewonnenen Parameterschätzer heißen (gewöhnliche) Kleinste-Quadrate-Schätzer. Im Gegensatz zur Maximum-Likelihood-Methode (Methode der größten Plausibilität) ist die gewöhnliche Kleinste-Quadrate-Schätzung unabhängig von der Wahrscheinlichkeitsverteilung der Störgrößen.
Auch im multiplen linearen Regressionsmodell wird der Vektor der Störgrößen mithilfe der Kleinste-Quadrate-Schätzung (KQ-Schätzung) minimiert, das heißt, es soll so gewählt werden, dass die euklidische Norm minimal wird. Im Folgenden wird der Ansatz benutzt, dass die Residuenquadratsumme minimiert wird. Dazu wird vorausgesetzt, dass den Rang hat. Dann ist invertierbar und man erhält als Minimierungsproblem:
Die Bedingung erster Ordnung (Nullsetzen des Gradienten) lautet:
Die partiellen Ableitungen erster Ordnung lauten:
Dies zeigt, dass sich die Bedingung erster Ordnung für den Vektor der geschätzten Regressionsparameter kompakt darstellen lässt als:
bzw.
.
Dieses lineare Gleichungssystem wird in der Regel (Gaußsches) Normalgleichungssystem genannt.
Wenn der Rang von kleiner als ist, dann ist nicht invertierbar, also das Normalgleichungssystem nicht eindeutig lösbar, mithin nicht identifizierbar, siehe hierzu aber den Begriff der Schätzbarkeit. Da die Residuenquadratsumme minimiert, wird auch Kleinste-Quadrate-Schätzer (kurz: KQ-Schätzer) genannt.[3] Alternativ kann der Kleinste-Quadrate-Schätzer durch Einsetzen des wahren Modells auch dargestellt werden als[4]
Man erhält mit Hilfe des Kleinste-Quadrate-Schätzers das Gleichungssystem
,
wobei der Vektor der Residuen und die Schätzung für ist. Das Interesse der Analyse liegt oft in der Schätzung oder in der Vorhersage der abhängigen Variablen für ein gegebenes Tupel von .
Der Vorhersagevektor berechnet sich als
.
Güteeigenschaften des Kleinste-Quadrate-SchätzersBearbeiten
Im multiplen Fall kann man genauso wie im einfachen Fall zeigen, dass der Kleinste-Quadrate-Schätzvektor erwartungstreu für ist. Dies gilt allerdings nur, wenn die Annahme der Exogenität der Regressoren gegeben ist. Dies ist der Fall, wenn die möglicherweise zufälligen Regressoren und die Störgrößen unkorreliert sind, d. h. wenn gilt. Wenn man also hier voraussetzt, dass die exogenen Variablen keine Zufallsvariablen sind, sondern wie in einem Experiment kontrolliert werden können, gilt bzw. und damit ist erwartungstreu für .
Beweis
Falls die Exogenitätsannahme nicht zutrifft, , ist der Kleinste-Quadrate-Schätzer nicht erwartungstreu für . Es liegt also eine Verzerrung (englischbias) vor, d. h., „im Mittel“ weicht der Parameterschätzer vom wahren Parameter ab:
Nach dem Satz von Gauß-Markow ist der Schätzer , bester linearer erwartungstreuer Schätzer (BLES bzw. englischBest Linear Unbiased Estimator, kurz: BLUE), das heißt, er ist derjenige lineare erwartungstreue Schätzer, der unter allen linearen erwartungstreuen Schätzern die kleinste Varianz bzw. Kovarianzmatrix besitzt. Für diese Eigenschaften der Schätzfunktion braucht keine Verteilungsinformation der Störgröße vorzuliegen. Wenn die Störgrößen normalverteilt sind, ist Maximum-Likelihood-Schätzer und nach dem Satz von Lehmann-Scheffé beste erwartungstreue Schätzung (BES bzw. englischBest Unbiased Estimator, kurz: BUE).
Der KQ-Schätzer ist unter den bisherigen Annahmen erwartungstreu für (), wobei die Stichprobengröße keinen Einfluss auf die Erwartungstreue hat (schwaches Gesetz der großen Zahlen). Ein Schätzer ist genau dann konsistent für den wahren Wert, wenn er in Wahrscheinlichkeit gegen den wahren Wert konvergiert (englischprobability limit, kurz: plim). Die Eigenschaft der Konsistenz bezieht also das Verhalten des Schätzers mit ein, wenn die Anzahl der Beobachtungen größer wird.
Für die Folge gilt, dass sie in Wahrscheinlichkeit gegen den wahren Parameterwert konvergiert
oder vereinfacht ausgedrückt bzw.
Die Grundlegende Annahme, um die Konsistenz des KQ-Schätzers sicherzustellen lautet
,
d. h. man geht davon aus, dass das durchschnittliche Quadrat der beobachteten Werte der erklärenden Variablen auch bei einem ins Unendliche gehendem Stichprobenumfang endlich bleibt (siehe Produktsummenmatrix#Asymptotische Resultate). Außerdem nimmt man an, dass
.
Die Konsistenz für kann wie folgt gezeigt werden:[7]
Beweis
Hierbei wurde das Slutsky-Theorem und die Eigenschaft verwendet, dass wenn deterministisch bzw. nichtstochastisch ist gilt.
Folglich ist der Kleinste-Quadrate-Schätzer konsistent für .
Die Eigenschaft besagt, dass mit steigender Stichprobengröße die Wahrscheinlichkeit, dass der Schätzer vom wahren Parameter abweicht, sinkt. Weiterhin lässt sich durch das Chintschin-Theorem zeigen, dass für die durch die KQ-Schätzung gewonnene Störgrößenvarianz gilt, dass sie konsistent für ist, d. h. .
Beweis
Dazu schreibt man zunächst die geschätzte Störgrößenvarianz wie folgt um
↑George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 192.
↑George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 201.
↑George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 168.
↑George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 266.