In der Statistik, und dort insbesondere in der Regressionsanalyse, ist die gesamte bzw. totale Quadratsumme (Summe der Quadrate der Totalen Abweichungen, kurz SQT bzw. englisch sum of squared total deviations, kurz SST oder total sum of squares, kurz TSS), auch als totale Abweichungsquadratsumme, oder Gesamtabweichungsquadratsumme bezeichnet und mit SAQy (für Summe der Abweichungsquadrate der y-Werte) bzw. SAQGesamt abgekürzt, die Quadratsumme der abhängigen Variablen.[1] Sie wird berechnet als Summe der Quadrate der zentrierten Messwerte der abhängigen Variablen und kann als „Gesamtvariation“ bzw. „totale Variation der abhängigen Variablen “ interpretiert werden. Die totale Quadratsumme wird im Kontext der Quadratsummenzerlegung auch als zu erklärende Abweichungsquadratsumme bezeichnet. Über die genaue Bezeichnung und ihre Abkürzungen gibt es international keine Einigkeit.[2] In der deutschsprachigen Literatur wird manchmal die deutsche Bezeichnung mit englischen Abkürzungen gebraucht.[3]

Die Summe der blauen Abweichungsquadrate ist die totale Quadratsumme.

Definition

Bearbeiten

Berechnet wird die totale Quadratsumme durch die Summe der Quadrate der totalen Abweichungen (die Abweichungen der Messwerte von ihrem Mittelwert)[4]

 ,

wobei   für das arithmetische Mittel steht. Die totale Quadratsumme erfasst die „Gesamtvariation“ in der abhängigen Variablen. Dividiert man die gesamte bzw. totale Quadratsumme durch die Anzahl der Freiheitsgrade  , erhält man als empirische Varianz die Gesamtvarianz bzw. totale Varianz:[5]

 .

Der Name totale Varianz rührt daher, dass sich die „totale Varianz“ in die „erklärte Varianz“ und die „Restvarianz“ zerlegen lässt.

Zerlegung der totalen Quadratsumme

Bearbeiten
 
Diese Animation zeigt die Streuungszerlegung, d. h. die Zerlegung der totalen Quadratsumme in die erklärte Quadratsumme (der Anteil der Gesamtstreuung, der durch   erklärt werden kann) und die Residuenquadratsumme. Ebenfalls zu sehen ist, dass die – durch die Kleinste-Quadrate-Schätzung gewonnene – Regressionsgerade durch das „Gravitationszentrum“   der Punkteverteilung im Streudiagramm verläuft (siehe auch, algebraische Eigenschaften der Kleinste-Quadrate-Schätzer).

Die Quadratsummenzerlegung, auch Zerlegung der Summe der Abweichungsquadrate, Zerlegung der totalen Quadratsumme oder Streuungszerlegung genannt, beschreibt eine Zerlegung der gesamten Abweichungsquadratsumme. Gegeben ein multiples oder einfaches lineares Regressionsmodell mit Achsenabschnitt  , welches auf der Stichprobe   basiert und   Beobachtungen umfasst. Die totale Quadratsumme

 

lässt sich dann zerlegen in die erklärte Quadratsumme

 

und die Residuenquadratsumme

 :
 ,

was äquivalent ist zu

  bzw.  .

Die Quadratsummenzerlegung bzw. Streuungszerlegung besagt, dass sich die „Gesamtvariation in  “ als Summe der „Gesamtvariation in  “ und der „Gesamtvariation in  “ ergibt.

 

wobei die Eigenschaft benutzt wurde, dass die Residuen mit den prognostizierten Werten unkorreliert sind, d. h.  . Diese Unkorreliertheit der prognostizierten Werte mit den Residuen kann so interpretiert werden, dass in der Prognose bereits alle relevante Information der erklärenden Variablen bezüglich der abhängigen Variablen steckt.[6] Zudem wurde die Eigenschaft verwendet, dass die Summe und damit das arithmetische Mittel der Residuen Null ist (wenn das Modell den Achsenabschnitt enthält)   (siehe statistische Eigenschaften der Kleinste-Quadrate-Schätzer).[7] Die Quadratsummenzerlegung kann als „Streuungszerlegung“ interpretiert werden.

Das Verhältnis der erklärten Abweichungsquadratsumme zur gesamten Abweichungsquadratsumme wird Bestimmtheitsmaß genannt. Die Quadratsumme der Residuen wird auch Residuenquadratsumme genannt (oder nicht erklärte Quadratsumme). Verschiedene statistische Analyseverfahren wie etwa die Regressionsanalyse versuchen ein Modell zu finden, das vorhandene Beobachtungswerte besser erklärt als ihr Mittelwert  .

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Andy Field: Discovering statistics using SPSS. Sage publications, 2009, S. 202.
  2. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 39.
  3. Gertrud Moosmüller: Methoden der empirischen Wirtschaftsforschung. Pearson Deutschland GmbH, 2008, S. 239.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 38.
  5. Peter Hackl: Einführung in die Ökonometrie. 2., aktualisierte Auflage. Pearson Deutschland GmbH, 2008, ISBN 978-3-86894-156-2, S. 79.
  6. Rainer Schlittgen: Regressionsanalysen mit R. ISBN 978-3-486-73967-1, S. 27 (abgerufen über De Gruyter Online).
  7. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 112.