Verschiebungssatz (Statistik)

Der Verschiebungssatz (auch Satz von Steiner oder Steinerscher Verschiebungssatz genannt) ist eine Rechenregel für die Ermittlung der Summe der Abweichungsquadrate bzw. der empirischen Varianz

Kurzgefasst besagt er, dass für Zahlen und deren arithmetisches Mittel gilt:

.

Bei Verwendung dieser Formel mit Gleitkommazahlen kann es jedoch zu einer numerischen Auslöschung kommen, wenn erheblich größer ist als die Varianz, die Daten also nicht zentriert sind.[1] Daher bietet sich die Verwendung dieser Formel primär für analytische Betrachtungen an, nicht für die Verwendung mit realen Daten. Eine mögliche Abhilfe[2] ist, vorab eine Näherung für das Mittel zu bestimmen und damit zu berechnen:

.

Falls die Näherung nahe genug an dem echten Mittel liegt, ist die Genauigkeit mit dieser Formel gut. Weitere numerisch stabilere Berechnungsmethoden finden sich in der Literatur.[2][1]

Erläuterung am Fall einer endlichen Folge von Zahlen: Das StichprobenmittelBearbeiten

Der Verschiebungssatz wird zunächst am einfachsten Fall vorgeführt: Es seien die Werte   gegeben, beispielsweise eine Stichprobe. Es wird die Summe der Abweichungsquadrate dieser Werte gebildet:

 

wobei

 

das arithmetische Mittel der Zahlen ist. Der Verschiebungssatz ergibt sich aus[3]

 
 .

BeispielBearbeiten

Im Rahmen der Qualitätssicherung werden fortlaufend Kaffeepäckchen gewogen. Für die ersten vier Päckchen erhielt man die Werte (in g)  

 

Das durchschnittliche Gewicht beträgt

 

Es ist

 

Für die Anwendung des Verschiebungssatzes berechnet man

 

und

 
 

Man kann damit beispielsweise die (korrigierte) empirische Varianz als „durchschnittliches“ Abweichungsquadrat bestimmen:

 

im Beispiel

 

Kommt nun ein weiteres Päckchen in die Stichprobe, so reicht es zur Neuberechnung der Stichprobenvariation mit Hilfe des Verschiebungssatzes, lediglich die Werte für   und   neu zu berechnen. Beim fünften Päckchen werde das Gewicht 510 g gemessen. Dann gilt:

 
  sowie
 

Die Stichprobenvarianz der neuen, größeren Stichprobe ist dann

 

AnwendungenBearbeiten

StichprobenkovarianzBearbeiten

Die Summe der Abweichungsprodukte zweier Merkmale   und   ist gegeben durch

 

Hier ergibt der Verschiebungssatz

 

Die korrigierte Stichprobenkovarianz berechnet sich dann als „durchschnittliches“ Abweichungsprodukt

 

ZufallsvariableBearbeiten

VarianzBearbeiten

Die Varianz einer Zufallsvariablen

 

lässt sich mit dem Verschiebungssatz auch angeben als[4]

 

Dieses Resultat wird auch als Satz von König-Huygens bezeichnet. Es ergibt sich aus der Linearität des Erwartungswertes:

 

Eine allgemeinere Darstellung des Verschiebungssatzes ergibt sich aus:

 .
  • Man erhält bei einer diskreten Zufallsvariablen   mit den Ausprägungen   und der dazugehörigen Wahrscheinlichkeit   dann für
 
Mit der speziellen Wahl   ergibt sich   und die obige Formel
 
  • Für eine stetige Zufallsvariable   und der dazugehörigen Dichtefunktion   ist
 
Man erhält hier mit dem Verschiebungssatz
 

KovarianzBearbeiten

Die Kovarianz zweier Zufallsvariablen   und  

 

lässt sich mit dem Verschiebungssatz als

 

angeben.

Für diskrete Zufallsvariablen erhält man für

 

entsprechend zu oben

 

mit   als gemeinsamer Wahrscheinlichkeit, dass   und   ist.

Bei stetigen Zufallsvariablen ergibt sich mit   als gemeinsamer Dichtefunktion von   und   an der Stelle   und   für die Kovarianz

 

entsprechend zu oben

 

EinzelnachweiseBearbeiten

  1. a b Erich Schubert, Michael Gertz: Numerically stable parallel computation of (co-)variance. In: Proceedings of the 30th International Conference on Scientific and Statistical Database Management - SSDBM '18. ACM Press, Bozen-Bolzano, Italy 2018, ISBN 978-1-4503-6505-5, S. 1–12, doi:10.1145/3221269.3223036 (acm.org [abgerufen am 7. Dezember 2019]).
  2. a b Tony F. Chan, Gene H. Golub, Randall J. LeVeque: Algorithms for computing the sample variance: analysis and recommendations. In: The American Statistician Vol. 37, No. 3 (Aug., 1983), S. 242–247
  3. Hans-Friedrich Eckey, Reinhold Kosfeld, Christian Dreger: Statistik: Grundlagen — Methoden — Beispiele, S. 86
  4. Ansgar Steland: Basiswissen Statistik, S. 116