Empirische Varianz

statistische Angabe
(Weitergeleitet von Korrigierte Stichprobenvarianz)

Die empirische Varianz[1][2], auch Stichprobenvarianz[2][3] (veraltet: empirisches Streuungsquadrat) oder einfach nur kurz Varianz genannt, ist ein Maß für die Streuung von konkreten (empirisch erhobenen) Werten einer Stichprobe.

Formelzeichen
Mittelwert der Grundgesamtheit
Varianz der Grundgesamtheit
Anzahl der gegebenen Werte
Zufallsvariablen (Zufallsgrößen)
Stichprobe: beobachtete Werte der Zufallsvariablen
Stichprobenmittel / empirischer Mittelwert von
Stichprobenvarianz / empirische Varianz von
Stichprobenmittel (als Funktion der Zufallsvariablen)
Stichprobenvarianz (als Funktion der Zufallsvariablen)

Bei der empirischen Varianz handelt sich um einen Begriff aus der beschreibenden (deskriptiven) Statistik für die Varianz. Sie gehört zu den Streuungsmaßen und beschreibt die mittlere quadratische Abweichung der einzelnen Werte vom empirischen Mittelwert. Sie entspricht damit dem „durchschnittlichen Abweichungsquadrat“.

Die Wurzel der empirischen Varianz ist die empirische Standardabweichung.[2] Die empirische Standardabweichung stellt das gebräuchlichste Streuungsmaß dar. Sie ist anschaulicher als die Varianz, da sie dieselbe Größenordnung hat wie die beobachteten Werte.

Die empirische Varianz ist jedoch in weitergehenden Berechnungen oft praktischer als die Standardabweichung: So können beispielsweise Varianzbeiträge von mehreren unabhängigen Zufallseinflüssen einfach addiert werden. Umgekehrt lässt sich durch eine Varianzanalyse eine Gesamtvarianz oft auch in ihre Beiträge (Ursachen) zerlegen.

Voraussetzungen Bearbeiten

Varianz der Grundgesamtheit Bearbeiten

Die Varianz einer endlichen Grundgesamtheit (Population) mit   reellen Datenwerten ist ein Maß für die Streuung der einzelnen  -Werte,   um den Populationsmittelwert   und ist definiert als

 

Der Populationsmittelwert ist das arithmetische Mittel der Datenwerte

 .

Die Varianz der Grundgesamtheit ist in praktischen Situationen häufig unbekannt, beispielsweise, weil es nicht möglich ist, jedes einzelne Subjekt in der Population zu erfassen (Vollerhebung). Um die Varianz zu ermitteln, werden daher empirisch Stichproben erhoben. Das führt zu den Begriffen empirische Varianz oder auch Stichprobenvarianz.

Empirischer Mittelwert Bearbeiten

Gegeben sei eine Stichprobe mit   reellen numerischen Werten  . Es bezeichne

 

den empirischen Mittelwert der Stichprobe. Dieser empirische Mittelwert   ist ein Schätzer für den Populationsmittelwert  .

Berechnung der empirischen Varianz Bearbeiten

Zunächst werden die Abweichungen der beobachteten reellen Werte   der Stichprobe von ihrem arithmetischen Mittel   gebildet. Summierung und Quadrierung ergibt die sogenannte Abweichungsquadratsumme  .

Die Verwendung der Abweichungsquadratsumme führt zu folgenden Eigenschaften der empirischen Varianz:

  • Positive und negative Abweichungen vom Mittelwert heben sich bei der Summierung nicht gegenseitig auf.
  • Die Varianz einer Stichprobe ist daher immer positiv (oder Null).
  • Eine größere Varianz entspricht einer größeren Unterschiedlichkeit der Werte.
  • Wenige aber starke Ausreißer haben einen großen Einfluss auf das Ergebnis.

Die empirische Varianz kann damit auf folgende Arten berechnet werden:

Am gebräuchlichsten ist die Berechnung der empirischen Varianz der Stichprobenwerte als Summe der Abweichungsquadrate geteilt durch die Anzahl der Freiheitsgrade  :[3]

  
 
 (1)
 

Formel (1) wird auch korrigierte empirische Varianz oder korrigierte Stichprobenvarianz genannt[4][2]. Der Vorsatz „korrigierte ...“ bezieht sich auf den Faktor  , der auch als Bessel-Korrektur bezeichnet wird.[5] Die Korrektur führt dazu, dass   ein erwartungstreuer Schätzer für die Populationsvarianz   ist: Das bedeutet, dass der Schätzfehler   immer kleiner wird und gegen Null strebt, wenn das Ergebnis der Varianzberechnung über eine steigende Anzahl verschiedener Stichproben gemittelt wird.

Alternativ wird die empirische Varianz (nicht erwartungstreu) berechnet als Summe der Abweichungsquadrate geteilt durch die Anzahl der Werte  :[6]

  
 
 (2)
 

Für den Sonderfall, dass der Mittelwert der Grundgesamtheit   bekannt ist, wird die Varianz mit folgender Formel berechnet, die ebenfalls einen erwartungstreuen Schätzer darstellt:[7]

  
 
 (3)
 

Weitere Erläuterung zu den Berechnungsarten

Intuitiv lässt sich die Mittelung durch   in Formel (1) statt durch   wie folgt erklären:

Bei Formel (1) geht es um die Schätzung der Varianz der Grundgesamtheit, aus der die Stichprobe entnommen wurde. Aufgrund der Schwerpunkteigenschaft des empirischen Mittels   ist die letzte Abweichung   bereits durch die ersten   bestimmt. Folglich variieren nur   Abweichungen frei. D.h. man mittelt deshalb, indem man durch die Anzahl der Freiheitsgrade   dividiert. Besonders augenscheinlich wird das, wenn man den Fall   betrachtet: Bei 2 Datenwerten gibt es nur 1 Unterschied zwischen den Daten. Und mit einer Stichprobe mit   kann man gar keine Aussage über die Varianz einer Grundgesamtheit machen.

Diese Plausibilisierung wird im Rahmen der induktiven Statistik formalisiert.[8] (→ Stichprobenvarianz (Schätzfunktion))

Die Idee von Formel (2) ist eine andere: Hier geht es nicht um eine Aussage über eine „Grundgesamtheit“ mit Hilfe einer Stichprobe, sondern darum, den Datensatz möglichst genau durch eine Normalverteilung zu beschreiben: D.h. die Parameter der Normalverteilung   und   werden so bestimmt, dass der quadratische Fehler der gegebenen Daten relativ zur Verteilungsfunktion der Normalverteilung minimal ist.[9] Das ist der Fall für   und  . Formel (2) liefert in diesem Sinne bessere Ergebnisse als Formel (1), und sie sollte angewendet werden, wenn diese Eigenschaft erforderlich ist.[10] Formel (2) ist aber kein erwartungstreuer Schätzer: D.h. wenn das Ergebnis über viele Stichproben gemittelt wird, dann strebt das Ergebnis nicht gegen den wahren Wert für die Varianz der Grundgesamtheit. Formel (2) liefert im Mittel zu kleine Ergebnisse und wird daher seltener angewendet. Es ist bemerkenswert, dass es umfangreiche mathematische und statistische Handbücher[11][12][13] gibt, die die Formel (2) nicht erwähnen.

Formel (2) wird in der mathematischen Statistik begründet, z. B. durch Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode.

Formel (3) und (1) unterscheiden sich darin, dass bei Formel (3) die Berechnung des arithmetischen Mittels entfällt, weil der Mittelwert der Grundgesamtheit bekannt ist. Auch diese Formel ist erwartungstreu im Sinne der schließenden Statistik. Da für Formel (3) kein arithmetisches Mittel berechnet wird geht kein Freiheitsgrad bei der Berechnung verloren und es wird nur durch n geteilt.

Formel (3) kann man ebenfalls plausibilisieren, wenn man den Fall   betrachtet: Bei 2 Datenwerten gibt es 2 Unterschiede im Vergleich zum vorbekannten Mittelwert  . Daher wird in diesem Fall durch 2 geteilt.

Im Falle einer Vollerhebung aller Daten der Population sind die Formeln (2) und (3) gleichwertig, da in diesem Fall der Populationsmittelwert bereits aus den vorliegenden Daten bekannt ist:  .

Wird nur von „der“ empirischen Varianz gesprochen, so muss daher darauf geachtet werden, welche Konvention beziehungsweise Definition im entsprechenden Kontext gilt. Weder die Benennungen noch die entsprechende Notation ist in der Literatur einheitlich:

  • Die Bezeichnung empirische Varianz wird von einigen Autoren nur für die unkorrigierte Varianz   verwendet. Der Ausdruck Stichprobenvarianz wird in diesem Fall nur für die korrigierte Varianz   verwendet.[8]
  •   wird auch als erwartungstreue Stichprobenvarianz (und   als verzerrte Stichprobenvarianz) bezeichnet, weil   ein erwartungstreuer Schätzer für die Varianz   ist.[14]
  •   wird manchmal auch als theoretische Varianz oder induktive Varianz bezeichnet.[15]
  • Statt   wird manchmal auch   oder   verwendet.
  •   wird manchmal als mittlere quadratische Abweichung vom empirischen Mittelwert bezeichnet[16]
  • Statt   wird manchmal auch   verwendet

Empirische Varianz für Häufigkeitsdaten Bearbeiten

In diesem Fall wird davon ausgegangen, dass die   Stichprobenwerte   nur   konkrete Ausprägungen   annehmen können. Das bedeutet: es bietet sich folgendes Vorgehen an:

  • Zuerst wird mit Hilfe einer größeren Stichprobe untersucht, wie häufig jede der Ausprägungen   auftritt. Die Ergebnisse der Zählung sind die absolute Häufigkeiten   der Ausprägungen, d. h. es die   entsprechen der Anzahl des Auftretens von  . Sie können in einer Häufigkeitstabelle zusammengefasst werden. Die Summe der   ist gleich, wie die Anzahl der Stichprobenwerte  .
  • Daraus werden die relativen Häufigkeiten   (Wahrscheinlichkeiten für das Auftreten der jeweiligen Ausprägungen) berechnet.
  • Die Varianz ergibt sich schließlich aus den ermittelten Häufigkeitsdaten: den relativen Häufigkeiten der Ausprägungen und dem empirischen Mittelwert der Stichprobe.[8]
  , mit
  .

Empirische Varianz für Daten aus einer Zeitreihe Bearbeiten

In diesem Fall sind Datenwerte   als Zeitreihe gegeben. Beispielsweise wird sekündlich ein Wert   gemessen.   ist ein Zähler für die aufgelaufenen Werte seit dem Beginn der Rechnung.

Zu jedem Zeitpunkt   der Zeitreihe soll die Varianz aus den letzten   Werten von   bestimmt werden.

Die Rechnung soll in Echtzeit unmittelbar nach dem Eintreffen von jedem neuen Wert   erfolgen. In Echtzeitsystemen wird stark auf die erforderliche Rechenzeit in jedem Zeitschritt geachtet. Mit Formeln (1) bis (3) würde die erforderliche Rechenzeit mit der Zeit steigen, da ja auch die Summen immer mehr Werte umfassen. Das wird vermieden mit folgenden rekursiven Formeln, die auf den Schätz-Ergebnissen für   und   zum vergangenen Zeitpunkt   aufbauen, und die in jedem Zeitschritt ausgeführt werden:[17]

 
 

Diese Formeln benötigen Startwerte für den Zeitpunkt   . Bei ungünstiger Wahl nähern sich die Schätzwerte langsam den wahren Werten an. Daher sind günstige Vorbelegungen:

  •  : Vorbelegung mit   oder dem ersten erhaltenen Messwert, oder einem vorab erwarteten Mittelwert
  •  : Vorbelegung mit   oder einem vorab erwarteten Varianzwert

Eigenschaften der empirischen Varianz Bearbeiten

Verteilung der empirischen Varianz Bearbeiten

Die empirische Varianz   folgt für unabhängige, normalverteilte Zufallsvariablen einer skalierten Chi-Quadrat-Verteilung:  

Daher folgt:

 

sowie

 

Verhalten bei Transformationen Bearbeiten

Verschiebung der Daten   um einen konstanten Wert c: Varianz ändert sich nicht

Also: Wenn  , so gilt:

 
 
 
Begründung: Es ist   und somit  , woraus die Behauptung folgt.

Skalierung der Daten   um einen Faktor  , also  : Varianz skaliert um den Faktor  :

 .
 
 
Begründung: Dies folgt wie oben durch direktes Nachrechnen.

Genauigkeit der berechneten empirischen Varianz Bearbeiten

Wenn man viele Stichproben nimmt, dann führt jede neue Stichprobe zu einer anderen Schätzung   für die Varianz der Grundgesamtheit. D.h. die berechnete empirische Varianz (Stichprobenvarianz) hat ebenfalls eine Streuung. Diese Streuung ist ein Maß für die Qualität (Genauigkeit) der Varianzbestimmung. Für den Fall, dass die Streuung in einem gegebenen Anwendungsfall zu hoch ist, könnte man die Anzahl der Werte in der Stichprobe vergrößern oder den Mittelwert aus vielen verschiedenen Stichproben verwenden.

Die Streuung der Stichprobenvarianz kann durch die Berechnung der Grenzwerte des Konfidenzintervalles mit Hilfe der Chi-Quadrat-Verteilung beurteilt werden. Praktisch genügt jedoch häufig eine Abschätzung der Standardabweichung der Stichprobenvarianz mit folgenden Formeln[18] analog zu Formeln (1) und (3):

Standardabweichung der Stichprobenvarianz bei unbekanntem wahren Mittelwert der Gesamtheit:

 

Standardabweichung der Stichprobenvarianz bei bekanntem wahren Mittelwert   der Gesamtheit:

 

Beispiel 1: Stichprobe mit   Werten und der Varianz  :

Dann lässt sich die Standardabweichung der Stichprobenvarianz abschätzen als:

 

Die Standardabweichung von   ist im Vergleich zur Stichprobenvarianz   erheblich. D.h. eine Stichprobe mit   ist in den meisten Anwendungsfällen nicht geeignet um eine ausreichend verlässliche Aussage über die Varianz der Grundgesamtheit zu machen.

Beispiel 2: Stichprobe wird vergrößert auf   Werte:

Dann lässt sich die Streuung der Stichprobenvarianz wie oben ermitteln als:

 

Die Streuung von 0,14 ist bei der Stichprobenvarianz   brauchbarer, als das Ergebnis im ersten Beispiel.

Im Falle einer Normalverteilung würde das bedeuten, dass der wahre Varianzwert mit 95 % Wahrscheinlichkeit im Bereich von   liegt. Im Falle der Berechnung der Grenzwerte mit der Chi-Quadrat-Verteilung ergeben sich fast die gleichen Werte.

Man sieht, dass eine akkurate Berechnung der empirischen Varianz deutlich größere Stichproben erfordert, als man intuitiv vermuten würde.

Alternative Darstellungen Bearbeiten

Darstellung als durchschnittliches Abweichungsquadrat Bearbeiten

Die Varianz wird in der Varianzanalyse oft als „mittleres“ bzw. „durchschnittliches“ Abweichungsquadrat   bezeichnet und ergibt sich dann aus die Division der Summe der Abweichungsquadrate SQ und der Anzahl Freiheitsgrade FG:[19]

 .[20]

Bei einer mehrdimensionalen Varianzanalyse werden die mittleren Abweichungsquadrate der jeweiligen Variablen werden in einer sogenannten Varianzanalysetabelle zusammengefasst.

Darstellung mittels Verschiebungssatz Bearbeiten

Eine weitere Darstellung erhält man aus Anwendung des Verschiebungssatzes:[21]

 
 
 

Diese Formel ist jedoch aus numerischer Sicht nachteilig, da unter Umständen zwei sehr große Werte voneinander abgezogen werden. Das kann zur Rechenungenauigkeiten führen, wenn die Darstellungsgenauigkeit der Gleitkommazahlen im Rechner nicht ausreichend ist.

Darstellung als Doppelsumme (ohne vorausgehende Berechnung des empirischen Mittels) Bearbeiten

Eine Darstellung, die ohne die vorausgehende Berechnung des empirischen Mittels auskommt, ist:

 
 

Herleitung: Wenn man das arithmetische Mittel   der Beobachtungswerte in den Summanden der Doppelsumme

 

addiert und abzieht (also Null einfügt), dann gilt

 .

Dies ist äquivalent zu

 .

Abgeleitete Begriffe Bearbeiten

Empirische Standardabweichung Bearbeiten

Als empirische Standardabweichung[1] auch Stichprobenstreuung[3] oder Stichprobenstandardabweichung[1] genannt, wird die Wurzel aus der empirischen Varianz gemäß Formel (1)-(3) bezeichnet:

 
 
 

Die empirische Standardabweichung ist ebenfalls ein Maß dafür, wie weit die Stichprobe im Schnitt um den empirischen Mittelwert streut.

Im Gegensatz zur empirischen Varianz besitzt die empirische Standardabweichung dieselben Einheiten wie der empirische Mittelwert oder die Stichprobe selbst. Wie auch bei der empirischen Varianz ist die Benennung und Bezeichnung bei der empirischen Standardabweichung nicht einheitlich. Die empirische Standardabweichung sollte von der Standardabweichung im Sinne der Wahrscheinlichkeitstheorie unterschieden werden. Diese ist eine Kennzahl einer Wahrscheinlichkeitsverteilung oder der Verteilung einer Zufallsvariable, wohingegen die empirische Standardabweichung Kennzahl einer Stichprobe ist.

Empirischer Variationskoeffizient Bearbeiten

Der empirische Variationskoeffizient ist ein dimensionsloses Streuungsmaß (nicht einheitenbehaftet) und drückt   in Prozent des empirischen Mittelwerts   aus.[22]

 

Annualisierte Varianz Bearbeiten

In der Finanzmarkttheorie werden oft Varianzen bzw. Volatilitäten von Renditen berechnet. Diese Varianzen müssen, wenn sie auf täglichen Daten beruhen annualisiert werden, d. h. auf ein Jahr hochgerechnet werden. Dies geschieht mittels eines Annualisierungfaktors   (pro Jahr gibt es etwa   Handelstage). Die Volatilität lässt sich somit schätzen als Wurzel aus der annualisierten Varianz

 .

Beispiel Bearbeiten

Gegeben sei die Stichprobe

 ,

es ist also  . Für den empirischen Mittelwert ergibt sich

 .

Bei stückweiser Berechnung ergibt sich dann die Abweichungsquadratsumme

 .

Mit Formel (1) erhält man

 

wohingegen Formel (2)

 

liefert.

Jetzt nehmen wir an, dass der Mittelwert der Grundgesamtheit, aus der die Stichprobe entnommen wurde, vorab bekannt sei:

 

Dann findet Formel (3) Anwendung:

 .
 

Die entsprechenden empirischen Standardabweichungen ergeben sich zu:

 
 
 

Herkunft der verschiedenen Definitionen Bearbeiten

Die empirische Varianz, ist ein Streuungsmaß um den Mittelwert der Datenwerte. Die gegebenen Werte sind  .

Bei der Verwendung der Varianz als Streuungsmaß wird die Quadratsumme als Ausgangspunkt verwendet:

 

Um das Streuungsmaß unabhängig von der Anzahl der Messwerte in der Stichprobe zu machen, wird als einfachste Lösung noch durch die Anzahl der Werte dividiert. Ergebnis dieses pragmatisch hergeleiteten Streuungsmaßes ist die mittlere quadratische Abweichung vom empirischen Mittelwert oder die oben definierte Varianz  .

Die Definition von   hat ihre Wurzeln in der Schätztheorie. (→ Stichprobenvarianz (Schätzfunktion))

Dort wird die Varianz der Grundgesamtheit   geschätzt durch:

 

als erwartungstreue Schätzfunktion für die unbekannte Varianz   einer Wahrscheinlichkeitsverteilung verwendet.

  ergibt sich durch Anwendung der Schätzfunktion   auf Realisierungen (konkrete Werte) der Zufallsvariablen   .

Somit kann   als ein praktisch motiviertes Streuungsmaß in der deskriptiven Statistik angesehen werden, wohingegen   eine Schätzung für eine unbekannte Varianz in der induktiven Statistik ist. Diese unterschiedlichen Ursprünge rechtfertigen die von manchen Autoren verwendete Sprechweise für   als empirische Varianz und für   als induktive Varianz oder theoretische Varianz.

Zu bemerken ist, dass sich auch   als Schätzwert einer Schätzfunktion interpretieren lässt. Diesen erhält man bei Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode als Schätzfunktion für die Varianz, die zwar nicht erwartungstreu ist, und daher nicht alle Qualitätskriterien für Punktschätzungen erfüllt, aber dafür die gegebenen Variablen optimal in eine Normalverteilung einpasst. Der Parameter der Normalverteilung   wird bestimmt durch:

 .

Der Unterschied zwischen beiden Formeln lässt sich in der mathematischen Statistik dadurch erklären, dass das Quadrat einer (symmetrischen) normalverteilten Zufallsgröße   nicht ebenfalls normalverteilt ist, sondern eine (unsymmetrische) Chi-Quadrat-Verteilung aufweist.

Literatur Bearbeiten

  • Behrends 2013 – Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0.
  • Beyer 1988 – Otfried Beyer, Horst Hackel, Volkmar Pieper, Jürgen Tiedge: Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. B. G. Teubner, Leipzig 1988, ISBN 3-322-00469-4.
  • Bronstein 2020 – I. N. Bronstein, K. A. Semendjajew, G. Musiol, H. Mühlig: Taschenbuch der Mathematik. 11. Auflage. Verlag Europa-Lehrmittel Nourney, Vollmer GmbH & Co. KG, Haan-Gruiten 2020, ISBN 978-3-8085-5792-1.
  • Cleff 2015 – Thomas Cleff: Deskriptive Statistik und Explorative Datenanalyse. Eine computergestützte Einführung mit Excel, SPSS und STATA. 3. Auflage. Springer Gabler, Wiesbaden 2015, ISBN 978-3-8349-4747-5.
  • Duden 2020 – Harald Scheid: Duden: Rechnen und Mathematik. 6. Auflage. Bibliographisches Institut & F.A. Brockhaus AG, Mannheim 2020, ISBN 978-3-411-05346-9.
  • Fahrmeir 2016 – Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer Verlag, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3.
  • Hartung 2005 – Joachim Hartung, Bärbel Elpelt, Karl-Heinz Klösener: Statistik. Lehr- und Handbuch der angewandten Statistik. 14. Auflage. R. Oldenbourg Verlag, München / Wien 2005, ISBN 3-486-57890-1.
  • Henze 2013 – Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6.
  • Kabluchko 2017 – Zakhar Kabluchko: Mathematische Statistik - Skript zur Vorlesung. Münster 2017 (uni-muenster.de [PDF; abgerufen am 1. Februar 2022]).
  • Kosfeld 2016 – Reinhold Kosfeld, Hans Friedrich Eckey, Matthias Türck: Deskriptive Statistik. Grundlagen – Methoden – Beispiele – Aufgaben. 6. Auflage. Springer Gabler, Wiesbaden 2016, ISBN 978-3-658-13639-0.
  • Toutenburg 2008 – Helge Toutenburg, Christian Heumann: Deskriptive Statistik. 8. Auflage. Springer-Verlag, Berlin/Heidelberg 2008, ISBN 978-3-540-77787-8.
  • Young 2011 – Peter C. Young: Recursive Estimation and Time-Series-Analysis. 2. Auflage. Springer-Verlag, Berlin / Heidelberg 2011, ISBN 978-3-642-21980-1.

Einzelnachweise Bearbeiten

  1. a b c Henze 2013: S. 31ff
  2. a b c d Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  3. a b c Behrends 2013: S. 274f
  4. Beyer 1988
  5. Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  6. Cleff 2015: S. 56
  7. Hartung 2005: S. 153f
  8. a b c Fahrmeir 2016: Kapitel 2.2.3 Standardabweichung, Varianz und Variationskoeffizient
  9. Kunyu He: Statistics in ML: Why Sample Variance Divided by n Is Still a Good Estimator. 18. Mai 2020, abgerufen am 9. Mai 2022 (englisch).
  10. FernUni Hagen 2020: Empirische vs Stichprobenvarianz. In: YouTube. FernUni Hagen: https://www.statstutor.de/, 19. April 2020, abgerufen am 1. Februar 2022.
  11. Bronstein 2020
  12. Hartung 2005
  13. Duden 2020: Varianz
  14. Kapitel 10: Erwartungstreue Schätzer (Memento des Originals vom 31. Dezember 2018 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.alt.mathematik.uni-mainz.de (PDF-Datei), www.alt.mathematik.uni-mainz.de, abgerufen am 31. Dezember 2018
  15. Cleff 2015: S. 255
  16. Toutenburg 2008: S. 75
  17. Young 2011 - Chapter 2: Recursive Estimation, Seite 19
  18. HU-Berlin 2018: Verteilung der Stichprobenvarianz, Kapitel 1.2, abgerufen am 1. Februar 2022.
  19. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 109.
  20. Lothar Sachs: Statistische Auswertungsmethoden, S. 400.
  21. Kosfeld 2016
  22. Beyer 1988: Kapitel 3.1.1.3. Statistische Maßzahlen, S. 120