Hauptmenü öffnen

Empirische Varianz

(Weitergeleitet von Empirische Standardabweichung)

Die empirische Varianz,[1] auch Stichprobenvarianz[2] (veraltet: empirisches Streuungsquadrat) oder einfach nur kurz Varianz (lateinisch variantia für „Verschiedenheit“) genannt, ist eine statistische Angabe für die Streubreite von Werten einer Stichprobe und in der deskriptiven Statistik eine Kennzahl einer Stichprobe. Sie gehört zu den Streuungsmaßen und beschreibt die mittlere quadratische Abweichung der einzelnen Messwerte vom empirischen Mittelwert. Sie stellt damit eine Art durchschnittliches Abweichungsquadrat dar. Die positive Wurzel der empirischen Varianz ist die empirische Standardabweichung. Die empirische Standardabweichung stellt das gebräuchlichste Streuungsmaß dar.

Die Begriffe „Varianz“, „Stichprobenvarianz“ und „empirische Varianz“ werden in der Literatur nicht einheitlich verwendet. Im Allgemeinen muss unterschieden werden zwischen der

Eine genaue Abgrenzung und Zusammenhänge finden sich im Abschnitt Beziehung der Varianzbegriffe.

Inhaltsverzeichnis

DefinitionBearbeiten

Die Varianz einer endlichen Grundgesamtheit der Größe   ist ein Maß für die Streuung der einzelnen  -Werte,   um den Populationsmittelwert und ist definiert als

 [3] mit dem Populationsmittelwert   und

da sie in vielen praktischen Situationen oft unbekannt ist und dennoch irgendwie berechnet werden muss, wird oft die empirische Varianz herangezogen. Dies ist vor allem notwendig, wenn es in extrem großen Populationen nicht möglich ist, jedes einzelne Subjekt in der Population zu zählen.

Gegeben sei eine Stichprobe mit   Elementen  . Es bezeichne

 

den empirischen Mittelwert der Stichprobe. Dieser empirische Mittelwert   ist ein Schätzer für den Populationsmittelwert  . Die empirische Varianz wird auf zweierlei Arten definiert. Entweder wird die empirische Varianz der Stichprobe definiert als Summe der Abweichungsquadrate   geteilt durch die Anzahl der Messwerte:

 ,[4]

oder sie wird als leicht modifizierte Form definiert als Summe der Abweichungsquadrate geteilt durch die Anzahl der Freiheitsgrade

 .[2]

Die empirische Varianz stellt damit eine Art „mittleres Abweichungsquadrat“ dar. Sie ist ein Schätzer für die Populationsvarianz  . Direkt aus der Definition folgen die Darstellungen

  beziehungsweise  .

Diese leicht modifizierte Form wird oft auch als Stichprobenvarianz bezeichnet und wird von Programmpaketen, wie z. B. SPSS, R etc., bevorzugt. Falls die Stichprobe   keinerlei Variabilität aufweist, d. h.  , dann ergibt sich eine Varianz von  . Intuitiv lässt sich die Mittelung durch   statt durch   bei der modifizierten Form der empirischen Varianz wie folgt erklären: Aufgrund der Schwerpunkteigenschaft des empirischen Mittels   ist die letzte Abweichung   bereits durch die ersten   bestimmt. Folglich variieren nur   Abweichungen frei und man mittelt deshalb, indem man durch die Anzahl der Freiheitsgrade   dividiert.[5]

Wird nur von „der“ empirischen Varianz gesprochen, so muss darauf geachtet werden, welche Konvention beziehungsweise Definition im entsprechenden Kontext gilt. Weder die Benennung der Definitionen noch die entsprechende Notation ist in der Literatur einheitlich, jedoch wird häufig der Begriff empirische Varianz für die unmodifizierte Form   und der Begriff Stichprobenvarianz für die modifizierte Form   verwendet. Es finden sich für   auch die Notation  , hingegen wird   auch mit   oder   bezeichnet. Manche Autoren bezeichnen   als mittlere quadratische Abweichung vom empirischen Mittelwert[6] und   als theoretische Varianz oder induktive Varianz im Gegensatz zu   als empirische Varianz.[7]

  wird als erwartungstreue Stichprobenvarianz (und   als verzerrte Stichprobenvarianz) bezeichnet, weil   ein erwartungstreuer Schätzer für die Varianz   ist.[8]

Empirische Varianz für HäufigkeitsdatenBearbeiten

Die empirische Standardabweichung ist ebenfalls ein Maß dafür, wie weit die Stichprobe im Schnitt um den empirischen Mittelwert streut. Für Häufigkeitsdaten   und relativen Häufigkeiten   wird die empirische Varianz wie folgt berechnet

 .[9]

RechenregelnBearbeiten

Verhalten bei TransformationenBearbeiten

Die Varianz verändert sich nicht bei Verschiebung der Daten um einen fixen Wert. Ist genauer   und  , so ist

  sowie  .

Denn es ist   und somit

 ,

woraus die Behauptung folgt. Werden die Daten nicht nur um   verschoben, sondern auch um einen Faktor   reskaliert, so gilt

  sowie  .

Hierbei ist  . Dies folgt wie oben durch direktes Nachrechnen.

Alternative DarstellungenBearbeiten

Als durchschnittliches AbweichungsquadratBearbeiten

Die Varianz wird in der Varianzanalyse oft als „mittleres“ bzw. „durchschnittliches“ Abweichungsquadrat   bezeichnet[10]

 .[11]

Die mittleren Abweichungsquadrate der jeweiligen Variablen werden in einer sogenannten Varianzanalysetabelle zusammengefasst.

Darstellung mittels VerschiebungssatzBearbeiten

Eine weitere Darstellung erhält man aus dem Verschiebungssatz, nach dem

 

gilt. Durch Multiplikation mit   erhält man daraus[12]

 ,

woraus

 

folgt.

Darstellung ohne empirisches MittelBearbeiten

Eine weitere Darstellung, die ohne die Verwendung des empirischen Mittels auskommt, ist

 

bzw.

 .

Wenn man das arithmetische Mittel   der Beobachtungswerte in den Summanden der Doppelsumme

 

addiert und abzieht (also Null einfügt), dann gilt

 .

Dies ist äquivalent zu

 .

Abgeleitete BegriffeBearbeiten

Empirische StandardabweichungBearbeiten

Als empirische Standardabweichung[13] auch Stichprobenstreuung[14] oder Stichprobenstandardabweichung[13] genannt, wird die positive Wurzel aus der empirischen Varianz bezeichnet, also[14][15]

 

oder

 .

Die Definition   ist im Gegensatz zu   ein erwartungstreuer Schätzer für die Standardabweichung  .[8]

Im Gegensatz zur empirischen Varianz besitzt die empirische Standardabweichung dieselben Einheiten wie der empirische Mittelwert oder die Stichprobe selbst. Wie auch bei der empirischen Varianz ist die Benennung und Bezeichnung bei der empirischen Standardabweichung nicht einheitlich. Die empirische Standardabweichung sollte von der Standardabweichung im Sinne der Wahrscheinlichkeitstheorie unterschieden werden. Diese ist eine Kennzahl einer Wahrscheinlichkeitsverteilung oder der Verteilung einer Zufallsvariable, wohingegen die empirische Standardabweichung Kennzahl einer Stichprobe ist.

Empirischer VariationskoeffizientBearbeiten

Der empirische Variationskoeffizient ist ein dimensionsloses Streuungsmaß und ist definiert als die empirische Standardabweichung geteilt durch den empirischen Mittelwert, also

 

Im Gegensatz zur Standardabweichung ist   ein dimensionsloses Streumaß und damit nicht einheitenbehaftet.[16] Sein Vorteil liegt darin, dass er   in Prozent des empirischen Mittelwerts   ausdrückt.[17]

BeispielBearbeiten

Gegeben sei die Stichprobe

 ,

es ist also  . Für den empirischen Mittelwert ergibt sich

 .

Bei stückweiser Berechnung ergibt sich dann

 .

Über die erste Definition erhält man

 

wohingegen die zweite Definition

 ,

liefert. Mithilfe des obigen Beispiel für die Varianz lässt sich auch die Standardabweichung berechnen. Dies geschieht durch einfaches Wurzelziehen. Bestimmt man die unkorrigierte Stichprobenvarianz, so ist (nach der 1. Definition)

 .

Bestimmt man die empirische Standardabweichung jedoch über die korrigierte Stichprobenvarianz, so ist (nach der 2. Definition)

 .

Herkunft der verschiedenen DefinitionenBearbeiten

Die Definition von   entspricht der Definition der empirischen Varianz als die mittlere quadratische Abweichung vom empirischen Mittel.[6] Diese basiert auf der Idee, ein Streuungsmaß um den empirischen Mittelwert zu definieren. Es sei  . Ein erster Ansatz ist, die Differenz der Messwerte vom empirischen Mittel aufzusummieren. Dies führt zu

 

Dies ergibt allerdings stets 0 (Schwerpunkteigenschaft), ist also nicht geeignet zur Quantifizierung der Varianz. Um einen Wert für die Varianz größer oder gleich 0 zu erhalten, kann man die Differenzen entweder in Betrag setzen, also die Summe der absoluten Abweichungen bilden

 

betrachten, oder aber quadrieren, also die Quadratsumme

 

bilden. Dies bietet den Vorteil, dass größere Abweichungen vom empirischen Mittelwert stärker gewichtet werden. Um das Streuungsmaß noch unabhängig von der Anzahl der Messwerte in der Stichprobe zu machen, wird noch durch diese Anzahl dividiert. Außerdem bietet das Quadrieren den Vorteil, dass sich identische positive und negative Elemente der Summe nicht gegenseitig aufheben können und somit bei der Berechnung berücksichtigt werden. Ergebnis dieses pragmatisch hergeleiteten Streuungsmaßes ist die mittlere quadratische Abweichung vom empirischen Mittelwert oder die oben definierte Varianz  .

Die Definition von   hat ihre Wurzeln in der Schätztheorie. Dort wird

 

als erwartungstreue Schätzfunktion für die unbekannte Varianz   einer Wahrscheinlichkeitsverteilung verwendet. Dies gilt aufgrund folgenden Satzes: Seien   unabhängig und identisch verteilte Zufallsvariablen mit   und  , dann gilt  . Daher ist   also ein Schätzer   für die unbekannte Populationsvarianz  .

Geht man nun von den Zufallsvariablen   zu den Realisierungen   über, so erhält man aus der abstrakten Schätzfunktion   den Schätzwert  . Das Verhältnis von   zu   entspricht somit dem Verhältnis einer Funktion   zu ihrem Funktionswert   an einer Stelle  .

Somit kann   als ein praktisch motiviertes Streuungsmaß in der deskriptiven Statistik angesehen werden, wohingegen   eine Schätzung für eine unbekannte Varianz in der induktiven Statistik ist. Diese unterschiedlichen Ursprünge rechtfertigen die oben angeführte Sprechweise für   als empirische Varianz und für   als induktive Varianz oder theoretische Varianz. Zu bemerken ist, dass sich auch   als Schätzwert einer Schätzfunktion interpretieren lässt. So erhält man bei Anwendung der Momentenmethode als Schätzfunktion für die Varianz

 .

Ihre Realisierung entspricht  . Jedoch wird   meist nicht verwendet, da sie gängige Qualitätskriterien nicht erfüllt. Dieser Schätzer ist nicht erwartungstreu, wegen

 .

Beziehung der VarianzbegriffeBearbeiten

Wie in der Einleitung bereits erwähnt, existieren verschiedene Varianzbegriffe, die teils denselben Namen tragen. Ihre Beziehung zueinander wird klar, wenn man ihre Rolle in der Modellierung der induktiven Statistik betrachtet:

Zentral ist der Unterschied zwischen der Schätzmethode (Stichprobenvarianz im Sinne der induktiven Statistik) und ihrer konkreten Schätzung (empirische Varianz). Sie entspricht dem Unterschied zwischen einer Funktion und ihrem Funktionswert.

Annualisierte VarianzBearbeiten

In der Finanzmarkttheorie werden oft Varianzen bzw. Volatilitäten von Renditen berechnet. Diese Varianzen müssen, wenn sie auf täglichen Daten beruhen annualisiert werden, d. h. auf ein Jahr hochgerechnet werden. Dies geschieht mittels eines Annualisierungfaktors   (pro Jahr gibt es etwa   Handelstage). Die Volatilität lässt sich somit schätzen als Wurzel aus der annualisierten Varianz

 .

EinzelnachweiseBearbeiten

  1. Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 31, doi:10.1007/978-3-658-03077-3.
  2. a b Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, S. 274, doi:10.1007/978-3-8348-2331-1.
  3. Die Populationsvarianz kann auch einfacher durch den Verschiebungssatz wie folgt angegeben werden:  
  4. Thomas Cleff: Deskriptive Statistik und Explorative Datenanalyse. Eine computergestützte Einführung mit Excel, SPSS und STATA. 3., überarbeitete und erweiterte Auflage. Springer Gabler, Wiesbaden 2015, ISBN 978-3-8349-4747-5, S. 56, doi:10.1007/978-3-8349-4748-2.
  5. Fahrmeir, L.; Künstler, R.; Pigeot, I.; Tutz, G.: Statistik. Der Weg zur Datenanalyse. 8. Auflage, S. 65
  6. a b Helge Toutenburg, Christian Heumann: Deskriptive Statistik. 6. Auflage. Springer-Verlag, Berlin/Heidelberg 2008, ISBN 978-3-540-77787-8, S. 75, doi:10.1007/978-3-540-77788-5.
  7. Thomas Cleff: Deskriptive Statistik und Explorative Datenanalyse. Eine computergestützte Einführung mit Excel, SPSS und STATA. 3., überarbeitete und erweiterte Auflage. Springer Gabler, Wiesbaden 2015, ISBN 978-3-8349-4747-5, S. 255, doi:10.1007/978-3-8349-4748-2.
  8. a b Kapitel 10: Erwartungstreue Schätzer (PDF-Datei), www.alt.mathematik.uni-mainz.de, abgerufen am 31. Dezember 2018
  9. Fahrmeir, L.; Künstler, R.; Pigeot, I.; Tutz, G.: Statistik. Der Weg zur Datenanalyse. 8. Auflage, S. 65
  10. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 109.
  11. Lothar Sachs: Statistische Auswertungsmethoden, S. 400.
  12. Reinhold Kosfeld, Hans Friedrich Eckey, Matthias Türck: Deskriptive Statistik. Grundlagen – Methoden – Beispiele – Aufgaben. 6. Auflage. Springer Gabler, Wiesbaden 2016, ISBN 978-3-658-13639-0, S. 122, doi:10.1007/978-3-658-13640-6.
  13. a b Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 31–32, doi:10.1007/978-3-658-03077-3.
  14. a b Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, S. 274–275, doi:10.1007/978-3-8348-2331-1.
  15. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 109.
  16. Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 33, doi:10.1007/978-3-658-03077-3.
  17. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 123.