Varianz (Stochastik)

Maß für die Streuung der Wahrscheinlichkeitsdichte

Die Varianz (lateinisch variantia „Verschiedenheit“ bzw. variare „(ver)ändern, verschieden sein“) ist ein Maß für die Streuung der Wahrscheinlichkeitsdichte um ihren Schwerpunkt. Mathematisch wird sie definiert als die mittlere quadratische Abweichung einer reellen Zufallsvariablen von ihrem Erwartungswert. Sie ist das zentrale Moment zweiter Ordnung einer Zufallsvariablen.

Dichtefunktionen zweier normalverteilter Zufallsvariablen (rot) und (grün) mit gleichem Erwartungswert , aber unterschiedlichen Varianzen. Die waagerechte Achse zeigt den Wert, die senkrechte die zugehörige Dichte. Da die rote Dichtefunktion schmaler um den Erwartungswert verläuft als die grüne Dichtefunktion, hat eine kleinere Varianz als (). Die Quadratwurzel der Varianz, die Standardabweichung, kann bei der Normalverteilung an den Wendepunkten der Dichtefunktion abgelesen werden, da diese für eine Normalverteilung mit den Parametern und an den Stellen und liegen.

Die Varianz kann mit einem Varianzschätzer, z. B. der Stichprobenvarianz, bestimmt werden. Die Quadratwurzel der Varianz ist das als Standardabweichung bezeichnete wichtigste Streuungsmaß in der Stochastik.

Die Bezeichnung Varianz wurde vor allem von dem britischen Statistiker Ronald Fisher (1890–1962) geprägt. Weitere Wörter für die Varianz sind das veraltete Dispersion (lateinisch dispersio „Zerstreuung“ bzw. dispergere „verteilen, ausbreiten, zerstreuen“), das Streuungsquadrat oder die Streuung.

Zu den Eigenschaften der Varianz gehört, dass sie niemals negativ ist und sich bei Verschiebung der Verteilung nicht ändert. Die Varianz einer Summe unkorrelierter Zufallsvariablen ist gleich der Summe ihrer Varianzen. Ein Nachteil der Varianz für praktische Anwendungen ist, dass sie im Unterschied zur Standardabweichung eine andere Einheit als die Zufallsvariable besitzt. Da sie über ein Integral definiert wird, existiert sie nicht für alle Verteilungen, d. h. sie kann auch unendlich sein.

Eine Verallgemeinerung der Varianz ist die Kovarianz. Im Unterschied zur Varianz, die die Variabilität der betrachteten Zufallsvariable misst, ist die Kovarianz ein Maß für die gemeinsame Variabilität von zwei Zufallsvariablen. Aus dieser Definition der Kovarianz folgt, dass die Kovarianz einer Zufallsvariable mit sich selbst gleich der Varianz dieser Zufallsvariablen ist. Im Falle eines reellen Zufallsvektors kann die Varianz zur Varianz-Kovarianzmatrix verallgemeinert werden.

DefinitionBearbeiten

Sei   ein Wahrscheinlichkeitsraum und   eine Zufallsvariable auf diesem Raum. Die Varianz ist definiert als die zu erwartende quadratische Abweichung dieser Zufallsvariablen zu ihrem Erwartungswert  , sofern dieser existiert:

 [1]

EigenschaftenBearbeiten

Sofern die Varianz existiert, gilt  . Die Varianz kann aber auch den Wert   annehmen, wie es bei der Lévy-Verteilung der Fall ist. Eine Verteilung, die keine Varianz hat, ist die Cauchy-Verteilung, da für diese der Erwartungswert nicht definiert ist.

Betrachten wir die zentrierte Zufallsvariable  , so ist die Varianz deren zweites Moment  . Falls eine Zufallsvariable quadratisch integrierbar ist, das heißt  , so sind wegen des Verschiebungssatzes ihre Varianz wie auch der Erwartungswert endliche Größen:

 .

Interpretation als FunktionalBearbeiten

Die Varianz ist ein Funktional auf dem Raum der Zufallsvariablen mit endlichem Erwartungswert. Sie kann aber auch als nicht-lineares Funktional auf dem Raum aller Wahrscheinlichkeitsverteilungen  , die einen endlichen Erwartungswert besitzen, verstanden werden:

 

Dabei werden die Wahrscheinlichkeitsverteilungen mit ihren Verteilungsfunktionen identifiziert. Für Wahrscheinlichkeitsverteilungen, deren Erwartungswert   nicht endlich ist, ist die Varianz nicht definiert.

NotationBearbeiten

Da die Varianz ein Funktional ist, wird sie wie der Erwartungswert (besonders in anglophoner Literatur) oft auch mit eckigen Klammern   geschrieben. Sie wird mitunter als  [A 1] oder   notiert. Besteht keine Verwechslungsgefahr, wird sie einfach als   (lies: Sigma Quadrat) notiert. Da die Varianz vor allem in älterer Literatur auch als Dispersion beziehungsweise Streuung bezeichnet wurde,[2][3] begegnet häufig die Notation  .[4]

Die Notation mit dem Quadrat des griechischen Buchstabens Sigma   rührt daher, dass die Berechnung der Varianz der Dichtefunktion einer Normalverteilung genau dem Parameter   der Normalverteilung entspricht. Da die Normalverteilung in der Stochastik eine sehr wichtige Rolle spielt, wird die Varianz im Allgemeinen mit   notiert (siehe auch Abschnitt Varianzen spezieller Verteilungen). Des Weiteren wird in der Statistik und insbesondere in der Regressionsanalyse das Symbol   verwendet, um die wahre unbekannte Varianz der Störgrößen zu kennzeichnen.

Einführung in die ProblemstellungBearbeiten

Als Ausgangspunkt für die Konstruktion der Varianz betrachtet man eine beliebige Größe, die vom Zufall abhängig ist und somit unterschiedliche Werte annehmen kann. Diese Größe, die im Folgenden mit   bezeichnet wird, folgt einer bestimmten Verteilung. Der Erwartungswert dieser Größe wird mit

 

abgekürzt[A 2] und gibt an, welchen Wert die Zufallsvariable   im Mittel annimmt. Er kann als Schwerpunkt der Verteilung interpretiert werden (siehe auch Abschnitt Interpretation) und gibt ihre Lage wieder. Zur hinreichenden Charakterisierung einer Verteilung bedarf es jedoch noch einer Größe, die als Kennzahl Auskunft über die Stärke der Streuung einer Verteilung um ihren Schwerpunkt gibt.[5] Diese Größe sollte stets größer oder gleich Null sein, da sich negative Streuung nicht sinnvoll interpretieren lässt. Ein erster naheliegender Ansatz wäre, die mittlere absolute Abweichung der Zufallsvariable von ihrem Erwartungswert heranzuziehen:[6]

 .

Da die in der Definition der mittleren absoluten Abweichung verwendete Betragsfunktion nicht überall differenzierbar ist und ansonsten in der Statistik für gewöhnlich Quadratsummen benutzt werden,[7][8] ist es sinnvoll, statt mit der mittleren absoluten Abweichung mit der mittleren quadratischen Abweichung, also der Varianz, zu operieren.[A 3]

Berechnung der VarianzBearbeiten

Varianz bei diskreten ZufallsvariablenBearbeiten

Eine Zufallsvariable   mit einem endlichen oder abzählbar unendlichen Wertebereich  [A 4] wird diskret genannt. Ihre Varianz berechnet sich dann als gewichtete Summe der Abweichungsquadrate (vom Erwartungswert):

 .[9]

Hierbei ist   die Wahrscheinlichkeit, dass   den Wert   annimmt. Es wird in obiger Summe also jede mögliche Ausprägung   mit der Wahrscheinlichkeit ihres Auftretens   gewichtet.[10] Die Varianz ist bei diskreten Zufallsvariablen also eine gewichtete Summe mit den Gewichten  . Der Erwartungswert einer diskreten Zufallsvariable   stellt ebenfalls eine gewichtete Summe dar, die durch

 

gegeben ist. Die Summen erstrecken sich jeweils über alle Werte, die diese Zufallsvariable annehmen kann. Im Falle eines abzählbar unendlichen Wertebereichs ergibt sich eine unendliche Summe. In Worten berechnet sich die Varianz, im diskreten Fall, als Summe der Produkte der Wahrscheinlichkeiten der Realisierungen der Zufallsvariablen   mit der jeweiligen quadrierten Abweichung.

Varianz bei stetigen ZufallsvariablenBearbeiten

Eine Zufallsvariable   wird als stetig bezeichnet, wenn ihr Wertebereich eine überabzählbare Menge ist. Falls die Zufallsvariable absolut stetig ist, dann existiert als Konsequenz des Satzes von Radon-Nikodým eine Wahrscheinlichkeitsdichtefunktion (kurz: Dichte)  . Im Fall einer reellwertigen Zufallsvariablen lässt sich die Verteilungsfunktion  ,  , wie folgt als Integral darstellen:

 

Für die Varianz einer reellwertigen Zufallsvariable   mit Dichte   gilt nun

 , wobei ihr Erwartungswert gegeben ist durch  .[11]

Die Varianz berechnet sich bei Existenz einer Dichte als das Integral über das Produkt der quadrierten Abweichung und der Dichtefunktion der Verteilung. Es wird also über den Raum aller möglichen Ausprägungen (möglicher Wert eines statistischen Merkmals) integriert.

GeschichteBearbeiten

 
Karl Pearson
 
Ronald Fisher (1913)

Das Konzept der Varianz geht auf Carl Friedrich Gauß zurück. Gauß führte den mittleren quadratischen Fehler ein, um zu zeigen, wie sehr ein Punktschätzer um den zu schätzenden Wert streut. Diese Idee wurde von Karl Pearson, dem Begründer der Biometrie, übernommen. Er ersetzte, für dieselbe Idee, den von Gauß geprägten Begriff mittlerer Fehler durch seinen Begriff Standardabweichung. Diesen verwendet er im Anschluss in seinen Vorlesungen. Der Gebrauch des griechischen Buchstabens Sigma für die Standardabweichung wurde von Pearson, erstmals 1894 in seiner Serie von achtzehn Arbeiten mit dem Titel Mathematische Beiträge zur Evolutionstheorie (Originaltitel: Contributions to the Mathematical Theory of Evolution) eingeführt. Er schrieb dort: „ […] dann wird   seine Standardabweichung (Fehler des mittleren Quadrats)“. Im Jahre 1901 gründete Pearson dann die Zeitschrift Biometrika, die eine wichtige Grundlage der angelsächsischen Schule der Statistik wurde.

Die Bezeichnung „Varianz“ wurde vom Statistiker Ronald Fisher in seinem 1918 veröffentlichtem Aufsatz mit dem Titel Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung (Originaltitel: The Correlation between Relatives on the Supposition of Mendelian Inheritance) eingeführt. Ronald Fisher schreibt:

„Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen   and   zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von,   aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […]“

Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung[12]

Fisher führte kein neues Symbol ein, sondern benutzte lediglich   zur Notation der Varianz. In den folgenden Jahren entwickelte er ein genetisches Modell, das zeigt, dass eine kontinuierliche Variation zwischen phänotypischen Merkmalen, die von Biostatistikern gemessen wurde, durch die kombinierte Wirkung vieler diskreter Gene erzeugt werden kann und somit das Ergebnis einer mendelschen Vererbung ist. Auf diesen Resultaten aufbauend formulierte Fisher dann sein fundamentales Theorem der natürlichen Selektion, welches die Gesetzmäßigkeiten der Populationsgenetik für die Zunahme der Fitness von Organismen beschreibt. Zusammen mit Pearson entwickelte er u. a. die Grundlagen der Versuchsplanung (1935 erschien The Design of Experiments) und der Varianzanalyse. Des Weiteren lässt sich die Mehrzahl der biometrischen Methoden auf Pearson und Fisher zurückführen, auf deren Grundlage Jerzy Neyman und Egon Pearson in den 1930er Jahren die allgemeine Testtheorie entwickelten.[13]

Kenngröße einer WahrscheinlichkeitsverteilungBearbeiten

Jede Wahrscheinlichkeitsverteilung beziehungsweise Zufallsvariable kann durch sogenannte Kenngrößen (auch Parameter genannt) beschrieben werden, die diese Verteilung charakterisieren. Die Varianz und der Erwartungswert sind die wichtigsten Kenngrößen einer Wahrscheinlichkeitsverteilung. Sie werden bei einer Zufallsvariablen als Zusatzinformationen wie folgt angegeben:  . In Worten: Die Zufallsvariable   folgt einer (hier nicht näher spezifizierten) Verteilung mit Erwartungswert   und Varianz  . Für den Fall, dass die Zufallsvariable einer speziellen Verteilung folgt, zum Beispiel einer Standardnormalverteilung, wird dies wie folgt notiert:  . Der Erwartungswert von   ist also Null und die Varianz Eins. Weitere wichtige Kenngrößen einer Wahrscheinlichkeitsverteilung stellen neben den Momenten beispielsweise der Median, der Modus oder Quantile dar.[14] Die Kenngrößen einer Wahrscheinlichkeitsverteilung entsprechen in der deskriptiven Statistik den Kenngrößen einer Häufigkeitsverteilung.

Sätze über die VarianzBearbeiten

Tschebyscheffsche UngleichungBearbeiten

Mithilfe der Tschebyscheffschen Ungleichung lässt sich unter Verwendung der existierenden ersten beiden Momente die Wahrscheinlichkeit dafür abschätzen, dass die Zufallsvariable   Werte in bestimmten Intervallen der reellen Zahlengeraden annimmt, ohne jedoch die Verteilung von   zu kennen. Sie lautet für eine Zufallsvariable   mit Erwartungswert   und Varianz  :[15]

 .

Die Tschebyscheffsche Ungleichung gilt für alle symmetrischen sowie schiefen Verteilungen. Sie setzt also keine besondere Verteilungsform voraus. Ein Nachteil der Tschebyscheffschen Ungleichung ist, dass sie nur eine grobe Abschätzung liefert.

Popovicius Ungleichung für VarianzenBearbeiten

Mit Hilfe von Popovicius Ungleichung kann man die Varianz nach oben beschränken. Sei   eine Zufallsvariable mit Varianz   und  , , dann gilt

 

Gesetz der totalen VarianzBearbeiten

Das Gesetz der totalen Varianz (auch Gesetz der iterierten Varianz oder Eves Gesetz) sagt, falls   zwei Zufallsvariablen auf dem gleichen Wahrscheinlichkeitsraum sind und die Varianz von   endlich ist, dann gilt

 .

InterpretationBearbeiten

Physikalische InterpretationBearbeiten

Die Varianz ist neben dem Erwartungswert die zweite wichtige Kenngröße der Verteilung einer reellen Zufallsvariable. Das  -te zentrale Moment von   ist  . Wenn  , dann wird das zentrale Moment zweiter Ordnung   Varianz der Verteilung von   genannt.[16] Der Begriff Moment stammt originär aus der Physik. Wenn man die möglichen Werte als Massepunkte mit den Massen auf der (als gewichtslos angenommenen) reellen Zahlengeraden interpretiert, dann erhält man eine physikalische Interpretation des Erwartungswertes: Das erste Moment, der Erwartungswert, stellt dann den physikalischen Schwerpunkt beziehungsweise Massenmittelpunkt des so entstehenden Körpers dar.[17] Die Varianz kann dann als Trägheitsmoment des Massesystems bezüglich der Rotationsachse um den Schwerpunkt interpretiert werden.[18] Im Gegensatz zum Erwartungswert, der also die Wahrscheinlichkeitsmasse balanciert, ist die Varianz ein Maß für die Streuung der Wahrscheinlichkeitsmasse um ihren Erwartungswert.

Interpretation als AbstandBearbeiten

Die Interpretation der Varianz einer Zufallsvariablen als mittlerer quadrierter Abstand lässt sich wie folgt erklären: Der Abstand zwischen zwei Punkten   und   auf der reellen Zahlengeraden ist gegeben durch  . Wenn man jetzt definiert, dass ein Punkt die Zufallsvariable   ist und der andere  , dann gilt  , und der quadrierte Abstand lautet  . Folglich wird   als der mittlere quadrierte Abstand zwischen der Realisierung der Zufallsvariablen   und dem Erwartungswert   interpretiert, wenn das Zufallsexperiment unendlich oft wiederholt wird.[19]

Interpretation als Maß für DeterminismusBearbeiten

 
Dichtefunktionen normalverteilter Zufallsvariablen mit unterschiedlichen Erwartungswerten und Varianzen. Zu sehen ist, dass der Erwartungswert die Lage und Varianz die Breite der Dichtefunktion wiedergibt. Die rote Kurve zeigt die Standardnormalverteilung   mit Erwartungswert Null und Varianz Eins.

Die Varianz beschreibt außerdem die Breite einer Wahrscheinlichkeitsfunktion[20] und daher wie „stochastisch“ oder wie „deterministisch“ ein betrachtetes Phänomen ist. Bei einer großen Varianz liegt eher eine stochastische Situation vor und bei einer kleinen Varianz eher eine deterministische.[21] Im Spezialfall einer Varianz von Null liegt eine vollständig deterministische Situation vor. Die Varianz ist genau dann Null, wenn die Zufallsvariable   mit hundertprozentiger Wahrscheinlichkeit nur einen bestimmen Wert, nämlich den Erwartungswert, annimmt; wenn also   gilt. Solch eine „Zufallsvariable“ ist mit Wahrscheinlichkeit Eins konstant und kann in diesem Sinn als „deterministisch“ bezeichnet werden.[22] Da für eine Zufallsvariable mit dieser Eigenschaft   für alle   gilt, wird deren Verteilung manchmal auch als „entartet“ bezeichnet.[22] Eine Wahrscheinlichkeitsverteilung mit   für eine reelle Zahl   heißt degenerierte Wahrscheinlichkeitsverteilung oder Dirac-Verteilung.

Der Unterschied zwischen einer Konstanten  , die einer reellen Zufallsvariablen   mit der Eigenschaft   für alle   entspricht, und einer Zufallsvariablen   mit der Eigenschaft   ist, dass im zweiten Fall realisierte Werte der Zufallsvariablen möglich sind, die von   verschieden sind, die aber insgesamt die Wahrscheinlichkeit Null haben, es gilt also  . In beiden Fällen hat die Varianz den Wert Null.

Im Gegensatz zu diskreten Zufallsvariablen gilt für stetige Zufallsvariablen stets   für jedes  .[23] Im stetigen Fall beschreibt die Varianz die Breite einer Dichtefunktion. Die Breite wiederum ist ein Maß für die Unsicherheit, die mit einer Zufallsvariable verbunden ist. Je schmaler die Dichtefunktion ist, desto genauer kann der Wert von   vorhergesagt werden.

Rechenregeln und EigenschaftenBearbeiten

Die Varianz weist eine Fülle nützlicher Eigenschaften auf, welche die Varianz zum wichtigsten Streuungsmaß macht:[24]

VerschiebungssatzBearbeiten

Der Verschiebungssatz ist das stochastische Analogon zum Steinerschen Satz zur Berechnung von Trägheitsmomenten. Es gilt mit   und für beliebiges reelles  :

 ,

d. h. die mittlere quadratische Abweichung von   bzgl.   (physikalisch: das Trägheitsmoment bzgl. der Achse  ) ist gleich der Varianz (physikalisch: gleich dem Trägheitsmoment bzgl. der Achse durch den Schwerpunkt  ) plus dem Quadrat der Verschiebung  .

Beweis

 .

Der mittlere Term ergibt unter Ausnutzung der Linearität des Erwartungswertes:[25]

 .
Damit ist obige Formel bewiesen.

Aus dem Verschiebungssatz ergibt sich überdies für beliebiges reelles  :

  bzw.  .

(siehe auch Fréchet-Prinzip)

Für   erhält man als bekannteste Variante des Verschiebungssatzes

 .

Die Varianz als zentrales, auf den Erwartungswert (das „Zentrum“) bezogenes Moment lässt sich also auch als nicht-zentrales Moment ausdrücken.

Aus dem Verschiebungssatz folgt wegen der Nichtnegativitätsbedingung der Varianz, dass  ; somit ist  . Dieses Resultat ist ein Spezialfall der jensenschen Ungleichung für Erwartungswerte. Der Verschiebungssatz beschleunigt die Berechnung der Varianz, da der dazu nötige Erwartungswert von   zusammen mit   gebildet werden kann, während sonst   bereits bekannt sein muss – konkret für diskrete beziehungsweise stetige Zufallsvariablen liefert er:

Falls   diskret Falls   stetig
   

Lineare TransformationBearbeiten

Für zwei Konstanten   gilt:

  • Die Varianz einer Konstanten ist Null, da Konstanten per Definition nicht zufällig sind und somit auch nicht streuen:  ;  
  • Translationsinvarianz: Für additive Konstanten gilt  . Dies bedeutet, dass eine „Verschiebung der Zufallsvariablen“ um einen konstanten Betrag keine Auswirkung auf deren Streuung hat.
  • Im Gegensatz zu additiven Konstanten haben multiplikative Konstanten eine Auswirkung auf die Skalierung der Varianz. Bei multiplikativen Konstanten wird die Varianz mit der quadrierten der Konstanten, also  , skaliert.[26] Dies kann wie folgt gezeigt werden:
 .

Hierbei wurde die Eigenschaft der Linearität des Erwartungswertes benutzt. Zusammengefasst ergibt die Varianzbildung einer linearen transformierten Zufallsvariable  :

 .

Insbesondere für   folgt  , das heißt, das Vorzeichen der Varianz ändert sich nicht, wenn sich das Vorzeichen der Zufallsvariablen ändert.

Jede Zufallsvariable kann durch Zentrierung und anschließende Normierung, genannt Standardisierung, in eine Zufallsvariable   überführt werden. Diese Normierung ist eine lineare Transformation. Die derart standardisierte Zufallsvariable   weist eine Varianz von   und einen Erwartungswert von   auf.

Beziehung zur StandardabweichungBearbeiten

Die Varianz einer Zufallsvariable wird immer in Quadrateinheiten angegeben.[27] Dies ist problematisch, weil quadrierte Einheiten, die auf diesem Wege zustande kommen – wie zum Beispiel   –, keine sinnvolle Interpretation bieten; die Interpretation als Flächenmaß ist im vorliegenden Beispiel unzulässig. Um die gleiche Einheit wie die Zufallsvariable zu erhalten, wird daher statt der Varianz i. d. R. die Standardabweichung verwendet. Sie hat die gleiche Einheit wie die Zufallsvariable selbst und misst somit, bildlich gesprochen, „mit dem gleichen Maß“.

Die Standardabweichung ist die positive Quadratwurzel aus der Varianz[28][29]

 .

Sie wird als   (gelegentlich auch als  ),  , oder einfach als   (Sigma) notiert. Ferner eignet sich die Standardabweichung zur Quantifizierung von Unsicherheit bei Entscheidungen unter Risiko, weil sie, im Unterschied zur Varianz, den Anforderungen an ein Risikomaß genügt.

Bei einigen Wahrscheinlichkeitsverteilungen, insbesondere der Normalverteilung, können aus der Standardabweichung direkt Wahrscheinlichkeiten berechnet werden. So befinden sich bei der Normalverteilung immer ca. 68 % der Werte im Intervall von der Breite von zwei Standardabweichungen um den Erwartungswert. Beispiel hierfür ist die Körpergröße: Sie ist für eine Nation und Geschlecht annähernd normalverteilt, so dass z. B. in Deutschland 2006 ca. 68 % aller Männer etwa zwischen 171 und 186 cm groß waren (ca.  , also „Erwartungswert plus/minus Standardabweichung“).[30]

Für die Standardabweichung gilt für jede Konstante  ,  . Im Gegensatz zur Varianz gilt für die Standardabweichung die Rechenregel   mit   für lineare Transformationen, das heißt die Standardabweichung wird im Gegensatz zur Varianz nicht mit dem Quadrat   der Konstanten skaliert. Insbesondere gilt für  ,  .

Beziehung zur KovarianzBearbeiten

Im Gegensatz zur Varianz, die lediglich die Variabilität der betrachteten Zufallsvariable misst, misst die Kovarianz die gemeinsame Variabilität von zwei Zufallsvariablen. Die Varianz ist demnach die Kovarianz einer Zufallsvariable mit sich selbst  . Diese Beziehung folgt direkt aus der Definition der Varianz und Kovarianz. Die Kovarianz zwischen   und   wird auch mit   abgekürzt. Außerdem gilt, da die Kovarianz eine positiv semidefinite Bilinearform ist, die Cauchy-Schwarzsche Ungleichung:

 .

Diese Ungleichung gehört zu den bedeutendsten in der Mathematik und findet vor allem in der linearen Algebra Anwendung.

Summen und ProdukteBearbeiten

Für die Varianz einer beliebigen Summe von Zufallsvariablen   gilt allgemein:[31][32]

 .

Hierbei bezeichnet   die Kovarianz der Zufallsvariablen   und   und es wurde die Eigenschaft   verwendet. Berücksichtigt man das Verhalten der Varianz bei linearen Transformationen, dann gilt für die Varianz der Linearkombination, beziehungsweise der gewichteten Summe, zweier Zufallsvariablen:

 .

Speziell für zwei Zufallsvariablen  ,   und   ergibt sich beispielsweise

 .[33]

Dies bedeutet, dass die Variabilität der Summe zweier Zufallsvariablen der Summe der einzelnen Variabilitäten und dem Zweifachen der gemeinsamen Variabilität der beiden Zufallsvariablen entspricht.

Ein weiterer Grund, warum die Varianz anderen Streuungsmaßen vorgezogen wird, ist die nützliche Eigenschaft, dass die Varianz der Summe unabhängiger Zufallsvariablen der Summe der Varianzen entspricht:

 .[26][34]

Dies resultiert daraus, dass bei unabhängigen Zufallsvariablen   gilt. Diese Formel lässt sich auch verallgemeinern: Wenn   paarweise unkorrelierte Zufallsvariablen sind (das heißt ihre Kovarianzen sind alle gleich Null), gilt

 ,

oder allgemeiner mit beliebigen Konstanten  

 .

Dieses Resultat wurde 1853 vom französischen Mathematiker Irénée-Jules Bienaymé entdeckt und wird daher auch als Gleichung von Bienaymé bezeichnet.[35][36] Sie gilt insbesondere dann, wenn die Zufallsvariablen unabhängig sind, denn aus Unabhängigkeit folgt Unkorreliertheit. Wenn alle Zufallsvariablen die gleiche Varianz   haben, bedeutet dies für die Varianzbildung des Stichprobenmittels:

 .

Man kann erkennen, dass die Varianz des Stichprobenmittels sinkt, wenn der Stichprobenumfang   steigt. Diese Formel für die Varianz des Stichprobenmittels wird bei der Definition des Standardfehlers des Stichprobenmittels benutzt, welcher im zentralen Grenzwertsatz angewendet wird.

Sind zwei Zufallsvariablen   and   unabhängig, dann ist die Varianz ihres Produktes gegeben durch[37]

 .

Zusammengesetzte ZufallsvariableBearbeiten

Ist   eine zusammengesetzte Zufallsvariable, d. h. sind   unabhängige Zufallsvariablen, sind die   identisch verteilt und ist   auf   definiert, so lässt sich   darstellen als  . Existieren die zweiten Momente von  , so gilt für die zusammengesetzte Zufallsvariable:

 .

Diese Aussage ist auch als Blackwell-Girshick-Gleichung bekannt und wird z. B. in der Schadensversicherungsmathematik benutzt.

Momenterzeugende und kumulantenerzeugende FunktionBearbeiten

Mithilfe der momenterzeugenden Funktion lassen sich Momente wie die Varianz häufig einfacher berechnen. Die momenterzeugende Funktion ist definiert als Erwartungswert der Funktion  . Da für die momenterzeugende Funktion  [38] der Zusammenhang

 

gilt, lässt sich die Varianz, durch den Verschiebungssatz, damit auf folgende Weise berechnen:

 .

Hierbei ist   die momenterzeugende Funktion und   die  -te Ableitung dieser. Die kumulantenerzeugende Funktion einer Zufallsvariable ergibt sich als Logarithmus der momenterzeugenden Funktion und ist definiert als:

 .

Leitet man sie zweimal ab und wertet sie an der Stelle Null aus, so erhält man für die Varianz  . Die zweite Kumulante ist also die Varianz.

Charakteristische und wahrscheinlichkeitserzeugende FunktionBearbeiten

Die Varianz einer Zufallsvariable   lässt sich auch mit Hilfe ihrer charakteristischen Funktion   darstellen. Wegen

  und   folgt nämlich mit dem Verschiebungssatz:
 .[39]

Auch mit der wahrscheinlichkeitserzeugenden Funktion  , die in Beziehung zur charakteristische Funktion steht lässt sich für diskrete   die Varianz berechnen. Es gilt dann für die Varianz  , falls der linksseitige Grenzwert existiert.

Varianz als mittlere quadratische Abweichung vom MittelwertBearbeiten

Im Falle einer diskreten Zufallsvariable   mit abzählbar endlichem Träger   ergibt sich die Varianz der Zufallsvariable   als

 .

Hierbei ist   die Wahrscheinlichkeit, dass   den Wert   annimmt. Diese Varianz kann als eine gewichtete Summe der Werte   gewichtet mit den Wahrscheinlichkeiten   interpretiert werden.

Falls   gleichverteilt auf   ist ( ), gilt für den Erwartungswert, dass er gleich dem arithmetischen Mittel ist (siehe Gewichtetes arithmetisches Mittel als Erwartungswert):

 

Folglich wird die Varianz   zum arithmetischen Mittel der Werte  :

 .

D. h., die Varianz ist bei Gleichverteilung gerade die mittlere quadratische Abweichung vom Mittelwert bzw. die Stichprobenvarianz  .

Varianzen spezieller VerteilungenBearbeiten

In der Stochastik gibt es eine Vielzahl von Verteilungen, die meist eine unterschiedliche Varianz aufweisen und oft in Beziehung zueinander stehen. Die Varianz der Normalverteilung ist von großer Bedeutung, da die Normalverteilung in der Statistik eine außerordentliche Stellung einnimmt. Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, dem zufolge Verteilungen, die durch Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, unter schwachen Voraussetzungen annähernd normalverteilt sind. Eine Auswahl wichtiger Varianzen ist in nachfolgender Tabelle zusammengefasst:

Verteilung Stetig/diskret Wahrscheinlichkeitsfunktion Varianz
Normalverteilung Stetig    
Cauchy-Verteilung Stetig   existiert nicht
Bernoulli-Verteilung Diskret    
Binomialverteilung Diskret    
Stetige Gleichverteilung Stetig    
Poisson-Verteilung Diskret    
Degenerierte Verteilung Diskret    

BeispieleBearbeiten

Berechnung bei diskreten ZufallsvariablenBearbeiten

MünzwurfBearbeiten

Eine Münze wird 7-mal geworfen. Wenn die diskrete Zufallsvariable   die Anzahl der Würfel zählt, mit denen „Zahl“ geworfen wird, ergibt sich für   die Binomialverteilung   mit   und  . Die Werte und ihre Wahrscheinlichkeiten lassen sich in folgender Tabelle zusammenfassen:

                 
                 

Der Erwartungswert beträgt

 .

Die Varianz ist demnach gegeben durch

 

Mit dem Verschiebungssatz erhält man ebenfalls den gleichen Wert für die Varianz:

 .

Für die Standardabweichung ergibt sich damit:

 .

Community Cards bei Texas Hold’emBearbeiten

Bei der Pokervariante Texas Hold’em werden von den 52 Spielkarten 5 Community Cards aufgedeckt. Wenn die diskrete Zufallsvariable   die Anzahl der Asse zählt, die aufgedeckt werden, ergibt sich für   die hypergeometrische Verteilung   mit   Spielkarten,   Assen und   Community Cards. Die Werte und ihre Wahrscheinlichkeiten lassen sich in folgender Tabelle zusammenfassen:

           
           

Der Erwartungswert beträgt

 .

Die Varianz ist demnach gegeben durch

 

Für die Standardabweichung ergibt sich damit:

 .

Berechnung bei stetigen ZufallsvariablenBearbeiten

Eine stetige Zufallsvariable habe die Dichtefunktion

 ,

mit dem Erwartungswert von  

 

und dem Erwartungswert von  

 .

Die Varianz dieser Dichtefunktion berechnet sich mit Hilfe des Verschiebungssatzes wie folgt:

 .

Stichprobenvarianz als Schätzer für die VarianzBearbeiten

Seien   reelle unabhängig und identisch verteilte Zufallsvariablen mit dem Erwartungswert   und der endlichen Varianz  . Ein Schätzer für den Erwartungswert   stellt das Stichprobenmittel   dar, da nach dem Gesetz der großen Zahlen gilt:

 .

Es wird im Folgenden ein Schätzer für die Varianz   gesucht. Ausgehend von   definiert man sich die Zufallsvariablen  . Diese sind unabhängig und identisch verteilt mit dem Erwartungswert  . Ist   nun quadratisch integrierbar, dann ist das schwache Gesetz der großen Zahlen anwendbar, und es gilt:

 .

Wenn man nun   durch   ersetzt, liefert dies die sogenannte Stichprobenvarianz. Aus diesem Grund stellt wie oben gezeigt die Stichprobenvarianz

 

eine induktive Entsprechung der Varianz im stochastischen Sinne dar.[40]

Bedingte VarianzBearbeiten

Analog zu bedingten Erwartungswerten lassen sich beim Vorliegen von Zusatzinformationen, wie beispielsweise den Werten einer weiteren Zufallsvariable, bedingte Varianzen bedingter Verteilungen betrachten. Es seien   und   zwei reelle Zufallsvariablen, dann heißt die Varianz von  , die auf   konditioniert ist

 [41]

die bedingte Varianz von   gegeben   (oder Varianz von   bedingt auf  ).[42] Um die „gewöhnliche“ Varianz   stärker von der bedingten Varianz   zu unterscheiden, spricht man bei der gewöhnlichen Varianz auch von der unbedingten Varianz.

VerallgemeinerungenBearbeiten

Varianz-KovarianzmatrixBearbeiten

Im Falle eines reellen Zufallsvektors   mit dem dazugehörigen Erwartungswertvektor[43]   verallgemeinert sich die Varianz beziehungsweise Kovarianz zu der symmetrischen Varianz-Kovarianzmatrix (oder einfach Kovarianzmatrix) des Zufallsvektors:

 .[44]

Der Eintrag der  -ten Zeile und  -ten Spalte der Varianz-Kovarianzmatrix   ist die Kovarianz   der Zufallsvariablen   und   und in der Diagonale stehen die Varianzen  .[45] Da die Kovarianzen ein Maß für die Korrelation zwischen Zufallsvariablen darstellen und die Varianzen lediglich ein Maß für die Variabilität, enthält die Varianz-Kovarianzmatrix Informationen über die Streuung und Korrelationen zwischen all seinen Komponenten. Da die Varianzen und Kovarianzen per Definition stets nicht-negativ sind, gilt analog für die Varianz-Kovarianzmatrix, dass sie positiv semidefinit ist.[46] Die Varianz-Kovarianzmatrix dient bei der Beurteilung von Schätzern als Effizienzkriterium. Im Allgemeinen gilt, dass sich die Effizienz eines Parameterschätzers anhand der „Größe“ seiner Varianz-Kovarianzmatrix messen lässt. Es gilt: Je „kleiner“ die Varianz-Kovarianzmatrix, desto „größer“ die Effizienz des Schätzers.

Matrixnotation für die Varianz einer LinearkombinationBearbeiten

Es sei   ein Spaltenvektor von   Zufallsvariablen  , und   ein Spaltenvektor bestehend aus   Skalaren  . Dies bedeutet, dass   eine Linearkombination dieser Zufallsvariablen ist, wobei   die Transponierte von   bezeichnet. Sei   die Varianz-Kovarianzmatrix von  . Die Varianz von   ist dann gegeben durch:

 .[47]

Verwandte MaßzahlenBearbeiten

Fasst man die Varianz als Streuungsmaß der Verteilung einer Zufallsvariable auf, so ist sie mit den folgenden Streuungsmaßen verwandt:

WeblinksBearbeiten

Wikibooks: Varianz und Standardabweichung – Lern- und Lehrmaterialien
Commons: Standardabweichung – Album mit Bildern, Videos und Audiodateien
Commons: Varianz – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: Varianz – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

LiteraturBearbeiten

  • George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988
  • Ludwig Fahrmeir u. a.: Statistik: Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer-Verlag, 2016, ISBN 978-3-662-50371-3.

AnmerkungenBearbeiten

  1. Die Verwendung des Varianzoperators   hebt die Berechnungsoperationen hervor, und mit ihm lässt sich die Gültigkeit bestimmter Rechenoperationen besser ausdrücken.
  2. Bei einer symmetrischen Verteilung mit dem Symmetriezentrum   gilt:  .
  3. Weitere Vorteile des Quadrierens sind zum einen, dass kleine Abweichungen weniger stark gewichtet werden als große Abweichungen, und zum anderen, dass die erste Ableitung eine lineare Funktion ist, was bei Optimierungsüberlegungen von Vorteil ist.
  4. Mit der Bezeichnung „Träger“ und dem Zeichen   bezeichnet man die Menge aller möglichen Ausprägungen beziehungsweise Realisierungen einer Zufallsvariablen.

EinzelnachweiseBearbeiten

  1. Patrick Billingsley: Probability and Measure, 3. Aufl., Wiley, 1995, S. 274ff
  2. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 53.
  3. Brockhaus: Brockhaus, Naturwissenschaften und Technik – Sonderausgabe. 1989, S. 188.
  4. Lothar Papula: Mathematik für Ingenieure und Naturwissenschaftler. Band 3: Vektoranalysis, Wahrscheinlichkeitsrechnung, Mathematische Statistik, Fehler- und Ausgleichsrechnung. 1994, S. 338.
  5. Norbert Henze: Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. 2016, S. 160.
  6. Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6. durchges. u. aktualisierte Aufl. 2013, S. 28.
  7. Volker Heun: Grundlegende Algorithmen: Einführung in den Entwurf und die Analyse effizienter Algorithmen. 2. Auflage. 2003, S. 108.
  8. Gerhard Hübner: Stochastik: Eine Anwendungsorientierte Einführung für Informatiker, Ingenieure und Mathematiker. 3. Auflage, 2002, S. 103.
  9. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 231.
  10. Von Auer: Ökonometrie. Eine Einführung. 6. Auflage. Springer, 2013, ISBN 978-3-642-40209-8, S. 29.
  11. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 283.
  12. Ronald Aylmer Fisher: The correlation between relatives on the supposition of Mendelian inheritance., Trans. Roy. Soc. Edinb. 52: 399-433, 1918.
  13. Lothar Sachs: Statistische Auswertungsmethoden. 1968, 1. Auflage, S. 436.
  14. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 58.
  15. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 101.
  16. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 40.
  17. Hans-Otto Georgii: Einführung in die Wahrscheinlichkeitstheorie und Statistik, ISBN 978-3-11-035970-1, S. 102 (abgerufen über De Gruyter Online).
  18. Hans-Heinz Wolpers: Mathematikunterricht in der Sekundarstufe II. Band 3: Didaktik der Stochastik. Jahr?, S. 20.
  19. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 40.
  20. W. Zucchini, A. Schlegel, O. Nenadíc, S. Sperlich: Statistik für Bachelor- und Masterstudenten. Springer, 2009, ISBN 978-3-540-88986-1, S. 121.
  21. W. Zucchini, A. Schlegel, O. Nenadíc, S. Sperlich: Statistik für Bachelor- und Masterstudenten. Springer, 2009, ISBN 978-3-540-88986-1, S. 123.
  22. a b Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 232.
  23. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 254.
  24. Wolfgang Viertl, Reinhard Karl: Einführung in die Stochastik: Mit Elementen der Bayes–Statistik und der Analyse unscharfer Information. Jahr?, S. 49.
  25. Ansgar Steland: Basiswissen Statistik. Springer, 2016, ISBN 978-3-662-49948-1, S. 116, eingeschränkte Vorschau in der Google-Buchsuche.
  26. a b Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 233.
  27. Gerhard Hübner: Stochastik: Eine Anwendungsorientierte Einführung für Informatiker, Ingenieure und Mathematiker. 3. Auflage, 2002, S. 103.
  28. Lothar Papula: Mathematik für Ingenieure und Naturwissenschaftler. Band 3: Vektoranalysis, Wahrscheinlichkeitsrechnung, Mathematische Statistik, Fehler- und Ausgleichsrechnung. 1994, S. 338.
  29. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 108, doi:10.1515/9783110215274.
  30. Quelle: SOEP 2006 Körpergröße der Deutschen Statistik des Sozio-oekonomischen Panels (SOEP), aufbereitet durch statista.org
  31. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 106.
  32. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, und Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 329.
  33. L. Kruschwitz, S. Husmann: Finanzierung und Investition. Jahr?, S. 471.
  34. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 86.
  35. Irénée-Jules Bienaymé: "Considérations à l’appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Comptes rendus de l’Académie des sciences Paris. 37, 1853, S. 309–317.
  36. Michel Loeve: Probability Theory. (= Graduate Texts in Mathematics. Volume 45). 4. Auflage, Springer-Verlag, 1977, ISBN 3-540-90210-4, S. 12.
  37. Leo A. Goodman: On the exact variance of products. In: Journal of the American Statistical Association. Dezember 1960, S. 708–713. doi:10.2307/2281592
  38. Wolfgang Kohn: Statistik: Datenanalyse und Wahrscheinlichkeitsrechnung. Jahr?, S. 250.
  39. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 97.
  40. Georg Neuhaus: Grundkurs Stochastik. Jahr?, S. 290.
  41. Jeffrey M. Wooldrige: Introductory Econometrics: A Modern Approach. 5. Auflage, 2012, S. 736.
  42. Toni C. Stocker, Ingo Steinke: Statistik: Grundlagen und Methodik. de Gruyter Oldenbourg, Berlin 2017, ISBN 978-3-11-035388-4, S. 319.
  43. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 646.
  44. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 43.
  45. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 43.
  46. Wilfried Hausmann, Kathrin Diener, Joachim Käsler: Derivate, Arbitrage und Portfolio-Selection: Stochastische Finanzmarktmodelle und ihre Anwendungen. 2002, S. 15.
  47. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 647.