Erwartungswert

Lageparameter einer Zufallsvariable

Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik. Der Erwartungswert ist eine Kennzahl einer Zufallsvariablen. Bei einer engeren Definition ist der Erwartungswert einer Zufallsvariablen eine reelle Zahl und damit endlich; bei einer weiteren Definition sind für den Erwartungswert einer Zufallsvariablen auch die Werte zugelassen. Es gibt Zufallsvariablen, für die kein Erwartungswert definiert ist.

Hat eine Zufallsvariable einen endlichen Erwartungswert, so wird dieser häufig mit abgekürzt; er beschreibt dann die Zahl, die die Zufallsvariable im Mittel annimmt. Er ergibt sich zum Beispiel bei unbegrenzter Wiederholung des zugrunde liegenden Experiments als Durchschnitt der Ergebnisse. Das Gesetz der großen Zahlen beschreibt, in welcher Form die Durchschnitte der Ergebnisse bei wachsender Anzahl der Experimente gegen den endlichen Erwartungswert streben, oder anders gesagt, wie die Stichprobenmittelwerte bei wachsendem Stichprobenumfang gegen den Erwartungswert konvergieren.

Ein endlicher Erwartungswert bestimmt die Lokalisation (Lage) der Verteilung der Zufallsvariablen und ist vergleichbar mit dem empirischen arithmetischen Mittel einer Häufigkeitsverteilung in der deskriptiven Statistik, jedoch mit einem wichtigen Unterschied: Der Erwartungswert ist der „wahre“ Mittelwert einer Zufallsvariablen (Mittelwert der Grundgesamtheit), während sich das arithmetische Mittel in der Regel nur auf eine Stichprobe von Werten bezieht (Stichprobenmittel). Eine neue Stichprobe wird einen unterschiedlichen arithmetischen Mittelwert liefern, jedoch bleibt der Erwartungswert immer gleich.

Der Erwartungswert berechnet sich als nach der Wahrscheinlichkeit gewichtetes Mittel der Werte, die die Zufallsvariable annimmt. Er muss selbst jedoch nicht einer dieser Werte sein.

Weil der Erwartungswert einer Zufallsvariablen nur von deren Wahrscheinlichkeitsverteilung abhängt, wird auch vom Erwartungswert einer Wahrscheinlichkeitsverteilung gesprochen, ohne Bezug auf eine Zufallsvariable. Der endliche Erwartungswert einer Zufallsvariablen kann als Schwerpunkt der Wahrscheinlichkeitsmasse betrachtet werden und wird daher als ihr erstes Moment bezeichnet.

Motivation Bearbeiten

Die Augenzahlen beim Würfelwurf können als unterschiedliche Ausprägungen einer Zufallsvariablen   betrachtet werden. Weil die (tatsächlich beobachteten) relativen Häufigkeiten sich gemäß dem Gesetz der großen Zahlen mit wachsendem Stichprobenumfang   den theoretischen Wahrscheinlichkeiten der einzelnen Augenzahlen annähern, muss der Mittelwert gegen den Erwartungswert von   streben. Zu dessen Berechnung werden die möglichen Ausprägungen mit ihrer theoretischen Wahrscheinlichkeit gewichtet.

 

Wie die Ergebnisse der Würfelwürfe ist der Mittelwert vom Zufall abhängig. Im Unterschied dazu ist der Erwartungswert eine feste Kennzahl der Verteilung der Zufallsvariablen  .

Die Definition des Erwartungswerts steht in Analogie zum gewichteten Mittelwert von empirisch beobachteten Zahlen. Hat zum Beispiel eine Serie von zehn Würfelversuchen die Ergebnisse 4, 2, 1, 3, 6, 3, 3, 1, 4, 5 geliefert, kann der zugehörige Mittelwert

 

alternativ berechnet werden, indem zunächst gleiche Werte zusammengefasst und nach ihrer relativen Häufigkeit gewichtet werden:

 .

Allgemein lässt der Mittelwert der Augenzahlen in   Würfen sich wie

 

schreiben, worin   die relative Häufigkeit der Augenzahl   bezeichnet.

Begriff und Notation Bearbeiten

Begriff Bearbeiten

Das Konzept des Erwartungswertes geht auf Christiaan Huygens zurück. In einer Abhandlung über Glücksspiele von 1656 (Van rekeningh in spelen van geluck) beschreibt Huygens den erwarteten Gewinn eines Spiels als „het is my soo veel weerdt“ („es ist mir so viel wert“). Frans van Schooten verwendete in seiner Übersetzung von Huygens’ Text ins Lateinische den Begriff expectatio („Erwartung“). Bernoulli übernahm in seiner Ars conjectandi den von van Schooten eingeführten Begriff in der Form valor expectationis („Erwartungswert“).[1]

Notation Bearbeiten

Das Symbol E für Erwartungswert oder Expectation wurde in der englischsprachigen Literatur erst ab dem 20. Jahrhundert eingeführt.[2] Heute wird in der englischsprachigen und deutschsprachigen mathematischen Literatur häufig die Schreibweise   oder   oder auch mit eckigen Klammern   bzw.   für den Erwartungswert der Zufallsvariable   verwendet.[3][4] Gelegentlich werden auch geschweifte Klammern verwendet.[5]

In der russischsprachigen Literatur findet sich die Bezeichnung  .[6]

Gelegentlich werden auch die Klammern um die Zufallsvariable weggelassen, was der Schreibweise für Operatoren entspricht:   oder  .[7] Mit der auch vorkommenden Notation   besteht hierbei nicht die Gefahr, dass der Operator   mit einer Zufallsvariable verwechselt wird. Die Notation   mit den eckigen Klammern hebt speziell die Tatsache hervor, dass es sich hier um ein Funktional handelt.

Die Bezeichnung   des Erwartungswerts der Zufallsvariable   betont die Eigenschaft als nicht vom Zufall abhängiges erstes Moment. In der Physik findet die Bra-Ket-Notation Verwendung.[2] Insbesondere wird   statt   für den Erwartungswert einer Größe   geschrieben.

Definitionen Bearbeiten

Ist eine Zufallsvariable diskret oder besitzt sie eine Dichte, so existieren die folgenden Formeln für den Erwartungswert.

Erwartungswert einer diskreten reellen Zufallsvariable Bearbeiten

Im reellen diskreten Fall errechnet sich der Erwartungswert als die Summe der Produkte aus den Wahrscheinlichkeiten jedes möglichen Ergebnisses des Experiments und den „Werten“ dieser Ergebnisse.

Ist   eine reelle diskrete Zufallsvariable, die die Werte   mit den jeweiligen Wahrscheinlichkeiten   annimmt (mit   als abzählbarer Indexmenge), so errechnet sich der Erwartungswert   im Falle der Existenz mit:

 

Es ist zu beachten, dass dabei nichts über die Reihenfolge der Summation ausgesagt wird (siehe summierbare Familie).

Ist  , so besitzt   genau dann einen endlichen Erwartungswert  , wenn die Konvergenzbedingung

  erfüllt ist, d. h. die Reihe für den Erwartungswert absolut konvergent ist.

Für nichtnegative ganzzahlige Zufallsvariablen ist oft die folgende Eigenschaft hilfreich[8]

 

Diese Eigenschaft wird im Abschnitt über den Erwartungswert einer nicht-negativen Zufallsvariablen bewiesen.

Erwartungswert einer reellen Zufallsvariable mit Dichtefunktion Bearbeiten

 
Der Erwartungswert balanciert die Wahrscheinlichkeitsmasse – hier die Masse unter der Dichte einer Beta(α,β)-Verteilung mit Erwartungswert α/(α+β). Dies entspricht der Interpretation des Erwartungswertes als Massenmittelpunkt.

Hat eine reelle Zufallsvariable   eine Wahrscheinlichkeitsdichtefunktion  , das heißt hat das Bildmaß   die Dichte   bezüglich des Lebesgue-Maßes  , so berechnet sich der Erwartungswert im Falle der Existenz als

(1)  

In vielen Anwendungsfällen liegt (im Allgemeinen uneigentliche) Riemann-Integrierbarkeit vor und es gilt:

(2)  

Gleichwertig zu dieser Gleichung ist, wenn   Verteilungsfunktion von   ist:

(3)  

(2) und (3) sind unter der gemeinsamen Voraussetzung (  ist Dichtefunktion und   ist Verteilungsfunktion von  ) äquivalent, was mit schulgemäßen Mitteln bewiesen werden kann.[9]

Für nichtnegative Zufallsvariablen folgt daraus die wichtige Beziehung zur Zuverlässigkeitsfunktion  

 

Allgemeine Definition Bearbeiten

Der Erwartungswert wird entsprechend als das Lebesgue-Integral bezüglich des Wahrscheinlichkeitsmaßes definiert: Ist   eine bezüglich dem Maß   integrierbare oder quasiintegrierbare Zufallsvariable auf einem Wahrscheinlichkeitsraum   mit Werten in  , wobei   die Borelsche σ-Algebra über   ist und   die Verteilung, so wird definiert

 .

Die Zufallsvariable   besitzt genau dann einen Erwartungswert, wenn sie quasiintegrierbar ist, also die Integrale

  und  

nicht beide unendlich sind, wobei   und   den Positiv- sowie den Negativteil von   bezeichnen. In diesem Fall kann   oder   gelten.

Der Erwartungswert ist genau dann endlich, wenn   integrierbar ist, also die obigen Integrale über   und   beide endlich sind. Dies ist äquivalent mit

 

In diesem Fall schreiben viele Autoren, der Erwartungswert existiere oder   sei eine Zufallsvariable mit existierendem Erwartungswert, und schließen damit den Fall   bzw.   aus.

 

Der (endliche) Erwartungswert einer reellen Zufallsvariablen   kann aber auch am Graphen ihrer Verteilungsfunktion   durch eine naheliegende Flächengleichheit festgelegt werden. Es ist nämlich   mit einer reellen Zahl   genau dann, wenn in der  - -Ebene die beiden Flächen, beschrieben durch

  bzw.  

denselben endlichen Flächeninhalt haben, d. h. wenn

 

gilt und beide uneigentlichen Riemann-Integrale konvergieren. Dazu äquivalent ist die allgemeingültige Darstellung (3), ebenfalls mit konvergenten Integralen.[10]

Elementare Eigenschaften Bearbeiten

Linearität Bearbeiten

Der Erwartungswert ist linear für Zufallsvariablen mit endlichem Erwartungswert. Es gilt also für beliebige, nicht notwendigerweise stochastisch unabhängige, Zufallsvariablen   mit endlichen Erwartungswerten, dass

 

ist. Als Spezialfälle ergeben sich

 ,
 

und

 .

Die Linearität lässt sich auch auf endliche Summen erweitern:

 

Die Linearität des Erwartungswertes für Zufallsvariablen mit endlichem Erwartungswert folgt aus der Linearität des Integrals für integrierbare Funktionen. Die Voraussetzung endlicher Erwartungswerte ist wesentlich für die Anwendung der Linearitätseigenschaft als Rechenregel. Beispielsweise ist es möglich, dass   und   und der Erwartungswert von   nicht definiert ist oder in anderen Fällen endlich ist.

Monotonie Bearbeiten

Existieren die Erwartungswerte   und  , so gilt

 .

Die Voraussetzung  , d. h.   für alle  , lässt sich abschwächen zu  , d. h.   fast sicher.

Wahrscheinlichkeiten als Erwartungswerte Bearbeiten

Wahrscheinlichkeiten von Ereignissen lassen sich auch über den Erwartungswert ausdrücken. Für jedes Ereignis   gilt

 ,

wobei   die Indikatorfunktion von   ist.

Dieser Zusammenhang ist oft nützlich, etwa zum Beweis der Tschebyschow-Ungleichung.

Dreiecksungleichung Bearbeiten

Es gilt

 

und

 .

Beispiele Bearbeiten

Würfeln Bearbeiten

 
Eine Illustration der Konvergenz von Durchschnitten des Würfelns eines Würfels zum Erwartungswert von 3,5, wenn die Anzahl an Versuchen steigt.

Das Experiment sei ein Würfelwurf. Als Zufallsvariable   betrachten wir die gewürfelte Augenzahl, wobei jede der Zahlen 1 bis 6 mit einer Wahrscheinlichkeit von jeweils 1/6 gewürfelt wird.

 

Wenn beispielsweise 1000-mal gewürfelt wird, man also das Zufallsexperiment 1000-mal wiederholt und die geworfenen Augenzahlen zusammenzählt und durch 1000 dividiert, ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 3,5. Es ist jedoch unmöglich, diesen Wert mit einem einzigen Würfelwurf zu erzielen.

Sankt-Petersburg-Paradoxon Bearbeiten

Das Sankt-Petersburg-Paradoxon beschreibt ein Glücksspiel, dessen zufälliger Gewinn   einen unendlichen Erwartungswert hat. Gemäß der klassischen Entscheidungstheorie, die auf der Erwartungswertregel   basiert, sollte man daher einen beliebig hohen Einsatz riskieren. Da die Wahrscheinlichkeit für einen Verlust des Einsatzes aber   beträgt, erscheint diese Empfehlung nicht rational. Eine Lösung des Paradoxons stellt die Verwendung einer logarithmischen Nutzenfunktion dar.

Zufallsvariable mit Dichte Bearbeiten

Gegeben ist die reelle Zufallsvariable   mit der Dichtefunktion

 

wobei   die Eulersche Konstante bezeichnet.

Der Erwartungswert von   berechnet sich als

 

Allgemeine Definition Bearbeiten

Gegeben sei der Wahrscheinlichkeitsraum   mit  ,   die Potenzmenge von   und   für  . Der Erwartungswert der Zufallsvariablen   mit   und   ist

 

Da   eine diskrete Zufallsvariable ist mit   und  , kann der Erwartungswert alternativ auch berechnet werden als

 

Weitere Eigenschaften Bearbeiten

Erwartungswert einer nicht-negativen Zufallsvariable Bearbeiten

Falls   ist und   fast sicher nicht-negativ ist, so gilt gemäß dem Satz von Fubini-Tonelli (hierbei bezeichnen die eckigen Klammern die Prädikatabbildung)

 

Also ist

 

(Die letzte Gleichheit ist richtig, da   für fast alle  .)

Für   ergibt sich der folgende bekannte Spezialfall:

 

Für ganzzahlige, nichtnegative Zufallsvariablen gilt also wegen

 

die oben genannte Formel:

 

Sigma-Additivität Bearbeiten

Sind alle Zufallsvariablen   fast sicher nichtnegativ, so lässt sich die endliche Additivität sogar zur  -Additivität erweitern:

 

Erwartungswert des Produkts von n stochastisch unabhängigen Zufallsvariablen Bearbeiten

Wenn die Zufallsvariablen   stochastisch unabhängig sind und endliche Erwartungswerte besitzen (integrierbar sind), dann hat auch das Produkt   einen endlichen Erwartungswert und es gilt

 .

Insbesondere gilt auch

  für  .

Wenn die Zufallsvariablen   stochastisch unabhängig sind und die Zufallsvariablen   endliche Erwartungswerte besitzen, dann hat auch das Produkt   einen endlichen Erwartungswert und es gilt

 .[11]

Die Voraussetzung endlicher Erwartungswerte ist wesentlich. Wenn beispielsweise zwei stochastisch unabhängige Zufallsvariablen   und   die Erwartungswerte   und   haben, dann ist es möglich, dass   nicht definiert ist. Die Zufallsvariable   besitze eine Standard-Cauchy-Verteilung, dann ist   nicht definiert. Andererseits gilt   mit  ,  , wobei   und   stochastisch unabhängig sind mit den Erwartungswerten   und  .

Erwartungswert des Produkts von nicht stochastisch unabhängigen Zufallsvariablen Bearbeiten

Falls die Zufallsvariablen   und   nicht stochastisch unabhängig sind, gilt für deren Produkt:

 

Dabei ist   die Kovarianz zwischen   und  .

Erwartungswert einer zusammengesetzten Zufallsvariable Bearbeiten

Ist   eine zusammengesetzte Zufallsvariable, sprich sind   unabhängige Zufallsvariablen und sind die   identisch verteilt und ist   auf   definiert, so lässt sich   darstellen als

 .

Existieren die ersten Momente von  , so gilt

 .

Diese Aussage ist auch als Formel von Wald bekannt. Sie wird z. B. in der Schadensversicherungsmathematik benutzt.

Monotone Konvergenz Bearbeiten

Sind die nichtnegativen Zufallsvariablen   fast sicher punktweise monoton wachsend und konvergieren fast sicher gegen eine weitere Zufallsvariable  , so gilt

 .

Dies ist der Satz von der monotonen Konvergenz in der wahrscheinlichkeitstheoretischen Formulierung.

Berechnung mittels der kumulantenerzeugenden Funktion Bearbeiten

Die kumulantenerzeugende Funktion einer Zufallsvariable ist definiert als

 .

Wird sie abgeleitet und an der Stelle 0 ausgewertet, so ist der Erwartungswert:

 .

Die erste Kumulante ist also der Erwartungswert.

Berechnung mittels der charakteristischen Funktion Bearbeiten

Die charakteristische Funktion einer Zufallsvariable   ist definiert als  . Mit ihrer Hilfe lässt sich durch Ableiten der Erwartungswert der Zufallsvariable bestimmen:

 .

Berechnung mittels der momenterzeugenden Funktion Bearbeiten

Ähnlich wie die charakteristische Funktion ist die momenterzeugende Funktion definiert als

 .

Auch hier lässt sich der Erwartungswert einfach bestimmen als

 .

Dies folgt daraus, dass der Erwartungswert das erste Moment ist und die k-ten Ableitungen der momenterzeugenden Funktion an der 0 genau die k-ten Momente sind.

Berechnung mittels der wahrscheinlichkeitserzeugenden Funktion Bearbeiten

Wenn   nur natürliche Zahlen als Werte annimmt, lässt sich der Erwartungswert für   auch mithilfe der wahrscheinlichkeitserzeugenden Funktion

 .

berechnen. Es gilt dann

 ,

falls der linksseitige Grenzwert existiert.

Beste Approximation Bearbeiten

Ist   eine Zufallsgröße auf einem Wahrscheinlichkeitsraum  , so beschreibt   die beste Approximation an   im Sinne der Minimierung von  , wobei a eine reelle Konstante ist. Dies folgt aus dem Satz über die beste Approximation, da

 

für alle konstanten   ist, wobei   das  -Standardnormalskalarprodukt bezeichne. Diese Auffassung des Erwartungswertes macht die Definition der Varianz als minimaler mittlerer quadratischer Abstand sinnvoll, siehe auch Fréchet-Prinzip.

Erwartungswerte von Funktionen von Zufallsvariablen Bearbeiten

Funktion einer Zufallsvariablen Bearbeiten

  sei eine stetige Zufallsvariable mit der Dichtefunktion  . Wenn   wieder eine Zufallsvariable ist, so kann der Erwartungswert von   auf zwei Arten bestimmt werden. Entweder kann über den Zusammenhang   die Wahrscheinlichkeitsverteilung von   bestimmt und dann die Definition des Erwartungswertes verwendet werde, oder aber – und dies ist häufig einfacher – es wird die Formel

 

verwendet. Dieser Erwartungswert ist endlich, falls

 

endlich ist.

Bei einer diskreten Zufallsvariablen   mit der Wahrscheinlichkeitsfunktion   wird die Summe

 

verwendet. Enthält die Summe unendlich viele Summanden, dann muss die Reihe absolut konvergieren, damit der Erwartungswert endlich ist.

Im allgemeinen Fall einer Zufallsvariablen   mit der Verteilungsfunktion   kann der Erwartungswert mit Hilfe des Lebesgue-Stieltjes-Integral als

 

bestimmt werden.   ist endlich, falls   endlich ist. Falls mindestens einer der nichtnegativen Erwartungswerte   und   endlich ist, ist   =  , anderenfalls ist   nicht definiert. Falls nicht nur endliche Erwartungswerte interessieren, müssen analoge Fallunterscheidungen auch für die Fälle einer stetigen oder diskreten Zufallsvariable vorgenommen werden, d. h. die positiven und die negativen Werte von   müssen getrennt ausgewertet werden.

Funktion von zwei Zufallsvariablen mit gemeinsamer Dichtefunktion Bearbeiten

Haben die integrierbaren Zufallsvariablen   und   eine gemeinsame Wahrscheinlichkeitsdichtefunktion  , so kann der Erwartungswert einer Funktion   von   und   nach dem Satz von Fubini, wenn dessen Voraussetzungen erfüllt sind, wenn also   endlich ist oder wenn   nichtnegativ ist, als

 

berechnet werden. Der Erwartungswert von   ist nur dann endlich, wenn das Integral

 

endlich ist.

Insbesondere ist:

 

Aus der Randdichte errechnet sich der Erwartungswert wie bei univariaten Verteilungen:

 

Dabei ist die Randdichte   gegeben durch

 

Verwandte Konzepte und Verallgemeinerungen Bearbeiten

Lageparameter Bearbeiten

Wird der Erwartungswert als Schwerpunkt der Verteilung einer Zufallsvariable aufgefasst, so handelt es sich um einen Lageparameter. Dieser gibt an, wo sich der Hauptteil der Verteilung befindet. Weitere Lageparameter sind

  1. der Modus: Der Modus gibt an, an welcher Stelle die Verteilung ein Maximum hat, sprich bei diskreten Zufallsvariablen die Ausprägung mit der größten Wahrscheinlichkeit und bei stetigen Zufallsvariable die Maximastellen der Dichtefunktion. Der Modus existiert zwar im Gegensatz zum Erwartungswert immer, muss aber nicht eindeutig sein. Beispiele für nichteindeutige Modi sind bimodale Verteilungen.
  2. der Median ist ein weiterer gebräuchlicher Lageparameter. Er gibt an, welcher Wert auf der x-Achse die Wahrscheinlichkeitsdichte so trennt, dass links und rechts des Medians jeweils die Hälfte der Wahrscheinlichkeit anzutreffen ist. Auch der Median existiert immer, muss aber (je nach Definition) nicht eindeutig sein.

Momente Bearbeiten

Wird der Erwartungswert als erstes Moment aufgefasst, so ist er eng verwandt mit den Momenten höherer Ordnung. Da diese wiederum durch den Erwartungswert in Verknüpfung mit einer Funktion   definiert werden, sind sie gleichsam ein Spezialfall. Einige der bekannten Momente sind:

  • Die Varianz: Zentriertes zweites Moment,  . Hierbei ist   der Erwartungswert.
  • Die Schiefe: Zentriertes drittes Moment, normiert auf die dritte Potenz der Standardabweichung  . Es ist  .
  • Die Wölbung: Zentriertes viertes Moment, normiert auf  . Es ist  .

Bedingter Erwartungswert Bearbeiten

Der bedingte Erwartungswert ist eine Verallgemeinerung des Erwartungswertes auf den Fall, dass gewisse Ausgänge des Zufallsexperiments bereits bekannt sind. Damit lassen sich bedingte Wahrscheinlichkeiten verallgemeinern und auch die bedingte Varianz definieren. Der bedingte Erwartungswert spielt eine wichtige Rolle in der Theorie der stochastischen Prozesse.

Quantenmechanischer Erwartungswert Bearbeiten

Ist   die Wellenfunktion eines Teilchens in einem bestimmten Zustand   und ist   ein Operator, so ist

 

der quantenmechanische Erwartungswert von   im Zustand  .   ist hierbei der Ortsraum, in dem sich das Teilchen bewegt,   ist die Dimension von  , und ein hochgestellter Stern steht für komplexe Konjugation.

Lässt sich   als formale Potenzreihe   schreiben (und das ist oft so), so wird die Formel verwendet

 

Der Index an der Erwartungswertsklammer wird nicht nur wie hier abgekürzt, sondern manchmal auch ganz weggelassen.

Beispiel

Der Erwartungswert des Aufenthaltsorts in Ortsdarstellung ist

 

Der Erwartungswert des Aufenthaltsorts in Impulsdarstellung ist

 

wobei wir die Wahrscheinlichkeitsdichtefunktion der Quantenmechanik im Ortsraum identifiziert haben.

Erwartungswert von Matrizen und Vektoren Bearbeiten

Sei   eine stochastische  -Matrix, mit den stochastischen Variablen   als Elementen, dann ist der Erwartungswert von   definiert als:

 .

Falls ein  -Zufallsvektor   vorliegt, gilt:

 .

Siehe auch Bearbeiten

Literatur Bearbeiten

Einzelnachweise Bearbeiten

  1. Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 7., überarbeitete und erweiterte Auflage. Vieweg + Teubner, Wiesbaden 2008, ISBN 978-3-8348-0423-5, S. 79.
  2. a b John Aldrich: Earliest Uses of Symbols in Probability and Statistics. 2014, (online).
  3. Baden-Württembergische Lehrerinnen verwenden die Schreibweise  .
  4. David Meintrup Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer, Berlin u. a. 2005, ISBN 3-540-21676-6.
  5. Eugen-Georg Woschni: Informationstechnik. Signal, System, Information. 2., bearbeitete Auflage. Verlag Technik, Berlin 1981.
  6. Siehe etwa (in deutscher Übersetzung) Albert N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. 91). Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 52 ff.
  7. Siehe Ilja N. Bronstein, Konstantin A. Semendjajew: Taschenbuch der Mathematik. 23. Auflage. Deutsch, Thun u. a. 1987, ISBN 3-87144-492-8. Der Operator wird hier kursiv gesetzt.
  8. Sheldon M. Ross: Introduction to probability models. 9. Auflage. Academic Press, Amsterdam u. a. 2007, ISBN 978-0-12-598062-3, S. 143.
  9. Helmut Wirths: Der Erwartungswert. Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In: Mathematik in der Schule. Band 33, Heft 6, 1995, S. 330–343.
  10. Roland Uhl: Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion. Technische Hochschule Brandenburg, 2023, S. 2–4, doi:10.25933/opus4-2986.
  11. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). 2. Auflage. Springer, Cham 2017, ISBN 978-3-319-52206-7, S. 128, Theorem 1.1, doi:10.1007/978-3-319-52207-4.