Markow-Ungleichung (Stochastik)

Die Markow-Ungleichung,[1] auch Markow'sche Ungleichung[2] oder Ungleichung von Markow[3] genannt, ist eine Ungleichung in der Stochastik, einem Teilgebiet der Mathematik. Sie ist nach Andrei Andrejewitsch Markow benannt. Sein Name und der der Ungleichung ist in der Literatur auch in den Schreibungen Markoff[4] oder Markov[5] zu finden. Die Ungleichung gibt eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable eine vorgegebene reelle Zahl überschreitet.

SatzBearbeiten

Es seien   ein Wahrscheinlichkeitsraum,   eine reellwertige Zufallsvariable,   eine reelle Konstante und ferner   eine monoton wachsende Funktion gegeben. Die Definitionsmenge   von   enthalte außerdem die Bildmenge von  . Die allgemeine Markow-Ungleichung besagt dann:

 

was man für   zu

 

umschreiben kann.

BeweisBearbeiten

Sei   die Indikatorfunktion der Menge  . Dann gilt:

 

VariantenBearbeiten

  • Setzt man   für   und betrachtet die reelle Zufallsvariable  , so erhält man für   den bekannten Spezialfall der Markow-Ungleichung
 
Wie man diese Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächen­vergleich folgern und dann daraus eine Version der Ungleichung von Tschebyschew herleiten kann, findet man in[6].
  • Betrachtet man   für ein  , so folgt der bekannte Spezialfall der Markow-Ungleichung, welcher die Wahrscheinlichkeit für das  -fache Übertreffen des Erwartungswertes begrenzt:
 
  • Ist   und wendet man die Markow-Ungleichung auf eine Zufallsvariable   an, so erhält man für   eine Version der Tschebyscheff-Ungleichung:
 
  • Für beschränkte Zufallsvariablen existiert die folgende Markow-artige Schranke für die Wahrscheinlichkeit, dass eine Zufallsvariable ihren Erwartungswert um den Faktor   unterbietet. D.h., seien   und sei   eine Zufallsvariable mit   und  . Dann gilt für alle  :
 
Der Beweis dieser Aussage ist ähnlich dem Beweis der Markow-Ungleichung.[7]
  • Wählt man  , erhält man für geeignetes   eine sehr gute Abschätzung, siehe auch Chernoff-Ungleichung. Man kann zeigen, dass diese Abschätzung unter gewissen Voraussetzungen sogar optimal ist.

EinzelnachweiseBearbeiten

  1. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 121–122, doi:10.1515/9783110215274.
  2. Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 110, doi:10.1007/978-3-642-36018-3.
  3. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, S. 119, doi:10.1007/978-3-642-21026-6.
  4. Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, S. 210, doi:10.1007/978-3-642-45387-8.
  5. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 121–122, doi:10.1515/9783110215274.
  6. H. Wirths: Der Erwartungswert – Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In: Mathematik in der Schule 1995/Heft 6, S. 330–343.
  7. Piotr Indyk, Sublinear Time Algorithms for Metric Space Problems. Proceedings of the 31st Symposium on Theory of Computing (STOC'99), 428–434, 1999.