Das Wartezeitparadoxon ist ein Paradoxon aus der Warteschlangentheorie, einem Teilgebiet der Wahrscheinlichkeitstheorie[1][2][3][4]. In der englischen Literatur wird es nach einem häufig verwendeten Beispiel auch hitchhiker’s paradox genannt (von engl. hitchhikerTramper/Anhalter).

Anschauliche Formulierung

Bearbeiten

Wenn Busse im Durchschnitt alle   Minuten fahren, erwartet man bei zufälliger Ankunftszeit an der Bushaltestelle intuitiv eine Wartezeit von   Minuten. Das ist jedoch nur korrekt, wenn die Busse genau alle   Minuten fahren. Je stärker die Abstände variieren, desto wahrscheinlicher fällt die eigene Ankunftszeit in ein längeres Intervall zwischen zwei Bussen statt in ein durchschnittliches oder kürzeres. Dadurch wird die zu erwartende Wartezeit länger.

 

Besonders deutlich wird dieser Effekt an einem vereinfachten Beispiel: Wenn sich die Busse abwechselnd   Minuten verfrühen und   Minuten verspäten, dann fahren immer zwei Busse gleichzeitig und zwischen diesen Abfahrten vergehen jeweils   Minuten ohne Bus. Die Intervalle sind also doppelt so lang wie im Fahrplan und entsprechend verdoppelt sich auch die mittlere Wartezeit auf   Minuten.

Mathematische Formulierung

Bearbeiten

Die Zufallsgrößen   der Abstände zwischen zwei Bussen seien unabhängig und gleich verteilt mit Erwartungswert   und Standardabweichung  . Die ersten   Busse brauchen dann  . Kommt man zwischen dem  -ten und  -ten Bus, so fällt die Wartezeit linear von   auf  . Der Erwartungswert der Wartezeit beträgt somit

 

Bildet man nun den Grenzwert  , so konvergiert der Zähler gegen   und der Nenner gegen  . Der Erwartungswert beträgt folglich:

 

Der Erwartungswert ist also stets größer als  , außer für  . Insbesondere kann der Erwartungswert unendlich werden, wenn  .

Beispiele

Bearbeiten
  • Kommen die Busse exakt im Abstand  , dann ist   und somit beträgt der Erwartungswert der Wartezeit  .
  • Kommen die Busse mit Wahrscheinlichkeit   im Abstand   und mit Wahrscheinlichkeit   im Abstand  , so ist   und  , somit ist der Erwartungswert der Wartezeit  .
  • Sind die Abstände gleichverteilt in  , so ist  . Also beträgt der Erwartungswert der Wartezeit  .
  • Sind die Abstände exponentialverteilt mit Parameter  , so ist  . Somit ist der Erwartungswert der Wartezeit  , d. h. obwohl die Busse im Durchschnitt alle   Minuten kommen, muss man trotzdem im Durchschnitt   Minuten warten! (Siehe Abschnitt Poisson-Prozess.)
  • Sind die Abstände   mit Wahrscheinlichkeit   für  , dann ist  , aber  . Also: Obwohl im Durchschnitt alle 4 Minuten ein Bus fährt ist der Erwartungswert der Wartezeit unendlich groß.

Poisson-Prozess

Bearbeiten

Oftmals wird das Wartezeitparadoxon nur für Poisson-Prozesse beschrieben, wo es eine natürlichere Erklärung für das Paradoxon gibt.

Beim Poisson-Prozess sind die Abstände zwischen zwei Zuwächsen exponentialverteilt (siehe Beispiel oben), also stimmt der Erwartungswert der Wartezeit mit dem Erwartungswert der Abstände überein. Dies liegt an der Homogenität des Poisson-Prozesses; mit anderen Worten: der Erwartungswert der Wartezeit ist unabhängig davon, wann der letzte Bus gefahren ist. Insbesondere bekommt man diesen Erwartungswert, wenn der Bus gerade abgefahren ist, und in diesem Augenblick ist die Wartezeit der Abstand zum nächsten Bus. Somit stimmen die Erwartungswerte überein.

Dieses Paradoxon gibt es auch im diskreten Modell, nämlich beim Würfeln. Im Durchschnitt muss man 6-mal würfeln, um eine Sechs zu bekommen. Es ist jedoch egal, wie oft man es schon versucht hat – man muss im Durchschnitt immer noch 6-mal würfeln.

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Ulrich Hedtstück: Simulation diskreter Prozesse - Methoden und Anwendungen, Springer-Verlag Berlin Heidelberg, 2013, S. 178
  2. Dieter Baum: Grundlagen der Warteschlangentheorie, Springer-Verlag Berlin Heidelberg, 2013, S. 384
  3. Alexander Herzog: Simulation mit dem Warteschlangensimulator - Modellierung und Simulation von Produktions- und Logistikprozessen, Springer-Verlag Berlin Heidelberg, 2021, S. 191
  4. Hans-Otto Georgii: Stochastik - Einführung in die Wahrscheinlichkeitstheorie und Statistik, 2., bearbeitete Auflage, Walter de Gruyter, 2004, S. 100