Definitionen der Wahrscheinlichkeit

Dem Artikel mangelt es meines Erachtens an einer Beschreibung der Definitionen von Wahrscheinlichkeit. Beispiele:

  • Wahrscheinlichkeit als Verhältnis der günstigen Ereignisse zur Gesamtmenge der unvereinbaren Ereignisse.
  • Wahrscheinlichkeit als Grenzwert der relativen Häufigkeit (eigentlich heute verworfen, aber im Artikel kann der Eindruck entstehen, relative Häufigkeit sei eine Form der Wahrscheinlichkeit).
  • Geometrischer Wahrscheinlichkeitsbegriff.
  • Axiomatischer Wahrscheinlichkeitsbegriff (Kolmogorov).

Möglicherweise gibt es noch mehr Definitionen. Die letzte ist für die heutige Mathematik sicher die entscheidende.


Ich würde anfügen: der Begriff Wahrscheinlichkeit scheint selten (oder gar nicht) isoliert definiert, sondern nur (wie im Artikel) als Gegensatz/im Bedeutungsfeld von Gewissheit.

Danach wird oft lediglich über die Operationalisierung dieses Denkkonzeptes gesprochen (mathematische Operationalisierung wie z.B. das Verhältnis von gewünschten zu möglichen Ereignissen)

Man sollte also eher anders herleiten, z.B. ein Denken, daß sich mit der Erscheinung von Ereignissen auseinandersetzt, z.B. im prognostischen Sinn, benötigt ein Konzept um seine Prognosequalität zu quantifizieren. Hier treten die (Denk-) Konzepte Wahrscheinlichkeit,Gewissheit,Unsicherheit auf. Heute haben wir hierüber einen ausgefeilten systematischen und verallgemeinerten Apparat entwickelt, den wir in den Disziplinen Logik, Mathematik, Statistik wiederfinden. Anderes Beispiel: "Rhythmus" kann nur im Zusammenhang der Musik (ok:Geräusche) definiert werden, und eine theoretische Befassung setzt zunächst den Rahmen der Musik voraus und dann die Wahrnehmung und Kristallisierung des Ablaufs Ton-Nichtton... Darauf bauen dann die entsprechenden weitergehenden Konzepte auf (z.B. Quantifizierungen wie Taktstile, Metronomgeschwindigkeiten etc)

Es wäre m.Mn. nach gut, diesen einen Aspekt genau so festzuhalten: der Mangel eines bezugs*freien* Begriffs.

Also z.B.

"Wahrscheinlichkeit ist ein spezielles Denkkonzept, das sich aus der geistigen
 Beschäftigung mit dem Auftreten von Ereignissen und davon abgeleitet aus 
 der Erwartbarkeit dieses Auftretens ergibt. 
 Es wird üblicherweise nur im Kontext von Gewissheit, Sicherheit,... beschrieben. 
 Verschiedene Operationalisierungen dieses Konzepts existieren, z.B. in der 
 mathematischen Form, in der Ungewißheit (bzw Wahrscheinlichkeit) des Auftretens
 eines Ereignisses quantifiziert wird (Anzahl der günstigen Ereignisse im Verhältnis
 zur Anzahl aller möglichen Ereignisse) oft mit dem Ziel, hieraus Prognosen abzuleiten(...) "

und dann die 4 oben stehenden Punkte

Gottfried Helms --Gottfried Helms 12:37, 1. Feb. 2007 (CET)

Konkrete Wahrscheinlichkeiten

Die Wahrscheinlichkeit bei einem idealen Würfel bei einem Wurf eine 6 zu erhalten beträgt 1/6 = 0,16666...
Das ist wohl kaum zu beweisen! Bei Tests hat sich gezeigt, dass einzelne Werte häufiger fallen, als andere, wobei natürlich nie mit (idealen) Würfeln gewürfelt werden kann. Man sollte das Ganze umformulieren. Oder gibt es Einwände, Beweise...?
Und, allgemein: Vorsicht mit konkreten Werten!--El surya 23:19, 31. Mai 2006 (CEST)

Das muss nicht bewiesen werden, denn das ist die Definition des idealen Würfels. Natürlich ist ein realer Würfel nie ideal, beispielsweise existiert bei ihm auch eine (wenngleich verschwindend geringe) Wahrscheinlichkeit, dass er auf der Kante liegenbleibt, und letztlich bedeuten auch schon die auf den Seiten aufgemalten Punkte eine Verletzung der Symmetrie.
Allerdings denke ich doch, dass ein guter realer Würfel recht gut an einen idealen Würfel herankommen kann. Zu beachten ist hierbei, dass auch bei einem idealen Würfel die Wahrscheinlichkeit, dass bei einer endlichen Zahl von Würfen alle sechs Zahlen exakt gleich häufig auftreten, ziemlich gering ist, und für wachsende Zahl von Würfen sogar gegen Null geht (mal abgesehen davon, dass eine solche exakte Übereinstimmung nur bei einer durch sechs teilbaren Anzahl von Würfen überhaupt möglich wäre). Sprich: Wenn man als Beweis für die Qualität eines Würfels eine Serie von sechs Millionen Würfen bekäme, und jede Zahl käme genau eine Million mal vor, dann sollte man das nicht als ein Indiz für einen guten Würfel, sondern als Indiz für eine gefälschte Versuchsreihe werten.
Richtig ist damit natürlich auch, dass es prinzipiell unmöglich ist, von einem Würfel mit absoluter Sicherheit nachzuweisen, dass er ideal ist (unabhängig davon, dass es keine idealen Würfel gibt). Aber das ist ohnehin klar: Jeder Würfel, bei dem jedes Einzelergebnis im Prinzip vorkommen kann, kann auch jede endliche Sequenz produzieren; nur ihre Wahrscheinlichkeit ist unterschiedlich. Das heißt, ein idealer Würfel kann auch sechs Millionen mal hintereinander eine Sechs würfeln, aber wenn man mit einem Würfel sechs Millionen Sechsen hintereinander würfelt, dann handelt es sich mit an Sicherheit grenzender Wahrscheinlichkeit um einen massiv gezinkten Würfel. --Ce 14:03, 2. Jun 2006 (CEST)

Fetter Text

Auftretenswahrscheinlichkeit

redirected hierher, wird aber nicht exakt definiert.. -- W!B: 03:09, 26. Nov. 2006 (CET)

Sichtweise

"Obwohl für beide Standpunkte dieselben mathematischen Regeln zum Umgang mit Wahrscheinlichkeiten gelten, hat die jeweilige Sichtweise wichtige Konsequenzen darüber, wie die Welt mathematisch modelliert wird."

Ich kann mir darunter nichts vorstellen und bitte daher um Erläuterung dieses Satzes. --80.142.14.111 16:36, 14. Dez. 2006 (CET)

Unabhängig oder nicht ?

Zwei Münzwürfe sind stochastisch unabhängig. Das Ergebnis des zweiten Wurfes ist also unabhängig vom Ergebnis des ersten. Beim ersten Münzwurf ist die Wahrscheinlichkeit von "Kopf" 1/2. Beim zweiten Wurf ist ist sie wieder 1/2. Die Wahrscheinlichkeit, 2mal hintereinander "Kopf" zu haben ist 1/4, oder ? Wenn ich soweit richtig liege, wie ist es dann, wenn ich definiere, dass "Kopf" gewinnt. Wenn ich dann beim ersten mal gewinne, sollte ich dann nochmal spielen, oder nicht ? Einerseits ist beim 2. mal die Wahrscheinlichkeit zu gewinnen ja wieder 1/2, andererseits ist die Wahrscheinlichkeit 2mal hintereinander zu gewinnen 1/4 ?! Ähnlich ist es bei mLotto spielen: Wenn ich jetzt beim Lotto etwas gewinne. Ist es dann für mich schwerer, nochmal zu gewinnen ? Sollte es ja eigentlich nicht, ich habe jedesmal die selbe Wahrscheinlichkeit, aber die Wahrscheinlichkeit, 2mal beim Lotto zu gewinnen ist doch geringer, oder ?! Ich kapier's nich ;) Wäre nett, wenn mir hier jemand vom Schlauch helfen könnte.

Wo ist Dein Problem - stimmt doch alles, was Du schreibst. Wenn Du mehrmals hintereinander auf "Kopf oder Zahl" wettest, ist die Wkt. zu gewinnen jedes einzelne Mal 1/2. Wettest Du jedoch, "zweimal hintereinander Kopf" zu werfen, ist die Wkt. zu gewinnen 1/4. Die Lottokugeln "merken" sich auch nicht, ob Du schonmal im Lotto gewonnen hast. Schlauch weg? --Arno Matthias 13:38, 6. Jan. 2007 (CET)
Leider noch nicht so ganz :(
besser vielleicht zu erklären mit einem "schlechteren" Beispiel: bei nem Würfel hab ich die Chance auf "Meine Zahl" 1/6. Ich tippe also auf 3 und habe eine 1/6 Chance, dass die 3 kommt. Wenn ich nun aber sage, ich würfel 2 mal, erst setze ich auf die 3, dann setze ich auf die 6, dann ist die chance dass beide Zahlen kommen ja nur noch 1/36. Wenn nun also beim ersten mal die 3 kommt, ist dann die Chance, beim zweiten mal zu gewinnen kleiner ? Eigentlich kann das ja nicht sein, aber ich verstehe nicht, wie VOR dem Würfeln die Chance schlechter sein kann, als nach dem ersten Wurf :(
Ich schlage vor, unseren Dialog auf meiner Diskussionsseite fortzuführen. --Arno Matthias 14:28, 8. Jan. 2007 (CET)

Quantenmechanik entfernt

Wahrscheinlichkeit, vom Blitz getroffen zu werden

Dieser oft zitierte Vergleich ist natürlich absolut blödsinnig, denn wie soll man die "Wahrscheinlichkeit vom Blitz erschlagen zu werden" berechnen? Zum Beispiel dürfte die relative Häufigkeit der Blitztoten bei Bauarbeitern höher liegen als bei Büroangestellten etc. Außerdem: welcher Zeitraum wird betrachtet? Ich habe den entsprechenden Absatz also gelöscht. Bitte ohne Quellenangaben nicht wieder einstellen --85.180.111.143 18:51, 23. Feb. 2007 (CET)

Ganz einfach: man kann für jeden beliebigen Zeitraum oder Berufsstand usw. die Zahl der vom Blitz Getroffenen ins Verhältnis setzen zu den nicht Getroffenen. Etwas derart Primitives muss nicht durch Quellen belegt werden. --Arno Matthias 19:19, 23. Feb. 2007 (CET)
So "Ganz einfach" ist das nun auch wieder nicht: Der SPIEGEL schrieb dazu:
"Der Blitztod ist wahrscheinlicher als der Gewinn des Jackpot. Die Wahrscheinlichkeit für sechs Richtige plus Superzahl liegt bei etwa 1 zu 140 Millionen. Pro Jahr werden in Deutschland zwei Leute vom Blitz getötet, bei etwa 80 Millionen Einwohnern liegt Ihr Risiko damit bei etwa 1 zu 40 Millionen."
Ganz ähnlich wird auf dieser Seite am Beispiel Österreich argumentiert. Leider hinken diese Angaben an einer wesentlichen Stelle: Während beim Blitzschlagrisiko der Zeitraum von einem Jahr einbezogen wird, legt man bei der Jackpotwahrscheinlichkeit nur eine einzige Ziehung zugrunde. Folglich ist ein zulässiger Vergleich nur denkbar wenn für den Jackpot der gleiche Zeitraum zugrunde gelegt wird. Bekanntlich kommt es in jedem Jahr zu mehreren Jackpots. Fraglich könnte nun die Definition sein: Ab wann ist ein Jackpot ein JACKPOT? Der Ehrlichkeit halber gibt es jedes Mal einen sog. Jackpot, wenn in der höchsten Gewinnklasse kein Gewinner ermitelt werden konnte und die Gewinnsumme deswegen der nächsten Ziehung zugeschlagen wird. Jährlich gibt es mindestens 52 Wochen und (in Deutschland) wöchentlich zwei Ziehungen, insgesamt jährlich mind. 104 Ziehungen. Wie oft nun ein Jackpot entsteht, dazu habe ich keine Statistik gefunden, aber das ist zu vernachlässigen. Da meist ohnehin mehrere den JP knacken, belassen wir im Beispiel bei jeder zweiten Ziehung, also 52 Mal pro Jahr.
Ergebnis: Ausgehend von der oben angenommenen Einwohnerzahl liegt die Wahrscheinlichkeit, in einem Jahr einen Jackpot zu knacken, bei ca. 1 zu 1.500.000.
Die Blitztotlegende lebt demnach nur von dem Fehler, die Wahrscheinlichkeit eines Jahreszeitraums mit der einer einzigen Ziehung zu vergleichen. Mich wundert nur, wieso sich der Unsinn solange am Leben hält.
Der oben ziemlich unhöflich attackierte User hat den Zeitraumeinwand folglich zu Recht erhoben.


Ergänzung: Auch die Anzahl der Tipp-Reihen beeinflußt die Gewinnwahrscheinlichkeit. Wer also ein Jahr lang jede Woche Mittwochs- und Samstagslotto spielt und dabei mit 10 Felder spielt, erzielt eine Wahrscheinlichkeit von etwa 1:135.000,in dem Jahr einen Jackpot zu knacken (immer noch ausreichend unwahrscheinlich). Diese Jahreswahrscheinlichkeit ist natürlich nur relevant für die Blitzschlagslegende, denn in der einzelnen Ziheung bleibt es natürlich bei 1:14.000.000 (bei 10 Feldern)

(nicht signierter Beitrag von 88.134.166.169 (Diskussion) 21:14, 2. Dez. 2007)

Einem unmöglichen Ereignis wird die Wahrscheinlichkeit 0 zugewiesen, einem sicheren Ereignis die Wahrscheinlichkeit 1. Dies gilt jedoch nur wenn die Anzahl aller Ereignisse nicht unendlich ist.

Der letzte Satz ist so nicht richtig. Einem unmöglichen Ereignis wird immer die Wahrscheinlichkeit 0 zugewiesen und einem sicheren Ereignis immer die Wahrscheinlichkeit 1. Anders ist es mit der Umkehrung: Ein Ereignis mit Wahrscheinlichkeit 0 ist nicht notwendig unmöglich. So ist z.B. die Wahrscheinlichkeit, bei einem zufälligen Wurf in ein Quadrat eine der Diagonalen zu treffen, gleich 0, aber dieses Ereignis ist nicht unmöglich. Solche Ereignisse heißen "fast unmöglich". Ebenso gibt es Ereignisse mit Wahrscheinlichkeit 1, die nicht sicher eintreffen müssen, diese heißen "fast sicher". Diese Umkehrung "P(Ereignis)=0 -> Ereignis ist unmöglich" bzw. "P(Ereignis)=1 -> Ereignis ist sicher" stimmt allerdings dann, wenn der zugrundeliegende Wahrscheinlichkeitsraum endlich ist. Habe das dementsprechend geändert. --Jesi 23:31, 22. Jul. 2007 (CEST)

Schreibweise

Überall in Wikipedia wir die Wahrscheinlickeit mit P (groß P) benannt, Ich lerne in der Schule das es p (klein p) ist.-- Sebssebi 21:07, 27. Apr. 2009 (CEST)

Dann hast Du schon einmal für Dich entdeckt, daß das nicht so einheitlich festgelegt ist. Ob dieser Buchstabe nun groß oder klein geschrieben wird ist im Prinzip auch kein Lernstoff, sondern eine Vereinbarung, die Euer Lehrer mit Euch getroffen hat. Wenn Du mal hier schaust, dann siehst Du, daß die Schreibung quer durch die Unis bzw. Gymnasien recht uneinheitlich ist. Wichtig ist nur, daß innerhalb eines Werkes die Schreibung einheitlich ist. -- Gustavf (Frage / Info) 07:18, 28. Apr. 2009 (CEST)

Der Redirect von "Likelihood"

Leider gibt es in der deutschen Wikipedia - im Gegensatz zur englischen - keinen Artikel über die sog. Likelihood-Funktion. Gibt man "likelihood" ein, wird man auf die Seite zur Wahrscheinlichkeit übergeleitet. Wahrscheinlichkeit und Likelihood sind aber keineswegs dasselbe.--Slow Phil 12:16, 3. Nov. 2009 (CET)

"Voraussetzung" wofür?

Im ersten Abschnitt (Laplace-Wahrscheinlichkeit) steht: ... Voraussetzung ist eine endliche Ergebnismenge und Kenntnis der A-priori-Wahrscheinlichkeiten. *Wofür* sind das denn Voraussetzungen? Zumindest a-priori-Wahrscheinlichkeiten muss man doch nicht kennen. Man kann Wahrscheinlichkeiten empirisch durch Messungen/Versuchsreihen ermitteln, z. B. die Zerfallswahrscheinlichkeit eines Radionuklids. Natürlich nur mit einer (rechnerisch abschätzbaren) Unsicherheit, weil man nur endlich viele Versuche machen kann. Bei einem (beliebig "unfairen") Würfel könnte man auf gleiche Weise die Wahrscheinlichkeiten der 6 möglichen Ergebnisse finden. --UvM 18:09, 30. Okt. 2010 (CEST)

Zur Berechnung der Wahrscheinlichkeit eines Ereignis  . Laplace braucht ja das Elementarereignisse immer die gleiche Wahrscheinlichkeit haben. Gibt man noch a priori Wahrscheinlichkeiten vor, dann kann man auch "unfaire" Münzen, Würfel etc. behandeln. Aber ich bezweifele, dass es klug wäre die Wahrscheinlichkeitdefinition nach von Mises zur Definition der a priori Wahrscheinlichkeiten heranzuziehen. Dann könnte man auch gleich die Wahrscheinlichkeitsdefinition für alle Ereignisse nach von Mises nutzen. --Sigbert 19:17, 31. Okt. 2010 (CET)

Einleitung

Der letzte Satz der Einleitung ist nicht sonderlich leicht zugänglich, vielleicht nimmt sich jemand mal dessen an.. Vorschlag: Aufteilung in 2 Sätze. ",deren formale Eigenschaften ..."= eigener Satz (nicht signierter Beitrag von Djano123 (Diskussion | Beiträge) 15:12, 25. Mär. 2013 (CET))


Da ich bei diversen Themen, die mit Warscheinlichkeiten zu tun haben, immer wieder zu hören bekomme, daß bei statistisch 1 Ereignis alle 10 Jahre man 9 Jahre lang nicht mit diesem Ereignis rechnen müsse, kann vielleicht mal jemand im Artikel einfügen, daß Warscheinlichkeitsangaben nichts über den Zeitpunkt des Eintretens aussagen? --92.226.181.245 01:09, 13. Sep. 2013 (CEST)

Ich verstehe, was du meinst, aber hmm, schwierig: Es lassen sich ja mitunter auch Wahrscheinlichkeitsaussagen über den Zeitpunkt machen, zu dem etwas eintritt. Ich bin mir auch nicht sicher, ob das in diesen Artikel gehört. Hast du vielleicht einen Vorschlag, was genau man an welcher Stelle ergänzen könnte? -- HilberTraum (Diskussion) 09:13, 13. Sep. 2013 (CEST)

Quantenmechanische Wahrscheinlichkeitsauffassung

In der nichtrelativistischen Quantenmechanik wird die Wellenfunktion eines Teilchens als seine fundamentale Beschreibung verwendet. Das Integral des Betragsquadrates der Wellenfunktion über ein Raumgebiet entspricht dort der Wahrscheinlichkeit, das Teilchen darin anzutreffen. Es handelt sich also nicht um eine bloß statistische, sondern um eine nicht-determinierte Wahrscheinlichkeit.

Der letzte Satz macht keinen Sinn. Die Wellenfunktion determiniert wie angegeben die Wahrscheinlichkeit das Teilchen im Raumgebiet anzutreffen. Nicht determiniert sind die Einzelereignisse, die jeweiligen Messungen, deren Gesamtheit eine Statistik ergibt. (nicht signierter Beitrag von 79.215.129.148 (Diskussion) 01:20, 5. Okt. 2013 (CEST))

Berechnung der Wahrscheinlichkeit

Hier stimmt etwas nicht:

"Die Wahrscheinlichkeit kann errechnet werden, indem man die absolute Häufigkeit, das heißt die Anzahl geglückter Versuche, durch die absolute Häufigkeit, das heißt die Anzahl der unternommenen Versuche, dividiert wird."

abs.H/abs.H=1 ???

Archivierung dieses Abschnittes wurde gewünscht von: UvM (Diskussion) 16:19, 30. Mär. 2020 (CEST)

Beim Lotto

stichprobenweise mal von drei Jahren die Zahlen mit ihren "Zwischenräumen" verglichen. Als Ergebnis bleibt festzuhalten, dass durchschnittlich zwischen den sechs Zahlen am häufigsten 36 Zahlen (von zwei Ausreißern abgesehen) lagen. Hat das was mit Wahrscheinlichkeit zu tun? mfG--Hopman44 (Diskussion) 20:48, 3. Mai 2019 (CEST)

Ja, eine schöne Aufgabe zur Wahrscheinlichkeitstheorie. Könnte man mal durchrechnen, wenn man Lust hat. -- HilberTraum (d, m) 22:20, 29. Mär. 2020 (CEST)

Laplace und Häufigkeitsprinzip

Ist die Laplace-Definition wirklich eine andere Wahrscheinlichkeits-"Auffassung" als das Häufigkreitsprinzip? Sie ist imho nur dessen Vereinfachung für den Fall nur endlich vieler, diskreter möglicher Versuchsausgänge (der berühnmte Würfel). Man braucht dann den Limesübergang nicht. Das Verhältnis "günstige"-zu-insgesamt-mögliche-Ergebnisse ist es so und so.
Wenn das stimmt, sollte der Abschnitt entsprechend geändert werden. --UvM (Diskussion) 18:58, 28. Mär. 2020 (CET)

Das sind aus „philosophischer Sicht“ schon sehr unterschiedliche Argumentationen: Nach der Laplace-Definition haben bei einer fairen Münze „Kopf“ und „Zahl“ die gleiche Wahrscheinlichkeit, weil die Münze symmetrisch ist und deshalb keine Seite bevorzugt ist. Nach dem Häufigkeitsprizip haben beide Seiten die gleiche Wahrscheinlichkeit, weil sie erfahrungsgemäß beim oft wiederholten Münzwurf ungefähr gleich oft auftreten. -- HilberTraum (d, m) 22:02, 29. Mär. 2020 (CEST)
Danke. Diese ganz verschiedenen Voraussetzungen waren mir beim Lesen nicht klar geworden. Ich werde versuchen, den Laplace-Unterabschnitt klarer zu formulieren. --UvM (Diskussion) 12:05, 30. Mär. 2020 (CEST)