Diskussion:Bedingte Entropie

Letzter Kommentar: vor 3 Jahren von 87.163.206.228 in Abschnitt Negative Wahrscheinlichkeit?

Unverständlich Bearbeiten

rho: Reichlich unverständlich dieser Beitrag: Es fehlen Beispiele mit Berechnung der Entropie, es fehlen Literaturhinweise und Links. Jemand, der noch nichts über das Thema weiß , ist nach Lektüre des Beitrages auch nicht viel schlauer.

Der Artikel ist komplett unverständlich (nicht allgemeinverständlich) geschrieben. Was ist die "Unsicherheit über den Wert"? Kann man ein kurzes, verständlcihes Beispiel formulieren? --source 10:51, 4. Dez. 2008 (CET)Beantworten
Nimm an Du würfelst, sieht Dir aber das Ergebnis nicht an. Stattdessen stellst Du nur fest ob das Ergebnis gerade oder ungerade ist. Damit ist die "Unsicherheit" über das Ergebnis jetzt kleiner als zuvor (aber noch nicht Null). Mit anderen Worten, die Entropie des Würfelns   ist  , die Entropie des Würfeln einer geraden oder ungeraden Zahl,  , ist  . Daher ist die Entropie des Würfelns   bedingt auf das Eintreten eines geraden oder ungeraden Ergebnisses   nur noch  . Das Beispiel ist natürlich insofern etwas zu einfach, weil   vollständig durch   bestimmt ist (also  ), aber ich hoffe so ist es zumindest verständlich. Ich habe mir die Beispiele im Artikel nicht angesehen, aber wenn das hier hilft, kannst man gerne in den Artikel einbauen. --Drizzd 22:50, 5. Dez. 2008 (CET)Beantworten
Die Einleitung ist jetzt in Ordnung. Weitere konkrete Kritik, sowie eine Antwort auf das vorgeschlagene Beispiel fehlt seit 1 1/2 Monaten, deswegen habe ich den für mich nicht nachvollziehbaren Unverständlich-Baustein entfernt. --Klara 16:28, 24. Jan. 2009 (CET)Beantworten

Negative Wahrscheinlichkeit? Bearbeiten

<quote>  soll jedes Element von   mit nicht negativer Wahrscheinlichkeit annehmen. </quote> wie soll die Wahrscheinlichkeit auch negativ werden? Ist es nicht einer der Axiome der Wahrscheinlichkeitsrechnung, dass die Wahrscheinlichkeit nicht negativ ist? (nicht signierter Beitrag von 85.178.68.124 (Diskussion) 12:15, 16. Okt. 2011 (CEST)) Beantworten

Berechtigter Hinweis und sehr erstaunlich, dass dies seit 2011 nicht korrigiert wurde. Der ursprüngliche Autor meinte sicher "mit positiver Wahrscheinlichkeit", dies macht das Rechnen leichter, ist aber eine unnötige Einschränkung. In der Stochastik und Informationstheorie ist die Konvention   Standard, die fraglichen Terme können also einfach weggelassen werden. Definiert man die Entropie - etwas umständlich - als   (mit der Wahrscheinlichkeitsfunktion   und dem Wahrscheinlichkeitsmaß  ), so ergibt sich diese Sichtweise sogar bereits aus der Maßtheorie.
Liebe Grüße -- 2A02:8109:A7BF:E964:215:AFFF:FED0:2F4C 19:52, 21. Dez. 2016 (CET)Beantworten
  ist keine Konvention, sondern kann streng bewiesen werden. Die Aussage ist daher irreführend. (nicht signierter Beitrag von 87.163.206.228 (Diskussion) 13:34, 9. Nov. 2020 (CET))Beantworten