Diskussion:Fisher-Information

Letzter Kommentar: vor 6 Monaten von Sigma^2 in Abschnitt Rezension
Zum Archiv
Wie wird ein Archiv angelegt?
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 7 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.

Rezension Bearbeiten

Einleitung Bearbeiten

Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik und der Informationstheorie, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert. Die Rolle der Fisher-Information in der asymptotischen Theorie der Maximum-Likelihood-Schätzung wurde von dem Statistiker R. A. Fisher betont (nach anfänglichen Ergebnisse von FY Edgeworth). Die Fisher-Information wird auch in die Berechnung der Priorverteilungen, verwendet, welches ein Teil der Bayes-Statistik darstellt. Die Fisher-Information Matrix wird verwendet, um die Kovarianzmatrizen assoziiert mit der Maximum-Likelihood-Schätzungen zu berechnen. Es kann auch bei der Formulierung von Teststatistiken, wie der Wald-Test verwendet werden.

So lautet die Einleitung des Wikipedia Artikels über die Fisher-Information, oder so würde sie lauten, wenn diese vollständig dargestellt worden wäre. Leider gibt die dargestellte Einleitung nur wenig Information über das Thema und beschränkt sich auf einen Satz. Zwar gibt dieser Einleitungssatz eine sehr grobe Idee darüber, was die Fisher-Information ist, jedoch ist das bei weitem nicht genug, denn wenn jemand sich mit diesem Thema befasst, so besteht eine große Wahrscheinlichkeit, dass er schon darüber Bescheid weiß, dass es eine Kenngröße aus der Statistik und Informationstheorie ist und dass es Aussagen über die Qualität von Parameterschätzugen in einem Modell liefert.

Übernommen biggerj1 (Diskussion) 22:40, 17. Okt. 2021 (CEST)Beantworten

Definition Bearbeiten

Falls das zu Grunde liegende Modell aus einer Familie   von Wahrscheinlichkeitsdichten   mit unbekanntem Parameter   besteht, so ist die Fisher-Information für Zufallsvariablen   definiert als

 ,

mit   dem Erwartungswert.

Das ist die Allgemeine Definition, die in diesem Artikel gegeben ist und auch die Formel, die die Fisher-Information im ganzen beschreiben kann. Für Leute, die sich schon mit diesem Thema befasst haben, würde diese Formal wahrscheinlich ausreichen, jedoch ist nicht jeder Leser ein begabter Statistiker und aus diesem Grunde muss man sagen, dass diese Definition etwas mager an Worten ist. Sowohl eine Erklärung der Variablen, als auch eine Definition in Worten wäre an dieser Stelle wünschenswert, in etwa Die Fisher-Information ist eine Methode zur Messung der Menge an Informationen, welche eine beobachtbare Zufallsvariable X mit sich führt mit einen unbekannten Parameter θ, von welchem die Wahrscheinlichkeit von X abhängt.

Wenn es wenigstens so ähnlich im Artikel stünde, hätte man eine Chance, es zu verstehen. Jetzt stehen dort Erwartungswerte und es ist völlig unklar, auch welche Zufallsvariablen mit welchen Verteilungen sich die Bildung der Erwartungswerte und Varianzen bezieht. Offensichtlich wurde der Artikel durch Überarbeitungen verschlechtert.--Sigma^2 (Diskussion) 12:38, 26. Okt. 2023 (CEST)Beantworten

Sonderfälle Bearbeiten

Weiterhin wäre es schön, wenn abgewandelte Funktionen und Sonderfälle hier erwähnt wären, wie z.B. die Funktion, wenn   zwei mal nach θ ableitbar wäre, welches dann folgende Funktion ergeben würde,

 ,

oder eine Darstellung als Matrix und das Bernoulli-Experiment.

Anwendungen Bearbeiten

Die Anwendungen sind zwar wieder gegeben, aber wieder nur in Zahlen und Formeln. Auch hier wäre eine „einfachere“ Version auch nicht falsch, wie z.B. Anwendungsgebiete wie die Bayessche Statistik, und da die Fisher-Information oft in Experimenten benutzt wird, vielleicht auch einige experimentelle Designs erklären.

Fazit Bearbeiten

Was allerdings gut ist, ist dass eine Formel für die Erweiterung auf höhere Dimensionen gegeben ist, wobei auch hier ein bisschen mehr Text als Erklären geholfen hätte. Geschichtliches kann man in diesem Artikel nicht finden. Zwar bin ich damit einverstanden, dass das ein Artikel über die Benutzung der Fisher-Information ist, jedoch gibt es Leute, die diesem Artikel nur lesen, um mehr über diese Methode zu erfahren und nicht, weil sie diese ausgiebig benutzen wollen.

Im Grunde genommen ist die Information, die in diesem Artikel über die Fisher-Information gegeben ist, solide, aber nur aus einem mathematischen Blickwinkel. Viele Formeln können einem geübten Mathematiker helfen, aber ein Leser, der neu in diesem Thema ist, oder einfach mehr über dieses Thema erfahren möchte, wird enttäuscht sein, dass er nur wenig Information mitnehmen kann. Zusammengefasst, ein mathematischer Artikel, der ein bisschen mehr Text vertragen könnte, um allen Lesern das Selbe bieten zu können.

--Spuppe 10:03, 10. Jan. 2012 (CET)Beantworten

Kommentar (2023) Bearbeiten

Seit dieser Besprechung wurde der Artikel wohl sehr verschlechtert. Dieser ist nicht mathematisch solide. Die Notation ist unscharf. Mit   ist teils die Ergebnismenge des Wahrscheinlichkeitsraums, teils eine Zufallsvariable bezeichnet. Die Stichprobenvariablen, in deren Kontext die Fisher-Information relevant ist, fehlen völlig. --Sigma^2 (Diskussion) 12:47, 26. Okt. 2023 (CEST)Beantworten