Likelihood-Funktion

mathematische Funktion

Die Likelihood-Funktion (oft einfach nur Likelihood), gelegentlich auch Plausibilitätsfunktion oder Mutmaßlichkeitsfunktion genannt,[1] ist eine spezielle reellwertige Funktion in der mathematischen Statistik, die aus einer Wahrscheinlichkeitsdichtefunktion oder einer Zähldichte gewonnen wird, indem man einen Parameter der Dichte als Variable behandelt. Zentrale Verwendung der Likelihood-Funktion ist die Konstruktion von Schätzfunktionen durch die Maximum-Likelihood-Methode. Zudem werden aus ihr weitere Funktionen wie die Log-Likelihood-Funktion und die Score-Funktion abgeleitet, die beispielsweise als Hilfsfunktionen bei der Maximum-Likelihood-Methode oder zur Konstruktion von Optimalitätskriterien in der Schätztheorie verwendet werden.

Das Konzept stammt aus den 1920er Jahren von Ronald Aylmer Fisher,[2][3] der glaubte, es sei ein in sich geschlossenes Rahmenwerk für statistische Modellierung und Inferenz. Später führten George Alfred Barnard und Allan Birnbaum eine wissenschaftliche Schule an, die das Plausibilitätsprinzip vertrat, das postulierte, dass alle relevanten Informationen für die statistische Inferenz in der Likelihood-Funktion enthalten sind.

Definition Bearbeiten

Gegeben sei eine Wahrscheinlichkeitsdichtefunktion oder eine Zähldichte

 ,

welche noch zusätzlich von einem oder mehreren Parametern   aus einer Parametermenge   abhängt. Es ist also  . Dann heißt die Funktion

 ,

die durch

 

definiert wird, die Likelihood-Funktion.[4][5] Die Dichtefunktion wird somit zur Likelihood-Funktion, indem man den Parameter   als Variable auffasst und die Variable   als Parameter behandelt. Wird ein konkretes   fixiert, so nennt man auch   die Likelihood-Funktion zum Beobachtungswert  .[1] Im Falle einer Zähldichte gibt   somit die Wahrscheinlichkeit von   bei gegebenem Parameter   an.

Beispiele Bearbeiten

Wahrscheinlichkeitsdichte Bearbeiten

Betrachtet man   unabhängig und identisch normalverteilte Zufallsvariablen   mit unbekanntem Erwartungswert   und unbekannter Varianz  , so besitzt   aufgrund der Unabhängigkeitsannahme die Wahrscheinlichkeitsdichtefunktion

 

Somit ist der Parameter gegeben als   und stammt aus der Parametermenge  . Folglich ist die Likelihood-Funktion

 ,

sie stimmt also mit der Dichtefunktion überein, mit dem Unterschied, dass   und   die Variablen sind und   als Parameter behandelt wird. Für korrelierte Zufallsvariablen erhält man die Likelihood-Funktion nicht als einfaches Produkt und sie muss anders als oben dargestellt berechnet werden[6].

Setzt man   und  , so ist die Likelihood-Funktion unter Annahme von Unabhängigkeit zum Beobachtungswert  

 .

Zähldichte Bearbeiten

Ist   eine zum Parameter   binomialverteilte Zufallsvariable bei fixiertem  , also

 ,

so besitzt sie die Zähldichte

 

für  . Folglich ist die Likelihood-Funktion von der Form

 

mit   und  . Die Likelihood-Funktion zum Beobachtungswert   ist dann gegeben durch

 .

Verwendung Bearbeiten

Hauptverwendung findet die Likelihood-Funktion bei der Maximum-Likelihood-Methode, einer intuitiv gut zugänglichen Schätzmethode zur Schätzung eines unbekannten Parameters  . Dabei geht man bei einem Beobachtungsergebnis   davon aus, dass dieses ein „typisches“ Beobachtungsergebnis ist in dem Sinne, dass es sehr wahrscheinlich ist, solch ein Ergebnis zu erhalten. Die Wahrscheinlichkeit dafür,   zu erhalten hängt von der Wahrscheinlichkeitsdichtefunktion   und damit auch von   ab. Daher gibt man als Schätzung für den unbekannten Parameter denjenigen Parameter   an, für den die Wahrscheinlichkeit des Eintretens von   maximal ist. Dafür betrachtet man die Likelihood-Funktion zum Beobachtungswert   und sucht ein  , so dass

 .

Dies entspricht der Bestimmung einer Maximalstelle der Likelihood-Funktion, welche meist durch Nullsetzen der Ableitung bestimmt wird:

 .

Ist diese Gleichung schwer zu lösen, bietet sich die Log-Likelihood-Funktion als Hilfsmittel an.

Aufbauende Begriffe Bearbeiten

Log-Likelihood-Funktion Bearbeiten

Definition Bearbeiten

Die Log-Likelihood-Funktion (auch logarithmische Plausibilitätsfunktion genannt[7])   ist definiert als der (natürliche) Logarithmus aus der Likelihood-Funktion,[5] also (beachte Kalligrafie in der Formel)

 .

Teils wird die Log-Likelihood-Funktion auch mit   oder   bezeichnet.[8]

Beispiele Bearbeiten

Aufbauend auf den obigen beiden Beispielen für die Likelihood-Funktion gilt im Falle der unabhängig und identisch normalverteilten Zufallsvariablen für die Log-Likelihood-Funktion

 .

Im Falle der Binomialverteilung gilt für die Log-Likelihood-Funktion

 .

Beides folgt aus den Rechenregeln für den Logarithmus (siehe Logarithmengesetze).

Eigenschaften Bearbeiten

Da der Logarithmus eine streng monoton wachsende Funktion ist, ist jedes Minimum der Log-Likelihood-Funktion auch ein Minimum der Likelihood-Funktion. Ebenso ist jedes Maximum der Log-Likelihood-Funktion auch ein Maximum der Likelihood-Funktion.

Außerdem ist die Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen additiv. Das bedeutet, dass wenn   unabhängig und identisch verteilte Zufallsvariablen mit Dichte   und Log-Likelihood-Funktion   sind, so besitzt   die Log-Likelihood-Funktion

 .

Dies folgt direkt aus der Tatsache, dass die Dichten von   als Produkt gebildet werden, und den Rechenregeln des Logarithmus.

Verwendung Bearbeiten

Da die Log-Likelihood-Funktion dieselben Maximalstellen besitzt wie die Likelihood-Funktion, ist sie ein gängiges Hilfsmittel zur Lösung der Gleichung

 ,

welche bei der Maximum-Likelihood-Methode anfällt. Anstelle dieser Gleichung wird dann die Gleichung

 

gelöst. Insbesondere die Additivität der Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen erleichtert das Lösen der Gleichung in vielen Fällen.

Score-Funktion Bearbeiten

Definition Bearbeiten

In einparametrigen Modellen definiert man die Score-Funktion als erste Ableitung der Log-Likelihood-Funktion[9]

 

Sie ist also die logarithmische Ableitung der Likelihood-Funktion. Die Score-Funktion gibt die Steigung der Log-Likelihood-Funktion an der jeweiligen Stelle an und muss nicht immer existieren. Sie taucht ebenfalls bei der Fisher-Information auf.

Beispiel Bearbeiten

Für die Binomialverteilung wurde oben bereits gezeigt, dass die Likelihood-Funktion von der Form

 

ist. Daher ist

 .

Leitet man diese Funktion nach   ab, so fällt der erste Term als Konstante weg und mit den Ableiteregeln für den Logarithmus (siehe Ableitung und Integral) folgt

 

für die Score-Funktion.

Verteilung Bearbeiten

Die Score-Funktion ist asymptotisch normalverteilt mit Erwartungswert Null und Varianz als Erwartungswert der Fisher-Information   (auch Erwartete Fisher-Information genannt):[10]

  bzw.  .

Pseudo-Likelihood-Funktion Bearbeiten

Für die Lösung des Maximum-Likelihood-Problems ist nur das Auffinden des Maximums der Likelihood-Funktion von Belang. Dies ist einer der Gründe, warum die Maximum-Likelihood-Methode oft auch funktioniert, obwohl die Voraussetzungen nicht erfüllt sind. In den folgenden Fällen spricht man von einer Pseudo-Likelihood-Funktion:

  • die Verteilungsvoraussetzungen für die Maximum-Likelihood-Methode sind nicht erfüllt: Man nennt dann die Likelihood-Funktion eine Pseudo-Likelihood-Funktion und
  • die eigentliche Likelihood-Funktion oder Log-Likelihood-Funktion ist zu schwierig zu maximieren und wird z. B. durch eine geglättete Version ersetzt und diese Pseudo-Likelihood-Funktion wird dann maximiert.

Kern der Likelihood-Funktion Bearbeiten

Den Kern der Likelihood-Funktion (Kern der Plausibilitätsfunktion) erhält man aus der Likelihood-Funktion, indem man alle multiplikativen Konstanten vernachlässigt. Für gewöhnlich wird mit   sowohl die Likelihood-Funktion als auch deren Kern bezeichnet. Die Verwendung der Log-Likelihood-Funktion   ist häufig numerisch sinnvoll. Multiplikative Konstanten in   wandeln sich dann in additive Konstanten in  , die wiederum häufig ignoriert werden können. Eine Log-Likelihood-Funktion ohne additive Konstanten wird Kern der Log-Likelihood-Funktion genannt. Auch hier wird gewöhnlich mit   sowohl die Log-Likelihood-Funktion als auch deren Kern bezeichnet.[11] Beispielsweise wäre der Kern der Log-Likelihood-Funktion einer Normalverteilung mit unbekanntem Erwartungswert   und bekannter Varianz  :[12]

 .

Siehe auch Bearbeiten

Einzelnachweise Bearbeiten

  1. a b Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 203, doi:10.1515/9783110215274.
  2. Fisher, On the "probable error" of a coefficient of correlation deduced from a small sample, Metron, Band 1, 1921, S. 3–32.
  3. Fisher, On the mathematical foundations of theoretical statistics, Philosophical Transactions of the Royal Society A, Band 222, 1922, S. 309–368.
  4. Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 162, doi:10.1007/978-3-642-41997-3.
  5. a b Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, S. 62, doi:10.1007/978-3-663-09885-0.
  6. Joseph L. Neuringer, Alan Kaplan: Maximum likelihood equations for a correlated multivariate normal distribution. In: International Journal of Mathematical Education in Science and Technology. Band 14, Nr. 4, 1. Juli 1983, ISSN 0020-739X, S. 441–444, doi:10.1080/0020739830140408.
  7. Reinhard Viertl: "Einführung in die Stochastik: mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten." Springer-Verlag, 2013, S. 110.
  8. Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 85, doi:10.1007/978-3-642-17261-8.
  9. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 201, doi:10.1515/9783110215274.
  10. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 87.
  11. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 15.
  12. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 27. ff.