Devianz (Statistik)

Maß für die Bewertung der Anpassungsgüte von Schätzungen statistischen Modellen

In der Statistik ist die Devianz (Abweichung vom Idealwert) ein zentrales Maß für die Bewertung der Anpassungsgüte von Schätzungen statistischen Modellen und wird oft beim Testen von Hypothesen verwendet. Die Devianz vergleicht die Log-Likelihood eines Modells mit einem gesättigten Modell (welches perfekt an die Daten angepasst ist).

Bei linearen Regressionsmodellen, deren Parameter mit der Methode der kleinsten Quadrate bestimmt werden, entspricht die Devianz der Summe der Abweichungsquadrate (SQ). Sie ist eine Verallgemeinerung des Konzepts der Residuenquadratsumme in der KQ-Regression auf Fälle, in denen die Modellanpassung durch eine Maximum-Likelihood-Schätzung erfolgt. Daher spielt die Devianz eine große Rolle in verallgemeinerten linearen Modellen.

Begriffsherkunft

Bearbeiten

Der Begriff Devianz (von lateinisch deviare, französisch dévier, deutsch abweichen) hat seinen Ursprung in der Soziologie und bezeichnet dort die Abweichung von allgemeinen Normen und Wertvorstellungen.[1]

Definition

Bearbeiten

Die Devianz ist eine Statistik, die verwendet wird, um angeben zu können, wie stark die Anpassung eines gerade betrachteten Modells von dem Modell abweicht, das eine perfekte Anpassung an die Daten liefert – einem sogenannten gesättigten Modell. Das gesättigte Modell erlaubt unterschiedliche Regressionsparameter für jedes Individuum. Die Devianz ist gegeben durch

 ,

wobei   die maximierte partielle Likelihoodfunktion (auch Plausibilitätsfunktion genannt) unter dem aktuellen Modell und   die maximierte partielle Likelihoodfunktion unter dem gesättigten Modell (dem Modell, in dem genauso viele Parameter wie Beobachtungspaare auftreten) ist. Unter Verwendung der Logarithmengesetze lässt sich die Devianz auch mithilfe eines Likelihood-Quotienten bzw. Plausibilitätsquotienten ausdrücken.[1]

 

Der Vorfaktor   ist notwendig, um eine Größe zu erhalten, die eine bekannte Verteilung besitzt und daher für Hypothesentests verwendet werden kann. Je kleiner der Wert der Devianz  , desto besser das Modell. Für das gesättigte Modell ist die Devianz  . Die Devianz kann als eine Verallgemeinerung der Residuenquadratsumme, die bei normalverteilten Daten verwendet wird (siehe Klassisches lineares Modell der Normalregression), aufgefasst werden – hin zur Analyse von nicht normalverteilten Daten in verallgemeinerten linearen Modellen. Zu beachten ist, dass ein Unterschied in der Devianz zwischen zwei alternativen Modellen dem Unterschied im Wert der Statistik   entspricht.[2]

Eigenschaften

Bearbeiten

Betrachtet man zwei statistische Modelle mit Likelihood-Funktionen   für   und den Kullback-Leibler-Divergenzen

 

mit  , so ist die Differenz der Kullback-Leibler-Divergenzen

 

welche als Erwartungswert der Differenz zweier Devianzen ausgedrückt werden kann[3]:

 

wobei der Index der Devianz das entsprechende Modell identifiziert.

Verwendung

Bearbeiten

Die Devianz wird von McFadden zur Definition eines Pseudo-Bestimmtheitsmaßes benutzt:

 

Siehe auch

Bearbeiten

Literatur

Bearbeiten
Bearbeiten

Einzelnachweise

Bearbeiten
  1. a b Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S. 834.
  2. David Collett: Modelling survival data in medical research. Chapman and Hall / CRC Texts in Statistical Science, 2015. S. 154 ff.
  3. Trevor Hastie: A closer look at the deviance. In: The American Statistician. Band 41, Nr. 1, 1987, S. 16–20, doi:10.1080/00031305.1987.10475434 (Beachte die um einen Faktor 2 modifizierte Definition der Kullback-Leibler-Divergenz).