Die Anpassungsgüte oder Güte der Anpassung (englisch goodness of fit) gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten Zufallsvariablen, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.

Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe statistischer Tests oder geeigneter Kennzahlen beurteilt werden.[1]

Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf Normalität in den Residuen zu testen, um zu prüfen, ob zwei Stichproben aus Grundgesamtheiten mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch Pearsons Chi-Quadrat-Test).

Regressionsanalyse Bearbeiten

Lineare Regression Bearbeiten

Bei linearer Regression gibt es das Bestimmtheitsmaß  . Das Bestimmtheitsmaß   misst, wie gut die Messwerte zu einem Regressionsmodell passen (Anpassungsgüte). Es ist definiert als der Anteil der „erklärten Variation“ an der „Gesamtvariation“ und liegt daher zwischen:

  •   (oder  ): kein linearer Zusammenhang und
  •   (oder  ): perfekter linearer Zusammenhang.

Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist  , dann besteht das „bestelineare Regressionsmodell nur aus dem Achsenabschnitt  , während   ist. Je näher der Wert des Bestimmtheitsmaß an   liegt, desto besser erklärt die Regressionsgerade das wahre Modell. Ist  , dann lässt sich die abhängige Variable   vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte   alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer.

Klassifikation Bearbeiten

Anpassungstests Bearbeiten

Ein Anpassungstest (englisch goodness-of-fit test) ist in der schließenden Statistik ein nichtparametrischer Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt. Häufig wird dies durch asymptotische Betrachtungen der empirischen Verteilungsfunktion realisiert (siehe auch Satz von Glivenko-Cantelli). Bekannte Anpassungstests sind zum Beispiel:[2]

Beispiel Bearbeiten

Beim Pearson-Chi-Quadrat-Test ist die Chi-Quadrat-Statistik, auch Chi-Quadrat-Summe genannt (englisch goodness of fit statistic) die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:

 
  = Anzahl der Beobachtungen von Typ  
  = Gesamtanzahl der Beobachtungen
  = Erwartete Häufigkeit von Typ  
  = Anzahl der Zellen in der Tabelle

Das Ergebnis kann mit der Chi-Quadrat-Verteilung verglichen werden, um die Anpassungsgüte zu bestimmen.

Anpassungsmaße bei Strukturgleichungsmodellen Bearbeiten

Bei der Strukturgleichungsmodellierung haben sich verschiedene Kriterien zur Bewertung der Anpassungsgüte etabliert:

  • Chi-Quadrat-Wert
  • Anpassungsgüteindex (engl. goodness-of-fit index, kurz: GFI)
  • Bereinigter Anpassungsgüteindex (engl. adjusted goodness-of-fit index, kurz: AGFI)
  • Komparativer Anpassungsindex (engl. comparative fit index, kurz: CFI)
  • Normierter Anpassungsindex (engl. normed fit index, kurz: NFI)
  • Quadratwurzel des mittleren Approximationsfehlerquadrats (engl. root mean square error of approximation, kurz: RMSEA)
  • Standardisierte Quadratwurzel des mittleren Residuenquadrats (engl. standardized root mean square residual, kurz: SRMR)

Einzelnachweise Bearbeiten

  1. Bernd Rönz, Hans G. Strohe (1994), Lexikon Statistik, Gabler Verlag
  2. Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S. 470