Anpassungsgüte

Die Anpassungsgüte oder Anpassung (engl. goodness of fit) gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten Zufallsvariablen, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.

Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe statistischer Tests oder geeigneter Kennzahlen beurteilt werden.

Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf Normalität in den Residuen zu testen, um zu prüfen, ob zwei Stichproben aus Grundgesamtheiten mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch Karl Pearsons Chi-Quadrat-Test).

Regressionsanalyse

Bestimmtheitsmaß

Hauptartikel: Bestimmtheitsmaß

Als Gütekriterium bei linearer Regression gilt das Bestimmtheitsmaß. In der Regressionsanalyse beschreibt das Bestimmtheitsmaß die Güte der Anpassung des Regressionsmodells an vorliegende Daten. Das Bestimmtheitsmaß R^{2} ist der Anteil der Varianz von Y der durch eine lineare Regression erklärt wird, und liegt daher zwischen

0 (oder 0 %): kein linearer Zusammenhang und
1 (oder 100 %): perfekter linearer Zusammenhang.

Ist R^{2}=0, dann besteht das „beste“ lineare Regressionsmodell nur aus dem Achsenabschnitt b_{0}, während {\displaystyle b_{1}=0}. Ist R^{2}=1, dann lässt sich die abhängige Variable Y vollständig durch das lineare Regressionsmodell erklären.

Eine häufige Fehlinterpretation eines niedrigen Bestimmtheitsmaßes ist es, dass es keinen Zusammenhang zwischen den Variablen gibt. Tatsächlich wird nur der lineare Zusammenhang gemessen, d.h. obwohl der R^{2} klein ist, kann es trotzdem einen starken nicht-linearen Zusammenhang geben. Umgekehrt muss ein hoher Wert des Bestimmtheitsmaßes nicht bedeuten, dass ein nicht-lineares Regressionsmodell nicht noch besser als ein lineares Modell ist.

Kategoriale Daten

Beispiel

Hauptartikel: Chi-Quadrat-Test

Beim Pearson-Chi-Quadrat-Test ist Chi-Quadrat-Statistik die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:

{\displaystyle \chi ^{2}=\sum _{i=1}^{n}{\frac {(O_{i}-E_{i})^{2}}{E_{i}}}=N\sum _{i=1}^{n}{\frac {\left(O_{i}/N-p_{i}\right)^{2}}{p_{i}}}}
O_{i} = Anzahl der Beobachtungen von Typ i.
N = Gesamtanzahl der Beobachtungen
{\displaystyle E_{i}=Np_{i}} = Ewartete Häufigkeit von Typ i
n = Anzahl der Zellen in der Tabelle

Das Ergebnis kann mit der Chi-Quadrat-Verteilung verglichen werden, um die Anpassungsgüte zu bestimmen.

Gütekriterien

In Strukturgleichungsmodellen haben sich verschiedene Gütekriterien etabliert:

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 24.03. 2020