Kontingenzkoeffizient

Der Kontingenzkoeffizient {\displaystyle {\boldsymbol {C}}} (nach Karl Pearson) ist ein statistisches Zusammenhangsmaß. Der Pearsonsche Kontingenzkoeffizient drückt die Stärke des Zusammenhangs zwischen zwei (oder mehreren) nominalen oder ordinalen Variablen aus. Er basiert auf dem Vergleich von tatsächlich ermittelten Häufigkeiten zweier Merkmale mit den Häufigkeiten, die man bei Unabhängigkeit dieser Merkmale erwartet hätte.

Quadratische Kontingenz

Die quadratische Kontingenz oder der Chi-Quadrat-Koeffizient {\displaystyle {\boldsymbol {\chi }}^{2}}, auf dem auch der Kontingenzkoeffizient beruht, ist ein Maß für den Zusammenhang der betrachteten Merkmale:

{\displaystyle \chi ^{2}=\sum _{i=1}^{I}\sum _{j=1}^{J}{\frac {\left(n_{ij}-{\frac {\displaystyle n_{i\cdot }n_{\cdot j}}{n}}\right)^{2}}{\displaystyle {\frac {n_{i\cdot }n_{\cdot j}}{n}}}}}

Die Aussagekraft des \chi ^{2}-Koeffizienten ist gering, da seine Obergrenze, d.h. der Wert, den er bei vollkommener Abhängigkeit der betrachteten Merkmale annimmt, abhängig von der Größe (Dimension) der Kontingenztafel (d.h. von der Anzahl der Ausprägungen der Variablen) und der Größe der untersuchten Gesamtheit n ist. Eine Vergleichbarkeit von Werten des \chi ^{2}-Koeffizienten über verschiedene Kontingenztabellen und Stichprobengrößen ist daher nicht gegeben. Bei völliger Unabhängigkeit der Merkmale ist \chi ^{2}=0.

Es gilt:

{\displaystyle 0\leq \chi ^{2}\leq n\cdot (k-1)},

wobei {\displaystyle k=\min(I,J)} das Minimum der Anzahl I der Zeilen und der Anzahl J der Spalten der Kontingenztabelle bezeichnet.

Verwendung

Die \chi ^{2}-Größe wird benötigt, um den Kontingenzkoeffizienten {\displaystyle {\boldsymbol {C}}} zu ermitteln. Auch bei statistischen Tests findet die \chi ^{2}-Größe Verwendung (siehe Chi-Quadrat-Test).

Beispiel

Es sei folgende Kontingenztafel aus einer Befragung entstanden:

  {\displaystyle {\textbf {Limousine}}} {\displaystyle {\textbf {Kombi}}} {\displaystyle {\textbf {Summe}}}
{\displaystyle {\textbf {Arbeiter}}} 19 18 37
{\displaystyle {\textbf {Angestellte}}} 43 20 {\displaystyle 63}
{\displaystyle {\textbf {Summe}}} {\displaystyle 62} {\displaystyle 38} 100

Berechnung des \chi ^{2}-Koeffizienten:

{\displaystyle {\frac {\left(19-\displaystyle {\frac {37\cdot 62}{100}}\right)^{2}}{\displaystyle {\frac {37\cdot 62}{100}}}}+{\frac {\left(18-\displaystyle {\frac {37\cdot 38}{100}}\right)^{2}}{\displaystyle {\frac {37\cdot 38}{100}}}}+{\frac {\displaystyle \left(43-\displaystyle {\frac {63\cdot 62}{100}}\right)^{2}}{\displaystyle {\frac {63\cdot 62}{100}}}}+{\frac {\displaystyle \left(20-\displaystyle {\frac {63\cdot 38}{100}}\right)^{2}}{\displaystyle {\frac {63\cdot 38}{100}}}}=2{,}83}

Mittlere quadratische Kontingenz

Ein weiteres Maß, um die Stärke der Abhängigkeit der Merkmale in einer Kontingenztafel anzugeben, ist die mittlere quadratische Kontingenz, die im Wesentlichen eine Erweiterung des \chi ^{2}-Koeffizienten darstellt:

{\displaystyle {\frac {\chi ^{2}}{n}}={\frac {1}{n}}\sum _{i=1}^{I}\sum _{j=1}^{J}{\frac {\left(n_{ij}-\displaystyle {\frac {n_{i\cdot }n_{\cdot j}}{n}}\right)^{2}}{\displaystyle {\frac {n_{i\cdot }n_{\cdot j}}{n}}}}}

Je größer dieses Maß ist, desto stärker ist der Zusammenhang zwischen den zwei analysierten Merkmalen. Sind die beiden Merkmale unabhängig, so wird jeder Summand durch den Zähler des Bruches zu {\displaystyle 0}, das Maß selbst damit auch. Im Falle einer (2\times 2)-Kontingenztafel ist das Maß normiert und nimmt Werte im Intervall [0,1] an.

Kontingenzkoeffizient nach Karl Pearson

\chi ^{2} kann grundsätzlich sehr große Werte annehmen und ist nicht auf das Intervall [0,1] beschränkt. Um die Abhängigkeit des Koeffizienten vom Stichprobenumfang auszuschalten, wird auf Basis des \chi ^{2} der Kontingenzkoeffizient C (auch {\displaystyle CC} oder K) nach Karl Pearson ermittelt:

C={\sqrt  {{\frac  {\chi ^{2}}{\chi ^{2}+n}}}}.

mit n der Stichprobenumfang.

Dieser kann Werte im Intervall [0,1) annehmen. Problematisch ist, dass die obere Grenze des Kontingenzkoeffizienten C abhängig von der Anzahl der betrachteten Dimensionen ist:

Es gilt C\in \left[0,{\sqrt  {{\frac  {k-1}{k}}}}\right] mit {\displaystyle k=\min(I,J)} das Minimum der Anzahl I der Zeilen und der Anzahl J der Spalten der Kontingenztabelle.

Korrigierter Kontingenzkoeffizient

Um zusätzlich zum Einfluss des Stichprobenumfangs auch den Einfluss der Dimension der betrachteten Kontingenztafel (der Anzahl der Merkmalsausprägungen) auf die Obergrenze des Koeffizienten auszuschalten und damit die Vergleichbarkeit von Ergebnissen zu gewährleisten, wird der korrigierte Kontingenzkoeffizient {\displaystyle C_{\mathrm {korr} }} (häufig auch K^{*}) zur Messung des Zusammenhangs genutzt:

{\displaystyle C_{\mathrm {korr} }={\sqrt {\frac {k}{k-1}}}\cdot C={\sqrt {\frac {k}{k-1}}}\cdot {\sqrt {\frac {\chi ^{2}}{n+\chi ^{2}}}}},

mit k wie oben.

Es gilt {\displaystyle 0\leq C_{\mathrm {korr} }\leq 1}: Ein {\displaystyle C_{\mathrm {korr} }\,} nahe {\displaystyle 0} deutet dabei auf unabhängige Merkmale hin, ein {\displaystyle C_{\mathrm {korr} }\,} nahe 1 auf ein hohes Maß an Abhängigkeit zwischen den Merkmalen.

Für das Beispiel ergibt sich ein korrigierter Kontingenzkoeffizient {\displaystyle C_{\mathrm {korr} }={\sqrt {\frac {2}{2-1}}}\cdot 0{,}166=0{,}234}.

Cramérs V

Cramérs {\displaystyle {\boldsymbol {V}}} (englisch: Cramér’s V) ist ein Kontingenzkoeffizient, genauer ein \chi ^{2}-basiertes Zusammenhangsmaß. Es ist benannt nach dem schwedischen Mathematiker und Statistiker Harald Cramér.

Cramérs V ist eine \chi ^{2}-basierte Maßzahl. Cramérs V ist eine symmetrische Maßzahl für die Stärke des Zusammenhangs zwischen zwei oder mehr nominalskalierten Variablen, wenn (mindestens) eine der beiden Variablen mehr als zwei Ausprägungen hat. Bei einer 2\times 2-Tabelle entspricht Cramérs V dem absoluten Betrag des Phi-Koeffizienten.

Vorgehen

{\displaystyle V={\sqrt {\frac {\chi ^{2}}{n\cdot (k-1)}}}}.
n: Gesamtzahl der Fälle (Stichprobenumfang)
{\displaystyle k=\min(I,J)} das Minimum der Anzahl I der Zeilen und der Anzahl J der Spalten der Kontingenztabelle

Interpretation

Cramérs V liegt bei jeder Kreuztabelle – unabhängig von der Anzahl der Zeilen und Spalten – zwischen {\displaystyle 0} und 1. Er kann bei beliebig großen Kreuztabellen angewandt werden. Da Cramérs V immer positiv ist, kann keine Aussage über die Richtung des Zusammenhangs getroffen werden.

Phi-Koeffizient ϕ

Der Phi-Koeffizient (auch Vierfelder-Korrelationskoeffizient, Vierfelderkoeffizient) \phi \, (auch \widehat {r_{\phi }}) ist ein Maß für die Stärke des Zusammenhangs zweier dichotomer Merkmale.

Berechnung

Um die Vierfelderkorrelation zwischen zwei dichotomen Merkmalen A und B zu schätzen, stellt man zuerst eine Kontingenztafel auf, die die gemeinsame Häufigkeitsverteilung der Merkmale enthält.

  A = 0 A=1 {\displaystyle {\textbf {Summe}}}
{\displaystyle B=0} a b a+b
{\displaystyle B=1} c d {\displaystyle c+d}
{\displaystyle {\textbf {Summe}}} a + c {\displaystyle b+d} {\displaystyle a+b+c+d}

Mit den Daten aus der Tabelle kann man \phi \; nach der Formel

\phi ={\frac  {a\cdot d-b\cdot c}{{\sqrt  {(a+b)\cdot (c+d)\cdot (a+c)\cdot (b+d)}}}}

berechnen. Die Formel ergibt sich aus der allgemeineren Definition des Korrelationskoeffizienten {\displaystyle \rho (A,B)} im Spezialfall zweier binärer Zufallsvariablen A und B.

Beispiele

Messen der Assoziation zwischen …

Hinweis

Zwischen \phi \, und \chi ^{2}\, besteht der Zusammenhang \chi ^{2}=n\cdot \phi ^{2}  bzw.  \phi ^{2}={\frac  {\chi ^{2}}{n}}, wobei n\, die Anzahl der Beobachtungen bezeichnet. Damit ist \phi \, die Quadratwurzel (das Vorzeichen spielt keine Rolle) aus der mittleren quadratischen Kontingenz (siehe oben).

Als Teststatistik verwendet ist n\cdot \phi ^{2} unter der Annahme, dass \phi \, gleich null ist, \chi ^{2}-verteilt mit einem Freiheitsgrad.

Phi als Maß für die Effektstärke

Wenn ein Maß zur Bestimmung der Effektstärke mit Orientierung auf Wahrscheinlichkeiten gesucht wird, kann dafür \phi verwendet werden. Da bei Kreuztabellen, die nicht absolute Häufigkeiten, sondern Wahrscheinlichkeiten enthalten, an der Stelle, an der normalerweise die Fallzahl zu finden ist, immer 1 steht, wird \phi identisch mit Cohens w:

\phi ={\sqrt  {{\frac  {\chi ^{2}}{n}}}}={\sqrt  {{\frac  {\chi ^{2}}{1}}}}={\sqrt  {\chi ^{2}}}=w

Dabei wird \chi ^{2} eben nicht in Bezug auf absolute Häufigkeiten, sondern in Bezug auf Wahrscheinlichkeiten berechnet. Zu Cohens w. Ebenfalls numerisch identisch ist es, wenn in Bezug auf Kreuztabellen, die Wahrscheinlichkeiten enthalten, als {\displaystyle V\cdot {\sqrt {k-1}}} mit {\displaystyle k=\min(I,J)} berechnet wird.

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 24.03. 2020