Empirische Varianz

Die empirische Varianz, auch Stichprobenvarianz oder einfach nur kurz Varianz genannt, ist in der deskriptiven Statistik eine Kennzahl einer Stichprobe. Sie gehört zu den Streuungsmaßen und beschreibt die mittlere quadratische Abweichung der einzelnen Messwerte vom arithmetischen Mittel.

Die Begriffe „Varianz“, „Stichprobenvarianz“ und „empirische Varianz“ werden in der Literatur nicht einheitlich verwendet. Im Allgemeinen muss unterschieden werden zwischen der

Eine genaue Abgrenzung und Zusammenhänge finden sich im Abschnitt Beziehung der Varianzbegriffe.

Definition

Da die Varianz einer endlichen Population der Größe N

{\displaystyle \sigma ^{2}={\frac {1}{N}}\sum \limits _{i=1}^{N}(x_{i}-\mu )^{2}} [1] mit dem Populationsmittelwert {\displaystyle \mu ={\frac {1}{N}}\sum _{i=1}^{N}x_{i}}

in vielen praktischen Situationen oft unbekannt ist und aber dennoch irgendwie berechnet werden muss, wird oft die empirische Varianz herangezogen. Dies ist vor allem notwendig, wenn es in extrem großen Populationen nicht möglich ist, jedes einzelne Subjekt in der Population zu zählen.

Gegeben sei eine Stichprobe mit n Elementen {\displaystyle x_{1},x_{2},\dots ,x_{n}} und sei

{\displaystyle x=(x_{1},x_{2},\dots ,x_{n})}.

Es bezeichne

{\displaystyle {\overline {x}}={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}}

das arithmetische Mittel der Stichprobe. Die empirische Varianz wird auf zweierlei Arten definiert.

Entweder wird die empirische Varianz v der Stichprobe definiert als

{\displaystyle v(x)={\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}},

oder sie wird als leicht modifizierte Form definiert als

{\displaystyle v^{*}(x)={\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}.

Intuitiv lässt sich die Mittelung durch (n-1) statt durch n bei der modifizierten Form der empirischen Varianz wie folgt erklären: Aufgrund der Schwerpunkteigenschaft des arithmetischen Mittels {\displaystyle \sum \nolimits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)=0} ist die letzte Abweichung {\displaystyle \left(x_{n}-{\overline {x}}\right)} bereits durch die ersten (n-1) bestimmt. Folglich variieren nur (n-1) Abweichungen frei und man mittelt deshalb, indem man durch die Anzahl der sogenannten Freiheitsgrade (n-1) dividiert.

Wird nur von der empirischen Varianz gesprochen, so muss darauf geachtet werden, welche Konvention beziehungsweise Definition im entsprechenden Kontext gilt. Weder die Benennung der Definitionen noch die entsprechende Notation ist in der Literatur einheitlich. So finden sich für v auch die Notationen {\displaystyle V(x)_{\text{emp}},S_{\text{emp}}^{2}} oder {\displaystyle s^{2}}, hingegen wird {\displaystyle v^{*}} auch mit {\displaystyle \operatorname {Var} (x)_{\text{theor}},\;s_{n-1}^{2}} oder {\displaystyle s^{2}} bezeichnet. Manche Autoren bezeichnen v als mittlere quadratische Abweichung vom arithmetischen Mittel und {\displaystyle v^{*}} als theoretische Varianz oder induktive Varianz im Gegensatz zu v als empirische Varianz.

In diesem Artikel werden der Klarheit halber und um Irrtümern vorzubeugen die oben eingeführten Notationen v und {\displaystyle v^{*}} verwendet. Diese Notation ist in der Literatur nicht verbreitet.

Empirische Varianz für Häufigkeitsdaten

Für Häufigkeitsdaten {\displaystyle a_{1},\ldots ,a_{k}} und relativen Häufigkeiten f_{1},\ldots ,f_{k} wird die empirische Varianz wie folgt berechnet

{\displaystyle v(x)=\sum \limits _{j=1}^{k}\left(a_{j}-{\overline {x}}\right)^{2}f_{j}}.

Beispiel

Gegeben sei die Stichprobe

{\displaystyle x_{1}=10;\quad x_{2}=9;\quad x_{3}=13;\quad x_{4}=15;\quad x_{5}=16},

es ist also {\displaystyle n=5}. Für den empirischen Mittelwert ergibt sich

{\displaystyle {\overline {x}}={\frac {1}{5}}(10+9+13+15+16)={\frac {63}{5}}=12{,}6}.

Bei stückweiser Berechnung ergibt sich dann

{\displaystyle {\begin{aligned}\sum \limits _{i=1}^{5}\left(x_{i}-{\overline {x}}\right)^{2}&=(10-12{,}6)^{2}+(9-12{,}6)^{2}+(13-12{,}6)^{2}+(15-12{,}6)^{2}+(16-12{,}6)^{2}\\\;&=(-2{,}6)^{2}+(-3{,}6)^{2}+0{,}4^{2}+2{,}4^{2}+3{,}4^{2}=37{,}2\end{aligned}}}.

Über die erste Definition erhält man

{\displaystyle v(x)={\frac {1}{5}}\sum _{i=1}^{5}(x_{i}-{\overline {x}})^{2}={\frac {37{,}2}{5}}=7{,}44}

wohingegen die zweite Definition

{\displaystyle v^{*}(x)={\frac {1}{5-1}}\sum _{i=1}^{5}(x_{i}-{\overline {x}})^{2}={\frac {37{,}2}{4}}=9{,}3},

liefert.

Alternative Darstellungen

Direkt aus der Definition folgen die Darstellungen

{\displaystyle v={\frac {n-1}{n}}v^{*}}

beziehungsweise

{\displaystyle v^{*}={\frac {n}{n-1}}v}.

Eine weitere Darstellung erhält man aus dem Verschiebungssatz, nach dem

{\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)^{2}=\left(\sum _{i=1}^{n}x_{i}^{2}\right)-n({\overline {x}})^{2}}

gilt. Durch Multiplikation mit {\displaystyle {\tfrac {1}{n}}} erhält man daraus

{\displaystyle v(x)={\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}^{2}\right)-({\overline {x}})^{2}},

woraus

{\displaystyle v^{*}(x)={\frac {1}{n-1}}\left(\sum _{i=1}^{n}x_{i}^{2}\right)-{\frac {n}{n-1}}({\overline {x}})^{2}}

folgt.

Eine weitere Darstellung, die ohne die Verwendung des arithmetischen Mittels auskommt, ist

{\displaystyle v^{*}(x)={\frac {1}{2}}\cdot {\frac {1}{n(n-1)}}\sum _{\mathrm {alle~} i\neq j}\left(x_{i}-x_{j}\right)^{2}={\frac {1}{n(n-1)}}\sum _{i=1}^{n}\sum _{j=i+1}^{n}\left(x_{i}-x_{j}\right)^{2}}.

Verhalten bei Transformationen

Die Varianz verändert sich nicht bei Verschiebung der Daten um einen fixen Wert. Ist genauer {\displaystyle x=(x_{1},x_{2},\dots ,x_{n})} und {\displaystyle y=(x_{1}+c,x_{2}+c,\dots ,x_{n}+c)}, so ist

{\displaystyle v(x)=v(y)} sowie {\displaystyle v^{*}(x)=v^{*}(y)}.

Denn es ist {\displaystyle {\overline {y}}={\overline {x}}+c} und somit

{\displaystyle (y_{i}-{\overline {y}})^{2}=(x_{i}+c-({\overline {x}}+c))^{2}=(x_{i}-{\overline {x}})^{2}},

woraus die Behauptung folgt. Werden die Daten nicht nur um c verschoben, sondern auch um einen Faktor a>0 reskaliert, so gilt

{\displaystyle v(y)=a^{2}\cdot v(x)} sowie {\displaystyle v^{*}(y)=a^{2}\cdot v^{*}(x)}.

Hierbei ist {\displaystyle y=(ax_{1}+c,ax_{2}+c,\dots ,ax_{n}+c)}. Dies folgt wie oben durch direktes Nachrechnen.

Herkunft der verschiedenen Definitionen

Die Definition von v entspricht der Definition der empirischen Varianz als die mittlere quadratische Abweichung vom arithmetischen Mittel. Diese basiert auf der Idee, ein Streuungsmaß um das arithmetische Mittel zu definieren. Ein erster Ansatz ist, die Differenz der Messwerte vom arithmetischen Mittel aufzusummieren. Dies führt zu

{\displaystyle k(x)=\sum _{i=1}^{n}(x_{i}-{\overline {x}})}

Dies ergibt allerdings stets 0 (Schwerpunkteigenschaft), ist also nicht geeignet zur Quantifizierung der Varianz. Um einen Wert für die Varianz größer oder gleich 0 zu erhalten, kann man die Differenzen entweder in Betrag setzen, also

{\displaystyle |k|(x)=\sum _{i=1}^{n}|x_{i}-{\overline {x}}|}

betrachten, oder aber quadrieren, also

{\displaystyle k^{2}(x)=\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}

bilden. Dies bietet den Vorteil, dass größere Abweichungen vom arithmetischen Mittel stärker gewichtet werden. Um das Streuungsmaß noch unabhängig von der Anzahl der Messwerte in der Stichprobe zu machen, wird noch durch diese Anzahl dividiert. Außerdem bietet das Quadrieren den Vorteil, dass sich identische positive und negative Elemente der Summe nicht gegenseitig aufheben können und somit bei der Berechnung berücksichtigt werden. Ergebnis dieses pragmatisch hergeleiteten Streuungsmaßes ist die mittlere quadratische Abweichung vom arithmetischen Mittel oder die oben definierte Varianz v.

Die Definition von {\displaystyle v^{*}} hat ihre Wurzeln in der Schätztheorie. Dort wird

{\displaystyle V^{*}(X)={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

als erwartungstreue Schätzfunktion für die unbekannte Varianz einer Wahrscheinlichkeitsverteilung verwendet.

Geht man nun von den Zufallsvariablen X_{i} zu den Realisierungen {\displaystyle X_{i}(\omega )=x_{i}} über, so erhält man aus der abstrakten Schätzfunktion {\displaystyle V^{*}} den Schätzwert {\displaystyle v^{*}}. Das Verhältnis von {\displaystyle V^{*}} zu {\displaystyle v^{*}} entspricht somit dem Verhältnis einer Funktion f zu ihrem Funktionswert f(x_{0}) an einer Stelle x_{0}.

Somit kann v als ein praktisch motiviertes Streuungsmaß in der deskriptiven Statistik angesehen werden, wohingegen {\displaystyle v^{*}} eine Schätzung für eine unbekannte Varianz in der induktiven Statistik ist. Diese unterschiedlichen Ursprünge rechtfertigen die oben angeführte Sprechweise für v als empirische Varianz und für {\displaystyle v^{*}} als induktive Varianz oder theoretische Varianz.

Zu bemerken ist, dass sich auch v als Schätzwert einer Schätzfunktion interpretieren lässt. So erhält man bei Anwendung der Momentenmethode als Schätzfunktion für die Varianz

{\displaystyle V(X)={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}.

Ihre Realisierung entspricht v. Jedoch wird V meist nicht verwendet, da sie gängige Qualitätskriterien nicht erfüllt.

Beziehung der Varianzbegriffe

Wie in der Einleitung bereits erwähnt, existieren verschiedene Varianzbegriffe, die teils denselben Namen tragen. Ihre Beziehung zueinander wird klar, wenn man ihre Rolle in der Modellierung der induktiven Statistik betrachtet:

Zentral ist der Unterschied zwischen der Schätzmethode (Stichprobenvarianz im Sinne der induktiven Statistik) und ihrer konkreten Schätzung (empirische Varianz). Sie entspricht dem Unterschied zwischen einer Funktion und ihrem Funktionswert.

Abgeleitete Begriffe

Empirische Standardabweichung

Hauptartikel: Empirische Standardabweichung

Als empirische Standardabweichung wird die Wurzel aus der empirischen Varianz bezeichnet, also

{\displaystyle s={\sqrt {{\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}}}

oder

{\displaystyle s^{*}={\sqrt {{\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}}}.

Im Gegensatz zur empirischen Varianz besitzt die empirische Standardabweichung dieselben Einheiten wie das arithmetische Mittel oder die Stichprobe selbst. Wie auch bei der empirischen Varianz ist die Benennung und Bezeichnung bei der empirischen Standardabweichung nicht einheitlich.

Empirischer Variationskoeffizient

Der empirische Variationskoeffizient ist ein dimensionsloses Streuungsmaß und ist definiert als die empirische Standardabweichung geteilt durch das arithmetische Mittel, also

{\displaystyle vk={\frac {s}{\overline {x}}}\quad } bzw. {\displaystyle \quad vk={\frac {s^{*}}{\overline {x}}}}

Anmerkung

  1. Die Populationsvarianz kann auch einfacher durch den Verschiebungssatz wie folgt angegeben werden: {\displaystyle \sigma ^{2}=\left({\frac {1}{N}}\sum _{i=1}^{N}x_{i}^{2}\right)-\mu ^{2}}
Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 09.03. 2020