Stichprobenkovarianz
{{#if: behandelt die Kovarianz zweier Datenreihen oder einer zweidimensionalen Stichprobe und die Stichproben-Kovarianzmatrix einer mehrdimensionalen Stichprobe; zur Kovarianz von zwei Zufallsvariablen siehe Kovarianz (Stochastik); zur Kovarianzmatrix eines Zufallsvektors siehe Kovarianzmatrix.
| Vorlage:Hinweisbaustein | {{#ifeq: 0 | 0 |}}
}} Vorlage:Hinweisbaustein Die Stichprobenkovarianz oder empirische Kovarianz (oft auch einfach Kovarianz (von {{#invoke:Vorlage:lang|full|CODE=la |SCRIPTING=Latn |SERVICE=lateinisch}} con- = „mit-“ und Varianz von variare = „(ver)ändern, verschieden sein“)) ist in der Statistik eine nichtstandardisierte Maßzahl für den (linearen) Zusammenhang zweier statistischer Variablen.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Die korrigierte Stichprobenkovarianz ist eine erwartungstreue Schätzung der Kovarianz einer Grundgesamtheit mittels einer Stichprobe.
Ist die Kovarianz positiv, dann gehen kleine Werte der einen Variable überwiegend einher mit kleinen Werten der anderen Variable und gleichfalls für große Werte. Für eine negative Kovarianz ist das genau umgekehrt.
Definition
Ist <math>(x_1, y_1),...,(x_n, y_n)</math> eine Datenreihe (Stichprobe) zweier statistischer Variablen <math>X</math> und <math>Y</math>, dann ist die Stichprobenkovarianz definiert als „durchschnittliches Abweichungsprodukt“
- <math>s_{xy}:= \frac1n SP_{xy} = \frac1n \sum_{i=1}^n (x_i -\bar{x})(y_i-\bar{y})</math>
mit den arithmetischen Mitteln <math>\textstyle \bar{x}=\frac 1n \sum_{i=1}^n x_i</math> und <math>\textstyle \bar{y}=\frac 1n \sum_{i=1}^n y_i</math> der Datenreihen <math>(x_1,...,x_n)</math> und <math>(y_1,...,y_n)</math>.
Die Stichprobenkovarianz misst die gemeinsame Streuung („Mitstreuung“) der Beobachtungsdaten einer Stichprobe. Dabei wird die mittlere Abweichung der Beobachtungsdaten von den Mittelwerten <math>(\bar{x},\bar{y})</math> berechnet.
Korrigierte Stichprobenkovarianz
Um aus einer Stichprobe eine Schätzung der unbekannten Kovarianz <math>\sigma_{xy}</math> der Grundgesamtheit zu erhalten, wird die korrigierte Stichprobenkovarianz genutzt:
- <math>\hat{\sigma}_{xy} = \frac{1}{n-1}\sum_{i=1}^n{(x_i-\bar{x}) (y_i-\bar{y})}</math>
Bei einer einfachen Zufallsstichprobe haben die Stichprobenvariablen <math>X_i</math> und <math>Y_i</math> die Kovarianz <math>\operatorname{Cov}(X_i,Y_i)=\sigma_{xy}</math>. Unter Annahme einer zweidimensionalen Normalverteilung der Stichprobenvariablen <math>(X_i,Y_i)</math> und mit Hilfe der Maximum-Likelihood-Methode ergibt sich die Schätzfunktion
- <math>S_{XY} = \frac{1}{n}\sum_{i=1}^n (X_i-\bar{X})(Y_i-\bar{Y})</math>.
Es stellt sich jedoch heraus, dass der Erwartungswert <math>\operatorname{E}(S_{XY})= \tfrac{n-1}{n}\sigma_{xy}</math> ist, d. h. die Schätzfunktion <math>S_{XY}</math> ist nicht erwartungstreu (also verzerrt) für <math>\sigma_{xy}</math>.
Die korrigierte Stichprobenkovarianz ist jedoch unverzerrt. Im Rahmen der induktiven Statistik wird daher immer die korrigierte Stichprobenkovarianz verwendet.
Auswahl der Berechnungsformel
Der Kovarianz <math>\sigma_{xy}</math> kann, gemäß ihrer Definition, mit der Gleichung
- <math>\sigma_{xy} =\frac1n \sum_{i=1}^n\left(x_i-\bar{x}\right)\left(y_i-\bar{y}\right)</math>
aus einer Datenreihe berechnet werden. Diese Formel wird verwendet, wenn die Werte <math>x_i</math> und <math>y_i</math> einen vollständigen Datensatz beschreiben und die wahren Mittelwerte <math>\bar{x}</math> und <math>\bar{y}</math> der beiden Zufallsvariablen bekannt oder ausreichend bekannt sind. Oft liegt jedoch nur eine Stichprobe mit einer reduzierten Anzahl von Messwerten vor, mit denen die Kovarianz nur geschätzt werden kann. Wenn dabei die Mittelwerte aus dem arithmetischen Mittel gebildet werden, liefert die obige Formel systematisch zu kleine Werte. Daher verwendet man insbesondere bei sehr wenigen Messwerten die Formel der korrigierten Stichprobenkovarianz
- <math>\sigma_{xy} \approx \frac1{n-1} \sum_{i=1}^n \left(x_i-\bar{x}\right)\left(y_i-\bar{y}\right)</math>
welche die Kovarianz zumindest erwartungstreu schätzt.
In manchen Fällen sind einzelne Messwerte der Stichprobe unterschiedlich über- oder unterrepräsentiert oder die Messwerte haben unterschiedliche Auftrittswahrscheinlichkeiten. In einem solchen Fall kann mit der erweiterten Formel
- <math>\sigma_{xy} \approx \frac1W \sum_i w_i\left(x_i-\bar{x}\right)\left(y_i-\bar{y}\right)</math>
jedem Messwert zum Ausgleich ein individuelles Gewicht <math>w_i</math> zugeordnet werden. Wenn die Gewichte zur Korrektur von relativen Häufigkeiten verwendet werden, dann ist die erwartungstreue Normierung
- <math>\frac1W = \frac1{-1+\sum_i w_i}</math>
zu verwenden. Bei Gewichten, die eine Wahrscheinlichkeit angeben, mit der das Wertepaar in einer Stichprobe zu finden ist, muss dagegen mit
- <math>\frac1W = \frac{\sum_i w_i}{\left(\sum_i w_i\right)^2-\sum_i w_i^2}</math>
normiert werden. Die Mittelwerte <math>\bar{x}</math> und <math>\bar{y}</math> werden dabei mit den jeweiligen Gewichten gebildet:
- <math>\bar{x} = \frac{\sum_i w_i x_i}{\sum_i w_i}</math>, <math>\bar{y} = \frac{\sum_i w_i y_i}{\sum_i w_i}</math>.
Eigenschaften
→ Siehe auch: Kovarianz (Stochastik)#Eigenschaften und Rechenregeln
Beziehung zur Varianz
Die Kovarianz ist eine Erweiterung der Varianz, denn es gilt
- <math>s'^2=s_{xx}</math> bzw.
- <math>s^2=\hat{\sigma}_{xx}</math>.
Dabei ist <math>s'^2</math> und <math>s^2</math> die empirischen Varianzen mit passendem Vorfaktor. Das heißt, die Varianz ist die Kovarianz einer Variable mit sich selbst.
Verschiebungssatz
Der Verschiebungssatz liefert eine alternative Darstellung der Kovarianz
- <math>s_{xy}=\frac{1}{n} \left( \sum_{i=1}^n {(x_i y_i) - n\bar{x}\bar{y}} \right)=\left(\frac{1}{n}\sum_{i=1}^n x_i y_i\right)-\bar{x}\bar{y}</math>.
- <math>\hat{\sigma}_{xy} = \frac{1}{n-1} \left( \sum_{i=1}^n {(x_i y_i) - n\bar{x}\bar{y}} \right)</math>.
Diese Formeln ermöglichen in vielen Fällen eine einfachere Berechnung der Kovarianz. Bei numerischer Rechnung muss dabei allerdings auf unerwünschte Stellenauslöschung bei der Subtraktion großer Zahlen geachtet werden.
Symmetrie und Linearität
Die Kovarianz ist linear und symmetrisch, d. h. es gilt:
- Symmetrie
- Beim Vertauschen der Rollen von <math>x_i</math> und <math>y_i</math> ergibt sich der gleiche Wert für die Kovarianz:
- <math>s_{xy}=s_{yx}</math> bzw.
- <math>\hat{\sigma}_{xy}=\hat{\sigma}_{yx}</math>
- Linearität
- Wird eine der Variablen einer linearen Transformation unterzogen, z. B. <math>u_i=a+b \cdot x_i</math>, so gilt
- <math>s_{uy}=b s_{xy}</math> bzw.
- <math>\hat{\sigma}_{uy}=b\hat{\sigma}_{yx}</math>
- Wegen der Symmetrie ist die Kovarianz auch im zweiten Argument linear.
Die Linearität der Kovarianz hat zur Folge, dass die Kovarianz von der Maßeinheit der Variablen abhängt. So erhält man beispielsweise die zehnfache Kovarianz, wenn man anstatt <math>X</math> die Variable <math>10 X</math> betrachtet. Da diese Eigenschaft die absoluten Werte der Kovarianz schwer interpretierbar macht, betrachtet man häufig stattdessen den maßstabsunabhängigen Korrelationskoeffizienten.
Beispiele
Beispiel 1
Die folgende Grafik zeigt für 21 verschiedene Datensätze jeweils das Streudiagramm zusammen mit der Kovarianz <math>s_{xy}</math> und der Korrelation <math>r_{xy}</math> des Datensatzes. Die erste Reihe zeigt sieben Datensätze mit unterschiedlich starkem linearen Zusammenhang, wobei die Korrelation <math>r_{xy}</math> von +1 über 0 nach −1 geht. Da die Kovarianz ein nicht-standardisiertes Maß ist, geht sie von +2 auf Null bis auf −2. D.h., wenn es keinen linearen Zusammenhang gibt, dann ist die Kovarianz genauso Null wie die Korrelation. Das Vorzeichen der Kovarianz zeigt die Richtung des Zusammenhangs an; jedoch zeigt sie nicht die Stärke des Zusammenhangs.
Noch deutlicher wird es in der zweiten Zeile, wo alle sieben Datensätze einen perfekten linearen Zusammenhang haben. Doch die Kovarianz <math>s_{xy}</math> nimmt ab auf Null und wird dann negativ. Die Korrelation <math>r_{xy}</math> ist für diese Datensätze entweder +1 oder −1 (bzw. undefiniert). Die dritte Zeile zeigt schließlich, dass sowohl die Kovarianz als auch die Korrelation Null ist, obwohl ein deutlicher Zusammenhang zwischen beiden Variablen sichtbar ist. D.h. die Kovarianz misst nur den linearen Zusammenhang und nicht-lineare Zusammenhänge werden nicht erkannt.
Beispiel 2
In einer Schule soll überprüft werden, ob es einen Zusammenhang gibt zwischen der Anzahl der unterrichteten Stunden der Lehrer am Tag und der Anzahl der getrunkenen Tassen Kaffee. Es wurden zehn Datenpaare erhoben und ausgewertet (so nicht durchgeführt, nur der Anschauung halber!):
| Nummer | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| Anzahl Stunden (<math>x_i</math>) | 5 | 6 | 8 | 4 | 6 | 6 | 5 | 7 | 5 | 4 |
| Anzahl Tassen (<math>y_i</math>) | 2 | 1 | 4 | 1 | 2 | 0 | 2 | 3 | 3 | 1 |
Die Kovarianz wird nun folgendermaßen berechnet:
a.) Zunächst wird das arithmetische Mittel beider Variablen ermittelt:
<math>\textstyle \bar{x}=\frac 1n \sum_{i=1}^n x_i = \frac {(5+6+8+4+6+6+5+7+5+4)} {10} = 5{,}6</math> und <math>\textstyle \bar{y}=\frac 1n \sum_{i=1}^n y_i = \frac {(2+1+4+1+2+0+2+3+3+1)} {10} = 1{,}9</math>
b.) Die Kovarianz wird nun berechnet über: <math>s_{xy}:=\frac1n \sum_{i=1}^n (x_i -\bar{x})(y_i-\bar{y}) </math>
- <math>= \tfrac{(5-5{,}6)(2-1{,}9)+(6-5{,}6)(1-1{,}9)+(8-5{,}6)(4-1{,}9)+(4-5{,}6)(1-1{,}9)+(6-5{,}6)(2-1{,}9)+(6-5{,}6)(0-1{,}9)+(5-5{,}6)(2-1{,}9)+(7-5{,}6)(3-1{,}9)+(5-5{,}6)(3-1{,}9)+(4-5{,}6)(1-1{,}9)}{10}</math>
- <math>= 0{,}76</math>
Da die Kovarianz größer als null ist, ist für diese Stichprobe ein positiver Zusammenhang zwischen der Anzahl der Unterrichtsstunden und der Anzahl der Tassen Kaffee ersichtlich. Ob dies auf die Grundgesamtheit, hier das Lehrerkollegium, generalisierbar ist, hängt von der Qualität der Stichprobe ab.
Stichproben-Kovarianzmatrix
Gegeben ist eine Datenmatrix
- <math>\mathbf{x}=\begin{pmatrix} \mathbf{x}_1^{\mathrm{T}} \\ \vdots \\ \mathbf{x}_n^{\mathrm{T}}\end{pmatrix}=
\begin{pmatrix} x_{11} & \dots & x_{1k} \\ x_{21} & \dots & x_{2k}\\ \vdots & \vdots & \vdots\\ x_{n1} & \dots & x_{nk} \end{pmatrix}</math> mit <math>n</math> Stichproben zu <math>k</math> Variablen, das heißt: in Reihe <math>i</math> ist die Stichprobe <math>\mathbf{x}_i^{\mathrm{T}}=(x_{i1},\dots,x_{ik})^{\mathrm{T}}</math>. Die Stichproben-Kovarianzmatrix wird in diesem Fall die Dimension <math>k\times k</math> besitzen.
Eine Schätzung der Kovarianzmatrix in der Grundgesamtheit <math>\widehat{\mathbf{\Sigma}}</math> erhält man, indem man die Varianzen und Kovarianzen in der Grundgesamtheit <math>\operatorname{Var}(X_i) = \sigma^2_i</math> und <math>\operatorname{Cov}(X_i,X_j) = \sigma_{ij}\;,i\ne j</math> durch die empirischen Varianzen und empirischen Kovarianzen (ihre empirischen Gegenstücke) <math>\hat\sigma^2_{j} = s_j^2</math> und <math>\hat\sigma_{jk} = s_{jk}</math> ersetzt (sofern die <math>x</math>-Variablen Zufallsvariablen darstellen schätzen die die Parameter in der Grundgesamtheit). Diese sind gegeben durch<ref>Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 648.</ref><ref>Rencher, Alvin C., und G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008., S. 156.</ref>
- <math>\hat\sigma^2_{j} = s_{j}^2 := \frac{1}{n-1} \sum \limits_{i=1}^n\left(x_{ij}-\overline x_{j}\right)^2\;</math> und <math>\;\hat\sigma_{jk} = s_{jk} := \frac{1}{n-1} \sum_{i=1}^n (x_{ij} -\overline{x}_{j})(x_{ik}-\overline{x}_{k})</math>.
Dies führt zur Stichproben-Kovarianzmatrix <math>\mathbf{S}</math>:
- <math>\begin{align} \mathbf{S} =
\widehat{\mathbf{\Sigma}} = \widehat{\operatorname{Cov}(\mathbf{X})} & = \frac{1}{n-1} \sum \limits_{i=1}^n\left(\mathbf{x}_{i}-\overline{\mathbf{x}_{i}}\right) \left(\mathbf{x}_{i}-\overline{\mathbf{x}_{i}}\right)^{\mathrm{T}}= \begin{pmatrix}
s^2_{1} & s_{12} & \cdots & s_{1k} \\ \\
s_{21} & s^2_{2} & \cdots & s_{2k}\\ \\
\vdots & \vdots & \ddots & \vdots \\ \\
s_{k1} & s_{k2} & \cdots & s^2_{k} \end{pmatrix}\end{align}</math>.
Zum Beispiel sind <math>s^2_{2}</math> und <math>s_{12}</math> gegeben durch
- <math>\hat\sigma^2_{2} = s_{2}^2 := \frac{1}{n-1} \sum \limits_{i=1}^n\left(x_{i2}-\overline x_{2}\right)^2\;</math> und <math>\;\hat\sigma_{12} = s_{12} := \frac{1}{n-1} \sum_{i=1}^n (x_{i1} -\overline{x}_{1})(x_{i2}-\overline{x}_{2})</math>,
mit dem arithmetischen Mittel
- <math> \overline{x}_{2} := \frac1n \sum_{i=1}^n{x_{i2}}</math>.
Beispiel
Bei 10 Datenpunkten seien jeweils die Werte <math>x_1</math> und <math>x_2</math> gemessen worden:
| <math>x_1</math> | <math>x_2</math> |
|---|---|
| 1,0 | 1,41 |
| 2,0 | 1,56 |
| 2,0 | 2,19 |
| 4,0 | 2,79 |
| 5,0 | 3,04 |
| 6,0 | 2,23 |
| 9,0 | 3,74 |
| 9,0 | 3,84 |
| 9,0 | 2,80 |
| 13,0 | 4,18 |
Die Berechnung des geschätzten Mittelwertes ergibt: <math>\hat{\mu}_1 = 6</math>, <math>\hat{\mu}_2 = 2{,}78</math>, <math>\hat{\sigma}_1 = 13{,}8</math> ; <math>\hat{\sigma}_2 = 0{,}81</math>, <math>\hat{\text{cov}}_{1,2} = 2{,}972</math>.
Daher ist die Stichprobenkovarianzmatrix <math>C=\begin{pmatrix}13{,}8 & 2{,}972 \\2{,}972 & 0{,}81\end{pmatrix}</math>.
In Bezug auf den Mittelpunkt <math>(\hat{\mu}_1, \hat{\mu}_2)</math> der Punktwolke kann im Diagramm eine Konzentrationsellipse eingezeichnet werden. Die Punkte auf dem Rand der Ellipse sind also durch folgende Menge gegeben:
<math>\lbrace (x_1,x_2)C^{-1}\begin{pmatrix}x_1\\x_2\end{pmatrix}=k^2 \rbrace</math>.
Siehe auch
Einzelnachweise
<references />