Varianz (Stochastik)
{{#if: behandelt die Varianz als Kenngröße der Verteilung einer reellen Zufallsvariablen. Für die Varianz einer Stichprobe siehe Stichprobenvarianz, weitere Bedeutungen finden sich unter Varianz.
| Vorlage:Hinweisbaustein | {{#ifeq: 0 | 0 |}}
}}
Die Varianz ({{#invoke:Vorlage:lang|full|CODE=la |SCRIPTING=Latn |SERVICE=lateinisch}} „Verschiedenheit“ bzw. {{#invoke:Vorlage:lang|flat}} „(ver)ändern, verschieden sein“) ist ein Maß für die Streuung einer Wahrscheinlichkeitsdichte um ihren Schwerpunkt. Mathematisch wird sie definiert als die mittlere quadratische Abweichung einer reellen Zufallsvariablen von ihrem Erwartungswert. Sie ist das zentrale Moment zweiter Ordnung einer Zufallsvariablen.
Die Varianz kann mit einem Varianzschätzer, z. B. der Stichprobenvarianz, bestimmt werden. Die Quadratwurzel der Varianz heißt Standardabweichung und ist das wichtigste Streuungsmaß in der Stochastik.
Die Bezeichnung Varianz wurde vor allem von dem britischen Statistiker Ronald Fisher (1890–1962) geprägt. Weitere Wörter für die Varianz sind das veraltete Dispersion ({{#invoke:Vorlage:lang|full|CODE=la |SCRIPTING=Latn |SERVICE=lateinisch}} „Zerstreuung“ bzw. {{#invoke:Vorlage:lang|flat}} „verteilen, ausbreiten, zerstreuen“), das Streuungsquadrat oder die Streuung.
Zu den Eigenschaften der Varianz gehört, dass sie niemals negativ ist und sich bei Verschiebung der Verteilung nicht ändert. Die Varianz einer Summe unkorrelierter Zufallsvariablen ist gleich der Summe ihrer Varianzen. Ein Nachteil der Varianz für praktische Anwendungen ist, dass sie im Unterschied zur Standardabweichung eine andere Einheit als die Zufallsvariable besitzt. Da sie über ein Integral definiert wird, existiert sie nicht für alle Verteilungen, d. h., sie kann auch unendlich sein.
Eine Verallgemeinerung der Varianz ist die Kovarianz. Im Unterschied zur Varianz, die die Variabilität der betrachteten Zufallsvariablen misst, ist die Kovarianz ein Maß für die gemeinsame Variabilität von zwei Zufallsvariablen. Aus dieser Definition der Kovarianz folgt, dass die Kovarianz einer Zufallsvariablen mit sich selbst gleich der Varianz dieser Zufallsvariablen ist. Im Falle eines reellen Zufallsvektors kann die Varianz zur Varianz-Kovarianzmatrix verallgemeinert werden.
Definition
Die Varianz wird zuerst mathematisch definiert, eine Erklärung der Definition folgt danach. Die Varianz einer Stichprobe ist ein Spezialfall der mathematischen Definition und wird im Abschnitt Empirische Varianz / Stichprobenvarianz behandelt.
Mathematische Definition
Sei <math>(\Omega,\Sigma,P)</math> ein Wahrscheinlichkeitsraum und <math>X</math> eine Zufallsvariable auf diesem Raum. Die Varianz ist definiert als die zu erwartende quadratische Abweichung dieser Zufallsvariablen von ihrem Erwartungswert <math>\mathbb{E}(X)=\mu</math>, sofern dieser existiert:<ref name="Billingsley">Patrick Billingsley: Probability and Measure. 3. Aufl., Wiley, 1995, S. 274 ff.</ref>
- <math>\operatorname{Var}(X) := \mathbb{E}\left((X-\mu)^2\right) = \int_\Omega (X(\omega)-\mu)^2 \,\mathrm{d}P(\omega)</math>
Erklärung der Definition
Die Definition sagt Folgendes: Gegeben ist eine Zufallsvariable <math>X</math> mit Erwartungswert <math>\mu</math>.
Der Wahrscheinlichkeitsraum
Zu einer Zufallsvariable gehört immer auch ein Wahrscheinlichkeitsraum, denn eine Zufallsvariable ist aus mathematischer Sicht eine Funktion von diesem Raum, zum Beispiel definiert man eine reelle Zufallsvariable als <math>X\colon \Omega \to \mathbb{R}</math>. Für ein oberflächliches Verständnis des Begriffes der Varianz kann der Begriff aber auch übersprungen werden.
Die erste Gleichung
Die erste Gleichung
- <math>\operatorname{Var}(X)=\mathbb{E}\left((X-\mu)^2\right)</math>
sagt, dass die Varianz von <math>X</math> dasselbe wie der Erwartungswert der Zufallsvariable <math>(X-\mu)^2</math> ist. Diese neue Zufallsvariable ist die quadratische Abweichung von <math>X</math> zu <math>\mu</math> und man spricht von der mittleren quadratischen Abweichung, weil man den Erwartungswert der quadratischen Abweichung nimmt.
Nach den Rechenregeln des Erwartungswertes lässt sich die rechte Seite leicht umformen
- <math>\mathbb{E}\left((X-\mu)^2\right) = \mathbb{E}(X^2)-2\mu\mathbb{E}(X) + \mu^2= \mathbb{E}(X^2)- \mu^2</math>.
Die zweite Gleichung
Die zweite Gleichung
- <math>\operatorname{Var}(X) = \int_\Omega (X(\omega)-\mu)^2 \,\mathrm{d}P(\omega)</math>
sagt, dass sich die Varianz direkt als Integral berechnen lässt. Dieses Integral ist hier in der allgemeinen Form, wo man über den Ergebnisraum <math>\Omega</math> bezüglich dem Wahrscheinlichkeitsmaß <math>P</math> integriert, um alle Fälle miteinzuschließen. Hier gibt es noch die wichtigen Fälle:
- Absolutstetiger Fall: Hat man eine Zufallsvariable mit einer Dichte <math>f(x)</math> von einer Menge <math>S</math>, so lässt sich das Integral umformen
- <math>\operatorname{Var}(X) = \int_S (x-\mu)^2 f(x)\mathrm{d}x.</math>
- Diskreter Fall: Hat man eine Zufallsvariable mit einer Wahrscheinlichkeitsfunktion <math>p(x)</math> von einer Menge <math>N</math>, so lässt sich das Integral umformen
- <math>\operatorname{Var}(X) = \sum\limits_{k\in N} (k-\mu)^2 p(k).</math>
Diese Gleichungen zeigen, dass die Varianz eine Kennzahl der Wahrscheinlichkeitsverteilung von <math>X</math> ist.
Empirische Varianz / Stichprobenvarianz
{{#if: Empirische Varianz|{{#ifexist:Empirische Varianz|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Ein Spezialfall der Varianz einer diskreten Zufallsvariable ist die (unkorrigierte) empirische Varianz <math>\widetilde{s}^2_N</math>. Sie ist die Varianz einer Stichprobe
- <math>N=\{x_1,\dots,x_n\}</math>
von <math>n</math> Werten bei der jeder Wert mit der gleichen Wahrscheinlichkeit <math>\tfrac{1}{n}</math> auftritt. Sie ist die Varianz der empirischen Verteilung. Man erhält den Spezialfall aus der mathematischen Definition wenn man als Wahrscheinlichkeitsfunktion
- <math>p(k):=\frac{1}{n},\quad</math> für <math>\quad k=1,\dots,n</math>
und als Erwartungswert <math>\mu</math> den empirischen Mittelwert
- <math>\mu:=\overline{x}\quad</math> mit <math>\quad\overline{x}:=\frac{1}{n} \sum_{i=1}^n{x_i}</math>
wählt.
Die unkorrigierte empirische Varianz ist dann
- <math>\widetilde{s}^2_N=\frac{1}{n}\sum\limits_{x_i\in N} (x_i-\overline{x})^2=\frac{1}{n}\left((x_1-\overline{x})^2+(x_2-\overline{x})^2\cdots + (x_n-\overline{x})^2\right).</math>
Die Bessel-Korrektur
- <math>s^2_N=\frac{n}{n-1}\widetilde{s}^2_N</math>
liefert die korrigierte empirische Varianz
- <math>s^2_N=\frac{1}{n-1}\sum\limits_{x_i\in N} (x_i-\overline{x})^2=\frac{1}{n-1}\left((x_1-\overline{x})^2+(x_2-\overline{x})^2\cdots + (x_n-\overline{x})^2\right).</math>
Beispiel:
Sei <math>N=\{1,4,10\}</math>, dann ist <math>n=3</math> und der empirische Mittelwert <math>\overline{x}=\tfrac{(1+4+10)}{3}=5</math>, was die unkorrigierte empirische Varianz <math>\widetilde{s}^2_N=\tfrac{1}{3}\left((1-5)^2+(4-5)^2+(10-5)^2\right)=14</math> und die korrigierte empirische Varianz <math>s^2_N=21</math> gibt.
Interpretation als Funktional
Die Varianz ist ein Funktional auf dem Raum der Zufallsvariablen mit endlichem Erwartungswert. Sie kann aber auch als nichtlineares Funktional auf dem Raum aller Wahrscheinlichkeitsverteilungen <math>\chi_1</math>, die einen endlichen Erwartungswert besitzen, verstanden werden:
- <math>\begin{align}
\operatorname{Var}[\cdot] &\colon \chi_1 \to \mathbb{R}_+\cup \{\infty\}\\ \operatorname{Var}[F] &= \int (x-\mu(F))^2\mathrm{d}F(x) \end{align} </math>
Dabei werden die Wahrscheinlichkeitsverteilungen mit ihren Verteilungsfunktionen identifiziert. Für Wahrscheinlichkeitsverteilungen, deren Erwartungswert <math>\mu(F)</math> nicht endlich ist, ist die Varianz nicht definiert.
Notation
Da die Varianz ein Funktional ist, wird sie wie der Erwartungswert (besonders in anglophoner Literatur) oft auch mit eckigen Klammern <math>\operatorname{Var}\left[X\right]</math> geschrieben. Sie wird mitunter als <math>\operatorname{V}(X)</math><ref group="A">Die Verwendung des Varianzoperators <math>\operatorname{Var}(\cdot)</math> hebt die Berechnungsoperationen hervor. Mit ihm lässt sich die Gültigkeit bestimmter Rechenoperationen besser ausdrücken.</ref> oder <math>\sigma_X^2</math> notiert. Besteht keine Verwechslungsgefahr, wird sie einfach als <math>\sigma^2</math> notiert. Da die Varianz vor allem in älterer Literatur auch als Dispersion beziehungsweise Streuung bezeichnet wurde,<ref>Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 53.</ref><ref>Brockhaus: Brockhaus, Naturwissenschaften und Technik – Sonderausgabe. 1989, S. 188.</ref> begegnet man häufig der Notation <math>D^2(X)</math>.<ref>Lothar Papula: Mathematik für Ingenieure und Naturwissenschaftler. Band 3: Vektoranalysis, Wahrscheinlichkeitsrechnung, Mathematische Statistik, Fehler- und Ausgleichsrechnung. 1994, S. 338.</ref>
Die Notation als <math>\sigma^2</math> rührt daher, dass bei der in der Stochastik besonders wichtigen Normalverteilung der Parameter <math>\sigma^2</math> mit der Varianz übereinstimmt (siehe auch Abschnitt Varianzen spezieller Verteilungen). Des Weiteren wird in der Statistik und insbesondere in der Regressionsanalyse das Symbol <math>\sigma^2</math> verwendet, um die wahre unbekannte Varianz der Störgrößen zu kennzeichnen.
Einführung in die Problemstellung
Als Ausgangspunkt für die Konstruktion der Varianz betrachtet man eine beliebige Größe, die vom Zufall abhängig ist und somit unterschiedliche Werte annehmen kann. Diese Größe, die im Folgenden mit <math>X</math> bezeichnet wird, folgt einer bestimmten Verteilung. Der Erwartungswert dieser Größe wird mit
- <math>\mu := \mathbb E(X)</math>
abgekürzt<ref group="A">Bei einer symmetrischen Verteilung mit dem Symmetriezentrum <math>x_0</math> gilt – falls der Erwartungswert existiert – <math>\mu = \mathbb E(X) = x_0</math>. Ein Beispiel einer bezüglich <math>x_0 = 0</math> symmetrischen Verteilung, für die der Erwartungswert nicht existiert, ist die Standard-Cauchy-Verteilung.</ref> und gibt an, welchen Wert die Zufallsvariable <math>X</math> im Mittel annimmt. Er kann als Schwerpunkt der Verteilung interpretiert werden (siehe auch Abschnitt Interpretation) und gibt ihre Lage wieder. Zur hinreichenden Charakterisierung einer Verteilung bedarf es jedoch noch einer Größe, die als Kennzahl Auskunft über die Stärke der Streuung einer Verteilung um ihren Schwerpunkt gibt.<ref>Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 2016, S. 160.</ref> Diese Größe sollte stets größer oder gleich Null sein, da sich negative Streuung nicht sinnvoll interpretieren lässt. Ein erster naheliegender Ansatz wäre, die mittlere absolute Abweichung der Zufallsvariablen von ihrem Erwartungswert heranzuziehen:<ref>Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6. durchges. u. aktualisierte Aufl. 2013, S. 28.</ref>
- <math>\mathbb E\left(|X-\mu|\right)</math>
Da die in der Definition der mittleren absoluten Abweichung verwendete Betragsfunktion nicht überall differenzierbar ist und ansonsten in der Statistik für gewöhnlich Quadratsummen benutzt werden,<ref>Volker Heun: Grundlegende Algorithmen. Einführung in den Entwurf und die Analyse effizienter Algorithmen. 2. Auflage. 2003, S. 108.</ref><ref>Gerhard Hübner: Stochastik. Eine anwendungsorientierte Einführung für Informatiker, Ingenieure und Mathematiker. 3. Auflage, 2002, S. 103.</ref> ist es sinnvoll, statt mit der mittleren absoluten Abweichung mit der mittleren quadratischen Abweichung, also der Varianz, zu operieren.<ref group="A">Weitere Vorteile des Quadrierens sind zum einen, dass kleine Abweichungen weniger stark gewichtet werden als große Abweichungen, und zum anderen, dass die erste Ableitung eine lineare Funktion ist, was bei Optimierungsüberlegungen von Vorteil ist.</ref>
Berechnung der Varianz
Varianz bei diskreten Zufallsvariablen
Eine Zufallsvariable <math>X</math> mit einem endlichen oder abzählbar unendlichen Wertebereich <math>\mathcal T = \{x_1,x_2,\dotsc,x_k,\dotsc\}</math><ref group="A">Mit der Bezeichnung „Träger“ und dem Zeichen <math>\mathcal T</math> bezeichnet man die Menge aller möglichen Ausprägungen beziehungsweise Realisierungen einer Zufallsvariablen.</ref> wird diskret genannt. Ihre Varianz berechnet sich dann als gewichtete Summe der Abweichungsquadrate (vom Erwartungswert):<ref>Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 231.</ref>
- <math>\sigma^2 := \sum_{i \geq 1}(x_i - \mu)^2 p_i= (x_1 - \mu)^2 p_1 + (x_2 - \mu)^2 p_2 + \ldots + (x_k - \mu)^2 p_k + \ldots </math>
Hierbei ist <math>p_i = P(X=x_i)</math> die Wahrscheinlichkeit, dass <math>X</math> den Wert <math>x_i</math> annimmt. Es wird in obiger Summe also jede mögliche Ausprägung <math>(x_i - \mu)^2</math> mit der Wahrscheinlichkeit ihres Auftretens <math>p_i</math> gewichtet.<ref>Von Auer: Ökonometrie. Eine Einführung. 6. Auflage. Springer, 2013, ISBN 978-3-642-40209-8, S. 29.</ref> Die Varianz ist bei diskreten Zufallsvariablen also eine gewichtete Summe mit den Gewichten <math>p_i \; (i=1,\ldots,n)</math>. Der Erwartungswert einer diskreten Zufallsvariablen <math>X</math> stellt ebenfalls eine gewichtete Summe dar, die durch
- <math>\mu := \sum_{i \geq 1} x_i p_i = x_1 p_1+x_2 p_2 + \ldots + x_k p_k + \ldots </math>
gegeben ist. Die Summen erstrecken sich jeweils über alle Werte, die diese Zufallsvariable annehmen kann. Im Falle eines abzählbar unendlichen Wertebereichs ergibt sich eine unendliche Summe. In Worten berechnet sich die Varianz, im diskreten Fall, als Summe der Produkte der Wahrscheinlichkeiten der Realisierungen der Zufallsvariablen <math>X</math> mit der jeweiligen quadrierten Abweichung.
Varianz bei stetigen Zufallsvariablen
Eine Zufallsvariable <math>X</math> wird als stetig bezeichnet, wenn ihr Wertebereich eine überabzählbare Menge ist. Falls die Zufallsvariable absolut stetig ist, dann existiert als Konsequenz des Satzes von Radon-Nikodým eine Wahrscheinlichkeitsdichtefunktion (kurz: Dichte) <math>f_X(x)</math>. Im Fall einer reellwertigen Zufallsvariablen lässt sich die Verteilungsfunktion <math>F(t) = P(X \leq t)</math>, <math>t\in\mathbb{R}</math>, wie folgt als Integral darstellen:
- <math>F(t) = \int_{-\infty}^{t}f(x) \,\mathrm{d}x</math>
Für die Varianz einer reellwertigen Zufallsvariablen <math>X</math> mit Dichte <math>f(x)</math> gilt nun
- <math>\operatorname{Var}(X) = \int_{-\infty}^{\infty} (x-\mathbb{E}[X])^2 f(x) \, \mathrm{d}x\quad</math>,
wobei ihr Erwartungswert gegeben ist durch <math>\mathbb{E}[X] = \int_{-\infty}^{\infty} x f(x) \, \mathrm{d}x</math>.<ref>Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 283.</ref>
Die Varianz berechnet sich bei Existenz einer Dichte als das Integral über das Produkt der quadrierten Abweichung und der Dichtefunktion der Verteilung. Es wird also über den Raum aller möglichen Ausprägungen (möglicher Wert eines statistischen Merkmals) integriert.
Rechenregeln und Eigenschaften
Grundlegende Aussagen
- Die Varianz ist nicht-negativ, das heißt <math>\operatorname{Var}(X)\geq 0</math>. Die Varianz kann aber auch den Wert <math>\operatorname{Var}(X)=\infty</math> annehmen, wie es bei der Lévy-Verteilung der Fall ist.
- Eine Verteilung, die keine Varianz hat, ist die Cauchy-Verteilung, da für diese schon der Erwartungswert nicht existiert.
- Die Varianz einer Konstante ist null, denn <math>\operatorname{Var}(c)=\mathbb{E}[(c-\mathbb{E}[c])^2]=\mathbb{E}[(c-c)^2]=0</math>. Daraus folgt, wenn eine Zufallsvariable fast sicher eine Konstante ist, dann ist ihre Varianz null:
- <math>\operatorname{Var}(X)= 0 \iff \exists a \in \mathbb{R}\quad \text{so dass}\quad P(X=a) = 1.</math>
- Falls man die zentrierte Zufallsvariable <math>Z := X-\mathbb{E}(X)</math> betrachtet, so ist die Varianz deren zweites Moment <math>\operatorname{Var}(X)=\mathbb{E}(Z^2)</math>.
- Falls eine Zufallsvariable quadratisch integrierbar ist, das heißt <math>\mathbb{E}(X^2)<\infty</math>, so sind ihre Varianz und ihr Erwartungswert endliche Größen, das heißt <math>\mathbb{E}(X)<\infty </math> und <math>\operatorname{Var}(X)<\infty </math>. Dies folgt aus
- <math>0 \leq (X-1)^2 + |X| \implies |X| \leq X^2 -2X + 1 + 2|X| \implies |X| \leq X^2 + 1 \implies \mathbb{E}(|X|) \leq \mathbb{E}(X^2) + 1 < \infty</math>
- Die Varianz weist eine Fülle nützlicher Eigenschaften auf, welche die Varianz zum wichtigsten Streuungsmaß macht.<ref>Wolfgang Viertl, Reinhard Karl: Einführung in die Stochastik: Mit Elementen der Bayes-Statistik und der Analyse unscharfer Information. S. 49.</ref>
Verschiebungssatz
Sei der Erwartungswert <math>\mathbb E(X)=\mu</math> und <math>a\in \mathbb{R}</math> eine beliebige reelle Konstante, dann gilt der Verschiebungssatz
- <math>\mathbb E\left((X-a)^2\right) = \operatorname{Var}(X) + (\mu -a)^2</math>.
Für <math>a=0</math> erhält man als bekannteste Variante des Verschiebungssatzes:
- <math>\operatorname{Var}(X) =\mathbb E\left(X^2\right)-\mathbb E\left(X\right)^2=\mathbb E\left(X^2\right)-\mu^2</math>
In Worten ausgedrückt, die mittlere quadratische Abweichung von <math>X</math> bezüglich <math>a</math> ist gleich der Varianz plus dem Quadrat der Verschiebung <math>\mu -a</math>. Vorlage:Klappbox
Folgerungen aus dem Verschiebungssatz
Der Verschiebungssatz ist das stochastische Analogon zum Steinerschen Satz zur Berechnung von Trägheitsmomenten. Die physikalische Interpretation ist: <math>\mathbb E\left((X-a)^2\right)</math> ist das Trägheitsmoment bezüglich der Achse <math>a</math>, welches die Summe des Trägheitsmoment bzgl. der Achse durch den Schwerpunkt <math>\operatorname{Var}(X)</math> und dem Quadrat der Verschiebung <math>\mu -a</math> ist.
Aus dem Verschiebungssatz ergibt sich überdies für beliebiges reelles <math>a</math>:
- <math>\operatorname{Var}(X)\le \mathbb E\left((X-a)^2\right)\quad</math> bzw. <math>\quad\operatorname{Var}(X)=\min_{a \in R}\mathbb E\left((X-a)^2\right)</math>
Siehe auch Fréchet-Prinzip.
Aus dem Verschiebungssatz folgt wegen der Nichtnegativitätsbedingung der Varianz <math>\mathbb E\left(X^2\right)-\left(\mathbb E(X)\right)^2 \geq 0</math>, somit gilt <math>\mathbb E\left(X^2\right) \geq \left(\mathbb E(X)\right)^2</math>, was ein Spezialfall der jensenschen Ungleichung für Erwartungswerte ist. Der Verschiebungssatz beschleunigt die Berechnung der Varianz, da der dazu nötige Erwartungswert von <math>X^2</math> zusammen mit <math>\mu</math> gebildet werden kann, während sonst <math>\mu</math> bereits bekannt sein muss – konkret für diskrete beziehungsweise stetige Zufallsvariablen liefert er:
| Falls <math>X</math> diskret | Falls <math>X</math> stetig |
| <math>\sigma^2 = \left(\sum_{i \geq 1} x_i^2 p_i\right) - \left(\sum_{i \geq 1} x_i p_i\right)^2</math> | <math>\sigma^2 = \int_{-\infty}^{\infty} x^2 f(x)\,\mathrm dx - \left(\int_{-\infty}^{\infty} x f(x)\,\mathrm dx\right)^2</math> |
Lineare Transformation
Für zwei Konstanten <math>a, b \in \mathbb{R}</math> gilt:
- Translationsinvarianz: Für additive Konstanten gilt <math>\operatorname{Var}(X+b) = \mathbb E\left((X+b-\mu-b)^2\right) = \operatorname{Var}(X)</math>. Dies bedeutet, dass eine „Verschiebung der Zufallsvariablen“ um einen konstanten Betrag keine Auswirkung auf deren Streuung hat.
- Im Gegensatz zu additiven Konstanten haben multiplikative Konstanten eine Auswirkung auf die Skalierung der Varianz. Bei multiplikativen Konstanten wird die Varianz mit der quadrierten der Konstanten, also <math>a^2</math>, skaliert.<ref name=":0">Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 233.</ref> Dies kann wie folgt gezeigt werden:
- <math>\operatorname{Var}(aX) = \mathbb E\left((aX - a\mu )^2\right) = \mathbb E\left(a^2(X - \mu)^2\right) = a^2\operatorname{Var}(X)</math>
Hierbei wurde die Eigenschaft der Linearität des Erwartungswertes benutzt. Zusammengefasst ergibt die Varianzbildung einer linearen transformierten Zufallsvariablen <math>Y=aX+b</math>:
- <math>\operatorname{Var}(Y) = \operatorname{Var}(aX+b) = a^2\operatorname{Var}(X)</math>
Insbesondere für <math>a = -1</math> folgt <math>\operatorname{Var}(-X) = \operatorname{Var}(X)</math>, das heißt, das Vorzeichen der Varianz ändert sich nicht, wenn sich das Vorzeichen der Zufallsvariablen ändert.
Jede Zufallsvariable kann durch Zentrierung und anschließende Normierung, genannt Standardisierung, in eine Zufallsvariable <math>Z</math> überführt werden. Diese Normierung ist eine lineare Transformation. Die derart standardisierte Zufallsvariable <math>Z</math> weist eine Varianz von <math>1</math> und einen Erwartungswert von <math>0</math> auf.
Beziehung zur Standardabweichung
Die Varianz einer Zufallsvariablen wird immer in Quadrateinheiten angegeben.<ref>Gerhard Hübner: Stochastik. Eine anwendungsorientierte Einführung für Informatiker, Ingenieure und Mathematiker. 3. Auflage, 2002, S. 103.</ref> Dies ist problematisch, weil quadrierte Einheiten, die auf diesem Wege zustande kommen – wie zum Beispiel <math>\text{cm}^2</math> –, keine sinnvolle Interpretation bieten; die Interpretation als Flächenmaß ist im vorliegenden Beispiel unzulässig. Um die gleiche Einheit wie die Zufallsvariable zu erhalten, wird daher statt der Varianz i. d. R. die Standardabweichung verwendet. Sie hat die gleiche Einheit wie die Zufallsvariable selbst und misst somit, bildlich gesprochen, „mit dem gleichen Maß“.
Die Standardabweichung ist die Quadratwurzel aus der Varianz:<ref>Lothar Papula: Mathematik für Ingenieure und Naturwissenschaftler. Band 3: Vektoranalysis, Wahrscheinlichkeitsrechnung, Mathematische Statistik, Fehler- und Ausgleichsrechnung. 1994, S. 338.</ref><ref>{{#invoke:Vorlage:Literatur|f}}</ref>
- <math>\operatorname{SD}(X) := \sqrt{\operatorname{Var}(X)} = \sqrt{\mathbb E\left((X-\mu)^2\right)}</math>
Sie wird als <math>\operatorname{SD}(X)</math> (gelegentlich auch als <math>D(X)</math>), <math>\sigma_X</math>, oder einfach als <math>\sigma</math> (Sigma) notiert. Ferner eignet sich die Standardabweichung zur Quantifizierung von Unsicherheit bei Entscheidungen unter Risiko, weil sie, im Unterschied zur Varianz, den Anforderungen an ein Risikomaß genügt.
Bei einigen Wahrscheinlichkeitsverteilungen, insbesondere der Normalverteilung, können aus der Standardabweichung direkt Wahrscheinlichkeiten berechnet werden. So befinden sich bei der Normalverteilung immer ca. 68 % der Werte im Intervall von der Breite von zwei Standardabweichungen um den Erwartungswert. Beispiel hierfür ist die Körpergröße: Sie ist für eine Nation und Geschlecht annähernd normalverteilt, sodass z. B. in Deutschland 2006 ca. 68 % aller Männer etwa zwischen 171 und 186 cm groß waren (ca. <math>178{,}3 \pm 7{,}3 \;\text{cm}</math>, also „Erwartungswert plus/minus Standardabweichung“).<ref>Körpergröße der Deutschen. Statistik des Sozio-oekonomischen Panels (SOEP) 2006, aufbereitet durch statista.org.</ref>
Für die Standardabweichung gilt für jede Konstante <math>c</math>: <math>\operatorname{SD}(c)=0</math>. Im Gegensatz zur Varianz gilt für die Standardabweichung die Rechenregel <math>\operatorname{SD}(aX+b) = |a|\operatorname{SD}(X)</math> mit <math>a, b \in \mathbb{R}</math> für lineare Transformationen, das heißt, die Standardabweichung wird im Gegensatz zur Varianz nicht mit dem Quadrat <math>a^2</math> der Konstanten skaliert. Insbesondere gilt für <math>a>0</math>: <math>\operatorname{SD}(aX+b) = a \cdot\operatorname{SD}(X)</math>.
Beziehung zur Kovarianz
{{#if: Kovarianz (Stochastik)|{{#ifexist:Kovarianz (Stochastik)|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Im Gegensatz zur Varianz, die lediglich die Variabilität der betrachteten Zufallsvariablen misst, misst die Kovarianz die gemeinsame Variabilität von zwei Zufallsvariablen. Die Varianz ist demnach die Kovarianz einer Zufallsvariablen mit sich selbst: <math>\operatorname{Cov}(X,X) = \operatorname{Var}(X)</math>. Diese Beziehung folgt direkt aus den Definition von Varianz und Kovarianz. Die Kovarianz zwischen <math>X</math> und <math>Y</math> wird auch mit <math>\sigma_{X,Y}</math> abgekürzt. Außerdem gilt, da die Kovarianz eine positiv semidefinite Bilinearform ist, die Cauchy-Schwarzsche Ungleichung:
- <math>(\operatorname{Cov}(X,Y))^2 \leq \operatorname{Var}(X) \operatorname{Var}(Y)</math>.
Diese bedeutende Ungleichung findet vor allem in der linearen Algebra Anwendung.
Summe zweier Zufallsvariablen
Für die Summe zweier Zufallsvariablen <math>X</math> und <math>Y</math> gilt
- <math>\operatorname{Var}(X+Y) = \operatorname{Var}(X) + \operatorname{Var}(Y) + 2\operatorname{Cov}(X,Y)</math>,
wobei <math>\operatorname{Cov}\left(X, Y\right)</math> die Kovarianz von <math>X</math> und <math>Y</math> ist.
Allgemeiner gilt für reelle Konstanten <math>a,b\in \mathbb{R}</math>:<ref>L. Kruschwitz, S. Husmann: Finanzierung und Investition. S. 471.</ref>
- <math>\operatorname{Var}(aX + bY) = a^2\operatorname{Var}(X) + b^2\operatorname{Var}(Y) + 2ab\operatorname{Cov}(X,Y)</math>.
Wenn <math>X</math> und <math>Y</math> unkorreliert sind, das heißt <math>\operatorname{Cov}\left(X, Y\right)=0</math>, gilt entsprechend
- <math>\operatorname{Var}(X + Y) = \operatorname{Var}(X) + \operatorname{Var}(Y)</math>,
und allgemeiner
- <math>\operatorname{Var}(aX + bY) = a^2\operatorname{Var}(X) + b^2\operatorname{Var}(Y)</math>.
In Worten ausgedrückt: Die Variabilität der Summe zweier Zufallsvariablen ist gleich der Summe der einzelnen Variabilitäten und dem Zweifachen der gemeinsamen Variabilität der beiden Zufallsvariablen.<ref name=":0" /><ref>Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 86.</ref>
Lineare Kombinationen von Zufallsvariablen
{{#invoke:Vorlage:Siehe auch|f}} Für die Varianz einer beliebigen Summe von Zufallsvariablen <math>X = a_1 X_1 + \dotsb + a_n X_n</math> und reellen Konstanten <math>a_1,\dots,a_n\in \mathbb{R}</math> gilt allgemein:<ref>Klenke: Wahrscheinlichkeitstheorie. 2013, S. 106.</ref><ref>Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 329.</ref>
- <math>\begin{align}
\operatorname{Var}\left(X\right)
&= \sum\limits_{j=1}^n\sum\limits_{i=1}^n a_ia_j\operatorname{Cov}(X_i,X_j)\\
&= \sum\limits_{i=1}^n a_i^2\operatorname{Var}(X_i) + \sum\limits_{i\neq j}a_i a_j\operatorname{Cov}(X_i, X_j)\\
&= \sum\limits_{i=1}^n a_i^2\operatorname{Var}(X_i) + 2\sum\limits_{1\leq i<j\leq n}a_i a_j\operatorname{Cov}(X_i, X_j)\\
\end{align}</math>
wobei die Eigenschaft <math>\operatorname{Cov}\left(X_i, X_i\right) = \operatorname{Var}\left(X_i\right)</math> verwendet wurde.
Für paarweise unkorrelierte Zufallsvariablen <math>X_1, \dotsc, X_n</math> (das heißt <math>\operatorname{Cov}(X_i,X_j)=0</math> für alle <math>i\neq j</math>) gilt somit
- <math>\operatorname{Var}\left(\sum\limits_{i=1}^n X_i\right) = \sum\limits_{i=1}^n \operatorname{Var}(X_i)</math>
oder allgemeiner mit beliebigen reellen Konstanten <math>a_1, \dotsc, a_n\in \mathbb{R}</math>:
- <math>\begin{align}
\operatorname{Var}\left(\sum\limits_{i=1}^n a_iX_i\right) = \sum\limits_{i=1}^n a_i^2 \operatorname{Var}\left(X_i\right)\end{align}</math>
Dieses Resultat wurde 1853 vom französischen Mathematiker Irénée-Jules Bienaymé entdeckt und wird daher auch als Gleichung von Bienaymé bezeichnet.<ref>Irénée-Jules Bienaymé: Considérations à l’appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés. In: Comptes rendus de l’Académie des sciences Paris. 37, 1853, S. 309–317.</ref><ref>Michel Loeve: Probability Theory (= Graduate Texts in Mathematics. Volume 45). 4. Auflage, Springer-Verlag, 1977, ISBN 3-540-90210-4, S. 12.</ref> Sie gilt insbesondere dann, wenn die Zufallsvariablen unabhängig sind, denn aus Unabhängigkeit folgt Unkorreliertheit. Wenn alle Zufallsvariablen die gleiche Varianz <math>\sigma^2</math> haben, bedeutet dies für die Varianzbildung des Stichprobenmittels:
- <math>\operatorname{Var}\left(\overline{X}\right) = \operatorname{Var}\left(\frac {1}{n} \sum_{i=1}^n X_i\right) = \frac {1}{n^2} \sum_{i=1}^n \operatorname{Var}\left(X_i\right) = \frac {\sigma^2}{n}</math>
Man kann erkennen, dass die Varianz des Stichprobenmittels sinkt, wenn der Stichprobenumfang <math>n</math> steigt. Diese Formel für die Varianz des Stichprobenmittels wird bei der Definition des Standardfehlers des Stichprobenmittels benutzt, der im zentralen Grenzwertsatz angewendet wird.
Produkte
Sind zwei Zufallsvariablen <math>X</math> und <math>Y</math> unabhängig, dann ist die Varianz ihres Produktes gegeben durch:<ref>Leo A. Goodman: On the exact variance of products. In: Journal of the American Statistical Association. Dezember 1960, S. 708–713, doi:10.2307/2281592.</ref>
- <math>\operatorname{Var}(XY) = (\mathbb E(X))^2 \operatorname{Var}(Y) + (\mathbb E(Y))^2 \operatorname{Var}(X) + \operatorname{Var}(X)\operatorname{Var}(Y)</math>
Zusammengesetzte Zufallsvariable
Ist <math>Y</math> eine zusammengesetzte Zufallsvariable, d. h., sind <math>N, X_1, X_2, \dotsc</math> unabhängige Zufallsvariablen, sind die <math>X_i</math> identisch verteilt und ist <math>N</math> auf <math>\mathbb{N}_0</math> definiert, so lässt sich <math>Y</math> darstellen als <math>Y := \sum\nolimits_{i=1}^N X_i</math>. Existieren die zweiten Momente von <math>N, X_1, X_2, \dotsc</math>, so gilt für die zusammengesetzte Zufallsvariable:
- <math>\operatorname{Var}(Y) = \operatorname{Var}(N)\left(\mathbb E\left(X_1\right)\right)^2 + \mathbb E(N)\operatorname{Var}\left(X_1\right)</math>
Diese Aussage ist auch als Blackwell-Girshick-Gleichung bekannt und wird z. B. in der Schadensversicherungsmathematik benutzt.
Momenterzeugende und kumulantenerzeugende Funktion
Mithilfe der momenterzeugenden Funktion lassen sich Momente wie die Varianz häufig einfacher berechnen. Die momenterzeugende Funktion ist definiert als Erwartungswert der Funktion <math>e^{tX}</math>. Da für die momenterzeugende Funktion <math>\mathbb E\left(e^{tX}\right)</math> der Zusammenhang<ref>Wolfgang Kohn: Statistik: Datenanalyse und Wahrscheinlichkeitsrechnung. S. 250.</ref>
- <math>M_X^{(n)}(t=0) = \mathbb E\left(X^n\right)</math>
gilt, lässt sich die Varianz, durch den Verschiebungssatz, damit auf folgende Weise berechnen:
- <math>\operatorname{Var}(X) = \mathbb E\left(X^2\right) - (\mathbb E(X))^2 = M_X(0) - \left( M_X'(0)\right)^2</math>
Hierbei ist <math>M_X</math> die momenterzeugende Funktion und <math>M_X^{(n)}</math> deren <math>n</math>-te Ableitung. Die kumulantenerzeugende Funktion einer Zufallsvariablen ergibt sich als Logarithmus der momenterzeugenden Funktion und ist definiert als:
- <math>g_X(t) := \ln \mathbb E (e^{tX})</math>
Leitet man sie zweimal ab und wertet sie an der Stelle null aus, so erhält man für die Varianz <math>g_X(t)\bigg|_{t=0} = \sigma^2</math>. Die zweite Kumulante ist also die Varianz.
Charakteristische und wahrscheinlichkeitserzeugende Funktion
Die Varianz einer Zufallsvariablen <math>X</math> lässt sich auch mit Hilfe ihrer charakteristischen Funktion <math>\varphi_{X}(t) = \mathbb E\left(e^{\mathrm{i}tX}\right)</math> darstellen. Wegen
- <math>\mathbb E(X^k) = \frac{\varphi_X^{(k)}(0)}{\mathrm{i}^k}\;,k = 1, 2, \dots</math>
- <math>(\mathbb E(X))^2 = \left(\frac{\varphi_X'(0)}{\mathrm{i}}\right)^{2}</math>
folgt nämlich mit dem Verschiebungssatz:<ref>Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 97.</ref>
- <math>\operatorname{Var}(X)
= \mathbb E(X^2) - (\mathbb E(X))^2 = \frac{\varphi_X(0)}{\mathrm{i}^2} - \left(\frac{\varphi_X'(0)}{\mathrm{i}}\right)^{2}</math>
Auch mit der wahrscheinlichkeitserzeugenden Funktion <math>m_X(t) = \mathbb E(t^X)</math>, die in Beziehung zur charakteristische Funktion steht, lässt sich für diskrete <math>X</math> die Varianz berechnen. Es gilt dann für die Varianz <math>\sigma^2 = \lim_{t \uparrow 1} \left(m_X(t) + m_X'(t) - m_X'(t)^2\right)</math>, falls der linksseitige Grenzwert existiert.
Varianz als mittlere quadratische Abweichung vom Mittelwert
Im Falle einer diskreten Zufallsvariablen <math>X</math> mit abzählbar endlichem Träger <math>\mathcal T = \{x_1, x_2, \dotsc, x_n\} \subset \R</math> ergibt sich für die Varianz der Zufallsvariablen <math>\operatorname{Var}(X)</math>:
- <math>\operatorname{Var}(X) = p_1 (x_1 - \mu)^2 + p_2 (x_2 - \mu)^2 + \dotsb + p_n (x_n - \mu)^2</math>
Hierbei ist <math>p_i = P\left(X=x_i\right)</math> die Wahrscheinlichkeit, dass <math>X</math> den Wert <math>x_i</math> annimmt. Diese Varianz kann als Summe der Werte <math>\left(x_1 - \mu\right)^2, \left(x_2 - \mu\right)^2, \dotsc, \left(x_n - \mu\right)^2</math>, gewichtet mit den Wahrscheinlichkeiten <math>p_1, p_2, \dotsc, p_n</math>, interpretiert werden.
Falls <math>X</math> gleichverteilt auf <math>\{x_1 ,x_2, \dotsc, x_n\} \subset \R</math> ist (<math>p_1=p_2=\dotsb=p_n=1/n</math>), ist der Erwartungswert gleich dem arithmetischen Mittel (siehe Gewichtetes arithmetisches Mittel als Erwartungswert):
- <math>\mu = \operatorname E(X) = \frac{1}{n} \left(x_1 + x_2 + \dotsb + x_n\right) = \frac1n \sum_{i=1}^n{x_i} = \overline x</math>
Folglich wird die Varianz <math>\operatorname{Var}(X) = p_1 (x_1 - \mu)^2 + p_2 (x_2 - \mu)^2 + \dotsb + p_n (x_n - \mu)^2</math> zum arithmetischen Mittel der Werte <math>(x_i - \overline x)^2</math>:
- <math>\sigma^2 = \operatorname{Var}(X) = \frac{1}{n} \left(\left(x_1 - \overline x\right)^2 + \left(x_2 - \overline x\right)^2 + \dotsb + \left(x_n - \overline x\right)^2\right) = \frac1n \sum_{i=1}^n{\left(x_i - \overline x\right)^2} = s^2</math>
D. h., die Varianz ist bei Gleichverteilung gerade die mittlere quadratische Abweichung vom Mittelwert bzw. die Stichprobenvarianz <math>s^2</math>.
Geschichte
Das Konzept der Varianz geht auf Carl Friedrich Gauß zurück. Gauß führte den mittleren quadratischen Fehler ein, um zu zeigen, wie sehr ein Punktschätzer um den zu schätzenden Wert streut. Diese Idee wurde von Karl Pearson, dem Begründer der Biometrie, übernommen. Er ersetzte, für dieselbe Idee, den von Gauß geprägten Begriff mittlerer Fehler durch seinen Begriff Standardabweichung. Diesen verwendet er im Anschluss in seinen Vorlesungen. Der Gebrauch des griechischen Buchstabens Sigma für die Standardabweichung wurde von Pearson erstmals 1894 in seiner Serie von achtzehn Arbeiten mit dem Titel Mathematische Beiträge zur Evolutionstheorie (Originaltitel: Contributions to the Mathematical Theory of Evolution) eingeführt. Er schrieb dort: „[…] dann wird <math>\sigma</math> seine Standardabweichung (Fehler des mittleren Quadrats)“. Im Jahre 1901 gründete Pearson dann die Zeitschrift Biometrika, die eine wichtige Grundlage der angelsächsischen Schule der Statistik wurde.
Die Bezeichnung „Varianz“ wurde vom Statistiker Ronald Fisher in seinem 1918 veröffentlichtem Aufsatz mit dem Titel Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung (Originaltitel: The Correlation between Relatives on the Supposition of Mendelian Inheritance) eingeführt. Ronald Fisher schreibt:
{{#ifeq: {{{vor}}}@@-@@{{{nach}}} | -@@-@@-
| {{#if:trim|Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […]}}
| {{#ifeq: {{#if:|{{{vor}}}|@#@}}{{#if:|{{{nach}}}|@#@}} | @#@@#@
| {{#ifeq: de | de
| „{{#if:trim|Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […]}}“
| {{#invoke:Text|quoteUnquoted| Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […] | {{{lang}}} }} }}
| {{#ifeq: {{#if:|{{{vor}}}|-}} | -
| „
| {{{vor}}} }}{{#if:trim|Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […]}}{{
#ifeq: {{#if:|{{{nach}}}|-}} | -
| “
| {{{nach}}} }} }} }}{{
#if: Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung<ref>Ronald Aylmer Fisher: The Correlation between Relatives on the Supposition of Mendelian Inheritance. Trans. Roy. Soc. Edinb. 52: 399–433, 1918.</ref> || }}
{{#if:
|
„{{{Latn}}}“{{#if: Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung<ref>Ronald Aylmer Fisher: The Correlation between Relatives on the Supposition of Mendelian Inheritance. Trans. Roy. Soc. Edinb. 52: 399–433, 1918.</ref> || }}
}}{{#if:
|
„{{{de}}}“{{#if: Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung<ref>Ronald Aylmer Fisher: The Correlation between Relatives on the Supposition of Mendelian Inheritance. Trans. Roy. Soc. Edinb. 52: 399–433, 1918.</ref> || }}
}}|{{#if: Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung<ref>Ronald Aylmer Fisher: The Correlation between Relatives on the Supposition of Mendelian Inheritance. Trans. Roy. Soc. Edinb. 52: 399–433, 1918.</ref>
|}}}}
{{#if: |
{{#if: {{#invoke:Text|unstrip|{{{ref}}}}}
| }} }}{{#if: Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […] | {{
#if: | {{#if: Der große Körper der verfügbaren Statistiken zeigt uns, dass die Abweichungen einer menschlichen Messung von ihrem Mittel sehr genau dem Gesetz der Normalverteilung der Störgrößen folgen, und, folglich, dass die Variabilität gleichmäßig durch die Standardabweichung gemessen werden kann, die der Quadratwurzel des mittleren quadratischen Fehlers entspricht. Wenn es zwei unabhängige Ursachen der Variabilität gibt, die in der Lage sind, in einer ansonsten gleichmäßigen Populationsverteilung die Standardabweichungen <math>\sigma_1</math> and <math>\sigma_2</math> zu produzieren, wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen interagieren, eine Standardabweichung von <math>\sqrt{\sigma_1^2 + \sigma_2^2}</math> aufweist. Es ist daher wünschenswert, die Ursachen der Variabilität zu analysieren, um mit dem Quadrat der Standardabweichung als einem Maß für die Variabilität umzugehen. Wir sollten diese Größe die Varianz taufen […] |
Vorlage:Zitat: Doppelangabe 1=Text=}}
}}| }}{{#if: | {{#if: |
Vorlage:Zitat: Doppelangabe 2=Autor=}}
}}{{#if: | {{#if: Die Korrelation zwischen Verwandten in der Annahme der Mendelschen Vererbung<ref>Ronald Aylmer Fisher: The Correlation between Relatives on the Supposition of Mendelian Inheritance. Trans. Roy. Soc. Edinb. 52: 399–433, 1918.</ref> |
Vorlage:Zitat: Doppelangabe 3=Quelle=}}
}}{{#if: | {{#if: |
Vorlage:Zitat: Doppelangabe Umschrift=Latn=}}
}}{{#if: | {{#if: |
Vorlage:Zitat: Doppelangabe Sprache=lang=}}
}}{{#if: | {{#if: |
Vorlage:Zitat: Doppelangabe Übersetzung=de=}}
}}
Fisher führte kein neues Symbol ein, sondern benutzte lediglich <math>\sigma^2</math> zur Notation der Varianz. In den folgenden Jahren entwickelte er ein genetisches Modell, das zeigt, dass eine kontinuierliche Variation zwischen phänotypischen Merkmalen, die von Biostatistikern gemessen wurde, durch die kombinierte Wirkung vieler diskreter Gene erzeugt werden kann und somit das Ergebnis einer mendelschen Vererbung ist. Auf diesen Resultaten aufbauend formulierte Fisher dann sein fundamentales Theorem der natürlichen Selektion, das die Gesetzmäßigkeiten der Populationsgenetik für die Zunahme der Fitness von Organismen beschreibt. Zusammen mit Pearson entwickelte er u. a. die Grundlagen der Versuchsplanung (1935 erschien The Design of Experiments) und der Varianzanalyse. Des Weiteren lässt sich die Mehrzahl der biometrischen Methoden auf Pearson und Fisher zurückführen, auf deren Grundlage Jerzy Neyman und Egon Pearson in den 1930er Jahren die allgemeine Testtheorie entwickelten.<ref>Lothar Sachs: Statistische Auswertungsmethoden. 1968, 1. Auflage, S. 436.</ref>
Kenngröße einer Wahrscheinlichkeitsverteilung
{{#if: Wahrscheinlichkeitsverteilung|{{#ifexist:Wahrscheinlichkeitsverteilung|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Jede Wahrscheinlichkeitsverteilung oder Zufallsvariable kann durch sogenannte Kenngrößen (auch Parameter genannt) beschrieben werden, die diese Verteilung charakterisieren. Die Varianz und der Erwartungswert sind die wichtigsten Kenngrößen einer Wahrscheinlichkeitsverteilung. Sie werden bei einer Zufallsvariablen als Zusatzinformationen wie folgt angegeben: <math>X \; \sim \; (\mu,\sigma^2)</math>. In Worten: Die Zufallsvariable <math>X</math> folgt einer (hier nicht näher spezifizierten) Verteilung mit Erwartungswert <math>\mu</math> und Varianz <math>\sigma^2</math>. Für den Fall, dass die Zufallsvariable einer speziellen Verteilung folgt, zum Beispiel einer Standardnormalverteilung, wird dies wie folgt notiert: <math>X \; \sim \; \mathcal{N}(0,1)</math>. Der Erwartungswert von <math>X</math> ist also Null und die Varianz Eins. Weitere wichtige Kenngrößen einer Wahrscheinlichkeitsverteilung stellen neben den Momenten beispielsweise der Median, der Modus oder Quantile dar.<ref>Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 58.</ref> Die Kenngrößen einer Wahrscheinlichkeitsverteilung entsprechen in der deskriptiven Statistik den Kenngrößen einer Häufigkeitsverteilung.
Sätze über die Varianz
Tschebyscheffsche Ungleichung
{{#if: Tschebyscheffsche Ungleichung|{{#ifexist:Tschebyscheffsche Ungleichung|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Mithilfe der Tschebyscheffschen Ungleichung lässt sich unter Verwendung der existierenden ersten beiden Momente die Wahrscheinlichkeit dafür abschätzen, dass die Zufallsvariable <math>X</math> Werte in bestimmten Intervallen der reellen Zahlengeraden annimmt, ohne jedoch die Verteilung von <math>X</math> zu kennen. Sie lautet für eine Zufallsvariable <math>X</math> mit Erwartungswert <math>\mu</math> und Varianz <math>\sigma^2</math>:<ref>Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 101.</ref>
- <math>P\left(\left|X-\mu\right| \geq k\right) \leq \frac{\sigma^2}{k^2} \quad, k>0</math>
Die Tschebyscheffsche Ungleichung gilt sowohl für symmetrische als auch für schiefe Verteilungen, sie setzt also keine besondere Verteilungsform voraus. Ein Nachteil der Tschebyscheffschen Ungleichung ist, dass sie nur eine grobe Abschätzung liefert.
Popovicius Ungleichung für Varianzen
Mit Hilfe der Ungleichung von Popoviciu kann man die Varianz nach oben beschränken. Sei <math>X</math> eine Zufallsvariable mit Varianz <math>\sigma^2</math> und <math>m=\operatorname{inf}(X)</math>, <math>M=\operatorname{sup}(X)</math>, dann gilt:
- <math>\sigma^2 \le \frac14 (M - m)^2</math>
Gesetz der totalen Varianz
Das Gesetz der totalen Varianz (auch Gesetz der iterierten Varianz oder Eves Gesetz) sagt: Falls <math>X, Y</math> zwei Zufallsvariablen auf dem gleichen Wahrscheinlichkeitsraum sind und die Varianz von <math>Y</math> endlich ist, dann gilt:
- <math>\operatorname{Var}(Y) = \mathbb{E}\left[\operatorname{Var}[Y\mid X]\right] + \operatorname{Var}\left[\mathbb{E}[Y\mid X]\right]</math>
Allgemeiner gilt: Wenn <math>Y\in L^2(\Omega,\mathcal{F},P)</math> und <math>\mathcal{G}\subset\mathcal{F}</math>, dann gilt
- <math>\operatorname{Var}(Y) = \mathbb{E}\left[\operatorname{Var}[Y\mid \mathcal{G}]\right] + \operatorname{Var}\left[\mathbb{E}[Y\mid \mathcal{G}]\right].</math>
Interpretation
Physikalische Interpretation
Die Varianz ist neben dem Erwartungswert die zweite wichtige Kenngröße der Verteilung einer reellen Zufallsvariablen. Das <math>r</math>-te zentrale Moment von <math>X</math> ist <math>\mu_r=\mathbb E\left((X-\mu)^r\right)</math>. Für <math>r=2</math> wird das zentrale Moment zweiter Ordnung <math>\mu_2=\mathbb E\left((X-\mu)^2\right)</math> Varianz der Verteilung von <math>X</math> genannt.<ref>George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 40.</ref> Der Begriff „Moment“ stammt originär aus der Physik. Wenn man die möglichen Werte als Massepunkte mit den Massen auf der (als gewichtslos angenommenen) reellen Zahlengeraden interpretiert, dann erhält man eine physikalische Interpretation des Erwartungswertes: Das erste Moment, der Erwartungswert, stellt dann den physikalischen Schwerpunkt beziehungsweise Massenmittelpunkt des so entstehenden Körpers dar.<ref>Hans-Otto Georgii: Einführung in die Wahrscheinlichkeitstheorie und Statistik, ISBN 978-3-11-035970-1, S. 102 (abgerufen über De Gruyter Online).</ref> Die Varianz kann dann als Trägheitsmoment des Massesystems bezüglich der Rotationsachse um den Schwerpunkt interpretiert werden.<ref>Hans-Heinz Wolpers: Mathematikunterricht in der Sekundarstufe II. Band 3: Didaktik der Stochastik. S. 20.</ref> Im Gegensatz zum Erwartungswert, der also die Wahrscheinlichkeitsmasse balanciert, ist die Varianz ein Maß für die Streuung der Wahrscheinlichkeitsmasse um ihren Erwartungswert.
Interpretation als Abstand
Die Interpretation der Varianz einer Zufallsvariablen als mittlerer quadrierter Abstand lässt sich wie folgt erklären: Der Abstand zwischen zwei Punkten <math>x_1</math> und <math>x_2</math> auf der reellen Zahlengeraden ist gegeben durch <math>d=\sqrt{(x_1-x_2)^2}</math>. Wenn man jetzt definiert, dass ein Punkt die Zufallsvariable <math>X</math> ist und der andere <math>\mu=\mathbb E(X)</math>, dann gilt <math>d=\sqrt{(X-\mu)^2}</math>, und der quadrierte Abstand lautet <math>(X-\mu)^2</math>. Folglich wird <math>\mathbb E((X-\mu)^2)</math> als der mittlere quadrierte Abstand zwischen der Realisierung der Zufallsvariablen <math>X</math> und dem Erwartungswert <math>\mathbb E(X)</math> interpretiert, wenn das Zufallsexperiment unendlich oft wiederholt wird.<ref>George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 40.</ref>
Interpretation als Maß für Determinismus
Die Varianz beschreibt außerdem die Breite einer Wahrscheinlichkeitsfunktion<ref>W. Zucchini, A. Schlegel, O. Nenadíc, S. Sperlich: Statistik für Bachelor- und Masterstudenten. Springer, 2009, ISBN 978-3-540-88986-1, S. 121.</ref> und daher, wie „stochastisch“ oder wie „deterministisch“ ein betrachtetes Phänomen ist. Bei einer großen Varianz liegt eher eine stochastische Situation vor und bei einer kleinen Varianz eher eine deterministische.<ref>W. Zucchini, A. Schlegel, O. Nenadíc, S. Sperlich: Statistik für Bachelor- und Masterstudenten. Springer, 2009, ISBN 978-3-540-88986-1, S. 123.</ref> Im Spezialfall einer Varianz von Null liegt eine vollständig deterministische Situation vor. Die Varianz ist genau dann Null, wenn die Zufallsvariable <math>X</math> mit hundertprozentiger Wahrscheinlichkeit nur einen bestimmen Wert, nämlich den Erwartungswert, annimmt – wenn also <math>P(X=\mu)=1</math> gilt. So eine „Zufallsvariable“ ist mit Wahrscheinlichkeit eins konstant und kann in diesem Sinn als „deterministisch“ bezeichnet werden.<ref name="FKPT">Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 232.</ref> Da für eine Zufallsvariable mit dieser Eigenschaft <math>P(X=x) = 0</math> für alle <math>x \ne \mu</math> gilt, wird deren Verteilung manchmal auch als „entartet“ bezeichnet.<ref name="FKPT" /> Eine Wahrscheinlichkeitsverteilung mit <math>P(X=\mu) = 1</math> für eine reelle Zahl <math>\mu</math> heißt degenerierte Wahrscheinlichkeitsverteilung oder Dirac-Verteilung.
Der Unterschied zwischen einer Konstanten <math>\mu \in \R</math>, die einer reellen Zufallsvariablen <math>X_\mu \colon \Omega \to \R</math> mit der Eigenschaft <math>X_\mu(\omega) = 1</math> für alle <math>\omega \in \Omega</math> entspricht, und einer Zufallsvariablen <math>X</math> mit der Eigenschaft <math>P(X=\mu) = 1</math> ist, dass im zweiten Fall realisierte Werte der Zufallsvariablen möglich sind, die von <math>\mu</math> verschieden sind, die aber insgesamt die Wahrscheinlichkeit null haben, es gilt also <math>P(X \neq \mu)=1</math>. In beiden Fällen hat die Varianz den Wert Null.
Im Gegensatz zu diskreten Zufallsvariablen gilt für stetige Zufallsvariablen stets <math>P(X=x) = 0</math> für jedes <math>x \in \R</math>.<ref>Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 254.</ref> Im stetigen Fall beschreibt die Varianz die Breite einer Dichtefunktion. Die Breite wiederum ist ein Maß für die Unsicherheit, die mit einer Zufallsvariable verbunden ist. Je schmaler die Dichtefunktion ist, desto genauer kann der Wert von <math>X</math> vorhergesagt werden.
Varianzen spezieller Verteilungen
In der Stochastik gibt es eine Vielzahl von Verteilungen, die meist eine unterschiedliche Varianz aufweisen und oft in Beziehung zueinander stehen. Die Varianz der Normalverteilung ist von großer Bedeutung, da die Normalverteilung in der Statistik eine außerordentliche Stellung einnimmt. Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, dem zufolge Verteilungen, die durch Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, unter schwachen Voraussetzungen annähernd normalverteilt sind. Eine Auswahl wichtiger Varianzen ist in nachfolgender Tabelle zusammengefasst:
| Verteilung | Stetig/diskret | Wahrscheinlichkeitsfunktion | Varianz |
| Normalverteilung | Stetig | <math>f(x\mid \mu,\sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}}\operatorname{exp}\left\{-\frac{(x-\mu)^2}{2\sigma^2}\right\}</math> | <math>\sigma^2</math> |
| Cauchy-Verteilung | Stetig | <math>f(x) = \frac{1}{\pi} \cdot \frac{s}{s^2 + (x-t)^2}</math> | existiert nicht |
| Bernoulli-Verteilung | Diskret | <math>f(x\mid p) = \begin{cases}
p^x(1-p)^{1-x} &\text{falls} \quad x = 0, 1\\
0 &\text{sonst.}\end{cases}</math>
|
<math>p(1-p)</math> |
| Binomialverteilung | Diskret | <math>f(x \mid n, p) = \begin{cases}
\binom nx p^x (1-p)^{n-x} &\text{falls} \quad x = 0, 1, \dots, n\\
0 &\text{sonst.}
\end{cases}</math> |
<math>np(1-p)</math> |
| Stetige Gleichverteilung | Stetig | <math>f(x) = \begin{cases}
\frac 1{b-a} &\text{falls} \quad a \le x \le b\\
0 &\text{sonst.}
\end{cases}</math> |
<math>\frac{1}{12}(b - a)^2</math> |
| Poisson-Verteilung | Diskret | <math>f(x) = \begin{cases}
\frac{\lambda^x}{x!}\, \mathrm{e}^{-\lambda} &\text{falls} \quad x \in \{0, 1, \dots\}\\
0 &\text{sonst.}
\end{cases}</math> |
<math>\lambda</math> |
| Degenerierte Verteilung | Diskret | <math>f(x \mid b) = \begin{cases}
1 &\text{falls} \quad x = b\\
0 &\text{sonst.}
\end{cases}</math> |
<math>0</math> |
Beispiele
Berechnung bei diskreten Zufallsvariablen
Münzwurf
Eine Münze wird 7-mal geworfen. Wenn die diskrete Zufallsvariable <math>X</math> die Anzahl der Würfe zählt, mit denen „Zahl“ geworfen wird, ergibt sich für <math>X</math> die Binomialverteilung
- <math>B(i \mid \tfrac{1}{2},7) = \begin{cases}
\binom 7k \left(\tfrac{1}{2}\right)^i \left(1-\tfrac{1}{2}\right)^{7-i} &\text{falls} \quad i \in \{0,1,2,3,4,5,6,7\}\\
0 &\text{sonst.}\end{cases}</math>
mit <math>n = 7</math> und <math>p = \tfrac{1}{2}</math>. Die Werte und ihre Wahrscheinlichkeiten lassen sich in folgender Tabelle zusammenfassen:
| <math>X=x_i</math> | <math>0</math> | <math>1</math> | <math>2</math> | <math>3</math> | <math>4</math> | <math>5</math> | <math>6</math> | <math>7</math> |
| <math>P(X=x_i)=p_i</math> | <math>\frac{1}{128}</math> | <math>\frac{7}{128}</math> | <math>\frac{21}{128}</math> | <math>\frac{35}{128}</math> | <math>\frac{35}{128}</math> | <math>\frac{21}{128}</math> | <math>\frac{7}{128}</math> | <math>\frac{1}{128}</math> |
Der Erwartungswert beträgt
- <math>{\color{BrickRed}\mu} = np = 7 \cdot \frac{1}{2} = {\color{BrickRed}3{,}5}</math>
und daher ist die Varianz gegeben durch:
- <math>\begin{align}
\sigma^2 &= \sum_{i=0}^7 (x_i - {\color{BrickRed}\mu})^2 p_i = (0 - {\color{BrickRed}3{,}5})^2 \cdot \frac{1}{128} + (1 - {\color{BrickRed}3{,}5})^2 \cdot \frac{7}{128} + (2 - {\color{BrickRed}3{,}5})^2 \cdot \frac{21}{128} + (3 - {\color{BrickRed}3{,}5})^2 \cdot \frac{35}{128}\\
&\quad + (4 - {\color{BrickRed}3{,}5})^2 \cdot \frac{35}{128} + (5 - {\color{BrickRed}3{,}5})^2 \cdot \frac{21}{128} + (6 - {\color{BrickRed}3{,}5})^2 \cdot \frac{7}{128} + (7 - {\color{BrickRed}3{,}5})^2 \cdot \frac{1}{128} = \frac{7}{4} = 1{,}75
\end{align}</math>
Auch mit dem Verschiebungssatz erhält man diesen Wert für die Varianz:
- <math>\sigma^2 = \left(\sum_{i=0}^7 x_i^2 p_i\right) - \left(\sum_{i=0}^7 x_i p_i\right)^2 = 0^2 \cdot \frac{1}{128} + 1^2 \cdot \frac{7}{128} + 2^2 \cdot \frac{21}{128} + 3^2 \cdot \frac{35}{128} + 4^2 \cdot \frac{35}{128} + 5^2 \cdot \frac{21}{128} + 6^2 \cdot \frac{7}{128} + 7^2 \cdot \frac{1}{128} - {\color{BrickRed}3{,}5}^2 = 1{,}75</math>
Für die Standardabweichung ergibt sich damit:
- <math>\sigma = \sqrt{\sigma^2} = \sqrt{1{,}75} \approx 1{,}323</math>
Community Cards bei Texas Hold’em
Bei der Pokervariante Texas Hold’em werden von den 52 Spielkarten 5 Community Cards aufgedeckt. Wenn die diskrete Zufallsvariable <math>X</math> die Anzahl der Asse zählt, die aufgedeckt werden, ergibt sich für <math>X</math> die hypergeometrische Verteilung <math>h(k \mid 52;4;5) := P(X=k) = \frac{\displaystyle{4 \choose k}{52-4 \choose 5-k}}{\displaystyle{52 \choose 5}}</math> mit <math>N = 52</math> Spielkarten, <math>M = 4</math> Assen und <math>n = 5</math> Community Cards. Die Werte und ihre Wahrscheinlichkeiten lassen sich in folgender Tabelle zusammenfassen:
| <math>X=x_i</math> | <math>0</math> | <math>1</math> | <math>2</math> | <math>3</math> | <math>4</math> |
| <math>P(X=x_i) = p_i</math> | <math>\frac{1712304}{2598960}</math> | <math>\frac{778320}{2598960}</math> | <math>\frac{103776}{2598960}</math> | <math>\frac{4512}{2598960}</math> | <math>\frac{48}{2598960}</math> |
Der Erwartungswert beträgt
- <math>{\color{BrickRed}\mu} = n \cdot \frac{M}{N} = 5 \cdot \frac{4}{52} = {\color{BrickRed}\frac{5}{13}}</math>
und daher ist die Varianz gegeben durch:
- <math>\sigma^2 = \sum_{i=0}^4 (x_i - {\color{BrickRed}\mu})^2 p_i = \left(0 - {\color{BrickRed}\frac{5}{13}}\right)^2 \cdot \frac{1712304}{2598960} + \left(1 - {\color{BrickRed}\frac{5}{13}}\right)^2 \cdot \frac{778320}{2598960} + \left(2 - {\color{BrickRed}\frac{5}{13}}\right)^2 \cdot \frac{103776}{2598960} + \left(3 - {\color{BrickRed}\frac{5}{13}}\right)^2 \cdot \frac{4512}{2598960} + \left(4 - {\color{BrickRed}\frac{5}{13}}\right)^2 \cdot \frac{48}{2598960} \approx 0{,}327</math>
Für die Standardabweichung ergibt sich damit:
- <math>\sigma = \sqrt{\sigma^2} \approx \sqrt{0{,}327} \approx 0{,}572</math>
Berechnung bei stetigen Zufallsvariablen
Eine stetige Zufallsvariable <math>X</math> habe die Dichtefunktion
- <math>f(x) =
\begin{cases}
\frac {1}{x} &\text{falls} \quad 1 \le x \le e\\
0 &\text{sonst.}
\end{cases} </math>
mit den Erwartungswerten:
- <math>\mathbb E(X) = {\color{BrickRed}\mu} = \int_1^e x \cdot \frac {1}{x}\, \mathrm{d}x = \color{BrickRed}{e - 1}</math>
- <math>
\mathbb E\left(X^2\right)
= \int_{-\infty}^\infty x^2 \cdot f(x)\, \mathrm{d}x
= \int_1^e x^2 \cdot \frac {1}{x}\, \mathrm{d}x
= \left[\frac{x^2}{2}\right]_1^e
= \frac{e^2}{2} - \frac{1}{2}
</math>
Die Varianz dieser Dichtefunktion berechnet sich mit Hilfe des Verschiebungssatzes wie folgt:
- <math>\sigma^2 = \int_{-\infty}^{\infty} x^2 f(x)\,\mathrm d x - {\color{BrickRed}\mu}^2
= \frac{e^2}{2} - \frac{1}{2} - {\color{BrickRed}(e - 1)}^2
\approx 0{,}242
</math>
Stichprobenvarianz als Schätzer für die Varianz
{{#if: Stichprobenvarianz (Schätzfunktion)|{{#ifexist:Stichprobenvarianz (Schätzfunktion)|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Seien <math>X_1, \dots, X_n</math> reelle unabhängig und identisch verteilte Zufallsvariablen mit dem Erwartungswert <math>\mathbb E(X_i)=b</math> und der endlichen Varianz <math>\sigma^2=\operatorname{Var}(X_i)</math>. Ein Schätzer für den Erwartungswert <math>b</math> stellt das Stichprobenmittel <math>\overline X_n</math> dar, da nach dem Gesetz der großen Zahlen gilt:
- <math>\overline X_n \;\overset{p}{\longrightarrow} \; b</math>
Es wird im Folgenden ein Schätzer für die Varianz <math>\sigma^2</math> gesucht. Ausgehend von <math>X_1, \dots, X_n</math> definiert man sich die Zufallsvariablen <math>Y_i := (X_i-b)^2, \quad i = 1,\dots, n</math>. Diese sind unabhängig und identisch verteilt mit dem Erwartungswert <math>\mathbb E(Y_i) = \mathbb E(X_i-b)^2 = \sigma^2</math>. Ist <math>Y</math> nun quadratisch integrierbar, dann ist das schwache Gesetz der großen Zahlen anwendbar und es gilt:
- <math>\overline Y_n = \frac{1}{n} \sum_{i =1}^n(X_i-b)^2 \;\overset{p}{\longrightarrow} \; \sigma^2</math>
Wenn man nun <math>b</math> durch <math>\overline X_n</math> ersetzt, liefert dies die sogenannte Stichprobenvarianz. Aus diesem Grund stellt wie oben gezeigt die Stichprobenvarianz
- <math>\widetilde S_{n} = \frac{1}{n} \sum_{i=1}^n (X_i - \overline X_n )^2</math>
eine induktive Entsprechung der Varianz im stochastischen Sinne dar.<ref>Georg Neuhaus: Grundkurs Stochastik. S. 290.</ref>
Bedingte Varianz
{{#if: Bedingte Varianz|{{#ifexist:Bedingte Varianz|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Analog zu bedingten Erwartungswerten lassen sich beim Vorliegen von Zusatzinformationen, wie beispielsweise den Werten einer weiteren Zufallsvariablen, bedingte Varianzen bedingter Verteilungen betrachten. Es seien <math>X</math> und <math>Y</math> zwei reelle Zufallsvariablen, dann heißt die Varianz von <math>X</math>, die auf <math>Y=y</math> konditioniert ist,<ref>Jeffrey M. Wooldrige: Introductory Econometrics: A Modern Approach. 5. Auflage, 2012, S. 736.</ref>
- <math>\operatorname{Var}(X \mid Y=y) = \mathbb E\left((X - \mathbb E(X \mid Y = y))^2 \mid Y = y\right),</math>
die bedingte Varianz von <math>X</math> gegeben <math>Y=y</math> (oder Varianz von <math>X</math> bedingt auf <math>Y=y</math>).<ref>Toni C. Stocker, Ingo Steinke: Statistik: Grundlagen und Methodik. de Gruyter Oldenbourg, Berlin 2017, ISBN 978-3-11-035388-4, S. 319.</ref> Um die „gewöhnliche“ Varianz <math>\operatorname{Var}(X)</math> stärker von der bedingten Varianz <math>\operatorname{Var}(X \mid Y=y)</math> zu unterscheiden, spricht man bei der gewöhnlichen Varianz auch von der unbedingten Varianz.
Verallgemeinerungen
Varianz-Kovarianzmatrix
{{#if: Kovarianzmatrix|{{#ifexist:Kovarianzmatrix|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Im Falle eines reellen Zufallsvektors <math>\boldsymbol X = (X_1, \dots, X_p)^\mathsf{T}</math> mit dem dazugehörigen Erwartungswertvektor<ref>Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 646.</ref> <math>\boldsymbol \mu = (\mu_1, \dots, \mu_p)^\mathsf{T}</math> verallgemeinern sich die Varianz und die Kovarianz zur symmetrischen Varianz-Kovarianzmatrix (oder einfach Kovarianzmatrix) des Zufallsvektors:<ref>George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 43.</ref>
- <math>\operatorname{Cov}(\mathbf{X}) = \mathbb E\left((\boldsymbol X-\boldsymbol \mu)(\boldsymbol X-\boldsymbol \mu)^\mathsf{T}\right)</math>
Der Eintrag der <math>i</math>-ten Zeile und <math>j</math>-ten Spalte der Varianz-Kovarianzmatrix <math>\operatorname{Cov}(\mathbf{X})</math> ist die Kovarianz <math>\operatorname{Cov}(X_i, X_j), \; i \ne j</math> der Zufallsvariablen <math>X_i</math> und <math>X_j</math> und in der Diagonale stehen die Varianzen <math>\operatorname{Cov}(X_i, X_i) = \operatorname{Var}(X_i)</math>.<ref>George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 43.</ref> Da die Kovarianzen ein Maß für die Korrelation zwischen Zufallsvariablen darstellen und die Varianzen lediglich ein Maß für die Variabilität, enthält die Varianz-Kovarianzmatrix Informationen über die Streuung und Korrelationen zwischen all ihren Komponenten. Da die Varianzen und Kovarianzen per definitionem stets nichtnegativ sind, gilt analog für die Varianz-Kovarianzmatrix, dass sie positiv semidefinit ist.<ref>Wilfried Hausmann, Kathrin Diener, Joachim Käsler: Derivate, Arbitrage und Portfolio-Selection: Stochastische Finanzmarktmodelle und ihre Anwendungen. 2002, S. 15.</ref> Die Varianz-Kovarianzmatrix dient bei der Beurteilung von Schätzern als Effizienzkriterium. Im Allgemeinen gilt, dass sich die Effizienz eines Parameterschätzers anhand der „Größe“ seiner Varianz-Kovarianzmatrix messen lässt. Es gilt: Je „kleiner“ die Varianz-Kovarianzmatrix, desto „größer“ die Effizienz des Schätzers.
Matrixnotation für die Varianz einer Linearkombination
Es sei <math>\boldsymbol X</math> ein Spaltenvektor von <math>p</math> Zufallsvariablen <math>X_1, \ldots, X_p</math>, und <math>\boldsymbol a</math> ein Spaltenvektor bestehend aus <math>p</math> Skalaren <math>a_1, \ldots, a_p</math>. Dies bedeutet, dass <math>\boldsymbol a^\mathsf{T}\boldsymbol X</math> eine Linearkombination dieser Zufallsvariablen ist, wobei <math>\boldsymbol a^\mathsf{T}</math> die Transponierte von <math>\boldsymbol a</math> bezeichnet. Sei <math>\boldsymbol \Sigma_{\boldsymbol X} = (\sigma_{ij})</math> die Varianz-Kovarianzmatrix von <math>\boldsymbol X</math>. Die Varianz von <math>\boldsymbol a^\mathsf{T}\boldsymbol X</math> ist dann gegeben durch:<ref>Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: Models, Methods and Applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 647.</ref>
- <math>\operatorname{Var}(\boldsymbol a^\mathsf{T}\boldsymbol X) = \boldsymbol a^\mathsf{T}\boldsymbol \Sigma_{\boldsymbol X} \boldsymbol a = \sum_{i=1}^p \sum_{j=1}^p a_{i}a_{j}\sigma_{ij}</math>
Verwandte Maßzahlen
Fasst man die Varianz als Streuungsmaß der Verteilung einer Zufallsvariablen auf, so ist sie mit den folgenden Streuungsmaßen verwandt:
- Variationskoeffizient: Der Variationskoeffizient ist das Verhältnis von Standardabweichung und Erwartungswert und damit ein dimensionsloses Streuungsmaß.
- Quantilabstand: Der Quantilabstand zum Parameter <math>p</math> gibt an, wie weit das <math>p</math>- und das <math>(1-p)</math>-Quantil voneinander entfernt sind.
- Mittlere absolute Abweichung: Die mittlere absolute Abweichung ist das erste absolute zentrale Moment.
Weblinks
|1|= – Lern- und Lehrmaterialien |0|-= |X|x={{#switch: 0
|0|4|10|12|14|100=}}
|#default= – {{{suffix}}}
}}{{#if: | ({{#invoke:Multilingual|format|{{{lang}}}|slang=!|shift=m}}) }}{{#invoke:TemplatePar|check
|opt= 1= 2= lang= suffix= |template=Vorlage:Wikibooks |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt }}
|0|-= |X|x= |1|= – {{#ifeq:0|14|Sammlung von|Album mit}} Bildern{{#if:
| {{#switch: {{#invoke:TemplUtl|faculty|{{#if:|{{{video}}}|1}}}}/{{#invoke:TemplUtl|faculty|{{#if:|{{{audio}}}|1}}}}
|1/= und Videos
|1/1=, Videos und Audiodateien
|/1= und Audiodateien}}
| , Videos und Audiodateien
}}
|#default= – {{{suffix}}} }}{{#invoke:TemplatePar|check
|opt= 1= 2= suffix= audio= video= |template=Vorlage:Commons |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt}}
|X|x= |0|-= |S|s= – Sammlung von Bildern |1|= – Sammlung von Bildern{{#if:
| {{#switch: {{#invoke:TemplUtl|faculty|1}}/{{#invoke:TemplUtl|faculty|1}}
|1/= und Videos
|1/1=, Videos und Audiodateien
|/1= und Audiodateien}}
| , Videos und Audiodateien
}}
|#default= – }}{{#if: Variance
| {{#ifeq: {{#invoke:Str|left|variance|9}}
| category:
| FEHLER: Ohne Category: angeben!}}}}Vorlage:Wikidata-Registrierung
|1|= – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen |0|-= |X|x= |#default= –
}}{{#if:| {{#ifeq: {{{lang}}} | de | {{#ifeq: 0 | 0 | }} | ({{#invoke:Multilingual|format|{{{lang}}}|slang=!|shift=m}}) }}}}{{#invoke:TemplatePar|check
|opt= 1= 2= lang= suffix= |template=Vorlage:Wiktionary |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt }}
- {{#if: | {{{author}}} | Eric W. Weisstein }}: Variance. In: MathWorld (englisch). {{#if: Variance | {{#ifeq: {{#property:P2812}} | Variance | | {{#if: {{#property:P2812}} | {{#ifeq: 0 | 0 | }} | {{#ifeq: 0 | 0 | }} }} }} }}
- Ausführliche Berechnungen für den diskreten und stetigen Fall auf mathebibel.de.
Literatur
- George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York / Chichester / Brisbane / Toronto / Singapore, ISBN 978-0-471-62414-1, second edition 1988.
- Ludwig Fahrmeir u. a.: Statistik: Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer-Verlag, 2016, ISBN 978-3-662-50371-3.
Anmerkungen
<references group="A" />
Einzelnachweise
<references />
{{#ifeq: s | p | | {{#if: 4078739-400561029 | |
}} }}{{#ifeq:||{{#if: | [[Kategorie:Wikipedia:GND fehlt {{#invoke:Str|left|{{{GNDCheck}}}|7}}]] }}{{#if: | {{#if: | | }} }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#ifeq: s | p | {{#if: 4078739-4 | | {{#if: {{#statements:P227}} | | }} }} }}{{#ifeq: s | p | {{#if: 4078739-4 | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P227}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P244}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P244}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P214}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P214}} | | }} }} }} }}Vorlage:Wikidata-Registrierung
Vorlage:Hinweisbaustein{{#ifeq:0 | 0 | {{#if: 20. November 2017 | | }} {{#if: {{#invoke:Expr|figure|171224888|set=Z}} | | }} {{#if: {{#invoke:Vorlage:Seitenbewertung|fulfils|match=17437798}} | | }} }}
- Wikipedia:Vorlagenfehler/Mehrdeutigkeitshinweis
- Wikipedia:Vorlagenfehler/Vorlage:Zitat
- Wikipedia:Vorlagenfehler/Schwesterprojekt
- Wikipedia:Wikidata P2812 verschieden
- Wikipedia:Wikidata P2812 fehlt
- Wikipedia:GND fehlt
- Wikipedia:Normdaten-TYP falsch oder fehlend
- Wikipedia:GND in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:GND in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:LCCN in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:LCCN in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:VIAF in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:VIAF in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Statistischer Grundbegriff
- Stochastik
- Wikipedia:Lesenswert
- Wikipedia:Vorlagenfehler/Bewertungsbaustein
- Wikipedia:Vorlagenfehler/Bewertungsbaustein/Wikidata