Satz von Cochran
In der Statistik wird der Satz von Cochran in der Varianzanalyse verwendet. Der Satz geht auf den schottischen Mathematiker William Gemmell Cochran zurück.
Man nimmt an <math>U_1,\dots U_n,</math> seien stochastisch unabhängige standardnormalverteilte Zufallsvariablen, und es gilt
- <math>
\sum_{i=1}^n U_i^2=Q_1+\cdots + Q_k, </math>
wobei jedes <math>Q_i</math> die Summe der Quadrate von Linearkombinationen der <math>U</math>s darstellt. Ferner nimmt man an, dass
- <math>
r_1+\cdots +r_k=n, </math>
wobei <math>r_i</math> der Rang von <math>Q_i</math> ist. Der Satz von Cochran besagt, dass die <math>Q_i</math> unabhängig sind mit einer Chi-Quadrat-Verteilung mit <math>r_i</math> Freiheitsgraden.
Der Satz von Cochran ist die Umkehrung des Satzes von Fisher.
Beispiel
Falls <math>X_1,\dots X_n,</math> unabhängige normalverteilte Zufallsvariablen mit Erwartungswert <math>\mu</math> und Standardabweichung <math>\sigma</math> sind, dann gilt
- <math>U_i=(X_i-\mu)/\sigma \;</math>
ist standardnormalverteilt für jedes <math>i</math>.
Jetzt kann man folgendes schreiben
- <math>
\sum_{i=1}^{n} U_i^2=\sum\limits_{i=1}^{n}\left(\frac{X_i-\overline{X}}{\sigma}\right)^2 + n\left(\frac{\overline{X}-\mu}{\sigma}\right)^2 </math>
Damit man diese Identität erkennt, muss man auf beiden Seiten mit <math>\sigma</math> multiplizieren und beachten, dass gilt
- <math>
\sum_{i=1}^{n}(X_i-\mu)^2= \sum_{i=1}^{n}(X_i-\overline{X}+\overline{X}-\mu)^2 </math>
und erweitert, um zu zeigen
- <math>
\sum_{i=1}^{n}(X_i-\overline{X})^2+\sum_{i=1}^{n}(\overline{X}-\mu)^2+ 2\sum_{i=1}^{n}(X_i-\overline{X})(\overline{X}-\mu). </math>
Der dritte Term ist null, weil der Faktor
- <math>\sum_{i=1}^{n}(\overline{X}-X_i)=0</math>
ist, und der zweite Term besteht nur aus <math>n</math> identischen Termen, die zusammengefügt wurden.
Kombiniert man die obigen Ergebnisse und teilt anschließend durch <math>\sigma^2</math>, dann erhält man:
- <math>
\sum_{i=1}^{n}\left(\frac{X_i-\mu}{\sigma}\right)^2= \sum_{i=1}^{n}\left(\frac{X_i-\overline{X}}{\sigma}\right)^2 +n\left(\frac{\overline{X}-\mu}{\sigma}\right)^2 =Q_1+Q_2. </math>
Jetzt ist der Rang von <math>Q_2</math> gerade gleich 1 (es ist das Quadrat von nur einer Linearkombination der standardnormalverteilten Zufallsvariablen). Der Rang von <math>Q_1</math> ist gleich <math>n-1</math>, und daher sind die Bedingungen des Satzes von Cochran erfüllt.
Der Satz von Cochran besagt dann, dass <math>Q_1</math> und <math>Q_2</math> unabhängig sind, mit einer Chi-Quadrat-Verteilung mit <math>n-1</math> und <math>1</math> Freiheitsgrad.
Dies zeigt, dass der Mittelwert und die Varianz unabhängig sind; Ferner gilt
- <math>
(\overline{X}-\mu)^2\sim \frac{\sigma^2}{n}\chi^2_1. </math>
Um die unbekannte Varianz der Grundgesamtheit <math>\sigma^2</math> zu schätzen, wird ein häufig verwendeter Schätzer benutzt
- <math>
\hat{\sigma}^2= \frac{1}{n}\sum_{i=1}^{n}\left( X_i-\overline{X}\right)^2. </math>
Der Satz von Cochran zeigt, dass
- <math>
\hat{\sigma}^2\sim \frac{\sigma^2}{n}\chi^2_{n-1}, </math>
was zeigt, dass der Erwartungswert von <math>\hat{\sigma}^2</math> gleich <math>\sigma^2\frac{n-1}{n}</math> ist.
Beide Verteilungen sind proportional zur wahren aber unbekannten Varianz <math>\sigma^2</math> Daher ist ihr Verhältnis unabhängig von <math>\sigma^2</math>, und weil sie unabhängig sind, erhält man
- <math>
\frac{\left(\overline{X}-\mu\right)^2} {\frac{1}{n}\sum_{i=1}^{n}\left(X_i-\overline{X}\right)^2}\sim F_{1,n} </math>,
wobei <math>F_{1,n}</math> die F-Verteilung mit <math>1</math> und <math>n</math> Freiheitsgraden darstellt (siehe auch Studentsche t-Verteilung).
Literatur
- Cochran, W. G.: The distribution of quadratic forms in a normal system, with applications to the analysis of covariance. Mathematical Proceedings of the Cambridge Philosophical Society 30 (2): 178–191, 1934.
- Bapat, R. B.: Linear Algebra and Linear Models. Zweite Auflage (1990). Springer. ISBN 978-0-387-98871-9