Gauß-Test
{{#if: behandelt den Hypothesentest von Gauß in der mathematischen Statistik. Für den Gauß-Test zur Reihenkonvergenz siehe Kriterium von Gauß.
| Vorlage:Hinweisbaustein | {{#ifeq: 0 | 0 |}}
}}
Der Gauß-Test oder Z-Test ist in der mathematischen Statistik eine Gruppe von Hypothesentests mit standardnormalverteilter Testprüfgröße unter der Nullhypothese. Der Test ist benannt nach Carl Friedrich Gauß.
Mit dem Gauß-Test werden anhand von Stichproben-Mittelwerten Hypothesen über die Erwartungswerte derjenigen Grundgesamtheiten geprüft, aus denen die Stichproben stammen.
Der Gauß-Test folgt einer ähnlichen Methode wie der t-Test. Der wichtigste Unterschied liegt in den Voraussetzungen für die Anwendung dieser Tests: Während der t-Test mit den empirischen Standardabweichungen der Stichproben arbeitet, müssen für den Gauß-Test die Standardabweichungen der Grundgesamtheiten bekannt sein. Des Weiteren verwendet der Gauß-Test grundsätzlich die Standardnormalverteilung als Kennwerteverteilung, während der t-Test auf die t-Verteilung zurückgreift. Somit ist der Gauß-Test für kleine Stichproben nur bedingt geeignet.
Mathematische Grundlagen
Sind <math>X_1, X_2, \dots, X_n</math> unabhängige normalverteilte Zufallsvariablen mit Erwartungswert <math>\mu_X</math> und Standardabweichung <math>\sigma_X</math>, so ist ihr arithmetisches Mittel
- <math>\bar X = \frac{1}{n}\sum_{i=1}^n X_i</math>
normalverteilt mit Erwartungswert <math>\mu_X</math> und Standardabweichung <math>\sigma_X/\sqrt{n}</math>.
- <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math>
ist dann unter der Nullhypothese <math>\mu_X=\mu_0</math> standardnormalverteilt und wird als Teststatistik verwendet. Sie heißt auch Gauß-Statistik.
Die Teststatistik kann geschrieben werden als:
- <math>Z = \frac{\bar X - \mu_X}{\sigma_X}\sqrt{n}+\frac{\mu_X-\mu_0}{\sigma_X}\sqrt{n}=X+\frac{\mu_X-\mu_0}{\sigma_X}\sqrt{n}</math>,
also wie eine standardnormalverteilte Zufallsvariable <math>X</math> plus eine Zahl, die auf standardisierte Weise die Distanz zwischen dem wirklichen und dem unterstellten Erwartungswert zeigt.
Liegen außerdem unabhängige normalverteilte Zufallsvariablen <math>Y_1, Y_2, \dots, Y_m</math> mit Erwartungswert <math>\mu_Y</math>, Standardabweichung <math>\sigma_Y</math> und arithmetischem Mittel
- <math>\bar Y = \frac{1}{m}\sum_{i=1}^m Y_i</math>
vor, die zusätzlich unabhängig von der <math>X</math>-Stichprobe sind, so ist <math>\bar X-\bar Y</math> normalverteilt mit Erwartungswert <math>\mu_X - \mu_Y</math> und Standardabweichung <math>\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}</math>.
Die Stichprobenfunktion
- <math>Z = \frac{(\bar X - \bar Y)-\delta}{\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}}</math>
ist dann unter der Nullhypothese <math>\mu_X-\mu_Y=\delta</math> standardnormalverteilt und wird als Teststatistik verwendet.
Einstichproben-Gauß-Test
{{#if: Einstichproben Gauß-Test|{{#ifexist:Einstichproben Gauß-Test|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Anwendung
Der Einstichproben-Gauß-Test prüft anhand des arithmetischen Mittels einer Stichprobe, ob der Erwartungswert der zugehörigen Grundgesamtheit ungleich (bzw. kleiner oder größer) einem vorgegebenen Wert ist.
Die Stichprobe <math>x_1, x_2, \dots, x_n</math> bestehe aus den Ausprägungen unabhängiger Zufallsvariablen und entstamme einer normalverteilten Grundgesamtheit mit unbekanntem Erwartungswert <math>\mu</math> und bekannter Standardabweichung <math>\sigma</math>.
Es werden getestet bei einem
- zweiseitigen Test: <math>H_0\colon \mu = \mu_0</math> gegen <math>H_1\colon \mu \neq \mu_0</math>
- rechtsseitigen Test: <math>H_0\colon \mu \leq \mu_0</math> gegen <math>H_1\colon \mu > \mu_0</math>
- linksseitigen Test: <math>H_0\colon \mu \geq \mu_0</math> gegen <math>H_1\colon \mu < \mu_0</math>
Der Wert von <math>\mu_0</math> wird vom Anwender vorgegeben.
Berechnung der Testprüfgröße
Mit dem Stichprobenmittelwert <math>\bar x = \frac{1}{n}\sum_{i=1}^n x_i</math> berechnet man die Testprüfgröße <math>z = \sqrt{n} \cdot \frac{\bar x - \mu_0}{\sigma}</math>.
Zweistichproben-Gauß-Test für unabhängige Stichproben
Anwendung
Der Zweistichproben-Gauß-Test für unabhängige Stichproben prüft anhand der arithmetischen Mittel der Stichproben, ob die Erwartungswerte der zugehörigen Grundgesamtheiten verschieden sind.
Die unabhängigen Stichproben <math>x_1, x_2, \dots, x_n</math> und <math>y_1, y_2, \dots, y_m</math> sollen auch untereinander unabhängig sein und normalverteilten Grundgesamtheiten mit unbekannten Erwartungswerten <math>\mu_X</math> bzw. <math>\mu_Y</math> und bekannten Standardabweichungen <math>\sigma_X</math> bzw. <math>\sigma_Y</math> entstammen.
Es werden getestet bei einem
- zweiseitigen Test: <math>H_0\colon \mu_X - \mu_Y = \mu_0\!\,</math> gegen <math>H_1\colon \mu_X - \mu_Y \neq \mu_0</math>
- rechtsseitigen Test: <math>H_0\colon \mu_X - \mu_Y \leq \mu_0</math> gegen <math>H_1\colon \mu_X - \mu_Y > \mu_0</math>
- linksseitigen Test: <math>H_0\colon \mu_X - \mu_Y \geq \mu_0</math> gegen <math>H_1\colon \mu_X - \mu_Y < \mu_0</math>
Der Wert von <math>\mu_0</math> wird vom Anwender vorgegeben.
Berechnung der Testprüfgröße
Mit den Stichprobenmittelwerten <math>\bar x = \frac{1}{n}\sum_{i=1}^n x_i</math> und <math>\bar y = \frac{1}{m}\sum_{i=1}^m y_i</math> berechnet man die Testprüfgröße <math>z = \frac{\bar x - \bar y - \mu_0}{\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}}</math>.
Zweistichproben-Gauß-Test für abhängige (verbundene) Stichproben
Anwendung
Für den Zweistichproben-Gauß-Test für abhängige Stichproben müssen Paare <math>(x_i, y_i)</math> von Messwerten vorliegen, wie man sie z. B. bei Vorher-Nachher-Messungen vorfindet. Mittels der Paardifferenzen wird geprüft, ob für diese Differenzen der Erwartungswert der zugehörigen Grundgesamtheit ungleich (bzw. kleiner oder größer) einem vorgegebenen Wert ist.
Die Differenzen <math>d_i = x_i - y_i</math> sollen einer normalverteilten Grundgesamtheit mit unbekanntem Erwartungswert <math>\mu</math> und bekannter Standardabweichung <math>\sigma</math> entstammen.
Es werden getestet bei einem
- zweiseitigen Test: <math>H_0\colon \mu = \mu_0</math> gegen <math>H_1\colon \mu \neq \mu_0</math>
- rechtsseitigen Test: <math>H_0\colon \mu \leq \mu_0</math> gegen <math>H_1\colon \mu > \mu_0</math>
- linksseitigen Test: <math>H_0\colon \mu \geq \mu_0</math> gegen <math>H_1\colon \mu < \mu_0</math>
<math>\mu_0</math> wird vom Anwender vorgegeben. In den meisten Anwendungsfällen wird auf „Ungleichheit“ (<math>H_1</math>) getestet; dann ist <math>\mu_0 = 0</math>.
Berechnung der Testprüfgröße
Die Differenzen <math>d_i</math> bilden eine neue Stichprobe mit arithmetischem Mittel <math>\bar d = \frac{1}{n}\sum_{i=1}^n d_i</math>. Also kann man den Einstichproben-Gauß-Test auf die Stichprobe der Differenzen anwenden und erhält als Testprüfgröße <math>z = \sqrt{n} \cdot \frac{\bar d - \mu_0}{\sigma}</math>.
Entscheidung über die Hypothesen
Bei allen drei Gauß-Tests werden für die Entscheidung über die Annahme bzw. Verwerfung der Hypothesen die allgemeinen Kriterien für Hypothesentests angewendet. Da <math>Z</math> unter der Nullhypothese eine standardnormalverteilte Zufallsvariable ist, erhält man die folgenden Regeln.<ref>Patrick Planing: Z-Test/Gaußtest</ref>
| zweiseitiger Test | rechtsseitiger Test | linksseitiger Test | |
|---|---|---|---|
| Hypothesen | <math>H_0\colon \mu = \mu_0</math> | <math>H_0\colon \mu \leq \mu_0</math> | <math>H_0\colon \mu \geq \mu_0</math> |
| <math>H_1\colon \mu \neq \mu_0</math> | <math>H_1\colon \mu > \mu_0</math> | <math>H_1\colon \mu < \mu_0</math> | |
| Stichprobenfunktion | <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math> | <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math> | <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math> |
| Bedingung für Ablehnung von <math>H_0</math> und Annahme von <math>H_1</math> |
Z| > Z_{1-\tfrac{\alpha}{2}}</math> | <math>Z > Z_{1-\alpha}</math> | <math>Z < -Z_{1-\alpha}</math> |
Gauß-Test für nicht-normalverteilte Zufallsvariablen
Für große Stichprobenumfänge (> 30 als Faustregel) kann aufgrund des Zentralen Grenzwertsatzes auf die Normalverteilungsannahme verzichtet werden. Wenn also die für den Gauß-Test geltenden Forderungen an die Erwartungswerte und Standardabweichungen der beteiligten Zufallsvariablen erfüllt sind, geht man davon aus, dass die für die Berechnung von z erforderlichen Summen approximativ normalverteilt sind und der Gauß-Test in guter Näherung korrekte Ergebnisse liefert.
Beispiel
Ein bestimmter Blutparameter B ist in der Bevölkerung in sehr guter Näherung normalverteilt mit <math>\sigma = 2</math>. Von einer Gruppe chemisch verwandter Pharmaka ist bekannt, dass sie die Verteilung des Blutparameters verschieben können, d. h. sie verändern möglicherweise den Erwartungswert (unter Beibehaltung der Verteilungsform).
Für ein Pharmakon P aus dieser Gruppe soll geprüft werden, ob sich eine solche Veränderung tatsächlich einstellt. Zufällige unabhängige Stichproben des Umfangs n=22 ergeben die folgenden Messwerte für B:
ohne Gabe von P xi 12 13 10 12 14 11 14 18 15 13 15 13 11 17 11 12 13 14 15 13 14 13 mit Gabe von P yi 13 14 13 17 13 16 16 19 17 15 17 15 15 20 15 15 14 15 13 15 16 15
Mit diesen Messwerten sollen verschiedene Hypothesen geprüft werden. Das Signifikanzniveau <math>\alpha</math> soll jeweils 0,05 betragen; die zugehörigen u-Werte sind dann (im Folgenden alle Werte gerundet):
- <math>u(1-\alpha/2) = u(0{,}975) = 1{,}960</math>
- <math>u(1-\alpha) = u(0{,}95) = 1{,}645</math>
- <math>u(\alpha) = u(0{,}05) = -1{,}645</math>
Für die Mittelwerte berechnet man <math>\bar x = 13{,}32</math> und <math>\bar y = 15{,}36</math>.
- 1. Hypothese: Die Werte von B liegen nach Verabreichung von P im Mittel oberhalb von 15.
- Verfahren: rechtsseitiger Einstichproben-Gauß-Test
- <math>H_0: \mu \leq \mu_0 = 15</math> und <math>H_1: \mu > 15\!\,</math>
- <math>z = \sqrt{22} \cdot \frac{15{,}36 - 15}{2} = 0{,}84 < 1{,}645</math>
- Entscheidung: H0 wird beibehalten. Es ließ sich nicht nachweisen, dass die Gabe von P zu einem durchschnittlichen B-Wert oberhalb 15 führt.
- 2. Hypothese: Die Werte von B unterscheiden sich im Mittel in den beiden Grundgesamtheiten ohne bzw. mit Gabe von P.
- Verfahren: zweiseitiger Zweistichproben-Gauß-Test für unabhängige Stichproben
- <math>H_0: \mu_x - \mu_y = \mu_0 = 0\!\,</math> und <math>H_1: \mu_x \neq \mu_y</math>
- <math>|z| = \sqrt{22} \cdot \frac{|13{,}32 - 15{,}36|}{2 \cdot \sqrt{2}} = 3{,}38 > 1{,}960</math>
- Entscheidung: H0 wird zugunsten von H1 verworfen. Mit einer Irrtumswahrscheinlichkeit von höchstens 0,05 wurde nachgewiesen, dass sich bzgl. der Gabe bzw. Nicht-Gabe von P die B-Werte im Mittel unterscheiden.
Nun soll ein Versuch mit abhängigen Stichproben betrachtet werden. Bei umfangreichen Vorher-Nachher-Untersuchungen wurde für die Veränderung der B-Werte durch die Gabe der betroffenen Pharmaka ebenfalls eine Normalverteilung gefunden, mit <math>\sigma = 1{,}6</math>. In der Tabelle der Messwerte seien nun die jeweils übereinander stehenden Messwerte in einem Vorher-Nachher-Versuch ermittelt worden.
- 3. Hypothese: Die Werte von B liegen nach Gabe von P im Mittel um mehr als 1,25 oberhalb der Werte vor Gabe von P.
- Verfahren: linksseitiger Zweistichproben-Gauß-Test für abhängige Stichproben
- <math>H_0: \mu \geq \mu_0 = -1{,}25</math> und <math>H_1: \mu < -1{,}25\!\,</math>
- <math>\bar d = \bar x - \bar y = -2{,}045</math>
- <math>z = \sqrt{22} \cdot \frac{-2{,}045 + 1,25}{1{,}6} = -2{,}33 < -1{,}645</math>
- Entscheidung: H0 wird zugunsten von H1 verworfen. Mit einer Irrtumswahrscheinlichkeit von höchstens 0,05 wurde nachgewiesen, dass bei Vorher-Nachher-Untersuchungen die B-Werte nach Gabe von P im Mittel um mehr als 1,25 oberhalb der B-Werte vor Gabe von P liegen.
Siehe auch
Literatur
- Rönz/Strohe (Hrsg.): Lexikon Statistik. Gabler, 1994, ISBN 978-3-409-19952-0.
- Irle: Wahrscheinlichkeitstheorie und Statistik. Kap. 20. Vieweg und Teubner, 2. Aufl. 2005, ISBN 978-3-519-12395-8.
- Cramer/Kamps: Grundlagen der Wahrscheinlichkeitsrechnung und Statistik: Ein Skript für Studierende der Informatik, der Ingenieur- und Wirtschaftswissenschaften. S. 271ff. Springer, 2. Aufl. 2008, ISBN 978-3-540-77760-1.
Einzelnachweise
<references />