Zum Inhalt springen

Gauß-Test

aus Wikipedia, der freien Enzyklopädie

{{#if: behandelt den Hypothesentest von Gauß in der mathematischen Statistik. Für den Gauß-Test zur Reihenkonvergenz siehe Kriterium von Gauß.

 | Vorlage:Hinweisbaustein 
 | {{#ifeq: 0 | 0 |}}

}}

Der Gauß-Test oder Z-Test ist in der mathematischen Statistik eine Gruppe von Hypothesentests mit standardnormalverteilter Testprüfgröße unter der Nullhypothese. Der Test ist benannt nach Carl Friedrich Gauß.

Mit dem Gauß-Test werden anhand von Stichproben-Mittelwerten Hypothesen über die Erwartungswerte derjenigen Grundgesamtheiten geprüft, aus denen die Stichproben stammen.

Der Gauß-Test folgt einer ähnlichen Methode wie der t-Test. Der wichtigste Unterschied liegt in den Voraussetzungen für die Anwendung dieser Tests: Während der t-Test mit den empirischen Standardabweichungen der Stichproben arbeitet, müssen für den Gauß-Test die Standardabweichungen der Grundgesamtheiten bekannt sein. Des Weiteren verwendet der Gauß-Test grundsätzlich die Standardnormalverteilung als Kennwerteverteilung, während der t-Test auf die t-Verteilung zurückgreift. Somit ist der Gauß-Test für kleine Stichproben nur bedingt geeignet.

Mathematische Grundlagen

Sind <math>X_1, X_2, \dots, X_n</math> unabhängige normalverteilte Zufallsvariablen mit Erwartungswert <math>\mu_X</math> und Standardabweichung <math>\sigma_X</math>, so ist ihr arithmetisches Mittel

<math>\bar X = \frac{1}{n}\sum_{i=1}^n X_i</math>

normalverteilt mit Erwartungswert <math>\mu_X</math> und Standardabweichung <math>\sigma_X/\sqrt{n}</math>.

Die Stichprobenfunktion

<math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math>

ist dann unter der Nullhypothese <math>\mu_X=\mu_0</math> standardnormalverteilt und wird als Teststatistik verwendet. Sie heißt auch Gauß-Statistik.

Die Teststatistik kann geschrieben werden als:

<math>Z = \frac{\bar X - \mu_X}{\sigma_X}\sqrt{n}+\frac{\mu_X-\mu_0}{\sigma_X}\sqrt{n}=X+\frac{\mu_X-\mu_0}{\sigma_X}\sqrt{n}</math>,

also wie eine standardnormalverteilte Zufallsvariable <math>X</math> plus eine Zahl, die auf standardisierte Weise die Distanz zwischen dem wirklichen und dem unterstellten Erwartungswert zeigt.

Liegen außerdem unabhängige normalverteilte Zufallsvariablen <math>Y_1, Y_2, \dots, Y_m</math> mit Erwartungswert <math>\mu_Y</math>, Standardabweichung <math>\sigma_Y</math> und arithmetischem Mittel

<math>\bar Y = \frac{1}{m}\sum_{i=1}^m Y_i</math>

vor, die zusätzlich unabhängig von der <math>X</math>-Stichprobe sind, so ist <math>\bar X-\bar Y</math> normalverteilt mit Erwartungswert <math>\mu_X - \mu_Y</math> und Standardabweichung <math>\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}</math>.

Die Stichprobenfunktion

<math>Z = \frac{(\bar X - \bar Y)-\delta}{\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}}</math>

ist dann unter der Nullhypothese <math>\mu_X-\mu_Y=\delta</math> standardnormalverteilt und wird als Teststatistik verwendet.

Einstichproben-Gauß-Test

{{#if: Einstichproben Gauß-Test|{{#ifexist:Einstichproben Gauß-Test|

|{{#if: |{{#ifexist:{{{2}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{2}}}{{#if: ||{{{titel2}}}}}]]{{#if: |{{#ifexist:{{{3}}}| und [[{{{3}}}{{#if: ||{{{titel3}}}}}]]|}}|}}

|{{#if: |{{#ifexist:{{{3}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{3}}}{{#if: ||{{{titel3}}}}}]]

|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}

Anwendung

Der Einstichproben-Gauß-Test prüft anhand des arithmetischen Mittels einer Stichprobe, ob der Erwartungswert der zugehörigen Grundgesamtheit ungleich (bzw. kleiner oder größer) einem vorgegebenen Wert ist.

Die Stichprobe <math>x_1, x_2, \dots, x_n</math> bestehe aus den Ausprägungen unabhängiger Zufallsvariablen und entstamme einer normalverteilten Grundgesamtheit mit unbekanntem Erwartungswert <math>\mu</math> und bekannter Standardabweichung <math>\sigma</math>.

Es werden getestet bei einem

  • zweiseitigen Test: <math>H_0\colon \mu = \mu_0</math> gegen <math>H_1\colon \mu \neq \mu_0</math>
  • rechtsseitigen Test: <math>H_0\colon \mu \leq \mu_0</math> gegen <math>H_1\colon \mu > \mu_0</math>
  • linksseitigen Test: <math>H_0\colon \mu \geq \mu_0</math> gegen <math>H_1\colon \mu < \mu_0</math>

Der Wert von <math>\mu_0</math> wird vom Anwender vorgegeben.

Berechnung der Testprüfgröße

Mit dem Stichprobenmittelwert <math>\bar x = \frac{1}{n}\sum_{i=1}^n x_i</math> berechnet man die Testprüfgröße <math>z = \sqrt{n} \cdot \frac{\bar x - \mu_0}{\sigma}</math>.

Zweistichproben-Gauß-Test für unabhängige Stichproben

Anwendung

Der Zweistichproben-Gauß-Test für unabhängige Stichproben prüft anhand der arithmetischen Mittel der Stichproben, ob die Erwartungswerte der zugehörigen Grundgesamtheiten verschieden sind.

Die unabhängigen Stichproben <math>x_1, x_2, \dots, x_n</math> und <math>y_1, y_2, \dots, y_m</math> sollen auch untereinander unabhängig sein und normalverteilten Grundgesamtheiten mit unbekannten Erwartungswerten <math>\mu_X</math> bzw. <math>\mu_Y</math> und bekannten Standardabweichungen <math>\sigma_X</math> bzw. <math>\sigma_Y</math> entstammen.

Es werden getestet bei einem

  • zweiseitigen Test: <math>H_0\colon \mu_X - \mu_Y = \mu_0\!\,</math> gegen <math>H_1\colon \mu_X - \mu_Y \neq \mu_0</math>
  • rechtsseitigen Test: <math>H_0\colon \mu_X - \mu_Y \leq \mu_0</math> gegen <math>H_1\colon \mu_X - \mu_Y > \mu_0</math>
  • linksseitigen Test: <math>H_0\colon \mu_X - \mu_Y \geq \mu_0</math> gegen <math>H_1\colon \mu_X - \mu_Y < \mu_0</math>

Der Wert von <math>\mu_0</math> wird vom Anwender vorgegeben.

Berechnung der Testprüfgröße

Mit den Stichprobenmittelwerten <math>\bar x = \frac{1}{n}\sum_{i=1}^n x_i</math> und <math>\bar y = \frac{1}{m}\sum_{i=1}^m y_i</math> berechnet man die Testprüfgröße <math>z = \frac{\bar x - \bar y - \mu_0}{\sqrt{\frac{\sigma_X^2}{n} + \frac{\sigma_Y^2}{m}}}</math>.

Zweistichproben-Gauß-Test für abhängige (verbundene) Stichproben

Anwendung

Für den Zweistichproben-Gauß-Test für abhängige Stichproben müssen Paare <math>(x_i, y_i)</math> von Messwerten vorliegen, wie man sie z. B. bei Vorher-Nachher-Messungen vorfindet. Mittels der Paardifferenzen wird geprüft, ob für diese Differenzen der Erwartungswert der zugehörigen Grundgesamtheit ungleich (bzw. kleiner oder größer) einem vorgegebenen Wert ist.

Die Differenzen <math>d_i = x_i - y_i</math> sollen einer normalverteilten Grundgesamtheit mit unbekanntem Erwartungswert <math>\mu</math> und bekannter Standardabweichung <math>\sigma</math> entstammen.

Es werden getestet bei einem

  • zweiseitigen Test: <math>H_0\colon \mu = \mu_0</math> gegen <math>H_1\colon \mu \neq \mu_0</math>
  • rechtsseitigen Test: <math>H_0\colon \mu \leq \mu_0</math> gegen <math>H_1\colon \mu > \mu_0</math>
  • linksseitigen Test: <math>H_0\colon \mu \geq \mu_0</math> gegen <math>H_1\colon \mu < \mu_0</math>

<math>\mu_0</math> wird vom Anwender vorgegeben. In den meisten Anwendungsfällen wird auf „Ungleichheit“ (<math>H_1</math>) getestet; dann ist <math>\mu_0 = 0</math>.

Berechnung der Testprüfgröße

Die Differenzen <math>d_i</math> bilden eine neue Stichprobe mit arithmetischem Mittel <math>\bar d = \frac{1}{n}\sum_{i=1}^n d_i</math>. Also kann man den Einstichproben-Gauß-Test auf die Stichprobe der Differenzen anwenden und erhält als Testprüfgröße <math>z = \sqrt{n} \cdot \frac{\bar d - \mu_0}{\sigma}</math>.

Entscheidung über die Hypothesen

Bei allen drei Gauß-Tests werden für die Entscheidung über die Annahme bzw. Verwerfung der Hypothesen die allgemeinen Kriterien für Hypothesentests angewendet. Da <math>Z</math> unter der Nullhypothese eine standardnormalverteilte Zufallsvariable ist, erhält man die folgenden Regeln.<ref>Patrick Planing: Z-Test/Gaußtest</ref>

zweiseitiger Test rechtsseitiger Test linksseitiger Test
Hypothesen <math>H_0\colon \mu = \mu_0</math> <math>H_0\colon \mu \leq \mu_0</math> <math>H_0\colon \mu \geq \mu_0</math>
<math>H_1\colon \mu \neq \mu_0</math> <math>H_1\colon \mu > \mu_0</math> <math>H_1\colon \mu < \mu_0</math>
Stichprobenfunktion <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math> <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math> <math>Z = \frac{\bar X - \mu_0}{\sigma_X}\sqrt{n}</math>
Bedingung für Ablehnung von <math>H_0</math>
und Annahme von <math>H_1</math>
Z| > Z_{1-\tfrac{\alpha}{2}}</math> <math>Z > Z_{1-\alpha}</math> <math>Z < -Z_{1-\alpha}</math>

Gauß-Test für nicht-normalverteilte Zufallsvariablen

Für große Stichprobenumfänge (> 30 als Faustregel) kann aufgrund des Zentralen Grenzwertsatzes auf die Normalverteilungsannahme verzichtet werden. Wenn also die für den Gauß-Test geltenden Forderungen an die Erwartungswerte und Standardabweichungen der beteiligten Zufallsvariablen erfüllt sind, geht man davon aus, dass die für die Berechnung von z erforderlichen Summen approximativ normalverteilt sind und der Gauß-Test in guter Näherung korrekte Ergebnisse liefert.

Beispiel

Ein bestimmter Blutparameter B ist in der Bevölkerung in sehr guter Näherung normalverteilt mit <math>\sigma = 2</math>. Von einer Gruppe chemisch verwandter Pharmaka ist bekannt, dass sie die Verteilung des Blutparameters verschieben können, d. h. sie verändern möglicherweise den Erwartungswert (unter Beibehaltung der Verteilungsform).

Für ein Pharmakon P aus dieser Gruppe soll geprüft werden, ob sich eine solche Veränderung tatsächlich einstellt. Zufällige unabhängige Stichproben des Umfangs n=22 ergeben die folgenden Messwerte für B:

ohne Gabe von P   xi 12 13 10 12 14 11 14 18 15 13 15 13 11 17 11 12 13 14 15 13 14 13
mit Gabe von P    yi 13 14 13 17 13 16 16 19 17 15 17 15 15 20 15 15 14 15 13 15 16 15

Mit diesen Messwerten sollen verschiedene Hypothesen geprüft werden. Das Signifikanzniveau <math>\alpha</math> soll jeweils 0,05 betragen; die zugehörigen u-Werte sind dann (im Folgenden alle Werte gerundet):

  • <math>u(1-\alpha/2) = u(0{,}975) = 1{,}960</math>
  • <math>u(1-\alpha) = u(0{,}95) = 1{,}645</math>
  • <math>u(\alpha) = u(0{,}05) = -1{,}645</math>

Für die Mittelwerte berechnet man <math>\bar x = 13{,}32</math> und <math>\bar y = 15{,}36</math>.

  • 1. Hypothese: Die Werte von B liegen nach Verabreichung von P im Mittel oberhalb von 15.
Verfahren: rechtsseitiger Einstichproben-Gauß-Test
<math>H_0: \mu \leq \mu_0 = 15</math> und <math>H_1: \mu > 15\!\,</math>
<math>z = \sqrt{22} \cdot \frac{15{,}36 - 15}{2} = 0{,}84 < 1{,}645</math>
Entscheidung: H0 wird beibehalten. Es ließ sich nicht nachweisen, dass die Gabe von P zu einem durchschnittlichen B-Wert oberhalb 15 führt.
  • 2. Hypothese: Die Werte von B unterscheiden sich im Mittel in den beiden Grundgesamtheiten ohne bzw. mit Gabe von P.
Verfahren: zweiseitiger Zweistichproben-Gauß-Test für unabhängige Stichproben
<math>H_0: \mu_x - \mu_y = \mu_0 = 0\!\,</math> und <math>H_1: \mu_x \neq \mu_y</math>
<math>|z| = \sqrt{22} \cdot \frac{|13{,}32 - 15{,}36|}{2 \cdot \sqrt{2}} = 3{,}38 > 1{,}960</math>
Entscheidung: H0 wird zugunsten von H1 verworfen. Mit einer Irrtumswahrscheinlichkeit von höchstens 0,05 wurde nachgewiesen, dass sich bzgl. der Gabe bzw. Nicht-Gabe von P die B-Werte im Mittel unterscheiden.

Nun soll ein Versuch mit abhängigen Stichproben betrachtet werden. Bei umfangreichen Vorher-Nachher-Untersuchungen wurde für die Veränderung der B-Werte durch die Gabe der betroffenen Pharmaka ebenfalls eine Normalverteilung gefunden, mit <math>\sigma = 1{,}6</math>. In der Tabelle der Messwerte seien nun die jeweils übereinander stehenden Messwerte in einem Vorher-Nachher-Versuch ermittelt worden.

  • 3. Hypothese: Die Werte von B liegen nach Gabe von P im Mittel um mehr als 1,25 oberhalb der Werte vor Gabe von P.
Verfahren: linksseitiger Zweistichproben-Gauß-Test für abhängige Stichproben
<math>H_0: \mu \geq \mu_0 = -1{,}25</math> und <math>H_1: \mu < -1{,}25\!\,</math>
<math>\bar d = \bar x - \bar y = -2{,}045</math>
<math>z = \sqrt{22} \cdot \frac{-2{,}045 + 1,25}{1{,}6} = -2{,}33 < -1{,}645</math>
Entscheidung: H0 wird zugunsten von H1 verworfen. Mit einer Irrtumswahrscheinlichkeit von höchstens 0,05 wurde nachgewiesen, dass bei Vorher-Nachher-Untersuchungen die B-Werte nach Gabe von P im Mittel um mehr als 1,25 oberhalb der B-Werte vor Gabe von P liegen.

Siehe auch

Literatur

  • Rönz/Strohe (Hrsg.): Lexikon Statistik. Gabler, 1994, ISBN 978-3-409-19952-0.
  • Irle: Wahrscheinlichkeitstheorie und Statistik. Kap. 20. Vieweg und Teubner, 2. Aufl. 2005, ISBN 978-3-519-12395-8.
  • Cramer/Kamps: Grundlagen der Wahrscheinlichkeitsrechnung und Statistik: Ein Skript für Studierende der Informatik, der Ingenieur- und Wirtschaftswissenschaften. S. 271ff. Springer, 2. Aufl. 2008, ISBN 978-3-540-77760-1.

Einzelnachweise

<references />