Notice: Unexpected clearActionName after getActionName already called in /var/www/html/includes/context/RequestContext.php on line 338
Zweistichproben-t-Test – Wikipedia (Deutsch) – Lokale Kopie Zum Inhalt springen

Zweistichproben-t-Test

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Welch-Test)

Der Zweistichproben-t-Test ist ein Signifikanztest aus der mathematischen Statistik. In der üblichen Form prüft er anhand der Mittelwerte zweier Stichproben, ob die Mittelwerte zweier normalverteilter Grundgesamtheiten gleich oder verschieden voneinander sind.

Es gibt zwei Varianten des Zweistichproben-t-Tests:

  • den für zwei unabhängige Stichproben mit gleichen Standardabweichungen <math>\sigma</math> in beiden Grundgesamtheiten und
  • den für zwei abhängige Stichproben.

Liegen zwei unabhängige Stichproben mit ungleichen Standardabweichungen in beiden Grundgesamtheiten vor, so muss der Welch-Test (s. u.) eingesetzt werden.

Grundidee

Der Zweistichproben-t-Test prüft (im einfachsten Fall) mit Hilfe der Mittelwerte <math>\overline{x}_1</math> und <math>\overline{x}_2</math> zweier Stichproben, ob die Erwartungswerte <math>\mu_1</math> und <math>\mu_2</math> der zugehörigen Grundgesamtheiten verschieden sind.

Die untenstehende Grafik zeigt zwei Grundgesamtheiten (schwarze Punkte) und zwei Stichproben (blaue und rote Punkte), die zufällig aus den Grundgesamtheiten gezogen wurden. Die Mittelwerte der Stichproben <math>\overline{x}_1</math> und <math>\overline{x}_2</math> können aus den Stichproben berechnet werden, die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> sind jedoch unbekannt. In der Grafik sind die Grundgesamtheiten so konstruiert, dass die beiden Erwartungswerte gleich sind, also <math>\mu_1=\mu_2</math>.

Datei:Two sample ttest.svg

Wir vermuten nun, z. B. aufgrund historischer Ergebnisse oder theoretischer Überlegungen, dass die Erwartungswerte <math>\mu_1</math> und <math>\mu_2</math> der Grundgesamtheiten verschieden sind, und möchten dies prüfen.

Im einfachsten Fall prüft der Zweistichproben-t-Test

  • die Nullhypothese, dass die Erwartungswerte der Grundgesamtheiten gleich sind (<math>H_0:\,\mu_1=\mu_2</math>)
  • gegen die Alternativhypothese, dass die Erwartungswerte der Grundgesamtheiten ungleich sind (<math>H_1:\,\mu_1\neq\mu_2</math>).

Wenn die Stichproben geeignet gezogen wurden, zum Beispiel als einfache Zufallsstichproben, wird der Mittelwert <math>\overline{x}_1</math> der Stichprobe 1 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert <math>\mu_1</math> der Grundgesamtheit 1 liegen und der Mittelwert <math>\overline{x}_2</math> der Stichprobe 2 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert <math>\mu_2</math> der Grundgesamtheit 2 liegen. Das heißt, der Abstand zwischen der gestrichelten roten und schwarzen Linie bzw. der gestrichelten blauen und schwarzen Linie wird mit hoher Wahrscheinlichkeit klein sein.

  • Wenn der Abstand zwischen <math>\overline{x}_1</math> und <math>\overline{x}_2</math> (gestrichelte blaue bzw. rote Linie) klein ist, dann liegen auch die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> nahe beieinander. Wir können die Nullhypothese nicht ablehnen.
  • Wenn der Abstand zwischen <math>\overline{x}_1</math> und <math>\overline{x}_2</math> (gestrichelte blaue bzw. rote Linie) groß ist, dann liegen auch die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> weit voneinander entfernt. Wir können die Nullhypothese ablehnen.

Die genauen mathematischen Berechnungen finden sich in den folgenden Abschnitten.

Zweistichproben-t-Test für unabhängige Stichproben

Um Erwartungswertunterschiede zwischen zwei Grundgesamtheiten mit der gleichen unbekannten Standardabweichung <math>\sigma</math> zu untersuchen, wendet man den Zweistichproben-t-Test an. Dafür muss jede der Grundgesamtheiten normalverteilt sein oder die Stichprobenumfänge müssen so groß sein, dass der zentrale Grenzwertsatz anwendbar ist. Für den Test zieht man eine Stichprobe <math>x_1, \ldots, x_n</math> vom Umfang <math>n</math> aus der 1. Grundgesamtheit und unabhängig davon eine Stichprobe <math>y_1,\ldots,y_m</math> vom Umfang <math>m</math> aus der 2. Grundgesamtheit. Für die zugehörigen unabhängigen Stichprobenvariablen <math>X_1,\ldots,X_n</math> und <math>Y_1,\ldots,Y_m</math> gilt dann <math>\operatorname{E}(X_i)=\mu_X</math> und <math>\operatorname{E}(Y_j)=\mu_Y</math> mit den Erwartungswerten <math>\mu_X</math> und <math>\mu_Y</math> der beiden Grundgesamtheiten. Wird eine Zahl <math>\omega_0</math> für die Differenz der Erwartungswerte vorgegeben, so lautet die Nullhypothese

<math>H_0:\,\mu_X-\mu_Y=\omega_0</math>

und die Alternativhypothese

<math>H_1:\,\mu_X-\mu_Y \neq \omega_0</math>.

Häufig liegt der Fall <math>\omega_0 = 0</math> vor, in welchem die Nullhypothese die Gleichheit der Erwartungswerte und die Alternativhypothese die Ungleichheit der Erwartungswerte postuliert.

Die Teststatistik ergibt sich zu

<math>T=\frac{\overline X-\overline Y - \omega_0}{S\sqrt{\frac 1n+\frac 1m}} = \sqrt{\frac{nm}{n+m}} \frac{\overline X-\overline Y - \omega_0}{S}.</math>

Darin sind <math> \overline X</math> und <math>\overline Y</math> die respektiven Stichprobenmittelwerte und

<math>S^2 = \frac{(n-1)S_X^2 + (m-1)S_Y^2}{n+m-2}</math>

die gewichtete Varianz, berechnet als gewichtetes Mittel der respektiven korrigierten Stichprobenvarianzen <math>S_X^2</math> und <math>S_Y^2</math>.

Die Teststatistik <math>T</math> ist unter der Nullhypothese t-verteilt mit <math>m+n-2</math> Freiheitsgraden. Der Prüfwert, also die Realisierung der Teststatistik anhand der Stichprobe, berechnet sich dann als

<math>t=\sqrt{\frac{nm}{n+m}} \frac{\overline x -\overline y - \omega_0}{s}.</math>

Dabei sind <math>\overline x</math> und <math>\overline y</math> die aus der Stichprobe berechneten Mittelwerte und

<math>s^2=\frac{(n-1)s_x^2 + (m-1)s_y^2}{n+m-2}</math>

die Realisierung der gewichteten Varianz, berechnet aus den Stichprobenvarianzen <math>s_x^2</math> und <math>s_y^2</math>. Sie wird auch als gepoolte Stichprobenvarianz bezeichnet.

Zum Signifikanzniveau <math>\alpha</math> wird die Nullhypothese abgelehnt zugunsten der Alternative, wenn

<math>|t| > t(1-\tfrac 12 \alpha,\ n+m-2).</math>

Dabei bezeichnet <math>t(p,\nu)</math> das <math>p</math>-Quantil einer t-Verteilung mit <math>\nu</math> Freiheitsgraden. Im weiteren Verlauf des Artikels werden dafür auch die Notationen <math>t(p;\nu)</math> und <math>t_{p;\nu}</math> verwendet. Im Artikel t-Verteilung wird dagegen die Notation <math>t_{\nu;p}</math> für das <math>1-p</math>-Quantil einer t-Verteilung mit <math>\nu</math> Freiheitsgraden verwendet.

Alternativ können folgende Hypothesen mit der gleichen Teststatistik <math>T</math> getestet werden:

  • <math>\!H_0:\mu_X-\mu_Y\leq\omega_0</math> vs. <math>\!H_1:\mu_X-\mu_Y>\omega_0</math> und die Nullhypothese wird abgelehnt, wenn <math>t > t(1-\alpha,\ m+n-2)</math> bzw.
  • <math>\!H_0:\mu_X-\mu_Y\geq\omega_0</math> vs. <math>\!H_1:\mu_X-\mu_Y<\omega_0</math> und die Nullhypothese wird abgelehnt, wenn <math>t < -t(1-\alpha,\ m+n-2)</math>.

Bemerkung

Sind die Varianzen in den Grundgesamtheiten ungleich, dann muss der Welch-Test durchgeführt werden.

Beispiel 1

Zwei Düngemittelsorten sollen verglichen werden. Dazu werden 25 Parzellen gleicher Größe gedüngt, und zwar <math>n=10</math> Parzellen mit Sorte A und <math>m=15</math> Parzellen mit Sorte B. Angenommen wird, dass die Ernteerträge normalverteilt seien mit gleichen Varianzen. Bei Ersteren ergibt sich ein mittlerer Ernteertrag <math>\overline x = 23{,}6</math> mit Stichprobenvarianz <math>s_x^2 = 9{,}5</math> und bei den anderen Parzellen das Mittel <math>\overline y = 20{,}1</math> mit Varianz <math>s_y^2 = 8{,}9</math>. Für die gewichtete Varianz berechnet man damit

<math>s^2 = \frac{9\cdot 9{,}5 + 14 \cdot 8{,}9}{10+15-2} = 9{,}135</math>.

Daraus erhält man die Prüfgröße

<math>t = \sqrt{\frac{10 \cdot 15}{10+15}} \cdot \frac{23{,}6-20{,}1}{\sqrt{9{,}135}} = 2{,}837</math>.

Das vorgegebene Signifikanzniveau sei 5 %. Es wird ein zweiseitiger Test durchgeführt. Der Wert der Prüfgröße ist größer als das 0,975-Quantil der t-Verteilung mit <math>10+15-2=23</math> Freiheitsgraden <math>t(0{,}975;\ 23) = 2{,}069</math>. Es kann also mit einer Konfidenz von <math>95\,\%</math> behauptet werden, dass ein Unterschied in der Wirkung der beiden Düngemittel besteht.

Kompaktdarstellung

Zweistichproben-t-Test für zwei unabhängige Stichproben
Voraussetzungen
  • <math>X_1, \ldots,X_n</math> und <math>Y_1 \ldots,Y_m</math> unabhängig voneinander
  • <math>X_i\sim \mathcal{N}(\mu_X;\sigma)\,</math> oder <math>X_i\sim (\mu_X;\sigma)\,</math> mit <math>n>30</math>
  • <math>Y_j\sim \mathcal{N}(\mu_Y;\sigma)\,</math> oder <math>Y_j\sim (\mu_Y;\sigma)\,</math> mit <math>m>30</math>
  • <math>\sigma</math> unbekannt
Hypothesen <math>H_0: \mu_X-\mu_Y\leq\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y>\omega_0\,</math>
(rechtsseitig)
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y \neq\omega_0\,</math>
(zweiseitig)
<math>H_0: \mu_X-\mu_Y\geq\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y<\omega_0\,</math>
(linksseitig)
Teststatistik <math>T=\sqrt{\frac{nm}{n+m
Prüfwert {{{pruf}}}
Ablehnungsbereich <math>H_0</math> {{{ann1}}} {{{ann2}}} {{{ann3}}}

\frac{\overline{X}-\overline{Y}-\omega_0}{S} </math>

Im Fall <math>\mu_X-\mu_Y=\omega_0</math> gilt für die Teststatistik <math>T \sim t_{n+m-2}</math>. |pruf=<math>t=\sqrt{\frac{nm}{n+m}}\frac{\overline{x}-\overline{y}-\omega_0}{s}</math>
mit <math>\overline{x}=\frac{1}{n}\sum_{i=1}^n x_i</math>, <math>\overline{y}=\frac{1}{m}\sum_{i=1}^m y_i</math>,
<math>s_x=\sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2}</math>, <math>s_y=\sqrt{\frac{1}{m-1}\sum_{j=1}^m (y_j-\overline{y})^2}</math>
und <math>s=\sqrt{\frac{ {(n-1)s_x^2+(m-1)s_y^2} }{n+m-2}}</math> |ann1=<math>\{t|t>t_{1-\alpha;n+m-2}\}\,</math> |ann2=<math>\{t|t<-t_{1-\alpha/2;n+m-2}\}\,</math>
oder
<math>\{t|t>t_{1-\alpha/2;n+m-2}\}\,</math> |ann3=<math>\{t|t<-t_{1-\alpha;n+m-2}\}\,</math> }}

Zweistichproben-t-Test für abhängige Stichproben

{{#invoke:Vorlage:Siehe auch|f}}

Datei:Fehler erster Art von t-Tests.png
Fehler 1. Art von verbundenem und unverbundenem t-Test in Abhängigkeit von der Korrelation. Die simulierten Zufallszahlen entstammen einer bivariaten Normalverteilung mit einer Varianz von 1. Das Signifikanzniveau beträgt 5 % und die Fallzahl 60.
Datei:Guete von t-Tests.png
Güte von verbundenem und unverbundenem t-Test in Abhängigkeit von der Korrelation. Die simulierten Zufallszahlen entstammen einer bivariaten Normalverteilung mit einer Varianz von 1 und einer Differenz der Erwartungswerte von 0,4. Das Signifikanzniveau beträgt 5 % und die Fallzahl 60.

Hier sind <math>x_1, x_2, \dots, x_n</math> und <math>y_1, y_2, \dots, y_n</math> zwei paarweise verbundene Stichproben, die beispielsweise aus zwei Messungen an denselben Untersuchungseinheiten gewonnen wurden (Messwiederholung). Die Stichproben können auch aus anderen Gründen paarweise abhängig sein, beispielsweise wenn die <math>x</math>- und <math>y</math>-Werte Messergebnisse von Frauen bzw. Männern in einer Partnerschaft sind und Unterschiede zwischen den Geschlechtern interessieren.

Soll die Nullhypothese getestet werden, dass die beiden Erwartungswerte der zugrunde liegenden normalverteilten Grundgesamtheiten gleich sind, so können mit dem Einstichproben-t-Test die Differenzen <math>d_i = x_i - y_i</math> auf Null getestet werden. In der Praxis muss bei kleineren Stichprobenumfängen (<math>n\leq30</math>) die Voraussetzung erfüllt sein, dass die Differenzen in der Grundgesamtheit normalverteilt sind. Bei hinreichend großen Stichproben verteilen sich die Differenzen der Paare annähernd normal um das arithmetische Mittel der Differenz der Grundgesamtheit. Insgesamt reagiert der t-Test auf Annahmeverletzung eher robust.<ref>Jürgen Bortz: Statistik für Human- und Sozialwissenschaftler. 6. Auflage. Springer, Berlin 2005, ISBN 3-540-21271-X, S. 142.</ref>

Beispiel 2

Um eine neue Therapie zur Senkung des Cholesterinspiegels zu testen, werden bei zehn Probanden vor und nach der Behandlung die Cholesterinwerte bestimmt. Es ergeben sich die folgenden Messergebnisse:

Vor der Behandlung: 223 259 248 220 287 191 229 270 245 201
Nach der Behandlung: 220 244 243 211 299 170 210 276 252 189
Differenz: 3 15 5 9 −12 21 19 −6 −7 12

Die Differenzen der Messwerte haben das arithmetische Mittel <math>\overline d = 5{,}9</math> und die Stichprobenstandardabweichung <math>s_d=11{,}3866</math>. Das ergibt als Prüfgrößenwert

<math>t=\sqrt{10}\frac{5{,}9}{11{,}3866}=1{,}6385</math>.

Es ist <math>t(0{,}975;\ 9) = 2{,}2622</math>, also gilt <math>|t| \leq t(0{,}975;\ 9)</math>. Somit kann die Nullhypothese, dass die Erwartungswerte der Cholesterinwerte vor und nach der Behandlung gleich sind, die Therapie also keine Wirkung hat, zum Signifikanzniveau <math>\alpha=5\,\%</math> nicht abgelehnt werden. Wegen <math>t<t(0{,}95;\ 9) = 1{,}8331</math> ist auch die einseitige Alternative, dass die Therapie den Cholesterinspiegel senkt, nicht signifikant. Wenn die Behandlung überhaupt einen Effekt hat, so ist dieser nicht groß genug, um ihn mit einem so kleinen Stichprobenumfang zu entdecken.

Kompaktdarstellung

Zweistichproben-t-Test für zwei gepaarte Stichproben
Voraussetzungen
  • <math>D_i=X_i-Y_i\,</math> unabhängig voneinander
  • <math>\overline{D}=\frac{1}{n}\sum_{i=1}^n D_i\sim \mathcal{N}(\mu_D; \sigma_D/\sqrt{n})</math> (zumindest approximativ)
Hypothesen <math>H_0: \mu_X-\mu_Y\leq\omega_0</math>
<math>H_1: \mu_X-\mu_Y>\omega_0\,</math>
(rechtsseitig)
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y\neq\omega_0</math>
(zweiseitig)
<math>H_0: \mu_X-\mu_Y\geq\omega_0</math>
<math>H_1: \mu_X-\mu_Y<\omega_0\,</math>
(linksseitig)
Teststatistik <math>T=\sqrt{n}\frac{\overline{D}-\omega_0}{S_D}</math>

Im Fall <math>\mu_X-\mu_Y =\omega_0</math> gilt für die Teststatistik <math>T \sim t_{n-1}</math>.

Prüfwert <math>t=\sqrt{n}\frac{\overline{d}-\omega_0}{s_d}</math>
mit <math>d_i=x_i-y_i\,</math>, <math>\overline{d}=\frac{1}n\sum_{i=1}^n d_i</math>,
und <math>s_d = \sqrt{ \frac{1}{n-1}\sum_{i=1}^n (d_i-\overline{d})^2 } </math>
Ablehnungsbereich <math>H_0</math> <math>[t_{1-\alpha;n-1},\infty)\,</math> <math>(-\infty,-t_{1-\frac{\alpha}2;n-1}]\cup [t_{1-\frac{\alpha}2;n-1},\infty)\,</math> <math>(-\infty,-t_{1-\alpha;n-1}]\,</math>

Welch-Test

Beim Welch-Test<ref name="BLW38">B. L. Welch: The significance of the difference between two means when the population variances are unequal. In: Biometrika. Band 29, 1938, S. 350–362.</ref>, der manchmal auch Satterthwaite-Test<ref>Franklin J. Satterthwaite: Synthesis of Variance. In: Psychometrika. Band 6, Heft 5, 1941, S. 309–316.</ref> genannt wird, wird wie beim Zweistichprobentest-t-Test für unabhängige Stichproben unterstellt, dass die beiden Stichproben normalverteilt und unabhängig voneinander sind. Jedoch wird nicht mehr gefordert, dass die Varianzen in beiden Stichproben identisch sind. Die Teststatistik wird gegenüber dem Zweistichproben-t-Test entsprechend modifiziert:

<math>T=\frac{\overline X-\overline Y - \omega_0}{\sqrt{\frac{S_X^2}n+\frac{S_Y^2}m}} \approx t_\nu.</math>

Diese Teststatistik ist unter der Nullhypothese gleicher Mittelwerte nicht <math>t</math>-verteilt. Die wahre Verteilung kann aber (auch für endliche Stichproben!) durch eine t-Verteilung mit einer modifizierten Anzahl von Freiheitsgraden approximiert werden<ref name="BLW38"/><ref>{{#invoke:Vorlage:Literatur|f}}</ref> (siehe auch Behrens-Fisher-Problem):

<math>\nu = { \left(\frac{s_x^2}{n} + \frac{s_y^2}{m}\right)^2 \over \frac 1{n-1} \left(\frac{s_x^2}{n}\right)^2 + \frac 1{m-1}\left(\frac{s_y^2}{m}\right)^2 }.</math>

Dabei sind <math>s_x</math> und <math>s_y</math> die aus der Stichprobe geschätzten Standardabweichungen der Grundgesamtheiten sowie <math>n</math> und <math>m</math> die Stichprobenumfänge.

Obwohl der Welch-Test speziell für den Fall <math>\sigma_X\neq\sigma_Y</math> entwickelt wurde, funktioniert der Test nicht gut, wenn mindestens eine der Verteilungen nicht-normal ist, die Fallzahlen klein und stark unterschiedlich (<math>n\neq m</math>) sind.<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref>{{#invoke:Vorlage:Literatur|f}}</ref>

Kompaktdarstellung

Welch-Test
Voraussetzungen
  • <math>X_1, \ldots,X_n</math> und <math>Y_1 \ldots,Y_m</math> unabhängig voneinander
  • <math>X_i\sim \mathcal{N}(\mu_X;\sigma_X)\,</math> oder <math>X_i\sim (\mu_X;\sigma_X)\,</math> mit <math>n>30</math>
  • <math>Y_j\sim \mathcal{N}(\mu_Y;\sigma_Y)\,</math> oder <math>Y_j\sim (\mu_Y;\sigma_Y)\,</math> mit <math>m>30</math>
  • <math>\sigma_X\neq\sigma_Y</math> unbekannt
Hypothesen <math>H_0: \mu_X-\mu_Y\leq\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y>\omega_0\,</math>
(rechtsseitig)
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y \neq\omega_0\,</math>
(zweiseitig)
<math>H_0: \mu_X-\mu_Y\geq\omega_0\,</math>
<math>H_1: \mu_X-\mu_Y<\omega_0\,</math>
(linksseitig)
Teststatistik <math>T=\frac{\overline{X}-\overline{Y}-\omega_0}{S} \approx t_\nu</math>

Im Fall <math>\mu_X-\mu_Y=\omega_0</math> gilt <math> T \approx t_\nu</math>.

Prüfwert <math>t=\frac{\overline{x}-\overline{y}-\omega_0}{s}</math>

mit <math>\overline{x}=\frac{1}{n}\sum_{i=1}^n x_i</math>, <math>\overline{y}=\frac{1}{m}\sum_{i=1}^m y_i</math>,
<math>s_x^2=\frac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2</math>,
<math>s_y^2=\frac{1}{m-1}\sum_{j=1}^m (y_j-\overline{y})^2</math>,
<math>s=\sqrt{\frac{s_x^2}{n}+\frac{s_y^2}{m

Ablehnungsbereich <math>H_0</math> {{{ann1}}} {{{ann2}}} {{{ann3}}}

</math> und

<math>\nu=\frac{\left(\frac{s_x^2}{n} + \frac{s_y^2}{m}\right)^2}{\frac{\left(\frac{s_x^2}{n}\right)^2}{n-1} + \frac{\left(\frac{s_y^2}{m}\right)^2}{m-1}}</math>. |ann1=<math>\{t|t>t_{1-\alpha;\nu}\}\,</math> |ann2=<math>\{t|t<-t_{1-\alpha/2;\nu}\}\,</math>
oder
<math>\{t|t>t_{1-\alpha/2;\nu}\}\,</math> |ann3=<math>\{t|t<-t_{1-\alpha;\nu}\}\,</math> }}

Alternative Tests

Der t-Test wird, wie oben ausgeführt, zum Testen von Hypothesen über Erwartungswerte einer oder zweier Stichproben aus normalverteilten Grundgesamtheiten mit unbekannter Standardabweichung verwendet.

Weblinks

Einzelnachweise

<references />