Zum Inhalt springen

Bartlett-Test

aus Wikipedia, der freien Enzyklopädie

Als Bartlett-Test (auch: Bartletts Test) werden zwei verschiedene statistische Tests bezeichnet:

Beide Tests beruhen auf einem Likelihood-Quotienten-Test und setzen eine Normalverteilung voraus.

Bartlett-Test auf Gleichheit der Varianzen

Dieser Test prüft, ob <math>k</math> Stichproben aus Grundgesamtheiten mit gleichen Varianzen stammen. Eine Reihe von statistischen Tests, z. B. die Varianzanalyse, setzen voraus, dass die Varianzen der <math>k</math> Gruppen in der Grundgesamtheit gleich sind. Der Bartlett-Test wird zur Überprüfung dieser Voraussetzung benutzt. Er wurde 1937 von Maurice Bartlett entwickelt.<ref>{{#invoke:Vorlage:Literatur|f}} </ref> Dieser Test wird auch Bartletts M-Test oder Neyman-Pearson-Bartlett-Test genannt.<ref>{{#invoke:Vorlage:Literatur|f}}</ref>

Voraussetzung

Der Bartlett-Test setzt eine Normalverteilung für jede der <math>k</math> Gruppen voraus, wobei die Mittelwerte <math>\mu_i</math> und die Varianzen <math>\sigma^2_i</math> unbekannt sind, <math>i=1,\ldots, k</math>. Der Test reagiert empfindlich auf die Verletzung der Normalverteilungsvoraussetzung. Alternativen sind dann der Levene-Test oder Brown-Forsythe-Test, die weniger sensitiv auf die Verletzung dieser Voraussetzung reagieren.

Hypothesen

Der Bartlett-Test testet die Nullhypothese, dass alle Gruppenvarianzen gleich sind, gegen die Alternativhypothese, dass mindestens zwei Gruppenvarianzen ungleich sind:

<math>H_0: \sigma_1^2 = \dots = \sigma_k^2</math> gegen <math>H_1: \exists i,j \quad \text{mit} \quad \sigma_i^2\neq\sigma_j^2 </math>

Teststatistik

Wenn die <math>k</math> Gruppen die Stichprobenumfänge <math>n_i</math>, die Stichprobenmittel <math>\bar X_i = \frac{1}{n_i}\sum_{j=1}^{n_i} X_{ij} </math> und die Stichprobenvarianzen <math>S_i^2 = \frac{1}{n_i-1}\sum_{j=1}^{n_i} (X_{ij} - \bar X_i)^2</math> für <math>i=1,\ldots,k</math> haben, dann wird die Teststatistik definiert als

<math>X^2 = \frac{(N-k)\ln(S_p^2) - \sum\limits_{i=1}^k(n_i - 1)\ln(S_i^2)}{1 + \frac{1}{3(k-1)} \left( \left[\sum \limits_{i=1}^k\frac{1}{n_i-1} \right] - \frac{1}{N-k} \right)}

</math> mit <math>N = \sum_{i=1}^k n_i</math> und <math>S_p^2 = \frac{1}{N-k} \sum_{i=1}^k (n_i-1)S_i^2</math>.

Testverteilung

Die Teststatistik <math>X^2</math> ist, bei Richtigkeit der Nullhypothese, approximativ Chi-Quadrat-verteilt mit <math>k-1</math> Freiheitsgraden. Die Nullhypothese wird abgelehnt, wenn die Realisierung der Teststatistik größer als <math>\chi^2_{k-1,1-\alpha}</math> ist. Dabei bezeichnet <math>\chi^2_{k-1,1-\alpha}</math> das <math>(1-\alpha)</math>-Quantil der Chi-Quadrat-Verteilung mit <math>k-1</math> Freiheitsgraden. Dieser kritische Wert wird manchmal auch als oberer <math>100\alpha</math>-Prozentpunkt (engl. upper <math>100\alpha</math> percentage point) der Verteilung bezeichnet und dann auch als <math>\chi^2_{k-1,\alpha}</math> notiert.

Der Bartlett-Test ist eine Modifikation eines entsprechenden Likelihood-Quotienten-Tests.

Bartlett-Test auf Sphärizität

Er prüft im Rahmen der Faktorenanalyse, ob die Korrelationsmatrix der beobachteten Variablen in der Grundgesamtheit gleich der Einheitsmatrix ist. Kann diese Nullhypothese nicht abgelehnt werden, sollte die Faktorenanalyse nicht durchgeführt werden.

Voraussetzung

Der Test setzt eine multivariate Normalverteilung der Daten voraus und reagiert sensitiv auf die Verletzung dieser Voraussetzung.

Hypothesen

Der Test testet die Nullhypothese, dass die Korrelationsmatrix <math>R</math> gleich der Einheitsmatrix <math>E</math> ist, gegen die Alternativhypothese, dass die beiden ungleich sind:

<math>H_0: R=E\,</math> gegen <math>H_1: R\neq E</math>

Teststatistik

Wenn <math>p</math> die Anzahl der Variablen ist, für die die Korrelationsmatrix <math>R</math> berechnet wurde, dann wird die Teststatistik definiert als

<math>X^2 = -\left(n-1 - \frac{2p+5}{6}\right)\log(|R|)</math>

wobei <math>n</math> die Anzahl der Beobachtungen und <math>|R|</math> die Determinante von <math>R</math> ist.<ref>SPSS (2007), SPSS 16.0 Algorithms, SPSS Inc., Chicago, Illinois, S. 293.</ref>

Die Teststatistik <math>X^2</math> ist approximativ <math>\chi^2_{p(p-1)/2}</math>-verteilt mit <math>p(p-1)/2</math> Freiheitsgraden. D. h. die Nullhypothese wird abgelehnt, wenn die Realisierung der Teststatistik größer ist als <math>\chi^2_{p(p-1)/2,\alpha}</math>.

Zum Verständnis

Ein vereinfachtes Verständnis des Prinzips ist aus einer geometrischen Metapher herleitbar: man stelle sich die untersuchten Fälle als Punkte im Raum der Variablen vor. Die Variablenwerte bilden dabei die Koordinaten. Bei einer sphärischen Kovarianzstruktur bilden die Punkte eine etwa kugelförmige Wolke -Sphäre ist ein selten gebrauchtes Wort für Kugel. Solch eine Situation ist ungünstig für Verfahren wie die Hauptkomponenten- oder die Faktorenanalyse, die ja versuchen, die Längsachse der Punktwolke zu finden, denn eine Kugel besitzt so etwas nicht.

Einzelnachweise

<references />

Weblinks