Zum Inhalt springen

Umbrella-Test

aus Wikipedia, der freien Enzyklopädie

Der Umbrella-Test nach Mack und Wolfe<ref>H.B. Mack, D.A. Wolfe: K-sample rank tests for umbrella alternatives. In: J. Amer. Statist. Ass., 76, 1981, S. 175–181, doi:10.1080/01621459.1981.10477625, {{#invoke:JSTOR|f|1=2287064}}{{#if:

 | {{#ifeq: 0 | 0
     |  }}

}}</ref> stellt die Verallgemeinerung des Jonkheere-Terpstra-Testes dar. Im Unterschied zu diesem Test wird jedoch nicht von einem monotonen Trend ausgegangen, sondern von Trends mit einem Gipfel.

Die Nullhypothese H0 lautet für die Erwartungswerte G der Gruppen: <math>G_1\ =\ G_2\ = \ \dots\ = \ G_c</math>

Als Alternativhypothese HA gilt: <math>G_1\ \leq\ G_2\ \leq\ \dots\ \leq\ G_l\ \geq \ G_{l+1}\ \geq \ \dots\ \geq \ G_c</math>, wobei mindestens eine strikte Ungleichung gilt.

Berechnung der Prüfgröße

Die Teststatistik MW lautet für eine Anzahl <math>c</math> von Gruppen mit einem Gipfel bei <math>l</math> mit jeweils <math>n</math> Messungen:

<math>MW\ = \ \sum_{r=1}^{l-1}\ \sum_{s=r+1}^{l} U_{rs}\ +\ \sum_{r=l}^{c-1}\ \sum_{s=r+1}^c U_{sr} </math>

Dabei ist <math>U_{rs}</math> bzw. <math>U_{sr}</math> für die r-te und das s-te Gruppe mit <math>1\leq r\ < s\leq c</math> definiert als

<math>U_{rs}\ = \ \sum_{h=1}^{n_r}\ \sum_{i=1}^{n_s}\Psi (X_{rh}\ -\ X_{si})</math>

und

<math>U_{sr}\ =\ n_rn_s\ -\ U_{rs}</math>

mit

<math>\Psi (u)\ = \begin{cases}

 1  & \text{wenn } u > 0 \\
 0  & \text{wenn } u \leq 0

\end{cases}\ </math> oder im Falle von Bindungen (gleichen Messwerten) <math>\ \Psi (u)\ = \begin{cases}

 1  & \text{wenn } u > 0 \\
 1/2 & \text{wenn } u = 0 \\
 0  & \text{wenn } u < 0

\end{cases}</math>

Die berechnete Prüfgröße <math>MW</math> wird größer, wenn ein biphasischer Trend zwischen den Gruppen vorhanden ist.

Unter allgemeinen Bedingungen weist die Prüfgröße <math>MW</math> eine Normalverteilung auf.

Überprüfung der Signifikanz

Für den Erwartungswert <math>\mu _{MW}</math> und dessen Varianz <math>\sigma _{MW}</math> gelten folgende Formeln, die sich letztendlich aus einer Addition der Statistiken des Jonkheere-Terpstra-Tests<ref>T.J. Terpstra: The asymptotic normality and consistency of Kendall’s test against trend, when ties are present in one ranking. In: Indagationes Mathematicae, 14, 1952, S. 327–333</ref><ref>A.R. Jonkheere: A distribution-free K-sample test against ordered alternatives. In: Biometrika, 41, 1954, S. 133-145, doi:10.1093/biomet/41.1-2.133, {{#invoke:JSTOR|f|1=2333011}}{{#if:

 | {{#ifeq: 0 | 0
     |  }}

}}</ref> ergeben:

<math>\mu _{MW}\ = \ \frac{m_1^2\ +\ m_2^2\ -\ \sum_{i=1}^{c}n_i^2\ -\ n_l^2}{4}\ </math>

und

<math>\ \sigma _{MW}\ = \ \sqrt{\frac{2(m_1^3+m_2^3)\ +\ 3(m_1^2+m_2^2)\ -\ \sum_{i=1}^c n_i^2(2n_i+3)\ -\ n_l^2(2n_l+3)\ +\ 12n_lm_1m_2\ -\ 12n_l^2N}{72}}</math>

mit

<math>N\ =\ \sum_{i=1}^cn_i,\quad m_1\ =\ \sum_{i=1}^ln_i\quad\text{und}\ m_2\ =\ \sum_{i=l}^cn_i</math>

Die daraus folgende Variable <math>Z</math> ist standardnormalverteilt, wenn die Gesamtzahl aller Stichproben größer 12 ist:

<math>Z\ = \ \frac{{MW}\ - \ \mu _{MW}}{\sigma _{MW}}</math>

Oder anders ausgedrückt: bei einem einseitigen Test auf 5-%-Niveau (Fehler 1. Art) ist der Test signifikant, wenn

<math>{MW}\ >\ \mu _{MW}\ +\ 1,645\sigma _{MW}</math>

Einzelnachweise

<references />