Zum Inhalt springen

Goldfeld-Quandt-Test

aus Wikipedia, der freien Enzyklopädie

Der Goldfeld-Quandt-Test ist ein statistischer Test auf Heteroskedastizität (nicht konstante Varianz der Störgrößen) bei der Regressionsanalyse. Der Test basiert auf dem Vergleich zweier Stichprobenhälften. Er wurde benannt nach Stephen Goldfeld und Richard E. Quandt.<ref name="GQ">{{#invoke:Vorlage:Literatur|f}}</ref>

Vorgehen

Datei:ResidualsForGQTest.svg
Vorgehensweise beim Goldfeld-Quandt-Test

Die Stichprobe wird in zwei Teilmengen bzgl. einer erklärenden Variablen geteilt, siehe Grafik. Die beiden Teilmengen müssen disjunkt sein, sodass keine Beobachtung in beiden Teilmengen vorkommen. Die beiden Teilmengen zusammen müssen aber nicht die gesamte Stichprobe umfassen. In der Grafik ist z. B. der Mittelteil der Beobachtungen in keiner Teilmenge (grau). Für beide Teilmengen wird eine Regression geschätzt und die Varianz der Residuen berechnet. Danach wird für jede Teilmenge die Stichprobenvarianz der Residuen <math>{s_i^2}</math> für i=1,2 bestimmt (mit <math>s_1^2>s_2^2</math>) und der Prüfwert <math>\tfrac{s_1^2}{s_2^2}</math> mit einem kritischen Wert aus der F-Verteilung verglichen. In dem Beispiel liegt Heteroskedastizität vor, da die Regression zu einer Teilmenge eine hohe Residualvarianz (rot) aufweisen, während die Regression zur anderen Teilmenge eine niedrige Residualvarianz (blau) zeigt.

Mathematische Formulierung

Voraussetzung

Im klassischen Regressionsmodell gilt <math>Y_{i1}=f_1(x_{i1})+U_{i1}</math> bzw. <math>Y_{i2}=f_2(x_{i2})+U_{i2}</math> mit <math>U_{i1}\sim \mathcal{N}(0, \sigma_1^2)</math> und <math>U_{i2}\sim \mathcal{N}(0, \sigma_2^2)</math>. Der Test reagiert sensitiv auf Verletzungen der Normalverteilung der Residuen.

Hypothesen und Teststatistik

Die Null- und die Alternativhypothese lauten

<math>H_0: \sigma_1^2=\sigma_2^2=\sigma^2,</math> (Vorliegen von Homoskedastizität) vs. <math>H_1: \sigma_1^2\neq\sigma_2^2</math> (Vorliegen von Heteroskedastizität).

Die Verteilung der Teststatistik ergibt sich als

<math>F=\frac{S_1^2}{S_2^2}\sim F_{n_1-k;n_2-k}</math>

mit <math>n_i</math> die Anzahl der Beobachtungen im <math>i</math>ten Teil und <math>k</math> die Anzahl der geschätzten Regressionsparameter sowie

<math>S_i^2 = \frac{1}{n_i-k} \sum_{j=1}^{n_i} U_{ji}^2</math>.

Die Nullhypothese (Homoskedastizität) wird verworfen, wenn der Prüfwert größer ist als der kritische Wert <math>F_{n_1-k;n_2-k}(1-\alpha)</math> aus der F-Verteilung mit <math>n_1-k</math> und <math>n_2-k</math> Freiheitsgraden und einem vorgegebenen Signifikanzniveau <math>\alpha</math>.

Beispiel

Variable Bedeutung
medv Mittlerer Kaufpreis eines
Hauses in 1000 US$
lstat Anteil Unterschichtbevölkerung
rm Durchschnittliche Raumzahl
dis Gewichtete Entfernung zu den fünf
wichtigsten Beschäftigtenzentren

Für das Beispiel wurden lineare Regressionen mit dem Boston-Housing-Datensatz durchgeführt. Für jeden der 506 Bezirke wurden die rechts stehenden Variablen erhoben und eine multiple lineare Regression durchgeführt:

<math>medv_i=2,8083-0{,}7233 lstat_i + 4{,}8734 rm_i -0{,}4613 dis_i + \hat{u}_i</math>.

Plottet man die Residuen gegen die Variable dis (Grafik oben) so sieht man, dass die Varianz der Residuen abnimmt, wenn die Werte von dis zunehmen. Man teilt die Daten nun in zwei Teile: den roten und den blauen Teil. Dann fittet man zwei Regressionsmodelle und berechnet die Summe der quadrierten Residuen.

Rot <math>medv_{i1}=+56{,}116-1{,}002 lstat_{i1}+0{,}664 rm_{i1} -14{,}106 dis_{i1} + \hat{u}_{i1}</math>
<math>s_1^2=\frac1{n_1-k}\sum_{i=1}^{n_1} \hat{u}_{i1}^2 = \frac{4899{,}807}{112-4}=45{,}369</math>
Blau <math>medv_{i2}=-40{,}858-0{,}044 lstat_{i2}+9{,}895 rm_{i2} +0{,}233 dis_{i2} + \hat{u}_{i2}</math>
<math>s_2^2=\frac1{n_2-k}\sum_{i=1}^{n_2} \hat{u}_{i2}^2 = \frac{179{,}927}{49-4}=3{,}998</math>

Dann ergibt sich der Prüfwert zu <math>f=\tfrac{45{,}369}{3,998}=11{,}347</math> und der kritische Wert für ein Signifikanzniveau <math>\alpha=5\,\%</math> aus der F-Verteilung mit 108 und 45 Freiheitsgraden zu <math>c=1{,}548</math>. Da der Prüfwert größer ist als der kritische Wert, muss die Nullhypothese der Homoskedastizität abgelehnt werden.

Literatur

  • William E. Griffiths, R. Carter Hill, George G. Judge: Learning and Practicing Econometrics. 1. Auflage. 1993, ISBN 0-471-51364-4, S. 494 ff.

Einzelnachweise

<references />