Notice: Unexpected clearActionName after getActionName already called in /var/www/html/includes/context/RequestContext.php on line 338
Multikollinearität – Wikipedia Zum Inhalt springen

Multikollinearität

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Varianzinflationsfaktor)

Multikollinearität liegt vor, wenn zwei oder mehr erklärende Variablen eine sehr starke Korrelation miteinander haben. Mit zunehmender Multikollinearität wird in der Regressionsanalyse die Schätzung der Regressionskoeffizienten instabil. Aussagen zur Schätzung der Regressionskoeffizienten sind zunehmend ungenau und die Modellinterpretation ist nicht mehr eindeutig. Dies ist das Problem nicht identifizierbarer Parameter.

Ein Symptom starker Multikollinearität ist ein hohes Bestimmtheitsmaß einhergehend mit niedrigen t-Werten für die einzelnen Regressionsparameter.

Probleme der Multikollinearität

Perfekte Kollinearität macht die rechnerische Durchführung der linearen Regressionsanalyse unmöglich und tritt meist als Folge der Fehlspezifikation des zu Grunde liegenden Modells (wahres Modell) auf. Im Falle von Multikollinearität kommt es zu nicht identifizierbarer Parametern.

Numerische Instabilität

Datei:Effect of multicollinearity on coefficients of linear model.png
Die Regressionsparameter werden korrekt geschätzt, falls <math>X_1</math> und <math>X_2</math> unkorreliert sind (schwarz, wahre Parameter: <math>b_1=a_1= 2,b_2=a_2=4</math>). Falls <math>X_1</math> und <math>X_2</math> korreliert sind (rot), dann ist die Schätzung der Parameter kompromittiert.

Mathematisch lässt sich die, mittels der Methode der kleinsten Quadrate gewonnene, Lösung des multiplen linearen Regressionsproblems <math>y_i = b_0 + b_1 x_{i1} + \ldots + b_k x_{ik}</math> für die Regressionskoeffizienten in Vektor-Matrix-Schreibweise darstellen als

<math>\mathbf b= \left( \mathbf{X}^{\top} \mathbf{X} \right)^{-1} \mathbf{X}^{\top} \mathbf{y}</math>.

Der Vektor <math>\mathbf{b}=(b_0, \dots, b_p)^{\top}</math> enthält die geschätzten Regressionskoeffizienten, den Vektor <math>\mathbf{y} = (y_1, \dots, y_n)^{\top}</math> und die Datenmatrix

<math>\mathbf{X} = \begin{pmatrix} 1 & x_{11} & \cdots & x_{1k} \\ \vdots & \vdots & & \vdots\\ 1 & x_{n1} & \cdots & x_{nk} \end{pmatrix}</math>

die <math>n \times p</math>-dimensionalen Beobachtungswerte. Das Problem liegt in der Berechnung der Inversen von der Produktsummenmatrix <math>\mathbf{X}^{\top}\mathbf{X} </math>; je stärker die Multikollinearität ist, desto mehr nähert sich <math> \mathbf{X}^{\top} \mathbf{X}</math> einer singulären Matrix an, d. h. es existiert keine Inverse.

Modellinterpretation

Wenn das Regressionsmodell <math>y=b_0+b_1 x_1 + b_2 x_2</math> ist und perfekte Multikollinearität vorliegt, d. h.

<math>x_2=c_0+c_1 x_1\,</math> oder umgestellt
<math> x_1 = \frac{1}{c_1} x_2 - \frac{c_0}{c_1}</math>

und setzt beide Gleichungen jeweils in das Regressionsmodell ein, so erhält man

(1) <math>y = b_0+b_1 x_1 + b_2 (c_0+c_1 x_1) = (b_0 + b_2 c_0) + (b_1 +b_2 c_1) x_1\,</math>
(2) <math>y = b_0+b_1 \left(\frac{1}{c_1} x_2 - \frac{c_0}{c_1}\right) + b_2 x_2 = \left(b_0+\frac{b_1c_0}{c_1}\right) + \left(\frac{b_1}{c_1}+b_2\right) x_2</math>

Im Modell (1) hängt <math>y</math> nur noch von <math>x_1</math> ab und im Modell (2) hängt <math>y</math> nur noch von <math>x_2</math> ab. Es stellt sich nun die Frage, welches Modell ist das „Richtige“? In der Ökonomie spricht man von nicht identifizierbaren Modellen.

Identifikation von Multikollinearität

Weil empirische Daten immer einen gewissen Grad an Multikollinearität aufweisen, wurden Kennzahlen entwickelt, die Hinweise auf Multikollinearität liefern. Einen eindeutigen Richtwert gibt es jedoch nicht.

Korrelation

Zur Aufdeckung von Multikollinearität dient z. B. die Analyse der Korrelationskoeffizienten der Regressoren. Sehr hohe positive oder negative Korrelationskoeffizienten zeigen einen starken Zusammenhang zwischen den Regressoren und damit Multikollinearität an. Eine niedrige Korrelation zwischen den Regressoren bedeutet jedoch nicht automatisch die Abwesenheit von Multikollinearität (Beispiel <ref>https://www.sgipt.org/wisms/EWA/EWA0.htm#Unauffaellige%20Korrelationsmatrix</ref>); auch lineare Kombinationen von Regressoren, die eine hohe positive oder negative Korrelation aufweisen, z. B. zwischen <math>d_1 x_1 + d_2 x_2</math> und <math>d_3 x_3 + d_4 x_4</math>, führen zu den oben genannten Problemen. Eine hohe Korrelation zwischen den Regressoren kann durch die Korrelationsmatrix identifiziert werden.

Bestimmtheitsmaß

Ein hohes Bestimmtheitsmaß <math>R_i^2</math> der linearen Regressionen

<math>x_i = d_{i0} + \sum_{j=1\atop j\neq i}^k d_{ji} x_j</math>,

d. h. der <math>i</math>-te Regressor wird durch alle anderen Regressoren gut vorhergesagt, zeigt Multikollinearität an.

Toleranz

Die Toleranz <math>\text{Tol}_j = 1-R_j^2</math> wird zur Einschätzung der Multikollinearität benutzt. Ein Wert von <math>\text{Tol}_j < 0{,}2</math> deutet auf eine starke Multikollinearität hin.

Varianzinflationsfaktor (VIF)

Je größer der Varianzinflationsfaktor

<math>\operatorname{VIF}_j = \frac{1}{1-R_j^2}=\frac{1}{\text{Tol}_j}\in [1; \infty)</math>, (mit <math>R_j</math> als Bestimmtheitsmaß der Regression von <math>x_j </math> auf alle übrigen Einflussgrößen),

desto stärker sind die Hinweise auf Multikollinearitäten. Einen definitiven Wert, ab wann der VIF eine (zu) hohe Multikollinearität anzeigt, gibt es nicht. Als Daumenregel werden häufig VIF-Werte von über 10 als „zu hoch“ eingestuft.<ref>Siehe für die Daumenregel und eine Diskussion dazu: Wooldridge, Introductory Econometrics:A Modern Approach, 2013, S. 98.</ref>

Konditionsindex

Die Produktsummenmatrix <math> \mathbf{X}^{\top} \mathbf{X}</math> ist positiv semidefinit, d. h. alle Eigenwerte <math>\lambda_i</math> der Matrix sind positiv oder Null. Wird die Matrix singulär, dann ist mindestens ein Eigenwert gleich Null. Ist der Konditionsindex

<math>\text{KI}_j = \sqrt{\frac{\lambda_j}{\min_i \lambda_i}}</math>

für ein <math>\text{KI}_j</math> größer als 30 spricht man ebenfalls von starker Multikollinearität.

Siehe auch

Literatur

  • L. von Auer: Ökonometrie – Eine Einführung. 7. Auflage. Springer, Berlin 2016, ISBN 978-3-662-47868-4, S. 561–588.

Einzelnachweise

<references />