Zum Inhalt springen

Box-Cox-Transformation

aus Wikipedia, der freien Enzyklopädie

Die Box-Cox-Transformation ist ein mathematisches Instrument der Regressionsanalyse und Zeitreihenanalyse, mit dem eine Stabilisierung der Varianz erreicht werden soll (Verringerung von Heteroskedastizität). Die Formel lautet:

<math>

Y_t^{(\lambda)}=\left\{\begin{matrix} \dfrac{(Y_t+c)^\lambda-1} {\lambda} & \quad \mathrm{f\ddot ur\;\;}\lambda \ne 0 \\[10pt] \ln(Y_t+c) &\quad \mathrm{f\ddot ur\;\;}\lambda = 0\end{matrix}\right. </math> Die auf <math>Y_t</math> addierte Konstante c wird lediglich benötigt, um bei Bedarf dafür zu sorgen, dass die Werte, von welchen der Logarithmus genommen werden soll, tatsächlich positiv sind, da der Logarithmus sonst nicht definiert ist.

Es gibt verschiedene Methoden, um geeignete Werte für <math>\lambda</math> zu finden. Zum Beispiel kann <math>\lambda</math> zusammen mit anderen Modellparametern mittels Maximum-Likelihood-Schätzung oder durch visuellen Vergleich der transformierten Daten bestimmt werden.

Weblinks

Literatur

  • George E. P. Box und David R. Cox: An analysis of transformations. Journal of the Royal Statistical Society Series B 26(2). 1964. S. 211–252. {{#invoke:JSTOR|f|1=2984418}}{{#if:
 | {{#ifeq: 0 | 0
     |  }}

}}