Individueller Ergodensatz
Der individuelle Ergodensatz ist ein wichtiger Satz der Ergodentheorie, einem Teilgebiet der Mathematik im Grenzbereich zwischen Stochastik und Theorie dynamischer Systeme. Alternativ wird der individuelle Ergodensatz auch Ergodensatz von Birkhoff oder punktweiser Ergodensatz genannt. Er liefert eine Form des starken Gesetzes der großen Zahlen für abhängige Zufallsvariablen und liefert die mathematische Grundlage der Ergodenhypothese der statistischen Physik. Der Satz wurde im Jahr 1931 durch George David Birkhoff bewiesen, nach dem er auch benannt ist.<ref> G. D. Birkhoff: Proof of the ergodic theorem, (1931), Proc Natl Acad Sci U S A, 17 S. 656–660. pdf. Bei: PNAS.org</ref> Ein kompakter Beweis ist mittels des Hopf’schen Maximal-Ergodenlemmas möglich. Außerdem kann der <math> \mathcal L^p </math>-Ergodensatz ohne großen Aufwand aus dem individuellen Ergodensatz hergeleitet werden.
Aussage
Es sei <math>X</math> eine integrierbare Zufallsvariable (d. h., sie besitzt einen endlichen Erwartungswert) und <math>T</math> eine maßerhaltende Transformation auf dem zu Grunde liegenden Wahrscheinlichkeitsraum <math>(\Omega, \mathcal A, P)</math> (d. h. <math>P(T^{-1}(A)) = P(A)</math> für alle <math> A </math> in <math> \mathcal A</math>). Dann konvergieren die Mittel
- <math> \frac{1}{n} \sum_{i=1}^{n} X \circ T^{i} (\omega) </math>
für <math>n\to\infty</math> fast sicher gegen eine Zufallsvariable <math>Y</math>.
<math>Y</math> kann dabei messbar bezüglich der von den <math>T</math>-invarianten Mengen <math>A</math> (d. h. <math>T^{-1}(A) = A</math>) erzeugten σ-Algebra <math>\mathcal T</math> gewählt werden und lässt sich als bedingter Erwartungswert <math>E[X|\mathcal T]</math> darstellen.
Wenn <math>T</math> ergodisch ist, so ist <math>Y</math> fast sicher konstant gleich dem Erwartungswert von <math>X</math>.
Das Beispiel eines stationären Prozesses
Die Zufallsvariablen <math>Y_i = X \circ T^{i}</math> (<math>i = 1, 2, \dots</math>) bilden einen stationären stochastischen Prozess, d. h. <math>(Y_2, Y_3, \dots)</math> ist so verteilt wie <math>(Y_1, Y_2, \dots)</math>. Umgekehrt lässt sich jeder stationäre stochastische Prozess <math>(Y_i)_{i\ge1}</math> in dieser Weise darstellen, wenn man annimmt, dass <math>\Omega = \R^{\{1, 2, \dots\}}</math> und <math>Y_i</math> von der Form <math>Y_i(\omega_1, \omega_2, \dots) = \omega_i</math> ist. (Wenn dies nicht der Fall ist, kann man den Bildraum <math>\R^{\{1, 2, \dots\}}</math> mit dem Bildmaß von <math>(Y_1, Y_2, \dots)</math> anstelle von <math>\Omega</math> und <math>P</math> betrachten.) Dabei ist <math>X(\omega_1, \omega_2, \dots) = \omega_1</math>, und der Linksshift, der <math>(\omega_1, \omega_2, \dots)</math> auf <math>(\omega_2, \omega_3, \dots)</math> abgebildet, ist die maßerhaltende Transformation.
Wenn die <math>Y_i</math> einen endlichen Erwartungswert haben, konvergiert nach dem Ergodensatz also
- <math>\frac{1}{n} \sum_{i=1}^{n} Y_i(\omega) </math>
für <math>n\to\infty</math> fast sicher gegen eine Zufallsvariable <math>Y</math>. Diese ist der bedingte Erwartungswert <math>E[Y_i|\mathcal T]</math> eines jeden <math>Y_i</math>. Wenn Ergodizität vorliegt, ist <math>Y</math> fast sicher konstant, d. h.
- <math>\frac{1}{n} (Y_1 + \dots + Y_n) \,\to\, E[Y_i]</math> fast sicher (<math>i\ge1</math> beliebig).
Literatur
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
Weblinks
- {{#invoke:Vorlage:Literatur|f}}{{#if:|}}
- {{#if: | | Eric W. Weisstein }}: Birkhoff's Ergodic Theorem. In: MathWorld (englisch). {{#if: BirkhoffsErgodicTheorem | {{#ifeq: {{#property:P2812}} | BirkhoffsErgodicTheorem | | {{#if: {{#property:P2812}} | {{#ifeq: 0 | 0 | }} | {{#ifeq: 0 | 0 | }} }} }} }}
- Vitaly Bergelson: History of the Ergodic Theorem
Einzelnachweise
<references />