Zufallsvariable
In der Stochastik ist eine Zufallsvariable eine Größe, deren Wert vom Zufall abhängig ist.<ref>Norbert Henze: Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner Verlag, 2010, ISBN 978-3-8348-0815-8, doi:10.1007/978-3-8348-9351-2, S. 12.</ref> Formal ist eine Zufallsvariable eine Funktion, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet.<ref name="Bewersdorff2012" /> Ist diese Größe eine reelle Zahl, so spricht man von einer reellen Zufallsvariablen oder Zufallsgröße.<ref name="Lexikon-511" /> Beispiele für reelle Zufallsvariablen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte sein, wie Zufallsfelder, Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen. Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.<ref name="Bewersdorff2012" />
Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisierung<ref>{{#invoke:Vorlage:Literatur|f}}</ref> oder im Falle eines stochastischen Prozesses einen Pfad. Bei der Zufallszahlenerzeugung werden Realisierungen spezieller Zufallsexperimente als Zufallszahlen bezeichnet.
Alternative Bezeichnungen
Heutzutage ist Zufallsvariable die gängigste Bezeichnung; in älterer Literatur finden sich aber auch zufällige Variable<ref name="Lexikon-511">{{#invoke:Vorlage:Literatur|f}}</ref>, zufällige Größe<ref name="Bewersdorff2012" />, zufällige Veränderliche<ref name="Lexikon-511" />, zufälliges Element<ref name="Lexikon-511" />, Zufallselement<ref>{{#invoke:Vorlage:Literatur|f}}</ref> und Zufallsveränderliche<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref>{{#invoke:Vorlage:Literatur|f}}</ref>
Während A. N. Kolmogorow zunächst von durch den Zufall bestimmten Größen sprach<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref>{{#invoke:Vorlage:Literatur|f}}</ref>, führte er 1933 den Begriff zufällige Größe ein<ref>{{#invoke:Vorlage:Literatur|f}}</ref> und sprach später von Zufallsgrößen.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Im Jahr 1933 ist auch schon der Begriff Zufallsvariable in Gebrauch.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Bereits 1935 ist der Begriff zufällige Variable nachweisbar.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Später hat sich (ausgehend vom englischen random variable, das sich gegen chance variable und stochastic Variable durchsetzte<ref>Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics. Abschnitt R.</ref>) der etwas irreführende Begriff<ref>Eine Zufallsvariable ist weder zufällig noch eine Variable, siehe {{#invoke:Vorlage:Literatur|f}}</ref> Zufallsvariable durchgesetzt.
Einführung
Die Grundidee hinter der Zufallsvariable ist es, den Zufall mit Hilfe des Begriffes der Funktion zu modellieren. Dies wird einige Vorteile mit sich bringen. Angenommen, wir betrachten ein Zufallsexperiment, welches nur zwei Ausgänge hat, welche wir mit <math>\omega_1</math> und <math>\omega_2</math> notieren. Mit Hilfe der Funktion können wir nun eine „zufällige Variable“ definieren, die berücksichtigt, ob <math>\omega_1</math> oder <math>\omega_2</math> eingetroffen ist.

Dies geschieht durch die Funktion
- <math>X(\omega) = \begin{cases}
a_1, & \quad\text{wenn }\omega = \omega_1,\\ a_2, & \quad\text{wenn }\omega = \omega_2. \end{cases}</math> wobei die Werte <math>a_1</math> und <math>a_2</math> vom Experiment abhängen, welches man modelliert. Man nennt
- <math>\omega_1</math> und <math>\omega_2</math> Ergebnisse und zusammen bilden sie den Ergebnisraum <math>\Omega=\{\omega_1,\omega_2\}</math>. Welches dieser Ergebnisse eintritt, wissen wir a priori nicht.
- <math>a_1</math> und <math>a_2</math> Realisierungen der Zufallsvariable.
Wir notieren die Menge der Realisierungen mit <math>E=\{a_1,a_2\}</math>. In den meisten Fällen wählt man für <math>E</math> entweder die reellen Zahlen <math>\R</math> oder eine diskrete Menge wie zum Beispiel <math>\N</math> oder <math>\Z</math>. Allgemeiner kann <math>E</math> aber auch <math>\R^n</math>, ein Banach-Raum oder ein topologischer Vektorraum sein.
Eine Zufallsvariable ist somit eine Abbildung der Form <math>X\colon \Omega\to E</math>.
- Beispiel (Münzwurf): Wir möchten einen Münzwurf modellieren. Seien <math>\omega_1=\text{Kopf}</math> und <math>\omega_2=\text{Zahl}</math> das zufällige Ergebnis des Münzwurfs und <math>\Omega=\{\omega_1,\omega_2\}</math>. Nun können wir verschiedene Zufallsvariablen bilden, zum Beispiel eine Wette, bei der 1 EUR ausgezahlt wird, wenn Zahl erscheint und sonst nichts. Dann ist die Auszahlungssumme die Zufallsvariable
- <math>X(\omega) = \begin{cases}
0, & \quad\text{wenn }\omega = \omega_1,\\ 1, & \quad\text{wenn }\omega = \omega_2, \end{cases}</math>
- Wir haben also <math>a_1=0</math> und <math>a_2=1</math> gewählt, hätten wir hingegen bei falscher Wette 1 EUR bezahlen müssen, dann hätten wir uns für <math>a_1=-1</math> entschieden.
- Beispiel (Würfelwurf): Wir möchten einen Würfelwurf modellieren. Seien <math>\omega_1=1,\omega_2=2,\dots,\omega_6=6</math>, dann ist <math>\Omega=\{\omega_1,\omega_2,\dots, \omega_6\}</math> und der Würfel die Zufallsvariable
- <math>X(\omega) = \omega.</math>
- Beispiel (2-facher Münzwurf): Wir möchten den 2-fachen Münzwurf modellieren. Die Ergebnismenge ist <math>\Omega=\{(K,K),(K,Z),(Z,Z),(Z,K)\}</math>, ihre Elemente haben die Form <math>\omega=\left(\omega_1,\omega_2\right)</math>. Wettet man bei zwei Münzwürfen beide Male auf Zahl, so lassen sich beispielsweise folgende Zufallsvariablen untersuchen:
- <math>X_1(\omega) := X(\omega_1) \in\{0,1\}</math> als Auszahlung nach der ersten Wette,
- <math>X_2(\omega) := X(\omega_2) \in\{0,1\}</math> als Auszahlung nach der zweiten Wette,
- <math>S(\omega) := X(\omega_1) + X(\omega_2) \in\{0,1,2\}</math> als Summe der beiden Auszahlungen.
Zufallsvariablen werden üblicherweise mit einem Großbuchstaben bezeichnet (hier <math>X,X_1, X_2, S</math>), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (zum Beispiel <math>x=0</math>, <math>x_1 = 1</math>, <math>x_2=0</math>, <math>s=1</math>).
Im Münzwurf-Beispiel hat die Menge <math>\Omega = \{\text{Kopf}, \text{Zahl}\}</math> eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von <math>\Omega</math> als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.
Notation
Häufig verzichtet man auf die Schreibweise <math>X(\omega_i)=a_i</math> und benutzt stattdessen die Kurzschreibweise <math>X=a_i</math>. Dies sollte aber nicht falsch verstanden werden, denn es handelt sich hier nur um eine Abkürzung für <math>X(\omega_i)=a_i</math> respektive für die Menge aller <math>\omega</math>, so dass <math>X(\omega)=a_i</math>.
Elemente der Maßtheorie
Damit man über Wahrscheinlichkeiten sprechen kann, müssen die Räume <math>\Omega</math> und <math>E</math> noch mit zusätzlichen Strukturen ausgestattet sein. Für <math>\Omega</math> brauchen wir
- ein System <math>\Sigma</math>, welches alle möglichen Ereignisse enthält,
- eine Funktion <math>P:\Sigma \to [0,1]</math>, welche den möglichen Ereignissen aus <math>\Sigma</math> eine Wahrscheinlichkeit zuordnet.
Aus technischer Sicht verwendet man hierfür die Maßtheorie, was zum Begriff des Wahrscheinlichkeitsraumes <math>(\Omega,\Sigma,P)</math> führt, wobei <math>\Sigma</math> eine sogenannte σ-Algebra und <math>P</math> ein Wahrscheinlichkeitsmaß ist. Für <math>E</math> brauchen wir etwas ähnliches, welches mit der Struktur auf <math>\Omega</math> verträglich ist.
Konkret brauchen wir für <math>E</math> ein System <math>\Sigma'</math>, welches mit dem System <math>\Sigma</math> von <math>\Omega</math> verträglich ist. Dies führt zum Begriff der Messbarkeit. Es soll gelten
- für jedes Element <math>A\in\Sigma'</math> muss das Urbild unter der Zufallsvariable, das bedeutet die Menge <math>B:=X^{-1}(A)</math>, ein Ereignis in dem System <math>\Sigma</math> sein, das bedeutet <math>B\in \Sigma</math>.
Wenn diese Eigenschaft gilt, dann nennen wir <math>X</math> eine <math>(\Sigma,\Sigma')</math>-messbare Funktion. Zufallsvariablen erfüllen diese Eigenschaft (für ein <math>\Sigma</math> und <math>\Sigma'</math>) und sind messbare Funktionen.
Als Letztes ermöglicht uns die Messbarkeit, das Wahrscheinlichkeitsmaß <math>P</math> auf den Raum <math>(E,\Sigma')</math> zu übertragen. Dies führt zum Begriff der Wahrscheinlichkeitsverteilung, welche als sogenanntes Bildmaß unter der Zufallsvariable <math>X</math> durch <math>P^X (A) = P \left(X^{-1}(A)\right)</math> für alle <math>A\in\Sigma'</math> definiert ist.
Definition
Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.
Eine formale mathematische Definition lässt sich wie folgt geben:<ref>Karl Hinderer: Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin 1980, ISBN 3-540-07309-4 (nicht überprüft)</ref>
- Es seien <math>(\Omega,\Sigma,P)</math> ein Wahrscheinlichkeitsraum und <math>(E,\Sigma')</math> ein Messraum. Eine <math>(\Sigma,\Sigma')</math>-messbare Funktion <math>X\colon\Omega\to E</math> heißt dann eine <math>E</math>-Zufallsvariable auf <math>\Omega</math> oder einfach nur Zufallsvariable.
Beispiel: Zweimaliger Würfelwurf

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum <math>(\Omega, \Sigma, P)</math> modellieren:
- <math>\Omega</math> ist die Menge der 36 möglichen Ergebnisse <math>\Omega=\{(1,1), (1,2), \dotsc, (6,5), (6,6)\}</math>
- <math>\Sigma</math> ist die Potenzmenge von <math>\Omega</math>
- Will man zwei unabhängige Würfe mit einem fairen Würfel modellieren, so setzt man alle 36 Ergebnisse gleich wahrscheinlich, wählt also das Wahrscheinlichkeitsmaß <math>P</math> als <math>P\left(\{(n_1,n_2)\}\right) = \tfrac {1}{36}</math> für <math>n_1, n_2 \in \{1,2,3,4,5,6\}</math>.
Die Zufallsvariablen <math>X_1</math> (gewürfelte Zahl des ersten Würfels), <math>X_2</math> (gewürfelte Zahl des zweiten Würfels) und <math>S</math> (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:
- <math>X_1\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1,</math>
- <math>X_2\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_2,</math> und
- <math>S\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1+n_2,</math>
wobei für <math>\Sigma'</math> die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.
Bemerkungen
In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf <math>\Omega</math> und welcher Messraum auf <math>E</math> gemeint ist.
Bei einer endlichen Ergebnismenge <math>\Omega</math> wird <math>\Sigma</math> meistens als die Potenzmenge von <math>\Omega</math> gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge <math>\Omega</math> überabzählbar viele Elemente enthält.
Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:
Reelle Zufallsvariable
Bei reellen Zufallsvariablen ist der Bildraum die Menge <math>\R</math> der reellen Zahlen versehen mit der borelschen <math>\sigma</math>-Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:
- Eine reelle Zufallsvariable ist eine Funktion <math>X\colon\Omega\to\R</math>, die jedem Ergebnis <math>\omega</math> aus einer Ergebnismenge <math>\Omega</math> eine reelle Zahl <math>X(\omega)</math> zuordnet und die folgende Messbarkeitsbedingung erfüllt:
- <math>\forall x \in \R:\ \lbrace \omega \mid X(\omega) \leq x \rbrace \in \Sigma</math>
Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.
Im Beispiel des zweimaligen Würfelns sind <math>X_1</math>, <math>X_2</math> und <math>S</math> jeweils reelle Zufallsvariablen.
Mehrdimensionale Zufallsvariable
{{#if: Zufallsvektor|{{#ifexist:Zufallsvektor|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung <math>X\colon\Omega\to\R^n</math> für eine Dimension <math>n\in\mathbb N</math>. Sie wird auch als Zufallsvektor bezeichnet. Damit ist <math>X=(X_1,\dotsc,X_n)</math> gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen <math>X_i\colon\Omega\to\R</math>, die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von <math>X</math> wird als multivariat bezeichnet, die Verteilungen der Komponenten <math>X_i</math> nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.
Im Beispiel des zweimaligen Würfelns ist <math>X=(X_1,X_2)</math> eine zweidimensionale Zufallsvariable.
Zufallsvektoren sollten nicht mit Wahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente des <math> \R^n </math>, deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mit <math> n </math> Elementen.
Komplexe Zufallsvariable
Bei komplexen Zufallsvariablen ist der Bildraum die Menge <math>\mathbb C</math> der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen <math>\mathbb C</math> und <math>\R^2</math> „geerbten“ borelschen σ-Algebra. <math>X</math> ist genau dann eine Zufallsvariable, wenn Realteil <math>\operatorname{Re}(X)</math> und Imaginärteil <math>\operatorname{Im}(X)</math> jeweils reelle Zufallsvariablen sind.
Numerische oder erweiterte Zufallsvariable
{{#if: Erweiterte Zufallsvariable|{{#ifexist:Erweiterte Zufallsvariable|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Der Begriff Zufallsvariable ohne weitere Charakterisierung bedeutet meistens – und fast immer in anwendungsnahen Darstellungen – reelle Zufallsvariable. Zur Unterscheidung von einer solchen wird eine Zufallsvariable mit Werten in den erweiterten reellen Zahlen <math>\R \cup \{-\infty, \infty\}</math> als numerische Zufallsvariable<ref name="LdM">{{#invoke:Vorlage:Literatur|f}}</ref> – entsprechend der Terminologie der numerischen Funktion – oder als erweiterte Zufallsvariable<ref name="LdM" /> (engl. extended random variable<ref>{{#invoke:Vorlage:Literatur|f}}</ref>) bezeichnet. Es gibt aber auch eine abweichende Terminologie, bei der Zufallsvariable eine numerische Zufallsvariable bezeichnet und eine reelle Zufallsvariable immer als solche bezeichnet wird.<ref>{{#invoke:Vorlage:Literatur|f}}</ref>
Zufallselement
In der Literatur wird die obige Definition der Zufallsvariable manchmal für den Begriff Zufallselement oder zufälliges Element (resp. {{#invoke:Vorlage:lang|full|CODE=en|SCRIPTING=Latn|SERVICE=englisch}}) verwendet, um reelle Zufallsvariablen <math>\Omega\to\R</math> von allgemeineren Objekten wie dem Zufallsvektor, dem zufälligen Maß, der Zufallsfunktion, der Zufallsmenge, der Zufallsmatrix usw. zu unterscheiden.
Die Verteilung von Zufallsvariablen, Existenz
{{#if: Verteilung einer Zufallsvariablen|{{#ifexist:Verteilung einer Zufallsvariablen|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von <math>X</math> induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung <math>P^X</math> einer Zufallsvariablen <math>X</math> als das Bildmaß des Wahrscheinlichkeitsmaßes <math>P</math> definiert, also
- <math>P^X (A) = P \left(X^{-1}(A)\right)</math> für alle <math> A \in \Sigma'</math>, wobei <math>\Sigma'</math> die auf dem Bildraum der Zufallsvariable <math>X</math> gegebene σ-Algebra ist.
Statt <math>P^X</math> werden in der Literatur für die Verteilung von <math>X</math> auch die Schreibweisen <math>P_X, X(P)</math> oder <math>P \circ X^{-1}</math> verwendet.
Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.
Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt.<ref>Loève: Probability Theory. 4. Auflage. Band 1, Springer 1977, ISBN 0-387-90210-4, S. 172f.</ref> Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.
Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum <math>(\Omega,\Sigma,P)</math> lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise <math>\Omega=\R</math>, <math>\Sigma</math> als die Borelsche σ-Algebra auf den reellen Zahlen und <math>P</math> als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung <math>X \colon \R \to \R</math> mit <math>X(\omega) = \omega</math> gewählt werden.<ref>Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Definition 5.6.2.</ref>
Wenn eine Familie von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.
Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Familie von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen (ähnlich Hilberts Hotel).<ref>Olav Kallenberg: Foundations of Modern Probability. 2. Ausgabe. Springer, New York 2002, ISBN 0-387-95313-2, S. 55.</ref>
Mathematische Attribute für Zufallsvariablen
Verschiedene mathematische Attribute, die teilweise denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:
Diskret
Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt, oder etwas allgemeiner, wenn ihre Verteilung eine diskrete Wahrscheinlichkeitsverteilung ist.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen <math>X_1</math>, <math>X_2</math> und <math>S</math> diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.
Konstant
Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: <math>X(\omega)=c</math> für alle <math>\omega \in \Omega</math>. Sie ist ein Spezialfall einer diskreten Zufallsvariable.
Es gilt
- <math>(\forall \omega\in \Omega \colon X(\omega)=c) \implies P(X=c)=1</math>,<ref>Diese Implikation gilt, da <math>P(X=c) = P(\{\omega \mid X(\omega) = c \}) = P(\Omega) = 1</math>.</ref>
die Umkehrung gilt im Allgemeinen nicht. Eine Zufallsvariable, die nur die rechte Seite erfüllt, heißt fast sicher konstant.
Unabhängig
{{#if: Stochastisch unabhängige Zufallsvariablen|{{#ifexist:Stochastisch unabhängige Zufallsvariablen|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Zwei reelle Zufallsvariablen <math>X,Y</math> heißen unabhängig, wenn für je zwei Intervalle <math>[a_1,b_1]</math> und <math>[a_2,b_2]</math> die Ereignisse <math>E_X := \{ \omega | X(\omega) \in [a_1,b_1] \}</math> und <math>E_Y := \{ \omega | Y(\omega) \in [a_2,b_2] \}</math> stochastisch unabhängig sind. Das sind sie, wenn gilt: <math>P(E_X \cap E_Y ) = P(E_X) P(E_Y)</math>.
In obigem Beispiel sind <math>X_1</math> und <math>X_2</math> unabhängig voneinander; die Zufallsvariablen <math>X_1</math> und <math>S</math> hingegen nicht.
Unabhängigkeit mehrerer Zufallsvariablen <math>X_1, X_2, \dotsc, X_n</math> bedeutet, dass das Wahrscheinlichkeitsmaß <math>P_X</math> des Zufallsvektors <math>X=\left(X_1, X_2, \dotsc, X_n\right)</math> dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von <math>P_{X_1}, P_{X_2}, \dotsc, P_{X_n}</math> entspricht.<ref>Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3 (Definition 5.8.1)</ref> So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum <math>(\Omega,\Sigma,P)</math> mit
- <math>\Omega=\{1,2,3,4,5,6\}^3</math>,
- <math>\Sigma</math> der Potenzmenge von <math>\Omega</math> und
- <math>P\left(\left(n_1, n_2, n_3\right)\right)=\frac{1}{6^3}=\frac{1}{216}</math>
modellieren; die Zufallsvariable „Ergebnis des <math>k</math>-ten Wurfes“ ist dann
- <math>X_k\left(n_1, n_2, n_3\right)=n_k</math> für <math>k\in\{1,2,3\}</math>.
Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.<ref>Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer-Verlag, Berlin / Heidelberg 2009, ISBN 978-3-540-89729-3, Kapitel 11.4.</ref>
Identisch verteilt
Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre induzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind <math>X_1</math>, <math>X_2</math> identisch verteilt; die Zufallsvariablen <math>X_1</math> und <math>S</math> hingegen nicht.
Unabhängig und identisch verteilt
{{#if: Unabhängig und identisch verteilte Zufallsvariablen|{{#ifexist:Unabhängig und identisch verteilte Zufallsvariablen|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängigen, identisch verteilten Zufallsvariablen, üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.
In obigem Beispiel des dreimaligen Würfelns sind <math>X_1</math>, <math>X_2</math> und <math>X_3</math> u.i.v. Die Summe der ersten beiden Würfe <math>S_{1,2}=X_1+X_2</math> und die Summe des zweiten und dritten Wurfs <math>S_{2,3}=X_2+X_3</math> sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind <math>S_{1,2}</math> und <math>X_3</math> unabhängig, aber nicht identisch verteilt.
Austauschbar
Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.
Mathematische Attribute für reelle Zufallsvariablen
Kenngrößen
Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.
Stetig oder kontinuierlich
Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.
- Eine reelle Zufallsvariable wird als stetig (oder auch absolut stetig) bezeichnet, wenn sie eine Dichte besitzt (ihre Verteilung absolutstetig bezüglich des Lebesgue-Maßes ist).<ref>Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. 11. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1989, Definition 2.3.3.</ref>
- Eine reelle Zufallsvariable wird als stetig bezeichnet, wenn sie eine stetige Verteilungsfunktion besitzt.<ref>Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, S. 210.</ref> Insbesondere bedeutet das, dass <math>P(\{X=x\})=0</math> für alle <math>x\in\R</math> gilt.
Verteilungsfunktion
{{#if: Verteilungsfunktion|{{#ifexist:Verteilungsfunktion|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Eine reelle Zufallsvariable <math>X</math> mit der Wahrscheinlichkeitsverteilung <math>P_X</math> hat die Verteilungsfunktion
- <math>F_X(x) = P_X((-\infty,x]), \quad x \in \R \;.</math>
Transformation
Wenn eine reelle Zufallsvariable <math>X</math> auf dem Ergebnisraum <math>\Omega</math> und eine messbare Funktion <math>g\colon \R \to \R</math> gegeben ist, dann ist auch <math>Y = g(X)</math> eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. <math>g(X)</math> wird auch als Transformation der Zufallsvariablen <math>X</math> unter <math>g</math> bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum <math>(\Omega, \Sigma, P)</math> nach <math>(\R, \mathcal{B}(\R),P^X)</math> gelangt, kann benutzt werden, um die Verteilung von <math>Y</math> zu erhalten.
Die Verteilungsfunktion <math>F_Y</math> der transformierten Zufallsvariablen <math>Y = g(X)</math> kann mit der Wahrscheinlichkeitsverteilung <math>P_X</math> bestimmt werden
- <math>F_Y(y) = \operatorname{P}(g(X) \leq y), \quad y \in \R</math>.
Beispiel
Es sei <math>X</math> eine reelle Zufallsvariable mit stetiger Verteilungsfunktion <math>F_X</math>. Dann ist die Verteilungsfunktion <math> F_Y</math> der Zufallsvariablen <math>Y = X^2</math> durch
- <math>F_Y(y) =
\operatorname{P}(X^2 \leq y) =
\begin{cases}0 &\text{falls }y <0 \\
F_X\left(\sqrt y\right) - F_X\left(-\sqrt y\right) &\text{falls }y \geq 0 \\
\end{cases}
</math> gegeben.<ref>Für <math>y < 0</math> ist <math> \operatorname{P}(X^2 \leq y) = \operatorname{P}(\{\omega \mid X^2(\omega) \leq y \})= \operatorname{P}(\emptyset) = 0 </math>. Für <math>y \geq 0</math> gilt
- <math>
\begin{align}
\operatorname{P}(X^2 \leq y) &= \operatorname{P}(\{\omega \mid X^2(\omega) \leq y \}) \\
&= \operatorname{P}(\{\omega \mid -\sqrt{y} \leq X(\omega) \leq \sqrt{y} \}) \\
&= \operatorname{P}(\{\omega \mid X(\omega) \leq \sqrt{y}\} \setminus \{\omega \mid X(\omega) < \sqrt{-y} \})\\
&= \operatorname{P}(\{\omega \mid X(\omega) \leq \sqrt{y}\}) - \operatorname{P}(\{\omega \mid X(\omega) < -\sqrt{y}\}) \\
&= F_X(\sqrt{y}) - F_X(-\sqrt{y}) + \operatorname{P}(\{\omega \mid X(\omega) = -\sqrt{y}\})\\
&= F_X(\sqrt{y}) - F_X(-\sqrt{y}) \;.
\end{align}</math>
Das letzte Gleichheitszeichen folgt, da die Verteilungsfunktion von <math>F_X</math> als stetig vorausgesetzt ist, woraus <math>\operatorname{P}(X=-\sqrt{y}) = \operatorname{P}(\{\omega \mid X(\omega) = -\sqrt{y}\}) = 0</math> folgt.
Typischerweise werden solche Berechnungen in der Statistik mit etwas Übung ohne expliziten Rückgriff auf die zugrundeliegende Ergebnismenge <math>\Omega</math> und damit den zugrundeliegenden Wahrscheinlichkeitsraum durchgeführt, z. B. für den Fall <math>y \geq 0</math> in der Form
- <math>\begin{align}
\operatorname P(X^2 \leq y) &= \operatorname P(-\sqrt{y} \leq X \leq \sqrt{y}) \\ &= \operatorname P(X \leq \sqrt{y}) - \operatorname P(X \leq -\sqrt{y}) + \operatorname P(X = -\sqrt{y}) \\ &= F_X(\sqrt{y}) - F_X(-\sqrt{y})\;. \end{align} </math></ref>
Erwartungswert
{{#if: Erwartungswert|{{#ifexist:Erwartungswert|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Der Erwartungswert einer quasi-integrierbaren Zufallsgröße <math>X</math> von <math>(\Omega, \Sigma, P)</math> nach <math>(\bar{\R}, \mathcal{B}(\bar{\R}))</math> mit der Verteilung <math>P_X</math> ist
- <math>\operatorname{E}[X] = \int_\Omega X(\omega)\mathrm{d}P(\omega) = \int_\R x \mathrm{d}P_X(x)\,</math>.
Integrierbar und quasi-integrierbar
Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.
Standardisierung
{{#if: Standardisierung (Statistik)|{{#ifexist:Standardisierung (Statistik)|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable <math>Y</math> in eine standardisierte Zufallsvariable
- <math>Z=\frac{Y-\operatorname{E}(Y)}{\sqrt{\operatorname{Var}(Y)}}</math>
bezeichnet man als Standardisierung der Zufallsvariable <math>Y</math>.
Sonstiges
- Zeitlich zusammenhängende Zufallsvariablen können auch als stochastischer Prozess aufgefasst werden.
- Eine Folge von Realisierungen einer Zufallsvariable nennt man auch Zufallsfolge oder Zufallssequenz.
- Eine Zufallsvariable <math>X\colon \Omega \to \R^n</math> erzeugt eine σ-Algebra <math>\mathcal{F}_X(\mathcal{B}):=\{X^{-1}(B)|B\in\mathcal{B}(\R^n)\}</math>, wobei <math>\mathcal{B}(\R^n)</math> die Borelsche σ-Algebra des <math>\R^n</math> ist.
- Es gibt Zufallsvariablen, die weder diskret noch stetig sind. Ein Beispiel ist die Lebensdauer <math>T</math> einer Maschine. <math>T</math> ist eine Zufallsvariable mit <math>0<P(T=0)<1</math> (und daher nicht stetig), weil eine Maschine eine Wahrscheinlichkeit hat, von Anfang nicht zu funktionieren. Außerdem ist <math>P(T=t_0)=0</math> für alle <math>t_0>0</math> (und daher ist <math>T</math> nicht diskret).<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Ein anderes Beispiel ist die Wartezeit eines Autos vor einer Ampel.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Man kann in diesen Fällen eine Zerlegung in eine Summe aus einer stetigen und einer diskreten Zufallsvariablen vornehmen.
Literatur
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
Weblinks
|X|x= |0|-= |S|s= – Sammlung von Bildern |1|= – Sammlung von Bildern{{#if:
| {{#switch: {{#invoke:TemplUtl|faculty|1}}/{{#invoke:TemplUtl|faculty|1}}
|1/= und Videos
|1/1=, Videos und Audiodateien
|/1= und Audiodateien}}
| , Videos und Audiodateien
}}
|#default= – }}{{#if: Random variable
| {{#ifeq: {{#invoke:Str|left|random variable|9}}
| category:
| FEHLER: Ohne Category: angeben!}}}}Vorlage:Wikidata-Registrierung
|1|= – Lern- und Lehrmaterialien |0|-= |X|x={{#switch: 0
|0|4|10|12|14|100=}}
|#default= – {{{suffix}}}
}}{{#if: | ({{#invoke:Multilingual|format|{{{lang}}}|slang=!|shift=m}}) }}{{#invoke:TemplatePar|check
|opt= 1= 2= lang= suffix= |template=Vorlage:Wikibooks |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt }}
|1|= – Lern- und Lehrmaterialien |0|-= |X|x={{#switch: 0
|0|4|10|12|14|100=}}
|#default= – {{{suffix}}}
}}{{#if: | ({{#invoke:Multilingual|format|{{{lang}}}|slang=!|shift=m}}) }}{{#invoke:TemplatePar|check
|opt= 1= 2= lang= suffix= |template=Vorlage:Wikibooks |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt }}
Einzelnachweise
<references> <ref name="Bewersdorff2012"> {{#invoke:Vorlage:Literatur|f}} </ref> </references>
{{#ifeq: s | p | | {{#if: 4129514-6 | |
}} }}{{#ifeq:||{{#if: | [[Kategorie:Wikipedia:GND fehlt {{#invoke:Str|left|{{{GNDCheck}}}|7}}]] }}{{#if: | {{#if: | | }} }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#ifeq: s | p | {{#if: 4129514-6 | | {{#if: {{#statements:P227}} | | }} }} }}{{#ifeq: s | p | {{#if: 4129514-6 | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P227}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P244}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P244}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P214}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P214}} | | }} }} }} }}Vorlage:Wikidata-Registrierung
- Wikipedia:Vorlagenfehler/Schwesterprojekt
- Wikipedia:GND fehlt
- Wikipedia:Normdaten-TYP falsch oder fehlend
- Wikipedia:GND in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:GND in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:LCCN in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:LCCN in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:VIAF in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:VIAF in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Stochastik
- Statistischer Grundbegriff