Diskrete Gleichverteilung
Die diskrete Gleichverteilung ist eine spezielle Wahrscheinlichkeitsverteilung in der Stochastik. Eine diskrete Zufallsvariable <math>X</math> mit endlich vielen Ausprägungen <math>x_1, \dotsc, x_n</math> hat eine diskrete Gleichverteilung, wenn die Wahrscheinlichkeit für jede ihrer Ausprägungen gleich ist. Es gilt dann <math>P(X = x_i) = \tfrac{1}{n}</math> für <math>i \in \{1,\dotsc,n\}</math>. Die diskrete Gleichverteilung ist univariat und zählt, wie ihr Name sagt, zu den diskreten Wahrscheinlichkeitsverteilungen.
Typischerweise findet diese Wahrscheinlichkeitsverteilung Anwendung bei Zufallsexperimenten, deren Ergebnisse gleichhäufig sind. Wenn man (mit oder ohne Begründung) annimmt, dass die <math>n</math> Elementarereignisse gleich wahrscheinlich sind, spricht man von einem Laplace-Experiment. Gängige Beispiele für Laplace-Experimente sind das Werfen eines Laplace-Würfels (ein perfekter sechsseitiger Würfel, bei dem jede Zahl von eins bis sechs mit Wahrscheinlichkeit <math>\tfrac{1}{6}</math> fällt) oder einer Laplace-Münze (eine perfekte Münze, bei der jede der beiden Seiten mit Wahrscheinlichkeit <math>\tfrac{1}{2}</math> fällt). Siehe auch Stetige Gleichverteilung, Laplace-Formel.
Definition
Bei der diskreten Gleichverteilung werden verschiedene Fälle unterschieden. Diese unterscheiden sich durch die Ergebnismengen und dementsprechend unterschiedlich definierte Wahrscheinlichkeitsfunktionen und Verteilungsfunktionen. In allen Fällen wird die Gleichverteilung mit <math> \mathcal{U}_T </math> bezeichnet, wobei <math> T </math> der Träger ist.
Allgemeiner Fall
Im allgemeinsten Fall sind die auftretenden Ergebnisse beliebige <math> x_i </math> mit <math> i=1, \dotsc, n </math> und <math> x_i < x_j </math>, wenn <math> i < j </math> ist. Der Träger ist also <math> T=\{x_1, \dotsc, x_n\} </math>. Die Wahrscheinlichkeitsfunktion der diskreten Gleichverteilung ist dann
- <math> \operatorname{P}(X = x) =f(x)= \begin{cases}
\frac {1}{n} & \text{für } x = x_i (i = 1, \dotsc, n), \\ 0 & \text{sonst}. \end{cases} </math>
und damit genügt sie der Verteilungsfunktion
- <math>F_X(t)= P(X\leq t) = \frac{|\{k:x_k\leq t\}|}{n}</math>.
Hier sind insbesondere auch nichtnatürliche Zahlen für die <math> x_i </math> zugelassen.
Auf beliebigen ganzen Zahlen
Wählt man zwei <math> a<b \in \Z</math> mit <math> b-a=n-1 </math>, so wählt man als Träger die Menge
- <math> T:=\{a, a+1, a+2, \dotsc, b-1,b \}</math>
und definiert die Wahrscheinlichkeitsfunktion
- <math> \operatorname{P}(X = x) =f(x)= \begin{cases}
\frac {1}{n} & \text{für } x \in T,\\ 0 & \text{sonst}. \end{cases} </math>
und die Verteilungsfunktion
- <math>F_X(t)= P(X\leq t) =
\begin{cases}
0 & \text{falls } t < a, \\
\frac{\lfloor t \rfloor - a + 1}{b - a + 1} & \text{falls } a \leq t < b, \\
1 & \text{falls } t \geq b.
\end{cases} </math>
Auf natürlichen Zahlen bis n
Als Spezialfall der beiden obigen Definitionen (setze <math> x_i=i </math> oder <math> a=1, b=n </math>) wählt man als Träger
- <math> T=\{1,2,\dotsc, n\} </math>
und erhält als Wahrscheinlichkeitsfunktion
- <math> \operatorname{P}(X = x) =f(x)= \begin{cases}
\frac {1}{n} & \text{für } x \in \N \text{ und } x \leq n, \\ 0 & \text{sonst}. \end{cases} </math>
sowie die Verteilungsfunktion
- <math>F_X(t)= P(X\leq t) =
\begin{cases}
0 & \text{falls } t<1, \\
\frac{\lfloor t \rfloor}{n} & \text{falls } 1 \leq t < n, \\
1 & \text{falls } t \geq n.
\end{cases} </math>
Hierbei bezeichnet <math> \lfloor t \rfloor </math> die Abrundungsfunktion.
Eigenschaften
Erwartungswert
Der Erwartungswert ist im allgemeinen Fall
- <math> \operatorname{E}(X) = \frac{1}{n} \sum_{i=1}^n x_i </math>
Im zweiten Fall erhält man
- <math> \operatorname{E}(X)=\frac{a+b}{2} </math>,
was sich im dritten Fall zu
- <math> \operatorname{E}(X)=\frac{n+1}{2} </math>
vereinfacht. Diese Ergebnisse erhält man mithilfe der Gaußschen Summenformel.
Varianz
Die Darstellung der Varianz ist für den allgemeinen Fall bereits unübersichtlich, da keine Vereinfachungen möglich sind:
- <math> \operatorname{Var}(X) = \frac {1}{n} \left(\sum_{i=1}^n x_i^2 - \frac {1}{n} \left(\sum_{i=1}^n x_i\right)^2\right)</math>.
Für den zweiten Fall ergibt sich
- <math> \operatorname{Var}(X) =\frac{(b-a+1)^2-1}{12}</math>.
Im dritten Fall gilt
- <math> \operatorname{Var}(X) = \frac{n^2-1}{12}</math>.
Symmetrie
Im zweiten und dritten Fall ist die diskrete Wahrscheinlichkeitsverteilung symmetrisch um ihren Erwartungswert. Im allgemeinen Fall ist keine Aussage möglich.
Schiefe
Für die letzten beiden Varianten ist die Schiefe gleich Null, im ersten Fall benötigt man eine symmetrische Verteilung, um auf die Schiefe Null schließen zu können.
- <math> \operatorname{v}(X)=0 </math>
Wölbung und Exzess
Die Exzess ist im zweiten Fall
- <math>\gamma=-1{,}2-0{,}2\cdot \operatorname{Var}(X)^{-1}=\frac{-6}{5}-\frac{12}{5(b-a+2)(b-a)} </math>
und damit ist die Wölbung
- <math> \beta_2=1{,}8- 0{,}2\cdot \operatorname{Var}(X)^{-1} </math>
Dies vereinfacht sich im dritten Fall zum Exzess
- <math>\gamma=-1{,}2-\frac{12}{5(n^2-1)} </math>
und zur Wölbung
- <math>\beta_2=1{,}8-\frac{12}{5(n^2-1)} </math>
Entropie
Die Entropie der diskreten Gleichverteilung ist für alle drei Varianten
- <math> \Eta(X)=\log_2(n) </math>
gemessen in Bit. Unter allen diskreten Verteilungen ist die Gleichverteilung diejenige mit der größtmöglichen Entropie.<ref name="Lawrence 2019 S. 215 ">{{#invoke:Vorlage:Literatur|f}}</ref>
Median
Im allgemeinen Fall fällt der Median der diskret gleich verteilten Zufallsvariable mit dem Median der Ausprägungen <math>x_1,\dotsc,x_n</math> zusammen:
- <math>\tilde m
=\begin{cases}
x_\frac{n+1}{2} & n\text{ ungerade}\\
\frac {1}{2}\left(x_{\frac{n}{2}} + x_{\frac{n}{2} + 1}\right) & n \text{ gerade.}
\end{cases} </math>.
Im zweiten Fall ist dann
- <math> \tilde m=\frac{a+b}{2} </math>
und dementsprechend im dritten Fall
- <math>\tilde m=\frac{n+1}{2} </math>.
Modus
Der Modus lässt sich zwar angeben, hat aber wenig Aussagekraft. Er entspricht genau dem Träger der Verteilung, sprich <math> (x_i)_{i=1, \dots, n} </math>, bzw. <math> \{a,\dots,b\} </math> oder <math> \{1,\dots,n\} </math>.
Wahrscheinlichkeitserzeugende Funktion
Sind im zweiten Fall <math> a,b \geq 0 </math>, so ist die wahrscheinlichkeitserzeugende Funktion gegeben durch
- <math> m_X(t)=\frac{t^a-t^{b+1}}{n(1-t)}</math>.
Im dritten Fall ergibt dies dann
- <math>m_X(t):=\frac{t(1-t^n)}{n(1-t)}</math>
Beide Fälle lassen sich elementar mittels der geometrischen Reihe zeigen.
Momenterzeugende Funktion
Die momenterzeugende Funktion ergibt sich für beliebige <math> a<b \in \Z</math> als
- <math>M_X(t)=\frac{e^{at}-e^{(b+1)t}}{n(1-e^t)}</math> bzw.
- <math>M_X(t)=\frac{e^{t}-e^{(n+1)t}}{n(1-e^t)}</math>.
Charakteristische Funktion
Die charakteristische Funktion ergibt sich für beliebige <math> a<b \in \Z</math> als
- <math>\varphi_X(t)=\frac{e^{iat}-e^{i(b+1)t}}{n(1-e^{it})}</math> bzw.
- <math>\varphi_X(t)=\frac{e^{it}-e^{i(n+1)t}}{n(1-e^{it})}</math>.
Schätzer
Das Problem, bei einer auf <math> \{1,\dotsc, N\} </math> gleich verteilten Zufallsvariable den Parameter <math> N </math> zu schätzen, wird auch das Taxiproblem genannt. Diese Bezeichnung entsteht aus der Überlegung, dass man am Bahnhof steht und die Nummern der Taxis beobachten kann. Geht man davon aus, dass alle Nummern gleich verteilt sind, entsprechen die Taxis dem Ziehen einer Stichprobe und der Parameter <math> N </math> der Gesamtzahl der Taxis in der Stadt. Ist <math> x=(x_1, \dotsc, x_n ) </math> eine diskret gleich verteilte Stichprobe aus <math>\{1,\dotsc,N\}</math>, so ist der Maximum-Likelihood-Schätzer für den Parameter <math>N</math> gegeben durch
- <math> T_M(x)=\max_{i=1, \dotsc, n} x_i </math>.
Er ist insbesondere nicht erwartungstreu, da er den wirklichen Wert tendenziell unterschätzt und nie überschätzt, sondern nur asymptotisch erwartungstreu. Die Einführung eines Korrekturterms führt zu dem Schätzer
- <math> T'_M(x)=\frac{n+1}{n}\left(\max_{i=1, \dotsc, n} x_i\right) </math>.
Oder aber man schätzt den mittleren Abstand der Werte in der Stichprobe durch <math> \min_{i=1, \dots , n} x_i </math> ab und erhält aufs Neue einen Schätzer
- <math> T_I(x) = \left(\max_{i=1, \dotsc, n} x_i\right) + \left(\min_{i=1, \dotsc, n} x_i\right) -1</math>.
Dieser ist erwartungstreu, genauso wie
- <math> T_S(x)=\left( \frac{2}{n} \sum_{i=1}^n x_i\right)-1</math>.
Das Taxiproblem ist ein Standardbeispiel der Schätztheorie, um zu zeigen, dass sich ohne Probleme mehrere verschiedene Schätzer für dasselbe Problem finden lassen, von denen a priori nicht klar ist, welcher besser ist.<ref>{{#invoke:Vorlage:Literatur|f}}</ref> Varianten des Taxiproblems waren im Zweiten Weltkrieg wichtig, um aus den Seriennummern abgeschossener Panzer Rückschlüsse auf die Anzahl der Panzer in der gegnerischen Armee zu ziehen (vgl. German tank problem). Dies entspräche dann dem Schätzen von <math> a,b </math>, wenn man davon ausgeht, dass die Seriennummern auf <math> \{a,a+1,\dotsc,b-1,b\} </math> gleich verteilt sind.
Beziehung zu anderen Verteilungen
Beziehung zur Bernoulli-Verteilung
Die Bernoulli-Verteilung mit <math> p=q=\tfrac{1}{2} </math> ist eine diskrete Gleichverteilung auf <math> \{0,1\} </math>.
Beziehung zur Beta-Binomialverteilung
Die Beta-Binomialverteilung mit <math> a=b=1 </math> ist eine diskrete Gleichverteilung auf <math> \{0, \dotsc, n\} </math>.
Beziehung zur Zweipunktverteilung
Die Zweipunktverteilung ist für <math> p=q=\tfrac{1}{2} </math> eine diskrete Gleichverteilung auf <math> \{a,b\} </math>.
Beziehung zur Rademacher-Verteilung
Die Rademacher-Verteilung ist eine diskrete Gleichverteilung auf <math> \{-1,1\} </math>
Beziehung zum Urnenmodell
Die diskrete Gleichverteilung ist die Basis aller Überlegungen, die Im Urnenmodell angestellt werden, da das Ziehen jeder der Kugeln aus der Urne gleich wahrscheinlich sein soll. Je nachdem, wie die Kugeln gefärbt, nummeriert oder zurückgelegt werden (oder auch nicht), ergeben sich somit aus der diskreten Gleichverteilung eine Vielzahl anderer wichtiger Verteilungen wie z. B. die Binomialverteilung, Geometrische Verteilung, Hypergeometrische Verteilung, Negative Binomialverteilung und Multinomialverteilung.
Stetiger Fall
Die diskrete Gleichverteilung kann leicht auf reelle Intervalle oder beliebige messbare Mengen mit positivem Volumen verallgemeinert werden. Sie wird dann stetige Gleichverteilung genannt.
Beispiel
Sechsseitiger Laplace-Würfel
Das Zufallsexperiment ist: Ein Würfel wird einmal geworfen. Die möglichen Ausprägungen der Zufallsvariablen <math>X</math> sind: <math>x_1=1, x_2=2, \dotsc, x_6=6</math>. Nach der klassischen Wahrscheinlichkeitsauffassung ist die Wahrscheinlichkeit für jede Ausprägung gleich. Sie hat dann die Wahrscheinlichkeitsfunktion
- <math> P(X = x) = f(x) = \begin{cases}
\frac{1}{6} & \text{für}\; x = x_i (i = 1, \dotsc, 6) \\ 0 & \text{sonst} \end{cases} </math>
mit dem Erwartungswert <math>\operatorname{E}(X)</math> für <math>x_i=i</math> und <math>n=6</math>:
- <math> E(X) = 7/2 = 3{,}5</math>
und der Varianz
- <math> V(X) = \frac {35}{12} \approx 2{,}92</math>.
Abgrenzung
Die diskrete Gleichverteilung wird oft auch nach Pierre-Simon Laplace benannt (Laplace-Würfel). Sie hat jedoch nichts mit der stetigen Laplace-Verteilung zu tun.
Weblinks
- {{#if: | {{{author}}} | Eric W. Weisstein }}: Discrete Uniform Distribution. In: MathWorld (englisch). {{#if: DiscreteUniformDistribution | {{#ifeq: {{#property:P2812}} | DiscreteUniformDistribution | | {{#if: {{#property:P2812}} | {{#ifeq: 0 | 0 | }} | {{#ifeq: 0 | 0 | }} }} }} }}
Einzelnachweise
<references />
<templatestyles src="BoxenVerschmelzen/styles.css" />
{{#if:Navigationsleiste DUWahrscheinlichkeitsverteilungen |{{safesubst:#ifeq:0|10| {{#switch: Diskrete Gleichverteilung |Navigationsleiste|NaviBlock|0=|#default= Vorlage:Templatetransclusioncheck Vorlage:Dokumentation/ruler }}}}Vorlage:Klappleiste/Anfang {{#if:
|Diskrete univariate Verteilungen für endliche Mengen:
Benford |
Bernoulli |
beta-binomial |
binomial |
Dirac |
diskret uniform |
empirisch |
hypergeometrisch |
kategorial |
negativ hypergeometrisch |
Rademacher |
verallgemeinert binomial |
Zipf |
Zipf-Mandelbrot |
Zweipunkt
Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann |
Conway-Maxwell-Poisson |
discrete-Phase-Type |
erweitert negativ binomial |
Gauss-Kuzmin |
gemischt Poisson |
geometrisch |
logarithmisch |
negativ binomial |
parabolisch-fraktal |
Poisson |
Skellam |
verallgemeinert Poisson |
Yule-Simon |
Zeta
|
Diskrete univariate Verteilungen für endliche Mengen:
Benford |
Bernoulli |
beta-binomial |
binomial |
Dirac |
diskret uniform |
empirisch |
hypergeometrisch |
kategorial |
negativ hypergeometrisch |
Rademacher |
verallgemeinert binomial |
Zipf |
Zipf-Mandelbrot |
Zweipunkt
Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann |
Conway-Maxwell-Poisson |
discrete-Phase-Type |
erweitert negativ binomial |
Gauss-Kuzmin |
gemischt Poisson |
geometrisch |
logarithmisch |
negativ binomial |
parabolisch-fraktal |
Poisson |
Skellam |
verallgemeinert Poisson |
Yule-Simon |
Zeta
}}
Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste KUWahrscheinlichkeitsverteilungen
|{{safesubst:#ifeq:0|10| {{#switch: Diskrete Gleichverteilung |Navigationsleiste|NaviBlock|0=|#default=
Vorlage:Templatetransclusioncheck
Vorlage:Dokumentation/ruler
}}}}Vorlage:Klappleiste/Anfang
{{#if:
Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta |
Cantor |
Kumaraswamy |
raised Cosine |
Dreieck |
Trapez |
U-quadratisch |
stetig uniform |
Wigner-Halbkreis
Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime |
Bose-Einstein |
Burr |
Chi |
Chi-Quadrat |
Coxian |
Erlang |
Exponential |
Extremwert |
F |
Fermi-Dirac |
Folded normal |
Fréchet |
Gamma |
Gamma-Gamma |
verallgemeinert invers Gauß |
halblogistisch |
halbnormal |
Hartman-Watson |
Hotellings T-Quadrat |
hyper-exponentiale |
hypoexponential |
invers Chi-Quadrat |
scale-invers Chi-Quadrat |
Invers Normal |
Invers Gamma |
Kolmogorow-Verteilung |
Lévy |
log-normal |
log-logistisch |
Maxwell-Boltzmann |
Maxwell-Speed |
Nakagami |
nichtzentriert Chi-Quadrat |
Pareto |
Phase-Type |
Rayleigh |
relativistisch Breit-Wigner |
Rice |
Rosin-Rammler |
shifted Gompertz |
truncated normal |
Type-2-Gumbel |
Weibull |
Wilks’ Lambda
Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy |
Extremwert |
exponential Power |
Fishers z |
Fisher-Tippett (Gumbel) |
generalized hyperbolic |
Hyperbolic-secant |
Landau |
Laplace |
alpha-stabil |
logistisch |
normal (Gauß) |
normal-invers Gauß’sch |
Skew-normal |
Studentsche t |
Type-1-Gumbel |
Variance-Gamma |
Voigt
|
Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta |
Cantor |
Kumaraswamy |
raised Cosine |
Dreieck |
Trapez |
U-quadratisch |
stetig uniform |
Wigner-Halbkreis
Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime |
Bose-Einstein |
Burr |
Chi |
Chi-Quadrat |
Coxian |
Erlang |
Exponential |
Extremwert |
F |
Fermi-Dirac |
Folded normal |
Fréchet |
Gamma |
Gamma-Gamma |
verallgemeinert invers Gauß |
halblogistisch |
halbnormal |
Hartman-Watson |
Hotellings T-Quadrat |
hyper-exponentiale |
hypoexponential |
invers Chi-Quadrat |
scale-invers Chi-Quadrat |
Invers Normal |
Invers Gamma |
Kolmogorow-Verteilung |
Lévy |
log-normal |
log-logistisch |
Maxwell-Boltzmann |
Maxwell-Speed |
Nakagami |
nichtzentriert Chi-Quadrat |
Pareto |
Phase-Type |
Rayleigh |
relativistisch Breit-Wigner |
Rice |
Rosin-Rammler |
shifted Gompertz |
truncated normal |
Type-2-Gumbel |
Weibull |
Wilks’ Lambda
Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy |
Extremwert |
exponential Power |
Fishers z |
Fisher-Tippett (Gumbel) |
generalized hyperbolic |
Hyperbolic-secant |
Landau |
Laplace |
alpha-stabil |
logistisch |
normal (Gauß) |
normal-invers Gauß’sch |
Skew-normal |
Studentsche t |
Type-1-Gumbel |
Variance-Gamma |
Voigt
}}
Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste MUWahrscheinlichkeitsverteilungen
|{{safesubst:#ifeq:0|10| {{#switch: Diskrete Gleichverteilung |Navigationsleiste|NaviBlock|0=|#default=
Vorlage:Templatetransclusioncheck
Vorlage:Dokumentation/ruler
}}}}Vorlage:Klappleiste/Anfang
{{#if:
Diskrete multivariate Verteilungen:
Dirichlet compound multinomial |
Ewens |
gemischt Multinomial |
multinomial |
multivariat hypergeometrisch |
multivariat Poisson |
negativmultinomial |
Pólya/Eggenberger |
polyhypergeometrisch
Kontinuierliche multivariate Verteilungen:
Dirichlet |
GEM |
generalized Dirichlet |
multivariat normal |
multivariat Student |
normalskaliert invers Gamma |
Normal-Gamma |
Poisson-Dirichlet
Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit |
Invers Wishart |
Matrix Beta |
Matrix Gamma |
Matrix invers Beta |
Matrix invers Gamma |
Matrix Normal |
Matrix Student-t |
Matrix-Von-Mises-Fisher-Verteilung |
Normal-invers-Wishart |
Normal-Wishart |
Wishart
|
Diskrete multivariate Verteilungen:
Dirichlet compound multinomial |
Ewens |
gemischt Multinomial |
multinomial |
multivariat hypergeometrisch |
multivariat Poisson |
negativmultinomial |
Pólya/Eggenberger |
polyhypergeometrisch
Kontinuierliche multivariate Verteilungen:
Dirichlet |
GEM |
generalized Dirichlet |
multivariat normal |
multivariat Student |
normalskaliert invers Gamma |
Normal-Gamma |
Poisson-Dirichlet
Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit |
Invers Wishart |
Matrix Beta |
Matrix Gamma |
Matrix invers Beta |
Matrix invers Gamma |
Matrix Normal |
Matrix Student-t |
Matrix-Von-Mises-Fisher-Verteilung |
Normal-invers-Wishart |
Normal-Wishart |
Wishart
}}