Geometrische Verteilung
| Geometrische Verteilung | |||||||||||||||||||||||||||
| {{#switch: mass| discrete | mass = Wahrscheinlichkeitsfunktion | multivariate | continuous | density = Dichtefunktion }} Datei:Geometrische Verteilung.PNGWahrscheinlichkeitsfunktion der geometrischen Verteilung (Variante B) für <math>p=0{,}2</math> (blau), <math>p=0{,}5</math> (grün) und <math>p=0{,}8</math> (rot) | |||||||||||||||||||||||||||
| Verteilungsfunktion | |||||||||||||||||||||||||||
| Parameter | p ∈ (0,1) – Einzel-Erfolgswahrscheinlichkeit | ||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Träger | |||||||||||||||||||||||||||
| {{#switch: Geometrische Verteilung | Benfordsches Gesetz | Bernoulli-Verteilung | Beta-Binomialverteilung | Binomialverteilung | Kategoriale Verteilung | Hypergeometrische Verteilung | Rademacher-Verteilung | Zipfsches Gesetz | Zipf-Mandelbrot | Boltzmann-Statistik | Conway-Maxwell-Poisson-Verteilung | Negative Binomialverteilung | Erweiterte negative Binomialverteilung | Compound-Poisson-Verteilung | Diskrete Gleichverteilung | Discrete-Phase-Type-Verteilung | Gauss-Kuzmin-Verteilung | Geometrische Verteilung | Logarithmische Verteilung | Parabolisch-fraktale Verteilung | Poisson-Verteilung | Poisson-Gamma-Verteilung | Skellam-Verteilung | Yule-Simon-Verteilung | Zeta-Verteilung = Wahrscheinlichkeitsfunktion | #default = Dichtefunktion }} | |
| Verteilungsfunktion | |||||||||||||||||||||||||||
| Erwartungswert | <math>\frac{1}{p}</math> (A) bzw. <math>\frac{1-p}{p}</math> (B) | ||||||||||||||||||||||||||
| Median | |||||||||||||||||||||||||||
| Modus | |||||||||||||||||||||||||||
| Varianz | <math>\frac{1-p}{p^2}</math> | ||||||||||||||||||||||||||
| Schiefe | <math>\frac{2-p}{\sqrt{1-p | ||||||||||||||||||||||||||
| Wölbung | {{{kurtosis}}} | ||||||||||||||||||||||||||
| Entropie | {{{entropy}}} | ||||||||||||||||||||||||||
| Momenterzeugende Funktion | {{{mgf}}} | ||||||||||||||||||||||||||
| Charakteristische Funktion | {{{char}}} | ||||||||||||||||||||||||||
| Fisher-Information | {{{fisher}}} | ||||||||||||||||||||||||||
</math>
| kurtosis = <math>9+\frac{p^2}{1-p}</math> | entropy = | mgf = | char = | fisher = }}
Die geometrische Verteilung ist eine Wahrscheinlichkeitsverteilung in der Stochastik, die univariat ist und zu den diskreten Wahrscheinlichkeitsverteilungen zählt. Sie wird aus unabhängigen Bernoulli-Experimenten abgeleitet und in zwei Varianten definiert:
- Variante A
- die Wahrscheinlichkeitsverteilung der Anzahl <math>X</math> der Bernoulli-Versuche, die notwendig sind, um einen Erfolg zu haben. Diese Verteilung ist auf der Menge <math>\N</math> definiert.
- Variante B
- die Wahrscheinlichkeitsverteilung der Anzahl <math>Y</math> der Fehlversuche vor dem ersten Erfolg. Diese Verteilung ist auf der Menge <math>\N_0</math> definiert.
Die beiden Varianten stehen in der Beziehung <math>X = Y+1</math>. Welche davon man „geometrische Verteilung“ nennt, wird entweder vorher festgelegt oder man wählt diejenige, die gerade zweckmäßiger ist.
Die geometrische Verteilung wird verwendet:
- bei der Analyse der Wartezeiten bis zum Eintreffen eines bestimmten Ereignisses.
- bei der Lebensdauerbestimmung von Geräten und Bauteilen, d. h. dem Warten bis zum ersten Ausfall
- bei der Bestimmung der Anzahl häufiger Ereignisse zwischen unmittelbar aufeinanderfolgenden seltenen Ereignissen wie zum Beispiel Fehlern:
- Bestimmung der Zuverlässigkeit von Geräten (MTBF)
- Bestimmung des Risikos in der Versicherungsmathematik
- Bestimmung der Fehlerrate in der Datenübertragung, zum Beispiel Anzahl der erfolgreich übertragenen TCP-Pakete zwischen zwei Paketen mit Retransmission
Definition der geometrischen Verteilung
Eine diskrete Zufallsgröße <math>X</math> oder <math>Y</math> mit dem Parameter <math>p</math> (Wahrscheinlichkeit für einen Erfolg), <math>q=1-p</math> (Wahrscheinlichkeit für einen Misserfolg) genügt der geometrischen Verteilung <math>G(p)</math>, wenn:
- Variante A
- Für die Wahrscheinlichkeit, dass man genau <math>n</math> Versuche benötigt, um zum ersten Erfolg zu kommen, gilt
- <math>\operatorname{P}(X=n)= p(1-p)^{n-1}= pq^{n-1} \quad (n=1,2, \dotsc)</math>.<ref name="Lehmann" />
- Variante B
- Für die Wahrscheinlichkeit, <math>n</math> Fehlversuche vor dem ersten Erfolg zu haben, gilt
- <math>\operatorname{P}(Y=n)= p(1-p)^{n}= pq^{n} \quad (n=0,1,2, \dotsc)</math>
In beiden Fällen bilden die Werte für die Wahrscheinlichkeiten eine geometrische Folge.
Damit besitzt die geometrische Verteilung die folgenden Verteilungsfunktionen
- Variante A
- <math>F(n)=\operatorname{P}(X \le n) = p\sum_{i=1}^n q^{i-1}
= p\sum_{i=0}^{n-1}q^i
= p\frac{1-q^n}{1-q}
= 1-q^n
= 1-(1-p)^n</math>
- Variante B
- <math>F(n)=\operatorname{P}(Y \le n) = p\sum_{i=0}^n q^i
= p\frac{1-q^{n+1}}{1-q}
= 1-q^{n+1}
= 1-(1-p)^{n+1}</math>
Eigenschaften
Erwartungswert
Die Erwartungswerte der beiden geometrischen Verteilungen sind
- Variante A
- <math>\operatorname{E}(X) = \frac{1}{p}</math>.<ref name="Lehmann" />
- Variante B
- <math>\operatorname{E}(Y) = \operatorname{E}(X) - 1 = \frac{1-p}{p}</math>.<ref name="Forbes" />
Der Erwartungswert kann auf verschiedene Weisen hergeleitet werden:
- <math>\operatorname{E}(X)=p\sum_{k=1}^{\infty}k\,(1-p)^{k-1}
= p\sum_{k=0}^{\infty}\,\frac{\mathrm{d}}{\mathrm{d}p} \left(-(1-p)^{k}\right) = - p\frac{\mathrm{d}}{\mathrm{d}p}\left(\sum_{k=0}^{\infty}\,(1-p)^{k} \right) = - p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1}{p}\right) =\frac{1}{p}</math>.
- <math>\operatorname{E}(X)=\sum_{k=1}^{\infty}k p (1-p)^{k-1}
= \sum_{k=0}^{\infty}(k+1) p (1-p)^{k} = \sum_{k=0}^{\infty}k p (1-p)^{k} + \sum_{k=1}^{\infty} p (1-p)^{k-1} = (1-p) \operatorname{E}(X) +1</math>
- <math>\Rightarrow \operatorname{E}(X) = \frac{1}{p}</math>.
- Dabei ist <math> \sum_{k=1}^{\infty} p (1-p)^{k-1} =1 </math>, da <math>p (1-p)^{k-1}</math> die Wahrscheinlichkeitsfunktion ist.
- Der Erwartungswert <math>\operatorname{E}(X)</math> lässt sich per Fallunterscheidung zerlegen. Mit Wahrscheinlichkeit <math>p</math> geht das erste Experiment erfolgreich aus, das heißt, <math>X</math> wird mit 1 realisiert. Mit Wahrscheinlichkeit <math>1-p</math> ist das erste Experiment erfolglos, aber der Erwartungswert für die Anzahl der dann noch folgenden Experimente ist wegen der Gedächtnislosigkeit wiederum <math>\operatorname{E}(X)</math>. Also gilt
- <math>\operatorname{E}(X) = p\cdot 1 + (1-p)\cdot(1+\operatorname{E}(X)) = 1 + (1-p)\cdot \operatorname{E}(X)</math>, also <math>\operatorname{E}(X) = \frac{1}{p}</math>.
- Führt man <math>n</math> Experimente durch, so ist der Erwartungswert für die Anzahl der erfolgreichen Experimente <math>n\cdot p</math>. Daher ist der zu erwartende Abstand zwischen zwei erfolgreichen Experimenten (einschließlich eines erfolgreichen Experimentes) <math>\tfrac{n}{n\cdot p}</math>, also <math>\operatorname{E}(X) = \tfrac{1}{p}</math>.
Varianz
Die Varianzen der beiden geometrischen Verteilungen sind
- <math>\operatorname{Var}(X) = \operatorname{Var}(Y)=\frac{1-p}{p^2}=\frac{1}{p^{2}} - \frac{1}{p}</math>.<ref name="Lehmann" />
Die Herleitung kann erfolgen über
| <math>\operatorname{Var}(X)</math> | <math> = \operatorname{E}(X^2) - \operatorname{E}(X)^2 = p\sum_{k=1}^{\infty}k^{2}(1-p)^{k-1} - \frac{1}{p^2}</math> |
| <math>= p\sum_{k=1}^{\infty}k(k+1)(1-p)^{k-1} - p\sum_{k=1}^{\infty}k(1-p)^{k-1} - \frac{1}{p^2}</math> | |
| <math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\sum_{k=1}^{\infty}(1-p)^{k+1} + p\frac{\mathrm{d}}{\mathrm{d}p}\sum_{k=1}^{\infty}(1-p)^{k} - \frac{1}{p^2}</math> | |
| <math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\sum_{k=0}^{\infty}(1-p)^{k} \cdot (1-p)^2\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\sum_{k=0}^{\infty}(1-p)^{k}\cdot(1-p)\right) - \frac{1}{p^2}</math> | |
| <math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\frac{1}{1-(1-p)} \cdot (1-p)^2\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1}{1-(1-p)}\cdot(1-p)\right) - \frac{1}{p^2}</math> | |
| <math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\frac{(1-p)^2}{p}\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1-p}{p}\right) - \frac{1}{p^2}</math> | |
| <math>= p\cdot\frac{2}{p^3} - p\cdot\frac{1}{p^2} - \frac{1}{p^2} = \frac{1}{p^{2}} - \frac{1}{p}</math>. |
Gedächtnislosigkeit
Die geometrische Verteilung ist eine gedächtnislose Verteilung,<ref name="Susmita" /> d. h. es gilt für
Variante A
- <math>\operatorname{P}(X = n+k \, | \, X > n) = \operatorname{P}(X = k) \quad n,k=1,2, \dotsc </math>
Variante B
- <math>\operatorname{P}(Y = n+k \, | \, Y \ge n) = \operatorname{P}(Y = k) \quad n,k=0,1,2, \dotsc </math>
Ist also von einer geometrisch verteilten Zufallsvariablen bekannt, dass sie größer als der Wert <math>n</math> ist (Variante A) bzw. mindestens den Wert <math>n</math> hat (Variante B), so ist die Wahrscheinlichkeit, dass sie diesen Wert um <math>k</math> übertrifft, genau so groß wie die, dass eine identische Zufallsvariable überhaupt den Wert <math>k</math> annimmt.
Die Gedächtnislosigkeit ist eine definierende Eigenschaft; die geometrische Verteilung ist also die einzig mögliche gedächtnislose diskrete Verteilung. Ihr stetiges Pendant hierbei ist die Exponentialverteilung.
Bezug zur Reproduktivität
Die Summe <math>\textstyle X=\sum_{i=1}^{k} X_{i}</math> unabhängiger geometrisch verteilter Zufallsgrößen <math>X_1, \dotsc, X_k</math> mit demselben Parameter <math>p</math> ist nicht geometrisch verteilt, sondern negativ binomialverteilt.<ref name="Waldmann" /> Somit ist die Familie der geometrischen Wahrscheinlichkeitsverteilungen nicht reproduktiv.
Schiefe
Die Schiefe ergibt sich für beide Varianten zu:
- <math>\operatorname{v}(X) = \operatorname{v}(Y) = \frac{2-p}{\sqrt{1-p}}</math>.<ref name="Forbes" />
Wölbung
Die Wölbung lässt sich für beide Varianten ebenfalls geschlossen darstellen als
- <math>\beta_2 = 9 + \frac{p^2}{1-p}</math>.<ref name="Forbes" />
Damit ist der Exzess
- <math> \gamma= 6 + \frac{p^2}{1-p}</math>.
Modus
- Variante A
Bei Variante A ist der Modus 1.
- Variante B
Bei Variante B ist der Modus 0.
Median
- Variante A
Bei Variante A ist der Median
- <math>\tilde m=\left\lceil \frac{-1}{\log_2(1-p)} \right\rceil\!</math>.
Hierbei ist <math> \lceil \cdot \rceil </math> die Gaußklammer. Der Median ist nicht notwendigerweise eindeutig.
- Variante B
Hier ist der Median
- <math>\tilde m=\left\lceil \frac{-1}{\log_2(1-p)} \right\rceil-1\!</math>.
Auch er muss nicht eindeutig sein.
Entropie
Die Entropie beider Varianten ist
- <math> \Eta = \frac{-(1-p)\log_2 (1-p) - p \log_2 p}{p} </math>,
denn gemäß Definition ist mit <math>q=1-p</math>
- <math>\Eta = - \sum_{n=1}^\infty P(X=n)\log_2 P(X=n) = - \sum_{n=1}^\infty pq^{n-1} \log_2 (pq^{n-1}) = - \sum_{n=1}^\infty pq^{n-1} (\log_2 p + (n-1)\log_2 q)</math>
- <math>= - p\log_2 p \cdot \sum_{n=1}^\infty q^{n-1} - p\log_2 q \cdot \sum_{n=1}^\infty (n-1)q^{n-1} = -p\log_2 p \cdot \frac{1}{1-q} - p\log_2 q \cdot \frac{q}{(1-q)^2} = \frac{-(1-p)\log_2 (1-p) - p \log_2 p}{p}.</math>
Charakteristische Funktion
Die charakteristische Funktion hat die Form
- Variante A
- <math>\varphi_{X}(s) = \frac{p e^{is}}{1-(1-p)e^{is}}</math>.
- Variante B
- <math>\varphi_{Y}(s) = \frac{p}{1-(1-p)e^{is}}</math>.<ref name="Forbes" />
Momenterzeugende Funktion
Die momenterzeugende Funktion der geometrischen Verteilung ist
- Variante A
- <math>M_{X}(s) = \frac{p e^s}{1-(1-p)e^{s}}</math>
- Variante B
- <math>M_{Y}(s) = \frac{p}{1-(1-p)e^{s}}</math>.<ref name="Forbes" />
Wahrscheinlichkeitserzeugende Funktion
Die wahrscheinlichkeitserzeugende Funktion der geometrischen Verteilung ist
- Variante A
- <math>m_{X}(t) = \frac{pt}{1-(1-p)t}</math>
- Variante B
- <math>m_{Y}(t) = \frac{p}{1-(1-p)t}</math>.<ref name="Forbes" />
Beziehungen zu anderen Verteilungen
Beziehung zur negativen Binomialverteilung
Verallgemeinerung auf mehrere Erfolge
Eine Verallgemeinerung der geometrischen Verteilung stellt die negative Binomialverteilung dar, welche die Wahrscheinlichkeit angibt, dass für <math>r</math> Erfolge <math>n</math> Versuche notwendig sind (Variante A beider Verteilungen) bzw. dass der <math>r</math>-te Erfolg eintritt, nachdem bereits <math>k=n-r</math> Misserfolge eingetreten sind (Variante B beider Verteilungen). Dabei modellieren die geometrischen Verteilungen die Anzahlen an benötigten Versuchen für den nächsten Erfolg (Variante A) bzw. an Misserfolgen zwischen den <math>r</math> Erfolgen (Variante B).
Umgekehrt ist die geometrische Verteilung eine negative Binomialverteilung mit <math>r=1</math> (der jeweiligen Variante). Somit gilt für die Faltung der geometrischen Verteilung <math> \operatorname{Geom}(p) * \operatorname{Geom}(p) = \operatorname{NegBin}(2,p) </math>.
Beziehung zur Exponentialverteilung
Konvergenz der geometrischen Verteilung
Für eine Folge <math> X_1, X_2, X_3, \dotsc </math> geometrisch verteilter Zufallsvariablen (egal welcher Variante) mit Parametern <math> p_1, p_2, p_3, \dotsc </math> gelte <math> \lim_{n \to \infty} np_n=\lambda </math> mit einer positiven Konstante <math>\lambda</math>. Dann konvergiert die Folge <math> \tfrac{X_n}{n} </math> für große <math>n</math> gegen eine exponentialverteilte Zufallsvariable mit Parameter <math>\lambda</math>.
In Analogie zur diskreten geometrischen Verteilung bestimmt die stetige Exponentialverteilung die Wartezeit bis zum ersten Eintreffen eines seltenen Poisson-verteilten Ereignisses. Die Exponentialverteilung ist also das kontinuierliche Analogon zur diskreten geometrischen Verteilung.
Beziehung zur zusammengesetzten Poisson-Verteilung
Die geometrische Verteilung in der Variante B entsteht als Spezialfall der zusammengesetzten Poisson-Verteilung in Kombination mit der logarithmischen Verteilung. Als Parameter wählt man <math> p_\text{log}=1-p_\text{geom} </math> und <math> -\lambda=\ln (1-p_\text{log}) </math>. Damit ist die geometrische Verteilung auch unendlich teilbar.
Beziehung zum Urnenmodell
Die geometrische Verteilung lässt sich aus dem Urnenmodell herleiten, wenn
- <math> p = \frac{p_1}{p_2}\in \mathbb{Q} </math>
ist. Dann entsteht die geometrische Verteilung beim Ziehen mit Zurücklegen aus einer Urne mit <math> p_2 </math> Kugeln, von denen <math> p_1 </math> markiert sind. Sie ist dann die Wartezeit auf den ersten Erfolg (Variante A) bzw. die Zeit bis zum letzten Misserfolg (Variante B).
Zufallszahlen
Zufallszahlen zur geometrischen Verteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt. Diese Methode bietet sich bei der geometrischen Verteilung besonders an, da die Einzelwahrscheinlichkeiten der einfachen Rekursion <math> \operatorname{P}(X=k+1)=(1-p)\operatorname{P}(X=k) </math> genügen. Die Inversionsmethode ist hier also nur mit rationalen Operationen (Addition, Multiplikation) und ohne die Verteilungsfunktion vorher zu berechnen und abzuspeichern durchführbar, was einen schnellen Algorithmus zur Simulation garantiert.
Literatur
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
Einzelnachweise
<references> <ref name="Lehmann"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Waldmann"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Forbes"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Susmita"> {{#invoke:Vorlage:Literatur|f}} </ref> </references>
<templatestyles src="BoxenVerschmelzen/styles.css" />
{{#if:Navigationsleiste DUWahrscheinlichkeitsverteilungen |{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default= Vorlage:Templatetransclusioncheck Vorlage:Dokumentation/ruler }}}}Vorlage:Klappleiste/Anfang {{#if:
|Diskrete univariate Verteilungen für endliche Mengen:
Benford |
Bernoulli |
beta-binomial |
binomial |
Dirac |
diskret uniform |
empirisch |
hypergeometrisch |
kategorial |
negativ hypergeometrisch |
Rademacher |
verallgemeinert binomial |
Zipf |
Zipf-Mandelbrot |
Zweipunkt
Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann |
Conway-Maxwell-Poisson |
discrete-Phase-Type |
erweitert negativ binomial |
Gauss-Kuzmin |
gemischt Poisson |
geometrisch |
logarithmisch |
negativ binomial |
parabolisch-fraktal |
Poisson |
Skellam |
verallgemeinert Poisson |
Yule-Simon |
Zeta
|
Diskrete univariate Verteilungen für endliche Mengen:
Benford |
Bernoulli |
beta-binomial |
binomial |
Dirac |
diskret uniform |
empirisch |
hypergeometrisch |
kategorial |
negativ hypergeometrisch |
Rademacher |
verallgemeinert binomial |
Zipf |
Zipf-Mandelbrot |
Zweipunkt
Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann |
Conway-Maxwell-Poisson |
discrete-Phase-Type |
erweitert negativ binomial |
Gauss-Kuzmin |
gemischt Poisson |
geometrisch |
logarithmisch |
negativ binomial |
parabolisch-fraktal |
Poisson |
Skellam |
verallgemeinert Poisson |
Yule-Simon |
Zeta
}}
Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste KUWahrscheinlichkeitsverteilungen
|{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default=
Vorlage:Templatetransclusioncheck
Vorlage:Dokumentation/ruler
}}}}Vorlage:Klappleiste/Anfang
{{#if:
Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta |
Cantor |
Kumaraswamy |
raised Cosine |
Dreieck |
Trapez |
U-quadratisch |
stetig uniform |
Wigner-Halbkreis
Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime |
Bose-Einstein |
Burr |
Chi |
Chi-Quadrat |
Coxian |
Erlang |
Exponential |
Extremwert |
F |
Fermi-Dirac |
Folded normal |
Fréchet |
Gamma |
Gamma-Gamma |
verallgemeinert invers Gauß |
halblogistisch |
halbnormal |
Hartman-Watson |
Hotellings T-Quadrat |
hyper-exponentiale |
hypoexponential |
invers Chi-Quadrat |
scale-invers Chi-Quadrat |
Invers Normal |
Invers Gamma |
Kolmogorow-Verteilung |
Lévy |
log-normal |
log-logistisch |
Maxwell-Boltzmann |
Maxwell-Speed |
Nakagami |
nichtzentriert Chi-Quadrat |
Pareto |
Phase-Type |
Rayleigh |
relativistisch Breit-Wigner |
Rice |
Rosin-Rammler |
shifted Gompertz |
truncated normal |
Type-2-Gumbel |
Weibull |
Wilks’ Lambda
Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy |
Extremwert |
exponential Power |
Fishers z |
Fisher-Tippett (Gumbel) |
generalized hyperbolic |
Hyperbolic-secant |
Landau |
Laplace |
alpha-stabil |
logistisch |
normal (Gauß) |
normal-invers Gauß’sch |
Skew-normal |
Studentsche t |
Type-1-Gumbel |
Variance-Gamma |
Voigt
|
Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta |
Cantor |
Kumaraswamy |
raised Cosine |
Dreieck |
Trapez |
U-quadratisch |
stetig uniform |
Wigner-Halbkreis
Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime |
Bose-Einstein |
Burr |
Chi |
Chi-Quadrat |
Coxian |
Erlang |
Exponential |
Extremwert |
F |
Fermi-Dirac |
Folded normal |
Fréchet |
Gamma |
Gamma-Gamma |
verallgemeinert invers Gauß |
halblogistisch |
halbnormal |
Hartman-Watson |
Hotellings T-Quadrat |
hyper-exponentiale |
hypoexponential |
invers Chi-Quadrat |
scale-invers Chi-Quadrat |
Invers Normal |
Invers Gamma |
Kolmogorow-Verteilung |
Lévy |
log-normal |
log-logistisch |
Maxwell-Boltzmann |
Maxwell-Speed |
Nakagami |
nichtzentriert Chi-Quadrat |
Pareto |
Phase-Type |
Rayleigh |
relativistisch Breit-Wigner |
Rice |
Rosin-Rammler |
shifted Gompertz |
truncated normal |
Type-2-Gumbel |
Weibull |
Wilks’ Lambda
Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy |
Extremwert |
exponential Power |
Fishers z |
Fisher-Tippett (Gumbel) |
generalized hyperbolic |
Hyperbolic-secant |
Landau |
Laplace |
alpha-stabil |
logistisch |
normal (Gauß) |
normal-invers Gauß’sch |
Skew-normal |
Studentsche t |
Type-1-Gumbel |
Variance-Gamma |
Voigt
}}
Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste MUWahrscheinlichkeitsverteilungen
|{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default=
Vorlage:Templatetransclusioncheck
Vorlage:Dokumentation/ruler
}}}}Vorlage:Klappleiste/Anfang
{{#if:
Diskrete multivariate Verteilungen:
Dirichlet compound multinomial |
Ewens |
gemischt Multinomial |
multinomial |
multivariat hypergeometrisch |
multivariat Poisson |
negativmultinomial |
Pólya/Eggenberger |
polyhypergeometrisch
Kontinuierliche multivariate Verteilungen:
Dirichlet |
GEM |
generalized Dirichlet |
multivariat normal |
multivariat Student |
normalskaliert invers Gamma |
Normal-Gamma |
Poisson-Dirichlet
Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit |
Invers Wishart |
Matrix Beta |
Matrix Gamma |
Matrix invers Beta |
Matrix invers Gamma |
Matrix Normal |
Matrix Student-t |
Matrix-Von-Mises-Fisher-Verteilung |
Normal-invers-Wishart |
Normal-Wishart |
Wishart
|
Diskrete multivariate Verteilungen:
Dirichlet compound multinomial |
Ewens |
gemischt Multinomial |
multinomial |
multivariat hypergeometrisch |
multivariat Poisson |
negativmultinomial |
Pólya/Eggenberger |
polyhypergeometrisch
Kontinuierliche multivariate Verteilungen:
Dirichlet |
GEM |
generalized Dirichlet |
multivariat normal |
multivariat Student |
normalskaliert invers Gamma |
Normal-Gamma |
Poisson-Dirichlet
Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit |
Invers Wishart |
Matrix Beta |
Matrix Gamma |
Matrix invers Beta |
Matrix invers Gamma |
Matrix Normal |
Matrix Student-t |
Matrix-Von-Mises-Fisher-Verteilung |
Normal-invers-Wishart |
Normal-Wishart |
Wishart
}}
{{#ifeq: s | p | | {{#if: 4507247-4 | |
}} }}{{#ifeq:||{{#if: | [[Kategorie:Wikipedia:GND fehlt {{#invoke:Str|left|{{{GNDCheck}}}|7}}]] }}{{#if: | {{#if: | | }} }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#ifeq: s | p | {{#if: 4507247-4 | | {{#if: {{#statements:P227}} | | }} }} }}{{#ifeq: s | p | {{#if: 4507247-4 | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P227}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P244}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P244}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P214}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P214}} | | }} }} }} }}Vorlage:Wikidata-Registrierung
- Wikipedia:GND fehlt
- Wikipedia:Normdaten-TYP falsch oder fehlend
- Wikipedia:GND in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:GND in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:LCCN in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:LCCN in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Wikipedia:VIAF in Wikipedia fehlt, in Wikidata vorhanden
- Wikipedia:VIAF in Wikipedia vorhanden, fehlt jedoch in Wikidata
- Diskrete Wahrscheinlichkeitsverteilung
- Univariate Wahrscheinlichkeitsverteilung