Zum Inhalt springen

Geometrische Verteilung

aus Wikipedia, der freien Enzyklopädie
{{#if: | }} {{#if: | }} {{#if: | }} {{#if: <math>\frac{1}{p}</math> (A) bzw. <math>\frac{1-p}{p}</math> (B)| }} {{#if: | }} {{#if: | }} {{#if: <math>\frac{1-p}{p^2}</math>| }} {{#if: <math>\frac{2-p}{\sqrt{1-p| }} {{#if: | }} {{#if: | }} {{#if: | }} {{#if: | }} {{#if: | }}
Geometrische Verteilung
{{#switch: mass| discrete | mass = Wahrscheinlichkeitsfunktion | multivariate | continuous | density = Dichtefunktion }}
Datei:Geometrische Verteilung.PNGWahrscheinlichkeitsfunktion der geometrischen Verteilung (Variante B) für <math>p=0{,}2</math> (blau), <math>p=0{,}5</math> (grün) und <math>p=0{,}8</math> (rot)
Verteilungsfunktion
Parameter p ∈ (0,1) – Einzel-Erfolgswahrscheinlichkeit
Träger
{{#switch: Geometrische Verteilung Benfordsches Gesetz Bernoulli-Verteilung Beta-Binomialverteilung Binomialverteilung Kategoriale Verteilung Hypergeometrische Verteilung Rademacher-Verteilung Zipfsches Gesetz Zipf-Mandelbrot Boltzmann-Statistik Conway-Maxwell-Poisson-Verteilung Negative Binomialverteilung Erweiterte negative Binomialverteilung Compound-Poisson-Verteilung Diskrete Gleichverteilung Discrete-Phase-Type-Verteilung Gauss-Kuzmin-Verteilung Geometrische Verteilung Logarithmische Verteilung Parabolisch-fraktale Verteilung Poisson-Verteilung Poisson-Gamma-Verteilung Skellam-Verteilung Yule-Simon-Verteilung Zeta-Verteilung = Wahrscheinlichkeitsfunktion #default = Dichtefunktion }}
Verteilungsfunktion
Erwartungswert <math>\frac{1}{p}</math> (A) bzw. <math>\frac{1-p}{p}</math> (B)
Median
Modus
Varianz <math>\frac{1-p}{p^2}</math>
Schiefe <math>\frac{2-p}{\sqrt{1-p
Wölbung {{{kurtosis}}}
Entropie {{{entropy}}}
Momenterzeugende Funktion {{{mgf}}}
Charakteristische Funktion {{{char}}}
Fisher-Information {{{fisher}}}

</math>

| kurtosis = <math>9+\frac{p^2}{1-p}</math> | entropy = | mgf = | char = | fisher = }}

Die geometrische Verteilung ist eine Wahrscheinlichkeitsverteilung in der Stochastik, die univariat ist und zu den diskreten Wahrscheinlichkeitsverteilungen zählt. Sie wird aus unabhängigen Bernoulli-Experimenten abgeleitet und in zwei Varianten definiert:

Variante A
die Wahrscheinlichkeitsverteilung der Anzahl <math>X</math> der Bernoulli-Versuche, die notwendig sind, um einen Erfolg zu haben. Diese Verteilung ist auf der Menge <math>\N</math> definiert.
Variante B
die Wahrscheinlichkeitsverteilung der Anzahl <math>Y</math> der Fehlversuche vor dem ersten Erfolg. Diese Verteilung ist auf der Menge <math>\N_0</math> definiert.

Die beiden Varianten stehen in der Beziehung <math>X = Y+1</math>. Welche davon man „geometrische Verteilung“ nennt, wird entweder vorher festgelegt oder man wählt diejenige, die gerade zweckmäßiger ist.

Die geometrische Verteilung wird verwendet:

  • bei der Analyse der Wartezeiten bis zum Eintreffen eines bestimmten Ereignisses.
    • bei der Lebensdauerbestimmung von Geräten und Bauteilen, d. h. dem Warten bis zum ersten Ausfall
  • bei der Bestimmung der Anzahl häufiger Ereignisse zwischen unmittelbar aufeinanderfolgenden seltenen Ereignissen wie zum Beispiel Fehlern:
    • Bestimmung der Zuverlässigkeit von Geräten (MTBF)
    • Bestimmung des Risikos in der Versicherungsmathematik
    • Bestimmung der Fehlerrate in der Datenübertragung, zum Beispiel Anzahl der erfolgreich übertragenen TCP-Pakete zwischen zwei Paketen mit Retransmission

Definition der geometrischen Verteilung

Eine diskrete Zufallsgröße <math>X</math> oder <math>Y</math> mit dem Parameter <math>p</math> (Wahrscheinlichkeit für einen Erfolg), <math>q=1-p</math> (Wahrscheinlichkeit für einen Misserfolg) genügt der geometrischen Verteilung <math>G(p)</math>, wenn:

Variante A
Für die Wahrscheinlichkeit, dass man genau <math>n</math> Versuche benötigt, um zum ersten Erfolg zu kommen, gilt
<math>\operatorname{P}(X=n)= p(1-p)^{n-1}= pq^{n-1} \quad (n=1,2, \dotsc)</math>.<ref name="Lehmann" />
Variante B
Für die Wahrscheinlichkeit, <math>n</math> Fehlversuche vor dem ersten Erfolg zu haben, gilt
<math>\operatorname{P}(Y=n)= p(1-p)^{n}= pq^{n} \quad (n=0,1,2, \dotsc)</math>

In beiden Fällen bilden die Werte für die Wahrscheinlichkeiten eine geometrische Folge.

Damit besitzt die geometrische Verteilung die folgenden Verteilungsfunktionen

Variante A
<math>F(n)=\operatorname{P}(X \le n) = p\sum_{i=1}^n q^{i-1}
                   =  p\sum_{i=0}^{n-1}q^i
                   =  p\frac{1-q^n}{1-q}
                   =  1-q^n
                   =  1-(1-p)^n</math>
Variante B
<math>F(n)=\operatorname{P}(Y \le n) = p\sum_{i=0}^n q^i
                   =  p\frac{1-q^{n+1}}{1-q}
                   =  1-q^{n+1}
                   =  1-(1-p)^{n+1}</math>

Eigenschaften

Erwartungswert

Die Erwartungswerte der beiden geometrischen Verteilungen sind

Variante A
<math>\operatorname{E}(X) = \frac{1}{p}</math>.<ref name="Lehmann" />
Variante B
<math>\operatorname{E}(Y) = \operatorname{E}(X) - 1 = \frac{1-p}{p}</math>.<ref name="Forbes" />

Der Erwartungswert kann auf verschiedene Weisen hergeleitet werden:

  • <math>\operatorname{E}(X)=p\sum_{k=1}^{\infty}k\,(1-p)^{k-1}

= p\sum_{k=0}^{\infty}\,\frac{\mathrm{d}}{\mathrm{d}p} \left(-(1-p)^{k}\right) = - p\frac{\mathrm{d}}{\mathrm{d}p}\left(\sum_{k=0}^{\infty}\,(1-p)^{k} \right) = - p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1}{p}\right) =\frac{1}{p}</math>.

  • <math>\operatorname{E}(X)=\sum_{k=1}^{\infty}k p (1-p)^{k-1}

= \sum_{k=0}^{\infty}(k+1) p (1-p)^{k} = \sum_{k=0}^{\infty}k p (1-p)^{k} + \sum_{k=1}^{\infty} p (1-p)^{k-1} = (1-p) \operatorname{E}(X) +1</math>

<math>\Rightarrow \operatorname{E}(X) = \frac{1}{p}</math>.
Dabei ist <math> \sum_{k=1}^{\infty} p (1-p)^{k-1} =1 </math>, da <math>p (1-p)^{k-1}</math> die Wahrscheinlichkeitsfunktion ist.
  • Der Erwartungswert <math>\operatorname{E}(X)</math> lässt sich per Fallunterscheidung zerlegen. Mit Wahrscheinlichkeit <math>p</math> geht das erste Experiment erfolgreich aus, das heißt, <math>X</math> wird mit 1 realisiert. Mit Wahrscheinlichkeit <math>1-p</math> ist das erste Experiment erfolglos, aber der Erwartungswert für die Anzahl der dann noch folgenden Experimente ist wegen der Gedächtnislosigkeit wiederum <math>\operatorname{E}(X)</math>. Also gilt
<math>\operatorname{E}(X) = p\cdot 1 + (1-p)\cdot(1+\operatorname{E}(X)) = 1 + (1-p)\cdot \operatorname{E}(X)</math>, also <math>\operatorname{E}(X) = \frac{1}{p}</math>.
  • Führt man <math>n</math> Experimente durch, so ist der Erwartungswert für die Anzahl der erfolgreichen Experimente <math>n\cdot p</math>. Daher ist der zu erwartende Abstand zwischen zwei erfolgreichen Experimenten (einschließlich eines erfolgreichen Experimentes) <math>\tfrac{n}{n\cdot p}</math>, also <math>\operatorname{E}(X) = \tfrac{1}{p}</math>.

Varianz

Die Varianzen der beiden geometrischen Verteilungen sind

<math>\operatorname{Var}(X) = \operatorname{Var}(Y)=\frac{1-p}{p^2}=\frac{1}{p^{2}} - \frac{1}{p}</math>.<ref name="Lehmann" />

Die Herleitung kann erfolgen über

<math>\operatorname{Var}(X)</math> <math> = \operatorname{E}(X^2) - \operatorname{E}(X)^2 = p\sum_{k=1}^{\infty}k^{2}(1-p)^{k-1} - \frac{1}{p^2}</math>
<math>= p\sum_{k=1}^{\infty}k(k+1)(1-p)^{k-1} - p\sum_{k=1}^{\infty}k(1-p)^{k-1} - \frac{1}{p^2}</math>
<math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\sum_{k=1}^{\infty}(1-p)^{k+1} + p\frac{\mathrm{d}}{\mathrm{d}p}\sum_{k=1}^{\infty}(1-p)^{k} - \frac{1}{p^2}</math>
<math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\sum_{k=0}^{\infty}(1-p)^{k} \cdot (1-p)^2\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\sum_{k=0}^{\infty}(1-p)^{k}\cdot(1-p)\right) - \frac{1}{p^2}</math>
<math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\frac{1}{1-(1-p)} \cdot (1-p)^2\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1}{1-(1-p)}\cdot(1-p)\right) - \frac{1}{p^2}</math>
<math>= p\frac{\mathrm{d}^{2}}{\mathrm{d}p^{2}}\left(\frac{(1-p)^2}{p}\right) +p\frac{\mathrm{d}}{\mathrm{d}p}\left(\frac{1-p}{p}\right) - \frac{1}{p^2}</math>
<math>= p\cdot\frac{2}{p^3} - p\cdot\frac{1}{p^2} - \frac{1}{p^2} = \frac{1}{p^{2}} - \frac{1}{p}</math>.

Gedächtnislosigkeit

Die geometrische Verteilung ist eine gedächtnislose Verteilung,<ref name="Susmita" /> d. h. es gilt für

Variante A

<math>\operatorname{P}(X = n+k \, | \, X > n) = \operatorname{P}(X = k) \quad n,k=1,2, \dotsc </math>

Variante B

<math>\operatorname{P}(Y = n+k \, | \, Y \ge n) = \operatorname{P}(Y = k) \quad n,k=0,1,2, \dotsc </math>

Ist also von einer geometrisch verteilten Zufallsvariablen bekannt, dass sie größer als der Wert <math>n</math> ist (Variante A) bzw. mindestens den Wert <math>n</math> hat (Variante B), so ist die Wahrscheinlichkeit, dass sie diesen Wert um <math>k</math> übertrifft, genau so groß wie die, dass eine identische Zufallsvariable überhaupt den Wert <math>k</math> annimmt.

Die Gedächtnislosigkeit ist eine definierende Eigenschaft; die geometrische Verteilung ist also die einzig mögliche gedächtnislose diskrete Verteilung. Ihr stetiges Pendant hierbei ist die Exponentialverteilung.

Bezug zur Reproduktivität

Die Summe <math>\textstyle X=\sum_{i=1}^{k} X_{i}</math> unabhängiger geometrisch verteilter Zufallsgrößen <math>X_1, \dotsc, X_k</math> mit demselben Parameter <math>p</math> ist nicht geometrisch verteilt, sondern negativ binomialverteilt.<ref name="Waldmann" /> Somit ist die Familie der geometrischen Wahrscheinlichkeitsverteilungen nicht reproduktiv.

Schiefe

Die Schiefe ergibt sich für beide Varianten zu:

<math>\operatorname{v}(X) = \operatorname{v}(Y) = \frac{2-p}{\sqrt{1-p}}</math>.<ref name="Forbes" />

Wölbung

Die Wölbung lässt sich für beide Varianten ebenfalls geschlossen darstellen als

<math>\beta_2 = 9 + \frac{p^2}{1-p}</math>.<ref name="Forbes" />

Damit ist der Exzess

<math> \gamma= 6 + \frac{p^2}{1-p}</math>.

Modus

Variante A

Bei Variante A ist der Modus 1.

Variante B

Bei Variante B ist der Modus 0.

Median

Variante A

Bei Variante A ist der Median

<math>\tilde m=\left\lceil \frac{-1}{\log_2(1-p)} \right\rceil\!</math>.

Hierbei ist <math> \lceil \cdot \rceil </math> die Gaußklammer. Der Median ist nicht notwendigerweise eindeutig.

Variante B

Hier ist der Median

<math>\tilde m=\left\lceil \frac{-1}{\log_2(1-p)} \right\rceil-1\!</math>.

Auch er muss nicht eindeutig sein.

Entropie

Die Entropie beider Varianten ist

<math> \Eta = \frac{-(1-p)\log_2 (1-p) - p \log_2 p}{p} </math>,

denn gemäß Definition ist mit <math>q=1-p</math>

<math>\Eta = - \sum_{n=1}^\infty P(X=n)\log_2 P(X=n) = - \sum_{n=1}^\infty pq^{n-1} \log_2 (pq^{n-1}) = - \sum_{n=1}^\infty pq^{n-1} (\log_2 p + (n-1)\log_2 q)</math>
<math>= - p\log_2 p \cdot \sum_{n=1}^\infty q^{n-1} - p\log_2 q \cdot \sum_{n=1}^\infty (n-1)q^{n-1} = -p\log_2 p \cdot \frac{1}{1-q} - p\log_2 q \cdot \frac{q}{(1-q)^2} = \frac{-(1-p)\log_2 (1-p) - p \log_2 p}{p}.</math>

Charakteristische Funktion

Die charakteristische Funktion hat die Form

Variante A
<math>\varphi_{X}(s) = \frac{p e^{is}}{1-(1-p)e^{is}}</math>.
Variante B
<math>\varphi_{Y}(s) = \frac{p}{1-(1-p)e^{is}}</math>.<ref name="Forbes" />

Momenterzeugende Funktion

Die momenterzeugende Funktion der geometrischen Verteilung ist

Variante A
<math>M_{X}(s) = \frac{p e^s}{1-(1-p)e^{s}}</math>
Variante B
<math>M_{Y}(s) = \frac{p}{1-(1-p)e^{s}}</math>.<ref name="Forbes" />

Wahrscheinlichkeitserzeugende Funktion

Die wahrscheinlichkeitserzeugende Funktion der geometrischen Verteilung ist

Variante A
<math>m_{X}(t) = \frac{pt}{1-(1-p)t}</math>
Variante B
<math>m_{Y}(t) = \frac{p}{1-(1-p)t}</math>.<ref name="Forbes" />

Beziehungen zu anderen Verteilungen

Beziehung zur negativen Binomialverteilung

Verallgemeinerung auf mehrere Erfolge
Eine Verallgemeinerung der geometrischen Verteilung stellt die negative Binomialverteilung dar, welche die Wahrscheinlichkeit angibt, dass für <math>r</math> Erfolge <math>n</math> Versuche notwendig sind (Variante A beider Verteilungen) bzw. dass der <math>r</math>-te Erfolg eintritt, nachdem bereits <math>k=n-r</math> Misserfolge eingetreten sind (Variante B beider Verteilungen). Dabei modellieren die geometrischen Verteilungen die Anzahlen an benötigten Versuchen für den nächsten Erfolg (Variante A) bzw. an Misserfolgen zwischen den <math>r</math> Erfolgen (Variante B).

Umgekehrt ist die geometrische Verteilung eine negative Binomialverteilung mit <math>r=1</math> (der jeweiligen Variante). Somit gilt für die Faltung der geometrischen Verteilung <math> \operatorname{Geom}(p) * \operatorname{Geom}(p) = \operatorname{NegBin}(2,p) </math>.

Beziehung zur Exponentialverteilung

Konvergenz der geometrischen Verteilung
Für eine Folge <math> X_1, X_2, X_3, \dotsc </math> geometrisch verteilter Zufallsvariablen (egal welcher Variante) mit Parametern <math> p_1, p_2, p_3, \dotsc </math> gelte <math> \lim_{n \to \infty} np_n=\lambda </math> mit einer positiven Konstante <math>\lambda</math>. Dann konvergiert die Folge <math> \tfrac{X_n}{n} </math> für große <math>n</math> gegen eine exponentialverteilte Zufallsvariable mit Parameter <math>\lambda</math>.

In Analogie zur diskreten geometrischen Verteilung bestimmt die stetige Exponentialverteilung die Wartezeit bis zum ersten Eintreffen eines seltenen Poisson-verteilten Ereignisses. Die Exponentialverteilung ist also das kontinuierliche Analogon zur diskreten geometrischen Verteilung.

Beziehung zur zusammengesetzten Poisson-Verteilung

Die geometrische Verteilung in der Variante B entsteht als Spezialfall der zusammengesetzten Poisson-Verteilung in Kombination mit der logarithmischen Verteilung. Als Parameter wählt man <math> p_\text{log}=1-p_\text{geom} </math> und <math> -\lambda=\ln (1-p_\text{log}) </math>. Damit ist die geometrische Verteilung auch unendlich teilbar.

Beziehung zum Urnenmodell

Die geometrische Verteilung lässt sich aus dem Urnenmodell herleiten, wenn

<math> p = \frac{p_1}{p_2}\in \mathbb{Q} </math>

ist. Dann entsteht die geometrische Verteilung beim Ziehen mit Zurücklegen aus einer Urne mit <math> p_2 </math> Kugeln, von denen <math> p_1 </math> markiert sind. Sie ist dann die Wartezeit auf den ersten Erfolg (Variante A) bzw. die Zeit bis zum letzten Misserfolg (Variante B).

Zufallszahlen

Zufallszahlen zur geometrischen Verteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt. Diese Methode bietet sich bei der geometrischen Verteilung besonders an, da die Einzelwahrscheinlichkeiten der einfachen Rekursion <math> \operatorname{P}(X=k+1)=(1-p)\operatorname{P}(X=k) </math> genügen. Die Inversionsmethode ist hier also nur mit rationalen Operationen (Addition, Multiplikation) und ohne die Verteilungsfunktion vorher zu berechnen und abzuspeichern durchführbar, was einen schnellen Algorithmus zur Simulation garantiert.

Literatur

  • {{#invoke:Vorlage:Literatur|f}}
  • {{#invoke:Vorlage:Literatur|f}}
  • {{#invoke:Vorlage:Literatur|f}}
  • {{#invoke:Vorlage:Literatur|f}}
  • {{#invoke:Vorlage:Literatur|f}}

Einzelnachweise

<references> <ref name="Lehmann"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Waldmann"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Forbes"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Susmita"> {{#invoke:Vorlage:Literatur|f}} </ref> </references>

<templatestyles src="BoxenVerschmelzen/styles.css" />

{{#if:Navigationsleiste DUWahrscheinlichkeitsverteilungen‎ |{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default= Vorlage:Templatetransclusioncheck Vorlage:Dokumentation/ruler }}}}Vorlage:Klappleiste/Anfang {{#if:

|
 |

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta }} Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste KUWahrscheinlichkeitsverteilungen‎ |{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default= Vorlage:Templatetransclusioncheck Vorlage:Dokumentation/ruler }}}}Vorlage:Klappleiste/Anfang {{#if:

|
 |

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt }} Vorlage:Klappleiste/Ende}}{{#if:Navigationsleiste MUWahrscheinlichkeitsverteilungen‎ |{{safesubst:#ifeq:0|10| {{#switch: Geometrische Verteilung |Navigationsleiste|NaviBlock|0=|#default= Vorlage:Templatetransclusioncheck Vorlage:Dokumentation/ruler }}}}Vorlage:Klappleiste/Anfang {{#if:

|
 |

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart }}

Vorlage:Klappleiste/Ende}}{{#if:|{{{{{4}}}}}}}{{#if:|{{{{{5}}}}}}}{{#if:|{{{{{6}}}}}}}{{#if:|{{{{{7}}}}}}}{{#if:|{{{{{8}}}}}}}{{#if:|{{{{{9}}}}}}}{{#if:|{{{{{10}}}}}}}{{#if:|{{{{{11}}}}}}}{{#if:|{{{{{12}}}}}}}{{#if:|{{{{{13}}}}}}}{{#if:|{{{{{14}}}}}}}{{#if:|{{{{{15}}}}}}}{{#if:|{{{{{16}}}}}}}{{#if:|{{{{{17}}}}}}}{{#if:|{{{{{18}}}}}}}{{#if:|{{{{{19}}}}}}}{{#if:|{{{{{20}}}}}}}{{#if:|
Zu viele Navigationsleisten (>20)
}}

{{#ifeq: s | p | | {{#if: 4507247-4 | |

}} }}{{#ifeq:||{{#if: | [[Kategorie:Wikipedia:GND fehlt {{#invoke:Str|left|{{{GNDCheck}}}|7}}]] }}{{#if: | {{#if: | | }} }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#if: | {{#ifeq: 0 | 2 | | }} }}{{#ifeq: s | p | {{#if: 4507247-4 | | {{#if: {{#statements:P227}} | | }} }} }}{{#ifeq: s | p | {{#if: 4507247-4 | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P227}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P244}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P244}} | | }} }} }} }}{{#ifeq: s | p | {{#if: | | {{#if: {{#statements:P214}} | | }} }} }}{{#ifeq: s | p | {{#if: | {{#if: {{#invoke:Wikidata|pageId}} | {{#if: {{#statements:P214}} | | }} }} }} }}Vorlage:Wikidata-Registrierung