Zum Inhalt springen

Momentenmethode

aus Wikipedia, der freien Enzyklopädie

{{#if: behandelt die Momentenmethode als statistisches Verfahren. Das gleichnamige Verfahren in der Elektrotechnik ist unter Momentenmethode (Elektrotechnik) zu finden.

 | Vorlage:Hinweisbaustein 
 | {{#ifeq: 0 | 0 |}}

}}

Die Momentenmethode ist eine Schätzmethode in der mathematischen Statistik und dient der Gewinnung von Schätzfunktionen. Die mittels der Momentenmethode gewonnenen Schätzer werden als Momentenschätzer bezeichnet. Die Momentenmethode ist im Allgemeinen einfach anzuwenden, die gewonnenen Schätzer erfüllen aber nicht immer gängige Optimalitätskriterien.<ref name="Czado77" /> So müssen Momentenschätzer weder eindeutig noch erwartungstreu sein. Der Momentenmethode liegt die Idee zugrunde, dass die Momente einer Zufallsvariable oder Wahrscheinlichkeitsverteilung durch die Stichprobenmomente geschätzt werden können. Ist dann allgemeiner eine zu schätzende Funktion als Funktion der Momente (der Zufallsvariable oder Wahrscheinlichkeitsverteilung) gegeben, so erhält man einen Schätzer, indem man diese Momente durch die Stichprobenmomente ersetzt.

Die Momentenmethode wurde erstmals 1894 von Karl Pearson verwendet<ref name="eommoments" /> und kann als Spezialfall des Substitutionsprinzips aufgefasst werden.

Vorgehen

Rahmenbedingungen

Gegeben sei eine Familie von Wahrscheinlichkeitsmaßen <math> (P_\vartheta)_{\vartheta \in \Theta} </math> auf den reellen Zahlen, die mit einer beliebigen Indexmenge <math> \Theta </math> indiziert ist. Es bezeichne <math> P_\vartheta^n </math> das n-fache Produktmaß der Wahrscheinlichkeitsverteilung <math> P_\vartheta </math>.

Das statistische Modell sei gegeben als das <math>n</math>-fache Produktmodell

<math> (\R^n, \mathcal B(\R^n), (P_\vartheta^n)_{\vartheta \in \Theta}) </math>.

Sei <math> X=(X_1, X_2, \dots, X_n) </math>, wobei <math> X_i </math> die <math>i</math>-te Stichprobenvariable ist. Die <math> X_i </math> sind also unabhängig und identisch verteilt. Es bezeichne <math> \operatorname E_\vartheta</math> die Bildung des Erwartungswertes bezüglich <math> P_\vartheta </math> und

<math> m_j(\vartheta)= \operatorname E_\vartheta(X_1^j) </math>

das <math>j</math>-te Moment einer nach <math> P_\vartheta </math> verteilten Zufallsvariable bzw. des Wahrscheinlichkeitsmaßes <math> P_\vartheta </math>. Des Weiteren sei

<math> m_j(X)=\frac 1n \sum_{i=1}^n X_i^j </math>

das <math>j</math>-te Stichprobenmoment von <math> X </math>.

Methode

Geschätzt werden soll eine Funktion

<math> q \colon \Theta \to \R </math>,

die im Falle eines parametrischen Modells auch als Parameterfunktion bezeichnet wird. Es gelten die folgenden Voraussetzungen:

  • Es existiert ein <math> k \in \N </math>, so dass für alle <math> \vartheta \in \Theta </math> und alle <math> j \leq k </math> die Momente <math> m_j(\vartheta) </math> existieren.
  • Es existiert eine stetige Funktion <math> g \colon \R^k \to \R </math>, so dass
<math>q(\vartheta)=g\bigl( m_1(\vartheta), m_2(\vartheta), \dots, m_k(\vartheta)\bigr) </math>.

Die zu schätzende Funktion lässt sich also als Funktion der Momente darstellen.

Dann ist

<math> \hat q(X):= g\bigl(m_1(X),m_2(X),\dots, m_k(X)\bigr) = g\left(\frac 1n \sum_{i=1}^n X_i, \frac 1n \sum_{i=1}^n X_i^2, \dots, \frac 1n \sum_{i=1}^n X_i^k \right) </math>

eine Schätzfunktion für <math> q </math>.

Man erhält also eine Schätzfunktion, indem man in der zu schätzenden Funktion die Momente <math> m_j(\vartheta) </math> der Wahrscheinlichkeitsverteilungen durch die Stichprobenmomente <math> m_j(X) </math> ersetzt.

Beispiele

Schätzung des Erwartungswertes

Es soll der Erwartungswert einer Stichprobe geschätzt werden. Aufgrund mangelnder Informationen über die Struktur möglicher Wahrscheinlichkeitsverteilungen wählt man als Familie von Wahrscheinlichkeitsmaßen alle Wahrscheinlichkeitsmaße mit endlichem Erwartungswert, versehen mit einer beliebigen Indexmenge <math> \Theta </math>. Es handelt sich bei dem entsprechenden Produktmodell also um ein nichtparametrisches Modell. Aus der Indizierung kann keinerlei Schluss über den Erwartungswert gezogen werden oder umgekehrt.

Geschätzt werden soll der Erwartungswert, die zu schätzende Funktion ist also

<math> q(\vartheta)= \operatorname E_\vartheta (Y) </math>

Als Darstellung durch die Momente findet sich

<math> q(\vartheta)= m_1(\vartheta) </math>,

da der Erwartungswert genau das erste Moment ist. Per Definition der Wahrscheinlichkeitsverteilungen existiert dieser immer, es ist somit <math> k=1 </math>. Gesucht ist nun eine Darstellung von <math> q </math> als Verkettung des ersten Moments und einer unbekannten stetigen Funktion <math> g </math>. Diese ergibt sich trivialerweise als

<math> g(x)=x </math>,

da

<math> g(m_1(\vartheta))=m_1(\vartheta)=q(\vartheta) </math>.

Das Einsetzen des ersten Stichprobenmoments

<math> m_1(X)=\tfrac 1n \sum_{i=1}^n X_i </math>

in <math> g </math> liefert somit als Schätzfunktion für den Erwartungswert das Stichprobenmittel

<math> \hat q(X) = g(m_1(X))=\tfrac 1n \sum_{i=1}^n X_i =\overline X</math>

Schätzung der Varianz

Analog zu oben soll nun ohne weiteres Vorwissen die Varianz geschätzt werden. Die Familie von Wahrscheinlichkeitsmaßen ist demnach so gewählt, dass alle eine endliche Varianz besitzen und mit einer Indexmenge <math> \Theta </math> indiziert sind.

Zu schätzende Funktion ist die Varianz, also

<math> q(\theta)=\operatorname{Var}_\theta(Y) = \operatorname E_\vartheta(Y^2)- (\operatorname E_\vartheta(Y))^2 </math>

nach dem Verschiebungssatz. Es ist also

<math>q(\vartheta)= m_2(\vartheta)- m_1(\vartheta)^2 </math>.

Die Funktion <math> q </math> lässt sich also als Verkettung der ersten beiden Momente und der stetigen Funktion

<math> g(x_1, x_2)=x_2-x_1^2 </math>

schreiben. Substituiert man die Momente der Wahrscheinlichkeitsverteilungen durch die Stichprobenmomente, so erhält man

<math> \hat q(X)= m_2(X)- \left(m_1(X)\right)^2 = \tfrac 1n \sum_{i=1}^n X_i^2 - \left( \tfrac 1n \sum_{i=1}^n X_i\right)^2 = \tfrac 1n \sum_{i=1}^n (X_i - \overline X)^2 </math>

mit <math>\overline X </math> wie oben als Schätzfunktion die (nicht korrigierte) Stichprobenvarianz. Sie ist ein klassisches Beispiel für einen nicht erwartungstreuen Momentenschätzer.

Allgemeine Formulierung

Die oben genannte Fassung lässt sich wie folgt verallgemeinern:<ref name="Rüschendorf171" /> Gegeben sei eine indizierte Menge <math>(P_\vartheta)_{\vartheta \in \Theta} </math> von Wahrscheinlichkeitsmaßen auf <math> (\mathcal X, \mathcal A) </math> und sei <math> (\mathcal X^n, \mathcal A^n, (P^n_\vartheta)_{\vartheta \in \Theta} ) </math> das entsprechende Produktmodell. Sei für integrierbares <math> \varphi_j </math>

<math> a_j(\vartheta)= \operatorname E_\vartheta (\varphi_i(Y)) </math>

das j-te verallgemeinerte Moment und sei

<math> q(\vartheta)=g(a_1(\vartheta), a_2(\vartheta), \dots, a_n(\vartheta)) </math>

die zu schätzende Funktion. Dann ist

<math> \hat q(X)=g\left(\tfrac 1n \sum_{i=1}^n \varphi_1(X_i), \tfrac 1n \sum_{i=1}^n \varphi_2(X_i), \dots, \tfrac 1n \sum_{i=1}^n \varphi_k(X_i) \right) </math>

eine Schätzfunktion für <math> q </math>. Der oben beschriebene Spezialfall folgt mit <math> \varphi_j(x)=x^j </math>.

Eigenschaften

Für stetige Funktionen <math> g </math> sind Momentenschätzer stark konsistent. Dies folgt direkt aus dem starken Gesetz der großen Zahlen. Für reelle und differenzierbare <math> g </math> sind Momentenschätzer auch asymptotisch normal.<ref name="Rüschendorf172" /> Sie sind aber im Allgemeinen nicht erwartungstreu, wie die oben im Beispiel hergeleitete unkorrigierte Stichprobenvarianz zeigt.

Literatur

  • {{#invoke:Vorlage:Literatur|f}}
  • {{#invoke:Vorlage:Literatur|f}}

Einzelnachweise

<references> <ref name="eommoments"> {{#invoke:Vorlage:Literatur|f}}{{#if:|Vorlage:EoM/id}} </ref> <ref name="Czado77"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Rüschendorf171"> {{#invoke:Vorlage:Literatur|f}} </ref> <ref name="Rüschendorf172"> {{#invoke:Vorlage:Literatur|f}} </ref> </references>