Vergleich von Schätzern

In dieser interaktiven Anwendungen werden Sie lernen, wie man die Qualität eines Schätzers beurteilen und Schätzer miteinander vergleichen kann. Im Prinzip ist alles ganz einfach: Wir wollen gerne, dass der Schätzwert möglichst nahe bei dem unbekannten Parameter \(\theta\) liegt, den wir schätzen wollen. In der Praxis ist es leider etwas komplizierter, was vor allem daran liegt, dass wir den unbekannten Parameter gar nicht kennen und daher auch nicht beurteilen können, wie nahe ein gegebener Schätzwert zu diesem Parameter liegt. Stattdessen betrachten wir den Schätzer, also die Vorschrift, die jeder Stichprobe \(x_1,\ldots,x_n\) den Schätzwert \(t(x_1,\ldots,x_n)\) zuordnet. Wir fassen die Stichprobe als Realisierung von \(n\) unabhängigen und identisch verteilten Zufallsvariablen \(X_1,\ldots,X_n\) auf, sodass der Schätzwert eine Realisierung der Zufallsvariablen \[ \widehat{\theta}=t(X_1,\ldots,X_n) \] wird. Bei jeder Stichprobe erhalten wir einen anderen Wert für \(\widehat{\theta}\), der durch den Zufall der Stichprobe bestimmt wird. Entsprechend hat jeder Schätzer eine Verteilung, die mehr oder weniger nahe am unbekannten Parameter liegen kann.

Zur Quantifizerung des Abstands der Verteilung von \(\widehat{\theta}\) vom wahren Wert des Parameters \(\theta\) verwendet man vor allem zwei Kennzahlen. Zum einen ist dies der Bias (Verzerrung), der die Abweichung des Erwartungswerts des Schätzers vom wahren Parameterwert angibt, und zum anderen die mittlere quadratische Abweichung (MSE, für Mean Squared Error) des Schätzers vom wahren Parameterwert. Technisch sind diese beiden Kennzahlen wie folgt definiert \begin{eqnarray*} {\rm Bias}_{\hat{\theta}}(\theta)& = & E_\theta(\widehat{\theta})-\theta \\ {\rm MSE}_{\hat{\theta}}(\theta)& = & E_{\theta}(\widehat{\theta}-\theta)^2 \end{eqnarray*} Ein Schätzer heißt unverzerrt oder erwartungstreu, wenn der Bias gleich \(0\) ist, d. h. wenn der Schätzer im Mittel richtig liegt. Beide Kennzahlen kann man theoretisch berechnen, aber auch durch eine Simulation beliebig gut näherungsweise berechnen. Dazu simuliert man \(N\)-fach eine Stichprobe \(x_1,\ldots,x_n\) und berechnet jedes Mal den zugehörigen Schätzwert \(\widehat{\theta}\). Die Differenz zwischen dem Mittelwert der so erhaltenen Schätzwerte \(\widehat{\theta}_1, \ldots, \widehat{\theta}_N\) und dem wahren Parameter \(\theta\) gibt eine gute Näherung für den Bias, während \(\frac{1}{N} \sum_{i=1}^N (\widehat{\theta}_i-\theta)^2\) für große \(N\) gegen den \(\mathrm{MSE}\) konvergiert.

Konkret wollen wir in dieser interaktiven Anwendung zwei Schätzer für den Erwartungswert \(\mu\) einer Normalverteilung \(N(\mu,\sigma^2)\) vergleichen, nämlich das arithmetische Mittel \(\bar{x}=\frac{1}{n}\sum_{i=1}^n x_i\) und den Median \(\mathrm{med}(x_1,\ldots,x_n)\).

Beobachtungsaufträge
  1. Simulieren Sie den Vorgang der Stichprobenziehung für eine selbstgewählte Stichprobengröße \(n\) und \(N = 1000\). Vergleichen Sie den Median und das arithmetische Mittel. Was fällt Ihnen auf? Welcher der beiden Schätzer hat die geringere mittlere quadratische Abweichung?
  2. Wiederholen Sie das oben skizzierte Experiment bei unterschiedlichen Parameterwerten und berechnen Sie jedesmal den Quotienten der beiden mittleren quadratischen Abweichungen. Was fällt Ihnen auf?

Bei normalverteilten Daten hat das arithmetische Mittel eine deutlich kleinere MSE als der Median. Man kann sogar zeigen, dass das arithmetische Mittel unter allen erwartungstreuen Schätzern die kleinste MSE hat.

Die MSE hängt bei beiden Schätzern nicht von \(\mu\) ab, sondern nur von \(\sigma^2\). Genauer gesagt, ist die MSE jeweils proportional zu \(\sigma\). Der Quotient der beiden theoretischen MSE ist unabhängig von \(\mu\) und \(\sigma^2\). Man kann zeigen, dass für sehr große Stichproben \(\mathrm{MSE}(Median) \approx \frac{\pi}{2} \cdot \mathrm{MSE}(\bar{X})\).

Arithmetisches Mittel
Median
Stichprobenvarianz
ML-Schätzer für \(\sigma^2\)