Stichprobenverteilung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

In der Statistik und Wahrscheinlichkeitstheorie wird die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion auch als Stichprobenverteilung der Stichprobenfunktion bezeichnet.

Zur Bezeichnung „Stichprobenverteilung“[Bearbeiten | Quelltext bearbeiten]

Die Bezeichnung „Stichprobenverteilung“ ist zwar gebräuchlich,[1][2] kann aber missverständlich sein, da damit nicht die Verteilung einer Zufallsstichprobe oder der möglichen Stichprobenwerte bezeichnet wird. Während ‚Verteilung der Stichprobenfunktion‘ unmissverständlich ist, kann die Bezeichnung ‚Stichprobenverteilung der Stichprobenfunktion‘ so missverstanden werden, dass es noch andere Verteilungen einer Stichprobenfunktion gibt. Diese beiden möglichen Missverständnisse können den Grund dafür bilden, dass viele Autoren die Bezeichnung Stichprobenverteilung völlig vermeiden und einfach von der Verteilung der Stichprobenfunktion sprechen.[3]

Der Begriff sampling distribution wurde 1922 von Ronald Aylmer Fisher beiläufig eingeführt[4] und in den Jahren 1928 und 1929 mit der Verwendung im Titel von zwei Aufsätzen[5][6] etabliert.[7]

Zu unterscheiden ist die Stichprobenverteilungsfunktion, eine seltene Bezeichnung für die empirische Verteilungsfunktion.

Bestimmung der Stichprobenverteilung[Bearbeiten | Quelltext bearbeiten]

Wenn die Stichprobenvariablen einer Zufallsstichprobe vom Umfang sind und eine Stichprobenfunktion ist, dann ist eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung als Stichprobenverteilung von bezeichnet wird. Die Stichprobenverteilung der Stichprobenfunktion hängt über die (messbare) Funktion von der Wahrscheinlichkeitsverteilung des Stichprobenvektors ab.

Häufig interessierende Stichprobenfunktionen sind

  • die Summenvariable , die in diesem Zusammenhang auch Stichprobensumme heißt,
  • das arithmetische Mittel , das in diesem Zusammenhang auch Stichprobenmittel heißt,
  • die mittlere quadratische Abweichung vom Stichprobenmittel , die in diesem Zusammenhang auch auch Stichprobenvarianz heißt,
  • das Minimum und,
  • das Maximum .

Allgemeines Vorgehen[Bearbeiten | Quelltext bearbeiten]

Wenn die Wahrscheinlichkeitsverteilung des Stichprobenvektors und die Funktion gegeben ist, dann ergibt sich die Verteilungsfunktion – und mit dieser die Stichprobenverteilung – der Stichprobenfunktion als

Dabei ist .

Wenn der häufige Fall vorliegt, dass die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind und jede Stichprobenvariable die Wahrscheinlichkeitsverteilung hat, dann ist die Wahrscheinlichkeitsverteilung des Zufallsvektor durch die -fache Produktverteilung gegeben.

Bei Anwendungen in der parametrischen Statistik mit stochastisch unabhängigen und identisch verteilten Stichprobenvariablen ist typischerweise die Verteilung einer Stichprobenvariablen nicht exakt bekannt, sondern durch eine parametrische Familie eingeschränkt. In diesem Fall ergibt sich auch für eine parametrische Familie von Verteilungen und es ergibt sich nicht nur eine Stichprobenverteilung, sondern eine durch den Parameter indizierte Familie von Stichprobenverteilungen der Stichprobenfunktion .

Vorgehen in speziellen Fällen[Bearbeiten | Quelltext bearbeiten]

Für spezielle Verteilungen der Stichprobenvariablen und spezielle Stichprobenfunktionen sind Zusammenhänge bekannt, mit deren Hilfe die Stichprobenverteilung der jeweiligen Stichprobenfunktion angegeben werden kann, ohne den oben angegebenen allgemeinen Weg zu beschreiten.

Unter der Voraussetzung, dass die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind, gilt z. B.:

.
  • Die Stichprobenverteilung des Minimums und des Maximums Bernoulli-verteilter Stichprobenvariablen ist eine Bernoulli-Verteilung;
  • Die Stichprobenverteilung der Summe normalverteilter Stichprobenvariablen ist eine Normalverteilung;
.
  • Die Stichprobenverteilung des Stichprobenmittels normalverteilter Stichprobenvariablen ist eine Normalverteilung;
    Dichtefunktionen der Stichprobenverteilung des arithmetischen Mittels stochastisch unabhängiger standardnormalverteilter Zufallsvariablen für unterschiedliche Stichprobenumfänge . Mit größerem Stichprobenumfang wird die Varianz kleiner und die Dichtefunktion ist enger um die Stelle konzentriert. Die Dichtefunktion der Stichprobenvariable ist eine Dirac-Folge.
.
  • Die Stichprobenverteilung des Produkts lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
;
  • Die Stichprobenverteilung des geometrischen Mittels lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
.
  • Die Stichprobenverteilung der Stichprobenvarianz normalverteilter Stichprobenvariablen ist durch eine Chi-Quadrat-Verteilung mit Freiheitsgraden bestimmt,
.

Es sind viele weitere ähnliche Zusammenhänge bekannt, die es ermöglichen, die Stichprobenverteilung bestimmter Stichprobenfunktionen unmittelbar anzugeben. Für die Stichprobenverteilung der Summe von Stichprobenvariablen anderer Verteilungen siehe auch Reproduktivitätseigenschaft.

Kennzahlen der Stichprobenverteilung[Bearbeiten | Quelltext bearbeiten]

Wenn die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind und Kennzahlen der Verteilung der Stichprobenvariablen bekannt sind, können Aussagen über Kennzahlen einer Stichprobenverteilung gemacht werden, z. B. gelten für den Erwartungswert und die Varianz der Summenvariable und des arithmetischen Mittels die Aussagen:

Aus folgt

und

.

Aus folgt

und

Approximative Stichprobenverteilung[Bearbeiten | Quelltext bearbeiten]

Wenn die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind und wenn und gilt, dann sind für hinreichend großes die Summe und das arithmetische Mittel approximativ normalverteilt (siehe Zentraler Grenzwertsatz, Gesetz der großen Zahlen, Gleichung von Bienaymé). Die Stichprobenverteilungen von und sind also näherungsweise durch Normalverteilungen charakterisierbar;

Diese Approximationen beruhen auf dem Zentralen Grenzwertsatz der Statistik, der besagt, dass die Folge der standardisierten Zufallsvariablen

für in Verteilung gegen eine standardnormalverteilte Zufallsvariable konvergiert. Die Approximation der Verteilung von durch eine Standardnormalverteilung ist dann äquivalent zu den angegebenen Approximationen für die Stichprobenverteilungen von und .

Statistische Schätzung der Stichprobenverteilung[Bearbeiten | Quelltext bearbeiten]

Wenn die Stichprobenwerte aus einer hinreichend große Zufallsstichprobe vorliegen, kann die empirische Verteilung der Stichprobenwerte als statistische Schätzung der Verteilung der Grundgesamtheit angesehen werden. Die Stichprobenverteilung einer beliebige Stichprobenfunktion kann dann ohne parametrisches Modell mit Hilfe des Bootstrap-Verfahrens geschätzt werden, ohne dass die Verteilung der Stichprobenvariablen bekannt sein muss. Jedoch muss allgemein mathematisch gezeigt werden, dass die Bootstrap-Stichprobenverteilungen mit steigender Zahl der Bootstrap-Stichproben gegen die Stichprobenverteilung konvergieren. Für das Beispiel im Bild ist die Bootstrap-Stichprobenverteilung um zentriert, und im Allgemeinen nicht um , hat jedoch die zu erwartende richtige Streuungsbreite.

Anwendungsbereiche[Bearbeiten | Quelltext bearbeiten]

Die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion dient in der statistischen Schätz- und Testtheorie zur Gewinnung von Aussagen über unbekannte Parameter in der Grundgesamtheit aufgrund einer Stichprobe.

Statistische Schätztheorie[Bearbeiten | Quelltext bearbeiten]

In der statistischen Schätztheorie ist die interessierende Stichprobenverteilung häufig die Wahrscheinlichkeitsverteilung einer Schätzfunktion für einen unbekannten Parameter der Grundgesamtheit.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Sind die Stichprobenvariablen stochastisch unabhängig und identisch verteilte Bernoulli-Variablen mit dem unbekannten Bernoulli-Parameter , dann ist die Stichprobenverteilung der Summenvariablen eine Binomialverteilung mit den Parametern und . Die Stichprobenverteilung der Stichprobenvariablen hängt vom unbekannten Parameter ab.

Statistische Testtheorie[Bearbeiten | Quelltext bearbeiten]

In der statistischen Testtheorie hängt die Verteilung einer Teststatistik typischerweise von den Stichprobenvariablen , dem Stichprobenumfang und einem spezifizierten Wert eines unbekannten Parameters der Grundgesamtheit ab.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Sind die Stichprobenvariablen stochastisch unabhängig und identisch normalverteilt mit unbekanntem Parameter und bekannter Varianz , dann ist die Zufallsvariable

die Teststatistik eines Gauß-Tests mit den Hypothesen und . Die Stichprobenverteilung der Teststatistik ist die Normalverteilung mit dem Erwartungswert und der Varianz 1,

Die Stichprobenverteilung der Stichprobenfunktion hängt vom unbekannten Parameter ab. Wenn die Nullhypothese richtig ist, also gilt, dann ist standardnormalverteilt. Diese spezielle Stichprobenverteilung heißt dann auch die Verteilung der Teststatistik unter .

Stichproben aus endlichen Grundgesamtheiten[Bearbeiten | Quelltext bearbeiten]

Im statistischen Methodengebiet der Stichproben aus endlichen Grundgesamtheiten sind die Stichprobenvariablen typischerweise zwar identisch verteilt, aber nicht stochastisch unabhängig, wenn Schemata der Stichprobenziehung berücksichtigt werden, die nicht dem Schema Ziehen mit Zurücklegen entsprechen, das zu stochastisch unabhängigen und identisch verteilten Stichprobenvariablen führt.

Bei vielen Anwendungen erfolgt ein Ziehen ohne Zurücklegen, bei dem die Stichprobenvariablen zwar identisch verteilt, aber nicht stochastisch unabhängig sind. Wenn die Grundgesamtheit aus unterscheidbaren statistischen Einheiten in der Menge besteht, so gibt es beim Ziehen einer Stichprobe vom Umfang ohne Zurücklegen insgesamt mögliche Stichproben, nämlich Paare in der Menge

der möglichen Stichproben. Durch dieses Ziehungsschema sind den möglichen Stichproben die Auswahlwahrscheinlichkeiten

zugeordnet. Wenn den Einheiten in die Werte eines statistischen Merkmals zugeordnet sind, so wird in einer Stichprobe das Wertepaar beobachtet. Die Stichprobenvariablen , die die zufälligen Werte bei der ersten und zweiten Ziehung beschreiben, haben die gemeinsame zweidimensionale diskrete Wahrscheinlichkeitsverteilung

Für die Stichprobenfunktion ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

Für die Stichprobenfunktion ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

Beispiel[Bearbeiten | Quelltext bearbeiten]

Für eine Grundgesamt mit Einheiten und ergeben sich beim Ziehen ohne Zurücklegen die verschiedenen Stichproben vom Umfang . Dies haben jeweils die Auswahlwahrscheinlichkeit . Die zugehörigen Beobachtungswerte sind , und . Die gemeinsame diskrete Wahrscheinlichkeitsverteilung von ist

Die Stichprobenverteilung der Stichprobenfunktion ist

Die Stichprobenverteilung der Stichprobenfunktion ist

Bayesianische Inferenzstatistik[Bearbeiten | Quelltext bearbeiten]

Bei der bayesianischen Inferenz wird die A-priori-Verteilung, die auf dem Parameterraum eines zu schätzenden Parameters definiert ist, unter Berücksichtigung der Wahrscheinlichkeitsverteilung des Stichprobenvektors und unter Verwendung eines realisierten und beobachteten Wertes des Stichprobenvektors in die A-posteriori-Verteilung transformiert. Dabei ist die A-posteriori-Verteilung proportional zum Produkt aus A-priori-Verteilung und der Likelihoodfunktion. Die Likelihoodfunktion gibt im diskreten Fall die Wahrscheinlichkeit und im stetigen Fall die Wahrscheinlichkeitsdichte des beobachten Wertes für alternative Parameter an und wird als Funktion auf dem Parameterraum interpretiert.

Aus der A-posteriori-Verteilung können verschiedene Schätzwerte für den zu schätzenden Parameter gewonnen werden, indem z. B. im stetigen Fall der Wert mit maximalen Dichte bzw. im diskreten Fall der Wert mit maximaler Wahrscheinlichkeit, der Median oder der Erwartungswert der A-posteriori-Verteilung als Schätzwert verwendet werden. Ein solcher aus der A-posteriori-Verteilung gewonnener Schätzwert hängt von dem realisierten und beobachteten Wert des Stichprobenvektors ab. Ersetzt man diesen durch den zufälligen Stichprobenvektor so ergibt sich die zu dem jeweiligen Schätzwert gehörige Schätzfunktion, deren Wahrscheinlichkeitsverteilung eine Stichprobenverteilung ist.

Falls eine suffiziente Stichprobenfunktion (suffiziente Statistik) existiert, kann die Stichprobenverteilung dieser Stichprobenfunktion an die Stelle der Verteilung des Stichprobenvektors treten, ohne dass sich die resultierende A-posteriori-Verteilung ändert.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Die Stichprobenvariablen seien stochastisch unabhängig und identisch Bernoulli-verteilt mit unbekanntem Bernoulli-Parameter . Die Wahrscheinlichkeitsverteilung des Stichprobenvektors ist dann

wobei . Wenn die gegebene Dichtefunktion einer A-Priori-Verteilung auf dem Intervall ist und ein realisierter und beobachteter Wert des Suchprobenvektors ist, dann ist die Dichtefunktion der A-Posteriori-Verteilung proportional zum Produkt aus und der Likelihoodfunktion

Es gilt also

.

Damit ist die A-priori-Verteilung spezifiziert. Dies kann für bestimmte Anwendungen ausreichend sein. Um einen Schätzwert für den Parameter zu erhalten, muss in einem zweiten Schritt eine Kennzahl der A-Posterior-Verteilung bestimmt werden.

Wenn konstant ist – dies ist die Dichtefunktion einer Beta-Verteilung mit den Parametern –, dann ist die A-priori-Verteilung proportional zur Likelihoodfunktion und die Stelle mit maximaler A-Priori-Dichte ist der Maximum-Likelihood-Schätzwert für . Die zugehörige Schätzfunktion für ist mit . Die A-Priori-Verteilung ist eine Beta-Verteilung mit den Parametern und und dem Erwartungswert , so dass ein alternativer bayesianischer Schätzwert mit der zugehörigen Schätzfunktion ist. Die Stichprobenverteilungen beider Schätzfunktionen sind durch eine Binomialverteilung bestimmt, da binomialverteilt ist,.

Die Summe der Stichprobenvariablen ist eine suffiziente Stichprobenfunktion für den Parameter mit der Stichprobenverteilung

und der Likelihoodfunktion

Da sich die Likelihoodfunktionen und nur durch einen konstanten Faktor unterscheiden, gilt auch

.

Die bayessche Inferenz beruhend auf der Verteilung des Stichprobenvektors und auf der Stichprobenverteilung der suffizienten Stichprobenfunktion führt zur selben A-Posteriori-Verteilung.

Zu diesem Beispiel siehe auch Bayessche Statistik#Bayessche Inferenz am Beispiel des Münzwurfes und Suffiziente Statistik#Beispiel: Binomialverteilung.

Anwendung[Bearbeiten | Quelltext bearbeiten]

Anwendung findet die Stichprobenverteilung in der Herleitung von Konfidenzintervallen, siehe dort.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Rainer Schlittgen: Einführung in die Statistik – Analyse und Modellierung von Daten. 12., korrigierte Auflage. Oldenbourg Verlag, München 2012, ISBN 978-3-486-71524-8, S. 277, doi:10.1524/9783486715910.
  2. Jürgen Bortz, Christof Schuster: Statistik für Human- und Sozialwissenschaftler. 7., vollständig überarbeitete und erweiterte Auflage. Springer, Berlin 2010, ISBN 978-3-642-12769-4, 6.2 Stichprobenverteilung, S. 82.
  3. Beispielsweise gibt es keinen Eintrag Stichprobenverteilung und keine Verwendung des Begriffs in:
  4. Ronald A. Fisher: The goodness of fit of regression formulae, and the distribution of regression coefficients. In: Journal of the Royal Statistical Society. Band 85, Nr. 4, 1922, S. 597–612, S. 598, JSTOR:2341124.
  5. Ronald A. Fisher: The general sampling distribution of the multiple correlation coefficient. In: Proceedings of Royal Society A. Band 121, 1928, S. 654–673, doi:10.1098/rspa.1928.0224.
  6. Ronald A. Fisher: Moments and Product Moments of Sampling Distributions. In: Proceedings of the London Mathematical Society, Series 2. Band 30, 1929.
  7. Earliest Known Uses of Some of the Words of Mathematics – Sampling Distribution. Abgerufen am 17. Mai 2024.