Stichprobenverteilung

Aus testwiki
Version vom 10. Januar 2025, 16:13 Uhr von imported>Luckywiki1234 (growthexperiments-addlink-summary-summary:3|0|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der Statistik und Wahrscheinlichkeitstheorie wird die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion auch als Stichprobenverteilung der Stichprobenfunktion bezeichnet.

Zur Bezeichnung „Stichprobenverteilung“

Die Bezeichnung „Stichprobenverteilung“ ist zwar gebräuchlich,[1][2] kann aber missverständlich sein, da damit nicht die Verteilung einer Zufallsstichprobe oder der möglichen Stichprobenwerte bezeichnet wird. Während ‚Verteilung der Stichprobenfunktion‘ unmissverständlich ist, kann die Bezeichnung ‚Stichprobenverteilung der Stichprobenfunktion‘ so missverstanden werden, dass es noch andere Verteilungen einer Stichprobenfunktion gibt. Diese beiden möglichen Missverständnisse können den Grund dafür bilden, dass viele Autoren die Bezeichnung Stichprobenverteilung völlig vermeiden und einfach von der Verteilung der Stichprobenfunktion sprechen.[3]

Der Begriff sampling distribution wurde 1922 von Ronald Aylmer Fisher beiläufig eingeführt[4] und in den Jahren 1928 und 1929 mit der Verwendung im Titel von zwei Aufsätzen[5][6] etabliert.[7]

Zu unterscheiden ist die Stichprobenverteilungsfunktion, eine seltene Bezeichnung für die empirische Verteilungsfunktion.

Bestimmung der Stichprobenverteilung

Wenn X1,,Xn die Stichprobenvariablen einer Zufallsstichprobe vom Umfang n sind und G=g(X1,,Xn) eine Stichprobenfunktion ist, dann ist G eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung als Stichprobenverteilung von G bezeichnet wird. Die Stichprobenverteilung der Stichprobenfunktion G hängt über die (messbare) Funktion g von der Wahrscheinlichkeitsverteilung des Stichprobenvektors 𝐗=(X1,,Xn) ab.

Häufig interessierende Stichprobenfunktionen sind

Allgemeines Vorgehen

Wenn die Wahrscheinlichkeitsverteilung des Stichprobenvektors 𝐗 und die Funktion g:n gegeben ist, dann ergibt sich die Verteilungsfunktion – und mit dieser die Stichprobenverteilung – der Stichprobenfunktion G als

P(Gx)=P(𝐗g1((,x]) für alle x.

Dabei ist g1((,x])={𝐱ng(𝐱)(,x]}.

Wenn der häufige Fall vorliegt, dass die Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind und jede Stichprobenvariable die Wahrscheinlichkeitsverteilung PX hat, dann ist die Wahrscheinlichkeitsverteilung des Zufallsvektor 𝐗 durch die n-fache Produktverteilung PXn gegeben.

Bei Anwendungen in der parametrischen Statistik mit stochastisch unabhängigen und identisch verteilten Stichprobenvariablen ist typischerweise die Verteilung einer Stichprobenvariablen nicht exakt bekannt, sondern durch eine parametrische Familie (PX,θ)θΘ eingeschränkt. In diesem Fall ergibt sich auch für 𝐗 eine parametrische Familie (PX,θn)θΘ von Verteilungen und es ergibt sich nicht nur eine Stichprobenverteilung, sondern eine durch den Parameter θ indizierte Familie von Stichprobenverteilungen der Stichprobenfunktion G.

Vorgehen in speziellen Fällen

Für spezielle Verteilungen der Stichprobenvariablen und spezielle Stichprobenfunktionen sind Zusammenhänge bekannt, mit deren Hilfe die Stichprobenverteilung der jeweiligen Stichprobenfunktion angegeben werden kann, ohne den oben angegebenen allgemeinen Weg zu beschreiten.

Unter der Voraussetzung, dass die Stichprobenvariablen X1,,Xn stochastisch unabhängig und identisch verteilt sind, gilt z. B.:

XiBer(p)i=1nXiBin(n,p).
  • Die Stichprobenverteilung des Minimums und des Maximums Bernoulli-verteilter Stichprobenvariablen ist eine Bernoulli-Verteilung;
XiBer(p)min{X1,,Xn}Ber(pn),
XiBer(p)max{X1,,Xn}Ber(1(1p)n).
  • Die Stichprobenverteilung der Summe normalverteilter Stichprobenvariablen ist eine Normalverteilung;
XiN(μ,σ2)i=1nXiN(nμ,nσ2).
  • Die Stichprobenverteilung des Stichprobenmittels normalverteilter Stichprobenvariablen ist eine Normalverteilung;
    Dichtefunktionen der Stichprobenverteilung des arithmetischen Mittels X¯n stochastisch unabhängiger standardnormalverteilter Zufallsvariablen für unterschiedliche Stichprobenumfänge n. Mit größerem Stichprobenumfang n wird die Varianz Var[X¯n]=1/n kleiner und die Dichtefunktion ist enger um die Stelle μ=0 konzentriert. Die Dichtefunktion der Stichprobenvariable X¯n ist eine Dirac-Folge.
XiN(μ,σ2)X¯nN(μ,σ2/n).
  • Die Stichprobenverteilung des Produkts lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
XiLN(μ,σ2)i=1nXiLN(nμ,nσ2);
  • Die Stichprobenverteilung des geometrischen Mittels lognormalverteilter Stichprobenvariablen ist eine Lognormalverteilung;
XiLN(μ,σ2)i=1nXinLN(μ,σ2/n).
  • Die Stichprobenverteilung der Stichprobenvarianz Sn2 normalverteilter Stichprobenvariablen ist durch eine Chi-Quadrat-Verteilung mit n1 Freiheitsgraden bestimmt,
XiN(μ,σ2)nSnσ2χ2(n1).

Es sind viele weitere ähnliche Zusammenhänge bekannt, die es ermöglichen, die Stichprobenverteilung bestimmter Stichprobenfunktionen unmittelbar anzugeben. Für die Stichprobenverteilung der Summe von Stichprobenvariablen anderer Verteilungen siehe auch Reproduktivitätseigenschaft.

Kennzahlen der Stichprobenverteilung

Wenn die Stichprobenvariablen X1,,Xn stochastisch unabhängig und identisch verteilt sind und Kennzahlen der Verteilung der Stichprobenvariablen bekannt sind, können Aussagen über Kennzahlen einer Stichprobenverteilung gemacht werden, z. B. gelten für den Erwartungswert und die Varianz der Summenvariable i=1nXi und des arithmetischen Mittels X¯n die Aussagen:

Aus E[Xi]=μ folgt

E[i=1nXi]=n

und

E[X¯n]=μ.

Aus Var[Xi]=σ2< folgt

Var[i=1nXi]=nσ2,
Var[X¯n]=σ2n

und

E[Sn2]=n1nσ2.

Approximative Stichprobenverteilung

Wenn die Stichprobenvariablen X1,,Xn stochastisch unabhängig und identisch verteilt sind und wenn E[Xi]=μ und 0<Var[Xi]=σ2< gilt, dann sind für hinreichend großes n die Summe i=1nXi und das arithmetische Mittel X¯n approximativ normalverteilt (siehe Zentraler Grenzwertsatz, Gesetz der großen Zahlen, Gleichung von Bienaymé). Die Stichprobenverteilungen von i=1nXi und X¯n sind also näherungsweise durch Normalverteilungen charakterisierbar;

Verteilung[i=1nXi]N(nμ,nσ2),Verteilung[X¯n]N(μ,σ2n).

Diese Approximationen beruhen auf dem Zentralen Grenzwertsatz der Statistik, der besagt, dass die Folge (Zn)n der standardisierten Zufallsvariablen

Zn:=i=1nXiμnnσ2=nX¯nμσ

für n in Verteilung gegen eine standardnormalverteilte Zufallsvariable ZN(0,1) konvergiert. Die Approximation der Verteilung von Zn durch eine Standardnormalverteilung ist dann äquivalent zu den angegebenen Approximationen für die Stichprobenverteilungen von i=1nXi und X¯n.

Statistische Schätzung der Stichprobenverteilung

Wenn die Stichprobenwerte x1,,xn aus einer hinreichend große Zufallsstichprobe vorliegen, kann die empirische Verteilung der Stichprobenwerte als statistische Schätzung der Verteilung der Grundgesamtheit angesehen werden. Die Stichprobenverteilung einer beliebige Stichprobenfunktion kann dann ohne parametrisches Modell mit Hilfe des Bootstrap-Verfahrens geschätzt werden, ohne dass die Verteilung der Stichprobenvariablen bekannt sein muss. Jedoch muss allgemein mathematisch gezeigt werden, dass die Bootstrap-Stichprobenverteilungen mit steigender Zahl der Bootstrap-Stichproben gegen die Stichprobenverteilung konvergieren. Für das Beispiel im Bild ist die Bootstrap-Stichprobenverteilung um μ^=1ni=1nxi zentriert, und im Allgemeinen nicht um μ, hat jedoch die zu erwartende richtige Streuungsbreite.

Anwendungsbereiche

Die Wahrscheinlichkeitsverteilung einer Stichprobenfunktion dient in der statistischen Schätz- und Testtheorie zur Gewinnung von Aussagen über unbekannte Parameter in der Grundgesamtheit aufgrund einer Stichprobe.

Statistische Schätztheorie

In der statistischen Schätztheorie ist die interessierende Stichprobenverteilung häufig die Wahrscheinlichkeitsverteilung einer Schätzfunktion für einen unbekannten Parameter der Grundgesamtheit. Vorlage:Hauptartikel

Beispiel

Sind die Stichprobenvariablen X1,,Xn stochastisch unabhängig und identisch verteilte Bernoulli-Variablen mit dem unbekannten Bernoulli-Parameter 0<p<1, dann ist die Stichprobenverteilung der Summenvariablen Sn eine Binomialverteilung mit den Parametern n und p. Die Stichprobenverteilung der Stichprobenvariablen Sn hängt vom unbekannten Parameter p ab.

Statistische Testtheorie

In der statistischen Testtheorie hängt die Verteilung einer Teststatistik typischerweise von den Stichprobenvariablen X1,,Xn, dem Stichprobenumfang n und einem spezifizierten Wert eines unbekannten Parameters der Grundgesamtheit ab.

Beispiel

Sind die Stichprobenvariablen stochastisch unabhängig und identisch normalverteilt mit unbekanntem Parameter μ und bekannter Varianz σ2=1, dann ist die Zufallsvariable

Tn=n(X¯nμ0)

die Teststatistik eines Gauß-Tests mit den Hypothesen H0:μ=μ0 und H1:μμ0. Die Stichprobenverteilung der Teststatistik Tn ist die Normalverteilung mit dem Erwartungswert μμ0 und der Varianz 1,

TnN(μμ0,1).

Die Stichprobenverteilung der Stichprobenfunktion Tn hängt vom unbekannten Parameter μ ab. Wenn die Nullhypothese richtig ist, also μμ0 gilt, dann ist Tn standardnormalverteilt. Diese spezielle Stichprobenverteilung heißt dann auch die Verteilung der Teststatistik unter H0.

Stichproben aus endlichen Grundgesamtheiten

Im statistischen Methodengebiet der Stichproben aus endlichen Grundgesamtheiten sind die Stichprobenvariablen typischerweise zwar identisch verteilt, aber nicht stochastisch unabhängig, wenn Schemata der Stichprobenziehung berücksichtigt werden, die nicht dem Schema Ziehen mit Zurücklegen entsprechen, das zu stochastisch unabhängigen und identisch verteilten Stichprobenvariablen führt.

Bei vielen Anwendungen erfolgt ein Ziehen ohne Zurücklegen, bei dem die Stichprobenvariablen zwar identisch verteilt, aber nicht stochastisch unabhängig sind. Wenn die Grundgesamtheit aus N unterscheidbaren statistischen Einheiten in der Menge {1,2,,N} besteht, so gibt es beim Ziehen einer Stichprobe vom Umfang n=2 ohne Zurücklegen insgesamt N(N1) mögliche Stichproben, nämlich Paare ω=(ω1,ω2) in der Menge

Ω={(ω1,ω2)ω1,ω2{1,,N},ω1ω2}

der möglichen Stichproben. Durch dieses Ziehungsschema sind den möglichen Stichproben die Auswahlwahrscheinlichkeiten

p(ω)=1N(N1) für alle ωΩ

zugeordnet. Wenn den Einheiten in {1,2,,N} die Werte (ξ1,,ξN)N eines statistischen Merkmals zugeordnet sind, so wird in einer Stichprobe ω=(ω1,ω2)Ω das Wertepaar (ξω1,ξω2) beobachtet. Die Stichprobenvariablen (X1,X2), die die zufälligen Werte bei der ersten und zweiten Ziehung beschreiben, haben die gemeinsame zweidimensionale diskrete Wahrscheinlichkeitsverteilung

P((X1,X2)=(x1,x2))=#{ωΩ(ξω1,ξω2)=(x1,x2)}N(N1),(x1,x2)2.

Für die Stichprobenfunktion S=X1+X2 ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

P(S=x)=#{ωΩξω1+ξω2=x}N(N1),x.

Für die Stichprobenfunktion X¯=(X1+X2)/2 ergibt sich die Stichprobenverteilung als die eindimensionale diskrete Wahrscheinlichkeitsverteilung

P(X¯=x)=#{ωΩ(ξω1+ξω2)/2=x}N(N1),x.

Beispiel

Für eine Grundgesamt mit N=3 Einheiten und ξ1=10,ξ2=16,ξ3=10 ergeben sich beim Ziehen ohne Zurücklegen die N(N1)=6 verschiedenen Stichproben (1,2),(1,3),(2,1),(2,3),(3,1),(3,2) vom Umfang n=2. Dies haben jeweils die Auswahlwahrscheinlichkeit 1/6. Die zugehörigen Beobachtungswerte sind (ξ1,ξ2)=(ξ3,ξ2)=(10,16), (ξ1,ξ3)=(ξ3,ξ1)=(10,10) und (ξ2,ξ1)=(ξ2,ξ3)=(16,10). Die gemeinsame diskrete Wahrscheinlichkeitsverteilung von (X1,X2) ist

P((X1,X2)=(x1,x2))={26=13,falls (x1,x2){(10,16),(10,10),(16,10)}0sonst.

Die Stichprobenverteilung der Stichprobenfunktion S=X1+X2 ist

P(S=26)=46=23,P(S=20)=26=13.

Die Stichprobenverteilung der Stichprobenfunktion X¯=(X1+X2)/2 ist

P(X¯=13)=23,P(X¯=10)=13.

Bayesianische Inferenzstatistik

Bei der bayesianischen Inferenz wird die A-priori-Verteilung, die auf dem Parameterraum eines zu schätzenden Parameters definiert ist, unter Berücksichtigung der Wahrscheinlichkeitsverteilung des Stichprobenvektors 𝐗=(X1,,Xn) und unter Verwendung eines realisierten und beobachteten Wertes 𝐱=(x1,,xn) des Stichprobenvektors in die A-posteriori-Verteilung transformiert. Dabei ist die A-posteriori-Verteilung proportional zum Produkt aus A-priori-Verteilung und der Likelihoodfunktion. Die Likelihoodfunktion gibt im diskreten Fall die Wahrscheinlichkeit und im stetigen Fall die Wahrscheinlichkeitsdichte des beobachten Wertes 𝐱 für alternative Parameter an und wird als Funktion auf dem Parameterraum interpretiert.

Aus der A-posteriori-Verteilung können verschiedene Schätzwerte für den zu schätzenden Parameter gewonnen werden, indem z. B. im stetigen Fall der Wert mit maximalen Dichte bzw. im diskreten Fall der Wert mit maximaler Wahrscheinlichkeit, der Median oder der Erwartungswert der A-posteriori-Verteilung als Schätzwert verwendet werden. Ein solcher aus der A-posteriori-Verteilung gewonnener Schätzwert hängt von dem realisierten und beobachteten Wert 𝐱 des Stichprobenvektors ab. Ersetzt man diesen durch den zufälligen Stichprobenvektor 𝐗 so ergibt sich die zu dem jeweiligen Schätzwert gehörige Schätzfunktion, deren Wahrscheinlichkeitsverteilung eine Stichprobenverteilung ist.

Falls eine suffiziente Stichprobenfunktion (suffiziente Statistik) existiert, kann die Stichprobenverteilung dieser Stichprobenfunktion an die Stelle der Verteilung des Stichprobenvektors treten, ohne dass sich die resultierende A-posteriori-Verteilung ändert.

Beispiel

Die Stichprobenvariablen X1,,Xn seien stochastisch unabhängig und identisch Bernoulli-verteilt mit unbekanntem Bernoulli-Parameter 0<p<1. Die Wahrscheinlichkeitsverteilung des Stichprobenvektors 𝐗=(X1,,Xn) ist dann

Pp(𝐗=𝐱)={pk(1p)nk,falls 𝐱=(x1,,xn){0,1}n0sonst,

wobei k:=i=1nxi. Wenn f0 die gegebene Dichtefunktion einer A-Priori-Verteilung auf dem Intervall (0,1) ist und 𝐱 ein realisierter und beobachteter Wert des Suchprobenvektors 𝐗=(X1,,Xn) ist, dann ist die Dichtefunktion f1 der A-Posteriori-Verteilung proportional zum Produkt aus f0 und der Likelihoodfunktion

L𝐱(p):=Pp(𝐗=𝐱),0<p<1.

Es gilt also

f1(p|𝐱)=cL𝐱(p)f0(p),0<p<1.

Damit ist die A-priori-Verteilung spezifiziert. Dies kann für bestimmte Anwendungen ausreichend sein. Um einen Schätzwert für den Parameter p zu erhalten, muss in einem zweiten Schritt eine Kennzahl der A-Posterior-Verteilung bestimmt werden.

Wenn f0 konstant ist – dies ist die Dichtefunktion einer Beta-Verteilung mit den Parametern α=β=1 –, dann ist die A-priori-Verteilung proportional zur Likelihoodfunktion und die Stelle mit maximaler A-Priori-Dichte ist der Maximum-Likelihood-Schätzwert k/n für p. Die zugehörige Schätzfunktion für p ist K/n mit K=i=1nXi. Die A-Priori-Verteilung ist eine Beta-Verteilung mit den Parametern α=1+k und β=1+n und dem Erwartungswert (k+1)/(n+2), so dass (k+1)/(n+2) ein alternativer bayesianischer Schätzwert mit der zugehörigen Schätzfunktion (K+1)/(n+2) ist. Die Stichprobenverteilungen beider Schätzfunktionen sind durch eine Binomialverteilung bestimmt, da K binomialverteilt ist,KBin(n,p).

Die Summe K=i=1nXi der Stichprobenvariablen ist eine suffiziente Stichprobenfunktion für den Parameter p mit der Stichprobenverteilung

Pp(K=k)={(nk)pk(1p)nk,falls k{0,1,,n}0sonst

und der Likelihoodfunktion

Lk(p):=Pp(K=k),0<p<1.

Da sich die Likelihoodfunktionen L𝐱 und Lk nur durch einen konstanten Faktor unterscheiden, gilt auch

f1(p|𝐱)=cLk(p)f0(p),0<p<1.

Die bayessche Inferenz beruhend auf der Verteilung des Stichprobenvektors und auf der Stichprobenverteilung der suffizienten Stichprobenfunktion führt zur selben A-Posteriori-Verteilung.

Zu diesem Beispiel siehe auch Bayessche Statistik#Bayessche Inferenz am Beispiel des Münzwurfes und Suffiziente Statistik#Beispiel: Binomialverteilung.

Anwendung

Anwendung findet die Stichprobenverteilung in der Herleitung von Konfidenzintervallen, siehe dort.

Siehe auch

Literatur

Einzelnachweise

  1. Vorlage:Literatur
  2. Vorlage:Literatur
  3. Beispielsweise gibt es keinen Eintrag Stichprobenverteilung und keine Verwendung des Begriffs in:
  4. Vorlage:Literatur
  5. Vorlage:Literatur
  6. Vorlage:Literatur
  7. Vorlage:Internetquelle