Empirische Varianz

Aus testwiki
Zur Navigation springen Zur Suche springen

Vorlage:Dieser Artikel Vorlage:Infobox Die empirische Varianz[1][2], auch Stichprobenvarianz[2][3] (veraltet: empirisches Streuungsquadrat) oder einfach nur kurz Varianz genannt, ist ein Maß für die Streuung von konkreten (empirisch erhobenen) Werten einer Stichprobe.

Bei der empirischen Varianz handelt sich um einen Begriff aus der beschreibenden (deskriptiven) Statistik für die Varianz. Sie gehört zu den Streuungsmaßen und beschreibt die mittlere quadratische Abweichung der einzelnen Werte vom empirischen Mittelwert. Sie entspricht damit dem „durchschnittlichen Abweichungsquadrat“.

Die Wurzel der empirischen Varianz ist die empirische Standardabweichung.[2] Die empirische Standardabweichung stellt das gebräuchlichste Streuungsmaß dar. Sie ist anschaulicher als die Varianz, da sie dieselbe Größenordnung hat wie die beobachteten Werte.

Die empirische Varianz ist jedoch in weitergehenden Berechnungen oft praktischer als die Standardabweichung: So können beispielsweise Varianzbeiträge von mehreren unabhängigen Zufallseinflüssen einfach addiert werden. Umgekehrt lässt sich durch eine Varianzanalyse eine Gesamtvarianz oft auch in ihre Beiträge (Ursachen) zerlegen.

Voraussetzungen

Varianz der Grundgesamtheit

Die Varianz einer endlichen Grundgesamtheit (Population) mit N reellen Datenwerten ist ein Maß für die Streuung der einzelnen xi-Werte, i{1,2,,N} um den Populationsmittelwert μ und ist definiert als

σ2=1Ni=1N(xiμ)2

Der Populationsmittelwert ist das arithmetische Mittel der Datenwerte

μ=1Ni=1Nxi.

Die Varianz der Grundgesamtheit ist in praktischen Situationen häufig unbekannt, beispielsweise, weil es nicht möglich ist, jedes einzelne Subjekt in der Population zu erfassen (Vollerhebung). Um die Varianz zu ermitteln, werden daher empirisch Stichproben erhoben. Das führt zu den Begriffen empirische Varianz oder auch Stichprobenvarianz.

Empirischer Mittelwert

Gegeben sei eine Stichprobe mit n<N reellen numerischen Werten x1,x2,,xn. Es bezeichne

x:=1n(x1+x2++xn)=1ni=1nxi

den empirischen Mittelwert der Stichprobe. Dieser empirische Mittelwert x ist ein Schätzer für den Populationsmittelwert μ.

Berechnung der empirischen Varianz

Zunächst werden die Abweichungen der beobachteten reellen Werte x1,,xn der Stichprobe von ihrem arithmetischen Mittel (x1x),,(xnx) gebildet. Summierung und Quadrierung ergibt die sogenannte Abweichungsquadratsumme i=1n(xix)2.

Die Verwendung der Abweichungsquadratsumme führt zu folgenden Eigenschaften der empirischen Varianz:

  • Positive und negative Abweichungen vom Mittelwert heben sich bei der Summierung nicht gegenseitig auf.
  • Die Varianz einer Stichprobe ist daher immer positiv (oder Null).
  • Eine größere Varianz entspricht einer größeren Unterschiedlichkeit der Werte.
  • Wenige aber starke Ausreißer haben einen großen Einfluss auf das Ergebnis.

Die empirische Varianz kann damit auf folgende Arten berechnet werden:

Am gebräuchlichsten ist die Berechnung der empirischen Varianz der Stichprobenwerte als Summe der Abweichungsquadrate geteilt durch die Anzahl der Freiheitsgrade (n1):[3]Vorlage:NumBlk

Formel (1) wird auch korrigierte empirische Varianz oder korrigierte Stichprobenvarianz genannt[4][2]. Der Vorsatz „korrigierte ...“ bezieht sich auf den Faktor 1/(n1), der auch als Bessel-Korrektur bezeichnet wird.[5] Die Korrektur führt dazu, dass s2 ein erwartungstreuer Schätzer für die Populationsvarianz σ2 ist: Das bedeutet, dass der Schätzfehler s2σ2 immer kleiner wird und gegen Null strebt, wenn das Ergebnis der Varianzberechnung über eine steigende Anzahl verschiedener Stichproben gemittelt wird.

Alternativ wird die empirische Varianz (nicht erwartungstreu) berechnet als Summe der Abweichungsquadrate geteilt durch die Anzahl der Werte n:[6]Vorlage:NumBlk

Für den Sonderfall, dass der Mittelwert der Grundgesamtheit μ bekannt ist, wird die Varianz mit folgender Formel berechnet, die ebenfalls einen erwartungstreuen Schätzer darstellt:[7]Vorlage:NumBlk

Weitere Erläuterung zu den Berechnungsarten

Intuitiv lässt sich die Mittelung durch (n1) in Formel (1) statt durch n wie folgt erklären:

Bei Formel (1) geht es um die Schätzung der Varianz der Grundgesamtheit, aus der die Stichprobe entnommen wurde. Aufgrund der Schwerpunkteigenschaft des empirischen Mittels i=1n(xix¯)=0 ist die letzte Abweichung (xnx) bereits durch die ersten (n1) bestimmt. Folglich variieren nur (n1) Abweichungen frei. D.h. man mittelt deshalb, indem man durch die Anzahl der Freiheitsgrade (n1) dividiert. Besonders augenscheinlich wird das, wenn man den Fall n=2 betrachtet: Bei 2 Datenwerten gibt es nur 1 Unterschied zwischen den Daten. Und mit einer Stichprobe mit n=1 kann man gar keine Aussage über die Varianz einer Grundgesamtheit machen.

Diese Plausibilisierung wird im Rahmen der induktiven Statistik formalisiert.[8] (→ Stichprobenvarianz (Schätzfunktion))

Die Idee von Formel (2) ist eine andere: Hier geht es nicht um eine Aussage über eine „Grundgesamtheit“ mit Hilfe einer Stichprobe, sondern darum, den Datensatz möglichst genau durch eine Normalverteilung zu beschreiben: D.h. die Parameter der Normalverteilung μ und σ werden so bestimmt, dass der quadratische Fehler der gegebenen Daten relativ zur Verteilungsfunktion der Normalverteilung minimal ist.[9] Das ist der Fall für μ=x und σ=s~. Formel (2) liefert in diesem Sinne bessere Ergebnisse als Formel (1), und sie sollte angewendet werden, wenn diese Eigenschaft erforderlich ist.[10] Formel (2) ist aber kein erwartungstreuer Schätzer: D.h. wenn das Ergebnis über viele Stichproben gemittelt wird, dann strebt das Ergebnis nicht gegen den wahren Wert für die Varianz der Grundgesamtheit. Formel (2) liefert im Mittel zu kleine Ergebnisse und wird daher seltener angewendet. Es ist bemerkenswert, dass es umfangreiche mathematische und statistische Handbücher[11][12][13] gibt, die die Formel (2) nicht erwähnen.

Formel (2) wird in der mathematischen Statistik begründet, z. B. durch Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode.

Formel (3) und (1) unterscheiden sich darin, dass bei Formel (3) die Berechnung des arithmetischen Mittels entfällt, weil der Mittelwert der Grundgesamtheit bekannt ist. Auch diese Formel ist erwartungstreu im Sinne der schließenden Statistik. Da für Formel (3) kein arithmetisches Mittel berechnet wird geht kein Freiheitsgrad bei der Berechnung verloren und es wird nur durch n geteilt.

Formel (3) kann man ebenfalls plausibilisieren, wenn man den Fall n=2 betrachtet: Bei 2 Datenwerten gibt es 2 Unterschiede im Vergleich zum vorbekannten Mittelwert μ. Daher wird in diesem Fall durch 2 geteilt.

Im Falle einer Vollerhebung aller Daten der Population sind die Formeln (2) und (3) gleichwertig, da in diesem Fall der Populationsmittelwert bereits aus den vorliegenden Daten bekannt ist: μ=x.

Wird nur von „der“ empirischen Varianz gesprochen, so muss daher darauf geachtet werden, welche Konvention beziehungsweise Definition im entsprechenden Kontext gilt. Weder die Benennungen noch die entsprechende Notation ist in der Literatur einheitlich:

  • Die Bezeichnung empirische Varianz wird von einigen Autoren nur für die unkorrigierte Varianz s~2 verwendet. Der Ausdruck Stichprobenvarianz wird in diesem Fall nur für die korrigierte Varianz s2 verwendet.[8]
  • s2 wird auch als erwartungstreue Stichprobenvarianz (und s~2 als verzerrte Stichprobenvarianz) bezeichnet, weil s2 ein erwartungstreuer Schätzer für die Varianz σ2 ist.[14]
  • s2 wird manchmal auch als theoretische Varianz oder induktive Varianz bezeichnet.[15]
  • Statt s2 wird manchmal auch Var^(x),sn12 oder s*2 verwendet.
  • s~2 wird manchmal als mittlere quadratische Abweichung vom empirischen Mittelwert bezeichnet[16]
  • Statt s~2 wird manchmal auch semp2 verwendet

Empirische Varianz für Häufigkeitsdaten

In diesem Fall wird davon ausgegangen, dass die n Stichprobenwerte xi nur k konkrete Ausprägungen aj annehmen können. Das bedeutet: es bietet sich folgendes Vorgehen an:

  • Zuerst wird mit Hilfe einer größeren Stichprobe untersucht, wie häufig jede der Ausprägungen aj auftritt. Die Ergebnisse der Zählung sind die absolute Häufigkeiten hj der Ausprägungen, d. h. es die hj entsprechen der Anzahl des Auftretens von xi=aj. Sie können in einer Häufigkeitstabelle zusammengefasst werden. Die Summe der hj ist gleich, wie die Anzahl der Stichprobenwerte n.
  • Daraus werden die relativen Häufigkeiten fj (Wahrscheinlichkeiten für das Auftreten der jeweiligen Ausprägungen) berechnet.
  • Die Varianz ergibt sich schließlich aus den ermittelten Häufigkeitsdaten: den relativen Häufigkeiten der Ausprägungen und dem empirischen Mittelwert der Stichprobe.[8]
s~2=j=1k(ajx)2fj , mit
x:=j=1kfjaj=1nj=1khjaj .

Empirische Varianz für Daten aus einer Zeitreihe

In diesem Fall sind Datenwerte xk als Zeitreihe gegeben. Beispielsweise wird sekündlich ein Wert xk gemessen. k ist ein Zähler für die aufgelaufenen Werte seit dem Beginn der Rechnung.

Zu jedem Zeitpunkt k der Zeitreihe soll die Varianz aus den letzten k Werten von x bestimmt werden.

Die Rechnung soll in Echtzeit unmittelbar nach dem Eintreffen von jedem neuen Wert xk erfolgen. In Echtzeitsystemen wird stark auf die erforderliche Rechenzeit in jedem Zeitschritt geachtet. Mit Formeln (1) bis (3) würde die erforderliche Rechenzeit mit der Zeit steigen, da ja auch die Summen immer mehr Werte umfassen. Das wird vermieden mit folgenden rekursiven Formeln, die auf den Schätz-Ergebnissen für μ^k12 und σ^k12 zum vergangenen Zeitpunkt k1 aufbauen, und die in jedem Zeitschritt ausgeführt werden:[17]

μ^k=μ^k1+1k(xkμ^k1)
σ^k2=σ^k12+1k[(xkμ^k)2σ~k12]

Diese Formeln benötigen Startwerte für den Zeitpunkt k=0 . Bei ungünstiger Wahl nähern sich die Schätzwerte langsam den wahren Werten an. Daher sind günstige Vorbelegungen:

  • μ^0: Vorbelegung mit 0 oder dem ersten erhaltenen Messwert, oder einem vorab erwarteten Mittelwert
  • σ^0: Vorbelegung mit 0 oder einem vorab erwarteten Varianzwert

Eigenschaften der empirischen Varianz

Verteilung der empirischen Varianz

Die empirische Varianz s2 folgt für unabhängige, normalverteilte Zufallsvariablen einer skalierten Chi-Quadrat-Verteilung: (n1)s2σ2χn12.

Daher folgt:

E(s2)=E(σ2n1χn12)=σ2,

sowie

Var[s2]=Var(σ2n1χn12)=σ4(n1)2Var(χn12)=2σ4n1.

Verhalten bei Transformationen

Verschiebung der Daten xi um einen konstanten Wert c: Varianz ändert sich nicht

Also: Wenn y=(x1+c,x2+c,,xn+c), so gilt:

s2(x)=s2(y)
s~2(x)=s~2(y)
s*2(x)=s*2(y)
Begründung: Es ist y=x+c und somit (yiy)2=(xi+c(x+c))2=(xix)2, woraus die Behauptung folgt.

Skalierung der Daten xi um einen Faktor a0, also y=ax: Varianz skaliert um den Faktor a2:

s2(y)=a2s2(x).
s~2(y)=a2s~2(x)
s*2(y)=a2s*2(x)
Begründung: Dies folgt wie oben durch direktes Nachrechnen.

Genauigkeit der berechneten empirischen Varianz

Wenn man viele Stichproben nimmt, dann führt jede neue Stichprobe zu einer anderen Schätzung σ^2 für die Varianz der Grundgesamtheit. D.h. die berechnete empirische Varianz (Stichprobenvarianz) hat ebenfalls eine Streuung. Diese Streuung ist ein Maß für die Qualität (Genauigkeit) der Varianzbestimmung. Für den Fall, dass die Streuung in einem gegebenen Anwendungsfall zu hoch ist, könnte man die Anzahl der Werte in der Stichprobe vergrößern oder den Mittelwert aus vielen verschiedenen Stichproben verwenden.

Die Streuung der Stichprobenvarianz kann durch die Berechnung der Grenzwerte des Konfidenzintervalles mit Hilfe der Chi-Quadrat-Verteilung beurteilt werden. Praktisch genügt jedoch häufig eine Abschätzung der Standardabweichung der Stichprobenvarianz mit folgenden Formeln[18] analog zu Formeln (1) und (3):

Standardabweichung der Stichprobenvarianz bei unbekanntem wahren Mittelwert der Gesamtheit:

Var(s2)=2n1s4

Standardabweichung der Stichprobenvarianz bei bekanntem wahren Mittelwert μ der Gesamtheit:

Var(s*2)=2ns*4

Beispiel 1: Stichprobe mit n=10 Werten und der Varianz s2=1,0:

Dann lässt sich die Standardabweichung der Stichprobenvarianz abschätzen als:

Var(s2)=291,02=0,2222=0,47

Die Standardabweichung von 0,47 ist im Vergleich zur Stichprobenvarianz s2=1,0 erheblich. D.h. eine Stichprobe mit n=10 ist in den meisten Anwendungsfällen nicht geeignet um eine ausreichend verlässliche Aussage über die Varianz der Grundgesamtheit zu machen.

Beispiel 2: Stichprobe wird vergrößert auf n=100 Werte:

Dann lässt sich die Streuung der Stichprobenvarianz wie oben ermitteln als:

Var(s2)=2991,02=0,0202=0,14

Die Streuung von 0,14 ist bei der Stichprobenvarianz s2=1,0 brauchbarer, als das Ergebnis im ersten Beispiel.

Im Falle einer Normalverteilung würde das bedeuten, dass der wahre Varianzwert mit 95 % Wahrscheinlichkeit im Bereich von s2=1,0±0,28 liegt. Im Falle der Berechnung der Grenzwerte mit der Chi-Quadrat-Verteilung ergeben sich fast die gleichen Werte.

Man sieht, dass eine akkurate Berechnung der empirischen Varianz deutlich größere Stichproben erfordert, als man intuitiv vermuten würde.

Alternative Darstellungen

Darstellung als durchschnittliches Abweichungsquadrat

Vorlage:Hauptartikel Die Varianz wird in der Varianzanalyse oft als „mittleres“ bzw. „durchschnittliches“ Abweichungsquadrat MQ bezeichnet und ergibt sich dann aus die Division der Summe der Abweichungsquadrate SQ und der Anzahl Freiheitsgrade FG:[19]

s2=i=1n(xix)2n1=SQFG:=MQ.[20]

Bei einer mehrdimensionalen Varianzanalyse werden die mittleren Abweichungsquadrate der jeweiligen Variablen werden in einer sogenannten Varianzanalysetabelle zusammengefasst.

Darstellung mittels Verschiebungssatz

Eine weitere Darstellung erhält man aus Anwendung des Verschiebungssatzes:[21]

s2=1n1(i=1nxi2)nn1x2
s~2=1n(i=1nxi2)x2
s*2=1n(i=1nxi2)μ2

Diese Formel ist jedoch aus numerischer Sicht nachteilig, da unter Umständen zwei sehr große Werte voneinander abgezogen werden. Das kann zur Rechenungenauigkeiten führen, wenn die Darstellungsgenauigkeit der Gleitkommazahlen im Rechner nicht ausreichend ist.

Darstellung als Doppelsumme (ohne vorausgehende Berechnung des empirischen Mittels)

Eine Darstellung, die ohne die vorausgehende Berechnung des empirischen Mittels auskommt, ist:

s2=12n(n1)i=1nj=1n(xixj)2
s~2=12n2i=1nj=1n(xixj)2

Herleitung: Wenn man das arithmetische Mittel x der Beobachtungswerte in den Summanden der Doppelsumme

i=1nj=1n(xixj)2

addiert und abzieht (also Null einfügt), dann gilt

i=1nj=1n(xix+xxj)2=i=1nj=1n(xix)2+2i=1nj=1n(xix)(xxj)+i=1nj=1n(xxj)2=j=1ni=1n(xix)2=ns~2+2(i=1n(xix))=0(j=1n(xxj))=0+i=1nj=1n(xxj)2=ns~2=2n2s~2.

Dies ist äquivalent zu

s~2=12n2i=1nj=1n(xixj)2.

Abgeleitete Begriffe

Vorlage:Anker Empirische Standardabweichung

Als empirische Standardabweichung[1] auch Stichprobenstreuung[3] oder Stichprobenstandardabweichung[1] genannt, wird die Wurzel aus der empirischen Varianz gemäß Formel (1)-(3) bezeichnet:

s=1n1i=1n(xix)2
s~=1ni=1n(xix)2
s*2=1ni=1n(xiμ)2

Die empirische Standardabweichung ist ebenfalls ein Maß dafür, wie weit die Stichprobe im Schnitt um den empirischen Mittelwert streut.

Im Gegensatz zur empirischen Varianz besitzt die empirische Standardabweichung dieselben Einheiten wie der empirische Mittelwert oder die Stichprobe selbst. Wie auch bei der empirischen Varianz ist die Benennung und Bezeichnung bei der empirischen Standardabweichung nicht einheitlich. Die empirische Standardabweichung sollte von der Standardabweichung im Sinne der Wahrscheinlichkeitstheorie unterschieden werden. Diese ist eine Kennzahl einer Wahrscheinlichkeitsverteilung oder der Verteilung einer Zufallsvariable, wohingegen die empirische Standardabweichung Kennzahl einer Stichprobe ist.

Empirischer Variationskoeffizient

Der empirische Variationskoeffizient ist ein dimensionsloses Streuungsmaß (nicht einheitenbehaftet) und drückt s in Prozent des empirischen Mittelwerts x aus.[22]

v=sx¯100%

Annualisierte Varianz

In der Finanzmarkttheorie werden oft Varianzen bzw. Volatilitäten von Renditen berechnet. Diese Varianzen werden oft, wenn sie auf täglichen Daten beruhen annualisiert, d. h. auf ein Jahr hochgerechnet. Dies geschieht häufig mittels eines Annualisierungfaktors A=250 (pro Jahr gibt es etwa 250 Handelstage). Die annualisierte Volatilität lässt sich somit schätzen als Wurzel aus der annualisierten Varianz. Wichtig ist, dass dies bei diskreten (und dadurch per Annahme log-normalverteilten Renditen), die Volatilität von Renditen auf jährlicher Frequenz, unterschätzt.

σ^2=250s2=250n1i=1n(xix)2.

Beispiel

Gegeben sei die Stichprobe

x1=10;x2=9;x3=13;x4=15;x5=16,

es ist also n=5. Für den empirischen Mittelwert ergibt sich

x=15(10+9+13+15+16)=635=12,6.

Bei stückweiser Berechnung ergibt sich dann die Abweichungsquadratsumme

i=15(xix)2=(1012,6)2+(912,6)2+(1312,6)2+(1512,6)2+(1612,6)2=(2,6)2+(3,6)2+0,42+2,42+3,42=37,2.

Mit Formel (1) erhält man

s2=151i=15(xix)2=37,24=9,3

wohingegen Formel (2)

s~2=15i=15(xix)2=37,25=7,44

liefert.

Jetzt nehmen wir an, dass der Mittelwert der Grundgesamtheit, aus der die Stichprobe entnommen wurde, vorab als μ=12 bekannt sei. Dann kann Formel (3) angewendet werden:

i=15(xiμ)2=(1012)2+(912)2+(1312)2+(1512)2+(1612)2=(2)2+(3)2+12+32+42=39
s*2=15i=15(xiμ)2=395=7,8

Die entsprechenden empirischen Standardabweichungen ergeben sich zu:

s=9,33,05
s~=7,442,73
s*=7,82,79

Herkunft der verschiedenen Definitionen

Die empirische Varianz, ist ein Streuungsmaß um den Mittelwert der Datenwerte. Die gegebenen Werte sind x=(x1,x2,,xn).

Bei der Verwendung der Varianz als Streuungsmaß wird die Quadratsumme als Ausgangspunkt verwendet:

SQ(x)=i=1n(xix)2

Um das Streuungsmaß unabhängig von der Anzahl der Messwerte in der Stichprobe zu machen, wird als einfachste Lösung noch durch die Anzahl der Werte dividiert. Ergebnis dieses pragmatisch hergeleiteten Streuungsmaßes ist die mittlere quadratische Abweichung vom empirischen Mittelwert oder die oben definierte Varianz s~.

Die Definition von s2 hat ihre Wurzeln in der Schätztheorie. (→ Stichprobenvarianz (Schätzfunktion))

Dort wird die Varianz der Grundgesamtheit σ^2 geschätzt durch:

σ^2=S2=1n1i=1n(XiX)2

als erwartungstreue Schätzfunktion für die unbekannte Varianz σ2 einer Wahrscheinlichkeitsverteilung verwendet.

s2 ergibt sich durch Anwendung der Schätzfunktion S2 auf Realisierungen (konkrete Werte) der Zufallsvariablen Xi(ω)=xi .

Somit kann s~ als ein praktisch motiviertes Streuungsmaß in der deskriptiven Statistik angesehen werden, wohingegen s eine Schätzung für eine unbekannte Varianz in der induktiven Statistik ist. Diese unterschiedlichen Ursprünge rechtfertigen die von manchen Autoren verwendete Sprechweise für s~ als empirische Varianz und für s als induktive Varianz oder theoretische Varianz.

Zu bemerken ist, dass sich auch s~ als Schätzwert einer Schätzfunktion interpretieren lässt. Diesen erhält man bei Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode als Schätzfunktion für die Varianz, die zwar nicht erwartungstreu ist, und daher nicht alle Qualitätskriterien für Punktschätzungen erfüllt, aber dafür die gegebenen Variablen optimal in eine Normalverteilung einpasst. Der Parameter der Normalverteilung σ2 wird bestimmt durch:

σ2=S~=1ni=1n(XiX)2.

Der Unterschied zwischen beiden Formeln lässt sich in der mathematischen Statistik dadurch erklären, dass das Quadrat einer (symmetrischen) normalverteilten Zufallsgröße X2 nicht ebenfalls normalverteilt ist, sondern eine (unsymmetrische) Chi-Quadrat-Verteilung aufweist.

Literatur

Einzelnachweise

  1. 1,0 1,1 1,2 Henze 2013: S. 31ff
  2. 2,0 2,1 2,2 2,3 Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  3. 3,0 3,1 3,2 Behrends 2013: S. 274f
  4. Beyer 1988
  5. Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  6. Cleff 2015: S. 56
  7. Hartung 2005: S. 153f
  8. 8,0 8,1 8,2 Fahrmeir 2016: Kapitel 2.2.3 Standardabweichung, Varianz und Variationskoeffizient
  9. Vorlage:Internetquelle
  10. FernUni Hagen 2020: Vorlage:Internetquelle
  11. Bronstein 2020
  12. Hartung 2005
  13. Duden 2020: Varianz
  14. Vorlage:Webarchiv (PDF-Datei), www.alt.mathematik.uni-mainz.de, abgerufen am 31. Dezember 2018
  15. Cleff 2015: S. 255
  16. Toutenburg 2008: S. 75
  17. Young 2011 - Chapter 2: Recursive Estimation, Seite 19
  18. HU-Berlin 2018: Verteilung der Stichprobenvarianz, Kapitel 1.2, abgerufen am 1. Februar 2022.
  19. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 109.
  20. Lothar Sachs: Statistische Auswertungsmethoden, S. 400.
  21. Kosfeld 2016
  22. Beyer 1988: Kapitel 3.1.1.3. Statistische Maßzahlen, S. 120