Deming-Regression

Aus testwiki
Zur Navigation springen Zur Suche springen
Deming-Regression

In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare (xi,yi) nach der Methode der kleinsten Quadrate bestimmt. Es handelt sich um eine Variante der linearen Regression. Bei der Deming-Regression werden die Residuen (Messfehler) sowohl für die x- als auch für die y-Werte in das Modell einbezogen.

Die Deming-Regression ist somit ein Spezialfall der Regressionsanalyse; sie beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient δ ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück;[1] 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen[2] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[3]

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall δ=1. Die Deming-Regression wiederum ist ein Spezialfall der York-Regression.

Rechenweg

Die gemessenen Werte xi und yi werden als Summen der „wahren Wertexi* bzw. yi* und der „Fehler“ ηi bzw. εi aufgefasst, d. h. (xi,yi)=(xi*+ηi,yi*+εi) Die Datenpaare (xi*,yi*) liegen auf der zu berechnenden Geraden. ηi und εi seien unabhängig mit ση2:=Var(η) und σε2:=Var(ε). Bekannt sei zumindest der Quotient der Fehlervarianzen δ=ση2σε2.

Es wird eine Gerade

y=β0+β1x

gesucht, die die gewichtete Residuenquadratsumme minimiert:

SQR=i=1n(ηi2ση2+εi2σε2)=1σε2i=1n((yiβ0β1xi*)2+δ(xixi*)2)  minβ0,β1,xi*SQR

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

x=1ni=1nxi     (arithmetisches Mittel der xi)
y=1ni=1nyi     (arithmetisches Mittel der yi)
sx2=1n1i=1n(xix)2     (Stichprobenvarianz der xi)
sy2=1n1i=1n(yiy)2     (Stichprobenvarianz der yi)
sxy=1n1i=1n(xix)(yiy)     (Stichprobenkovarianz der (xi,yi)).

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[4]

β1=sy2δsx2+(sy2δsx2)2+4δsxy22sxy
β0=yβ1x.

Die xi*-Koordinaten berechnet man mit

xi*=xi+β1β12+δ(yiβ0β1xi).

Erweiterung York-Regression

York-Regression erweitert die Deming-Regression, da es korrelierte x- und y-Fehler erlaubt[5].

Einzelnachweise

  1. Charles H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: The Analyst. Band 6, Nummer 4, 1879, S. 97–105, Vorlage:JSTOR.
  2. Tjalling Koopmans: Linear regression analysis of economic time series (= Publications of the Netherland Economic Institute. 20). De Erven F. Bohn, Haarlem 1937.
  3. W. Edwards Deming: Statistical adjustment of data. Wiley u. a., New York NY 1943, (Unabriged and corrected republication. Dover Publications, New York NY 1985, ISBN 0-486-64685-8).
  4. Paul Glaister: Least squares revisited. In: The Mathematical Gazette. Band 85, Nummer 502, 2001, S. 104–107, Vorlage:JSTOR.
  5. Derek York, Norman M. Evensen, Margarita López Martı́nez, Jonás De Basabe Delgado: Unified equations for the slope, intercept, and standard errors of the best straight line. In: American Journal of Physics. Band 72, 2004, S. 367–375, Vorlage:DOI.