Orthogonale Regression: Unterschied zwischen den Versionen

Aus testwiki
Zur Navigation springen Zur Suche springen
imported>RaschenTechner
 
(kein Unterschied)

Aktuelle Version vom 24. September 2024, 13:29 Uhr

Orthogonale Regression. Die roten Linien stellen die Abstände der Messwertpaare von der Ausgleichsgeraden dar.

In der Statistik dient die orthogonale Regression (genauer: orthogonale lineare Regression) zur Berechnung einer Ausgleichsgeraden für eine endliche Menge metrisch skalierter Datenpaare (xi,yi) nach der Methode der kleinsten Quadrate. Wie in anderen Regressionsmodellen wird dabei die Summe der quadrierten Abstände der (xi,yi) von der Geraden minimiert. Im Unterschied zu anderen Formen der linearen Regression werden bei der orthogonalen Regression nicht die Abstände in x- bzw. y-Richtung verwendet, sondern die orthogonalen Abstände. Dieses Verfahren unterscheidet nicht zwischen einer unabhängigen und einer abhängigen Variablen. Damit können – anders als bei der linearen Regression – Anwendungen behandelt werden, bei denen beide Variablen x und y messfehlerbehaftet sind.

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression. Sie wurde erstmals 1840 im Zusammenhang mit einem geodätischen Problem von Julius Weisbach angewendet[1][2], 1878 von Robert James Adcock in die Statistik eingeführt[3] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[4]

Rechenweg

Es wird eine Gerade

y=β0+β1x

gesucht, die die Summe der quadrierten Abstände der (xi,yi) von den zugehörigen Fußpunkten (xi*,yi*) auf der Geraden minimiert. Wegen yi*=β0+β1xi* berechnet man diese quadrierten Abstände zu (yiβ0β1xi*)2+(xixi*)2, deren Summe minimiert werden soll:

SSR=i=1n((yiβ0β1xi*)2+(xixi*)2)  minβ0,β1,xi*SSR

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

x=1ni=1nxi     (arithmetisches Mittel der xi)
y=1ni=1nyi     (arithmetisches Mittel der yi)
sx2=1n1i=1n(xix)2     (Stichprobenvarianz der xi)
sy2=1n1i=1n(yiy)2     (Stichprobenvarianz der yi)
sxy=1n1i=1n(xix)(yiy)     (Stichprobenkovarianz der (xi,yi))

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[5][6][7]

β1=sy2sx2+(sy2sx2)2+4sxy22sxy
β0=yβ1x

Die x-Koordinaten der Fußpunkte berechnet man mit

xi*=xi+β1β12+1(yiβ0β1xi)

Alternativer Rechenweg

Abstand di eines Punktes P(xi;yi) zur Geraden y=mx+t

Der geometrische Abstand di eines Messpunktes P(xi|yi) zu einer Ausgleichsgeraden

f(x)=mx+t

lässt sich wegen di:(yi(mxi+t))=1:1+m2 wie folgt berechnen:

di2=(yi(mxi+t))21+m2

Gesucht sind nun die Koeffizienten m und t mit der kleinsten Summe der Fehlerquadrate.

minm,ti=1Ndi2

Berechnung der partiellen Ableitung nach t

Die Gleichung

ti=1N(yi(mxi+t))21+m2=0

ergibt als Lösung

t=ymx

Dabei wird als x der Mittelwert der x-Koordinaten der Messpunkte bezeichnet. Analog dazu ist y der Mittelwert der y-Koordinaten der Messpunkte. Diese Lösung hat auch zur Folge, dass der Punkt P(x|y) stets auf der Ausgleichsgeraden liegt.

Berechnung der partiellen Ableitung nach m

Die Gleichung

mi=1N(yi(mxi+t))21+m2=0

ergibt folgende quadratische Gleichung:

m2Sxy+m(SxxSyy)Sxy=0

Dabei sind

Sxx=i=1N(xix)2 und Syy=i=1N(yiy)2

die Quadratsummen der Messwerte von X und Y und

Sxy=i=1N(xix)(yiy)

die Produktsumme zwischen X und Y.

Auf Grund des Steigungsverhaltens dieser Parabel ergibt sich für das Minimum hier die eine Lösung:

m=SyySxx+(SxxSyy)2+4(Sxy)22Sxy

Die Gleichung der geometrischen Ausgleichsgeraden lautet somit:

f(x)=m(xx)+y

Beispiel

f(x) = 0,8 ( x – 3,3 ) + 4,1
xi yi xix yiy (xix)2 (xix)(yiy) (yiy)2
P1 1,0 2,0 −2,3 −2,1 5,29 4,83 4,41
P2 2,0 3,5 −1,3 −0,6 1,69 0,78 0,36
P3 4,0 5,0 0,7 0,9 0,49 0,63 0,81
P4 4,5 4,5 1,2 0,4 1,44 0,48 0,16
P5 5,0 5,5 1,7 1,4 2,89 2,38 1,96
Summe 16,5 20,5 0,0 0,0 Sxx=11,8 Sxy=9,1 Syy=7,7
Mittelwert x=3,3 y=4,1
m=4,1+4,12+49,1229,1

Es ergibt sich m=0,8 und die geometrische Ausgleichsgerade lautet daher wie folgt:

f(x)=0,8(x3,3)+4,1

Einzelnachweise

  1. Vorlage:Literatur
  2. Vorlage:Literatur
  3. Vorlage:Literatur
  4. Vorlage:Literatur
  5. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107.
  6. G. Casella, R. L. Berger: Statistical Inference. 2. Auflage. Cengage Learning, Boston 2008, ISBN 978-0-495-39187-6.
  7. J. Hedderich, Lothar Sachs: Angewandte Statistik. Methodensammlung mit R. 15. Auflage. Springer Berlin, Heidelberg 2015, ISBN 978-3-662-45690-3.

en:Total least squares#Geometrical interpretation