Median-Regression

Aus testwiki
Version vom 7. Dezember 2023, 06:04 Uhr von imported>BumbleMath (Link hinzugefügt)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die Methode der kleinsten absoluten Abweichungen, auch Median-Regression, stellt ein robustes Schätzverfahren dar, um unbekannte Parameter einer linearen Regression zu schätzen. Solch ein Schätzer wird Kleinste-Absolute-Abweichungen-Schätzer (engl. least absolute deviations estimator, LAD) genannt. Bei dieser Methode wird die Summe der absoluten Abweichungen minimiert, im Unterschied zur Methode der kleinsten Quadrate, bei der die Summe der quadrierten Abweichungen minimiert wird. Die Median-Regression ist ein Spezialfall der Quantilsregression, bei der im Allgemeinen die Beträge der positiven und negativen Abweichungen unterschiedlich gewichtet werden; bei Gleichgewichtung ergibt sich die Median-Regression.

Geschichte

Die Methode der kleinsten absoluten Abweichungen ist historisch gesehen älter als die Methode der kleinsten Quadrate. Sie wurde zuerst um 1760 von Rugjer Josip Bošković (1711–1787) vorgeschlagen.[1] In moderner Terminologie wird dieser Ansatz als Median-Regression bezeichnet, da in einem stochastischen Regressionsmodell das Resultat der Minimierung zu einem Schätzer für den Median der abhängigen Variablen bei gegebenen Werten der unabhängigen Variablen führt.[1] Die Median-Regression ist ein Spezialfall der Quantilsregression[2], wobei der Median das bei der Quantilsregression verwendete Quantil ist.

Verfahren

Vorlage:Siehe auch Statt die Summe der quadrierten Abweichung zu minimieren, wird die Summe der absoluten Abweichungen

i=1n|yi𝐱iβ|

bzgl. βK minimiert. Dabei bezeichnet n die Anzahl der Beobachtungen und K die Anzahl der Regressionskoeffizienten, die im (K×1)-Vektor β=(β1,,βK) zusammengefasst sind. Die Werte des Regressanden (der erklärten Variablen) sind y1,,yn und die (K×1)-Vektoren 𝐱i=(xi1,,xiK) für i=1,,n enthalten die Werte der Regressoren (der erklärenden Variablen). Im Fall xi1=1 für i=1,,n liegt eine Regression mit Absolutglied vor.

Eine Minimalstelle β^, d. h. ein Vektor

β^=argminβi=1n|yi𝐱iβ|,

ist ein geschätzter Parametervektor.

Das Minimierungsproblem kann als Aufgabe der linearen Programmierung formuliert werden und bspw. mit dem Simplex-Verfahren gelöst werden.

Beispiel und einfachster Spezialfall

Der einfachste Spezialfall ergibt sich für K=1, θ=β1 und einen konstanten Regressor mit xi1=1 für i=1,,n. Die Minimierung von i=1n(yiθ)2 bzgl. θ für fixierte y-Werte, d. h. die Anwendung der Methode der kleinsten Quadrate, führt dann zur Minimalstelle

y¯=argminθt=1n(yiθ)2,

d. h. zum arithmetischen Mittelwert der y-Werte. Die Minimierung von i=1n|yiθ| bzgl. θ für fixierte y-Werte führt dazu, dass jeder Median y~ der y-Werte eine Minimalstelle ist, also

y~=argminθi=1n|yiθ|

erfüllt. Ein Median ist in diesem Zusammenhang jede Stelle y~, für die zugleich

|{i{1,,n}yiy~}|n1/2und|{i{1,,n}yiy~}|n1/2

gilt. Beispielsweise ist für n=4 und y1=1,y2=2,y3=3,y4=4 jeder Wert im Intervall [2,3] ein Median. Im Unterschied zur Methode der kleinsten Quadrate ist bei der Minimierung der absoluten Abstände die Eindeutigkeit der Minimalstelle nicht garantiert.

Literatur

Einzelnachweise