Regressionsparameter

Aus testwiki
Version vom 7. Mai 2023, 01:22 Uhr von imported>Dorschleber
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Vorlage:Belege Regressionsparameter, auch Regressionskoeffizienten oder Regressionsgewichte genannt, messen den Einfluss einer Variablen in einer Regressionsgleichung.[1] Dazu lässt sich mit Hilfe der Regressionsanalyse der Beitrag einer unabhängigen Variablen (des Regressors) für die Prognose der abhängigen Variablen herleiten.

Bei einer multiplen Regression kann es sinnvoll sein, die standardisierten Regressionskoeffizienten zu betrachten, um die Erklärungs- oder Prognosebeiträge der einzelnen unabhängigen Variablen (unabhängig von den bei der Messung der Variablen gewählten Einheiten) miteinander vergleichen zu können, z. B. um zu sehen, welcher Regressor den größten Beitrag zur Prognose der abhängigen Variablen leistet.

Interpretation des Absolutglieds und der Steigung

Gegeben sei das multiple lineare Modell

yi=β0+xi1β1++xikβk+εi=𝐱iβ+εi bzw. in Matrixschreibweise 𝐲=𝐗β+ε.

Den Parameter β0 bezeichnet man als Niveauparameter, Achsenabschnitt, Absolutglied, Regressionskonstante oder kurz Konstante (engl. intercept).

Die Parameter β1,,βk nennt man Steigungsparameter, Steigungskoeffizienten oder Anstieg (engl. slope).

Die εi sind Störgrößen.

Man unterscheidet bei der Interpretation der Regressionskoeffizienten die folgenden Fälle:

Level-Level-Transformation

Im Fall, bei der die endogene Variable untransformiert (level) ist und die exogene Variable ebenfalls (level) gilt aufgrund von E(𝐲|𝐗)=𝐗β

E(yi|𝐱i)=β0+xi1β1++xikβk.

Damit gilt für den Niveau- und den Steigungsparameter:

β0=E(yi|xi1=xi2==xik=0)

und

βj=(yi|𝐱i)xij, ceteris paribus (c.p.), j=1,,k

Der Niveauparameter lässt sich wie folgt interpretieren: Die Zielgröße y beträgt im Mittel β0 (bzw. β^0) wenn alle Regressoren 0 sind.

Für den jeweiligen Steigungsparameter βj gilt: Steigt xij c.p. um eine Einheit, dann steigt yi im Mittel um βj-Einheiten.

Log-Log-Transformation

Im Fall, bei der die endogene Variable logarithmisch transformiert (log) ist und die exogene Variable ebenfalls (log) gilt

βj=(ln(yi)|𝐱i)ln(xij)=((yi)|𝐱i)yi|𝐱i(xij)xij, ceteris paribus (c.p.), j=1,,k

Dies kann wie folgt interpretiert werden: Steigt das transformierte xij c.p. um 1 %, dann steigt das transformierte yi im Mittel um βj-Prozent. Ökonomisch würde dies der Interpretation als Elastizität entsprechen.

Standardisierte Regressionskoeffizienten

Die standardisierten Regressionskoeffizienten βj (gelegentlich auch Beta-Werte oder Beta-Gewicht genannt) ergeben sich aus einer linearen Regression, in der die unabhängigen und abhängigen Variablen standardisiert worden sind, das heißt, der Erwartungswert gleich Null und die Varianz gleich Eins gesetzt wurde. Sie können auch direkt berechnet werden aus den Regressionskoeffizienten der linearen Regression:

βj=bjsxjsy
  • wobei bj der Regressionskoeffizient für Regressor xj,
  • sxj Standardabweichung der unabhängigen Variable xj
  • und sy Standardabweichung der abhängigen Variable y

Sind die standardisierten erklärenden Variablen Z(Xj) untereinander unabhängig und auch unabhängig vom Störterm ε (Voraussetzung im klassischen Regressionsmodell), dann gilt

1=Var(Z(Y))=Var(β0+β1Z(X1)++βpZ(Xp)+ε)=β12Var(Z(X1))=1++βp2Var(Z(Xp))=1+Var(ε),

das heißt die Summe der quadrierten standardisierten Regressionskoeffizienten ist kleiner gleich Eins. Sind einer oder mehrere der standardisierten Regressionskoeffizienten größer als Eins bzw. kleiner als minus Eins, weist dies auf Multikollinearität hin.

Beispiel

Regressionskoeffizienten in der linearen Regression im Boston Housing Datensatz.
Regressionskoeffizienten in der linearen Regression im Boston Housing Datensatz.

Für die abhängige Variable Mittlerer Hauspreis in selbstbewohnten Häusern pro Bezirk (in 1000 US$) aus dem Boston Housing Datensatz ergibt sich das nebenstehende Regressionsmodell:

  • Jedes Zimmer zusätzlich im Haus verteuert den Kaufpreis um 4873 US$,
  • jeder Kilometer mehr zu einer Arbeitsstätte reduziert den Kaufpreis um 461 US$ und
  • jeder Prozentpunkt mehr beim Anteil der Unterschichtbevölkerung reduziert den Kaufpreis um 723 US$.

Standardisiert man alle Variablen, kann man den Einfluss einer erklärenden Variablen auf die abhängige Variable abschätzen:

  • Den größten Einfluss hat die Variable Anteil der Unterschichtbevölkerung: −0,562,
  • den zweitgrößten Einfluss hat die Variable Anzahl Zimmer: 0,372 und
  • die Variable Entfernung zu Arbeitsstätten hat den geringsten Einfluss: −0,106.

Wären die Variablen unabhängig voneinander, könnte man anhand der quadrierten Regressionskoeffizienten den Anteil der erklärten Varianz angeben:

  • Die Variable Anteil der Unterschichtbevölkerung erklärt knapp 32 % der Varianz des mittleren Hauspreises (0,316=(0,562)2),
  • die Variable Anzahl Zimmer erklärt knapp 14 % der Varianz des mittleren Hauspreises (0,138=0,3722) und
  • die Variable Entfernung zu Arbeitsstätten erklärt etwas mehr als 1 % der Varianz des mittleren Hauspreises (0,011=(0,106)2).

Literatur

Einzelnachweise

  1. Bortz, Schuster: Statistik für Human- und Sozialwissenschaftler. Springer, Berlin / Heidelberg / New York 2010, ISBN 978-3-642-12769-4, S. 342 ff.