Linearer Prädiktor

Aus testwiki
Version vom 30. November 2024, 21:24 Uhr von imported>Aka (falsches Komma entfernt, geschützte Leerzeichen sichtbar gemacht bzw. entfernt)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der Statistik und dort insbesondere in der parametrischen Regressionsanalyse ist ein linearer Prädiktor eine Linearkombination einer Reihe von Koeffizienten (Regressionskoeffizienten) und erklärenden Variablen (unabhängige Variablen), deren Wert zur Vorhersage (Prädiktion) einer Antwortvariablen verwendet wird. Diese additiv-lineare systematische Komponente ist ein Hauptbestandteil von linearen Regressionsmodellen.

Definition

In der parametrischen Regressionsanalyse wird mittels mehrerer Regressionsparameter ein Suchraum aus potenziellen Regressionsfunktionen gebildet. Im Anschluss soll diejenige Parameterkonfiguration bestimmt werden, die die höchste Anpassungsgüte für die beobachteten Werte der Antwortvariablen und erklärenden Variablen liefert. Die wichtigsten Modellklassen der parametrischen Regressionsanalyse sind zum einen die Klasse der linearen Modelle und zum anderen die Klasse der verallgemeinerten linearen Modelle. Das Beiwort „linear“ resultiert daraus, dass die beiden Modellklassen auf dem linearen Prädiktor aufbauen, der wie folgt definiert ist

ηi:=xi0β0+xi1β1+xi2β2++xikβk=j=0kxijβj.

Dieser linearen Prädiktor wird aus den erklärenden Variablen xi0,xi1,,xik und den festen, aber unbekannten Regressionsparametern β0,β1,β2,,βk gebildet, wobei xi0 für gewöhnlich gleich eins gesetzt wird (xi01). Der Parameter β0 ist somit der Achsenabschnitt der Regressionsgerade bzw. genauer „Regressionshyperebene“. Er bestimmt das Niveau des linearen Prädiktors und wird folglich auch Niveauparameter genannt. In der Regressionsanalyse geht es darum den Achsenabschnitt β0, die Steigungsparameter β1,β2,,βk und die Varianz der Störgrößen zu schätzen.[1]

Lineare Modelle vs. verallgemeinerte lineare Modelle

Lineare Modelle gehen vom folgenden Zusammenhang zwischen der Regressionsfunktion und dem linearen Prädiktor aus

f(xi1,xi2,,xik)=j=0kxijβj=ηi.

Verallgemeinerte lineare Modelle dagegen gehen von aus, dass der Erwartungswert der Antwortvariablen μ=E(Yi) erst durch eine geeignete invertierbare Kopplungsfunktion g() die Form eines linearen Prädiktors annimmt[2]

g(μ)=j=0kxijβj=ηi.

Mit der Umkehrfunktion der Kopplungsfunktion, der Antwortfunktion h()=g1() ergibt sich für die Regressionsfunktion in diesem Fall

f(xi1,xi2,,xik)=h(j=0kxijβj)=h(ηi).

Vektor-Matrix-Schreibweise

Mittels Vektor-Matrix-Schreibweise lässt sich der lineare Prädiktor wie folgt schreiben:

ηi=β0+xi1β1+xi2β2++xikβk=𝐱iβ, wobei 𝐱i=(1,xi1,,xik)(k+1×1) und β=(β0,β1,,βk)(k+1×1).

Hierbei ist β ein (k+1)×1-Spaltenvektor und 𝐱i ist ein transponierter (k+1)×1-Spaltenvektor, sodass das Produkt 𝐱iβ eine 1×1-Matrix bzw. ein Skalar ergibt.

Verwendung in der linearen Regression

Vorlage:Hauptartikel Ein Beispiel für die Verwendung eines linearen Prädiktors ist die lineare Regression, bei der jeder die Beziehung zwischen erklärenden Variablen und Antwortvariablen durch eine additive Störgröße überlagert wird. In der multiple lineare Regression lässt sich der Zusammenhang wie folgt schreiben:

Yi=ηi+εi=𝐱iβ+εi.

Einzelnachweise

  1. Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.
  2. Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.