Prädiktionsmatrix

Aus testwiki
Version vom 19. Dezember 2022, 13:21 Uhr von imported>Paintdog (The American Statistician verlinkt)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der Statistik ist die Prädiktionsmatrix (Vorlage:EnS prediction matrix) eine symmetrische und idempotente Matrix und damit eine Projektionsmatrix. Die Prädiktionsmatrix wird gelegentlich Hut-Matrix oder Dach-Matrix genannt, da sie y auf y^ abbildet. Dementsprechend wird sie entweder mit 𝐏 oder 𝐇 notiert. Der Begriff „Prädiktionsmatrix“ bzw. „Vorhersagematrix“ wurde von Hoaglin & Welsh (1978)[1] sowie Chatterjee & Hadi (1986)[2] geprägt und rührt daher, dass wenn man die Matrix auf die y-Werte anwendet sie die vorhergesagten Werte (y^-Werte) generiert.[2] Eine weitere in der Statistik wichtige Matrix ist die Residualmatrix, die durch die Prädiktionsmatrix definiert wird und ebenfalls eine Projektionsmatrix ist.

Definition

Gegeben ein typisches multiples lineares Regressionsmodell 𝐲=𝐗β+ε, mit β dem p×1 Vektor der unbekannten Regressionsparameter, der n×p Versuchsplanmatrix 𝐗, dem n×1 Vektor der abhängigen Variablen 𝐲 und dem n×1 Vektor der Störgrößen ε. Dann ist die Prädiktionsmatrix definiert durch

𝐏𝐗(𝐗𝐗)1𝐗 mit 𝐏n×n.

Die Matrix 𝐗+=(𝐗𝐗)1𝐗 wird auch Moore-Penrose-Inverse von 𝐗 genannt.

Die mithilfe der Methode der kleinsten Quadrate geschätzte Regressions(hyper)ebene ist dann gegeben durch die Stichproben-Regressionsfunktion 𝐲^=E(𝐲)^=𝐗β^, wobei β^=(𝐗𝐗)1𝐗𝐲 der Kleinste-Quadrate-Schätzvektor ist. Die Prädiktionsmatrix 𝐏 ist die Matrix der Orthogonalprojektion auf den Spaltenraum von 𝐗 und hat maximal den Rang p (p=k+1 ist die Anzahl der Parameter des Regressionsmodells). Falls 𝐗 eine (n×p) Matrix mit Rang(𝐗)=p ist, dann ist Rang(𝐏)=p. Da 𝐏 eine Projektionsmatrix ist, gilt Rang(𝐏)=Spur(𝐏)=p. Die Idempotenz- und die Symmetrieeigenschaft (𝐏𝐏=𝐏 und 𝐏=𝐏) implizieren, dass 𝐏 ein orthogonaler Projektor auf den Spaltenraum S(𝐗)=S(𝐏) ist.[3] Die Projektionsrichtung ergibt sich aus der Matrix (𝐈𝐏), deren Spalten senkrecht auf S(𝐗) stehen. Die Matrix 𝐏 wird Prädiktionsmatrix genannt, da sich die Vorhersagewerte 𝐲^ durch die linksseitige Multiplikation des Vektors 𝐲 mit dieser Matrix ergeben. Dies kann durch Einsetzen des KQ-Parameterschätzers wie folgt gezeigt werden:[4]

𝐲^=𝐗β^=𝐗(𝐗𝐗)1𝐗=𝐏𝐲=𝐏𝐲.

Die Vorhersagewerte von y (die y^-Werte) können also als eine Funktion der beobachteten y-Werte verstanden werden. Zahlreiche statistische Resultate lassen sich auch mit der Prädiktionsmatrix darstellen. Beispielsweise lässt sich der Residualvektor mittels der Prädiktionsmatrix darstellen als: ε^=𝐲𝐲^=𝐲𝐗β^=(𝐈𝐗(𝐗𝐗)1𝐗)𝐲=(𝐈𝐏)𝐲.[5] Die (nichttriviale) Kovarianzmatrix des Residualvektors lautet Cov(ε^)=σ2(𝐈𝐏) und spielt für die Analyse von Hebelwerten eine Rolle.

Eigenschaften

Idempotenz

Die Prädiktionsmatrix ist idempotent. Dies kann so interpretiert werden, dass „zweimaliges Anwenden der Regression zum gleichen Ergebnis führt“. Die Idempotenzeigenschaft der Prädiktionsmatrix kann wie folgt gezeigt werden:

𝐏2=𝐏𝐏=𝐗(𝐗𝐗)1𝐗𝐗(𝐗𝐗)1𝐗=𝐗(𝐗𝐗)1𝐈𝐗=𝐗(𝐗𝐗)1𝐗=𝐏,

wobei 𝐈 die Einheitsmatrix ist.

Symmetrie

Die Prädiktionsmatrix ist symmetrisch. Die Symmetrieeigenschaft der Prädiktionsmatrix kann wie folgt gezeigt werden

𝐏=(𝐗(𝐗𝐗)1𝐗)=((𝐗(𝐗𝐗)1)(𝐗))= (𝐗)(𝐗(𝐗𝐗)1)= 𝐗((𝐗𝐗)1)𝐗= 𝐗(𝐗𝐗)1𝐗=𝐏

Hebelwerte

Die Diagonalelemente pii der Prädiktionsmatrix 𝐏 können als Hebelwerte interpretiert werden und spielen in der Regressionsdiagnostik eine große Rolle. Sie sind gegeben durch

pii=𝐱i(𝐗𝐗)1𝐱i.

Diese Hebelwerte werden bei der Berechnung des Cook-Abstands verwendet und können genutzt werden, um einflussreiche Beobachtungen zu identifizieren. Es gilt 1npii1r, wobei r die Anzahl der Zeilen in der Versuchsplanmatrix 𝐗 darstellt, die unterschiedlich sind. Wenn alle Zeilen unterschiedlich sind, dann gilt 1npii1.[6]

Einzelnachweise

  1. David C. Hoaglin & Roy E. Welsch: The Hat Matrix in Regression and ANOVA. In: The American Statistician, 32(1), 1978, S. 17–22, Vorlage:DOI, Vorlage:JSTOR.
  2. 2,0 2,1 Samprit Chatterjee & Ali S. Hadi: Influential observations, high leverage points, and outliers in linear regression. In: Statistical Science, 1(3), 1986, S. 379–393, Vorlage:DOI, Vorlage:JSTOR.
  3. Wilhelm Caspary: Fehlertolerante Auswertung von Messdaten, S. 124
  4. Rainer Schlittgen: Regressionsanalysen mit R., ISBN 978-3-486-73967-1, S. 27 (abgerufen über De Gruyter Online).
  5. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 122.
  6. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 108.

Vorlage:Navigationsleiste Spezielle Matrizen in der Statistik