Regression der partiellen kleinsten Quadrate

Aus testwiki
Zur Navigation springen Zur Suche springen

Die Regression der partiellen kleinsten Quadrate (Partielle Kleinste-Quadrate-Regression, PLS)[1] ist ein Regressionsmodell ähnlich der Hauptkomponentenregression und ebenfalls ein reduced-rank-regression-Modell[2], bei dem die Eingabe iterativ in latente Räume projiziert wird, welche möglichst korreliert mit dem Ausgaberaum sind. Aus diesen Projektionen werden mehrere hierarchisch aufgebaute lineare Regressionsmodelle aufgebaut.

Kernidee des Algorithmus

Kernidee der Regression der partiellen kleinsten Quadrate. Die Loading-Vektoren v1,w1 im Ein- und Ausgaberaum sind rot gezeichnet (hier zur besseren Sichtbarkeit nicht normiert). Nimmt x1 zu (unabhängig von x2), so nehmen y1 und y2 zu.

Betrachtet man n gepaarte Zufallsstichproben (xi,yi),i1,...,n. als gegeben, so sucht die Regression der partiellen kleinsten Quadrate im ersten Schritt j=1 die normierte Richtung vj, wj so, dass die Korrelation maximiert wird. Es gilt: maxvj,wjEX,Y[(vjX)zj(wjY)rj]=maxvj,wjvjEX,Y[XY]wj, mit Korrelationsmatrix im letzten Term und |vj|=1, |wj|=1

Da die gepaarten Stichproben (xi,yi) zufällig aus der gemeinsamen Verteilung P(X,Y) gezogen wurden (also (Xi,Yi)P(X,Y) gilt), kann der Erwartungswert durch den Stichprobenmittelwert geschätzt werden:

maxvj,wjE^X,Y[(vjX)zj(wjY)rj]=maxvj,wj1ni=1n[(vjxi)zi,j(wjyi)ri,j]
  • vj ist Input-Loading-Vektor im j-ten Schritt
  • wj ist der Output-Loading-Vektor im j-ten Schritt
  • die Projektion zi,j ist der Input-Score der Stichprobe i
  • die Projektion ri,j ist der Output-Score der Stichprobe i

Vorlage:Überarbeiten Für den j+1-ten Schritt werden die Daten im Eingaberaum „deflated“ (jedoch nicht im Ausgaberaum) und dann erneut Richtungen vj+1, wj+1 gesucht: xi(j+1)=xi(j)(vjxi(j))vj=xi(j)zi,jvj

Matrixnotation

Dieser Algorithmus kann in Matrix-Schreibweise dargestellt werden: Dazu werden die Beobachtungen x1xn gesammelt in einer Matrix X der Dimension n×fx (mit fx der Zahl der Merkmale im Eingaberaum) dargestellt, sodass jede Zeile der Matrix eine Beobachtung darstellt (analog für die Beobachtungen y1yn). Es gilt somit: Xα,β=(xα)β. Für jede Beobachtung gilt nun, dass sie in der Basis der Loading-Vektoren dargestellt werden kann xα=j(xαvj)vj+ϵα=jzα,jvj+ϵα, mit einem Restterm ϵα. Für das Matrixelement gilt daher Xα,β=jzα,j(vj)β+(ϵα)β=(ZV+E)α,β, bzw. für die Matrix:

X=ZV+E,
analog für Y=RW+Γ.

Manchmal wird statt der Matrix V auch mit ihrer transponierten V~=VT gearbeitet, dann gilt:

X=ZV~T+E und
Y=RW~T+Γ

Ergebnis

Nach Auffinden der Loading-Vektoren findet häufig eine Interpretation der Loading-Vektoren sowie der Input-Scores statt.

Im Biplot werden die Input-Scores (zi,j=1,zij=2) ausgewählter PLS-Schritte dargestellt, z. B. j=1 und j=2 („Component 1“ und „Component 2“ im Bild). Dadurch entsteht eine Punkt-Wolke der Projektionen der (in höheren Schritten durch Deflation modifizierten) Eingabedaten xi auf die Richtungen vj. Die Pfeile im Biplot werden durch die Projektionen der künstlichen Daten x^1=(100), x^2=(010) und der jeweils korrespondierenden Input-Scores (z^1,j=1=(v1)1,z^1,j=2=(v2)1) erhalten. Da diese künstlichen Daten jeweils ein Merkmal one-hot encoden, kann ihnen eindeutig ein Merkmal zugewiesen werden, welches im Biplot oft direkt an den Pfeil geschrieben wird.

Biplot als Ergebnis der PLS: die gestreuten Punkte sind die Input-Scores der Beobachtungen. Pfeile zeigen die Beiträge jedes Features zum ersten und zweiten Input-Loading-Vektor

Vorteile

Im Vergleich zur Hauptkomponentenanalyse werden nicht die Richtungen maximaler Varianz im Eingaberaum gefunden, sondern die Richtungen maximaler Korrelation von Ein- und Ausgabedaten. Man könnte sonst beispielsweise x-Variablen eine hohe Gewichtung geben, die eine hohe Varianz besitzen, jedoch gar nicht mit der Zielvariablen korrelieren.

Einzelnachweise