Pseudoinverse

Aus testwiki
Version vom 7. Januar 2025, 19:03 Uhr von imported>Lukas897834 (growthexperiments-addlink-summary-summary:2|1|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die Pseudoinverse einer Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra, der auch in der numerischen Mathematik eine wichtige Rolle spielt. Sie ist eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen, weshalb sie häufig auch als verallgemeinerte Inverse bezeichnet wird. Der häufigste Anwendungsfall für Pseudoinversen ist die Lösung linearer Gleichungssysteme und linearer Ausgleichsprobleme.

Eine erste Form wurde von E. H. Moore (1920)[1] und Roger Penrose (1955)[2] beschrieben. Die nach ihnen benannte Moore-Penrose-Inverse ist nicht die einzige Möglichkeit, eine Pseudoinverse zu definieren, häufig wird aber Pseudoinverse synonym mit Moore-Penrose-Inverse benutzt.[3] Die Moore-Penrose-Inverse ist für alle Matrizen mit Einträgen aus den reellen oder komplexen Zahlen definiert und eindeutig. Mit ihr kann man bei linearen Ausgleichsproblemen die optimale Lösung hinsichtlich der kleinsten Summe quadrierter Abweichungen der euklidischen Normen berechnen.

Eine numerisch robuste Methode zur Bestimmung der Moore-Penrose-Inversen baut auf der Singulärwertzerlegung auf.

Allgemeine Pseudoinversen

Die Verallgemeinerung der Bildung der Inversen einer Matrix auf singuläre Matrizen wird in der Literatur nicht einheitlich gehandhabt und orientiert sich oftmals an der zu lösenden Aufgabenstellung (einige Beispiele solcher Verallgemeinerungen sind weiter unten aufgeführt).

Nach Adi Ben-Israel[4] sollte eine Definition von verallgemeinerten Inversen zumindest die folgenden drei Forderungen erfüllen:

  1. Für reguläre Matrizen sollte sich eindeutig die gewöhnliche Inverse ergeben.
  2. Im verallgemeinerten Sinne sollten auch singuläre Matrizen invertierbar sein (wenigstens einige, nicht notwendigerweise alle).
  3. Für singuläre Matrizen sollten die verallgemeinerten Inversen ähnliche Eigenschaften haben wie gewöhnliche Inverse regulärer Matrizen.

Als Ausgangspunkt für die Konstruktion von verschiedenen Pseudoinversen schwächt Adi Ben-Israel[4] dann die vier definierenden Aussagen für die im nächsten Abschnitt beschriebene Moore-Penrose-Inverse in verschiedene Richtungen ab und ergänzt sie durch andere Bedingungen. Die Mindestforderung an eine Pseudoinverse ist die folgende: Eine Matrix B ist genau dann Pseudoinverse von A, wenn gilt:

ABA=A

Dagegen bezeichnet Max Koecher[5] eine Matrix B genau dann als Pseudoinverse von A, wenn für sie die folgenden beiden Aussagen

ABA=A und
BAB=B

zutreffen.

Die erste Bedingung sichert dabei, dass die Spalten y von A durch B auf Lösungen x des Gleichungssystems y=Ax abgebildet werden. Durch die zweite Aussage können keine vom Nullvektor verschiedene Spalten von B im Kern von A liegen.

Die Moore-Penrose-Inverse

Die Moore-Penrose-Inverse (auch einfach Pseudoinverse) einer Matrix Am×n ist die eindeutig bestimmte Matrix A+n×m, welche die folgenden vier Eigenschaften („Moore-Penrose-Bedingungen“) erfüllt:

  • AA+A=A
(A+ ist eine verallgemeinerte Inverse.)
  • A+AA+=A+
(A+ verhält sich wie eine schwache Inverse.)
  • (AA+)*=AA+
(Die Matrix AA+ ist hermitesch.)
  • (A+A)*=A+A
(Die Matrix A+A ist ebenfalls hermitesch.)

Dabei bezeichnet M* die adjungierte Matrix zu einer Matrix M. Bei Matrizen mit Einträgen aus den reellen Zahlen ist diese identisch mit der zu M transponierten Matrix MT.

Die Moore-Penrose-Inverse kann auch durch einen Grenzwert definiert werden:

A+=limδ0(A*A+δEn)1A*=limδ0A*(AA*+δEm)1

mit Ek als der Einheitsmatrix in k×k. Dieser Grenzwert existiert auch dann, wenn (AA*)1 und (A*A)1 nicht existieren.

Rechenregeln

(A+)+=A
A+=A+
(A*)+=(A+)*
(λA)+=λ1A+ für λ0

Spezialfälle

Sind die Spalten der Matrix A linear unabhängig, dann ist A*A invertierbar. In diesem Fall gilt die folgende Gleichung[4]

A+=(A*A)1A*.

Nimmt man die erste Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand δEn. Daraus folgt, dass A+ eine Linksinverse zu A ist.

A+A=En

Sind die Zeilen der Matrix A linear unabhängig, dann ist AA* invertierbar. In diesem Fall gilt die folgende Gleichung

A+=A*(AA*)1.

Nimmt man die zweite Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand δEm. Daraus folgt, dass A+ eine Rechtsinverse zu A ist.

AA+=Em

Sind sowohl Spalten als auch die Zeilen einer Matrix unabhängig, dann ist die Matrix invertierbar, und die Pseudoinverse stimmt mit der Inversen überein.

Ist das Produkt AB zweier Matrizen definiert und eine der beiden eine unitäre Matrix, dann gilt

(AB)+=B+A+.

Man kann die Pseudoinverse auch für Skalare und Vektoren definieren, indem man diese als Matrizen betrachtet. Bei Skalaren ist die Pseudoinverse von null wieder null, und für alle anderen Werte x ist sie x1. Für Vektoren gilt

x+={0T,wenn x=0,x*x*x,sonst.

Diese Behauptungen lassen sich überprüfen, indem man die Kriterien für die Moore-Penrose-Inverse nachprüft.

Ist die Matrix A hermitesch (oder symmetrisch im reellen Fall), dann ist A+ ebenfalls hermitesch (symmetrisch). Aus dem Spektralsatz folgt in diesem Fall die Zerlegung

UAU*=D

und damit

A+=U*D+U,

wobei die Pseudoinverse D+ der Diagonalmatrix D durch

dii+={0,wenn dii=0,1dii,sonst

für alle Diagonaleinträge gegeben ist.

Berechnung

  • Ist k der Rang der m×n-Matrix A, dann kann A in das Produkt A=BC einer m×k-Matrix B und einer k×n-Matrix C zerlegt werden. Es gilt
A+=C*(CC*)1(B*B)1B*.
Hat A vollen Zeilenrang, das heißt, es gilt k=m, dann kann für B die Einheitsmatrix gewählt werden und obige Formel reduziert sich zu
A+=A*(AA*)1.
In ähnlicher Weise gilt für eine Matrix A mit vollem Spaltenrang, das heißt, es gilt k=n, die Gleichung
A+=(A*A)1A*.
  • Mit der Singulärwertzerlegung existiert ein anderes Verfahren zur Berechnung der Pseudoinversen. Ist A=UΣV* die Singulärwertzerlegung von A, dann gilt
A+=VΣ+U*.
Bei einer Diagonalmatrix wie Σm×n entsteht die Pseudoinverse, indem man die Matrix transponiert und die von null verschiedenen Elemente invertiert, also Σ+n×m bildet mit
(Σ)ij+={1σi,falls i=jσi0,0,sonst.
  • Mit Hilfe der Ränderung von Matrizen kann die Pseudoinverse implizit dargestellt oder auch berechnet werden.[6]
  • Der Algorithmus von Greville ist eine endliche iterative Methode zur spaltenweisen Berechnung der Moore-Penrose-Inversen.[7]

Das Verfahren, bei dem man die Matrix A*A benötigt, wird zwar bei der numerischen Berechnung der Lösung überbestimmter Gleichungssysteme der Bequemlichkeit halber öfter benutzt, ist jedoch numerisch instabil, da die Kondition der Matrix quadriert wird. Als stabile und effiziente numerische Methode gilt die Verwendung der QR-Zerlegung. Das auf der Singulärwertzerlegung aufbauende Verfahren ist das aufwendigste, aber auch das numerisch gutartigste. Das auf der Ränderung beruhende Verfahren bietet einen Kompromiss zwischen Aufwand und numerischer Stabilität.

Einen Überblick über numerischen Aufwand und Stabilität der Verfahren gibt auch [6].

Anwendungen

Ist das Gleichungssystem Ax=b nicht lösbar, so lässt sich mit der Pseudoinversen die Lösung nach der Methode der kleinsten Quadrate, also die mit kleinster euklidischer Norm Axb2 als x¯=A+b berechnen.

Gibt es für das Gleichungssystem Ax=b unendlich viele Lösungen, so kann man diese über

x=A+b+(EnA+A)y,yn

bestimmen. Dabei ist x diejenige Lösung des Gleichungssystems, die von y den kleinsten Abstand bezüglich der euklidischen Norm hat.

Ausgewählte weitere Versionen von verallgemeinerten Inversen

Drazin-Inverse

Sei An×n eine Matrix mit Index i (der Index von A ist die minimale ganze Zahl i1 für die Ai und A(i+1) den gleichen Kern haben). Dann ist die Drazin-Inverse diejenige eindeutig definierte n×n-Matrix AD, die den Bedingungen

  • AiADA=Ai
  • ADAAD=AD
  • AAD=ADA

genügt. Sie wurde von Michael Drazin eingeführt.

Berechnung

Zur Berechnung kann man die Zerlegung

T(Λ00N)T1=A

der Matrix An×n in Jordan-Normalform nutzen, wobei Λ der reguläre Teil der Jordan-Form sei und N nilpotent. Die Drazin-Inverse ergibt sich dann zu

AD:=T(Λ1000)T1.

Die Drazin-Inverse einer Matrix mit Index i=1 (für die also N gleich der Nullmatrix ist) bezeichnet man auch als Gruppen-Inverse. Die Gruppen-Inverse ist eine Pseudoinverse nach der Definition von Koecher.[5]

Anwendungen

1. Eine wichtige Anwendung für die Drazin-Inverse ist die analytische Darstellung der Lösung zeitinvarianter linearer Deskriptorsysteme. Als Beispiel diene die Differenzengleichung

Axk+1=xk

eines zeitdiskreten Deskriptorsystems mit der reellen n×n-Matrix A. Die Lösung {xk}k=0,1,2,n der Differenzengleichung erfüllt die Gleichungen Akxk=x0 mit k=0,1,2,. Anfangswerte x0 sind also nur dann konsistent, wenn sie in allen Bildern der Matrizen Ak liegen (sonst bricht die Lösung nach endlich vielen Schritten ab). Die Lösung der Differenzengleichung ist dann xk=(AD)kx0.

2. Für reelle oder komplexe n×n-Matrizen A mit Index i gilt die Gleichung

0texp(At¯)dt¯=k=0i1tk+1(k+1)!Ak(EnAAD)+(exp(At)En)AD.

Damit lässt sich die Sprungantwort eines linearen zeitinvarianten dynamischen Systems

x˙=Ax+buy=cTx

mit Eingangssignal

u(t)={0bei t<01bei t0,

Zustandsvektor x:n×1 (x(0) Nullvektor), Systemmatrix An×n und Ein- beziehungsweise Ausgabevektoren b,cn×1 in der Form

y(t)={0bei t<0cT(k=0i1tk+1(k+1)!Ak(EnAAD)+(exp(At)En)AD)bbei t0

darstellen.

Restringierte verallgemeinerte Inversen – die Bott-Duffin-Inverse

Bei manchen praktischen Aufgabenstellungen ist die Lösung x eines linearen Gleichungssystems

Ax=b(mit vorgegebenem Am×n und bm)

nur dann zulässig, wenn sie innerhalb eines gewissen linearen Teilraumes L von m liegt. Man sagt auch, dass das Problem durch ein restringiertes lineares Gleichungssystem beschrieben wird (englisch constrained linear equation).

Im Folgenden werde der orthogonale Projektor auf L mit PL bezeichnet. Das restringierte lineare Gleichungssystem

Ax=bxL

ist genau dann lösbar, wenn das für das unrestringierte Gleichungssystem

(APL)x=bxm

zutrifft. Ist der Unterraum L ein echter Teilraum von m, so ist die Systemmatrix des unrestringierten Problems (APL) auch dann singulär, wenn sich die Systemmatrix A des restringierten Problems invertieren lässt (in diesem Fall gilt m=n). Das erklärt, dass für die Lösung restringierter Probleme auch Pseudoinverse herangezogen werden. Man bezeichnet eine Pseudoinverse von (APL) dann auch als L-restringierte Pseudoinverse von A. Diese Definition scheint zunächst der Forderung 1 aus Abschnitt Allgemeine Pseudoinversen zu widersprechen. Dieser Widerspruch relativiert sich jedoch wieder, wenn man bedenkt, dass die L-restringierte Pseudoinverse für bijektives A auf dem interessierenden Raum L injektiv ist und dass der Bildraum die gleiche Dimension wie L hat.

Ein Beispiel für eine Pseudoinverse mit der sich die Lösung eines restringierten Problems ermitteln lässt, ist die Bott-Duffin-Inverse von A bzgl. L, die durch die Gleichung

AL(1):=PL(APL+PL)1

definiert ist, falls die auf der rechten Seite auftretende gewöhnliche Inverse existiert.

Anwendungen

Die Bott-Duffin-Inverse kann zur Lösung der Gleichungen eines affin-linearen elektrischen Netzwerkes benutzt werden, wenn sich die Relation zwischen Zweigspannungsbelegungen  vn und Zweigstrombelegungen  in in der Form

Ai+u=u0iL,uL

darstellen lassen, wobei L der Raum aller die kirchhoffschen Knotengleichungen erfüllenden Strombelegungen i ist und u0 die Spaltenmatrix der in die Zweige eingespeisten unabhängigen Quellspannungen sein soll. An dieser Stelle fließt der graphentheoretische Satz von Tellegen ein, der besagt, dass die Räume der Zweigspannungsbelegungen und Zweigstrombelegungen, die die kirchhoffschen Maschen- beziehungsweise Knotengleichungen erfüllen, orthogonal komplementär zueinander sind.

Eine Eigenschaft der Bott-Duffin-Inversen ist, dass mit ihrer Hilfe die zu einer vorgegebenen Quellspannungsbelegung u0 zugehörigen Zweigströme

i=AL(1)u0

und Zweigspannungen

u=(EmAAL(1))u0

berechnet werden können (Em steht für die Einheitsmatrix im m×m).

Literatur

  • W. Mackens, H. Voß: Mathematik I für Studierende der Ingenieurwissenschaften
  • A. Kielbasinski, H. Schwetlick: Numerische lineare Algebra, Deutscher Verlag der Wissenschaften, 1988

Einzelnachweise

  1. E. H. Moore: On the reciprocal of the general algebraic matrix. In: Bulletin of the American Mathematical Society 26, S. 394–395, 1920
  2. Roger Penrose: A generalized inverse for matrices. In: Proceedings of the Cambridge Philosophical Society 51, S. 406–413, 1955, Vorlage:DOI
  3. J. Stoer: Numerische Mathematik 1. Springer Verlag, 2002, ISBN 3-540-66154-9
  4. 4,0 4,1 4,2 Adi Ben-Israel, Thomas N.E. Greville: Generalized Inverses. Springer-Verlag, 2003, ISBN 0-387-00293-6
  5. 5,0 5,1 Max Koecher: Lineare Algebra und analytische Geometrie, Springer-Verlag Berlin, 1997
  6. 6,0 6,1 Nobuo Shinozaki, Masaaki Sibuya, and Kunio Tanabe: Numerical algorithms for the Moore-Penrose inverse of a matrix: Direct methods. Annals of the Institute of Statistical Mathematics, Springer Netherlands, Vol. 24, No. 1, Dec. 1972, pp. 193–203, Vorlage:DOI.
  7. T. N. E. Greville: Some applications of the pseudo inverse of a matrix. SIAM Rev., No. 2, 1960, pp. 15–22, Vorlage:DOI, Vorlage:JSTOR.