Matrixexponential

Aus testwiki
Zur Navigation springen Zur Suche springen

In der Mathematik ist das Matrixexponential, auch als Matrixexponentialfunktion bezeichnet eine Matrixfunktion, welche analog zur gewöhnlichen (skalaren) Exponentialfunktion definiert ist. Das Matrixexponential stellt die Verbindung zwischen Lie-Algebra und der zugehörigen Lie-Gruppe her.

Definition

Sei X eine reelle oder komplexe n×n-Matrix. Das Exponential von X, welches mit eX oder exp(X) bezeichnet wird, ist die n×n-Matrix, welche durch die folgende Potenzreihe definiert ist (Taylor-Entwicklung):

eX=k=0Xkk!=E+X+X22+.

Diese Reihe konvergiert, genauso wie die der gewöhnlichen Exponentialfunktion, immer. Daher ist das Exponential von X wohldefiniert. Wenn X eine 1×1-Matrix ist, entspricht das Matrixexponential von X der gewöhnlichen Exponentialfunktion. Eine Verallgemeinerung, welche auch für unendliche Matrizen sinnvoll ist, ist die Exponentialfunktion auf beliebigen Banachalgebren.

Eigenschaften

Das Matrixexponential teilt eine Reihe der Eigenschaften der gewöhnlichen Exponentialfunktion. Beispielsweise ist das Exponential der (n×n)-Nullmatrix 0 gleich der (n×n)-Einheitsmatrix E:

e0=E.

Für beliebige komplexe n×n-Matrizen X und beliebige komplexe Zahlen a und b gilt

eaXebX=e(a+b)X.

Daraus folgt

eXeX=e(11)X=e0=E,

das heißt

(eX)1=eX.

Dabei bezeichnet (eX)1 die zu eX inverse Matrix.

Die Exponentialfunktion erfüllt ex+y=exey für alle Zahlen x und y. Dasselbe gilt für kommutierende Matrizen X und Y, das heißt, aus

XY=YX

folgt

eX+Y=eXeY.

Für nichtkommutierende Matrizen stimmt diese Gleichung im Allgemeinen nicht. In diesem Fall kann man eX+Y mit Hilfe der Baker-Campbell-Hausdorff-Formel berechnen.

Das Exponential der zu X transponierten Matrix ist gleich der Transposition des Exponentials von X:

exp(XT)=(expX)T

Daraus folgt, dass die Matrixexponentialfunktion symmetrische Matrizen auf symmetrische Matrizen und schiefsymmetrische Matrizen auf orthogonale Matrizen abbildet. Analog gilt zwischen Adjunktion und Exponentiation die Beziehung

exp(X*)=(expX)*,

so dass die Matrixexponentialfunktion hermitesche Matrizen auf hermitesche Matrizen und schiefhermitesche Matrizen auf unitäre Matrizen abbildet.

Weiterhin gelten:

  • Wenn Y invertierbar ist, dann ist eYXY1=YeXY1.
  • det(eX)=etr(X), hier bezeichnet tr(X) die Spur der quadratischen Matrix X.
  • ediag(x1,,xn)=diag(ex1,,exn).

Die Exponentialabbildung

Das Exponential einer Matrix ist immer eine invertierbare Matrix. Die Inverse von eX ist durch eX gegeben. Das (komplexe) Matrixexponential liefert somit eine Abbildung

exp:Mn()GL(n,)

aus dem Vektorraum aller (komplexen) (n×n)-Matrizen in die allgemeine lineare Gruppe, die Gruppe aller (komplexen) invertierbaren Matrizen. Diese Abbildung ist kein Gruppenhomomorphismus auf der gesamten Gruppe Mn(), aber auf jeder Untergruppe, deren Matrizen multiplikativ miteinander kommutieren. Des Weiteren ist sie surjektiv, das heißt, jede (reelle oder komplexe) invertierbare Matrix kann als die Exponentialmatrix einer komplexen Matrix geschrieben werden. Urbilder (bzw. lokale Schnitte) lassen sich durch Matrixlogarithmen berechnen.

Für je zwei Matrizen X und Y gilt

eX+YeXYeXeY,

wobei eine beliebige Matrixnorm bezeichnet. Daraus folgt, dass die Exponentialabbildung stetig und auf kompakten Teilmengen von Mn() sogar lipschitzstetig ist. Für die Norm des Matrixexponentials selbst gibt es aber eine präzisere Schranke

eXeμ(X)

mit der logarithmischen Matrixnorm μ und dem numerischen Wertebereich.

Die Zuordnung

tetX,t,

definiert eine glatte Kurve in der allgemeinen linearen Gruppe, welche für t=0 die Einheitsmatrix liefert. Dies liefert eine Einparameter-Untergruppe der allgemeinen linearen Gruppe, da

etXesX=e(t+s)X

gilt. Die Ableitung dieser Funktion im Punkt t ist durch

ddtetX=XetX(1)

gegeben. Die Ableitung für t=0 ist gerade die Matrix X, das heißt, X erzeugt diese Einparameter-Untergruppe.

Allgemeiner gilt:

ddteX(t)=01e(1α)X(t)dX(t)dteαX(t)dα

Beispiele von Lie-Algebren und zugehörigen Lie-Gruppen

Lie-Gruppe Beispiel
Allgemeine lineare Gruppe
GL(n,K)
𝔤𝔩(n)=Mn()

GL(n)={XMn()|det(X)0}.

Orthogonale Gruppe
O(n,K)
𝔬(n)={XMn()|XT=X}

O(n)={XMn()|XT=X1}

Unitäre Gruppe
U(n)
𝔲(n)={XMn()|X*=X}

U(n)={XMn()|X*=X1}

Spezielle unitäre Gruppe
SU(n)
𝔰𝔲(2)={XM2()|X*=X,tr(X)=0} wird von exp surjektiv auf
SU(2)={AM2()|A*=A1,det(A)=1} abgebildet.
Spezielle orthogonale Gruppe
SO(n,K)
𝔰𝔬(n,)=𝔬(n,)={XMn()|XT=X} (schiefsymmetrische Matrizen)
wird von exp surjektiv auf SO(n,)={AMn()|AT=A1,det(A)=1} abgebildet.
Spezielle lineare Gruppe
SL(n,K)
𝔰𝔩(2,) wird von exp nicht surjektiv auf SL(2,) abgebildet.
Notorisches Gegenbeispiel (1a01)SL(2,) mit a0 liegt nicht im Bild von 𝔰𝔩(2,).

Aus dem letzten Beispiel ist ersichtlich, dass die Exponentialabbildung für die Erzeugung von Lie-Gruppen (je nach Lie-Algebra) im Allgemeinen nicht surjektiv ist.

Lineare Differentialgleichungen

Einer der Vorzüge des Matrixexponentials ist, dass man es benutzen kann, um Systeme von linearen gewöhnlichen Differentialgleichungen zu lösen, die z. B. für das Zustandsraummodell von dynamischen Übertragungssystemen verwendet werden. Aus Gleichung (1) oben folgt zum Beispiel, dass die Lösung des Anfangswertproblems

ddty(t)=Ay(t),y(t0)=y0

mit einer quadratischen Matrix A durch

y(t)=eA(tt0)y0

gegeben ist.

Das Matrixexponential kann auch zur Lösung der inhomogenen Gleichung

ddty(t)=Ay(t)+z(t),y(t0)=y0,

verwendet werden. Beispiele findet man unten im Kapitel Anwendungen.

Für Differentialgleichungen der Form

ddty(t)=A(t)y(t),y(t0)=y0

mit nicht-konstantem A gibt es im Allgemeinen keine geschlossenen Lösungen. Die Magnus-Reihe liefert jedoch eine allgemeine Lösung in Matrixschreibweise über die Matrix-Exponentialfunktion auch im Fall nicht-konstanter Koeffizienten (als unendliche Reihe des Exponenten).[1]

Berechnung des Matrixexponentials

Taylor-Reihe

Die Exponentialfunktion der Matrix An×n und t kann prinzipiell über ihre Taylor-Entwicklung berechnet werden:

exp(At)=k=0Aktkk!=E+At+A2t22+A3t36+A4t424+

Hierbei bezeichnet k! die Fakultät von k. Bei ausreichender Genauigkeit (Reihe ist absolut konvergent) soll die Reihe bei einer endlichen Zahl an Berechnungsschritten abbrechen. Je größer die Einträge der Matrix sind, desto mehr Glieder der Reihe müssen aber berechnet werden (z. B. für die Lösung der linearen DGL für einen großen Zeitschritt). Um den Lösungsalgorithmus dahingehend zu verbessern, kann man die Einträge der Matrix mittels der Rechenregel eAt=(eAt/m)m elegant skalieren ("Scaling & Squaring"-Methode). Ist die (natürliche-) Matrixnorm At nicht zu groß, kann die Berechnung der Reihe auch über die Padé-Approximation erfolgen. Die Scaling & Squaring-Methode hat einen Aufwand der Größenordnung 𝒪(n3) (im Wesentlichen Matrizenmultiplikationen). Der Faktor von n3 ist abhängig von den Skalierungsparametern sowie insbesondere von der Matrixnorm.

Nilpotenter Fall

Eine Matrix N ist nilpotent, wenn Nq=0 für eine geeignete natürliche Zahl q gilt. In diesem Fall bricht die Reihenentwicklung von eN nach einer endlichen Anzahl von Termen ab und das Matrixexponential kann als

exp(N)=E+N+12N2+16N3++1(q1)!Nq1

berechnet werden.

Diagonalisierung der Matrix

Ist die Matrix D eine Diagonalmatrix

D=(a1000a2000an),

dann kann man ihr Exponential ermitteln, indem man die gewöhnliche Exponentialfunktion auf jeden Eintrag der Hauptdiagonalen anwendet:

eD=(ea1000ea2000ean).

Damit kann man auch das Exponential einer diagonalisierbaren Matrix A berechnen. Zur Diagonalisierung

A=VDV1

mit einer Diagonalmatrix D werden die zugehörige Eigenbasis V sowie die n Eigenwerte λ1,,λn der Matrix A bestimmt. Für die Matrix-Exponentialfunktion folgt daraus

exp(At)=VeDtV1=Vdiag(eλ1t,eλ2t,,eλnt)V1

mit der skalaren Exponentialfunktion teλit. Der Beweis folgt direkt aus der Taylor-Entwicklung der Exponentialfunktion.

Die Diagonalisierung der Matrix gehört, wie auch der QR-Algorithmus oder die Jordansche Normalform, zu den Matrix-Zerlegungsmethoden zur Berechnung der Exponentialfunktion. Die Diagonalisierung und der QR-Algorithmus haben dabei jeweils einen Aufwand der Größenordnung 𝒪(n3) und sind aber, im Vergleich zu Methoden auf Basis der Taylor-Entwicklung, unabhängig von At. Der wesentliche Berechnungsaufwand (hier: Bestimmung der Eigenwerte und Eigenvektoren) ist zudem unabhängig von der Variablen t. Zur Lösung beispielsweise von linearen Differentialgleichungen für mehrere Zeitschritte t muss dieser Arbeitsaufwand also nur einmalig erbracht werden. Die Berechnung der weiteren Zeitschritte erfolgt bei der Methode Diagonalisierung durch einfache Matrizenmultiplikation und bei dem QR-Algorithmus liegt der Aufwand in der Größenordnung von nur noch 𝒪(n2).

Beispiel 1

Es soll das Matrixexponential etA für die folgende Matrix berechnet werden:

A=(01a2,1a2,2).

Hierzu wird die (2×2)-Matrix A zunächst mittels der Eigenwerte und den Eigenvektoren diagonalisiert. Mit der Diagonalmatrix D und der Eigenbasis V folgt:

exp(At)=VeDtV1=V(eλ1t00eλ2t)V1.

Die Eigenwerte werden aus dem charakteristischen Polynom bestimmt zu

λ1,2=a2,22±(a2,22)2+a2,1.

Für die beiden Eigenvektoren bzw. die Eigenbasis gilt:

V=(11λ1λ2)sowie V1=1λ2λ1(λ21λ11)

Einsetzen für die Matrix-Exponentialfunktion liefert schließlich

exp(At)=1λ2λ1(λ2eλ1tλ1eλ2teλ2teλ1tλ1λ2(eλ1teλ2t)λ2eλ2tλ1eλ1t)

als geschlossene analytische Lösung.[2]

Beispiel 2

Die Matrix-Exponentialfunktion

exp(At)=exp[(3445)t]=((1+4t)et4tet4tet(14t)et)

kann explizit berechnet werden, jedoch ist die Matrix A selbst nicht diagonalisierbar. Die Matrix besitzt die beiden Eigenwerte λ1,2=1. Obwohl also der Eigenwert die algebraische Vielfachheit 2 hat, existiert nur ein linear unabhängiger Eigenvektor. Die Basis aus den Eigenvektoren

V=(a2,1a2,1λ1a1,1λ2a1,1)=(4444)

ist nicht invertierbar. Die Diskriminante des charakteristischen Polynoms

D2=(a1,1a2,22)2+a1,2a2,1=(3(5)2)216

wird dabei immer null. In diesem Fall, also wenn gleiche Eigenwerte bzw. Eigenvektoren vorkommen, kann formell die Jordansche Normalform zur Transformation verwendet werden.

Splitting-Methode

Zerfällt das Minimalpolynom (bzw. das charakteristische Polynom) der Matrix X in Linearfaktoren (über ist das stets der Fall), dann kann X eindeutig in eine Summe

X=A+N

zerlegt werden, wobei

  • A diagonalisierbar ist,
  • N nilpotent ist und
  • A mit N kommutiert (d. h. AN=NA).

Damit kann man das Exponential von X berechnen, indem man es auf die vorgenannten Fälle reduziert: eX=eA+N=eAeN. Im letzten Schritt benötigt man die Kommutativität von A und N.

Verwendung der jordanschen Normalform

Eine weitere Methode ist die Verwendung der jordanschen Normalform von X, wobei auch die Splitting-Methode zum Einsatz kommt. Sei J die jordansche Normalform von X mit der Basiswechselmatrix P, dann gilt

eX=PeJP1.

Wegen

J=Ja1(λ1)Ja2(λ2)Jan(λn)

gilt

eJ=exp(Ja1(λ1)Ja2(λ2)Jan(λn))=exp(Ja1(λ1))exp(Ja2(λ2))exp(Jak(λk)).

Daher muss man nur das Exponential eines Jordan-Blocks kennen. Nun ist jeder Jordan-Block von der Form

Ja(λ)=λE+N,

wobei N eine spezielle nilpotente Matrix ist. Das Exponential des Jordan-Blocks ist also

eλE+N=eλeN.

Beispiel

Man betrachte die Matrix

B=(211765164416),

welche die jordansche Normalform

J=P1BP=(40001610016)

mit der Übergangsmatrix

P=(11581118020)

hat. Dann gelten

J=J1(4)J2(16)

und

eB=PeJP1=P(eJ2(16)eJ1(4))P1.

Somit ist

exp[(160016)+(0100)]=e16E[(1001)+(0100)+12!(0000)+]=(e16e160e16).

Das Exponential einer 1×1-Matrix ist trivial. Mit eJ1(4)=e4 folgt

exp(B)=Pexp(J)P1=P(e4000e16e1600e16)P1=14(13e16e413e165e42e162e49e16+e49e16+5e42e16+2e416e1616e164e16).

Die jordansche Normalform und daraus das Exponential zu berechnen, ist auf diesem Weg sehr mühsam. Meist reicht es, die Wirkung der Exponential-Matrix auf einige Vektoren zu berechnen.

Numerische Berechnung

Die Jordan-Normalform-Zerlegung ist numerisch instabil, da aufgrund der Gleitkommaarithmetik Rundungsfehler in die Eigenwerte eingeführt werden, die eine Gruppierung der Eigenwerte in Gruppen identischer Eigenwerte unmöglich macht. Daher werden in der Numerik andere Techniken zur Berechnung des Matrixexponentials verwendet. Zu den effektivsten verfügbaren Algorithmen gehören die Padé-Approximation mit Skalieren und Quadrieren (s. Berechnung mittels Taylorreihe) oder die Matrix-Zerlegungsmethoden wie die Diagonalisierung der Matrix. Bei großen Matrizen kann der Rechenaufwand auch reduziert werden, indem Krylowräume verwendet werden, deren Basisvektoren mit dem Arnoldi-Verfahren orthogonalisiert worden sind.

Explizite Formeln

Mittels der Diagonalisierung über die Eigenwerte und Eigenvektoren ist die Darstellung der Matrix-Exponentialfunktion einer 2×2-Matrix auch als explizite Formel möglich. Insbesondere der Umweg über die teils komplexen Eigenwerte ist damit nicht mehr notwendig:[3]

exp(At)=(a1,1a2,22f(t)+f(t)a1,2f(t)a2,1f(t)a2,2a1,12f(t)+f(t))ea1,1+a2,22t

Für die Hilfsfunktion f(t) gilt in Abhängigkeit der reellen, komplexen, oder gleichen Eigenwerte (anhand der Diskriminante D des charakteristischen Polynoms):

D=(a1,1a2,22)2+a1,2a2,1 f(t) f(t)
>0 sinh(Dt)D cosh(Dt)
<0 sin(|D|t)|D| cos(|D|t)
=0 t 1

Putzer-Algorithmus

Vorlage:Hauptartikel Eine weitere Möglichkeit, das Matrixexpontial zu berechnen, ist der Putzer-Algorithmus. Dabei definiert man bei gegebener Matrix An×n und t rekursiv stetig-differenzierbare Funktion pk und Matrizen Mk, so dass gilt:

exp(At)=k=1npk(t)Mk1

Die Lösung des Matrixexponentials einer (n×n)-Matrix wird hierbei als Polynom erhalten. Die Berechnung hat dabei einen Aufwand der Größenordnung 𝒪(n4) (Berechnung der Eigenwerte sowie insbesondere n Matrizenmultiplikationen) und eignet sich daher eher nur für kleine Matrizen.

Anwendungen

Homogene lineare Differentialgleichungen

Das Matrixexponential kann für die Lösung eines Systems von linearen Differentialgleichungen verwendet werden. Eine Differentialgleichung der Form

y=Cy

hat die Lösung eCt. Wenn man den Vektor

𝐲(t)=(y1(t)yn(t))

betrachtet, dann kann man ein System von gekoppelten linearen Differentialgleichungen betrachten als

𝐲(t)=A𝐲(t)+𝐛.

Wenn man den Integrationsfaktor etA ansetzt und auf beiden Seiten multipliziert, erhält man

etA𝐲(t)etAA𝐲=etA𝐛,

also

ddt(etA𝐲)=etA𝐛.

Wenn man etA berechnet, erhält man eine Lösung des Differentialgleichungssystems.

Beispiel (homogen)

Gegeben sei das folgende Differentialgleichungssystem

y1=3y1y2,y2=y1+y2.

Es lässt sich schreiben als y(t)=Ay(t) mit der Koeffizientenmatrix

A=(3111).

Damit ergibt sich das zugehörige Matrixexponential zu

etA=e2t(1+ttt1t).

Als allgemeine Lösung des Differentialgleichungssystems erhält man somit

(y1(t)y2(t))=C1e2t(1+tt)+C2e2t(t1t).

Inhomogener Fall – Variation der Konstanten

Für den inhomogenen Fall kann man die Methode der Variation der Konstanten benutzen. Es wird eine Lösung der Form 𝐲p(t)=etA𝐳(t) gesucht:

𝐲p(t)=(etA)𝐳(t)+etA𝐳(t)=AetA𝐳(t)+etA𝐳(t)=A𝐲p(t)+etA𝐳(t)

Um die Lösung 𝐲p zu ermitteln, fordert man

etA𝐳(t)=𝐛(t),

also

𝐳(t)=etA𝐛(t)

und daher

𝐳(t)=𝐳(t0)+t0teuA𝐛(u)du.

Damit ergibt sich

𝐲p(t)=etA𝐳(t0)+etAt0teuA𝐛(u)du=e(tt0)A𝐲0+t0te(tu)A𝐛(u)du,

wobei die Anfangsbedingung 𝐲p(t0)=𝐲0 angenommen worden ist.

Beispiel (inhomogen)

Gegeben sei das Differentialgleichungssystem

y1=3y1y22et,y2=y1+y2et.

Mit der Matrix A von oben schreibt sich das System

y(t)=Ay(t)+b(t)

mit

b(t)=et(21).

Die allgemeine Lösung der homogenen Gleichung wurde bereits oben berechnet. Die Summe aus homogenen und speziellen Lösungen ergibt die Lösung für das inhomogene Problem. Man muss jetzt nur noch eine spezielle Lösung yp(t) finden (über die Variation der Konstanten). Von der Gleichung oben erhält man:

yp(t)=etA0teuAb(u)du,

also

yp(t)=e2t(1+ttt1t)0te2u(1uuu1+u)(2eueu)du=(e2t(1+t)+ette2t).

Siehe auch

Literatur

  • Roger A. Horn, Charles R. Johnson: Topics in Matrix Analysis. Cambridge University Press, 1991, ISBN 0-521-46713-6 (englisch).
  • Vorlage:Literatur
  • V. I. Arnolʹd: Gewöhnliche Differentialgleichungen. Springer-Verlag, Berlin / New York 1980, ISBN 3-540-09216-1.

Einzelnachweise

  1. S. Blanes, F. Casas, J. A. Oteo, J. Ros: The Magnus expansion and some of its applications. (= Physics Reports. Band 470). Cornell University Library, 2009, Vorlage:OCLC.
  2. T. Möller: Symbolic mathematics-based simulation of cylinder spaces for regenerative gas cycles. In: Int J Energy Environ Eng. Springer Berlin/ Heidelberg, Feb. 2015. http://link.springer.com/article/10.1007/s40095-015-0163-3
  3. T. Möller: Simulation und konstruktive Optimierung der Wärmeübertrager regenerativer Gaskreisprozesse. Shaker Verlag Düren, Aug. 2022. http://www.shaker.de/shop/978-3-8440-8706-2