Hermitesche Matrix

Aus testwiki
Zur Navigation springen Zur Suche springen

Eine hermitesche Matrix ist in der Mathematik eine komplexe quadratische Matrix, die gleich ihrer adjungierten Matrix ist. Die Einträge einer hermiteschen Matrix oberhalb der Hauptdiagonale ergeben sich demnach durch Spiegelung der Einträge unterhalb der Diagonale und nachfolgender komplexer Konjugation; die Einträge auf der Hauptdiagonale selbst sind alle reell. Hermitesche Matrizen sind nach dem Mathematiker Charles Hermite benannt.

Hermitesche Matrizen weisen eine Reihe besonderer Eigenschaften auf. Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch. Jede komplexe quadratische Matrix lässt sich eindeutig als Summe einer hermiteschen und einer schiefhermiteschen Matrix schreiben. Das Produkt zweier hermitescher Matrizen ist wiederum hermitesch, sofern die beiden Matrizen kommutieren. Eine hermitesche Matrix ist stets normal und selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets unitär diagonalisierbar. Eine wichtige Klasse hermitescher Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind. Eine hermitesche Matrix mit reellen Einträgen ist symmetrisch.

In der linearen Algebra werden hermitesche Matrizen zur Beschreibung hermitescher Sesquilinearformen verwendet. Die Darstellungsmatrix einer komplexen selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets hermitesch. Lineare Gleichungssysteme mit hermitescher Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden hermitesche Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet. Hermitesche Matrizen besitzen Anwendungen unter anderem in der Quantenmechanik.

Definition

Eine komplexe quadratische Matrix A=(ajk)n×n heißt hermitesch, wenn für ihre Einträge

ajk=akj

für j,k=1,,n gilt. Eine hermitesche Matrix stimmt daher mit ihrer adjungierten Matrix AH überein, das heißt, es gilt

A=AH.

Äquivalent dazu ist eine Matrix genau dann hermitesch, wenn ihre transponierte Matrix AT gleich ihrer konjugierten Matrix A¯ ist, also

AT=A

gilt. Eine hermitesche Matrix ist also bis auf komplexe Konjugation aller Einträge spiegelsymmetrisch bezüglich ihrer Hauptdiagonale.

Beispiele

Beispiele für hermitesche Matrizen sind (i stellt die imaginäre Einheit dar):

(2),(1ii1),(13i43+i26+i46i5).

Allgemein haben hermitesche Matrizen der Größe 2×2, 3×3 und 4×4 die Struktur

(ab¯bc),(ab¯c¯bde¯cef),(ab¯c¯d¯bef¯g¯cfhi¯dgij)

mit reellen Zahlen auf der Hauptdiagonale.

Algebraische Eigenschaften

Einträge

Die Diagonaleinträge einer hermiteschen Matrix sind aufgrund von

ajj=ajj

stets reell. Die Matrix aus den Realteilen einer hermiteschen Matrix ist stets symmetrisch, denn

Re(ajk)=Re(akj),

und die Matrix aus den Imaginärteilen einer hermiteschen Matrix stets schiefsymmetrisch, denn

Im(ajk)=Im(akj).

Daher wird eine hermitesche Matrix durch

n+n(n1)2+n(n1)2=n2

reelle Zahlen eindeutig charakterisiert. Im Vergleich dazu wird eine allgemeine komplexe (n×n)-Matrix durch 2n2 reelle Zahlen beschrieben, also gerade doppelt so viele.

Summe

Die Summe A+B zweier hermitescher Matrizen A,Bn×n ist stets wieder hermitesch, denn

(A+B)H=AH+BH=A+B.

Zudem lässt sich jede komplexe quadratische Matrix Mn×n eindeutig als Summe M=A+B einer hermiteschen Matrix A und einer schiefhermiteschen Matrix B schreiben, indem

A=12(M+MH)   und   B=12(MMH)

gewählt werden.

Skalarmultiplikation

Das Produkt cA einer hermiteschen Matrix An×n mit einem Skalar c ist nur wieder hermitesch, wenn c reell ist, denn dann gilt

(cA)H=c¯AH=cA.

Wenn c rein imaginär ist, dann ist das Produkt cA schiefhermitesch. Die hermiteschen Matrizen bilden demnach keinen Untervektorraum im -Vektorraum der komplexen quadratischen Matrizen, sondern lediglich einen Untervektorraum im -Vektorraum der komplexen quadratischen Matrizen. Dieser Untervektorraum hat die Dimension n2, wobei die Standardmatrizen Ejj, 1jn, Ejk+Ekj und i(EjkEkj), 1j<kn, darin eine Basis bilden. Im Raum der hermiteschen Matrizen bilden wiederum die reellen symmetrischen Matrizen einen Untervektorraum.

Produkt

Das Produkt AB zweier hermitescher Matrizen A,Bn×n ist im Allgemeinen nicht wieder hermitesch. Das Produkt hermitescher Matrizen ist genau dann hermitesch, wenn A und B kommutieren, also wenn AB=BA gilt, denn dann ergibt sich

(AB)H=BHAH=BA=AB.

Insbesondere sind damit für eine hermitesche Matrix A auch alle ihre Potenzen Ak mit k und daher auch ihr Matrixexponential eA wieder hermitesch. Für eine beliebige komplexe Matrix Mm×n sind sowohl die m×m-Matrix MMH als auch die n×n-Matrix MHM stets hermitesch.

Normalität

Eine hermitesche Matrix An×n ist stets normal, denn es gilt

AHA=AA=AAH.

Jede hermitesche Matrix kommutiert also mit ihrer Adjungierten. Es gibt allerdings auch normale Matrizen, die nicht hermitesch sind, beispielsweise schiefhermitesche Matrizen.

Kongruenz

Jede komplexe Matrix Bn×n, die kongruent zu einer hermiteschen Matrix An×n ist, ist ebenfalls hermitesch, denn es gilt

BH=(SHAS)H=SHAHS=SHAS=B,

wobei Sn×n die zugehörige Transformationsmatrix ist. Matrizen, die ähnlich zu einer hermiteschen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls hermitesch sein.

Inverse

Ist eine hermitesche Matrix An×n invertierbar, dann ist auch ihre Inverse A1 wieder hermitesch, denn es gilt

(A1)H=(AH)1=A1.

Für eine reguläre hermitesche Matrix A sind demnach auch alle Potenzen Ak mit k wieder hermitesch.

Spektrale Eigenschaften

Selbstadjungiertheit

Eine hermitesche Matrix An×n ist stets selbstadjungiert, denn es gilt mit dem komplexen Standardskalarprodukt ,

Ax,y=(Ax)Hy=xHAHy=xHAy=x,Ay

für alle Vektoren x,yn. Es gilt auch die Umkehrung und jede komplexe selbstadjungierte Matrix ist hermitesch.

Eigenwerte

Die Eigenwerte einer hermiteschen Matrix An×n, das heißt die Lösungen der Eigenwertgleichung Ax=λx, sind stets reell. Ist nämlich λ ein komplexer Eigenwert von A mit zugehörigem Eigenvektor xn, x0, dann gilt mit der Selbstadjungiertheit von A

λx,x=x,λx=x,Ax=Ax,x=λx,x=λ¯x,x.

Nachdem x,x0 für x0 ist, muss λ=λ¯ gelten und der Eigenwert λ damit reell sein.

Vielfachheiten

Bei jeder hermiteschen Matrix An×n stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich λ ein Eigenwert von A mit geometrischer Vielfachheit m, dann existiert eine Orthonormalbasis {x1,,xm} des Eigenraums von λ, welche durch {xm+1,,xn} zu einer Orthonormalbasis des Gesamtraums n ergänzt werden kann. Mit der unitären Basistransformationsmatrix S=(x1xn) ergibt sich damit die transformierte Matrix

C=S1AS=SHAS=(λI00X)

als Blockdiagonalmatrix mit den Blöcken λIm×m und X(nm)×(nm). Für die Einträge cjk von C mit min{j,k}m gilt nämlich mit der Selbstadjungiertheit von A und der Orthonormalität der Basisvektoren x1,,xn

cjk=xj,Axk=Axj,xk=λxj,xk=λδjk,

wobei δjk das Kronecker-Delta darstellt. Da xm+1,,xn nach Voraussetzung keine Eigenvektoren zum Eigenwert λ von A sind, kann λ kein Eigenwert von X sein. Die Matrix C besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert λ genau mit algebraischer Vielfachheit m und aufgrund der Ähnlichkeit der beiden Matrizen damit auch A.[1]

Diagonalisierbarkeit

Nachdem bei einer hermiteschen Matrix An×n algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von A eine Basis des n gebildet werden. Daher ist eine hermitesche Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix Sn×n und eine Diagonalmatrix Dn×n (sogar Dn×n), sodass

S1AS=D

gilt. Die Matrix S=(x1xn) hat dabei die Eigenvektoren x1,,xn als Spalten und die Matrix D=diag(λ1,,λn) hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte λ1,,λn auf der Diagonale. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von D beliebig gewählt werden. Daher sind zwei hermitesche Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei hermitesche Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Unitäre Diagonalisierbarkeit

Die Eigenvektoren xj,xk zu zwei verschiedenen Eigenwerten λjλk einer hermiteschen Matrix An×n sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von A

λjxj,xk=λjxj,xk=Axj,xk=xj,Axk=xj,λkxk=λkxj,xk.

Da λj und λk als verschieden angenommen wurden, folgt daraus dann xj,xk=0. Daher kann aus Eigenvektoren von A eine Orthonormalbasis des n gebildet werden. Damit ist eine hermitesche Matrix sogar unitär diagonalisierbar, das heißt, es gibt eine unitäre Matrix S, mit der

SHAS=D

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen

Aufgrund der Diagonalisierbarkeit einer hermiteschen Matrix An×n gilt für ihre Spur

spur(A)=λ1++λn

und für ihre Determinante entsprechend

det(A)=λ1λn.

Spur und Determinante einer hermiteschen Matrix sind demnach stets reell. Der Rang einer hermiteschen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

rang(A)=n(δλ1,0++δλn,0).

Eine hermitesche Matrix ist genau dann invertierbar, wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer hermiteschen Matrix ist

A2=max{|λ1|,,|λn|}

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

AF=λ12++λn2.

Abschätzungen

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer hermiteschen Matrix An×n der Form

min{λ1,,λn}x,Axx,xmax{λ1,,λn}

für alle xn mit x0. Gleichheit gilt dabei jeweils genau dann, wenn x ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer hermiteschen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für hermitesche Matrizen die Form von Intervallen haben.

Definitheit

Vorlage:Hauptartikel

Ist An×n eine hermitesche Matrix, dann wird der Ausdruck

QA(x)=xHAx=x,Ax

mit xn quadratische Form von A genannt. Je nachdem ob QA(x) größer als, größer gleich, kleiner als oder kleiner gleich null für alle x0 ist, heißt die Matrix A positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann QA(x) sowohl positive, als auch negative Vorzeichen annehmen, so heißt A indefinit. Die Definitheit einer hermiteschen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer hermiteschen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer hermiteschen Matrix unter Kongruenztransformationen erhalten.

Verwendung

Hermitesche Sesquilinearformen

Ist V ein n-dimensionaler komplexer Vektorraum, dann lässt sich jede Sesquilinearform b:V×V nach Wahl einer Basis {v1,,vn} für V durch die Darstellungsmatrix

Ab=(b(vj,vk))n×n

beschreiben. Ist die Sesquilinearform hermitesch, gilt also b(v,w)=b(w,v) für alle v,wV, dann ist auch die Darstellungsmatrix Ab hermitesch. Umgekehrt definiert jede hermitesche Matrix An×n mittels

bA(x,y)=xHAy

eine hermitesche Sesquilinearform bA:n×n. Ist eine hermitesche Matrix An×n zudem positiv definit, dann stellt bA ein Skalarprodukt im unitären Raum n dar.

Selbstadjungierte Abbildungen

Ist (V,,) ein n-dimensionaler komplexer Skalarproduktraum, dann lässt sich jede lineare Abbildung f:VV nach Wahl einer Orthonormalbasis {e1,,en} für V durch die Abbildungsmatrix

Af=(ajk)n×n

darstellen, wobei f(ek)=a1ke1++anken für k=1,,n ist. Die Abbildungsmatrix Af ist nun genau dann hermitesch, wenn die Abbildung f selbstadjungiert ist. Dies folgt aus

f(v),w=(Afx)Hy=xHAfHy=xHAfy=xH(Afy)=v,f(w),

wobei v=x1e1++xnen und w=y1e1++ynen sind.

Projektionen und Spiegelungen

Ist wieder (V,,) ein n-dimensionaler komplexer Skalarproduktraum und ist U ein m-dimensionaler Untervektorraum von V, wobei x1,,xm die Koordinatenvektoren einer Orthonormalbasis für U sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

AU=x1x1H++xmxmHn×n

als Summe hermitescher Rang-Eins-Matrizen ebenfalls hermitesch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum U ist aufgrund der Darstellung AU=IAU stets hermitesch. Mit Hilfe der Projektionsmatrizen AU und AU lässt sich jeder Vektor vV in zueinander orthogonale Vektoren uU und uU zerlegen. Auch die Spiegelungsmatrix I2AU an einem Untervektorraum U ist stets hermitesch.

Lineare Gleichungssysteme

Das Auffinden der Lösung eines linearen Gleichungssystems Ax=b mit hermitescher Koeffizientenmatrix A vereinfacht sich, wenn man die Hermitizität der Koeffizientenmatrix ausnutzt. Auf Grund der Hermitizität lässt sich die Koeffizientenmatrix A als Produkt

A=LDLH

mit einer unteren Dreiecksmatrix L mit lauter Einsen auf der Diagonale und einer Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter hermitescher Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter hermitescher Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung

Jede quadratische Matrix An×n kann mittels der Polarzerlegung auch als Produkt

A=QP

einer unitären Matrix Qn×n und einer positiv semidefiniten hermiteschen Matrix Pn×n faktorisiert werden. Die Matrix P ergibt sich dabei als die Quadratwurzel von AHA. Ist A regulär, so ist P positiv definit und die Polarzerlegung eindeutig mit Q=AP1.

Quantenmechanik

Die in der Quantenmechanik verwendeten Pauli-Matrizen

σ1=σx=(0110),σ2=σy=(0ii0),σ3=σz=(1001)

sind hermitesch und spurfrei. Die Pauli-Matrizen werden unter anderem zur Beschreibung von Isospin-Symmetrien verwendet. Die Gell-Mann-Matrizen sind hermitesche (3×3)-Matrizen, die in der Quantenchromodynamik eingesetzt werden.

Siehe auch

Literatur

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13. durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  • Vorlage:Literatur
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5. überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Einzelnachweise