Diagonalisierbare Matrix

Aus testwiki
Zur Navigation springen Zur Suche springen

Als diagonalisierbare Matrix bezeichnet man im mathematischen Teilgebiet der linearen Algebra eine quadratische Matrix, die ähnlich zu einer Diagonalmatrix ist. Sie lässt sich mittels eines Basiswechsels (also der Konjugation mit einer regulären Matrix) in eine Diagonalmatrix transformieren.[1] Das Konzept lässt sich auf Endomorphismen übertragen.

Vorlage:Anker Definition

Eine quadratische n-dimensionale Matrix A heißt diagonalisierbar oder diagonalähnlich, wenn es eine Diagonalmatrix DA gibt, zu der sie ähnlich ist. Das heißt für A existiert eine reguläre Matrix S, so dass gilt DA=S1AS.

Ein Endomorphismus f:VV über einem endlichdimensionalen Vektorraum V heißt diagonalisierbar, falls eine Basis B von V existiert, bezüglich der die Abbildungsmatrix MB(f) eine Diagonalmatrix ist.

Vorlage:AnkerUnitär diagonalisierbare Matrix

Eine Matrix An×n ist genau dann unitär diagonalisierbar, falls eine unitäre Transformationsmatrix Sn×n existiert, sodass SHAS=S1AS eine Diagonalmatrix ist, wobei SH die zu S adjungierte Matrix ist.

Für eine reellwertige Matrix A folgt die unitäre Diagonalisierbarkeit, falls eine orthogonale Transformationsmatrix Sn×n existiert, sodass STAS=S1AS eine Diagonalmatrix ist, wobei ST die zu S transponierte Matrix ist.

In einem endlichdimensionalen Prähilbertraum V ist ein Endomorphismus f:VV genau dann unitär diagonalisierbar, wenn eine Orthonormalbasis B von V existiert, sodass die Abbildungsmatrix MB(f) eine Diagonalmatrix ist. Die Basis B besteht dann aus Eigenvektoren von f.

Weitere Charakterisierungen der Diagonalisierbarkeit

Sei A eine n-dimensionale Matrix mit Einträgen aus einem Körper K. Jede der folgenden sechs Bedingungen wird genau dann erfüllt, wenn A diagonalisierbar ist.

  1. Das Minimalpolynom μA(λ) zerfällt vollständig in kn paarweise verschiedene Linearfaktoren: μA(λ)=±(λλ1)(λλk) mit λiK
  2. Das charakteristische Polynom χA(λ) zerfällt vollständig in Linearfaktoren und die geometrische Vielfachheit entspricht der algebraischen Vielfachheit für jeden Eigenwert λiK.
  3. Es gibt eine Basis für Kn, die aus Eigenvektoren für A besteht.
  4. Die Summe der Dimensionen der jeweiligen Eigenräume ist gleich n: λσ(A)dim(Eλ(A))=n, wobei σ(A) das Spektrum bezeichnet.
  5. Kn ist die direkte Summe der jeweiligen Eigenräume: Kn=λσ(A)Eλ(A).
  6. Alle Jordanblöcke der Jordanschen Normalform JA haben die Dimension 1.

Eigenschaften einer diagonalisierbaren Matrix

  • Die Diagonaleinträge von DA zu einer diagonalisierbaren Matrix A sind gerade die Eigenwerte von A.
  • Da S invertierbar ist, folgt, dass (Se1,,Sen) linear unabhängig ist.
  • Es ergibt sich die notwendige Bedingung, dass eine n-dimensionale diagonalisierbare Matrix n linear unabhängige Eigenvektoren haben muss. Der Raum, auf dem sie operiert, besitzt also eine Basis aus Eigenvektoren der Matrix. Diese Bedingung ist aber auch hinreichend, denn aus n gefundenen linear unabhängigen Eigenvektoren von A mit den dazugehörigen Eigenwerten lassen sich geeignete DA und S ganz direkt konstruieren.
Das Problem reduziert sich damit auf das Auffinden von n linear unabhängigen Eigenvektoren von A.
  • Eine notwendige, aber nicht hinreichende Bedingung für Diagonalisierbarkeit ist, dass das charakteristische Polynom χA vollständig in Linearfaktoren zerfällt: So ist A=(0100) nicht diagonalisierbar, obwohl χA(X)=X2. Eine hinreichende, aber nicht notwendige Bedingung für Diagonalisierbarkeit ist, dass χA vollständig in paarweise verschiedene Linearfaktoren zerfällt: So ist A=(1001) diagonalisierbar, obwohl χA(X)=(X1)2.
  • Für eine diagonalisierbare Matrix ist die geometrische Vielfachheit ihrer Eigenwerte gleich der jeweiligen algebraischen Vielfachheit. Das bedeutet, die Dimension der einzelnen Eigenräume stimmt jeweils mit der algebraischen Vielfachheit der entsprechenden Eigenwerte im charakteristischen Polynom der Matrix überein.
  • Die Matrixpotenz einer diagonalisierbaren Matrix A lässt sich berechnen durch
An=SDAnS1
Die Potenz einer Diagonalmatrix erhält man durch Potenzieren der Diagonalelemente.

Diagonalisierung

Ist eine Matrix A diagonalisierbar, existiert eine Diagonalmatrix DA, für die die Ähnlichkeitsbedingung erfüllt ist:

DA=S1AS

Zur Diagonalisierung dieser Matrix berechnet man die Diagonalmatrix DA und eine zugehörige Basis aus Eigenvektoren. Dies geschieht in drei Schritten:

  1. Es werden die Eigenwerte λi der Matrix A bestimmt. (Einzelne Eigenwerte können dabei mehrfach vorkommen.)
  2. Es werden die Eigenräume E(λi) zu allen Eigenwerten λi berechnet, also Gleichungssysteme der folgenden Form gelöst
    (AλiI)(e1en)=0.
  3. Weil die geometrische Vielfachheit gleich der algebraischen Vielfachheit jedes Eigenwerts ist, kann man zu jeder maximalen Menge λi1==λik übereinstimmender Eigenwerte eine Basis {bi1,,bik} von E(λi1)==E(λik) finden.
  4. Nun ist die Diagonalform DA der Matrix A bezüglich der Basis B={b1,,bn}:
    DA=diag(λ1,λ2,,λn)
    S=(b1,,bn)

Simultane Diagonalisierung

Gelegentlich will man auch zwei Matrizen A,B mit derselben Transformation S diagonalisieren. Falls das gelingt, gilt S1AS=D1 und S1BS=D2 und da D1 und D2 Diagonalmatrizen sind,

D1D2=D2D1BA=SD2S1SD1S1=SD1D2S1=AB.

Also müssen die Endomorphismen miteinander kommutieren. In der Tat gilt auch die Umkehrung: Kommutieren zwei diagonalisierbare Endomorphismen, so können sie simultan diagonalisiert werden. In der Quantenmechanik gibt es für zwei solche Operatoren dann eine Basis aus gemeinsamen Eigenzuständen.

Beispiel

Sei A=(101020101)3×3 die zu diagonalisierende Matrix. A ist (unitär) diagonalisierbar, da A symmetrisch ist, d. h. es gilt A=AT.

Die Eigenwerte λi von A lassen sich durch die Nullstellen des charakteristischen Polynoms χA bestimmen:

χA(λ)=det(λE3A)=det(λ1010λ2010λ1)=λ(λ2)2

Also λ1=0,λ2=2. Der Eigenwert 2 hat algebraische Vielfachheit aλ2=2, da er doppelte Nullstelle des charakteristischen Polynoms ist.

Zum Bestimmen der Eigenräume setze man die Eigenwerte in E(λ)=Kern(λE3A) ein.

Um alle v3 mit (λE3A)v=0 zu erhalten, fasst man die erweiterte Koeffizientenmatrix (λE3A0) als lineares Gleichungssystem mit unendlichen Lösungen auf.

Für λ=0 erhält man (A0)=(101002001010), mit dem gaußschen Eliminationsverfahren erhalten wir (101001000000) und somit als Lösungsmenge den Eigenraum:

E(λ1)={(α0α):α}=Lin(101),

wobei Lin die lineare Hülle bezeichnet.

Für λ=2 erhält man (2E3A0)=(101000001010), daraus (101000000000) und somit als Lösungsmenge den Eigenraum:

E(λ2)={(αβα):α,β}=Lin{(101),(010)}.

Die Eigenvektoren v1=(101),v2=(101),v3=(010) erhält man aus den Basen der Eigenräume, sie bilden eine Basis von 3.

Wenn man v1,v2,v3 normiert, erhält man mit b1=12(101),b2=12(101),b3=(010) und ={b1,b2,b3} eine Orthonormalbasis, da A symmetrisch und die Eigenvektoren der halbeinfachen Eigenwerte orthogonal zueinander sind (in dem Fall v2v3).

Es gilt also S=(b1,b2,b3)=12(110002110). Daraus erhält man unter der Nutzung der Eigenschaften von Orthonormalbasen die Inverse S1=ST=12(101101020).

DA bestimmt sich durch DA=diag(λ1,λ2,λ3)=diag(0,2,2)=(000020002).

Somit erhält man für DA=S1AS

(000020002)=12(101101020)(101020101)(110002110)

und damit die Diagonalisierung

A=SDAS1=12(110002110)(000020002)(101101020).

Siehe auch

Vorlage:Wikiversity

Einzelnachweise

  1. Uwe Storch, Hartmut Wiebe: Lehrbuch der Mathematik, Band 2: Lineare Algebra. BI-Wissenschafts-Verlag, Mannheim u. a. 1990, ISBN 3-411-14101-8.