Symmetrische Matrix

Aus testwiki
Version vom 10. Januar 2025, 08:12 Uhr von imported>Inkspiring (growthexperiments-addlink-summary-summary:2|0|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen
Datei:Matrix symmetry qtl1.svg
Symmetriemuster einer symmetrischen (5×5)-Matrix

Eine symmetrische Matrix ist in der Mathematik eine quadratische Matrix, deren Einträge spiegelsymmetrisch bezüglich der Hauptdiagonale sind. Eine symmetrische Matrix stimmt demnach mit ihrer transponierten Matrix überein.

Die Summe zweier symmetrischer Matrizen und jedes skalare Vielfache einer symmetrischen Matrix ist wieder symmetrisch. Die Menge der symmetrischen Matrizen fester Größe bildet daher einen Untervektorraum des zugehörigen Matrizenraums. Jede quadratische Matrix lässt sich dabei eindeutig als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben. Das Produkt zweier symmetrischer Matrizen ist genau dann symmetrisch, wenn die beiden Matrizen kommutieren. Das Produkt einer beliebigen Matrix mit ihrer Transponierten ergibt eine symmetrische Matrix.

Symmetrische Matrizen mit reellen Einträgen weisen eine Reihe weiterer besonderer Eigenschaften auf. So ist eine reelle symmetrische Matrix stets selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets orthogonal diagonalisierbar. Für komplexe symmetrische Matrizen gelten diese Eigenschaften im Allgemeinen nicht; das entsprechende Gegenstück sind dort hermitesche Matrizen. Eine wichtige Klasse reeller symmetrischer Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind.

In der linearen Algebra werden symmetrische Matrizen zur Beschreibung symmetrischer Bilinearformen verwendet. Die Darstellungsmatrix einer selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets symmetrisch. Lineare Gleichungssysteme mit symmetrischer Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden symmetrische Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet.

Symmetrische Matrizen besitzen Anwendungen unter anderem in der Geometrie, der Analysis, der Graphentheorie und der Stochastik.

Eng verwandt mit den Matrizen sind die Tensoren zweiter Stufe, die ein wichtiges mathematisches Hilfsmittel in den Natur- und Ingenieurwissenschaften, insbesondere in der Kontinuumsmechanik sind, siehe #Symmetrische Tensoren.

Definition

Eine quadratische Matrix A=(aij)Kn×n über einem Körper K heißt symmetrisch, wenn für ihre Einträge

aij=aji

für i,j=1,,n gilt. Eine symmetrische Matrix ist demnach spiegelsymmetrisch bezüglich ihrer Hauptdiagonale, das heißt, es gilt

A=AT,

wobei AT die transponierte Matrix bezeichnet.

Beispiele

Beispiele für symmetrische Matrizen mit reellen Einträgen sind

(2),(1557),(1110),(130326065).

Allgemein haben symmetrische Matrizen der Größe 2×2, 3×3 und 4×4 die Struktur

(abbc),(abcbdecef),(abcdbefgcfhidgij).

Klassen symmetrischer Matrizen beliebiger Größe sind unter anderem

Eigenschaften

Einträge

Datei:Symmetric matrix qtl1.svg
Bei einer symmetrischen Matrix müssen nur die Einträge auf und unterhalb der Diagonalen gespeichert werden

Aufgrund der Symmetrie wird eine symmetrische Matrix AKn×n bereits durch ihre n Diagonaleinträge und die n(n1)2 Einträge unterhalb (oder oberhalb) der Diagonalen eindeutig charakterisiert. Eine symmetrische Matrix weist demnach höchstens

n+n(n1)2=n(n+1)2

verschiedene Einträge auf. Im Vergleich dazu kann eine nichtsymmetrische (n×n)-Matrix bis zu n2 unterschiedliche Einträge besitzen, also bei großen Matrizen fast doppelt so viele. Zur Speicherung symmetrischer Matrizen im Computer gibt es daher spezielle Speicherformate, die diese Symmetrie ausnutzen.[1]

Summe

Die Summe A+B zweier symmetrischer Matrizen A,BKn×n ist stets wieder symmetrisch, denn

(A+B)T=AT+BT=A+B.

Ebenso ist auch das Produkt cA einer symmetrischen Matrix mit einem Skalar cK wieder symmetrisch. Nachdem auch die Nullmatrix symmetrisch ist, bildet die Menge der symmetrischen n×n-Matrizen einen Untervektorraum

Symmn={AKn×nAT=A}

des Matrizenraums Kn×n. Dieser Untervektorraum besitzt die Dimension n2+n2, wobei die Standardmatrizen Eii, 1in, und Eij+Eji, 1i<jn darin eine Basis bilden.

Zerlegung

Falls die Charakteristik des Körpers K ungleich 2 ist, lässt sich jede beliebige quadratische Matrix MKn×n eindeutig als Summe M=A+B einer symmetrischen Matrix A und einer schiefsymmetrischen Matrix B schreiben, indem

A=12(M+MT)   und   B=12(MMT)

gewählt werden. Die schiefsymmetrischen Matrizen bilden dann ebenfalls einen Untervektorraum Skewn des Matrizenraums mit Dimension n2n2. Der gesamte n2-dimensionale Raum Kn×n lässt sich folglich als direkte Summe

Kn×n=SymmnSkewn

der Räume der symmetrischen und der schiefsymmetrischen Matrizen schreiben.

Produkt

Das Produkt AB zweier symmetrischer Matrizen A,BKn×n ist im Allgemeinen nicht wieder symmetrisch. Das Produkt symmetrischer Matrizen ist genau dann symmetrisch, wenn A und B kommutieren, also wenn AB=BA gilt, denn dann ergibt sich

(AB)T=BTAT=BA=AB.

Insbesondere sind damit für eine symmetrische Matrix A auch alle ihre Potenzen Ak mit k und daher auch ihr Matrixexponential eA wieder symmetrisch. Für eine beliebige Matrix MKm×n sind sowohl die m×m-Matrix MMT als auch die n×n-Matrix MTM stets symmetrisch.

Kongruenz

Jede Matrix BKn×n, die kongruent zu einer symmetrischen Matrix AKn×n ist, ist ebenfalls symmetrisch, denn es gilt

BT=(STAS)T=STATS=STAS=B,

wobei SKn×n die zugehörige Transformationsmatrix ist. Matrizen, die ähnlich zu einer symmetrischen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls symmetrisch sein.

Inverse

Ist eine symmetrische Matrix AKn×n invertierbar, dann ist auch ihre Inverse A1 wieder symmetrisch, denn es gilt

(A1)T=(AT)1=A1.

Für eine reguläre symmetrische Matrix A sind demnach auch alle Potenzen Ak mit k wieder symmetrisch.

Reelle symmetrische Matrizen

Symmetrische Matrizen mit reellen Einträgen besitzen eine Reihe weiterer besonderer Eigenschaften.

Normalität

Eine reelle symmetrische Matrix An×n ist stets normal, denn es gilt

ATA=AA=AAT.

Jede reelle symmetrische Matrix kommutiert also mit ihrer Transponierten. Es gibt allerdings auch normale Matrizen, die nicht symmetrisch sind, beispielsweise schiefsymmetrische Matrizen.

Selbstadjungiertheit

Eine reelle symmetrische Matrix An×n ist stets selbstadjungiert, denn es gilt mit dem reellen Standardskalarprodukt ,

Ax,y=(Ax)Ty=xTATy=xTAy=x,Ay

für alle Vektoren x,yn. Es gilt auch die Umkehrung und jede reelle selbstadjungierte Matrix ist symmetrisch. Aufgefasst als komplexe Matrix ist eine reelle symmetrische Matrix stets hermitesch, denn es gilt

AH=A¯T=AT=A,

wobei AH die adjungierte Matrix zu A und A¯ die konjugierte Matrix zu A ist. Damit sind reelle symmetrische Matrizen auch selbstadjungiert bezüglich des komplexen Standardskalarprodukts.

Eigenwerte

Datei:Symmetric transformation qtl1.svg
Durch eine reelle symmetrische (2×2)-Matrix wird der Einheitskreis (blau) in eine Ellipse (grün) transformiert. Die Halbachsen der Ellipse (rot) entsprechen den Beträgen der Eigenwerte der Matrix.

Die Eigenwerte einer reellen symmetrischen Matrix An×n, das heißt die Lösungen der Eigenwertgleichung Ax=λx, sind stets reell. Ist nämlich λ ein komplexer Eigenwert von A mit zugehörigem Eigenvektor xn, x0, dann gilt mit der komplexen Selbstadjungiertheit von A

λx,x=x,λx=x,Ax=Ax,x=λx,x=λ¯x,x.

Nachdem x,x0 für x0 ist, muss λ=λ¯ gelten und der Eigenwert λ damit reell sein. Daraus folgt dann auch, dass der zugehörige Eigenvektor x reell gewählt werden kann.

Vielfachheiten

Bei jeder reellen symmetrischen Matrix An×n stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich λ ein Eigenwert von A mit geometrischer Vielfachheit k, dann existiert eine Orthonormalbasis {x1,,xk} des Eigenraums von λ, welche durch {xk+1,,xn} zu einer Orthonormalbasis des Gesamtraums n ergänzt werden kann. Mit der orthogonalen Basistransformationsmatrix S=(x1xn) ergibt sich damit die transformierte Matrix

C=S1AS=STAS=(λI00X)

als Blockdiagonalmatrix mit den Blöcken λIk×k und X(nk)×(nk). Für die Einträge cij von C mit min{i,j}k gilt nämlich mit der Selbstadjungiertheit von A und der Orthonormalität der Basisvektoren x1,,xn

cij=xi,Axj=Axi,xj=λxi,xj=λδij,

wobei δij das Kronecker-Delta darstellt. Da xk+1,,xn nach Voraussetzung keine Eigenvektoren zum Eigenwert λ von A sind, kann λ kein Eigenwert von X sein. Die Matrix C besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert λ genau mit algebraischer Vielfachheit k und aufgrund der Ähnlichkeit der beiden Matrizen damit auch A.[2]

Diagonalisierbarkeit

Da bei einer reellen symmetrischen Matrix An×n algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von A eine Basis des n gebildet werden. Daher ist eine reelle symmetrische Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix Sn×n und eine Diagonalmatrix Dn×n, sodass

S1AS=D

gilt. Die Matrix S=(x1xn) hat dabei die Eigenvektoren x1,,xn als Spalten und die Matrix D=diag(λ1,,λn) hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte λ1,,λn auf der Diagonalen. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von D beliebig gewählt werden. Daher sind zwei reelle symmetrische Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei reelle symmetrische Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Orthogonale Diagonalisierbarkeit

Datei:Eigenvectors-extended.gif
Bei einer symmetrischen Matrix stehen die Eigenvektoren (blau und violett) zu verschiedenen Eigenwerten (hier 3 und 1) senkrecht aufeinander. Durch Anwendung der Matrix werden blaue Vektoren um den Faktor drei gestreckt, während violette Vektoren ihre Länge beibehalten.

Die Eigenvektoren xi,xj zu zwei verschiedenen Eigenwerten λiλj einer reellen symmetrischen Matrix An×n sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von A

λixi,xj=λixi,xj=Axi,xj=xi,Axj=xi,λjxj=λjxi,xj.

Da λi und λj als verschieden angenommen wurden, folgt daraus dann xi,xj=0. Daher kann aus Eigenvektoren von A eine Orthonormalbasis des n gebildet werden. Damit ist eine reelle symmetrische Matrix sogar orthogonal diagonalisierbar, das heißt, es gibt eine orthogonale Matrix S, mit der

STAS=D

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen

Aufgrund der Diagonalisierbarkeit einer reellen symmetrischen Matrix An×n gilt für ihre Spur

spur(A)=λ1++λn

und für ihre Determinante entsprechend

det(A)=λ1λn.

Der Rang einer reellen symmetrischen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

rang(A)=n(δλ1,0++δλn,0).

Eine reelle symmetrische Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer reellen symmetrischen Matrix ist

A2=max{|λ1|,,|λn|}

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

AF=λ12++λn2.

Definitheit

Vorlage:Hauptartikel

Ist An×n eine reelle symmetrische Matrix, dann wird der Ausdruck

QA(x)=xTAx=x,Ax

mit xn quadratische Form von A genannt. Je nachdem ob QA(x) größer als, größer gleich, kleiner als oder kleiner gleich null für alle x0 ist, heißt die Matrix A positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann QA(x) sowohl positive, als auch negative Vorzeichen annehmen, so heißt A indefinit. Die Definitheit einer reellen symmetrischen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer reellen symmetrischen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer reellen symmetrischen Matrix unter Kongruenztransformationen erhalten.

Abschätzungen

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer reellen symmetrischen Matrix An×n der Form

min{λ1,,λn}x,Axx,xmax{λ1,,λn}

für alle xn mit x0. Gleichheit gilt dabei jeweils genau dann, wenn x ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer reellen symmetrischen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für reelle symmetrische Matrizen die Form von Intervallen haben.

Sind A,Bn×n zwei reelle symmetrische Matrizen mit absteigend sortierten Eigenwerten λ1λn und μ1μn, dann gibt die Fan-Ungleichung die Abschätzung

spur(AB)λ1μ1++λnμn.

Gleichheit ist hierbei genau dann erfüllt, wenn die Matrizen A und B simultan geordnet diagonalisierbar sind, das heißt, wenn eine orthogonale Matrix Sn×n existiert, sodass A=Sdiag(λ1,,λn)ST und B=Sdiag(μ1,,μn)ST gelten. Die Fan-Ungleichung stellt eine Verschärfung der Cauchy-Schwarz-Ungleichung für das Frobenius-Skalarprodukt und eine Verallgemeinerung der Umordnungs-Ungleichung für Vektoren dar.[3]

Komplexe symmetrische Matrizen

Zerlegung

Die Zerlegung des komplexen Matrizenraums n×n als direkte Summe der Räume symmetrischer und schiefsymmetrischer Matrizen

n×n=SymmnSkewn

stellt eine orthogonale Summe bezüglich des Frobenius-Skalarprodukts dar. Es gilt nämlich

A,BF=spur(AHB)=spur(A¯B)=spur(BA¯)=spur((BA¯)T)=spur(AHB)=A,BF

für alle Matrizen ASymmn und BSkewn, woraus A,BF=0 folgt. Die Orthogonalität der Zerlegung gilt entsprechend auch für den reellen Matrizenraum n×n.

Spektrum

Bei komplexen Matrizen An×n hat die Symmetrie keine besonderen Auswirkungen auf das Spektrum. Eine komplexe symmetrische Matrix kann auch nicht-reelle Eigenwerte besitzen. Beispielsweise hat die komplexe symmetrische Matrix

A=(1ii1)2×2

die beiden Eigenwerte λ1,2=1±i. Es gibt auch komplexe symmetrische Matrizen, die nicht diagonalisierbar sind. Zum Beispiel besitzt die Matrix

A=(1ii1)2×2

den einzigen Eigenwert λ=0 mit algebraischer Vielfachheit zwei und geometrischer Vielfachheit eins. Allgemein ist sogar jede komplexe quadratische Matrix ähnlich zu einer komplexen symmetrischen Matrix. Daher weist das Spektrum einer komplexen symmetrischen Matrix keinerlei Besonderheiten auf.[4] Das komplexe Gegenstück reeller symmetrischer Matrizen sind, was die mathematischen Eigenschaften betrifft, hermitesche Matrizen.

Faktorisierung

Jede komplexe symmetrische Matrix An×n lässt sich durch die Autonne-Takagi-Faktorisierung

UTAU=D

in eine unitäre Matrix Un×n, eine reelle Diagonalmatrix D=diag(σ1,,σn)n×n und die Transponierte von U zerlegen. Die Einträge der Diagonalmatrix sind dabei die Singulärwerte von A, also die Quadratwurzeln der Eigenwerte von AHA.[5]

Verwendung

Symmetrische Bilinearformen

Ist V ein n-dimensionaler Vektorraum über dem Körper K, dann lässt sich jede Bilinearform b:V×VK nach Wahl einer Basis {v1,,vn} für V durch die Darstellungsmatrix

Ab=(b(vi,vj))Kn×n

beschreiben. Ist die Bilinearform symmetrisch, gilt also b(v,w)=b(w,v) für alle v,wV, dann ist auch die Darstellungsmatrix Ab symmetrisch. Umgekehrt definiert jede symmetrische Matrix AKn×n mittels

bA(x,y)=xTAy

eine symmetrische Bilinearform bA:Kn×KnK. Ist eine reelle symmetrische Matrix An×n zudem positiv definit, dann stellt bA ein Skalarprodukt im euklidischen Raum n dar.

Selbstadjungierte Abbildungen

Ist (V,,) ein n-dimensionaler reeller Skalarproduktraum, dann lässt sich jede lineare Abbildung f:VV nach Wahl einer Orthonormalbasis {e1,,en} für V durch die Abbildungsmatrix

Af=(aij)n×n

darstellen, wobei f(ej)=a1je1++anjen für j=1,,n ist. Die Abbildungsmatrix Af ist nun genau dann symmetrisch, wenn die Abbildung f selbstadjungiert ist. Dies folgt aus

f(v),w=(Afx)Ty=xTAfTy=xTAfy=xT(Afy)=v,f(w),

wobei v=x1e1++xnen und w=y1e1++ynen sind.

Projektionen und Spiegelungen

Datei:Orthogonal Decomposition qtl1.svg
Orthogonale Zerlegungen werden durch symmetrische Matrizen beschrieben

Ist wieder (V,,) ein n-dimensionaler reeller Skalarproduktraum und ist U ein k-dimensionaler Untervektorraum von V, wobei x1,,xk die Koordinatenvektoren einer Orthonormalbasis für U sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

AU=x1x1T++xkxkTn×n

als Summe symmetrischer Rang-Eins-Matrizen ebenfalls symmetrisch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum U ist aufgrund der Darstellung AU=IAU stets symmetrisch. Mit Hilfe der Projektionsmatrizen AU und AU lässt sich jeder Vektor vV in zueinander orthogonale Vektoren uU und uU zerlegen. Auch die Spiegelungsmatrix I2AU an einem Untervektorraum U ist stets symmetrisch.

Lineare Gleichungssysteme

Das Auffinden der Lösung eines linearen Gleichungssystems Ax=b mit symmetrischer Koeffizientenmatrix A vereinfacht sich, wenn man die Symmetrie der Koeffizientenmatrix ausnutzt. Auf Grund der Symmetrie lässt sich die Koeffizientenmatrix A als Produkt

A=LDLT

mit einer unteren Dreiecksmatrix L mit lauter Einsen auf der Diagonale und einer Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter symmetrischer Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter symmetrischer Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung

Jede quadratische Matrix An×n kann mittels der Polarzerlegung auch als Produkt

A=QP

einer orthogonalen Matrix Qn×n und einer positiv semidefiniten symmetrischen Matrix Pn×n faktorisiert werden. Die Matrix P ergibt sich dabei als die Quadratwurzel von ATA. Ist A regulär, so ist P positiv definit und die Polarzerlegung eindeutig mit Q=AP1.

Anwendungen

Geometrie

Datei:Quadriken-alle.png
Quadriken können durch symmetrische Matrizen beschrieben werden

Eine Quadrik im n-dimensionalen euklidischen Raum ist die Nullstellenmenge eines quadratischen Polynoms in n Variablen. Jede Quadrik kann somit als Punktmenge der Form

Q={xnxTAx+2bTx+c=0}

beschrieben werden, wobei An×n mit A0 eine symmetrische Matrix, bn und c sind.

Analysis

Die Charakterisierung der kritischen Punkte einer zweimal stetig differenzierbaren Funktion f:Dn kann mit Hilfe der Hesse-Matrix

Hf(x)=(2fxixj(x))n×n

vorgenommen werden. Nach dem Satz von Schwarz ist die Hesse-Matrix stets symmetrisch. Je nachdem ob Hf(x) positiv definit, negativ definit oder indefinit ist, liegt an der kritischen Stelle x ein lokales Minimum, ein lokales Maximum oder ein Sattelpunkt vor.

Graphentheorie

Datei:Complete network.svg
Ein ungerichteter kanten­gewichteter Graph besitzt stets eine symmetrische Adjazenzmatrix

Die Adjazenzmatrix AG eines ungerichteten kantengewichteten Graphen G=(V,E,d) mit der Knotenmenge V={v1,,vn} ist durch

AG=(aij)¯n×n   mit   aij={d(e)fallse={vi,vj}Esonst

gegeben und damit ebenfalls stets symmetrisch. Auch von der Adjazenzmatrix durch Summation oder Potenzierung abgeleitete Matrizen, wie die Laplace-Matrix, die Erreichbarkeitsmatrix oder die Entfernungsmatrix, sind dann symmetrisch. Die Analyse solcher Matrizen ist Gegenstand der spektralen Graphentheorie.

Stochastik

Ist X=(X1,,Xn) ein Zufallsvektor bestehend aus n reellen Zufallsvariablen X1,,Xn mit endlicher Varianz, dann ist die zugehörige Kovarianzmatrix

ΣX=(Cov(Xi,Xj))n×n

die Matrix aller paarweisen Kovarianzen dieser Zufallsvariablen. Nachdem Cov(Xi,Xj)=Cov(Xj,Xi) für i,j=1,,n gilt, ist eine Kovarianzmatrix stets symmetrisch.

Symmetrische Tensoren

Tensoren sind ein wichtiges mathematisches Hilfsmittel in den Natur- und Ingenieurwissenschaften, insbesondere in der Kontinuumsmechanik, da sie neben dem Zahlenwert und der Einheit auch noch Informationen über Orientierungen im Raum enthalten[Anm. 1]. Die Komponenten des Tensors verweisen auf Tupel von Basisvektoren, die durch das dyadische Produkt „⊗“ verknüpft sind. Alles, was oben über reelle symmetrische Matrizen als Ganzem geschrieben steht, lässt sich auf symmetrische Tensoren zweiter Stufe übertragen. Insbesondere haben auch sie reelle Eigenwerte und paarweise orthogonale oder orthogonalisierbare Eigenvektoren. Für symmetrische positiv definite Tensoren zweiter Stufe wird auch ein Funktionswert analog zur Quadratwurzel einer Matrix oder zum Matrixexponential definiert, siehe auch Formelsammlung Tensoralgebra#Symmetrische und positiv definite Tensoren.

Koeffizientenmatrix von symmetrischen Tensoren 2. Stufe

Nicht ohne Weiteres lassen sich die Aussagen über die Einträge in den Matrizen auf Tensoren übertragen, denn bei letzteren hängen sie vom verwendeten Basissystem ab. Nur bezüglich der Standardbasis – oder allgemeiner einer Orthonormalbasis – können Tensoren zweiter Stufe mit einer Matrix identifiziert werden. Der Anschaulichkeit halber beschränkt sich die allgemeine Darstellung hier auf den reellen drei-dimensionalen Vektorraum, nicht zuletzt auch wegen seiner besonderen Relevanz in den Natur- und Ingenieurwissenschaften.

Jeder Tensor zweiter Stufe kann bezüglich zweier Vektorraumbasen a1,2,3 und b1,2,3 als Summe

𝐓=i,j=13Tijaibj

geschrieben werden. Bei der Transposition werden im dyadischen Produkt die Vektoren vertauscht. Der transponierte Tensor ist somit

𝐓=i,j=13Tijbjai=i,j=13Tjibiaj

Eine mögliche Symmetrie ist hier nicht einfach erkennbar; jedenfalls genügt die Bedingung Tij=Tji nicht für den Nachweis. Die Bedingung gilt jedoch bezüglich einer Orthonormalbasis ê1,2,3

𝐓=i,j=13Tije^ie^j=(T11T12T13T21T22T23T31T32T33)e^ie^j

Hier kann die Symmetrie 𝐓=𝐓 aus seiner Koeffizientenmatrix abgelesen werden:

Tik=Tki,i,k=1,2,3

Dies gilt auch bezüglich einer allgemeinen, nicht orthonormalen, kontravarianten[Anm. 2] Basis ĝ1,2,3:[Anm. 3]

𝐓=i,j=13Tijg^ig^j,𝐓=i,j=13Tijg^jg^i=i,j=13Tjig^ig^j

Sollen beide Tensoren gleich sein, dann folgt auch hier die Symmetrie der Koeffizientenmatrix Tij=Tji,i,j=1,2,3. In obiger Form wird der Tensor kovariant genannt. Beim kontravarianten Tensor wird die Duale Basis benutzt, sodass 𝐓=i,j=13Tijg^ig^j. Für ihn folgt die Symmetrie der Koeffizientenmatrix wie beim kovarianten Tensor. Beim gemischtvarianten Tensor werden beide Basen benutzt

𝐓=i,j=13Tijg^ig^j,𝐓=i,j=13Tijg^jg^i=i,j=13Tjig^ig^j=:i,j=13Tijg^ig^j

Sind beide Tensoren identisch, ist Tji=Tij, weswegen die Indizes bei symmetrischen Tensoren übereinander gestellt werden können: Tij=Tji=Tji. Dann hat man

𝐓=i,j=13Tjig^ig^j,𝐓=i,j=13Tjig^jg^i=i,j=13Tijg^ig^j

Die gemischtvariante Koeffizientenmatrix ist beim gemischtvarianten Tensor im Allgemeinen nicht symmetrisch. Besagtes gilt entsprechend auch für symmetrische gemischtvariante Tensoren der Form 𝐓=i,j=13Tijg^ig^j.

Invarianz der Symmetrieeigenschaft

Die Symmetrie eines Tensors ist von Basiswechseln unberührt. Das ist daran ersichtlich, dass die Vektorinvariante, die ausschließlich vom schiefsymmetrischen Anteil bestimmt wird und nur bei symmetrischen Tensoren der Nullvektor ist, invariant gegenüber Basiswechseln ist.

Betrag eines Tensors

Der Betrag eines Tensors, definiert mit der Frobeniusnorm

𝐓:=Sp(𝐓𝐓),

lässt sich bei symmetrischen Tensoren mit den Hauptinvarianten I1,2 darstellen:

I1:=Sp(𝐓)I2:=12[Sp(𝐓)2Sp(𝐓𝐓)]=12(I12Sp(𝐓𝐓))=12(I12𝐓2)𝐓=I122I2.

Symmetrie von Tensoren höherer Stufe

Auch bei Tensoren höherer Stufe werden bei der Transposition die Basisvektoren in den Dyadischen Produkten vertauscht. Allerdings gibt es dort mehrere Möglichkeiten die Basisvektoren zu permutieren und entsprechend gibt es vielfältige Symmetrien bei Tensoren höherer Stufe. Bei einem Tensor vierter Stufe 𝐀4 wird durch die Notation 𝐀4ik der i-te Vektor mit dem k-ten Vektor vertauscht, beispielsweise

𝐀4=i,j,k,l=13Aijkle^ie^je^ke^l𝐀413=i,j,k,l=13Aijkle^ke^je^ie^l

Bei der Transposition „“ ohne Angabe der Positionen werden die ersten beiden durch die letzten beiden Vektoren vertauscht[Anm. 4]:

𝐀4=i,j,k,l=13Aijkle^ke^le^ie^j

Symmetrien liegen dann vor, wenn der Tensor mit seiner irgendwie transponierten Form übereinstimmt.

Einzelnachweise bezüglich Tensoren

Siehe auch

Einzelnachweise

Literatur

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13., durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  • Vorlage:Literatur
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5., überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Vorlage:Normdaten