Die Spektralzerlegung oder spektrale Zerlegung ist in der linearen Algebra die Zerlegung einer quadratischen Matrix in eine Normalform, bei der die Matrix durch ihre Eigenwerte und Eigenvektoren dargestellt wird. Das gelingt genau dann, wenn die Matrix diagonalisierbar ist.[1]:60[2] Grundlage für die Spektralzerlegung ist der Spektralsatz, unter dessen Bedingungen die Schur-Zerlegung die gegebene Matrix in eine Diagonalmatrix transformiert. Die Spektralzerlegung ist die Darstellung der Rücktransformation als Summe von Dyaden.
Gelegentlich wird
- das Auffinden der Eigenwerte und Eigenvektoren einer Matrix
oder
- die Darstellung
mit unitärer Matrix
und ihrer adjungierten 
Spektralzerlegung von
genannt. Die Diagonalmatrix mit den Eigenwerten
einer
-Matrix

ist die sogenannte Spektralmatrix, die das Spektrum der Matrix enthält.[3]:252
Der Wert der dyadischen Zerlegung besteht vor allem in der strikten Trennung von Geometrie (dem Vektorgerüst) und dem Eigenwertspektrum.[3]:275 Die Spektralzerlegung eines Matrizenpaares ist in der Modalanalyse von zentraler Bedeutung.
Definition
Die Zerlegung einer quadratischen
-Matrix über der Grundmenge
in der Form

ist die Spektralzerlegung von
, wenn gilt:[1]:60
- Die
sind die paarweise verschiedenen Eigenwerte von
.
- Die
sind Projektoren (
-Matrizen) mit den Eigenschaften
für
und
für
, wobei
die
-Nullmatrix ist, und
, wobei
die
-Einheitsmatrix ist.
- Es gibt Polynome
mit
.
Eine solche Zerlegung existiert genau dann, wenn
eine diagonalisierbare Matrix ist. Die Matrizen
werden Eigendyaden oder Stützdyaden genannt.[3]:274
Die Spektralzerlegung eines
-Matrizenpaares
regulär, lautet[3]:274


mit den Merkmalen:
- Die
sind die Eigenwerte des Matrizenpaares
, sie erfüllen 
- Die
-Matrizen
genügen den Bedingungen
für
und
für
.
Kriterien für Diagonalisierbarkeit
Eine quadratische
-dimensionale Matrix
heißt unitär diagonalisierbar oder diagonalähnlich, wenn
- sie eine normale Matrix ist, deren Eigenwerte Elemente ihrer Grundmenge sind, oder
- es eine Diagonalmatrix
gibt, zu der sie ähnlich ist, d. h. dass es eine reguläre Matrix
gibt, sodass
eine Diagonalmatrix ist,[4]:344 oder
- sie
linear unabhängige Eigenvektoren besitzt,[4]:344 oder
- die algebraische und geometrische Vielfachheit für jeden Eigenwert von
übereinstimmen.[4]:344
Allgemein gilt:
Ein reelles
-Matrizenpaar ist diagonalähnlich, wenn[3]:270ff
- es
verschiedene Eigenwerte besitzt oder
- es
linear unabhängige Links- und Rechtseigenvektoren besitzt oder
- für jeden der verschiedenen Eigenwerte der Rangabfall (Defekt) gleich der algebraischen Vielfachheit ist.
Diagonalähnliche Matrix
Wegen ihrer Bedeutung in der Praxis[3]:285, beschränkt sich die Darstellung auf reelle symmetrische Matrizen, die immer spektral zerlegt werden können. Des Weiteren wird der
-dimensionale Raum
benutzt, in dem sich Summen, angezeigt durch
, immer über
erstrecken.
Eigenwertproblem
Ausgangspunkt ist das Eigenwertproblem einer Matrix

mit nicht-trivialen, vom Nullvektor
verschiedenen Lösungen
. Der Skalar
ist Eigenwert der Matrix
, wenn es wenigstens einen solchen Vektor
gibt.[4]:338 Die Vektoren
, die der Bedingung ersprechen, sind die zu
gehörenden Eigenvektoren der Matrix
. Mit
ist auch jedes Vielfache von
Eigenvektor, weswegen sie oft, aber nicht notwendigerweise, auf Länge eins normiert werden. Mit der Einheitsmatrix
kann das Eigenwertproblem

geschrieben werden. Damit nicht-triviale Lösungen des Eigenwertproblems existieren, muss die Matrix in den Klammern singulär sein:

Die Nullstellen des charakteristischen Polynoms
sind die Eigenwerte, deren Gesamtheit das Spektrum und dessen betraglich größtes Element den Spektralradius der Matrix
bilden.
Diagonalisierbarkeit einer reellen symmetrischen Matrix
Der Spektralsatz besagt, dass
genau dann diagonalisiert werden kann, wenn
- sie eine normale Matrix ist, sie also mit ihrer transponierten kommutiert
, und
- alle Eigenwerte zur Grundmenge gehören, hier reell sind.
Reelle symmetrische Matrizen sind normal (wegen
ist
) und besitzen ausschließlich reelle Eigenwerte.[4]:345 Denn mit einem komplexen Eigenvektor
und seinem konjugiert komplex transponierten
ist zunächst

mit dem Betragsquadrat
. Bei einer Zahl, aufgefasst als
-Matrix, richtet die Transposition nichts aus, weshalb

Der Überstrich bezeichnet den konjugiert komplexen Wert. Es ist also
,
reell und erwiesen, dass jede reelle symmetrische Matrix diagonalisierbar ist.
Ferner gilt:
Orthogonalität der Eigenvektoren
Die zu verschiedenen Eigenwerten gehörenden Eigenvektoren sind orthogonal zueinander, denn bei zwei Eigenwert-Eigenvektor-Paaren
und
ist bei symmetrischer Matrix

was bei
die Orthogonalität
erzwingt.
Bei gleichen Eigenwerten gilt das nicht, sondern vielmehr, weil die geometrische Vielfachheit der algebraischen entspricht, dass die zu einem
-fachen Eigenwert
gehörenden Eigenvektoren einen
-dimensionalen Unterraum bilden, den Eigenraum von
. Bei einem doppelten Eigenwert erschaffen alle zu ihm gehörenden Eigenvektoren beispielsweise eine zweidimensionale (Hyper-) Ebene. Für die spektrale Zerlegung ist jede Orthonormalbasis des Eigenraums gleich geeignet.
Jedenfalls gibt es
paarweise orthogonale Eigenvektoren
diese werden auf Länge eins normiert und bilden so eine Orthonormalbasis des
. Die Basisvektoren werden mit der Standardbasis
spaltenweise in eine Matrix
einsortiert:

Für
gilt dann nach Konstruktion
, d. h.
ist eine orthogonale Matrix und
oder
, wo
die diagonale #Spektralmatrix ist.
Spektralzerlegung der Matrix
Bei einer reellen symmetrischen Matrix
gibt es eine orthogonale Matrix
, sodass
Diagonalgestalt besitzt.[4]:345 Die #Spektralmatrix lässt sich mit der Standardbasis
als Summe ausdrücken:

Die Rücktransformation
schreibt sich mit den Spaltenvektoren
der Matrix
und den Eigendyaden

als Summe

Das ist die spektrale Zerlegung der Matrix
.
Die Eigendyaden
genügen den Bedingungen in der #Definition:
, wenn
,
, wenn
.

mit der Nullmatrix
und der Einheitsmatrix
.
Anwendungen der Spektralzerlegung
Inverse einer Matrix
Mit der spektralen Zerlegung einer reellen Matrix
kann die inverse Matrix
sofort angegeben werden, sofern sie existiert. Das ist genau dann der Fall, wenn die Determinante, die das Produkt der Eigenwerte
der Matrix ist, nicht null ist, also kein Eigenwert gleich null ist. Die Inverse hat die reziproken Eigenwerte
und die gleichen Eigenvektoren wie die Matrix selbst. Mit der spektralen Zerlegung
schreibt sich die Inverse als

Funktionswert einer Matrix
Für eine skalarwertige Funktion
eines skalaren Arguments
kann der Funktionswert
einer diagonalisierbaren Matrix
mit Hilfe ihrer Spektralzerlegung
definiert werden:

Ist
eine mehrdeutige Funktion, wie die Wurzel, mit
alternativen Werten, dann steht
mehrdeutig für
alternative Matrizen. Die nullte Potenz der Matrix ergibt sich beispielsweise aus
zur Einheitsmatrix
:

Bei einer Potenzreihe einer Matrix ist die spektrale Zerlegung nützlich. Soll

mit konstanten Koeffizienten
berechnet werden, kann das mit dem Polynom

und obiger Definition des Funktionswerts einer diagonalisierbaren Matrix vermöge

abgekürzt werden. Die Berechnung von
-ten Potenzen der
-Matrix
ist somit zurückgeführt auf eine Spektralzerlegung und die Berechnung von
-ten Potenzen von
Skalaren.
Modalanalyse
Die mechanische Beschreibung eines ungedämpften schwingfähigen Systems, z. B. eines Masse-Feder-Systems, führt auf eine Schwingungsgleichung der Form

Darin ist M die positiv definite Massenmatrix,
die Steifigkeitsmatrix, beide symmetrisch und reell,
der Verschiebungsvektor und
der Beschleunigungsvektor, der die zweite Zeitableitung von
ist, angezeigt durch die Überpunkte. Die rechte Seite repräsentiert die Anregung des Systems, auf die es mitunter katastrophal reagiert, wenn bei einer bestimmten Frequenz, der Resonanzfrequenz, dauerhaft

der Nullvektor
ist. In der Nähe der Resonanzfrequenzen, die entsprechend von großem Interesse sind, wird die Schwingung von einer Eigenschwingungsform dominiert, wo in guter Näherung
mit konstantem
, der Eigenfrequenz
und der Zeit
ist. Mit dem Eigenwert
entsteht das verallgemeinerte Eigenwertproblem

des Matrizenpaares
.[3]:246ff
Diagonalähnliches Matrizenpaar
Wegen ihrer Bedeutung in der Praxis[3]:285, beschränkt sich die Darstellung auf reelle Matrizen. Des Weiteren wird der
-dimensionale Raum
benutzt, weswegen sich Summen, angezeigt durch
, immer über
erstrecken.
Verallgemeinertes Eigenwertproblem
Ausgangspunkt des verallgemeinerten Eigenwertproblems des Matrizenpaares
[3]:246ff ist

mit nicht-trivialen, vom Nullvektor
verschiedenen Lösungen
. Der Skalar
ist Eigenwert des Matrizenpaares
, wenn es wenigstens einen solchen Vektor
gibt. Die Vektoren
, die die Bedingung erfüllen, sind die zu
gehörenden Rechtseigenvektoren. Die Linkseigenvektoren
genügen

Damit nicht-triviale Lösungen des Eigenwertproblems existieren, muss die Matrix in den Klammern singulär sein:

Die Nullstellen des charakteristischen Polynoms
sind die Eigenwerte des Matrizenpaares
.
Wenn die Leitmatrix
singulär ist, dann gibt es weniger als
Eigenwerte, unter Umständen auch gar keinen. Beim Skalarpaar ist
und
-facher Eigenwert.[3]:251 Hier wird von regulärer Leitmatrix
ausgegangen.
Orthogonalität der Links- und Rechtseigenvektoren
Mit den Links- und Rechtseigenvektoren
bzw.
lässt sich das Eigenwertproblem auch so schreiben:[3]:251

Zu verschiedenen Eigenwerten gehörende Links- und Rechtseigenvektoren sind bezüglich
und
orthogonal zueinander[3]:253. Denn wird das Eigenwertproblem zu zwei Eigenwert-Eigenvektor-Paaren
und 
von links und rechts mit den gegnerischen Links- bzw. Rechtseigenvektoren multipliziert, entsteht
und 
Bei
sind alle Terme notwendig null, mit der Konsequenz

und damit auch
, wenn 
Zudem gilt:[3]:265
- Ist ein Eigenwert
komplex, dann ist auch sein konjugiert komplexer Wert
Eigenwert, und dieser hat die zu den Eigenvektoren von
konjugiert komplexen Eigenvektoren.
- Der reale und der imaginäre Anteil eines Eigenvektors sind voneinander linear unabhängig (nicht parallel).
Diagonalisierung des Matrizenpaares
Wenn
eine reguläre Matrix ist, werden die Eigenwerte mit der Standardbasis
zur #Spektralmatrix

zusammengefasst. Sind zudem alle
Eigenwerte verschieden, dann gibt es zu jedem von ihnen einen Links- und einen Rechtseigenvektor. Die Linkseigenvektoren werden zeilenweise und die Rechtseigenvektoren spaltenweise in reguläre[3]:269 Modalmatrizen
bzw. 
eingelagert. Wegen der paarweisen Orthogonalität der Links- und Rechtseigenvektoren bezüglich
und
liefern die Produkte


Diagonalmatrizen. Weil
,
und
regulär sind, ist es auch
, und dann können die Linkseigenvektoren so skaliert werden, dass
zu einer Einheitsmatrix wird. Das leistet z. B.
selbst:[3]:269
mit 
Das Matrizenpaar
ist somit diagonalähnlich.
Bei mehrfachen Eigenwerten sind
und
keine strikten Diagonalmatrizen mehr, sondern Blockdiagonalmatrizen, wo sich jeder Block auf einen Eigenwert bezieht und die Dimension seines Eigenraumes die Blockgröße bestimmt. Die zu verschiedenen Eigenwerten gehörenden Außenblöcke in
und
sind wegen der Orthogonalität der Links- und Rechtseigenvektoren bezüglich
und
Nullmatrizen.
In der Praxis interessieren zumeist allein die Rechtseigenvektoren[3]:271 und dann kann, wenn die algebraische und geometrische Vielfachheit bei jedem Eigenwert übereinstimmen, wie folgt fortgefahren werden. Die zu einem Eigenwert
gehörenden
Linkseigenvektoren werden zu einem
-Eigenstreifen
zusammengefasst und mit dem zugehörigen
-Block
der Matrix
normiert:
. Diese Eigenstreifen werden zur Linksmodalmatrix

zusammengestellt, mit der die Transformation auf das strikte Diagonalpaar
und
gelingt,[3]:272 siehe auch das #Beispiel. Für die normierten Linkseigenvektoren
in den Zeilen der Linksmodalmatrix
bedeutet das:
und

und die #Orthogonalität der Links- und Rechtseigenvektoren bezüglich
und
besteht auch hier:
= 0 falls
.
Spektralzerlegung des Matrizenpaars
Die Identität
besagt auch, dass
die inverse Matrix von
und
die Inverse von
ist, und, weil eine Matrix und ihre Inverse kommutieren, ist auch
, mit der Konsequenz:[3]:273ff

Mit den Eigendyaden

entsteht die Spektralzerlegung der Leitmatrix

Multiplikation der Gleichung
von links mit
und von rechts mit
liefert die Spektralzerlegung von
:

Die Eigendyaden erfüllen die Orthogonalitätsbedingungen[3]:274
und
für
, (dabei ist
der Nullvektor und
die Nullmatrix)
sowie die Gegenstücke
für 
Beispiel
Vorgelegt sind die Matrizen[3]:253
und 
Die charakteristische Gleichung

hat die doppelte Nullstelle
und die einfache
. Die Eigenvektoren zum ersten Eigenwert sind nicht-triviale Lösungen von
mit

Ihre Bestimmung erfolgt mit dem Generalschema einer Äquivalenztransformation. Dazu werden Einheitsmatrizen
und die Matrix
in einer Hypermatrix angeordnet
|
|
|
|
wo
die Nullmatrix ist und im Folgenden nicht mehr aufgeführt wird. Nacheinander werden in den Matrizen
und
simultan Zeilen
- mit einer Zahl multipliziert,
- mit einer anderen Zeile vertauscht oder
- mit einer Zahl multipliziert zu einer anderen Zeile addiert.
Entsprechend darf mit den Spalten der Matrizen
und
verfahren werden. Daraus wird
|
|
|
|
|
mit der Eigenschaft
. Die Linkseigenvektoren von
zum Eigenwert null gehören zu Nullzeilen von
und stehen links daneben zeilenweise in
und
enthält die Rechtseigenvektoren spaltenweise, und die gehören zu aus Nullen bestehende Spalten von
, siehe Äquivalenztransformation#Eigenspalten und Eigenzeilen einer singulären Matrix.
| Hier entsteht aus
|
| 1
|
|
|
1
|
2
|
-3
|
|
|
1
|
|
3
|
6
|
-9
|
|
|
|
1
|
5
|
10
|
-15
|
|
|
1
|
|
|
|
|
|
1
|
|
|
|
|
|
1
|
|
, dem Zwischenschritt
|
| 1
|
0
|
0
|
1
|
2
|
-3
|
| -3
|
1
|
0
|
0
|
0
|
0
|
| -5
|
0
|
1
|
0
|
0
|
0
|
|
|
1
|
|
|
|
|
1
|
|
|
|
|
1
|
|
das Endergebnis
| 1
|
0
|
0
|
1
|
0
|
0
|
|
| -3
|
1
|
0
|
0
|
0
|
0
|
| -5
|
0
|
1
|
0
|
0
|
0
|
|
1
|
-2
|
3
|
|
0
|
1
|
0
|
|
|
0
|
0
|
1
|
Die gelb unterlegten Nullzeilen in
weisen auf die Linkseigenvektoren

in den Zeilen von
und die zugehörigen ebenfalls gelb unterlegten Rechtseigenvektoren finden sich unter den Nullspalten von
spaltenweise in
:

Den Links- und Rechtseigenvektor zum Eigenwert 5 bekommt man aus

| dem Startpunkt
|
| 1
|
|
|
-7
|
2
|
-3
|
|
|
1
|
|
3
|
-2
|
-1
|
|
|
|
1
|
-3
|
-6
|
-15
|
|
|
1
|
|
|
|
|
1
|
|
|
|
|
1
|
|
und dem Endergebnis
|
| 1
|
0
|
0
|
-7
|
2
|
0
|
|
| 0
|
1
|
0
|
3
|
-2
|
0
|
| -3
|
-6
|
1
|
0
|
0
|
0
|
|
1
|
0
|
-1
|
|
|
0
|
1
|
-2
|
|
|
0
|
0
|
1
|
|
Die Eigenvektoren finden sich in der gelb unterlegten dritten Zeile und sechsten Spalte der Hypermatrix:
und
.
Damit hat man die Modalmatrizen

Das Produkt

ist eine Blockdiagonalmatrix. Hier bedeutet die Invertierung von N keinen wesentlichen Mehraufwand gegenüber der getrennten Invertierung jedes ihrer Diagonalblöcke und die Normierung der Linkseigenvektoren kann in einem Schritt erfolgen:

Mit dieser Linksmodalmatrix werden
und
diagonalisiert:
und 
Die Eigendyaden sind ausgeschrieben

und geben die spektralen Zerlegungen

Literatur
- ↑ a b Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 5 (Sed bis Zyl). Springer Spektrum Verlag, Mannheim 2017, ISBN 978-3-662-53505-9, doi:10.1007/978-3-662-53506-6.
- ↑ Spektralzerlegung einer Matrix. In: Lexikon der Mathematik. Spektrum Akademischer Verlag, Heidelberg 2017 (spektrum.de).
- ↑ a b c d e f g h i j k l m n o p q r s t R. Zurmühl, S. Falk: Matrizen und ihre Anwendungen 1. Grundlagen, Für Ingenieure, Physiker und Angewandte Mathematiker. Springer, Berlin u. a. 1997, ISBN 3-540-61436-2.
- ↑ a b c d e f g h i G. Bärwolf: Höhere Mathematik für Naturwissenschaftler
und Ingenieure. 3. Auflage. Springer Spektrum, 2017, ISBN 978-3-662-55021-2, doi:10.1007/978-3-662-55022-9.