7.3 Diagonalisierbarkeit

Eine nützliche Technik beim Umgang mit Matrizen ist das Vereinfachen von Matrizen durch eine geeignete Koordinatentransformation.
Ersetzt man beispielsweise in einer linearen Gleichung

\(A\vec{x}=\vec{b}\)

mit \(A\in M(n\times n)\) und \(\vec{b}\in \mathbb {R}^ n\) den Vektor \(\vec{x}\) durch einen Vektor \(\vec{y}\) mit \(\vec{x}= S\vec{y}\), wobei \(S\) eine invertierbare Matrix ist und schreibt gleichzeitig \(\vec{b}=S\vec{c}\), dann folgt durch Einsetzen

\(AS\vec{y}=S\vec{c}\Rightarrow S^{-1}AS\vec{y}=\vec{c}.\)

Die neue (transformierte) Variable \(\vec{y}\) soll also ebenfalls eine lineare Gleichung lösen, aber mit einer anderen Matrix \(S^{-1} A S\) und einer anderen rechten Seite \(\vec{c}=S^{-1}\vec{b}\).

Das Ziel besteht nun darin, eine Matrix \(S\) zu finden, so dass diese neue Matrix \(S^{-1} A S\) so einfach wie möglich wird. Ideal wäre eine Diagonalmatrix, da sich für eine Diagonalmatrix \(D\) das Lineare Gleichungssystem \(D\vec{y} = \vec{c}\) ohne Schwierigkeiten lösen lässt.

Definition (diagonalisierbar):

Eine \(n\times n\)-Matrix \(A\) heißt diagonalisierbar, wenn es eine invertierbare \(n\times n\)-Matrix \(S\) gibt, so dass \(S^{-1}AS\) eine Diagonalmatrix ist.

Wie so oft gibt es eine gute und eine schlechte Nachricht hierzu:

Die gute Nachricht: In vielen Fällen findet man eine Matrix \(S\), so dass \(S^{-1} A S\) eine Diagonalmatrix ist.

Die weniger gute Nachricht: Es gibt durchaus Matrizen \(A\), für die \(S^{-1} A S\) nie eine Diagonalmatrix ist (egal, welche Matrix \(S\) man dabei wählt).

Um zu verstehen, wie die Matrix \(S\) aufgebaut ist, wenn die Diagonalisierung gelingt, schreiben wir die Gleichung \(S^{-1}A S = D\) etwas um in die Form \(A S = SD\) und multiplizieren auf beiden Seiten jeweils von rechts mit dem j-ten Standardbasisvektor:

\(AS\vec{e}_j=SD\vec{e}_j\Leftrightarrow A\vec{s}_j=S\lambda_j\vec{e}_j=\lambda_j S\vec{e}_j=\lambda_j\vec{s}_j\)

wobei \(D=\mathrm{diag}(\lambda _1,\lambda _2,\dots ,\lambda_n)\) und \(\vec{s}_ j\) der j-te Spaltenvektor der Matrix \(S\) ist.

Die Gleichung \(A \vec{s}_ j=\lambda _ j\vec{s}_ j\) bedeutet dann nichts anderes, als dass \(\vec{s}_ j\) ein Eigenvektor der Matrix \(A\) zum Eigenwert \(\lambda _ j\) sein muss.

Daraus schließen wir zwei Dinge:

  1. Wenn \(S^{-1} A S=D\) ist, dann sind die Einträge der Diagonalmatrix \(D\) die Eigenwerte von \(A\)

  2. Wenn \(S^{-1} A S=D\) ist, dann enthält die j-te Spalte der Matrix \(S\) einen Eigenvektor zum Eigenwert \(\lambda _ j\)

Ob eine Matrix diagonalisierbar ist, entscheidet sich an den algebraischen und geometrischen Vielfachheiten ihrer Eigenwerte.

Satz (Diagonalisierbarkeit):

Eine \(n{\times }n\)-Matrix \(A\) ist genau dann diagonalisierbar, wenn die geometrische Vielfachheit jedes Eigenwertes von \(A\) mit seiner algebraischen Vielfachheit übereinstimmt.

Bemerkung: Der wichtigste Spezialfall

Jede \(n \times n\)-Matrix \(A\), die \(n\) verschiedene Eigenwerte besitzt, ist diagonalisierbar,

denn: die n Eigenwerte sind Nullstellen des charakteristischen Polynoms. Dieses ist ein Polynom n-ten Grades und kann nicht mehr als n Nullstellen besitzen. Insbesondere kann auch keine der Nullstellen mehrfach sein, denn die Vielfachheit der Nullstellen wird mitgezählt.
Wenn alle Nullstellen des charakteristischen Polynoms einfach sind, bedeutet dies, dass alle Eigenwerte algebraische einfach sind. Wegen der Eigenschaft, dass die geometrische Vielfachheit eines Eigenwerts nie größer ist als seine algebraische Vielfachheit, sind diese dann automatisch auch geometrisch einfach. Damit ist die Bedingung aus dem vorigen Satz erfüllt und die Matrix ist diagonalisierbar.

Beispiel :
Eine nicht-diagonalisierbare Matrix ist zum Beispiel

\(A=\left(\begin{array}{rr}0&1\\0&0\end{array}\right).\)

Hier lautet das charakteristische Polynom \(\chi _ A(\lambda )=\lambda ^2\), und \(A\) besitzt den algebraisch doppelten Eigenwert \(\lambda _1=\lambda _2=0\). Zu diesem Eigenwert gibt es aber nur einen linear unabhängigen Eigenvektor \(v={1\choose 0}\), die geometrische Vielfachheit ist also kleiner als die algebraische Vielfachheit.

Diagonalisierung - so geht man vor:


Ist bei einer \(n\times n\)-Matrix \(A\) zu entscheiden, ob diese diagonalisierbar ist, dann muss man zunächst die Eigenwerte von \(A\) berechnen.

Sind darunter mehrfache Eigenwerte muss noch geprüft werden, ob zu diesen mehrfachen Eigenwerten auch jeweils eine entsprechende Anzahl an linear unabhängigen Eigenvektoren vorliegt. Falls auch nur für einen Eigenwert zu wenige Eigenvektoren existieren, kann man sofort aufhören, denn dann ist die Matrix sicher nicht diagonalisierbar.

Möchte man nicht nur entscheiden, ob \(A\) diagonalisierbar ist, sondern auch noch die Transformationsmatrizen \(S\) und \(S^{-1}\) angeben, dann benötigt man von allen Eigenwerten (auch von den einfachen) die Eigenvektoren. Nach dem Satz über Diagonalisierbarkeit kann man \(n\) linear unabhängige Eigenvektoren finden. Diese bilden die Spalten der Matrix \(S\).

Um \(S^{-1}\) zu erhalten, kommt man im allgemeinen Fall nicht darum herum, die Matrix \(S\) zu invertieren, was unter Umständen mühsam sein kann. Wenn alles ohne Rechenfehler geklappt hat, ist dann \(S^{-1}AS\) eine Diagonalmatrix, in deren Diagonale die Eigenwerte in derselben Reihenfolge stehen, wie die entsprechenden Eigenvektoren von \(A\) in den Spalten der Matrix \(S\).

Achtung! Ist \(A\) eine symmetrische Matrix, dann ist das Vorgehen etwas anders. Mehr dazu im nächsten Abschnitt!

Beispiel :

Die Matrix \(A=\left(\begin{array}{rrr} -1 & 3 & 1\\ -4 & 7 & 2\\ 6 & -9 & -2\end{array}\right)\) hat das charakteristische Polynom

\(\chi_A(\lambda)=\det(A-\lambda E_3)=-\lambda^3+4\lambda^2-5\lambda+2\)

so dass man den Eigenwert \(\lambda _1=1\) erraten kann. Durch Polynomdivision erhält man

\(\chi_A(\lambda)=\det(A-\lambda E_3)=(1-\lambda)(\lambda^2-3\lambda+2)\)

und daraus die weiteren Eigenwerte \(\lambda _2=1\) und \(\lambda _3=2\).

Das bedeutet, dass \(\lambda _1=\lambda _2=1\) ein algebraisch doppelter und \(\lambda _3=2\) ein algebraische einfacher Eigenwert ist.
Es stellt sich heraus, dass man zu \(\lambda _1\) die beiden linear unabhängigen Eigenvektoren

\(\vec{v}_1=\left(\begin{array}{c}3\\2\\0\end{array}\right)\;\text{ und }\vec{v}_2 =\left(\begin{array}{c} 1 \\ 1 \\ -1\end{array}\right)\)

findet und zu \(\lambda _3=2\) den Eigenvektor

\(\vec{v}_3=\left(\begin{array}{c}1\\2\\-3\end{array}\right).\)

Damit ist

\(S=\left(\begin{array}{rrr}3&1&1\\2&1&2\\0&-1&-3\end{array}\right)\;\text{ und }S^{-1}=\left(\begin{array}{rrr}-1&2&1\\6&-9&-4\\-2&3&1\end{array}\right)\)

wie man durch mühsames Invertieren von \(S\) herausfindet.

Schließlich ist

\(S^{-1}AS=\left(\begin{array}{rrr}-1&2&1\\6&-9&-4\\-2&3&1\end{array}\right)\left(\begin{array}{rrr}-1&3&1\\-4&7&2\\6&-9&-2\end{array}\right)\,\left(\begin{array}{rrr}3&1&1\\2&1&2\\0&-1&-3\end{array}\right)=\left(\begin{array}{rrr}1&0&0\\0&1&0\\0&0&2\end{array}\right)\)

wie gewünscht eine Diagonalmatrix.

Bemerkung :
Eine Matrix in Diagonalform bietet für viele Rechnungen Vorteile, beispielsweise bei der Berechnung von Matrixpotenzen. Ganz allgemein gilt

\(\begin{array}{rcl} \left(S^{-1}AS\right)^k&=&(S^{-1}AS)(S^{-1}AS)\ldots(S^{-1}AS)\\&=& S^{-1}A\underbrace{SS^{-1}}_{=E_n}A\underbrace{SS^{-1}}_{=E_n} \ldots S^{-1}AS=S^{-1}A^kS\end{array}\)

Falls aber sogar \(S^{-1} A S^=D=\mathrm{diag} (\lambda _1,\lambda _2,\dots ,\lambda _ n)\) eine Diagonalmatrix ist, deren Potenzen \(D^ k=\mathrm{diag} (\lambda _1^ k,\lambda _2^ k,\dots ,\lambda _ n^ k)\) leicht zu berechnen sind, dann ist

\(A^k=SD^kS^{-1}=S\left(\begin{array}{rrrr}\lambda_1^k&0&\dots&0\\0&\lambda_2^k&\dots&0\\{\vdots}&{\vdots}&{\ddots}&{\vdots}\\0&0&\dots&\lambda_n^k\end{array}\right)S^{-1}.\)

Zuletzt geändert: Montag, 19. August 2019, 22:15