Die angenehmen Eigenschaften der Eigenwerte und Eigenvektoren symmetrischer Matrizen kann man ausnutzen, um solche Matrizen zu diagonalisieren.

Definition (orthogonale Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt orthogonal, wenn \(AA^ T=A^ T A=E_ n\) ist, d.h. wenn \(A^{-1} = A^ T\).

Ein Beispiel anzeigen

\( A= \left(\begin{array}{rrr} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{3}} & \frac{1}{\sqrt{6}} \\ 0 & \frac{1}{\sqrt{3}} & \frac{-2}{\sqrt{6}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{3}} & \frac{1}{\sqrt{6}} \end{array}\right) \) ist eine orthogonale Matrix

Satz:
Sei \(A\) eine orthogonale Matrix. Dann bilden die Spaltenvektoren von \(A\) eine Orthonormalbasis des \(\mathbb {R}^ n\). Die Zeilenvektoren von \(A\) bilden ebenfalls eine Orthonormalbasis des \(\mathbb {R}^ n\).

Beweis: Die Spaltenvektoren bilden eine Basis, da die Matrix invertierbar ist.
Sei \(A = (\vec{a}_1, \dots , \vec{a}_ n)\), d.h. \(\vec{a}_1, \dots , \vec{a}_ n\) seien die Spaltenvektoren von \(A\). Dann sind \(\vec{a}_1^ T, \dots , \vec{a}_ n^ T\) die Zeilenvektoren von \(A\) und die Matrix \(A^ TA\) hat als Eintrag in der \(i\)-ten Zeile und \(j\)-ten Spalte den Koeffizienten \(\vec{a}_ i^ T \vec{a}_ j\). Nun ist aber \(A^ TA=E_ n\), das heißt dieser Koeffizient ist entweder Null oder eins, genauer

\(\begin{array}{rcl}\vec{a}_i^T\vec{a}_j&=&1 \;\; \text{ falls } \;\; i=j\\\vec{a}_i^T\vec{a}_j&=&0 \;\; \text{ falls }\;\; i\neq j\end{array}\)

Die erste Zeile bedeutet \(\| \vec{a}_ i\| =1\), die zweite, dass \(\vec{a}_ i\) und \(\vec{a}_ j\) für \(i\neq j\) aufeinander senkrecht stehen.

Um die Zeilenvektoren als Orthonormalsystem zu identifizieren kann man genauso argumentieren, indem man benutzt, dass die Transponierten dieser Zeilenvektoren gerade die Spaltenvektoren von \(A^ T\) sind und dann die Gleichung \(AA^ T=E_n\) verwendet.

Satz (Diagonalisierbarkeit symmetrischer Matrizen):

Sei \(A\) eine symmetrische \(n\times n\)-Matrix. Dann existiert eine orthogonale Matrix \(S\), so dass \(S^{-1}AS\) eine Diagonalmatrix ist, deren Diagonaleinträge die Eigenwerte von \(A\) sind.

Die Spaltenvektoren der Matrix \(S\) bilden eine Orthonormalbasis aus Eigenvektoren der Matrix \(A\).

Der Beweis dieses Satzes lässt sich mit unseren Mitteln nicht exakt führen.
Da es sich aber um einen sehr wichtigen und häufig benutzten Satz handelt, soll wenigstens das
Vorgehen kurz skizziert werden. Beim Verständnis helfen auch die etwas abstrakteren Begriffe aus Kapitel 9.

Beweisidee:
Nach dem vorhergehenden Satz besitzt die Matrix \(A\) mindestens einen reellen Eigenwert \(\lambda_1\) und einen zugehörigen normierten Eigenvektor \(\vec{v}_1\).
Wir betrachten nun die Menge \(U_1=\{\vec{x}\in\mathbb{R}^n;\;\vec{x}\cdot \vec{v}_1=0\}\), das sogenannte orthogonale Komplement von \(\vec{v}_1\). Jeder Vektor \(\vec{x}\in\mathbb{R}^n\) lässt sich schreiben als

\(\vec{x}=\alpha \vec{v}_1+\vec{u}_1 \) mit \(\alpha\in\mathbb{R}\) und \(u_1\in U_1.\)
Dann ist

\(A\vec{u}_1\cdot\vec{v}_1=\vec{u}_1\cdot (A^T\vec{v}_1) =\vec{u}_1\cdot (A\vec{v}_1)
=\vec{u}_1\cdot (\lambda_1\vec{v}_1)=\lambda_1 (\vec{u}_1\cdot \vec{v}_1)=0\)
.


Damit liegt \(A\vec{u}_1\in U_1\), man sagt, dass \(U_1\) invariant unter \(A\) ist, d.h. wenn man einen beliebigen Vektor aus \(U_1\) auswählt und die Matrix \(A\) darauf anwendet, dann landet man wieder in \(U_1\).

Die Menge \(U_1\) ist ein Untervektorraum (siehe Kapitel 9) und um eine Dimension kleiner als der gesamt Raum, d.h. \(U_1\) hat die Dimension n-1.

Betrachtet man nun die Matrix \(A\) nur noch für Vektoren aus \(U_1\), kann man dieselbe Argumentation im wesentlichen wiederholen: Zunächst findet man einen reellen Eigenwert \(\lambda_2\) (der auch mit \(\lambda_1\) übereinstimmen könnte) undeinen zugehörigen normierten Eigenvektor \(\vec{v}_2\). Dieser ist wegen der
Konstruktion von \(U_1\) automatisch orthogonal zu \(\vec{v}_1\).

Nun wiederholt man dasselbe Verfahren und konstruiert einen Untervektorraum \(U_2\), der aus allen Vektoren besteht, die senkrecht zu \(\vec{v}_1\) und \(\vec{v}_2\) sind, und dessen Dimension nur noch n-2 ist.
So kann man sich in n Schritten n reelle Eigenwerte und n zugehörige normierte Eigenvektoren \(\vec{v}_1, \vec{v}_2,\dots, \vec{v}_n\) beschaffen, die jeweils senkrecht aufeinander stehen. Da diese n Vektoren eine Basis aus Eigenvektoren bilden, ist \(A\) diagonalisierbar und nach der beschriebenen Konstruktion sind \(\vec{v}_1, \vec{v}_2,\dots, \vec{v}_n\) die Spaltenvektoren einer orthogonalen Matrix \(S\). Beides zusammen zeigt, dass \(S^{-1}AS\) eine Diagonalmatrix ist, deren Diagonaleinträge die Eigenwerte \(\lambda_1,\lambda_2,\ldots,\lambda_n\) von \(A\) sind.


Bemerkung (Diagonalisieren von symmetrischen Matrizen):

Wenn eine symmetrische Matrix \(A\) diagonalisiert werden soll, kann man nach einem festen Schema vorgehen.

  1. Eigenwerte bestimmen

  2. Eigenvektoren bestimmen

  3. Fälle unterscheiden: Falls alle Eigenwerte einfach sind, genügt es, die Eigenvektoren zu normieren, diese sind dann automatisch senkrecht zueinander

    Mehrfache Eigenwerte: Gram-Schmidt-Verfahren (ähnlich wie in Kapitel 2 beschrieben), um Eigenvektoren zum selben Eigenwert zu bestimmen, die orthogonal zueinander sind.

  4. Die Eigenvektoren bilden die Spalten der Transformationsmatrix

Beispiel (Trägheitsmoment):

Der Trägheitstensor beschreibt das (Massen-)Trägheitsmoment eines starren Körpers bezüglich aller möglichen Drehachsen. Er lässt sich durch eine symmetrische Matrix \(\Theta\) darstellen. Wenn ein starrer Körper mit Winkelgeschwindigkeit \(\vec{\omega }\) um eine Achse rotiert, dann ist das Trägheitsmoment

\(J=\displaystyle\frac{1}{|\vec{\omega}|^2}\vec{\omega}^T\Theta\omega\)

Da \(\Theta\) eine symmetrische Matrix ist, besitzt sie drei reelle Eigenwerte (die Hauptträgheitsmomente) und kann durch eine Koordinatentransformation diagonalisiert werden. Die neuen Koordinatenrichtungen nennt man die Hauptträgheitsachsen .

In Anlehnung an diese Anwendung heißt die Diagonalisierung symmetrischer Matrizen oft auch Hauptachsentransformation.

Ohne Test und Feedback-Seite weiter zu Kapitel 8: Quadriken
Modifié le: vendredi 25 janvier 2019, 19:00