7.4 Diagonalisierung von symmetrischen Matrizen

Symmetrische Matrizen haben besondere Eigenschaften, die für die Diagonalisierung besonders vorteilhaft sind.

Satz:
Alle Eigenwerte einer symmetrischen Matrix sind reell.

Begründung: Sei \(A\) eine reelle symmetrische Matrix und \(\lambda \in \mathbb {C}\) ein Eigenwert von \(A\) mit zugehörigem Eigenvektor \(\vec{v}\). Im Prinzip kann \(\lambda \) eine komplexe Zahl sein. Aus diesem Grund rechnen wir auch erst einmal mit dem komplexen Skalarprodukt und betrachten die Matrix \(A\) als komplexe Matrix. Dass eine komplexe Zahl in Wirklichkeit reell ist, erkennt man daran, dass \(\overline{\lambda }=\lambda \) ist. Man berechnet nun

\( \begin{array}{rcl}\lambda\vec{v}^T\overline{\vec{v}}&=&(\lambda\vec{v})^T\overline{\vec{v}}=(A\vec{v})^T\overline{\vec{v}}\\&&\\&=&\vec{v}^TA^T\overline{\vec{v}}=\vec{v}^TA\overline{\vec{v}}\;\;\text{(weil A symmetrisch ist)}\\&&\\&=&\vec{v}^T\overline{A}\overline{\vec{v}}\;\;\text{(weil A eine reelle Matrix ist)}\\&&\\&=&\vec{v}^T\overline{A\vec{v}}=\vec{v}^T\overline{\lambda\vec{v}}\\&=&\overline{\lambda}\vec{v}^T\overline{\vec{v}}\end{array}\)

Da \(\vec{v}^T \overline{\vec{v}}=\| \vec{v}\|^2\neq 0\) ist, folgt daraus \(\lambda =\overline{\lambda }\) und \(\lambda \) muss reell sein.

Beispiel:
Die Matrix

\(A=\left(\begin{array}{rr}3&-1\\-1&3\end{array}\right)\)

hat das charakteristische Polynom

\(\chi(\lambda)=\det\left(\begin{array}{rr}3-\lambda&-1\\-1&3-\lambda\end{array}\right)=(3-\lambda)^2-(-1)^2=\lambda^2-6\lambda+8\)

und damit die Eigenwerte

\(\lambda_{1,2}=\displaystyle\frac{6\pm\sqrt{36-4\cdot8}}{2}\Rightarrow\lambda_1=2\;\;\text{und}\;\;\lambda_2=4.\)

Zugehörige Eigenvektoren sind

\(\vec{v}_1=\left(\begin{array}{r}1\\1\end{array}\right)\) und \(\vec{v}_2=\left(\begin{array}{r}1 \\ -1 \end{array}\right)\)


Betrachtet man die beiden Eigenvektoren aus dem vorigen Beispiel, dann stellt man fest, dass diese zueinander orthogonal sind. Das ist kein Zufall, sondern eine allgemeingültige Tatsache.

Satz:
Sei \(A\) eine symmetrische \(n\times n\)-Matrix und \(\lambda \neq \mu \) zwei verschiedene Eigenwerte von \(A\) mit zugehörigen Eigenvektoren \(\vec{v}\) und \(\vec{w}\). Dann sind \(\vec{v}\) und \(\vec{w}\) orthogonal zueinander, das heißt, ihr Skalarprodukt ist \(\vec{v}\cdot\vec{w} =0\).

Beweis: Die folgende Rechnung benutzt nur die Eigenschaften der Eigenvektoren:

\(\begin{array}{rcl}\lambda(\vec{v}\cdot \vec{w})&=&(\lambda\vec{v})\cdot\vec{w}=(A\vec{v})\cdot \vec{w}\\&=&(A\vec{v})^T\vec{w}=\vec{v}^TA^T\vec{w}\\&=&\vec{v}\cdot(A^T\vec{w})=\vec{v}\cdot(\mu\vec{w})\\&=&\mu(\vec{v}\cdot\vec{w})\end{array}\)


Wegen \(\lambda \neq \mu \) kann dies nur gelten, wenn \(\vec{v}\cdot\vec{w} =0\) ist.

Zuletzt geändert: Freitag, 25. Januar 2019, 18:51