5.3 Inverse Matrizen
5.3 Inverse Matrizen
Man kann im allgemeinen zwar Matrizen multiplizieren, aber man kann nicht durch Matrizen teilen. Man kann jedoch zu vielen quadratischen Matrizen eine eindeutige inverse Matrix finden.
Eine \(n\times n\)-Matrix \(A\) heiĂt invertierbar (oder regulĂ€r), wenn es eine \(n\times n\)-Matrix \(B\) gibt, so dass
\(AB=BA=E_n\) (Einheitsmatrix)
ist. Die Matrix \(B\) heiĂt dann inverse Matrix von \(A\), geschrieben \(A^{-1}\).
Anders als bei den reellen Zahlen, bei denen jede von Null verschiedene Zahl \(\lambda\) eine Inverse bezĂŒglich der Multiplikation besitzt, nĂ€mlich die Zahl \(\displaystyle\frac{1}{\lambda}\), gibt es Matrizen, die nicht die Nullmatrix sind und die dennoch keine inverse Matrix besitzen. Wir werden spĂ€ter sehen, woran man diese Matrizen erkennen kann.
Ăberlegen Sie sich eine 2x2-Matrix, die keine Nullen enthĂ€lt und die nicht invertierbar ist.
Lösung anzeigen
Die Matrix \(A=\left(\!\begin{array}{rr}1&1\\1&1\end{array}\!\right)\) ist ein solches Beispiel. Sie ist nicht invertierbar, denn fĂŒr eine beliebige Matrix \(B=\left(\!\begin{array}{rr}b_{11}&b_{12}\\b_{21}&b_{22}\end{array}\!\right)\) ist
\(AB=\left(\begin{array}{rr}b_{11}+b_{21}&b_{12}+b_{22}\\b_{11}+b_{21}&b_{12}+b_{22}\end{array}\right)\),
die beiden Komponenten in jeder Spalte sind also gleich und können natĂŒrlich nicht gleichzeitig 0 und 1 ergeben. Also ist \(AB\) nie die Einheitsmatrix.
Allgemein ist jede Matrix mit \(a_{11}a_{22}-a_{12}a_{21}\) und von Null verschiedenen Koeffizienten von der gesuchten Art.
Ist \(A\) invertierbar, dann besitzt das lineare Gleichungssystem
\(A\vec{x}=\vec{b}\)
fĂŒr jeden Vektor \(\vec{b}\in\mathbb {R}^n\) genau eine Lösung, nĂ€mlich \(\vec{x}=A^{-1}\vec{b}\).
Ein wichtiges Kriterium, wann eine Matrix invertierbar ist, lĂ€sst sich mit Hilfe des Rangs formulieren, einer GröĂe, die fĂŒr beliebige (auch nicht-quadratische) Matrizen definiert ist.
FĂŒr quadratische Matrizen gilt nun der wichtige
Bestimmung des Rangs einer Matrix
Da der Rang einer \(m\times n\)-Matrix die maximale Anzahl linear unabhÀngiger Spaltenvektoren ist, muss man herausbekommen, wie viele dieser Spaltenvektoren linear unabhÀngig sind.
Offenbar kann der Rang nicht gröĂer sein als die Anzahl n der Spaltenvektoren, ein Satz besagt aber, dass der Rang auch gerade die Anzahl der linear unabhĂ€ngigen Zeilenvektoren ist. Der Rang einer \(m\times n\)-Matrix kann also höchstens so groĂ sein wie die kleinere der beiden Zahlen m und n.
Prinzipiell ist ansonsten jede Zahl zwischen 0 und dem Minimum aus m und n möglich.
Der ĂŒbliche Weg, um den Rang einer Matrix zu bestimmen, besteht darin, die Matrix durch elementare Zeilenumformungen wie beim GauĂ-Verfahren in eine Form zu bringen, der man sofort ansehen kann, wie viele Spaltenvektoren linear unabhĂ€ngig sind. Zum Beispiel ist bei der Matrix
\(M=\left(\begin{array}{rrrr}1&4&-1&2\\1&-3&3&-6\\0&0&2&-4\\0&0&1&-2\end{array}\right)\)
zu erkennen, dass die ersten beiden Spaltenvektoren nicht linear abhÀngig sind, da der zweite kein Vielfaches des ersten Spaltenvektors ist. Der dritte Spaltenvektor ist sicher auch keine Linearkombination der ersten beiden, da diese in den beiden letzten Komponenten nur Nullen stehen haben. Wir wissen daher, dass der Rang der Matrix mindestens drei ist. Der vierte Spaltenvektor ist das (-2)-fache des dritten, also sind nicht alle vier Spaltenvektoren linear unabhÀngig. Auf diese Weise sieht man ein, dass \(\mathrm{Rang} (M)=3\) sein muss.
Falls \(A\) und \(B\) invertierbare \(n\times n\)-Matrizen sind, dann ist
\(\begin{array}{rcl}\lambda A\;\; \text{ invertierbar und }\;\;(\lambda A)^{-1}&=&\frac{1}{\lambda}A^{-1}\;\;\text{ fĂŒr alle }\;\;\lambda\neq 0\\A^{-1}\;\;\text{ invertierbar und }\;\;(A^{-1})^{-1}&=&A\\AB\;\;\text{ invertierbar und }\;\;(AB)^{-1}&=&B^{-1}A^{-1}\end{array}\)
BegrĂŒndung: Um einzusehen, dass \(A^{-1}\) eine invertierbare Matrix ist, mĂŒssen wir eine Matrix \(B\) finden mit
\(BA^{-1}=A^{-1}B=E_n.\)
Nun wissen wir aber, dass \(AA^{-1}=A^{-1}A=E_n\) ist, weil \(A\) invertierbar ist, und sehen daran, dass \(A\) genau die benötigten Eigenschaften hat. Daher ist \((A^{-1})^{-1}=A\).
Die letzte Regel bestÀtigt man am einfachsten durch Nachrechnen:
\( \begin{aligned} AB(B^{-1}A^{-1}) & = A(BB^{-1})A^{-1} = AA^{-1}=E_n, \\ (B^{-1}A^{-1})AB & =B^{-1}(A^{-1}A)B=BB^{-1} = E_n. \end{aligned} \)
Mathematiker sind bekanntermaĂen oft Minimalisten, die so wenige Bedingungen wie möglich stellen wollen. Dabei stellt sich heraus, dass eine \(n\times n\)-Matrix \(A\) schon dann invertierbar ist, wenn es eine Matrix \(B\) mit \(AB=E_n\) gibt. Unsere zweite Bedingung \(BA=E_n\) gilt dann automatisch. Genauso ist es umgekehrt: Wenn \(BA=E_n\) gilt, dann ist auch \(AB=E_n\) richtig. Man muss also immer nur eine der beiden Bedingungen nachprĂŒfen, um sicherzugehen, dass man die inverse Matrix gefunden hat.