5.3 Inverse Matrizen

Man kann im allgemeinen zwar Matrizen multiplizieren, aber man kann nicht durch Matrizen teilen. Man kann jedoch zu vielen quadratischen Matrizen eine eindeutige inverse Matrix finden.

Definition (Inverse Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt invertierbar (oder regulär), wenn es eine \(n\times n\)-Matrix \(B\) gibt, so dass

\(AB=BA=E_n\) (Einheitsmatrix)

ist. Die Matrix \(B\) heißt dann inverse Matrix von \(A\), geschrieben \(A^{-1}\).

Achtung! Nur quadratische Matrizen können überhaupt eine inverse Matrix besitzen!


Anders als bei den reellen Zahlen, bei denen jede von Null verschiedene Zahl \(\lambda\) eine Inverse bezüglich der Multiplikation besitzt, nämlich die Zahl \(\displaystyle\frac{1}{\lambda}\), gibt es Matrizen, die nicht die Nullmatrix sind und die dennoch keine inverse Matrix besitzen. Wir werden später sehen, woran man diese Matrizen erkennen kann.

Anregung:

Überlegen Sie sich eine 2x2-Matrix, die keine Nullen enthält und die nicht invertierbar ist.

Lösung anzeigen

Die Matrix \(A=\left(\!\begin{array}{rr}1&1\\1&1\end{array}\!\right)\) ist ein solches Beispiel. Sie ist nicht invertierbar, denn für eine beliebige Matrix \(B=\left(\!\begin{array}{rr}b_{11}&b_{12}\\b_{21}&b_{22}\end{array}\!\right)\) ist

\(AB=\left(\begin{array}{rr}b_{11}+b_{21}&b_{12}+b_{22}\\b_{11}+b_{21}&b_{12}+b_{22}\end{array}\right)\),

die beiden Komponenten in jeder Spalte sind also gleich und können natürlich nicht gleichzeitig 0 und 1 ergeben. Also ist \(AB\) nie die Einheitsmatrix.

Allgemein ist jede Matrix mit \(a_{11}a_{22}-a_{12}a_{21}\) und von Null verschiedenen Koeffizienten von der gesuchten Art.

Ist \(A\) invertierbar, dann besitzt das lineare Gleichungssystem

\(A\vec{x}=\vec{b}\)

für jeden Vektor \(\vec{b}\in\mathbb {R}^n\) genau eine Lösung, nämlich \(\vec{x}=A^{-1}\vec{b}\).


Ein wichtiges Kriterium, wann eine Matrix invertierbar ist, lässt sich mit Hilfe des Rangs formulieren, einer Größe, die für beliebige (auch nicht-quadratische) Matrizen definiert ist.

Definition (Rang einer Matrix):
Sei \(A\) eine \(m{\times } n\)-Matrix. Die maximale Anzahl linear unabhängiger Vektoren unter den Spaltenvektoren von \(A\) nennt man den (Spalten-)Rang von \(A\).


Für quadratische Matrizen gilt nun der wichtige

Satz (Invertierbarkeitskriterium):
Eine \(n{\times } n\)-Matrix \(A\) ist genau dann invertierbar, wenn ihr Rang n ist, das heißt, wenn die n Spaltenvektoren von \(A\) linear unabhängig sind.

Bestimmung des Rangs einer Matrix

Da der Rang einer \(m\times n\)-Matrix die maximale Anzahl linear unabhängiger Spaltenvektoren ist, muss man herausbekommen, wie viele dieser Spaltenvektoren linear unabhängig sind.

Offenbar kann der Rang nicht größer sein als die Anzahl n der Spaltenvektoren, ein Satz besagt aber, dass der Rang auch gerade die Anzahl der linear unabhängigen Zeilenvektoren ist. Der Rang einer \(m\times n\)-Matrix kann also höchstens so groß sein wie die kleinere der beiden Zahlen m und n.

Prinzipiell ist ansonsten jede Zahl zwischen 0 und dem Minimum aus m und n möglich.

Der übliche Weg, um den Rang einer Matrix zu bestimmen, besteht darin, die Matrix durch elementare Zeilenumformungen wie beim Gauß-Verfahren in eine Form zu bringen, der man sofort ansehen kann, wie viele Spaltenvektoren linear unabhängig sind. Zum Beispiel ist bei der Matrix

\(M=\left(\begin{array}{rrrr}1&4&-1&2\\1&-3&3&-6\\0&0&2&-4\\0&0&1&-2\end{array}\right)\)


zu erkennen, dass die ersten beiden Spaltenvektoren nicht linear abhängig sind, da der zweite kein Vielfaches des ersten Spaltenvektors ist. Der dritte Spaltenvektor ist sicher auch keine Linearkombination der ersten beiden, da diese in den beiden letzten Komponenten nur Nullen stehen haben. Wir wissen daher, dass der Rang der Matrix mindestens drei ist. Der vierte Spaltenvektor ist das (-2)-fache des dritten, also sind nicht alle vier Spaltenvektoren linear unabhängig. Auf diese Weise sieht man ein, dass \(\mathrm{Rang} (M)=3\) sein muss.

Satz (Rechenregeln für inverse Matrizen):
Falls \(A\) und \(B\) invertierbare \(n\times n\)-Matrizen sind, dann ist

\(\begin{array}{rcl}\lambda A\;\; \text{ invertierbar und }\;\;(\lambda A)^{-1}&=&\frac{1}{\lambda}A^{-1}\;\;\text{ für alle }\;\;\lambda\neq0\\A^{-1}\;\;\text{ invertierbar und }\;\;(A^{-1})^{-1}&=&A\\AB\;\;\text{ invertierbar und }\;\;(AB)^{-1}&=&B^{-1}A^{-1}\end{array}\)

Begründung: Um einzusehen, dass \(A^{-1}\) eine invertierbare Matrix ist, müssen wir eine Matrix \(B\) finden mit

\(BA^{-1}=A^{-1}B=E_n.\)


Nun wissen wir aber, dass \(AA^{-1}=A^{-1}A=E_n\) ist, weil \(A\) invertierbar ist, und sehen daran, dass \(A\) genau die benötigten Eigenschaften hat. Daher ist \((A^{-1})^{-1}=A\).

Die letzte Regel bestätigt man am einfachsten durch Nachrechnen:

\( \begin{align*} AB(B^{-1}A^{-1})&=A(BB^{-1})A^{-1}=AA^{-1}=E_n,\\(B^{-1}A^{-1})AB&=B^{-1}(A^{-1}A)B=BB^{-1}=E_n. \end{align*} \)

Bemerkung:

Mathematiker sind bekanntermaßen oft Minimalisten, die so wenige Bedingungen wie möglich stellen wollen. Dabei stellt sich heraus, dass eine \(n\times n\)-Matrix \(A\) schon dann invertierbar ist, wenn es eine Matrix \(B\) mit \(AB=E_n\) gibt. Unsere zweite Bedingung \(BA=E_n\) gilt dann automatisch. Genauso ist es umgekehrt: Wenn \(BA=E_n\) gilt, dann ist auch \(AB=E_n\) richtig. Man muss also immer nur eine der beiden Bedingungen nachprüfen, um sicherzugehen, dass man die inverse Matrix gefunden hat.

Zuletzt geändert: Freitag, 25. Januar 2019, 00:28