5.3 Inverse Matrizen

Man kann im allgemeinen zwar Matrizen multiplizieren, aber man kann nicht durch Matrizen teilen. Man kann jedoch zu vielen quadratischen Matrizen eine eindeutige inverse Matrix finden.

Definition (Inverse Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt invertierbar (oder regulĂ€r), wenn es eine \(n\times n\)-Matrix \(B\) gibt, so dass

\(AB=BA=E_n\) (Einheitsmatrix)

ist. Die Matrix \(B\) heißt dann inverse Matrix von \(A\), geschrieben \(A^{-1}\).

Achtung! Nur quadratische Matrizen können ĂŒberhaupt eine inverse Matrix besitzen!


Anders als bei den reellen Zahlen, bei denen jede von Null verschiedene Zahl \(\lambda\) eine Inverse bezĂŒglich der Multiplikation besitzt, nĂ€mlich die Zahl \(\displaystyle\frac{1}{\lambda}\), gibt es Matrizen, die nicht die Nullmatrix sind und die dennoch keine inverse Matrix besitzen. Wir werden spĂ€ter sehen, woran man diese Matrizen erkennen kann.

Anregung:

Überlegen Sie sich eine 2x2-Matrix, die keine Nullen enthĂ€lt und die nicht invertierbar ist.

Lösung anzeigen

Die Matrix \(A=\left(\!\begin{array}{rr}1&1\\1&1\end{array}\!\right)\) ist ein solches Beispiel. Sie ist nicht invertierbar, denn fĂŒr eine beliebige Matrix \(B=\left(\!\begin{array}{rr}b_{11}&b_{12}\\b_{21}&b_{22}\end{array}\!\right)\) ist

\(AB=\left(\begin{array}{rr}b_{11}+b_{21}&b_{12}+b_{22}\\b_{11}+b_{21}&b_{12}+b_{22}\end{array}\right)\),

die beiden Komponenten in jeder Spalte sind also gleich und können natĂŒrlich nicht gleichzeitig 0 und 1 ergeben. Also ist \(AB\) nie die Einheitsmatrix.

Allgemein ist jede Matrix mit \(a_{11}a_{22}-a_{12}a_{21}\) und von Null verschiedenen Koeffizienten von der gesuchten Art.

Ist \(A\) invertierbar, dann besitzt das lineare Gleichungssystem

\(A\vec{x}=\vec{b}\)

fĂŒr jeden Vektor \(\vec{b}\in\mathbb {R}^n\) genau eine Lösung, nĂ€mlich \(\vec{x}=A^{-1}\vec{b}\).


Ein wichtiges Kriterium, wann eine Matrix invertierbar ist, lĂ€sst sich mit Hilfe des Rangs formulieren, einer GrĂ¶ĂŸe, die fĂŒr beliebige (auch nicht-quadratische) Matrizen definiert ist.

Definition (Rang einer Matrix):
Sei \(A\) eine \(m{\times } n\)-Matrix. Die maximale Anzahl linear unabhÀngiger Vektoren unter den Spaltenvektoren von \(A\) nennt man den (Spalten-)Rang von \(A\).


FĂŒr quadratische Matrizen gilt nun der wichtige

Satz (Invertierbarkeitskriterium):
Eine \(n{\times } n\)-Matrix \(A\) ist genau dann invertierbar, wenn ihr Rang n ist, das heißt, wenn die n Spaltenvektoren von \(A\) linear unabhĂ€ngig sind.

Bestimmung des Rangs einer Matrix

Da der Rang einer \(m\times n\)-Matrix die maximale Anzahl linear unabhÀngiger Spaltenvektoren ist, muss man herausbekommen, wie viele dieser Spaltenvektoren linear unabhÀngig sind.

Offenbar kann der Rang nicht grĂ¶ĂŸer sein als die Anzahl n der Spaltenvektoren, ein Satz besagt aber, dass der Rang auch gerade die Anzahl der linear unabhĂ€ngigen Zeilenvektoren ist. Der Rang einer \(m\times n\)-Matrix kann also höchstens so groß sein wie die kleinere der beiden Zahlen m und n.

Prinzipiell ist ansonsten jede Zahl zwischen 0 und dem Minimum aus m und n möglich.

Der ĂŒbliche Weg, um den Rang einer Matrix zu bestimmen, besteht darin, die Matrix durch elementare Zeilenumformungen wie beim Gauß-Verfahren in eine Form zu bringen, der man sofort ansehen kann, wie viele Spaltenvektoren linear unabhĂ€ngig sind. Zum Beispiel ist bei der Matrix

\(M=\left(\begin{array}{rrrr}1&4&-1&2\\1&-3&3&-6\\0&0&2&-4\\0&0&1&-2\end{array}\right)\)


zu erkennen, dass die ersten beiden Spaltenvektoren nicht linear abhÀngig sind, da der zweite kein Vielfaches des ersten Spaltenvektors ist. Der dritte Spaltenvektor ist sicher auch keine Linearkombination der ersten beiden, da diese in den beiden letzten Komponenten nur Nullen stehen haben. Wir wissen daher, dass der Rang der Matrix mindestens drei ist. Der vierte Spaltenvektor ist das (-2)-fache des dritten, also sind nicht alle vier Spaltenvektoren linear unabhÀngig. Auf diese Weise sieht man ein, dass \(\mathrm{Rang} (M)=3\) sein muss.

Satz (Rechenregeln fĂŒr inverse Matrizen):
Falls \(A\) und \(B\) invertierbare \(n\times n\)-Matrizen sind, dann ist

\(\begin{array}{rcl}\lambda A\;\; \text{ invertierbar und }\;\;(\lambda A)^{-1}&=&\frac{1}{\lambda}A^{-1}\;\;\text{ fĂŒr alle }\;\;\lambda\neq0\\A^{-1}\;\;\text{ invertierbar und }\;\;(A^{-1})^{-1}&=&A\\AB\;\;\text{ invertierbar und }\;\;(AB)^{-1}&=&B^{-1}A^{-1}\end{array}\)

BegrĂŒndung: Um einzusehen, dass \(A^{-1}\) eine invertierbare Matrix ist, mĂŒssen wir eine Matrix \(B\) finden mit

\(BA^{-1}=A^{-1}B=E_n.\)


Nun wissen wir aber, dass \(AA^{-1}=A^{-1}A=E_n\) ist, weil \(A\) invertierbar ist, und sehen daran, dass \(A\) genau die benötigten Eigenschaften hat. Daher ist \((A^{-1})^{-1}=A\).

Die letzte Regel bestÀtigt man am einfachsten durch Nachrechnen:

\( \begin{align*} AB(B^{-1}A^{-1})&=A(BB^{-1})A^{-1}=AA^{-1}=E_n,\\(B^{-1}A^{-1})AB&=B^{-1}(A^{-1}A)B=BB^{-1}=E_n. \end{align*} \)

Bemerkung:

Mathematiker sind bekanntermaßen oft Minimalisten, die so wenige Bedingungen wie möglich stellen wollen. Dabei stellt sich heraus, dass eine \(n\times n\)-Matrix \(A\) schon dann invertierbar ist, wenn es eine Matrix \(B\) mit \(AB=E_n\) gibt. Unsere zweite Bedingung \(BA=E_n\) gilt dann automatisch. Genauso ist es umgekehrt: Wenn \(BA=E_n\) gilt, dann ist auch \(AB=E_n\) richtig. Man muss also immer nur eine der beiden Bedingungen nachprĂŒfen, um sicherzugehen, dass man die inverse Matrix gefunden hat.

Ultime modifiche: venerdĂŹ, 25 gennaio 2019, 00:28