6.4 Die Cramersche Regel
6.4 Die Cramersche Regel
Auch die Inverse einer Matrix kann man mit Hilfe von Determinanten ausdrücken. Dazu benötigen wir noch eine Definition.
\(\tilde{a}_{ki}=\det(\vec{a}_1,\ldots,\vec{a}_{i-1},\vec{e}_k,\vec{a}_{i+1},\vec{a}_n)\)
die Adjunkte von \(A\) oder auch die zu \(A\) komplementäre Matrix.\(A\cdot A^\sharp=A^\sharp\cdot A=\det(A)\cdot E_n\)
Insbesondere ist im Fall \(\det A\neq 0\) die Inverse von \(A\)\(A^{-1}=\displaystyle\frac{1}{\det(A)}A^\sharp\)
Diese Methode, die inverse Matrix zu berechnen, erfreut sich in Klausuren nicht geringer Beliebtheit. Die Gründe dafür liegen auf der Hand: Es sind nur Determinanten zu berechnen und dafür gibt es ein klares Rechenschema. Wenn die Koeffizienten der Matrix alle ganzzahlig sind, dann sind auch die Determinante ganzzahlig und Brüche treten erst am Ende der Rechnung auf. Rechenfehler ändern meist nur einen Eintrag (falls man nicht gerade \(\det (A)\) falsch berechnet hat...).
Dennoch ist dabei etwas Vorsicht geboten. Der Aufwand wird ab \(4\times 4\)-Matrizen deutlich größer als beim Gaußschen Eliminationsverfahren, so dass man in diesem Fall mit der Cramerschen Regel nur noch konkurrenzfähig ist, wenn die Matrix sehr viele Nullen enthält.
Mit Hilfe von Determinanten kann man auch die Lösungen von Gleichungssystem \(Ax=b\) für quadratische Matrizen \(A\) bestimmen. Dieses Verfahren wird erfahrungsgemäß von Studierenden in Klausuren häufig angewandt, da es sehr schematisch durchführbar ist. Der Aufwand ist allerdings in aller Regel höher als beim Gaußschen Eliminationsverfahren. Außerdem liefert das Gauß-Verfahren auch für nicht-quadratische Matrizen \(A\) alle Lösungen.
\(x_j=\displaystyle\frac{\det(\vec{a}_1,\ldots,\vec{a}_{j-1},\vec{b},\vec{a}_{j+1},\ldots,\vec{a}_n)}{\det(A)}.\)
Beweis: Hier können wir noch einmal die Adjunkte und insbesondere den Satz über die Adjunkte ausnutzen. Wenn \(A\) invertierbar ist, dann ist \(A^{-1}=\displaystyle\frac {1}{\det (A)} A^\sharp \), wobei \(A^\sharp =(\tilde{a}_{ij})\) mit
\(\tilde{a}_{jk}=\det(\vec{a}_1,\ldots,\vec{a}_{j-1},\vec{e}_k,\vec{a}_{j+1},\vec{a}_n).\)
Man beachte den Unterschied zur ursprünglichen Definition, da die Vektoren \(\vec{a}_1, \vec{a}_2,\ldots ,\vec{a}_ n\) diesmal die Spaltenvektoren von \(A\) sind.
Die \(j\)-te Komponente von \(x=A^{-1}b=\displaystyle\frac {1}{\det (A)}A^\sharp b\) ist dann
\(\begin{array}{rcl}x_j&=&\displaystyle\frac{1}{\det(A)}\sum\limits_{k=1}^n\tilde{a}_{jk}b_k\\&=&\displaystyle\frac{1}{\det(A)}\sum_{k=1}^n\det(\vec{a}_1,\ldots,\vec{a}_{j-1},\vec{e}_k,\vec{a}_{j+1},\vec{a}_n)b_k\\&=&\displaystyle\frac{1}{\det(A)}\det(\vec{a}_1,\ldots,\vec{a}_{j-1},\sum_{k=1}^nb_k\vec{e}_k,\vec{a}_{j+1},\vec{a}_n)\\&=&\displaystyle\frac{1}{\det(A)}\det(\vec{a}_1,\ldots,\vec{a}_{j-1},\vec{b},\vec{a}_{j+1},\vec{a}_n).\end{array}\)
?
\(\begin{array}{rcl}3x_1-2x_2+2x_3&=&10\\4x_1+2x_2-3x_3&=&1\\2x_1-3x_2+2x_3&=&7\end{array}\)
ist\(x_1=\displaystyle\frac{\left|\!\begin{array}{rrr}10&-2&2\\1&2&-3\\7&-3&2\end{array}\!\right|}{\left|\!\begin{array}{rrr}3&-2&2\\4&2&-3\\2&-3&2\end{array}\!\right|}=\displaystyle\frac{-38}{-19}=2,\;\;x_2=\displaystyle\frac{\left|\!\begin{array}{rrr}3&10&2\\4&1&-3\\2&7&2\end{array}\!\right|}{\left|\!\begin{array}{rrr}3&-2&2\\4&2&-3\\2&-3&2\end{array}\!\right|}=\displaystyle\frac{-19}{-19}=1,\)
\(x_3\) lässt sich dann durch Einsetzen in die erste Gleichung bestimmen als \(x_3=3\).Am Ende des Kapitels haben Sie mal wieder die Wahl: