5.4 Die transponierte Matrix
5.4 Die transponierte Matrix
\(b_{ij}=a_{ji}\)
die zu \(A\) transponierte Matrix, geschrieben \(B=A^T\). Aus der \(i\)-ten Zeile von \(A\) wird die \(i\)-te Spalte von \(A^T\) und aus der \(j\)-ten Spalte von \(A\) die \(j\)-te Zeile von \(A^T\).Schematisch:
Die transponierte Matrix erhÀlt man also, indem man die Matrix \(A\) an einer gedachten Diagonale spiegelt.
-
FĂŒr \(A= \left(\begin{array}{rrrr} 1 & -2 & 3 & 4 \\ -5 & 6 & 7 & -8\end{array}\right) \) ist die transponierte Matrix \(A^ T= \left(\begin{array}{rr} 1 & -5 \\ -2 & 6 \\ 3 & 7 \\ 4 & -8\end{array}\right) \)
-
FĂŒr \(B= \left(\begin{array}{rrr} 1 & 0 & 3 \\ 2 & -1 & -2 \\ -3 & 0 & 4 \end{array}\right) \) ist die transponierte Matrix \(B^ T= \left(\begin{array}{rrr} 1 & 2 & -3 \\ 0 & -1 & 0 \\ 3 & -2 & 4 \end{array}\right) \)
- FĂŒr einen Zeilenvektor \(v= \left(\! \begin{array}{rrrr} 1 & -1 & 2 & -2\end{array}\! \right) \) ist \(v^ T= \left(\! \begin{array}{r} 1 \\ -1 \\ 2 \\ -2\end{array}\! \right) \) ein Spaltenvektor (und umgekehrt).
Direkt aus der Definition macht man sich die folgenden Eigenschaften transponierter Matrizen klar:
- \(\;\;(A+B)^T = A^T+B^T \\ \)
-
\(\;\;(\lambda A)^T = \lambda A^T\) fĂŒr alle \(\lambda \in \mathbb {R} \)
- \(\;\;(A^T)^T = A \\ \)
- \(\;\;E_n^T=E_n\)
Eine typische Fehlerquelle ist allerdings der Umgang mit transponierten Matrizen beim Matrixprodukt. Hier vertauscht sich die Reihenfolge der beteiligten Matrizen:
\((A B)^T=B^T\, A^T.\)
Beweis: Wenn \(C=(c_{ij})=AB\) die (\(m\times n\))-Produktmatrix ist, dann ist nach der Definition der Matrizenmultiplikation
\(c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\dots+a_{ip}b_{pj}=\sum\limits_{k=1}^pa_{ik}b_{kj}\)
Die dazu transponierte (\(n\times m\)-)Matrix \(C^ T=(\tilde{c}_{ij})\) hat die Koeffizienten
\(\tilde{c}_{ij}=c_{ji}=\sum\limits_{k=1}^{p}a_{jk}b_{ki}.\)
Setzt man nun \(A^ T=(\tilde{a}_{ij})\) mit \(\tilde{a}_{ij}=a_{ji}\), \(B^ T=(\tilde{b}_{ij})\) mit \(\tilde{b}_{ij}=b_{ji}\) und \(D=B^T A^T = (d_{ij})\) dann ist
\(\begin{array}{rcl}d_{ij}&=&\tilde{b}_{i1}\tilde{a}_{1j}+\tilde{b}_{i2}\tilde{a}_{2j}+\ldots+\tilde{b}_{ip}\tilde{a}_{pj}=\sum\limits_{k=1}^p\tilde{b}_{ik}\tilde{a}_{kj}\\&=&b_{1i}a_{j1}+b_{2i}a_{j2}+\ldots+b_{pi}a_{jp}=\sum\limits_{k=1}^pb_{ki}a_{jk}\\&=&\sum\limits_{k=1}^pa_{jk}b_{ki}=c_{ji}\end{array}\)
Also ist \(D=C^ T\) beziehungsweise \(B^ TA^ T= (AB)^ T\).
\(\Box\)
Man findet fĂŒr \((A^ T)^{-1}\) gelegentlich auch die Kurzschreibweise \(A^{-T}\).
In der Physik bzw. Mechanik weisen die EintrÀge viele Matrizen bestimmte Symmetrien auf.
Eine symmetrische Matrix ist also anschaulich "spiegelsymmetrisch zu ihrer Hauptdiagonalen". Beispielsweise kann man das TrÀgheitsmoment eines starren Körpers als symmetrische Matrix auffassen.
- \(\;\; A=\left(\begin{array}{rrr} 1 & -2 & 3 \\ -2 & 5 & -4 \\ 3 & -4 & 0\end{array}\right) \;\;\) ist symmetrisch
- \(\;\; B=\left(\begin{array}{rrr} 0 & 2 & 3 \\ -2 & 0 & -4 \\ -3 & 4 & 0\end{array}\right)\;\;\) ist schiefsymmetrisch
- \( \;\; C=\left(\begin{array}{rrr} 1 & 2 & 3 \\ 2 & -2 & -4 \\ -3 & 4 & 3\end{array}\right) \;\; \) ist weder symmetrisch noch schiefsymmetrisch
Hier ein paar Matrizen, die Du selber klassifizieren kannst:
In der Kontinuumsmechanik beschreibt man die Spannungen innerhalb eines festen Körpers unter dem Einfluss Ă€uĂerer KrĂ€fte durch eine symmetrische \(3\times 3\)-Matrix
\(\sigma=\begin{bmatrix}\sigma_{x}&\tau_{xy}&\tau_{xz}\\\tau_{yx}&\sigma_{y}&\tau_{yz}\\\tau_{zx}&\tau_{zy}&\sigma_{z}\end{bmatrix}\)
In einer (gedachten) SchnittflĂ€che durch den Körper ĂŒbt die weggeschnittene Materie auf die verbliebene Materie eine Spannung. Dabei sind die DiagonaleintrĂ€ge die Normalspannungskomponenten, die orthogonal zur SchnittflĂ€che wirken, wĂ€hrend die anderen EintrĂ€ge, die Schubspannungskomponenten, in Richtung der SchnittflĂ€che zeigen. In diesem Fall ist die Symmetrie eine Konsequenz der Drehimpulserhaltung.
Obwohl der Spannungstensor neun EintrĂ€ge hat, wird der rĂ€umliche Spannungszustand also bereits durch sechs GröĂen vollstĂ€ndig charakterisiert.
\(A^T=(a_{ji})\)
ist, muss \(a_{ji}=-a_{ij}\) gelten. Speziell fĂŒr \(i=j\) ergibt sich daraus \(a_{jj}=-a_{jj}\), also \(a_{jj}=0\).Man kann jede \(n\times n\)-Matrix \(A\) als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben:
\(A=A_{symm}+A_{schief}\;\) mit \(\;A_{symm}=\frac{1}{2}\left(A+A^T\right)\;\) und \(\;A_{schief}=\frac{1}{2}\left(A-A^T\right)\)
PrĂŒfen Sie nach, dass das tatsĂ€chlich stimmt, das heiĂt, dass \(A_{symm}\) wirklich symmetrisch und \(A_{schief}\) wirklich schiefsymmetrisch ist.Eine interessante und nicht unmittelbar einsichtige Eigenschaft von Matrizen besteht darin, dass die Maximalzahl linear unabhĂ€ngiger Zeilenvektoren immer mit der Maximalzahl linear unabhĂ€ngiger Spaltenvektoren ĂŒbereinstimmt, oder etwas anders formuliert:
Ist \(A\) eine beliebige \(m\times n\)-Matrix, dann gilt
\(\mathrm{Rang}\,A=\mathrm{Rang}\, A^T.\)
Da beim Transponieren Zeilen und Spalten vertauscht werden, sind die Spaltenvektoren von \(A^T\) gerade die Zeilenvektoren von \(A\) und der Rang von \(A^T\) als die Maximalzahl linear unabhÀngiger Spaltenvektoren von \(A^T\) ist also die Maximalzahl linear unabhÀngiger Zeilenvektoren von \(A\).