5.4 Die transponierte Matrix
5.4 Die transponierte Matrix
\(b_{ij}=a_{ji}\)
die zu \(A\) transponierte Matrix, geschrieben \(B=A^T\). Aus der \(i\)-ten Zeile von \(A\) wird die \(i\)-te Spalte von \(A^T\) und aus der \(j\)-ten Spalte von \(A\) die \(j\)-te Zeile von \(A^T\).Schematisch:
Die transponierte Matrix erhält man also, indem man die Matrix \(A\) an einer gedachten Diagonale spiegelt.
- Für \(A= \left(\begin{array}{rrrr} 1 & -2 & 3 & 4 \\ -5 & 6 & 7 & -8\end{array}\right) \) ist \(A^ T= \left(\begin{array}{rr} 1 & -5 \\ -2 & 6 \\ 3 & 7 \\ 4 & -8\end{array}\right) \\ \)
- Für \(B= \left(\begin{array}{rrr} 1 & 0 & 3 \\ 2 & -1 & -2 \\ -3 & 0 & 4 \end{array}\right) \) ist \(B^ T= \left(\begin{array}{rrr} 1 & 2 & -3 \\ 0 & -1 & 0 \\ 3 & -2 & 4 \end{array}\right) \)
- Für einen Zeilenvektor \(v= \left(\! \begin{array}{rrrr} 1 & -1 & 2 & -2\end{array}\! \right) \) ist \(v^ T= \left(\! \begin{array}{r} 1 \\ -1 \\ 2 \\ -2\end{array}\! \right) \) ein Spaltenvektor (und umgekehrt).
Direkt aus der Definition macht man sich die folgenden Eigenschaften transponierter Matrizen klar:
- \(\;\;(A+B)^T = A^T+B^T \\ \)
- \(\;\;(\lambda A)^T = \lambda A^T\) für alle \(\lambda \in \mathbb {R}\\ \)
- \(\;\;(A^T)^T = A \\ \)
- \(\;\;E_n^T=E_n\)
Eine typische Fehlerquelle ist allerdings der Umgang mit transponierten Matrizen beim Matrixprodukt. Hier vertauscht sich die Reihenfolge der beteiligten Matrizen:
\((A B)^T=B^T\, A^T.\)
Beweis: Wenn \(C=(c_{ij})=AB\) die (\(m\times n\))-Produktmatrix ist, dann ist nach der Definition der Matrizenmultiplikation
\(c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\dots+a_{ip}b_{pj}=\sum\limits_{k=1}^pa_{ik}b_{kj}\)
Die dazu transponierte (\(n\times m\)-)Matrix \(C^ T=(\tilde{c}_{ij})\) hat die Koeffizienten
\(\tilde{c}_{ij}=c_{ji}=\sum_{k=1}^{p}a_{jk}b_{ki}.\)
Setzt man nun \(A^ T=(\tilde{a}_{ij})\) mit \(\tilde{a}_{ij}=a_{ji}\), \(B^ T=(\tilde{b}_{ij})\) mit \(\tilde{b}_{ij}=b_{ji}\) und \(D=B^T A^T = (d_{ij})\) dann ist
\(\begin{array}{rcl}d_{ij}&=&\tilde{b}_{i1}\tilde{a}_{1j}+\tilde{b}_{i2}\tilde{a}_{2j}+\ldots+\tilde{b}_{ip}\tilde{a}_{pj}=\sum\limits_{k=1}^p\tilde{b}_{ik}\tilde{a}_{kj}\\&=&b_{1i}a_{j1}+b_{2i}a_{j2}+\ldots+b_{pi}a_{jp}=\sum\limits_{k=1}^pb_{ki}a_{jk}\\&=&\sum\limits_{k=1}^pa_{jk}b_{ki}=c_{ji}\end{array}\)
Also ist \(D=C^ T\) beziehungsweise \(B^ TA^ T= (AB)^ T\).
?
Man findet für \((A^ T)^{-1}\) gelegentlich auch die Kurzschreibweise \(A^{-T}\).
In der Physik bzw. Mechanik weisen die Einträge viele Matrizen bestimmte Symmetrien auf.
Eine symmetrische Matrix ist also anschaulich "spiegelsymmetrisch zu ihrer Hauptdiagonalen". Beispielsweise kann man das Trägheitsmoment eines starren Körpers als symmetrische Matrix auffassen.
- \(\;\; A=\left(\begin{array}{rrr} 1 & -2 & 3 \\ -2 & 5 & -4 \\ 3 & -4 & 0\end{array}\right) \;\;\) ist symmetrisch
- \(\;\; B=\left(\begin{array}{rrr} 0 & 2 & 3 \\ -2 & 0 & -4 \\ -3 & 4 & 0\end{array}\right)\;\;\) ist schiefsymmetrisch
- \( \;\; C=\left(\begin{array}{rrr} 1 & 2 & 3 \\ 2 & -2 & -4 \\ -3 & 4 & 3\end{array}\right) \;\; \) ist weder symmetrisch noch schiefsymmetrisch
In der Kontinuumsmechanik beschreibt man die Spannungen innerhalb eines festen Körpers unter dem Einfluss äußerer Kräfte durch eine symmetrische \(3\times 3\)-Matrix
\(\sigma=\begin{bmatrix}\sigma_{x}&\tau_{xy}&\tau_{xz}\\\tau_{yx}&\sigma_{y}&\tau_{yz}\\\tau_{zx}&\tau_{zy}&\sigma_{z}\end{bmatrix}\)
In einer (gedachten) Schnittfläche durch den Körper übt die weggeschnittene Materie auf die verbliebene Materie eine Spannung. Dabei sind die Diagonaleinträge die Normalspannungskomponenten, die orthogonal zur Schnittfläche wirken, während die anderen Einträge, die Schubspannungskomponenten, in Richtung der Schnittfläche zeigen. In diesem Fall ist die Symmetrie eine Konsequenz der Drehimpulserhaltung.
Obwohl der Spnnungstensor neun Einträge hat, wird der räumliche Spannungszustand also durch sechs Größen vollständig charakterisiert.
\(A^T=(a_{ji})\)
muss \(a_{ji}=-a_{ij}\) gelten. Speziell für \(i=j\) ergibt sich daraus \(a_{jj}=-a_{jj}\), also \(a_{jj}=0\).Man kann jede \(n\times n\)-Matrix \(A\) als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben:
\(A=A_{symm}+A_{schief}\;\) mit \(\;A_{symm}=\frac{1}{2}\left(A+A^T\right)\;\) und \(\;A_{schief}=\frac{1}{2}\left(A-A^T\right)\)
Prüfen Sie nach, dass das tatsächlich stimmt.Eine interessante und nicht unmittelbar einsichtige Eigenschaft von Matrizen besteht darin, dass die Maximalzahl linear unabhängiger Zeilenvektoren immer mit der Maximalzahl linear unabhängiger Spaltenvektoren übereinstimmt, oder etwas anders formuliert:
\(\mathrm{Rang}\,A=\mathrm{Rang}\, A^T.\)
Da beim Transponieren Zeilen und Spalten vertauscht werden, sind die Spaltenvektoren von \(A^T\) gerade die Zeilenvektoren von \(A\) und der Rang von \(A^T\) als die Maximalzahl linear unabhängiger Spaltenvektoren von \(A^T\) ist also die Maximalzahl linear unabhängiger Zeilenvektoren von \(A\).