5.4 Die transponierte Matrix

Definition (Transponierte Matrix):
Sei \(A=(a_{ij})\) eine \(m\times n\)-Matrix. Dann nennt man die \(n\times m\)-Matrix \(B=(b_{ij})\) mit \(1\leq i\leq n\) und \(1\leq j\leq m\) und

\(b_{ij}=a_{ji}\)

die zu \(A\) transponierte Matrix, geschrieben \(B=A^T\). Aus der \(i\)-ten Zeile von \(A\) wird die \(i\)-te Spalte von \(A^T\) und aus der \(j\)-ten Spalte von \(A\) die \(j\)-te Zeile von \(A^T\).
Schematisch:

Figures/transposition_schematisch2

Die transponierte Matrix erhält man also, indem man die Matrix \(A\) an einer gedachten Diagonale spiegelt.

Beispiel:
  1. Für \(A= \left(\begin{array}{rrrr} 1 & -2 & 3 & 4 \\ -5 & 6 & 7 & -8\end{array}\right) \) ist \(A^ T= \left(\begin{array}{rr} 1 & -5 \\ -2 & 6 \\ 3 & 7 \\ 4 & -8\end{array}\right) \\ \)
  2. Für \(B= \left(\begin{array}{rrr} 1 & 0 & 3 \\ 2 & -1 & -2 \\ -3 & 0 & 4 \end{array}\right) \) ist \(B^ T= \left(\begin{array}{rrr} 1 & 2 & -3 \\ 0 & -1 & 0 \\ 3 & -2 & 4 \end{array}\right) \)
  3. Für einen Zeilenvektor \(v= \left(\! \begin{array}{rrrr} 1 & -1 & 2 & -2\end{array}\! \right) \) ist \(v^ T= \left(\! \begin{array}{r} 1 \\ -1 \\ 2 \\ -2\end{array}\! \right) \) ein Spaltenvektor (und umgekehrt).

Direkt aus der Definition macht man sich die folgenden Eigenschaften transponierter Matrizen klar:

Satz (Rechenregeln für transponierte Matrizen):
  1. \(\;\;(A+B)^T = A^T+B^T \\ \)
  2. \(\;\;(\lambda A)^T = \lambda A^T\) für alle \(\lambda \in \mathbb {R}\\ \)
  3. \(\;\;(A^T)^T = A \\ \)
  4. \(\;\;E_n^T=E_n\)

Eine typische Fehlerquelle ist allerdings der Umgang mit transponierten Matrizen beim Matrixprodukt. Hier vertauscht sich die Reihenfolge der beteiligten Matrizen:

Satz (Transponierte eines Matrixprodukts):
Sind \(A\) eine \(m\times p\)-Matrix und \(B\) eine \(p\times n\)-Matrix, dann gilt

\((A B)^T=B^T\, A^T.\)

Beweis: Wenn \(C=(c_{ij})=AB\) die (\(m\times n\))-Produktmatrix ist, dann ist nach der Definition der Matrizenmultiplikation

\(c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\dots+a_{ip}b_{pj}=\sum\limits_{k=1}^pa_{ik}b_{kj}\)

Die dazu transponierte (\(n\times m\)-)Matrix \(C^ T=(\tilde{c}_{ij})\) hat die Koeffizienten

\(\tilde{c}_{ij}=c_{ji}=\sum_{k=1}^{p}a_{jk}b_{ki}.\)

Setzt man nun \(A^ T=(\tilde{a}_{ij})\) mit \(\tilde{a}_{ij}=a_{ji}\), \(B^ T=(\tilde{b}_{ij})\) mit \(\tilde{b}_{ij}=b_{ji}\) und \(D=B^T A^T = (d_{ij})\) dann ist

\(\begin{array}{rcl}d_{ij}&=&\tilde{b}_{i1}\tilde{a}_{1j}+\tilde{b}_{i2}\tilde{a}_{2j}+\ldots+\tilde{b}_{ip}\tilde{a}_{pj}=\sum\limits_{k=1}^p\tilde{b}_{ik}\tilde{a}_{kj}\\&=&b_{1i}a_{j1}+b_{2i}a_{j2}+\ldots+b_{pi}a_{jp}=\sum\limits_{k=1}^pb_{ki}a_{jk}\\&=&\sum\limits_{k=1}^pa_{jk}b_{ki}=c_{ji}\end{array}\)

Also ist \(D=C^ T\) beziehungsweise \(B^ TA^ T= (AB)^ T\).

?

Bemerkung:
Eine Konsequenz dieser Rechenregel ist, dass für jede invertierbare \(n\times n\)-Matrix \(A\) auch \(A^T\) eine invertierbare Matrix ist mit \((A^ T)^{-1}=(A^{-1})^ T\).
Man findet für \((A^ T)^{-1}\) gelegentlich auch die Kurzschreibweise \(A^{-T}\).

In der Physik bzw. Mechanik weisen die Einträge viele Matrizen bestimmte Symmetrien auf.

Definition (symmetrische Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt symmetrisch, falls \(A^T=A\) ist.

Eine symmetrische Matrix ist also anschaulich "spiegelsymmetrisch zu ihrer Hauptdiagonalen". Beispielsweise kann man das Trägheitsmoment eines starren Körpers als symmetrische Matrix auffassen.

Definition (schiefsymmetrische Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt schiefsymmetrisch, falls \(A^ T=-A\) ist.

Beispiele:
  1. \(\;\; A=\left(\begin{array}{rrr} 1 & -2 & 3 \\ -2 & 5 & -4 \\ 3 & -4 & 0\end{array}\right) \;\;\) ist symmetrisch

  2. \(\;\; B=\left(\begin{array}{rrr} 0 & 2 & 3 \\ -2 & 0 & -4 \\ -3 & 4 & 0\end{array}\right)\;\;\) ist schiefsymmetrisch

  3. \( \;\; C=\left(\begin{array}{rrr} 1 & 2 & 3 \\ 2 & -2 & -4 \\ -3 & 4 & 3\end{array}\right) \;\; \) ist weder symmetrisch noch schiefsymmetrisch

Beispiel (Spannungstensor):

In der Kontinuumsmechanik beschreibt man die Spannungen innerhalb eines festen Körpers unter dem Einfluss äußerer Kräfte durch eine symmetrische \(3\times 3\)-Matrix

\(\sigma=\begin{bmatrix}\sigma_{x}&\tau_{xy}&\tau_{xz}\\\tau_{yx}&\sigma_{y}&\tau_{yz}\\\tau_{zx}&\tau_{zy}&\sigma_{z}\end{bmatrix}\)

In einer (gedachten) Schnittfläche durch den Körper übt die weggeschnittene Materie auf die verbliebene Materie eine Spannung. Dabei sind die Diagonaleinträge die Normalspannungskomponenten, die orthogonal zur Schnittfläche wirken, während die anderen Einträge, die Schubspannungskomponenten, in Richtung der Schnittfläche zeigen. In diesem Fall ist die Symmetrie eine Konsequenz der Drehimpulserhaltung.

Obwohl der Spnnungstensor neun Einträge hat, wird der räumliche Spannungszustand also durch sechs Größen vollständig charakterisiert.

Bemerkung :
Bei einer schiefsymmetrischen Matrix sind alle Diagonaleinträge Null, denn da

\(A^T=(a_{ji})\)

muss \(a_{ji}=-a_{ij}\) gelten. Speziell für \(i=j\) ergibt sich daraus \(a_{jj}=-a_{jj}\), also \(a_{jj}=0\).

Bemerkung :

Man kann jede \(n\times n\)-Matrix \(A\) als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben:

\(A=A_{symm}+A_{schief}\;\) mit \(\;A_{symm}=\frac{1}{2}\left(A+A^T\right)\;\) und \(\;A_{schief}=\frac{1}{2}\left(A-A^T\right)\)

Prüfen Sie nach, dass das tatsächlich stimmt.

Eine interessante und nicht unmittelbar einsichtige Eigenschaft von Matrizen besteht darin, dass die Maximalzahl linear unabhängiger Zeilenvektoren immer mit der Maximalzahl linear unabhängiger Spaltenvektoren übereinstimmt, oder etwas anders formuliert:

Satz ("Spaltenrang = Zeilenrang"):
Ist \(A\) eine beliebige \(m\times n\)-Matrix, dann gilt

\(\mathrm{Rang}\,A=\mathrm{Rang}\, A^T.\)


Da beim Transponieren Zeilen und Spalten vertauscht werden, sind die Spaltenvektoren von \(A^T\) gerade die Zeilenvektoren von \(A\) und der Rang von \(A^T\) als die Maximalzahl linear unabhängiger Spaltenvektoren von \(A^T\) ist also die Maximalzahl linear unabhängiger Zeilenvektoren von \(A\).

Zuletzt geändert: Freitag, 25. Januar 2019, 00:53