5.4 Die transponierte Matrix

Definition (Transponierte Matrix):
Sei \(A=(a_{ij})\) eine \(m\times n\)-Matrix. Dann nennt man die \(n\times m\)-Matrix \(B=(b_{ij})\) mit \(1\leq i\leq n\) und \(1\leq j\leq m\) und

\(b_{ij}=a_{ji}\)

die zu \(A\) transponierte Matrix, geschrieben \(B=A^T\). Aus der \(i\)-ten Zeile von \(A\) wird die \(i\)-te Spalte von \(A^T\) und aus der \(j\)-ten Spalte von \(A\) die \(j\)-te Zeile von \(A^T\).
Schematisch:

Figures/transposition_schematisch2

Die transponierte Matrix erhÀlt man also, indem man die Matrix \(A\) an einer gedachten Diagonale spiegelt.

Beispiel:
  1. FĂŒr \(A= \left(\begin{array}{rrrr} 1 & -2 & 3 & 4 \\ -5 & 6 & 7 & -8\end{array}\right) \) ist die transponierte Matrix \(A^ T= \left(\begin{array}{rr} 1 & -5 \\ -2 & 6 \\ 3 & 7 \\ 4 & -8\end{array}\right) \)

  2. FĂŒr \(B= \left(\begin{array}{rrr} 1 & 0 & 3 \\ 2 & -1 & -2 \\ -3 & 0 & 4 \end{array}\right) \) ist die transponierte Matrix \(B^ T= \left(\begin{array}{rrr} 1 & 2 & -3 \\ 0 & -1 & 0 \\ 3 & -2 & 4 \end{array}\right) \)

  3. FĂŒr einen Zeilenvektor \(v= \left(\! \begin{array}{rrrr} 1 & -1 & 2 & -2\end{array}\! \right) \) ist \(v^ T= \left(\! \begin{array}{r} 1 \\ -1 \\ 2 \\ -2\end{array}\! \right) \) ein Spaltenvektor (und umgekehrt).

Direkt aus der Definition macht man sich die folgenden Eigenschaften transponierter Matrizen klar:

Satz (Rechenregeln fĂŒr transponierte Matrizen):
  1. \(\;\;(A+B)^T = A^T+B^T \\ \)
  2. \(\;\;(\lambda A)^T = \lambda A^T\) fĂŒr alle \(\lambda \in \mathbb {R} \)

  3. \(\;\;(A^T)^T = A \\ \)
  4. \(\;\;E_n^T=E_n\)

Eine typische Fehlerquelle ist allerdings der Umgang mit transponierten Matrizen beim Matrixprodukt. Hier vertauscht sich die Reihenfolge der beteiligten Matrizen:

Satz (Transponierte eines Matrixprodukts):
Sind \(A\) eine \(m\times p\)-Matrix und \(B\) eine \(p\times n\)-Matrix, dann gilt

\((A B)^T=B^T\, A^T.\)

Beweis: Wenn \(C=(c_{ij})=AB\) die (\(m\times n\))-Produktmatrix ist, dann ist nach der Definition der Matrizenmultiplikation

\(c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\dots+a_{ip}b_{pj}=\sum\limits_{k=1}^pa_{ik}b_{kj}\)

Die dazu transponierte (\(n\times m\)-)Matrix \(C^ T=(\tilde{c}_{ij})\) hat die Koeffizienten

\(\tilde{c}_{ij}=c_{ji}=\sum\limits_{k=1}^{p}a_{jk}b_{ki}.\)

Setzt man nun \(A^ T=(\tilde{a}_{ij})\) mit \(\tilde{a}_{ij}=a_{ji}\), \(B^ T=(\tilde{b}_{ij})\) mit \(\tilde{b}_{ij}=b_{ji}\) und \(D=B^T A^T = (d_{ij})\) dann ist

\(\begin{array}{rcl}d_{ij}&=&\tilde{b}_{i1}\tilde{a}_{1j}+\tilde{b}_{i2}\tilde{a}_{2j}+\ldots+\tilde{b}_{ip}\tilde{a}_{pj}=\sum\limits_{k=1}^p\tilde{b}_{ik}\tilde{a}_{kj}\\&=&b_{1i}a_{j1}+b_{2i}a_{j2}+\ldots+b_{pi}a_{jp}=\sum\limits_{k=1}^pb_{ki}a_{jk}\\&=&\sum\limits_{k=1}^pa_{jk}b_{ki}=c_{ji}\end{array}\)

Also ist \(D=C^ T\) beziehungsweise \(B^ TA^ T= (AB)^ T\).

\(\Box\)

Bemerkung:
Eine Konsequenz dieser Rechenregel ist, dass fĂŒr jede invertierbare \(n\times n\)-Matrix \(A\) auch \(A^T\) eine invertierbare Matrix ist mit \((A^ T)^{-1}=(A^{-1})^ T\).
Man findet fĂŒr \((A^ T)^{-1}\) gelegentlich auch die Kurzschreibweise \(A^{-T}\).

In der Physik bzw. Mechanik weisen die EintrÀge viele Matrizen bestimmte Symmetrien auf.

Definition (symmetrische Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt symmetrisch, falls \(A^T=A\) ist.

Eine symmetrische Matrix ist also anschaulich "spiegelsymmetrisch zu ihrer Hauptdiagonalen". Beispielsweise kann man das TrÀgheitsmoment eines starren Körpers als symmetrische Matrix auffassen.

Definition (schiefsymmetrische Matrix):
Eine \(n\times n\)-Matrix \(A\) heißt schiefsymmetrisch, falls \(A^ T=-A\) ist.

Beispiele:
  1. \(\;\; A=\left(\begin{array}{rrr} 1 & -2 & 3 \\ -2 & 5 & -4 \\ 3 & -4 & 0\end{array}\right) \;\;\) ist symmetrisch

  2. \(\;\; B=\left(\begin{array}{rrr} 0 & 2 & 3 \\ -2 & 0 & -4 \\ -3 & 4 & 0\end{array}\right)\;\;\) ist schiefsymmetrisch

  3. \( \;\; C=\left(\begin{array}{rrr} 1 & 2 & 3 \\ 2 & -2 & -4 \\ -3 & 4 & 3\end{array}\right) \;\; \) ist weder symmetrisch noch schiefsymmetrisch

Hier ein paar Matrizen, die Du selber klassifizieren kannst:

Guest users do not have permission to interact with embedded questions.

Beispiel (Spannungstensor):

In der Kontinuumsmechanik beschreibt man die Spannungen innerhalb eines festen Körpers unter dem Einfluss Ă€ußerer KrĂ€fte durch eine symmetrische \(3\times 3\)-Matrix

\(\sigma=\begin{bmatrix}\sigma_{x}&\tau_{xy}&\tau_{xz}\\\tau_{yx}&\sigma_{y}&\tau_{yz}\\\tau_{zx}&\tau_{zy}&\sigma_{z}\end{bmatrix}\)

In einer (gedachten) SchnittflĂ€che durch den Körper ĂŒbt die weggeschnittene Materie auf die verbliebene Materie eine Spannung. Dabei sind die DiagonaleintrĂ€ge die Normalspannungskomponenten, die orthogonal zur SchnittflĂ€che wirken, wĂ€hrend die anderen EintrĂ€ge, die Schubspannungskomponenten, in Richtung der SchnittflĂ€che zeigen. In diesem Fall ist die Symmetrie eine Konsequenz der Drehimpulserhaltung.

Obwohl der Spannungstensor neun EintrĂ€ge hat, wird der rĂ€umliche Spannungszustand also bereits durch sechs GrĂ¶ĂŸen vollstĂ€ndig charakterisiert.

Bemerkung :
Bei einer schiefsymmetrischen Matrix sind alle DiagonaleintrÀge Null, denn da

\(A^T=(a_{ji})\)

ist, muss \(a_{ji}=-a_{ij}\) gelten. Speziell fĂŒr \(i=j\) ergibt sich daraus \(a_{jj}=-a_{jj}\), also \(a_{jj}=0\).

Bemerkung :

Man kann jede \(n\times n\)-Matrix \(A\) als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben:

\(A=A_{symm}+A_{schief}\;\) mit \(\;A_{symm}=\frac{1}{2}\left(A+A^T\right)\;\) und \(\;A_{schief}=\frac{1}{2}\left(A-A^T\right)\)

PrĂŒfen Sie nach, dass das tatsĂ€chlich stimmt, das heißt, dass \(A_{symm}\) wirklich symmetrisch und \(A_{schief}\) wirklich schiefsymmetrisch ist.

Eine interessante und nicht unmittelbar einsichtige Eigenschaft von Matrizen besteht darin, dass die Maximalzahl linear unabhĂ€ngiger Zeilenvektoren immer mit der Maximalzahl linear unabhĂ€ngiger Spaltenvektoren ĂŒbereinstimmt, oder etwas anders formuliert:

Satz ("Spaltenrang = Zeilenrang"):

Ist \(A\) eine beliebige \(m\times n\)-Matrix, dann gilt

\(\mathrm{Rang}\,A=\mathrm{Rang}\, A^T.\)


Da beim Transponieren Zeilen und Spalten vertauscht werden, sind die Spaltenvektoren von \(A^T\) gerade die Zeilenvektoren von \(A\) und der Rang von \(A^T\) als die Maximalzahl linear unabhÀngiger Spaltenvektoren von \(A^T\) ist also die Maximalzahl linear unabhÀngiger Zeilenvektoren von \(A\).

Last modified: Wednesday, 19 February 2025, 3:39 PM