9.4 Matrixdarstellung linearer Abbildungen
9.4 Koordinatentransformationen
Bisher hatten wir immer in einem festen Koordinatensystem gearbeitet und gerechnet, das durch die Standardbasisvektoren
\(\vec{e}_1=\left(\begin{array}{c}1\\0\\0\\\dots\\0\end{array}\right),\vec{e}_2=\left(\begin{array}{c}0\\1\\0\\\dots\\0\end{array}\right),\vec{e}_3=\left(\begin{array}{c}0\\0\\1\\\dots\\0\end{array}\right),\dots,\vec{e}_n=\left(\begin{array}{c}0\\0\\0\\\dots\\1\end{array}\right)\)
festgelegt war. Ein Vektor \(\vec{x}\) mit Koordinaten \(x_1\), \(x_2,\dots ,x_n\) lässt sich also als Linearkombination
\(\vec{x}=\left(\begin{array}{c}x_1\\x_2\\x_3\\\dots\\x_n\end{array}\right)=x_1\vec{e}_1+x_2\vec{e}_2+\dots+x_n\vec{e}_n=\sum\limits_{j=1}^nx_j\vec{e}_j\)
schreiben.
Aus praktischen Gründen bietet es sich manchmal an, ein neues Koordinatensystem einzuführen, dass dem betrachteten Problem besser angepasst ist. Man ersetzt also die Basis \((\vec{e}_1,\vec{e}_2,\dots ,\vec{e}_ n)\) durch eine neue Basis \(B=(\vec{b}_1,\vec{b}_2,\dots ,\vec{b}_ n)\).
Einen Vektor \(\vec{x}\) mit den "alten" Koordinaten \(x_1,x_2,\dots ,x_ n\) kann man auch in der Form
\(\vec{x}=y_1\vec{b}_1+y_2\vec{b}_2+\dots+y_n\vec{b}_n=\sum\limits_{j=1}^ny_j\vec{b}_j\)
und nennt \(y_1,y_2,\dots ,y_ n\) die Koordinaten von \(\vec{x}\) bezüglich der Basis \(B\). Eine wichtige Frage ist natürlich, wie diese "neuen" Koordinaten mit den alten zusammenhängen.
Um das herauszufinden, muss man die Koordinaten der neuen Basisvektoren in der alten Basis betrachten:
\(\vec{b}_1=\left(\begin{array}{c}t_{11}\\t_{21}\\t_{31}\\\dots\\t_{n1}\end{array}\right),\vec{b}_2=\left(\begin{array}{c}t_{12}\\t_{22}\\t_{32}\\\dots\\t_{n2}\end{array}\right),\dots,\vec{b}_n=\left(\begin{array}{c}t_{1n}\\t_{2n}\\t_{3n}\\\dots\\t_{nn}\end{array}\right)\)
oder anders ausgedrückt
\(\vec{b}_i=t_{1i}\vec{e}_1+t_{2i}\vec{e}_2+\dots+t_{ni}\vec{e}_n=\sum\limits_{j=1}^nt_{ji}\vec{e}_j\)
mit Koeffizienten \(t_{ji}\in \mathbb {R}\).
Setzt man die Darstellung der neuen Basisvektoren oben ein, dann ergibt sich
\(\vec{x}=y_1\sum\limits_{j=1}^nt_{j1}\vec{e}_j+y_2\sum\limits_{j=1}^nt_{j2}\vec{e}_j+\dots+y_n\sum\limits_{j=1}^nt_{jn}\vec{e}_j=\sum\limits_{j=1}^n\left(\sum\limits_{i=1}^ny_i~t_{ji}\right)\vec{e}_j\)
Da die Koeffizienten in dieser Darstellung mit denen in der ursprünglichen Form übereinstimmen müssen, ist
\(\sum\limits_{i=1}^nt_{ji}y_i=x_j\)
Diese n Gleichungen für \(j=1,2,\dots ,n\) kann man auch mit Hilfe einer Matrix kompakt in eine Gleichung schreiben.
Die Matrix
\(T=\left(\begin{array}{cccc}t_{11}&t_{12}&\dots&t_{1n}\\t_{21}&t_{22}&\dots&t_{2n}\\\dots&\dots&\ddots&\vdots\\t_{n1}&t_{n2}&\dots&t_{nn}\end{array}\right)\)
nennt man die Transformationsmatrix der Koordinatentransformation.
Die Spaltenvektoren von \(T\) enthalten die "alten" Koordinaten der neuen Basisvektoren.
Es gilt dann
\(\vec{x}=T\vec{y}.\)
\(\vec{b}_1=\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right),\;\;\vec{b}_2=\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right),\;\;\vec{b}_3=\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right).\)
Ein Vektor \(\vec{y}\) hat bezüglich dieser Basis die Darstellung \(\vec{y}=\left(\!\begin{array}{c}2\\ -1\\ 1\end{array}\! \right)\) Mit den Überlegungen von oben lautet die Transformationsmatrix\(T=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\)
und in der Standardbasis ist die Darstellung von \(\vec{y}\) dann\(\vec{x}=T\vec{y}=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\left(\!\begin{array}{c}2\\-1\\1\end{array}\!\right)=\left(\!\begin{array}{c}0\\5\\3\end{array}\!\right).\)
Fast genauso oft möchte man für einen in den alten Koordinaten gegebenen Vektor die neuen Koordinaten finden. Hier könnte man ganz analog vorgehen. Man kann aber auch die Gleichung \(\vec{x}=T\vec{y}\) von links mit der Matrix \(T^{-1}\) multiplizieren und erhält so mit
\(\vec{y}=T^{-1}\vec{x}\)
die Möglichkeit, die neuen Koordinaten aus den alten durch eine Matrixmultiplikation zu bestimmen. Dass die Matrix \(T\) überhaupt invertierbar ist, liegt daran, dass \(B\) eine Basis ist, also aus linear unabhängigen Vektoren besteht. Damit sind die Spaltenvektoren der Matrix \(T\) linear unabhängig und dies hat zur Konsequenz, dass \(T\) eine Inverse besitzt.
<
\(\vec{b}_1=\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right),\;\;\vec{b}_2=\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right),\;\;\vec{b}_3=\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right)\)
darstellen. Mit den Überlegungen von oben ist die Transformationsmatrix also\(T=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\)
und schließlich (indem man \(T\) invertiert)\(\vec{y}=T^{-1}\vec{x}=\left(\!\begin{array}{rrr}-3&4&-6\\2&-2&3\\1&-1&2\end{array}\!\right)\left(\!\begin{array}{c}1\\2\\3\end{array}\!\right)=\left(\!\begin{array}{c}-13\\7\\5\end{array}\!\right).\)
Zur Kontrolle rechnen wir nach:\(-13\vec{b}_1+7\vec{b}_2+5\vec{b}_3=-13\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right)+7\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right)+5\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right)=\left(\!\begin{array}{c}1\\2\\3\end{array}\!\right)=\vec{x}\)
Die Bestimmung der inversen Matrix ist im allgemeinen recht mühsam. Daher ist der Fall von besonderem Interesse, dass \(T\) eine orthogonale Matrix ist, für die sich die Inverse einfach durch Transponieren berechnen lässt. Die bisherigen Betrachtungen zu Koordinatentransformationen gelten für einen beliebigen Wechsel der Basisvektoren und haben nichts damit zu tun, dass wir am Anfang von der Standardbasis \((\vec{e}_1,\vec{e}_2,\vec{e}_3)\) ausgegangen sind. Die neuen Basisvektoren dürfen eine beliebige Länge haben und müssen nicht senkrecht aufeinander stehen. Sie müssen nur linear unabhängig sein.
Wenn die neuen Basisvektoren ein Orthonormalsystem bilden, ist die Transformationsmatrix \(T\) eine orthogonale Matrix, d.h. \(TT^ T=T^ TT=E_ n\).