9.4 Koordinatentransformationen

Bisher hatten wir immer in einem festen Koordinatensystem gearbeitet und gerechnet, das durch die Standardbasisvektoren

\(\vec{e}_1=\left(\begin{array}{c}1\\0\\0\\\dots\\0\end{array}\right),\vec{e}_2=\left(\begin{array}{c}0\\1\\0\\\dots\\0\end{array}\right),\vec{e}_3=\left(\begin{array}{c}0\\0\\1\\\dots\\0\end{array}\right),\dots,\vec{e}_n=\left(\begin{array}{c}0\\0\\0\\\dots\\1\end{array}\right)\)

festgelegt war. Ein Vektor \(\vec{x}\) mit Koordinaten \(x_1\), \(x_2,\dots ,x_n\) lÀsst sich also als Linearkombination

\(\vec{x}=\left(\begin{array}{c}x_1\\x_2\\x_3\\\dots\\x_n\end{array}\right)=x_1\vec{e}_1+x_2\vec{e}_2+\dots+x_n\vec{e}_n=\sum\limits_{j=1}^nx_j\vec{e}_j\)

schreiben.


Aus praktischen GrĂŒnden bietet es sich manchmal an, ein neues Koordinatensystem einzufĂŒhren, dass dem betrachteten Problem besser angepasst ist. Man ersetzt also die Basis \((\vec{e}_1,\vec{e}_2,\dots ,\vec{e}_ n)\) durch eine neue Basis \(B=(\vec{b}_1,\vec{b}_2,\dots ,\vec{b}_ n)\).

Einen Vektor \(\vec{x}\) mit den "alten" Koordinaten \(x_1,x_2,\dots ,x_ n\) kann man auch in der Form

\(\vec{x}=y_1\vec{b}_1+y_2\vec{b}_2+\dots+y_n\vec{b}_n=\sum\limits_{j=1}^ny_j\vec{b}_j\)

und nennt \(y_1,y_2,\dots ,y_ n\) die Koordinaten von \(\vec{x}\) bezĂŒglich der Basis \(B\). Eine wichtige Frage ist natĂŒrlich, wie diese "neuen" Koordinaten mit den alten zusammenhĂ€ngen.


Um das herauszufinden, muss man die Koordinaten der neuen Basisvektoren in der alten Basis betrachten:

\(\vec{b}_1=\left(\begin{array}{c}t_{11}\\t_{21}\\t_{31}\\\dots\\t_{n1}\end{array}\right),\vec{b}_2=\left(\begin{array}{c}t_{12}\\t_{22}\\t_{32}\\\dots\\t_{n2}\end{array}\right),\dots,\vec{b}_n=\left(\begin{array}{c}t_{1n}\\t_{2n}\\t_{3n}\\\dots\\t_{nn}\end{array}\right)\)

oder anders ausgedrĂŒckt

\(\vec{b}_i=t_{1i}\vec{e}_1+t_{2i}\vec{e}_2+\dots+t_{ni}\vec{e}_n=\sum\limits_{j=1}^nt_{ji}\vec{e}_j\)

mit Koeffizienten \(t_{ji}\in \mathbb {R}\).

Setzt man die Darstellung der neuen Basisvektoren oben ein, dann ergibt sich

\(\vec{x}=y_1\sum\limits_{j=1}^nt_{j1}\vec{e}_j+y_2\sum\limits_{j=1}^nt_{j2}\vec{e}_j+\dots+y_n\sum\limits_{j=1}^nt_{jn}\vec{e}_j=\sum\limits_{j=1}^n\left(\sum\limits_{i=1}^ny_i~t_{ji}\right)\vec{e}_j\)

Da die Koeffizienten in dieser Darstellung mit denen in der ursprĂŒnglichen Form ĂŒbereinstimmen mĂŒssen, ist

\(\sum\limits_{i=1}^nt_{ji}y_i=x_j\)

Diese n Gleichungen fĂŒr \(j=1,2,\dots ,n\) kann man auch mit Hilfe einer Matrix kompakt in eine Gleichung schreiben.

Definition (Transformationsmatrix):

Die Matrix

\(T=\left(\begin{array}{cccc}t_{11}&t_{12}&\dots&t_{1n}\\t_{21}&t_{22}&\dots&t_{2n}\\\dots&\dots&\ddots&\vdots\\t_{n1}&t_{n2}&\dots&t_{nn}\end{array}\right)\)

nennt man die Transformationsmatrix der Koordinatentransformation.

Die Spaltenvektoren von \(T\) enthalten die "alten" Koordinaten der neuen Basisvektoren.

Es gilt dann

\(\vec{x}=T\vec{y}.\)

Beispiel:
Wir betrachten im \(\mathbb {R}^3\) die Basis \(B\) aus

\(\vec{b}_1=\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right),\;\;\vec{b}_2=\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right),\;\;\vec{b}_3=\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right).\)

Ein Vektor \(\vec{y}\) hat bezĂŒglich dieser Basis die Darstellung \(\vec{y}=\left(\!\begin{array}{c}2\\ -1\\ 1\end{array}\! \right)\) Mit den Überlegungen von oben lautet die Transformationsmatrix

\(T=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\)

und in der Standardbasis ist die Darstellung von \(\vec{y}\) dann

\(\vec{x}=T\vec{y}=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\left(\!\begin{array}{c}2\\-1\\1\end{array}\!\right)=\left(\!\begin{array}{c}0\\5\\3\end{array}\!\right).\)

Fast genauso oft möchte man fĂŒr einen in den alten Koordinaten gegebenen Vektor die neuen Koordinaten finden. Hier könnte man ganz analog vorgehen. Man kann aber auch die Gleichung \(\vec{x}=T\vec{y}\) von links mit der Matrix \(T^{-1}\) multiplizieren und erhĂ€lt so mit

\(\vec{y}=T^{-1}\vec{x}\)

die Möglichkeit, die neuen Koordinaten aus den alten durch eine Matrixmultiplikation zu bestimmen. Dass die Matrix \(T\) ĂŒberhaupt invertierbar ist, liegt daran, dass \(B\) eine Basis ist, also aus linear unabhĂ€ngigen Vektoren besteht. Damit sind die Spaltenvektoren der Matrix \(T\) linear unabhĂ€ngig und dies hat zur Konsequenz, dass \(T\) eine Inverse besitzt.

<

Beispiel :
Im \(\mathbb {R}^3\) wollen wir den Vektor \(\vec{x}=\left(\! \begin{array}{c}1\\ 2\\ 3\end{array}\! \right)\) bezĂŒglich der Basis \(B\) bestehend aus

\(\vec{b}_1=\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right),\;\;\vec{b}_2=\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right),\;\;\vec{b}_3=\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right)\)

darstellen. Mit den Überlegungen von oben ist die Transformationsmatrix also

\(T=\left(\!\begin{array}{rrr}1&2&0\\1&0&3\\0&-1&2\end{array}\!\right)\)

und schließlich (indem man \(T\) invertiert)

\(\vec{y}=T^{-1}\vec{x}=\left(\!\begin{array}{rrr}-3&4&-6\\2&-2&3\\1&-1&2\end{array}\!\right)\left(\!\begin{array}{c}1\\2\\3\end{array}\!\right)=\left(\!\begin{array}{c}-13\\7\\5\end{array}\!\right).\)

Zur Kontrolle rechnen wir nach:

\(-13\vec{b}_1+7\vec{b}_2+5\vec{b}_3=-13\left(\!\begin{array}{c}1\\1\\0\end{array}\!\right)+7\left(\!\begin{array}{c}2\\0\\-1\end{array}\!\right)+5\left(\!\begin{array}{c}0\\3\\2\end{array}\!\right)=\left(\!\begin{array}{c}1\\2\\3\end{array}\!\right)=\vec{x}\)

Die Bestimmung der inversen Matrix ist im allgemeinen recht mĂŒhsam. Daher ist der Fall von besonderem Interesse, dass \(T\) eine orthogonale Matrix ist, fĂŒr die sich die Inverse einfach durch Transponieren berechnen lĂ€sst. Die bisherigen Betrachtungen zu Koordinatentransformationen gelten fĂŒr einen beliebigen Wechsel der Basisvektoren und haben nichts damit zu tun, dass wir am Anfang von der Standardbasis \((\vec{e}_1,\vec{e}_2,\vec{e}_3)\) ausgegangen sind. Die neuen Basisvektoren dĂŒrfen eine beliebige LĂ€nge haben und mĂŒssen nicht senkrecht aufeinander stehen. Sie mĂŒssen nur linear unabhĂ€ngig sein.

Wenn die neuen Basisvektoren ein Orthonormalsystem bilden, ist die Transformationsmatrix \(T\) eine orthogonale Matrix, d.h. \(TT^ T=T^ TT=E_ n\).

Weiter zur Feedback-Seite
Ohne Test weiter zu Kapitel 10: Grenzwerte
Last modified: Saturday, 26 January 2019, 12:23 AM