9.3 Lineare Abbildungen

Definition (lineare Abbildung):
Eine lineare Abbildung zwischen zwei Vektorräumen \(V\) und \(W\) ist eine Funktion \(f:V\to W\), die die beiden Bedingungen

  • \(\;\;\;\;f(\vec{x}+\vec{y})=f(\vec{x})+f(\vec{y})\) für alle Vektoren \(\vec{x},\vec{y}\in V\)

  • \(\;\;\;\;f(\alpha \vec{x}) = \alpha f(\vec{x})\) für alle Zahlen \(\alpha \in \mathbb {R}\) und alle Vektoren \(\vec{x}\in V\)


Der Grund, warum man diese Verallgemeinerung betrachtet, besteht darin, dass sehr viele Eigenschaften und Tatsachen über Vektoren aus diesen einfachen Grundregeln folgen und nicht unmittelbar mit dem \(\mathbb {R}^n\) oder mit Matrizen zu tun haben. Beispielsweise kann man für irgendeine lineare Abbildung \(f:V\to W\) die lineare Gleichung

\(f(\vec{x})=0\)

betrachten. Ganz unabhängig von \(V\), \(W\) und \(f\) besitzt eine solche Gleichung immer entweder keine, genau eine oder unendlich viele Lösungen, genau wie wir das bei den linearen Gleichungssystemen schon gesehen hatten.

Bemerkung :

Falls \(f\) eine lineare Abbildung ist, dann muss \(f(\vec{0})=\vec{0}\) sein, d.h. der Nullvektor von \(V\) wird auf den Nullvektor von \(W\) abgebildet. Dies folgt aus der kurzen Rechnung

\(f(\vec{0})=f(\vec{0}+\vec{0})=f(\vec{0})+f(\vec{0}).\)

Diese Eigenschaft lässt sich gelegentlich nutzen, um schnell zu erkennen, dass eine Abbildung nicht linear ist.

Die Linearität von Abbildungen entspricht in manchen Situationen dem Superpositionsprinzip aus der Mechanik bzw. Physik:

Wenn man zwei Lösungen einer Bewegungsgleichung kennt, dann ist auch die Summe dieser Lösungen und jedes Vielfache einer Lösung wieder selbst eine Lösung. Man kann dieses Superpositionsprinzip beispielsweise benutzen, um aus allen möglichen Lösungen einer Differentialgleichung diejenige zu finden, die auch noch die vorgegebenen Anfangs- oder Randbedingungen erfüllt.

Beispiele:
  1. Die Nullabbildung \(N:\mathbb {R}^3\to \mathbb {R}^3\), die jeden Vektor \(\vec{x}\) aus \(\mathbb{R}^3\) auf den Nullvektor \(\vec{0}\in \mathbb{R}^3\) abbildet ist eine nicht sehr spannende, aber lineare Abbildung.

  2. Sei \(V=\mathbb{R}^n\). Die Abbildung \(\pi_j:\mathbb {R}^n\to \mathbb {R}\) mit \(\pi_j(x_1,x_2,\ldots ,x_n)=x_j\), die jedem Vektor seine \(j\)-te Komponente zuordnet, ist linear. Das prüft man, indem man es für beliebige Vektoren \(\vec{x}=(x_1,x_2,\ldots ,x_n)\) und \(\vec{y}=(y_1,y_2,\ldots ,y_n)\) nachrechnet:

    \(\pi_j(\vec{x}+\vec{y})\;\;=\;\;\pi_j(x_1+y_1,x_2+y_2,\ldots,x_n+y_n)\;=\; x_j+y_j\;=\;\pi_j(\vec{x})+\pi_j(\vec{y})\)

    \(\pi_j(\alpha\cdot\vec{x})\;=\;\pi_j(\alpha x_1,\alpha x_2,\ldots,\alpha x_n)=\alpha x_j=\alpha\pi_j(\vec{x})\)

    Die Abbildungen \(\pi_j\) mit \(j=1,2,\ldots ,n\) heißen die Projektionen auf die \(j\)-te Komponente des Vektors.

Das letzte Beispiel kann man noch etwas verallgemeinern

Beispiel (Orthogonale Projektionen auf einen Untervektorraum):
Sei \(U\subset \mathbb {R}^ n\) ein \((n-1)\)-dimensionaler Untervektorraum und \(\vec{v}\in U^{\perp }\) ein Vektor, der auf allen Vektoren aus \(U\) senkrecht steht. Dann wird durch

\(p_U(\vec{x})=\vec{x}-(\vec{x}\cdot\vec{v})\,\vec{v}\)

eine lineare Abbildung \(p_U:\mathbb {R}^n\to \mathbb {R}^n\) definiert.

Zum Schluss noch ein paar lineare Abbildungen zwischen etwas ungewohnteren Vektorräumen. Sei

\(V=\{ p:\mathbb {R}\to \mathbb {R};\; p \text { ist ein Polynom}\} \)

der Vektorraum reellen Polynome. Dann ist die Abbildung \(S:V \to V\) mit \((V(p))(x)=p(x-1)\), die jedem Polynom \(p(x)\) das Polynom \(p(x-1)\) zuordnet, eine lineare Abbildung.



Obwohl wir die Differentiation erst später einführen, hier schon ein Beispiel, das Ableitungen benutzt (da man die Ableitung von Polynomen ja aus der Schule kennt). Die Abbildung \(D:V \to V\) mit \((D(p))(x)=p’(x)\), die jedem Polynom \(p(x)\) seine Ableitung \(p’(x)\) zuordnet, ist eine lineare Abbildung. Für

\(p(x)=a_0+a_1 x +a_2 x^2+\dots +a_ nx^n\)

erhält man als Bild \(q=D(p)\) das Polynom

\(q(x)=p’(x)= a_1 +2 a_2 x+3a_3 x^2 +\dots +n a_ nx^{n-1}\).

Man kann nun relativ leicht nachrechnen, dass die beiden Bedingungen für Linearität erfüllt sind. Später werden wir zeigen, dass die Linearität zu den Rechenregeln gehört, die ganz allgemein für Ableitungen gelten.

Satz:
Ist \(f: V \to W\) eine lineare, bijektive Abbildung zwischen zwei reellen Vektorräumen \(V\) und \(W\), dann ist auch die Umkehrabbildung \(f^{-1}: W \to V\) linear.

Lineare Abbildungen und Basen

Sehr praktisch an linearen Abbildungen ist, dass sie schon durch wenige Angaben eindeutig festgelegt sind, genauer

Satz:

Eine lineare Abbildung \(f\colon \mathbb {R}^n\to \mathbb {R}^m\) ist schon durch die Bilder

\(f(\vec{e}_1)=\vec{w}_1,f(\vec{e}_2)=\vec{w}_2,\dots,f(\vec{e}_n)=\vec{w}_n\)

der Standardbasisvektoren eindeutig bestimmt, wenn man die Bilder \(\vec{w}_1,\vec{w}_2,\dots ,\vec{w}_n\in \mathbb {R}^m\) dieser Basisvektoren beliebig festlegt, dann liegt bereits für jeden Vektor \(\vec{x}\in \mathbb {R}^ n\) der Funktionswert \(f(\vec{x})\) fest.

Begründung: Weil \(\{ \vec{e}_1,\vec{e}_2,\ldots , \vec{e}_n\}\) eine Basis von \(\mathbb {R}^n\) ist, kann man jeden Vektor \(\vec{x}\in \mathbb{R}^n\) auf eindeutige Weise als

\(\vec{x}=\alpha_1\vec{e}_1+\alpha_2\vec{e}_2+\ldots+\alpha_n\vec{e}_n\)

mit Koeffizienten \(\alpha_1,\dots ,\alpha_n\in \mathbb {R}\) schreiben.

Weil \(f\) aber eine lineare Abbildung ist, muss dann

\(\begin{array}{rcl}f(v)=f(\alpha_1\vec{e}_1+\ldots+\alpha_n\vec{e}_n)&=&\alpha_1f(\vec{e}_1)+\ldots+\alpha_nf(\vec{e}_n)\\&=&\alpha_1\vec{w}_1+\ldots+\alpha_n\vec{w}_n\end{array}\)

sein. Dass man auf diese Weise tatsächlich eine lineare Abbildung erhält, kann man wiederum mit der Definition von linearen Abbildungen nachrechnen.

Zuletzt geändert: Samstag, 26. Januar 2019, 00:14