Um nun lineare Vektorräume mit einander in Beziehung setzen zu können, benötigen derartige Abbildungen zwischen diesen, die uns erlauben die Rechnungen die wir für die Vektoren eines Vektorraums durchgeführt haben entsprechend auf die Bilder dieser Vektoren in einen anderen Vektorraum zu übertragen.
10.1 Definition.
Unter einer linearen Abbildung (man sagt auch Homomorphismus oder
kurz Morphismus dafür) zwischen Vektorräumen
und
versteht man eine
Abbildung
die folgendes erfüllt
Es ist also egal ob man zuerst addiert bzw. skalarmultipliziert und dann die Abbildung anwendet oder umgekehrt vorgeht.
Beweis. Es ist
10.3 Definition.
Wie bei allgemeinen Abbildungen spielt natürlich auch bei linearen Abbildungen
die Injektivität,
die Surjektivität und vor allem die Bijektivität ein große Rolle. Man nennt eine
Abbildung
zwischen Vektorräumen
10.4 Lemma.
Es sei
linear. Dann ist der Kern
von
ein Teilvektorraum von
.
Dies zeigt wegen (10.2) nochmals 8.7 und 8.9.
Beweis. Seien und . Dann ist , also auch . []
10.5 Lemma.
Eine lineare Abbildung
ist genau dann injektiv, wenn
ist.
Beweis. ( ) Es sei , also . Falls injektiv ist, so folgt daraus , also . Die andere Inklusion ist trivial.
( ) Es sei und . Dann ist und somit , also . D.h. ist injektiv. []
10.6 Lemma.
Es sei
linear. Dann ist das Bild
von
ein Teilvektorraum von
.
Beweis. Es sei und . D.h. es existieren mit und . Dann gilt , also ist ein Teilvektorraum. []
Die folgende Proposition zeigt, daß es genügt eine lineare Abbildung
an nur sehr wenigen Stellen
zu kennen, um sie an allen Vektoren
berechnen zu können.
10.7 Proposition.
Es sei
eine Basis des Vektorraums
und
eine Abbildung in
einen Vektorraum
.
Dann existiert eine eindeutig bestimmte lineare Abbildung
mit den vorgegebenen Werten
auf den Basis-Vektoren
, d.h. mit
.
Beweis. Da eine Basis ist, besitzt jedes eine eindeutig bestimmte Darstellung mit Koeffizienten . Es sei wie gefordert, dann ist
10.16 Proposition.
Es sei eine lineare Abbildung
gegeben und
die Bilder
der Standard-Basis.
Dann
gilt:
Beweis. Die Abbildung ist nach (10.7) durch gegeben. Ist ist offensichtlich genau dann surjektiv, wenn ein Erzeugenden-System ist. Sie ist injektiv, genau dann wenn ihr Kern ist, d.h. die Aussage zur Folge hat, also wenn linear unabhängig ist. Somit ist die Abbildung genau dann ein Isomorphismus, wenn eine Basis ist. []
Etwas allgemeiner gilt folgendes:
10.8 Proposition.
Es sei
eine lineare Abbildung zwischen Vektorräumen.
Beweis. (1) ist klar, da .
(2) Es sei injektiv und linear unabhängig mit . Da injektiv ist existiert zu jedem ein eindeutiges mit . Somit ist . Da injektiv ist, ist also und, da linear unabhängig ist, ist für alle , also für alle , d.h. ist linear unabhängig.
Falls nicht injektiv ist, so existiert ein mit , also ist linear unabhängig aber linear abhängig.
(3) Ist bijektiv und eine Basis, dann ist eine Basis nach (1) und (2). Umgekehrt sei das Bild jeder Basis eine Basis. Dann ist surjektiv nach (1) aber auch injektiv nach (2), denn sei linear unabhängig. Dann existiert nach (9.13.2) eine Basis . Somit ist nach Voraussetzung auch eine Basis, also linear unabhängig und ebenso die Teilmenge . []
Beachte, daß es in (2) und (3) nicht genügt für ein die Aussage zu haben. Denn es ist , nicht injektiv, dennoch ist eine Basis in und eine solche von .
10.9 Folgerung.
Es seien
und
Vektorräume. Dann gilt:
Beweis. Sei eine Basis von .
(1) Falls injektiv ist, so ist linear unabhängig, also nach (9.13.4). Umgekehrt sei eine Basis von mit , d.h. es existiert eine injektive Abbildung . Wir erweitern diese nach (10.7) zu einer linearen Abbildung . Diese ist injektiv, denn aus , wobei und falls ist. Da eine Basis ist sind alle und damit alle gleich 0.
(2) Falls surjektiv ist, so ist ein Erzeugenden-System, also nach (9.13.5). Umgekehrt sei eine Basis von mit , d.h. es existiert eine surjektive Abbildung (eine Inverse zur injektiven Abbildung ). Wir erweitern diese nach (10.7) zu einer linearen Abbildung . Diese ist surjektiv, denn jeder Erzeuger wird von und damit auch von getroffen.
(3) folgt nun aus (1) und (2). Falls und gleichmächtig sind, so existiert eine bijektive Abbildung und diese induziert wie in (1) und (2) einen linearen Isomorphismus.
Beachte, daß die Funktionen eine Basis bilden: Erzeugenden-System ist klar und aus folgt für alle . []
10.15 Folgerung.
Isomorphe (endlich dimensionale) Vektorräume haben die selbe Dimension und umgekehrt.
Beweis. Isomorphismen bewahren nach (10.8) Basen.
Nach (10.16) ist . []
10.10 Lemma.
Es sei
ein linearer Teilraum eines Vektorraums
.
Wir betrachten die Äquivalenzrelation die durch
gegeben ist.
Die von
erzeugte Äquivalenzklasse ist
.
Die Menge der Äquivalenzklassen wird mit
bezeichnet.
Schließlich sei
die Abbildung
.
Dann existieren eindeutig bestimmte Operationen
und
die
zu einem Vektorraum
und
zu einer linearen Abbildung machen.
Beweis. Damit eine lineare Abbildung ist, müssen wir die Operationen wie folgt definieren:
10.11 Proposition.
Es sei
ein linearer Teilraum eines Vektorraums. Dann gilt:
Beweis. (1) Die Inklusion ist eine injektive lineare Abbildung , also nach (10.9).
(2) Sei eine Basis von , also linear unabhängig in und wegen auch eine Basis von nach (9.13.2) und damit .
(3) Sei eine Basis von , also linear unabhängig in und somit nach (9.13.2) zu einer Basis von erweiterbar. Dann ist eine Basis von , denn da die kanonische Abbildung , , surjektiv ist, ist ein Erzeugenden-System nach (10.8.1), also auch eines. Es ist auch linear unabhängig, denn aus folgt , also existieren für alle mit und da linear unabhängig ist, sind alle gleich 0. Aso ist , und . []
10.12 Proposition.
Es seien
und
zwei lineare Teilräume von
. Dann induziert
die Inklusion
einen Isomorphismus
.
Insbesonders ist
Beweis. Betrachte das Diagramm
10.13 Proposition.
Es seien
und
Teilräume von
.
Dann sind äquivalent:
Beweis. (1 3) Da ist, ist ein Isomorphismus und nach (10.12) ist ebenfalls einer, also auch die Zusammensetzung .
(3 2) Sei . Wegen der Surjektivität von existiert ein mit , also ist und somit . Angenommen ist eine zweite Darstellung. Dann ist und somit wegen der Injektivität von und damit auch .
(2 1) Offensichtlich ist wegen . Sei , dann sind und zwei Darstellungen, also .
(1,3 4) Aus folgt und nach (1).
(4 3) Aus folgt die Injektivität von . Wegen folgt auch die Surjektivität. []
10.14 Proposition.
Es sei
linear.
Dann induziert
einen Isomorphismus
.
Folglich ist .
Beweis. Offensichtlich ist . Die dadurch induzierte Äquivalenzrelation (vermöge ) hat also gerade als Äquivalenzklassen, d.h. . Andererseits induziert jede Abbildung eine Bijektion vermöge : Wohldefiniertheit und Surjektivität ist offensichtlich. Injektivität folgt, da gilt.
Die Linearität von ergibt sich aus der Definition der Vektorraum-Operationen auf .
Die Dimensionsformel ergibt sich vermöge (10.11.3) aus . []
10.17 Definition.
Der Rang einer linearen Abbildung
ist definiert als
10.19 Matrizen versus linearer Abbildungen.
Die Abbildung
gegeben durch
mit
10.20 Matrixdarstellung linearer Abbildungen.
Es sei
ein Vektorraum über
mit endlicher Basis
.
Dann ist die Abbildung
ein Isomorphismus
nach (10.16).
Seine Inverse bezeichnen wir mit
.
Sei nun eine lineare Abbildung zwischen Vektorräumen über und seien und Basen von und . Dann können wir statt die lineare Abbildung betrachten:
10.18 Satz.
Die Menge
der linearen Abbildungen zwischen Vektorräumen
und
über
ist selbst ein Vektorraum.
Ebenso ist die Menge
der -Matrizen ein solcher.
Für je eine Basis
von
und
von
haben wir einen Isomorphismus von Vektorräumen
Beweis. Falls ein Vektorraum ist, so auch die Menge aller Abbildungen bzgl. und ein solcher.
Dieser Isomorphismus zwischen linearen Abbildungen und Matrizen erlaubt uns zwischen diesen Konzepten hin- und herzuwechseln. Insbesonders können wir Begriffe (wie z.B. Injektivität, Surjektivität, Kern, Rang, etc. ) die wir für lineare Abbildungen eingeführt haben auch für Matrizen verwenden.
10.21 Folgerung.
Der Rang einer linearen Abbildung
ist
maximale Anzahl linear unabhängiger Spaltenvektoren einer/jeder
Matrixdarstellung von
.
Beweis. Es sei eine Basis von und linear. Dann ist ein Erzeugenden-System von . Die Dimension von ist also die Anzahl einer minimale erzeugende Teilmenge von , oder äquivalent die maximale Anzahl einer linear unabhängigen Teilmenge von der Spaltenvektoren von . []
10.22 Beispiel einer Matrixdarstellung.
Es sei
und
die Abbildung
die jeden Vektor
in
den normal-Vektor
(siehe (14.12)) zuordnet.
Als Basis
von
verwenden wir z.B.
und
.
Dann ist
und
und somit
10.23 Matrizen-Multiplikation.
Die Komposition von linearen Abbildungen läßt sich in eine Multiplikation
der entsprechenden Matrizen übersetzen.
Dabei wird eine
-Matrix
mit einer
-Matrix
zur
-Matrix
mit
aufmultipliziert. Also erhält man den Koeffizienten von
in der
-ten
Zeile und
-ten Spalte durch komponentenweise Multiplikation
der
-ten Zeile der 1.ten Matrix mit der
-ten Spalte der 2.ten Matrix
und Aufsummieren dieser
vielen Produkte.
Beweis. Es sei und linear mit zugehörigen Matrizen und bzgl. Basen von , von und von . Wir wollen die zu gehörige Matrix bestimmen. Also die Entwicklung von . Es ist , d.h. . []
Bemerkung.
Die in (10.24) definierte Matrizenmultplikation
verallgemeinert die Wirkung von Matrizen
auf
Vektoren
aus
(10.2.3). Denn sei
die zugehörige lineare
Abbildung also
dann ist
.
Allgemeiner gilt somit für
bzgl. Basen
von
und
von
die Beziehung
10.24 Proposition.
Es ist sowohl
also auch
ein Ring bezüglich
Addition und Komposition, der sogenannte Endomorphismenring.
Der lineare Isomorphismus
ist ein Ring-Homomorphismus, d.h. auch mit der Multiplikation verträglich.
Beweis. Die Distributivität der Komposition bzgl. der 1. Variable gilt allgemein, jene bzgl. der 2. Variable hängt an der Linearität des 1. Arguments.
Die Ring-Homomorphie folgt aus (10.23). []
10.25 Beispiel.
Wir betrachten Drehungen
in der Ebene
um den 0-Punkt und den Winkel
.
Es ist
homogen, denn Geraden
werden auf Geraden abgebildet und Längen der Vektoren
werden unter Drehungen erhalten, also ist
,
d.h.
, und somit
, also
, da die Reihenfolge
von
0,
und
auf der von ihnen erzeugten Geraden unter
erhalten bleibt.
Weiters ist
additiv, da Parallelogramme (mit den Ecken
0,
,
,
) auf ebensolche abgebildet werden, also
.
Wir versuchen nun die Matrixdarstellung dieser linearen Abbildung zu bestimmen. Das Bild des 1. Einheitsvektors ist und jenes des 2. Einheitsvektors ist . Die Matrix von ist folglich durch
Beachte jedoch, daß die Matrixdarstellung bezüglich anderer Basen keine so schöne Form mehr haben muß: Sei z.B. mit und und somit Dann ist
10.26 Additionstheoreme.
Die Zusammensetzung zweier Drehungen
und
ist ebenfalls
eine Drehung und zwar jene um den Winkel
, d.h.
.
Die entsprechende Gleichung der zugehörigen Matrizen lautet wegen (10.23)
Ein Vergleich der Eintragungen liefert die Additionstheoreme für Sinus und Cosinus.
10.27 Beispiel.
Wir bestimmen nun alle invertierbaren
-Matrizen
10.28 Beispiel.
Wir betrachten den Vektorraum
der Polynome mit reellen Koeffizienten.
Die Polynome
vom Grad
bilden einen Teilraum
von
.
Das Differenzieren ist gegeben durch , d.h. die Basis-Vektoren werden auf abgebildet, d.h.
Ein weiteres Beispiel ist Multiplikation
mit einem Polynom
.
Sei z.B.
und
.
Dann bildet
das Basispolynom
auf
ab.
Die Matrixdarstellung von
ist somit
Wir betrachten das Verschieben
um den Wert
gegeben durch
.
Wie sieht nun eine Matrixdarstellung von
aus.
Die Bilder der standard-Basis sind
, also
ist die Matrixdarstellung gegeben durch
Ein anderes Beispiel ist die Zusammensetzung von rechts
,
, also
, wobei
ist.
Es ist
10.20a Basiswechsel.
Wir haben in (10.20) die Matrixdarstellung
einer linearen Abbildung
bzgl. Basen
auf
und
auf
als
definiert.
Sei nun eine zweite Basis
von
sowie und
von
gegeben.
Der Zusammenhang zwischen
und
ist durch folgendes Diagramm gegeben:
Die obige Transformationsformel erhalten wir auch kürzer aus (10.23), denn danach ist
Betrachten wir nun die Abbildung welche die auf abbildet. Bezüglich der Basis auf Ziel- und Start-Raum sieht deren Matrixdarstellung wie folgt aus:
10.28a Beispiel zweier Matrixdarstellungen.
Sei
die Drehung um einen Winkel
in der Ebene
um den Nullpunkt. Dies ist noch nicht
wohldefiniert, da die Drehrichtung davon abhängt von welcher Seite aus
man die Ebene
betrachtet. Wir wählen die Seite auf welcher der Vektor
liegt.
Eine Basis von errät man leicht, z.b. mit und . Bezüglich dieser Basis ist aber eine Drehung schwer zu beschreiben. Wir haben dies bislang nur in bzgl. der standard-Basis gemacht. Um dies zu übertragen benötigen wir ein Basis , wobei ein Einheitsvektor ist, also z.B. und der um gedrehte Vektor ist. Ein Vektor ist genau dann normal auf , wenn das innere Produkt (siehe (13.1))
Eine allgemeinere Methode die neue Basis aus zu erhalten ist das Gram-Schmidt'sche Orthonormalisierungsverfahren (siehe (13.9)). Wie zuvor setzt man , wobei die Länge des Vektors bezeichnet. Um nun zu erhalten bestimmt man zuerst die Normalprojektion von auf . Diese hat Richtung und als Länge das innere Produkt und ist somit durch gegeben. Der Vektor
Bezüglich dieser Basis sieht also wie in (10.25) aus, d.h.
Die Matrixdarstellung von bezüglich der Basis ist somit
Um die Darstellung bezüglich der ursprünglich gewählten Basis von zu bestimmen benötigen wir die Matrizen und der Basiswechsel bestimmen, denn es ist
Die Matrix ist durch die Koeffizienten der in der Basis gegeben, also wegen
Die Matrix erhalten wir entweder auf analoge Weise oder als Inverse von , d.h.
Wir können aber auch allgemeiner auffassen als Abbildung des Raums, die Punkte um die von erzeugte Achse um den Winkel beschreibt. Indem wir normieren um zu bilden, erhalten wir eine Basis bestehend aus den 3 gleich langen und aufeinander paarweise orthogonal stehenden Vektoren , und . Die Matrixdarstellung von bezüglich dieser Basis sieht dann natürlich wie folgt aus, denn die 3.te Koordinate die den Normalabstand zur Ebene beschreibt wird bei der Drehung nicht geändert:
Eine andere lineare Abbildung ist die Normalprojektion auf die Ebene . Bezüglich der Basis ist ihre Matrizendarstellung offensichtlich durch
Eine weitere lineare Abbildung ist Spiegelung an der Ebene . Bezüglich der Basis ist ihre Matrizendarstellung offensichtlich durch
Andreas Kriegl 2002-02-01