Um nun lineare Vektorräume mit einander in Beziehung setzen zu können, benötigen derartige Abbildungen zwischen diesen, die uns erlauben die Rechnungen die wir für die Vektoren eines Vektorraums durchgeführt haben entsprechend auf die Bilder dieser Vektoren in einen anderen Vektorraum zu übertragen.
10.1 Definition.
Unter einer linearen Abbildung (man sagt auch Homomorphismus oder
kurz Morphismus dafür) zwischen Vektorräumen
und
versteht man eine
Abbildung
die folgendes erfüllt
Es ist also egal ob man zuerst addiert bzw. skalarmultipliziert und dann die
Abbildung
anwendet oder umgekehrt vorgeht.
![]() |
Beweis. Es ist
10.3 Definition.
Wie bei allgemeinen Abbildungen spielt natürlich auch bei linearen Abbildungen
die Injektivität,
die Surjektivität und vor allem die Bijektivität ein große Rolle. Man nennt eine
Abbildung
zwischen Vektorräumen
10.4 Lemma.
Es sei
linear. Dann ist der Kern
von
ein Teilvektorraum von
.
Dies zeigt wegen (10.2) nochmals 8.7 und 8.9.
Beweis. Seien
10.5 Lemma.
Eine lineare Abbildung
ist genau dann injektiv, wenn
ist.
Beweis. (
(
) Es sei
und
. Dann ist
und somit
, also
. D.h.
ist injektiv.
[]
10.6 Lemma.
Es sei
linear. Dann ist das Bild
von
ein Teilvektorraum von
.
Beweis. Es sei
Die folgende Proposition zeigt, daß es genügt eine lineare Abbildung
an nur sehr wenigen Stellen
zu kennen, um sie an allen Vektoren
berechnen zu können.
10.7 Proposition.
Es sei
eine Basis des Vektorraums
und
eine Abbildung in
einen Vektorraum
.
Dann existiert eine eindeutig bestimmte lineare Abbildung
mit den vorgegebenen Werten
auf den Basis-Vektoren
, d.h. mit
.
Beweis. Da
![]() |
![]() |
|
![]() |
10.16 Proposition.
Es sei eine lineare Abbildung
gegeben und
die Bilder
der Standard-Basis.
Dann
gilt:
Beweis. Die Abbildung
Etwas allgemeiner gilt folgendes:
10.8 Proposition.
Es sei
eine lineare Abbildung zwischen Vektorräumen.
Beweis. (1) ist klar, da
(2) Es sei
injektiv und
linear unabhängig mit
. Da
injektiv ist existiert zu jedem
ein eindeutiges
mit
. Somit ist
.
Da
injektiv ist, ist also
und, da
linear
unabhängig ist, ist
für alle
, also
für alle
, d.h.
ist linear unabhängig.
Falls
nicht injektiv ist, so existiert ein
mit
, also
ist
linear unabhängig aber
linear abhängig.
(3) Ist
bijektiv und
eine Basis, dann ist
eine Basis
nach (1) und (2).
Umgekehrt sei das Bild jeder Basis eine Basis. Dann ist
surjektiv nach (1)
aber auch injektiv nach (2), denn sei
linear unabhängig.
Dann existiert nach (9.13.2) eine Basis
. Somit ist nach
Voraussetzung auch
eine Basis, also linear unabhängig und ebenso die
Teilmenge
.
[]
Beachte, daß es in (2) und (3) nicht genügt für ein
die Aussage zu haben.
Denn es ist
,
nicht injektiv, dennoch
ist
eine Basis in
und
eine solche von
.
10.9 Folgerung.
Es seien
und
Vektorräume. Dann gilt:
Beweis. Sei
(1) Falls
injektiv ist, so ist
linear unabhängig, also
nach (9.13.4).
Umgekehrt sei
eine Basis von
mit
, d.h. es existiert eine
injektive Abbildung
. Wir erweitern diese nach (10.7)
zu einer linearen Abbildung
. Diese ist injektiv, denn
aus
, wobei
und
falls
ist. Da
eine Basis ist
sind alle
und damit alle
gleich 0.
(2) Falls
surjektiv ist, so ist
ein Erzeugenden-System, also
nach (9.13.5).
Umgekehrt sei
eine Basis von
mit
, d.h. es existiert eine
surjektive Abbildung
(eine Inverse zur injektiven
Abbildung
).
Wir erweitern diese nach (10.7)
zu einer linearen Abbildung
. Diese ist surjektiv,
denn jeder Erzeuger
wird von
und damit auch von
getroffen.
(3) folgt nun aus (1) und (2).
Falls
und
gleichmächtig sind, so existiert eine
bijektive Abbildung
und diese induziert wie in (1) und (2)
einen linearen Isomorphismus.
Beachte, daß die Funktionen
eine Basis bilden:
Erzeugenden-System ist klar und aus
folgt
für alle
.
[]
10.15 Folgerung.
Isomorphe (endlich dimensionale) Vektorräume haben die selbe Dimension und umgekehrt.
Beweis.
Nach (10.16) ist
.
[]
10.10 Lemma.
Es sei
ein linearer Teilraum eines Vektorraums
.
Wir betrachten die Äquivalenzrelation die durch
gegeben ist.
Die von
erzeugte Äquivalenzklasse ist
.
Die Menge der Äquivalenzklassen wird mit
bezeichnet.
Schließlich sei
die Abbildung
.
Dann existieren eindeutig bestimmte Operationen
und
die
zu einem Vektorraum
und
zu einer linearen Abbildung machen.
Beweis. Damit
![]() |
![]() |
|
![]() |
![]() |
10.11 Proposition.
Es sei
ein linearer Teilraum eines Vektorraums. Dann gilt:
Beweis. (1) Die Inklusion ist eine injektive lineare Abbildung
(2) Sei
eine Basis von
, also linear unabhängig in
und wegen
auch eine Basis von
nach (9.13.2)
und damit
.
(3) Sei
eine Basis von
, also linear unabhängig in
und somit nach (9.13.2) zu einer Basis
von
erweiterbar.
Dann ist
eine Basis von
, denn
da die kanonische Abbildung
,
,
surjektiv ist, ist
ein Erzeugenden-System
nach (10.8.1), also auch
eines.
Es ist
auch linear unabhängig, denn
aus
folgt
,
also existieren
für alle
mit
und
da
linear unabhängig ist, sind alle
gleich 0.
Aso ist
,
und
.
[]
10.12 Proposition.
Es seien
und
zwei lineare Teilräume von
. Dann induziert
die Inklusion
einen Isomorphismus
.
Insbesonders ist
Beweis. Betrachte das Diagramm
10.13 Proposition.
Es seien
und
Teilräume von
.
Dann sind äquivalent:
Beweis. (1
(3
2)
Sei
. Wegen der Surjektivität von
existiert ein
mit
, also ist
und somit
.
Angenommen
ist eine zweite Darstellung. Dann ist
und somit
wegen der Injektivität von
und damit auch
.
(2
1)
Offensichtlich ist
wegen
.
Sei
, dann sind
und
zwei Darstellungen, also
.
(1,3
4)
Aus
folgt
und
nach (1).
(4
3) Aus
folgt die Injektivität
von
. Wegen
folgt auch
die Surjektivität.
[]
10.14 Proposition.
Es sei
linear.
Dann induziert
einen Isomorphismus
.
Folglich ist
.
Beweis. Offensichtlich ist
Die Linearität von
ergibt sich aus der Definition der Vektorraum-Operationen auf
.
Die Dimensionsformel ergibt sich vermöge (10.11.3) aus
.
[]
10.17 Definition.
Der Rang einer linearen Abbildung
ist definiert als
10.19 Matrizen versus linearer Abbildungen.
Die Abbildung
gegeben durch
mit
10.20 Matrixdarstellung linearer Abbildungen.
Es sei
ein Vektorraum über
mit endlicher Basis
.
Dann ist die Abbildung
ein Isomorphismus
nach (10.16).
Seine Inverse bezeichnen wir mit
.
Sei nun
eine lineare Abbildung zwischen Vektorräumen über
und seien
und
Basen von
und
.
Dann können wir statt
die lineare Abbildung
betrachten:
10.18 Satz.
Die Menge
der linearen Abbildungen zwischen Vektorräumen
und
über
ist selbst ein Vektorraum.
Ebenso ist die Menge
der
-Matrizen ein solcher.
Für je eine Basis
von
und
von
haben wir einen Isomorphismus von Vektorräumen
Beweis. Falls
Dieser Isomorphismus zwischen linearen Abbildungen und Matrizen erlaubt uns zwischen diesen Konzepten hin- und herzuwechseln. Insbesonders können wir Begriffe (wie z.B. Injektivität, Surjektivität, Kern, Rang, etc. ) die wir für lineare Abbildungen eingeführt haben auch für Matrizen verwenden.
10.21 Folgerung.
Der Rang einer linearen Abbildung
ist
maximale Anzahl linear unabhängiger Spaltenvektoren einer/jeder
Matrixdarstellung von
.
Beweis. Es sei
10.22 Beispiel einer Matrixdarstellung.
Es sei
und
die Abbildung
die jeden Vektor
in
den normal-Vektor
(siehe (14.12)) zuordnet.
Als Basis
von
verwenden wir z.B.
und
.
Dann ist
und
und somit
10.23 Matrizen-Multiplikation.
Die Komposition von linearen Abbildungen läßt sich in eine Multiplikation
der entsprechenden Matrizen übersetzen.
Dabei wird eine
-Matrix
mit einer
-Matrix
zur
-Matrix
mit
aufmultipliziert. Also erhält man den Koeffizienten von
in der
-ten
Zeile und
-ten Spalte durch komponentenweise Multiplikation
der
-ten Zeile der 1.ten Matrix mit der
-ten Spalte der 2.ten Matrix
und Aufsummieren dieser
vielen Produkte.
Beweis. Es sei
Bemerkung.
Die in (10.24) definierte Matrizenmultplikation
verallgemeinert die Wirkung von Matrizen
auf
Vektoren
aus
(10.2.3). Denn sei
die zugehörige lineare
Abbildung also
dann ist
.
Allgemeiner gilt somit für
bzgl. Basen
von
und
von
die Beziehung
10.24 Proposition.
Es ist sowohl
also auch
ein Ring bezüglich
Addition und Komposition, der sogenannte Endomorphismenring.
Der lineare Isomorphismus
ist ein Ring-Homomorphismus, d.h. auch mit der Multiplikation verträglich.
Beweis. Die Distributivität der Komposition bzgl. der 1. Variable gilt allgemein, jene bzgl. der 2. Variable hängt an der Linearität des 1. Arguments.
Die Ring-Homomorphie folgt aus (10.23). []
10.25 Beispiel.
Wir betrachten Drehungen
in der Ebene
um den 0-Punkt und den Winkel
.
Es ist
homogen, denn Geraden
werden auf Geraden abgebildet und Längen der Vektoren
werden unter Drehungen erhalten, also ist
,
d.h.
, und somit
, also
, da die Reihenfolge
von
0,
und
auf der von ihnen erzeugten Geraden unter
erhalten bleibt.
Weiters ist
additiv, da Parallelogramme (mit den Ecken
0,
,
,
) auf ebensolche abgebildet werden, also
.
Wir versuchen nun die Matrixdarstellung dieser linearen Abbildung zu bestimmen.
Das Bild des 1. Einheitsvektors
ist
und jenes des 2. Einheitsvektors
ist
.
Die Matrix von
ist folglich durch
Beachte jedoch, daß die Matrixdarstellung
bezüglich anderer Basen keine so schöne Form mehr haben muß:
Sei z.B.
mit
und
und somit
Dann ist
![]() |
![]() |
|
![]() |
||
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
10.26 Additionstheoreme.
Die Zusammensetzung zweier Drehungen
und
ist ebenfalls
eine Drehung und zwar jene um den Winkel
, d.h.
.
Die entsprechende Gleichung der zugehörigen Matrizen lautet wegen (10.23)
![]() |
||
![]() |
Ein Vergleich der Eintragungen liefert die Additionstheoreme für Sinus und Cosinus.
10.27 Beispiel.
Wir bestimmen nun alle invertierbaren
-Matrizen
![]() |
![]() |
|
![]() |
![]() |
|
![]() |
![]() |
|
![]() |
![]() |
![]() |
![]() |
|
![]() |
![]() |
|
![]() |
![]() |
|
![]() |
![]() |
![]() |
10.28 Beispiel.
Wir betrachten den Vektorraum
der Polynome mit reellen Koeffizienten.
Die Polynome
vom Grad
bilden einen Teilraum
von
.
Das Differenzieren
ist gegeben durch
, d.h. die Basis-Vektoren
werden auf
abgebildet, d.h.
Ein weiteres Beispiel ist Multiplikation
mit einem Polynom
.
Sei z.B.
und
.
Dann bildet
das Basispolynom
auf
ab.
Die Matrixdarstellung von
ist somit
Wir betrachten das Verschieben
um den Wert
gegeben durch
.
Wie sieht nun eine Matrixdarstellung von
aus.
Die Bilder der standard-Basis sind
, also
ist die Matrixdarstellung gegeben durch
Ein anderes Beispiel ist die Zusammensetzung von rechts
,
, also
, wobei
ist.
Es ist
10.20a Basiswechsel.
Wir haben in (10.20) die Matrixdarstellung
einer linearen Abbildung
bzgl. Basen
auf
und
auf
als
definiert.
Sei nun eine zweite Basis
von
sowie und
von
gegeben.
Der Zusammenhang zwischen
und
ist durch folgendes Diagramm gegeben:
Die obige Transformationsformel erhalten wir auch kürzer aus (10.23), denn danach ist
Betrachten wir nun die Abbildung
welche die
auf
abbildet.
Bezüglich der Basis
auf Ziel- und Start-Raum sieht deren
Matrixdarstellung wie folgt aus:
![]() |
![]() |
|
![]() |
10.28a Beispiel zweier Matrixdarstellungen.
Sei
die Drehung um einen Winkel
in der Ebene
um den Nullpunkt. Dies ist noch nicht
wohldefiniert, da die Drehrichtung davon abhängt von welcher Seite aus
man die Ebene
betrachtet. Wir wählen die Seite auf welcher der Vektor
liegt.
Eine Basis von
errät man leicht, z.b.
mit
und
.
Bezüglich dieser Basis ist aber eine Drehung schwer zu beschreiben.
Wir haben dies bislang nur in
bzgl. der standard-Basis
gemacht. Um dies zu übertragen benötigen wir ein Basis
, wobei
ein Einheitsvektor ist, also z.B.
und
der um
gedrehte Vektor ist.
Ein Vektor
ist genau dann normal auf
, wenn das
innere Produkt (siehe (13.1))
Eine allgemeinere Methode die neue Basis
aus
zu erhalten ist das Gram-Schmidt'sche Orthonormalisierungsverfahren (siehe
(13.9)).
Wie zuvor setzt man
, wobei
die Länge des
Vektors
bezeichnet.
Um nun
zu erhalten bestimmt man zuerst die Normalprojektion
von
auf
. Diese hat Richtung
und als Länge
das innere Produkt
und ist somit
durch
gegeben. Der Vektor
![]() |
![]() |
|
![]() |
Bezüglich dieser Basis sieht also
wie in (10.25) aus, d.h.
![]() |
![]() |
|
![]() |
![]() |
Die Matrixdarstellung von
bezüglich der Basis
ist somit
Um die Darstellung bezüglich der ursprünglich gewählten Basis
von
zu bestimmen benötigen wir die Matrizen
und
der Basiswechsel bestimmen, denn es ist
Die Matrix
ist durch die Koeffizienten der
in der Basis
gegeben, also wegen
![]() |
![]() |
|
![]() |
![]() |
Die Matrix
erhalten wir entweder auf analoge Weise oder
als Inverse von
, d.h.
![]() |
![]() |
|
![]() |
||
![]() |
Wir können
aber auch allgemeiner auffassen als Abbildung
des Raums, die Punkte um die von
erzeugte Achse
um den Winkel
beschreibt.
Indem wir
normieren um
zu bilden,
erhalten wir eine Basis
bestehend aus den 3 gleich langen und aufeinander
paarweise orthogonal stehenden Vektoren
,
und
.
Die Matrixdarstellung von
bezüglich dieser Basis
sieht dann natürlich wie folgt aus, denn die 3.te Koordinate die den
Normalabstand zur Ebene
beschreibt wird bei der Drehung nicht geändert:
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
Eine andere lineare Abbildung ist die Normalprojektion
auf die Ebene
.
Bezüglich der Basis
ist ihre Matrizendarstellung
offensichtlich durch
![]() |
![]() |
|
![]() |
||
![]() |
Eine weitere lineare Abbildung ist Spiegelung
an der Ebene
.
Bezüglich der Basis
ist ihre Matrizendarstellung
offensichtlich durch
![]() |
![]() |
|
![]() |
||
![]() |
Andreas Kriegl 2002-02-01