Wir wollen nun eine Methode behandeln, welche uns erlaubt die Invertierbarkeit einer linearen Abbildung festzustellen und auch Formeln für die Inverse liefert.
12.1 Bemerkung.
Wir haben in (10.27) gezeigt, daß eine Matrix
genau dann invertierbar ist, wenn
es ist
und die Inverse ist dann durch
Der Ausdruck
heißt Determinante von
und wird mit
bezeichnet. Die geometrische Bedeutung von
ist gerade
gelbe Fläche des Parallelogramms
in folgender Zeichnung,
den diese
ergibt sich aus der Fläche
des Rechtecks
vermindert um die blaue Fläche
der beiden Rechtecke
und
sowie
die gemeinsame Fläche
der beiden roten Dreiecke
und
und die gemeinsame Fläche
der beiden grünen Dreiecke
und
.
Insgesamt also
Die Determinante von
-Matrizen ist bilinear, denn
Geometrisch liegt das daran, daß wir im Parallelogrammen eine Seite unter Beibehaltung der Höhe verschieben dürfen. Wir können also o.B.d.A. annehmen, daß zwei Rechtecke vorliegen. Für diese ist diese Additionseigenschaft aber offensichtlich:
Wir versuchen dies nun auf höher-dimensionale
übertragen.
Erstes Ziel dabei ist eine Funktion
anzugeben
die
Vektoren
das Volumen
des von Ihnen aufgespannten
Parallelipipeds zuordnet.
Solch eine Funktion müßte offensichtlich folgende Eigenschaften haben:
Jede Determinantenfunktion hat folgende weitere Eigenschaften:
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
![]() |
![]() |
(1) |
![]() |
(2) |
![]() |
![]() |
|
![]() |
||
![]() |
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
||
![]() |
||
![]() |
||
![]() |
||
![]() |
12.2 Bemerkung.
Determinantenfunktionen sind im wesentlichen eindeutig, d.h. durch
ihren Wert auf einer Basis eindeutig bestimmt.
Beweis. Es sei
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
Bemerkung.
Es sei
eine Determinatenfunktion und
eine Basis.
Wegen
existieren Vektoren
mit
und wegen der Formel im Beweis von (12.2)
ist somit auch
.
Mittels Determinantenfunktion können wir lineare Unabhängigkeit erkennen:
12.3 Lemma.
Es sei
eine Determinatenfunktion und
.
Dann ist
genau dann linear abhängig, wenn
.
Beweis. (
(
) Angenommen
ist linear unabhängig,
so ist
,
denn
.
[]
12.5 Definition.
Für eine Matrix
definieren wir die Determinante durch die Leibniz-Formel als
12.4 Proposition.
Die Funktion
ist eine Determinantenfunktion.
Beweis. Es ist
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
||
![]() |
![]() |
![]() |
![]() |
![]() |
|
![]() |
12.7 Beispiel.
Die Determinante einer Diagonalmatrix (d.h.
für alle
) ist gerade das Produkt
der Diagonalelemente, den nur für
ist
.
Allgemeiner ist die Determinante einer Dreiecksmatrix ist gerade das Produkt
der Diagonalelemente, den nur für
ist
.
In der Tat sei
z.B. eine obere Dreiecksmatrix, d.h.
für
alle
. Somit ist
falls
für
mindestens ein
ist. Nur die Permutationen
mit
für
alle
erfüllen
. Die einzige Permutation mit
dieser Eigenschaft ist aber
.
12.8 Multiplikationssatz.
Für
gilt
.
Beweis. Es sei
![]() |
![]() |
|
![]() |
||
![]() |
Bemerkung.
Nach der einleitenden Motivation (12.2) ist
gerade das
-dimensionale
Volumen des von den Spalten
von
erzeugten Parallelipipeds
,
also vom Bild unter
des Einheitsquaders (den von den Standardbasis
erzeugten Parallelipipeds).
Der Multiplikationssatz besagt nun gerade, daß
das Volumen
des Bildes unter
des von
erzeugten
Parallelipipeds
gerade das Volumen
des Parallelipipeds
multipliziert mit
ist. Somit mißt
gerade das Verhältnis
des Volumens des Bildes
von Parallelipipeden
unter
zu
dem Volumen von
. Dies stimmt nicht nur für Parallelipipede sondern
für beliebige Körper
welchen man ein Volumen zuordnen kann.
Wir können nun die Determinante benutzen um Invertierbarkeit zu erkennen:
12.10 Proposition.
Es ist
genau dann invertierbar, wenn
ist.
Beweis. Nach (10.21) ist
12.11 Lemma.
Für invertierbares
gilt
.
Beweis. Wegen dem Multiplikationssatz (12.8) ist die Determinante der inversen Matrix gerade der Kehrwert der Determinante, denn
12.9 Bemerkung.
Für ein
ist
als
für irgendeine Matrixdarstellung
von
definiert, d.h. als
,
wobei
der durch eine
Basis
gegebene Isomorphismus ist aus (10.16).
Ist
eine weitere Basis und
der
entsprechende Isomorphismus, so ist mit
![]() |
![]() |
|
![]() |
||
![]() |
||
![]() |
12.12 Definition.
Die Transponierte einer Matrix
ist die Matrix
,
die durch Spiegelung von
an der Diagonale entsteht.
Offensichtlich ist
,
sowie
.
Beweis.
![]() |
![]() |
|
![]() |
Unser nächstes Ziel ist nun eine Formel für die Inverse invertierbarer
Matrizen
zu entwickeln.
12.14 Definition.
Es sei
eine quadratische Matrix.
Für
versteht man unter dem
-ten
algebraischen Komplement
von
die
Determinante
,
also die Determinante folgender Matrix
![]() |
Als Adjungierte
einer Matrix
bezeichnet man nun jene Matrix die
an der
-ten Zeile und
-ten Spalte das
-te algebraische Komplement
von
hat (Beachte die Vertauschung der Indizes).
Beispiel.
Die Adjungierte einer
-Matrix ist somit wie folgt gegeben
(vergleiche dies mit der Formel aus (10.27))
![]() |
||
![]() |
||
![]() |
12.15 Bemerkung.
Es seien
die Eintragungen der Matrix
der Identität
, d.h.
und
für
.
Man nennt dies das Kronecker-Delta.
Dann ist
![]() |
![]() |
|
![]() |
||
![]() |
Damit erhalten wir die erhoffte Formel für die Inverse einer Matrix:
Vergleiche dies mit der Formel
Beweis. Die Gleichung
Division durch
zeigt, daß
eine
links-Inverses ist. Offensichtlich ist
und somit folgt durch Transponieren von
die Identität
, also ist
die Inverse von
.
[]
Allgemeiner als in (12.3) können wir mittels Determinanten auch die lineare Abhängigkeit beliebig vieler Vektoren feststellen:
12.19 Folgerung.
Vektoren
sind genau dann linear abhängig, wenn
die Determinante jeder der
vielen
-Teilmatrizen
der
-Matrix
gleich 0 ist.
Beweis. (
(
) Indirekt. Angenommen
ist linear unabhängig,
obwohl alle Determinanten der
-Teilmatrizen von
gleich 0 sind. Nach (9.13) könne wir
durch Hinzufügen von
Vektoren
zu einer Basis ergänzen. Nach (12.3) ist
damit
. Laplace-Entwicklung nach den Spalten zeigt
jedoch induktiv nach
, daß alle
-Teilmatrizen von
verschwindende Determinante besitzen, ein Widerspruch.
[]
Beispiel.
(1) In manchen Fällen führt die Entwicklung nach einer Zeile oder
einer Spalte schnell zur Berechnung einer Determinante. Betrachten
wir etwa die Matrix
(2) In den meisten Fällen ist der beste Weg zur Berechnung einer Determinante die Anwendung von elementaren Zeilen- oder Spaltenoperationen. Betrachten wir als Beispiel die Matrix
Auch die Lösungen linearer Gleichungen können wir - sofern diese eindeutig sind - mittels Determinanten berechnen:
12.17 Cramer'sche Regel.
Falls
invertierbar ist, so ist die Lösung von
durch
Beweis. Die Gleichung
![]() |
![]() |
|
![]() |
Wenn
invertierbar ist, dann ist
invertierbar
nach (6.22) und somit existiert eine eindeutige Lösung
von
. Nach dem ersten Teil erfüllt diese
, also folgt
12.18 Bemerkung.
Für die praktische Lösung von linearen Gleichungssystemen ist
die Cramer'sche Regel nicht besonders gut geeignet, weil die
Berechnung der vielen Determinanten zu aufwendig ist. Daher lösen
Computerprogramme lineare Gleichungssysteme nicht mit dieser
Methode. Um das zu sehen, bestimmen wir, wie viele
Rechenoperationen zur Lösung eines linearen Gleichungssystems mit
Gleichungen in
Unbekannten über einem Körper nötig
sind. Wir werden uns dabei auf die Multiplikationen und Divisionen
beschränken (die mehr Rechenaufwand benötigen) und Additionen,
Subtraktionen und Vertauschungen von Zeilen oder Spalten außer
Acht lassen.
Die Determinante einer
-Matrix besteht aus
vielen
Summanden, von denen jeder
ein Produkt von
Zahlen ist. Man benötigt also
Multiplikationen.
Um ein
-Gleichungssystem nach der Cramer'schen
Regel zu berechnen, muß man
Determinanten von
-Matrizen berechnen, benötigt als
Multiplikationen. Anschließend braucht man noch
Divisionen,
was aber kaum mehr ins Gewicht fällt. Berechnet man das explizit,
dann braucht man für ein
-System
Multiplikationen,
ein
-System benötigt
Multiplikationen, für
-Systeme sind
Multiplikationen nötig und bei einem
-System sind es schon
Multiplikationen.
Versuchen wir auf ähnliche Weise den Gauß'schen Algorithmus zu
analysieren, dann müssen wir nur bedenken, daß man nach Satz
(4.9) jede invertierbare
-Matrix (der einzige Fall in
dem die Cramer'sche Regel funktioniert) durch elementare
Zeilenoperationen in die Einheitsmatrix umgewandelt werden kann,
was genau äquivalent zur Lösung des Systems ist. Betrachten wir
also die erweiterte Matrix
des Systems. Da wir
Vertauschungen von Zeilen ignorieren, dürfen wir annehmen, daß
die erste Zeile von
mit einem Element ungleich Null
beginnt. Mit
-Divisionen erreichten wir, daß die erste Zeile
mit
beginnt. Um in den weiteren
vielen Zeilen das Element in der
ersten Spalte zu Null zu machen, benötigen wir pro Zeile
-Multiplikationen. Somit sind wir mit
-Divisionen und
Multiplikationen so weit, daß in der ersten Spalte der
erweiterten Matrix der erste Einheitsvektor
steht. Damit das
zweite Element der zweiten Zeile gleich Eins ist, brauchen wir
Divisionen, und mit
Multiplikationen
erreichen wir, daß in der zweiten Spalte der zweite
Einheitsvektor
steht. Induktiv sehen wir, daß wir
Divisionen und
Multiplikationen benötigen, und ein
-Gleichungssystem mit
dem Gauß'schen Algorithmus zu lösen. Für ein
-System
sind das
Divisionen und
Multiplikationen, bei einem
-System
Divisionen und
Multiplikationen und bei einem
-System
Divisionen und
Multiplikationen. Bei
einem
-System erhält man die moderate Zahl von
Divisionen und
Multiplikationen.
Andreas Kriegl 2002-02-01