Wir wollen nun eine Methode behandeln, welche uns erlaubt die Invertierbarkeit einer linearen Abbildung festzustellen und auch Formeln für die Inverse liefert.
12.1 Bemerkung.
Wir haben in (10.27) gezeigt, daß eine Matrix
genau dann invertierbar ist, wenn
es ist
und die Inverse ist dann durch
Der Ausdruck heißt Determinante von und wird mit bezeichnet. Die geometrische Bedeutung von ist gerade gelbe Fläche des Parallelogramms in folgender Zeichnung,
den diese ergibt sich aus der Fläche des Rechtecks vermindert um die blaue Fläche der beiden Rechtecke und sowie die gemeinsame Fläche der beiden roten Dreiecke und und die gemeinsame Fläche der beiden grünen Dreiecke und . Insgesamt also
Die Determinante von -Matrizen ist bilinear, denn
Geometrisch liegt das daran, daß wir im Parallelogrammen eine Seite unter Beibehaltung der Höhe verschieben dürfen. Wir können also o.B.d.A. annehmen, daß zwei Rechtecke vorliegen. Für diese ist diese Additionseigenschaft aber offensichtlich:
Wir versuchen dies nun auf höher-dimensionale übertragen. Erstes Ziel dabei ist eine Funktion anzugeben die Vektoren das Volumen des von Ihnen aufgespannten Parallelipipeds zuordnet. Solch eine Funktion müßte offensichtlich folgende Eigenschaften haben:
Jede Determinantenfunktion hat folgende weitere Eigenschaften:
(1) | ||
(2) |
12.2 Bemerkung.
Determinantenfunktionen sind im wesentlichen eindeutig, d.h. durch
ihren Wert auf einer Basis eindeutig bestimmt.
Beweis. Es sei eine Basis und beliebige Vektoren in , d.h. . Dann ist
Bemerkung.
Es sei
eine Determinatenfunktion und
eine Basis.
Wegen
existieren Vektoren
mit
und wegen der Formel im Beweis von (12.2)
ist somit auch
.
Mittels Determinantenfunktion können wir lineare Unabhängigkeit erkennen:
12.3 Lemma.
Es sei
eine Determinatenfunktion und
.
Dann ist
genau dann linear abhängig, wenn
.
Beweis. ( ) haben wir in (12.1) bereits gezeigt.
( ) Angenommen ist linear unabhängig, so ist , denn . []
12.5 Definition.
Für eine Matrix
definieren wir die Determinante durch die Leibniz-Formel als
12.4 Proposition.
Die Funktion
ist eine Determinantenfunktion.
Beweis. Es ist alternierend, denn wenn die Spalten und für ident sind, dann ist, da jede Permutation entweder gerade oder zusammengesetzt mit der Transposition gerade:
12.7 Beispiel.
Die Determinante einer Diagonalmatrix (d.h.
für alle
) ist gerade das Produkt
der Diagonalelemente, den nur für
ist
.
Allgemeiner ist die Determinante einer Dreiecksmatrix ist gerade das Produkt der Diagonalelemente, den nur für ist . In der Tat sei z.B. eine obere Dreiecksmatrix, d.h. für alle . Somit ist falls für mindestens ein ist. Nur die Permutationen mit für alle erfüllen . Die einzige Permutation mit dieser Eigenschaft ist aber .
12.8 Multiplikationssatz.
Für
gilt
.
Beweis. Es sei . Die Abbildung gegeben durch ist offensichtlich eine Determinantenfunktion. Nach (12.2) ist
Bemerkung.
Nach der einleitenden Motivation (12.2) ist
gerade das
-dimensionale
Volumen des von den Spalten
von
erzeugten Parallelipipeds
,
also vom Bild unter
des Einheitsquaders (den von den Standardbasis
erzeugten Parallelipipeds).
Der Multiplikationssatz besagt nun gerade, daß
das Volumen
des Bildes unter
des von
erzeugten
Parallelipipeds
gerade das Volumen
des Parallelipipeds
multipliziert mit
ist. Somit mißt
gerade das Verhältnis
des Volumens des Bildes
von Parallelipipeden
unter
zu
dem Volumen von
. Dies stimmt nicht nur für Parallelipipede sondern
für beliebige Körper
welchen man ein Volumen zuordnen kann.
Wir können nun die Determinante benutzen um Invertierbarkeit zu erkennen:
12.10 Proposition.
Es ist
genau dann invertierbar, wenn
ist.
Beweis. Nach (10.21) ist genau dann invertierbar, wenn die Spalten-Vektoren von linear unabhängig sind, dies ist nach (12.3) genau dann der Fall, wenn ist. []
12.11 Lemma.
Für invertierbares
gilt
.
Beweis. Wegen dem Multiplikationssatz (12.8) ist die Determinante der inversen Matrix gerade der Kehrwert der Determinante, denn . []
12.9 Bemerkung.
Für ein
ist
als
für irgendeine Matrixdarstellung
von
definiert, d.h. als
,
wobei
der durch eine
Basis
gegebene Isomorphismus ist aus (10.16).
Ist
eine weitere Basis und
der
entsprechende Isomorphismus, so ist mit
12.12 Definition.
Die Transponierte einer Matrix
ist die Matrix
,
die durch Spiegelung von
an der Diagonale entsteht.
Offensichtlich ist , sowie .
Beweis.
Unser nächstes Ziel ist nun eine Formel für die Inverse invertierbarer Matrizen zu entwickeln.
12.14 Definition.
Es sei
eine quadratische Matrix.
Für
versteht man unter dem
-ten
algebraischen Komplement
von
die
Determinante
,
also die Determinante folgender Matrix
Als Adjungierte einer Matrix bezeichnet man nun jene Matrix die an der -ten Zeile und -ten Spalte das -te algebraische Komplement von hat (Beachte die Vertauschung der Indizes).
Beispiel.
Die Adjungierte einer
-Matrix ist somit wie folgt gegeben
(vergleiche dies mit der Formel aus (10.27))
12.15 Bemerkung.
Es seien
die Eintragungen der Matrix
der Identität
, d.h.
und
für
.
Man nennt dies das Kronecker-Delta.
Dann ist
Damit erhalten wir die erhoffte Formel für die Inverse einer Matrix:
Vergleiche dies mit der Formel
Beweis. Die Gleichung aus (12.15) besagt, daß die der -te Koeffizient der mit dem Skalar multiplizierten Einheitsmatrix gerade jener des Matrizen-Produkts der Adjungierten Matrix mit ist.
Division durch zeigt, daß eine links-Inverses ist. Offensichtlich ist und somit folgt durch Transponieren von die Identität , also ist die Inverse von . []
Allgemeiner als in (12.3) können wir mittels Determinanten auch die lineare Abhängigkeit beliebig vieler Vektoren feststellen:
12.19 Folgerung.
Vektoren
sind genau dann linear abhängig, wenn
die Determinante jeder der
vielen
-Teilmatrizen
der
-Matrix
gleich 0 ist.
Beweis. ( ) Wenn linear abhängig ist und die Indizes von -Zeilen sind, so ist auch linear abhängig in , wobei die Projektion bezeichnet. Nach (12.3) bedeutet dies, daß ist. Dies ist aber gerade die Determinante der von den Zeilen gebildeten Teilmatrix.
( ) Indirekt. Angenommen ist linear unabhängig, obwohl alle Determinanten der -Teilmatrizen von gleich 0 sind. Nach (9.13) könne wir durch Hinzufügen von Vektoren zu einer Basis ergänzen. Nach (12.3) ist damit . Laplace-Entwicklung nach den Spalten zeigt jedoch induktiv nach , daß alle -Teilmatrizen von verschwindende Determinante besitzen, ein Widerspruch. []
Beispiel.
(1) In manchen Fällen führt die Entwicklung nach einer Zeile oder
einer Spalte schnell zur Berechnung einer Determinante. Betrachten
wir etwa die Matrix
(2) In den meisten Fällen ist der beste Weg zur Berechnung einer Determinante die Anwendung von elementaren Zeilen- oder Spaltenoperationen. Betrachten wir als Beispiel die Matrix
Auch die Lösungen linearer Gleichungen können wir - sofern diese eindeutig sind - mittels Determinanten berechnen:
12.17 Cramer'sche Regel.
Falls
invertierbar ist, so ist die Lösung von
durch
Beweis. Die Gleichung bedeutet . Somit ist
Wenn invertierbar ist, dann ist invertierbar nach (6.22) und somit existiert eine eindeutige Lösung von . Nach dem ersten Teil erfüllt diese , also folgt
12.18 Bemerkung.
Für die praktische Lösung von linearen Gleichungssystemen ist
die Cramer'sche Regel nicht besonders gut geeignet, weil die
Berechnung der vielen Determinanten zu aufwendig ist. Daher lösen
Computerprogramme lineare Gleichungssysteme nicht mit dieser
Methode. Um das zu sehen, bestimmen wir, wie viele
Rechenoperationen zur Lösung eines linearen Gleichungssystems mit
Gleichungen in
Unbekannten über einem Körper nötig
sind. Wir werden uns dabei auf die Multiplikationen und Divisionen
beschränken (die mehr Rechenaufwand benötigen) und Additionen,
Subtraktionen und Vertauschungen von Zeilen oder Spalten außer
Acht lassen.
Die Determinante einer
-Matrix besteht aus
vielen
Summanden, von denen jeder
ein Produkt von
Zahlen ist. Man benötigt also
Multiplikationen.
Um ein
-Gleichungssystem nach der Cramer'schen
Regel zu berechnen, muß man
Determinanten von
-Matrizen berechnen, benötigt als
Multiplikationen. Anschließend braucht man noch
Divisionen,
was aber kaum mehr ins Gewicht fällt. Berechnet man das explizit,
dann braucht man für ein
-System
Multiplikationen,
ein
-System benötigt
Multiplikationen, für
-Systeme sind
Multiplikationen nötig und bei einem
-System sind es schon
Multiplikationen.
Versuchen wir auf ähnliche Weise den Gauß'schen Algorithmus zu analysieren, dann müssen wir nur bedenken, daß man nach Satz (4.9) jede invertierbare -Matrix (der einzige Fall in dem die Cramer'sche Regel funktioniert) durch elementare Zeilenoperationen in die Einheitsmatrix umgewandelt werden kann, was genau äquivalent zur Lösung des Systems ist. Betrachten wir also die erweiterte Matrix des Systems. Da wir Vertauschungen von Zeilen ignorieren, dürfen wir annehmen, daß die erste Zeile von mit einem Element ungleich Null beginnt. Mit -Divisionen erreichten wir, daß die erste Zeile mit beginnt. Um in den weiteren vielen Zeilen das Element in der ersten Spalte zu Null zu machen, benötigen wir pro Zeile -Multiplikationen. Somit sind wir mit -Divisionen und Multiplikationen so weit, daß in der ersten Spalte der erweiterten Matrix der erste Einheitsvektor steht. Damit das zweite Element der zweiten Zeile gleich Eins ist, brauchen wir Divisionen, und mit Multiplikationen erreichen wir, daß in der zweiten Spalte der zweite Einheitsvektor steht. Induktiv sehen wir, daß wir Divisionen und Multiplikationen benötigen, und ein -Gleichungssystem mit dem Gauß'schen Algorithmus zu lösen. Für ein -System sind das Divisionen und Multiplikationen, bei einem -System Divisionen und Multiplikationen und bei einem -System Divisionen und Multiplikationen. Bei einem -System erhält man die moderate Zahl von Divisionen und Multiplikationen.
Andreas Kriegl 2002-02-01