Wie wir in (17.1.3) gesehen haben, ist das Verschwinden der
Ableitung
eine notwendige Bedingung dafür, daß
ein Stelle ist, wo
ein Minimum oder
Maximum hat. Um allerdings entscheiden zu können, ob ein solches nun wirklich
vorliegt wurde in der Schule die zweite Ableitung benutzt.
Wir wollen nun den Weg ebnen höhere Ableitungen zu definieren. Gleichzeitig
werden wir Bedingungen finden, die uns erlauben aus der Existenz der Richtungs-
oder der partiellen Ableitungen auf die Differenzierbarkeit schließen zu können.
Falls
differenzierbar ist, so existiert für jeden Punkte
die Ableitung
von
bei
. Wir erhalten somit eine
Abbildung
Wir müssen also von
Differenzierbarkeit oder zumindest Stetigkeit von Abbildungen
sprechen können.
Da
und
als endlich dimensionale Vektorräume vorausgesetzt sind,
ist auch die Menge
aller linearen Abbildungen von
nach
ebenfalls ein endlich dimensionaler Vektorraum nach (10.18) und mittels
Basen von
und
können wir die Elemente von
mit
-Matrizen
identifizieren, wobei wir
und
gesetzt haben.
Es ist also
isomorph zu
und
ist genau dann stetig, wenn alle Eintragungen
der Matrix
stetige Abbildungen
liefern.
Üblicherweise verwenden wir auf
die euklidische Metrik aus
(15.2.2), d.h. die Distanz zweier linearer Abbildungen
wäre durch
Besser mit der Wirkung von linearen Abbildungen auf Vektoren ist jedoch folgende
Metrik auf
geeignet:
17.3.1 Definition. Stetig differenzierbar.
Es ist
mit
gegeben.
Dabei heißt
die Operatornorm von
.
Beachte, daß für
und
folgendes gilt:
Es heißt
stetig differenzierbar (kurz
),
falls
für
alle
existiert und
stetig ist.
Da
bilinear und somit stetig ist
(
) folgt aus der
Stetigkeit von
jene von
.
Für endlich dimensionales
gilt auch die Umkehrung, denn dann ist
und aus der Stetigkeit von
folgt jene von
und somit auch von
(punktweise Konvergenz).
17.3.2 Proposition. Differenzierbarkeit via
Richtungsableitungen.
Eine Abbildung
ist genau dann
, wenn
die Richtungsableitungen eine wohldefinierte und stetige
Abbildung
,
liefern.
Beweis.
Wegen Proposition (17.1.9) müssen wir nur zeigen, daß
![]() |
![]() |
17.3.3 Proposition. Differenzierbarkeit via partielle
Ableitungen.
Ein Abbildung
ist genau dann
stetig differenzierbar auf
,
wenn sämtliche partielle Ableitungen
für
existieren und stetig sind.
Beweis.
Die wesentliche Beweis-Idee sieht man bereits im Fall
und
.
Wir führen den Beweis also nur in dieser Situation. Beachte, daß dann
ist.
Es genügt wegen (17.1.9) zu zeigen, daß
glm. für
existiert
und
für jedes
linear ist.
O.B.d.A. sei
und
.
Dann ist
Insgesamt erhalten wir also
![]() |
![]() |
17.3.4. Inverse Funktionen
Wir wollen nun Gleichungen der Form
nach
auflösen.
Sei also
eine Lösung. Falls nicht nur
sondern auch
differenzierbar ist, so gilt wegen
nach der Kettenregel
(17.2.3)
. Wenn die Lösungen eindeutig
sind, d.h.
injektiv ist, dann ist wegen
auch
also
und speziell für
ist
, d.h.
ist die inverse (lineare
Abbildung) zu
.
Im endlich dimensionalen können wir die Invertierbarkeit linearer Abbildungen mit der Determinante testen, siehe (12.20).
Die Idee des folgenden Satzes ist, daß, wenn die Gleichung
die durch die lineare Approximation
gegeben ist,
eindeutig für alle
lösbar ist, dann sollte auch die nicht-lineare Gleichung
zumindest für
nahe
eindeutig mit
nahe
lösbar sein.
Satz über inverse Funktionen.
Es sei
,
und
ein Isomorphismus.
Dann ist
ein lokaler Diffeomorphismus, d.h. es gibt offene Umgebungen
von
und
von
so daß
bijektiv ist und die
Inverse
ist mit Ableitung
.
Eine Menge
Beweis. Zuerst vereinfachen wir das Problem. Durch eine Translation (wir ersetzen
Es sei nun
und
.
Dann existiert für jedes
ein eindeutiges
mit
,
also liegt
und
ist bijektiv.
Es ist
(Lipschitz-)stetig,
denn für
und
mit
gilt:
,
also
.
Und schließlich ist
differenzierbar, denn
![]() |
![]() |
|
![]() |
Daß
ist folgt, da
und alle Komponenten stetig sind.
[]
17.3.5 Beispiele inverser Abbildungen.
![]() |
![]() |
|
![]() |
Beachte, daß nur auf dem Bild
definierbar ist, und
nur eine (die absolut kleinste) Lösung von
liefert.
Analog zeigt man für
, daß
ist.
Wieder ist
nur auf dem Bild
definiert und
ist die kleinste positive Lösung von
.
![]() |
![]() |
|
![]() |
Im Unterschied zu den vorigen Beispiel ist diese Umkehrfunktion nun auf
definiert und
ist wieder nur eine Lösung
diesmal von
.
Wegen
und somit
ist
bijektiv
und folglich existiert nach
(16.4.4) die Umkehrfunktion
.
Diese heißt natürlicher Logarithmus, wird mit
oder
(in MATHEMATICA
mit Log) bezeichnet und ist ebenfalls stetig und streng monoton wachsend.
Wegen
ist
.
Als nächstes wollen wir die Differenzierbarkeit von
beweisen.
Aus
folgt durch Logarithmieren (d.h. Anwenden von
)
. Und man kann dies verallgemeinern zu
![]() |
![]() |
|
![]() |
Betrachten wir die modifizierte Abbildung
![]() |
![]() |
|
![]() |
||
![]() |
17.3.6. Nun geht es uns darum soetwas wie die Niveau-Linien
Satz über implizite Funktionen.
Es sei
lokal um
und
ein Isomorphismus. Dann existieren offene Umgebungen
von
,
von
und
von
, so daß für jedes
und
ein eindeutiges
existiert mit
. Weiters ist die
Abbildung
,
.
Beachte, daß wir die Ableitungen von
Beweis. Es sei
Nun wähle Umgebungen
von
und
von
mit
.
Dann ist für jedes
und
der Punkt
, also
existiert ein eindeutiger Punkt
mit
, d.h.
und
, also ein eindeutiger Punkt
mit
.
Weiters ist
durch
gegeben, wobei
die Komponenten von
bezeichnet. Folglich ist
diese Zuordnung
.
[]
17.3.7 Beispiele implizit gegebener Funktionen.
Ohne die Lösungskurve
explizit zu kennen, können wir durch
Differenzieren der impliziten Gleichung
dennoch deren
Ableitung berechnen:
0 | ![]() |
|
![]() |
||
![]() |
![]() |
Der 1. Zylinder ist z.B. durch
gegeben und der
2. Zylinder durch
.
Gesucht sind also die Lösungen der impliziten Gleichung
.
Die Ableitung von
ist
17.3.8. Newtonverfahren
Um eine Nullstelle der (nicht-linearen) Gleichung
zu erhalten
beginnen wir mit irgend einem Näherungswert
, betrachten
die affine Funktion
die
am besten approximiert, bestimmen ihre Nullstelle
, d.h. lösen
und erhalten als neue Näherungsnullstelle
von
den Punkt
.
Das Newtonverfahren besteht nun darin auf rekursive Weise
zu definieren und zu hoffen, daß
existiert, weil dann
, also
ist
(Verwende die stetige Differenzierbarkeit von
und damit die Stetigkeit von
).
Da aber die Bestimmung der Inversen
einer Matrix
sehr aufwendig ist, modifizieren wir dieses Verfahren derart, daß wir Anstelle von
immer das fixe
verwenden und erhalten:
Vereinfachtes Newtonverfahren.
Es sei
stetig differenzierbar und
.
Es sei
invertierbar und es existiere ein
mit
für alle
in einer offenen Menge
.
Weiters sei
Beweis. Wir betrachten
17.3.9 Beispiel. Julia-Menge.
Die Menge der Startwerte, für welche die Newtonfolge gegen eine fixe Nullstelle
konvergiert, ist im allgemeinen schwer beschreibbar.
Betrachten wir z.B. das Polynom
als Abbildung
.
Dieses hat 3 komplexe Nullstellen
,
.
Wir können es auch als Abbildung
auffassen.
Die Ableitung von
ist gegeben durch (Multiplikation mit)
und die Newtonrekursion somit durch
.
Färben wir die Punkte der Ebene in 3 Farben entsprechend den 3 Nullstellen
gegen welche die Newtonfolge mit diesen Startwerten konvergiert so erhalten wir
folgendes fraktales Bild, eine Juliamenge:
Wir werden später sehen, daß für die Konvergenz der
allgemeinen Newtonfolge die Bedingungen
und
für alle
genügen.
In diesen Beispiel sind diese Bedingungen für
und
erfüllt.
Andreas Kriegl 2002-07-01