Wie wir in (17.1.3) gesehen haben, ist das Verschwinden der Ableitung eine notwendige Bedingung dafür, daß ein Stelle ist, wo ein Minimum oder Maximum hat. Um allerdings entscheiden zu können, ob ein solches nun wirklich vorliegt wurde in der Schule die zweite Ableitung benutzt. Wir wollen nun den Weg ebnen höhere Ableitungen zu definieren. Gleichzeitig werden wir Bedingungen finden, die uns erlauben aus der Existenz der Richtungs- oder der partiellen Ableitungen auf die Differenzierbarkeit schließen zu können.
Falls differenzierbar ist, so existiert für jeden Punkte die Ableitung von bei . Wir erhalten somit eine Abbildung
Wir müssen also von Differenzierbarkeit oder zumindest Stetigkeit von Abbildungen sprechen können. Da und als endlich dimensionale Vektorräume vorausgesetzt sind, ist auch die Menge aller linearen Abbildungen von nach ebenfalls ein endlich dimensionaler Vektorraum nach (10.18) und mittels Basen von und können wir die Elemente von mit -Matrizen identifizieren, wobei wir und gesetzt haben. Es ist also isomorph zu und ist genau dann stetig, wenn alle Eintragungen der Matrix stetige Abbildungen liefern.
Üblicherweise verwenden wir auf die euklidische Metrik aus (15.2.2), d.h. die Distanz zweier linearer Abbildungen wäre durch
Besser mit der Wirkung von linearen Abbildungen auf Vektoren ist jedoch folgende Metrik auf geeignet:
17.3.1 Definition. Stetig differenzierbar.
Es ist
mit
gegeben.
Dabei heißt
die Operatornorm von .
Beachte, daß für und folgendes gilt:
Es heißt stetig differenzierbar (kurz ), falls für alle existiert und stetig ist.
Da bilinear und somit stetig ist ( ) folgt aus der Stetigkeit von jene von .
Für endlich dimensionales gilt auch die Umkehrung, denn dann ist und aus der Stetigkeit von folgt jene von und somit auch von (punktweise Konvergenz).
17.3.2 Proposition. Differenzierbarkeit via
Richtungsableitungen.
Eine Abbildung
ist genau dann
, wenn
die Richtungsableitungen eine wohldefinierte und stetige
Abbildung
,
liefern.
Beweis. Nach (17.1.9) existieren die Richtungsableitungen und , also definieren sie gerade die Abbleitung .
Wegen Proposition (17.1.9) müssen wir nur zeigen, daß
17.3.3 Proposition. Differenzierbarkeit via partielle
Ableitungen.
Ein Abbildung
ist genau dann
stetig differenzierbar auf
,
wenn sämtliche partielle Ableitungen
für
existieren und stetig sind.
Beweis. Dies folgt aus (17.2.10), denn , und ist eine stetige Kontraktion.
Die wesentliche Beweis-Idee sieht man bereits im Fall und . Wir führen den Beweis also nur in dieser Situation. Beachte, daß dann ist. Es genügt wegen (17.1.9) zu zeigen, daß glm. für existiert und für jedes linear ist. O.B.d.A. sei und . Dann ist
Insgesamt erhalten wir also
17.3.4. Inverse Funktionen Wir wollen nun Gleichungen der Form nach auflösen. Sei also eine Lösung. Falls nicht nur sondern auch differenzierbar ist, so gilt wegen nach der Kettenregel (17.2.3) . Wenn die Lösungen eindeutig sind, d.h. injektiv ist, dann ist wegen auch also und speziell für ist , d.h. ist die inverse (lineare Abbildung) zu .
Im endlich dimensionalen können wir die Invertierbarkeit linearer Abbildungen mit der Determinante testen, siehe (12.20).
Die Idee des folgenden Satzes ist, daß, wenn die Gleichung die durch die lineare Approximation gegeben ist, eindeutig für alle lösbar ist, dann sollte auch die nicht-lineare Gleichung zumindest für nahe eindeutig mit nahe lösbar sein.
Satz über inverse Funktionen.
Es sei
,
und
ein Isomorphismus.
Dann ist
ein lokaler Diffeomorphismus, d.h. es gibt offene Umgebungen
von
und
von
so daß
bijektiv ist und die
Inverse
ist mit Ableitung
.
Eine Menge heißt offene Umgebung von , wenn offen ist und liegt.
Beweis. Zuerst vereinfachen wir das Problem. Durch eine Translation (wir ersetzen durch ) erreichen wir und . Durch Zusammensetzen mit erreichen wir . Da die lineare Approximation von invertierbar ist, sollten wir das Restglied
Es sei nun und . Dann existiert für jedes ein eindeutiges mit , also liegt und ist bijektiv.
Es ist
(Lipschitz-)stetig,
denn für
und
mit
gilt:
,
also
.
Und schließlich ist
differenzierbar, denn
Daß ist folgt, da und alle Komponenten stetig sind. []
17.3.5 Beispiele inverser Abbildungen.
Beachte, daß nur auf dem Bild definierbar ist, und nur eine (die absolut kleinste) Lösung von liefert.
Analog zeigt man für , daß ist. Wieder ist nur auf dem Bild definiert und ist die kleinste positive Lösung von .
Im Unterschied zu den vorigen Beispiel ist diese Umkehrfunktion nun auf definiert und ist wieder nur eine Lösung diesmal von .
Wegen und somit ist bijektiv und folglich existiert nach (16.4.4) die Umkehrfunktion . Diese heißt natürlicher Logarithmus, wird mit oder (in MATHEMATICA mit Log) bezeichnet und ist ebenfalls stetig und streng monoton wachsend. Wegen ist . Als nächstes wollen wir die Differenzierbarkeit von beweisen. Aus folgt durch Logarithmieren (d.h. Anwenden von ) . Und man kann dies verallgemeinern zu
Betrachten wir die modifizierte Abbildung
17.3.6. Nun geht es uns darum soetwas wie die Niveau-Linien
Satz über implizite Funktionen.
Es sei
lokal um
und
ein Isomorphismus. Dann existieren offene Umgebungen
von
,
von
und
von
, so daß für jedes
und
ein eindeutiges
existiert mit
. Weiters ist die
Abbildung
,
.
Beachte, daß wir die Ableitungen von durch Differenzieren der Gleichung unter Anwendung der Kettenregel errechnet werden können, denn liefert und liefert .
Beweis. Es sei gegeben durch . Dann ist
Nun wähle Umgebungen von und von mit . Dann ist für jedes und der Punkt , also existiert ein eindeutiger Punkt mit , d.h. und , also ein eindeutiger Punkt mit . Weiters ist durch gegeben, wobei die Komponenten von bezeichnet. Folglich ist diese Zuordnung . []
17.3.7 Beispiele implizit gegebener Funktionen.
Ohne die Lösungskurve explizit zu kennen, können wir durch Differenzieren der impliziten Gleichung dennoch deren Ableitung berechnen:
0 | ||
Der 1. Zylinder ist z.B. durch gegeben und der 2. Zylinder durch . Gesucht sind also die Lösungen der impliziten Gleichung . Die Ableitung von ist
17.3.8. Newtonverfahren Um eine Nullstelle der (nicht-linearen) Gleichung zu erhalten beginnen wir mit irgend einem Näherungswert , betrachten die affine Funktion die am besten approximiert, bestimmen ihre Nullstelle , d.h. lösen und erhalten als neue Näherungsnullstelle von den Punkt . Das Newtonverfahren besteht nun darin auf rekursive Weise zu definieren und zu hoffen, daß existiert, weil dann , also ist (Verwende die stetige Differenzierbarkeit von und damit die Stetigkeit von ). Da aber die Bestimmung der Inversen einer Matrix sehr aufwendig ist, modifizieren wir dieses Verfahren derart, daß wir Anstelle von immer das fixe verwenden und erhalten:
Vereinfachtes Newtonverfahren.
Es sei
stetig differenzierbar und
.
Es sei
invertierbar und es existiere ein
mit
für alle
in einer offenen Menge
.
Weiters sei
Beweis. Wir betrachten . Für ist nach dem Mittelwertsatz . Es ist
17.3.9 Beispiel. Julia-Menge.
Die Menge der Startwerte, für welche die Newtonfolge gegen eine fixe Nullstelle
konvergiert, ist im allgemeinen schwer beschreibbar.
Betrachten wir z.B. das Polynom
als Abbildung
.
Dieses hat 3 komplexe Nullstellen
,
.
Wir können es auch als Abbildung
auffassen.
Die Ableitung von
ist gegeben durch (Multiplikation mit)
und die Newtonrekursion somit durch
.
Färben wir die Punkte der Ebene in 3 Farben entsprechend den 3 Nullstellen
gegen welche die Newtonfolge mit diesen Startwerten konvergiert so erhalten wir
folgendes fraktales Bild, eine Juliamenge:
Wir werden später sehen, daß für die Konvergenz der allgemeinen Newtonfolge die Bedingungen und für alle genügen. In diesen Beispiel sind diese Bedingungen für und erfüllt.
Andreas Kriegl 2002-07-01