4.1.7 Definition. Konvexität.
Eine Funktion
heißt konvex, wenn sie nirgends über einer ihrer Sehnen liegt, d.h.
4.1.8 Proposition. Charakterisierung konvexer Funktionen.
Es sei
zweimal differenzierbar. Dann ist
genau dann konvex, wenn
ist.
Beweis. ( ) Wenn konvex ist, so ist der Differenzen-Quotient monoton wachsend, denn sei (für ), dann existiert ein mit , nämlich , und somit ist , also
Damit ist aber , denn .
( ) Nach dem Mittelwertsatz existiert zu ein mit und , also ist , d.h. ist monoton wachsend.
Angenommen es gäbe und mit . Es sei und somit bzw. . Nach dem Mittelwertsatz existieren und mit
0 | ||
4.1.9 Kurvendiskussionen.
Mit den nun gewonnen Wissen können wir weitgehende Aussagen über uns vorgelegte (hinreichend
differenzierbare) Kurven machen.
Neben Grenzwertaussagen für
mit Randpunkten
des Definitionsbereichs
können wir das Monotonie-Verhalten und das Konvexitäts-Verhalten durch Lösen der Ungleichungen
bzw.
erhalten. Schnittpunkte mit parallelen Geraden
(und
insbesonders Nullstellen) erhalten wir
durch das Lösen der Gleichung
. Wir können Tangenten an beliebigen Stellen bestimmen
und insbesonders durch Lösen der Gleichung
alle waagrechten Tangenten und somit
die Kandiaten für lokale Extrema bestimmen. Aus den Monotonie oder Konvexitätsverhalten nahe
dieser Stellen können wir zumeist entscheiden, ob es sich wirklich um lokale Minima oder Maxima
handelt. Schließlich können wir auch die Punkte wo sich daß Konvitätsverhalten ändert finden,
indem wir Lösungen der Gleichung
als einzig mögliche Kandidaten untersuchen.
4.1.10 Extremalprobleme.
Am wichtigsten in der Realität ist es wohl (lokale) Extremwerte von Funktionen zu bestimmen.
Das werden im allgemeinen Funktionen
sein.
Falls
offen ist, so ist eine
notwendige Bedingung für ein Extremum
, daß die
Richtungs-Ableitung
für alle Richtungen
verschwindet.
Zumeist wird allerdings
nicht offen sein, sondern die
durch gewissen Restriktionen
(Nebenbedingungen) eingeschränkt sein. Wir können im Moment nur den Fall, wo diese
Nebenbedingungen eine 1-dimensionale Teilmenge
(also eine parametrisierte Kurve) beschreiben
behandeln. Sei also
eine differenzierbare Parametrsierung von
durch
. Gesucht sind die Parameter
für welche
ein lokales
Extremum besitzt. Dies können wir wie zuvor mit Differentialrechnung behandeln.
Zumeist wird die Menge nicht in parametrisierter Form vorliegen, sondern in impliziter Form und dann müssen wir im ersten Schritt versuchen diese implizite Gleichung(en) in eine explizite Umzuwandeln.
Sei also z.B. jendes Rechteck mit maximaler Fläche bei gegebenen Umfang gesucht. Es bezeichne und die Seiten des Rechtecks die zu maximierende Fläche ist dann durch gegeben. Die Nebenbedingung ist , also können wir als Parameter verwenden und setzen. Die Parametrisierung ist also und die Zu minimierende Funktion ist , nimmt ihr Maximum also bei und somit an.
Beachte, daß wir das entsprechende Problem für Dreiecke so nicht lösen können. Denn das Dreieck wird durch die Längen der 3 Seiten , und beschreiben. Die Fläche ist durch die Heron'sche Formel mit , wo , gegeben. Die Nebenbedingung ist und daraus können wir nur eine Seite aus den beiden anderen ausrechnen, es bleibt also eine Funktion in zwei Variablen übrig, die wir noch nicht gut behandeln können.
Das selbe Problem tritt auf, wenn wir den Quader mit maximalen Volumen bei gegebener Oberfläche bestimmen wollen.
4.1.11 Regel von De L'Hospital.
Die Funktionen
und
seien differenzierbar auf
mit
für alle
.
Weiters sei
oder es sei
.
Dann ist
Beweis. Beweis für :
Beweis für
:
Es sei
, d.h. für jedes
existiert ein
s.d.
für alle
.
Für
ist nach dem Mittelwertsatz
Somit ist für
4.1.13 Definition. Richtungsableitung.
Da wir eigentlich an Funktionen in mehreren Variablen, also Abbildungen zwischen allgemeinen endlich dimensionalen Vektorräumen und interessiert sind, wäre wir gerne in der Lage auch diese zu Differenzieren. Dabei können wir aber nicht mehr bilden, da wir Vektoren nicht dividieren können. Solang wir die Variable in allerdings von aus nur in eine fixe Richtung variieren, d.h. nur Argumente der Form mit betrachten, also die Zusammensetzung von mit der affinen Gerade , dann können wir sehr wohl den Differenzenquotient betrachten und wir bezeichnen dessen Grenzwert als Richtungsableitung ] Richtungsableitung in Richtung von an der Stelle in Richtung .
Wählen wir als Richtungen insbesonders die Koordinaten-Richtungen so spricht man anstelle von Richtungsableitungen auch von den partiellen Ableitungen und bezeichnet sie mit
Beispiel.
Es sei
. Dann ist
4.1.14 Kettenregel.
Es sei
differenzierbar bei
und
differenzierbar bei
.
Dann ist
differenzierbar bei
und es gilt
Beweis. Es bezeichne
4.1.15 Produktregel von Leibnitz.
Es sei
bei
differenzierbar.
Dann ist auch
bei
differenzierbar
und
Beweis. Es gilt:
4.1.16 Ableitung von
.
Die Funktion
ist differenzierbar auf
und ihre Ableitung ist
Beweis. Es gilt:
4.1.17 Quotientenregel.
Es seien
bei
differenzierbar und
.
Dann ist auch
bei
differenzierbar
und
Beweis. Es ist , wobei die Funktion ist. Also folgt aus (4.1.16), (4.1.14) und (4.1.15):
4.1.18 Lemma. Komponentenweise Ableitung.
Es sei
und
.
Dann ist
genau dann differenzierbar
, wenn die Komponenten
differenzierbar bei
sind für alle
.
Es gilt dann
Beweis. Da , wobei die kanonische Projektion bezeichnet, folgt dies aus (7.4.4).
folgt, da der Differenzenquotienten komponentenweise berechnet werden kann und Limiten in einem Produkt komponentenweise berechnet werden können. []
4.1.19 Linearität des Differenzierens.
Es seien
differenzierbar bei
und
, dann ist auch
differenzierbar bei
und es gilt
.
Beweis. Dies gilt, da der Differenzenquotient einer Linearkombination die entsprechende Linearkombination der Differenzenquotienten ist. []
4.1.20 Proposition. Differenzierbarkeit der Umkehrabbildung.
Es sei
streng monoton und stetig auf dem Intervall
. Sei
und
sei differenzierbar bei
mit Ableitung
. Dann ist die Umkehrfunktion
bei
differenzierbar und ihre Ableitung ist
Beweis. Nach dem inversen Funktionensatz (3.4.3) ist ein Intervall. Falls bei differenzierbar ist, so folgt aus der Kettenregel (4.1.14), daß ist. Wir wollen also zeigen, daß bei differenzierbar mit Ableitung ist. Sei eine Folge in welche gegen konvergiert. Da nach (3.4.3) stetig ist konvergiert gegen . Somit konvergiert
4.1.21 Beispiele inverser Abbildungen.
Beachte, daß nur auf dem Bild definierbar ist, und nur eine (die absolut kleinste) Lösung von liefert.
Analog zeigt man für , daß ist. Wieder ist nur auf dem Bild definiert und ist die kleinste positive Lösung von . ]Arcuscosinus, Umkehrfunktion von
Im Unterschied zu den vorigen Beispiel ist diese Umkehrfunktion nun auf definiert und ist wieder nur eine Lösung diesmal von .
4.1.22 Definition. Höhere Ableitungen.
Rekursiv nennen wir eine Funktion
-mal differenzierbar,
wenn sie auf
differenzierbar ist und ihre Ableitung
seinerseits
-mal differenzierbar ist. Dabei soll die Eiggenschaft 0-mal differenzierbar
zu sein immer erfüllt sein.
Die -te Ableitung ist dann als
Schließlich heißt eine Funktion unendlich oft (oder genauer beliebig oft) differenzierbar, wenn sie -mal differenzierbar ist für jedes .
4.1.23. Newtonverfahren Um eine Nullstelle der (nicht-linearen) Gleichung zu erhalten beginnen wir mit irgend einem Näherungswert , betrachten die affine Funktion die am besten approximiert, bestimmen ihre Nullstelle , d.h. lösen und erhalten als neue Näherungsnullstelle von den Punkt . Das Newtonverfahren besteht nun darin auf rekursive Weise zu definieren und zu hoffen, daß existiert, weil dann , also ist (Verwende die stetige Differenzierbarkeit von und damit die Stetigkeit von ). Da aber die Bestimmung der Inversen einer Matrix sehr aufwendig ist, modifizieren wir dieses Verfahren derart, daß wir Anstelle von immer das fixe verwenden und erhalten:
Vereinfachtes Newtonverfahren.
Es sei
stetig differenzierbar und
.
Es sei
invertierbar und es existiere ein
mit
für alle
in einer offenen Menge
.
Weiters sei
Beweis. Wir betrachten . Für ist nach dem Mittelwertsatz . Es ist
4.1.24 Beispiel. Julia-Menge.
Die Menge der Startwerte, für welche die Newtonfolge gegen eine fixe Nullstelle
konvergiert, ist im allgemeinen schwer beschreibbar.
Betrachten wir z.B. das Polynom
als Abbildung
.
Dieses hat 3 komplexe Nullstellen
,
.
Wir können es auch als Abbildung
auffassen.
Die Ableitung von
ist gegeben durch (Multiplikation mit)
und die Newtonrekursion somit durch
.
Färben wir die Punkte der Ebene in 3 Farben entsprechend den 3 Nullstellen
gegen welche die Newtonfolge mit diesen Startwerten konvergiert so erhalten wir
folgendes fraktales Bild, eine Juliamenge:
Wir werden später sehen, daß für die Konvergenz der allgemeinen Newtonfolge die Bedingungen und für alle genügen. In diesen Beispiel sind diese Bedingungen für und erfüllt.
4.1.25 Lemma.
Es sei
differenzierbar auf
für ein
und weiters existiere
. Dann ist
auch differenzierbar bei
und
.
Beweis. Nach dem Mittelwertsatz ist für ein von abhängiges . Für konvergiert und somit ist
4.1.26 Beispiel.
Es sei
für
. Wegen
setzen
wir
und erhalten eine stetige und auf
differenzierbare
Funktion mit Ableitung
. Wegen
ist
, also
auch bei
0 differenzierbar mit Ableitung
.
Andreas Kriegl 2003-10-15