/ Home / math / Analysis_II / 01._Vektordifferential /

  •  [Go Up]
  •  image/

01. Vektordifferential

Vektorwertige Funktionen

Vektorwertige Funktionen (Vektorfelder) sind Funktionen, die von einem Vektorraum auf einen Vektorraum (mit dim > 1) abbilden. Diese nennt man auch Abbildungen.

Es gibt auch hier folgende Begriffe:

Konvergenz

∀ε>0:∃N(ε):||{x⃗_n}-ξ⃗||<ε∀n>N(ε) Konvergente Folge (konvergiert gegen ξ).

Man schreibt:

\lim_{n\rightarrow ∞}{x⃗_n}=ξ⃗

Oder auch:

{x⃗_n}\rightarrow ξ⃗

Stetigkeit

Die Funktion f heißt stetig an der Stelle x, falls für jede Folge x⃗_n∈D mit \lim_{n\rightarrow ∞} x⃗_n=x⃗ auch gilt:

\lim_{n\rightarrow ∞} f⃗(x⃗_n)=f⃗(\lim_{n\rightarrow ∞} x⃗_n)=f⃗(x⃗)

bzw.

\lim_{n\rightarrow ∞} ||f⃗(x⃗_n)-f⃗(x⃗)||=0

Äquivalent dazu ist:

∀ε>0:∃δ(ε,x):∀y:||x-y||<δ\Rightarrow ||f⃗(x)-f⃗(y)||<ε

Gleichmäßige Stetigkeit

∀ε>0:∃δ(ε):∀y:||x-y||<δ\Rightarrow ||f⃗(x)-f⃗(y)||<ε

Lipschitz-Stetigkeit

Falls eine Konstante L>0 im Definitionsbereich D der Funktion f existiert, so dass gilt:

||f⃗(x⃗)-f⃗(y⃗)||≤L⋅||x⃗-y⃗||∀x⃗,y⃗∈D

... dann ist die Funktion Lipschitz-stetig. Daraus folgt auch, dass sie gleichmäßig stetig ist.

O-Notation, Landau-Symbole

f(x)=O(g(x)) :\Leftrightarrow \lim_{x\rightarrow 0}÷{f(x)}{g(x)}=c≠0
f(x)=o(g(x)) :\Leftrightarrow \lim_{x\rightarrow 0}÷{f(x)}{g(x)}=0

Lineare Approximierbarkeit und Fréchet-Ableitung von Skalarfeldern

Ein Skalarfeld ist linear approximierbar, wenn existiert:

f'(x⃗), die Ableitung von f(x⃗) ist definiert durch:

f'(x⃗):=\lim_{h⃗\rightarrow 0}÷{f(x⃗+h⃗)-f(x⃗)}{h⃗}
f'(x⃗)=a⃗
a⃗=\lim_{h⃗\rightarrow 0}÷{f(x⃗+h⃗)-f(x⃗)}{h⃗}
\lim_{h⃗\rightarrow 0}÷{f(x⃗+h⃗)-f(x⃗)-a⃗∙h⃗}{h⃗}=0
\lim_{h⃗\rightarrow 0}÷{f(x⃗+h⃗)-f(x⃗)-a⃗∙h⃗}{h⃗}=0

Die lineare Approximation ist dann (mit a konstant):

f(x⃗+h⃗)=f(x⃗)+a⃗∙h⃗+o(||h⃗||)

wobei:

a⃗∙h⃗ Frechet-Ableitung.

Praktisch wird aber eher die folgende Definition verwendet:

f(x⃗+h⃗)=f(x⃗)+(∇f(x))∙h⃗+o(||h||) sofern f im Definitionsbereich stetig partiell differenzierbar ist (d. h. alle Komponenten von ∇f sind stetige Funktionen von x).

Physiker verwenden diesen Satz in der Fehlerrechnung (für kleine h):

df=(∇f)∙dx⃗

Das nennt man das totale Differential des Skalarfeldes f.

Geometrische Interpretation

Mit x_0∈const, y_0∈const:

f(x,y)=f(x_0,y_0)+(∇f)(x_0,y_0)⋅\begin{pmatrix} x-x_0 \\ y-y_0 \end{pmatrix}+o(||\begin{pmatrix} x-x_0 \\ y-y_0 \end{pmatrix}||)

Die Ebene f(x,y)=z nennt man dann Tangentialebene an f im Punkt (x_0,y_0,f(x_0,y_0)).

Richtungsableitung

Die Richtungableitung f' einer Funktion f nach einem Richtungsvektor r (Länge 1) ist:

f'(x⃗):=\lim_{h\rightarrow 0}÷{f(x⃗+h∙r⃗)-f(x)}{h}

Falls f in x total differenzierbar ist, dann ist die Richtungsableitung auch:

f'(x)=(∇f)∙r⃗

Abkürzend schreibt man:

D_r⃗ f=(∇f)∙r⃗

Kettenregel

Wenn f und g stetig differenzierbare Funktionen (Abbildungen) sind und die Komposition f(g(x)) möglich ist, dann gilt für die Ableitung ÷{∂}{∂x⃗} f⃗(g⃗(x⃗)):

÷{∂}{∂x⃗} f⃗(g⃗(x⃗))=(÷{∂}{∂g⃗} f⃗)⨯(÷{∂}{∂x⃗} g⃗)

Kurzschreibweise:

D(f⃗∘g⃗)=(Df⃗)⨯(Dg⃗)

Lineare Approximierbarkeit eines Vektorfeldes

Taylor'sche Formel für Skalarfelder

Man braucht für das Aufstellen der Taylor-Formel eine Funktion nur eines Parameters.

Für das Taylorpolynom p-ter Ordnung t(x) einer Funktion eines Skalars entwickelt an der Stelle x_0 gilt ja:

t(x):=\sum_{i=0}^{p}÷{f^{(n)}(x_0)}{n!}⋅(x-x_0)

Wenn man eine Funktion f eines 2D-Vektors entwickeln will, so führt man einen Skalar t als Parameter ein, der als einzige Variable nicht konstant ist (im Gegensatz dazu sind h und k konstant):

φ(x+h,y+k):=f(x+h⋅t,y+k⋅t)

Das Taylorpolynom t(x+h,y+k) ist dann:

t(x+h,y+k):=R_{p+1}(x,y,h,k)+\sum_{i=0}^{p} ÷{1}{i!}⋅(h⋅÷{∂}{∂x}+k⋅÷{∂}{∂y})^i f(x,y)

mit:

R_{p+1}(x,y,h,k):=÷{1}{(p+1)!}⋅(h⋅÷{∂}{∂x}+k⋅÷{∂}{∂y})^{p+1} f(x+ϑ⋅h,y+ϑ⋅k),0≤ϑ≤1

Mittelwertsatz der Differentialrechnung

Wenn eine Funktion f in einem Intervall [a,b] stetig differenzierbar ist, dann gilt für Punkte x und y, wo die Verbindungsstrecke im Definitionsbereich enthalten ist:

÷{f(x⃗)-f(y⃗)}{x⃗-y⃗}=(∇f)(ξ),x⃗≠y⃗,ξ:=x⃗+t⋅(y⃗-x⃗),t∈[0,1]

Hesse-Matrix

Per Definition ist die Hesse-Matrix H:

H:=(÷{∂}{∂x_i}÷{∂}{∂y_i}f)∀i=1,2,...,n∀j=1,2,...,n

Wegen dem Satz von Schwartz ist die Differentiationsreihenfolge bei zweimal stetig differenzierbaren Funktionen vertauschbar und daher ist die Matrix symmetrisch.

Lokales Verhalten von Funktionen in n Variablen

Eine Funktion f sei zweimal stetig differenzierbar. Ein Punkt (ξ,η) ist ein:

  • elliptischer Punkt, wenn H(ξ,η) positiv definit ist oder -H(ξ,η) positiv definit ist.
  • hyperbolischer Punkt, falls H(ξ,η) indefinit ist.
  • parabolischer Punkt, falls H(ξ,η) singulär ist.

Extremwerte von Funktionen in n Variablen

Löse nach ξ:

∇f(ξ⃗)=0⃗

Nicht alle davon sind auch wirklich globale Extremwerte, aber man findet die, die es sind.

Der Punkt ξ heißt stationärer Punkt.

Die Art des Extremums an der Stelle ξ lässt sich ermitteln:

  • lokales Minimum, wenn H(ξ) positiv definit.
  • lokales Maximum, wenn -H(ξ) positiv definit.
  • Sattelpunkt, wenn H(ξ) indefinit, aber regulär ist, d.h. (\det H(ξ⃗))<0.
  • unbestimmt, wenn (\det H(ξ⃗))=0.

Ableitung der Umkehrfunktion, lokale Invertierbarkeit

Eine Funktion f, die von einem Vektorraum der Dimension n in einen Vektorraum derselben Dimension n abbildet, kann eine Umkehrfunktion haben, die in die andere Richtung abbildet.

Ist die Abbildung als eine Matrix A gegeben, dann ist diese invertierbar, wenn A regulär ist (der Rang ist voll).

Die Ableitung der Umkehrfunktion f^{-1} einer Funktion f, die injektiv und in einer Umgebung von ξ stetig partiell differentierbar ist, ist:

÷{∂}{∂y}f^{-1}(f(ξ))=(÷{∂}{∂x}f(ξ))^{-1}=(÷{∂}{∂x}f(f^{-1}(f(ξ))))^{-1}

Symbolisch:

D(f^{-1})=(Df)^{-1}

TODO Matrix Properties: Norm.

Newton-Verfahren

Wenn x⃗_1 eine Näherung für die Lösung folgender Gleichung ist:

f(x⃗_1)=0

dann ist x⃗_2 aus dem Taylorpolynom erster Ordnung an der Stelle eine bessere Näherung:

f(x⃗_1)+f'(x⃗_1)⋅(x⃗_2-x⃗_1)=0
x⃗_2=x⃗_1-f(x⃗_1)⋅÷{1}{f'(x⃗_1)}

Und so weiter. Die Lösungsnäherungen nähern sich, wenn überhaupt, sehr schnell an den wahren Wert an.

Implizite Funktionen

Eine Funktion (zB von zwei Variablen) kann man durch Ersetzen einer der Parameter durch eine (unbekannte) Funktion des anderen Parameters und totale Differentiation auch als Funktion eines Parameters darstellen.

Beispiel:

f(x,y)=÷{x²}{a²}+÷{y²}{b²}-1=0

Wir versuchen, nach y aufzulösen. y ist ab hier eine Funktion von x.

÷{d}{dx}(÷{x²}{a²}+÷{y²}{b²}-1)=0
÷{2⋅x}{a²}+÷{2⋅y⋅y'}{b²}=0
y'=-÷{x⋅b²}{y⋅a²}

Extremwerte unter Nebenbedigungen

Mittels Lagrange-Multiplikatoren kann man auch Nebenbedingungen in die Extremwertberechnung miteinbeziehen:

Seien die Extremwerte einer Funktion f(ξ⃗)=0 unter der Nebenbedingung φ(ξ⃗)=0 und α(ξ⃗)=0 gesucht.

Dann führt man eine neue Funktion F ein, λ und μ sind Variablen für Skalare:

F:=f+λ⋅φ+μ⋅α

Dann geht es mit dieser weiter wie immer, zur Bestimmung der stationären Punkte:

∇F(ξ⃗)=0

... auflösen nach ξ.

Author: Danny (remove the ".nospam" to send)

Last modification on: Sat, 04 May 2024 .