Was ist es?

Anstatt nach dem Extremwert einer Funktion zu fragen, wird nach dem Extremwert eines Funktionals gefragt.

Sagen wir zB, wir wollen den Extremwert von folgendem wissen:

I:=\int^{t_1}_{t_0} F(x(t), \dot{x}(t),t) dt

wobei F bekannt sei, die Funktion x aber nicht. Bei welchem x ist I dann minimal/maximal?

Dann gilt für Extremwerte, dass die erste Variation des Integrals 0 sein muss:

\delta \int^{t_{1}}_{t_{0}} F(x(t), \dot{x}(t),t) dt = 0

Das ist gleichbedeutend mit der Lösung der Eulerschen Differentialgleichung:

\frac{d}{dt} \frac{\partial F}{\partial \dot{x}} - \frac{\partial F}{\partial x} = 0

Da hier \frac{d}{dt} das totale Differential ist (das, das Kreuzabhängigkeiten zwischen den Bausteinfunktionen untereinander auch berücksichtigt), ist das wirkliche Aufstellen der Gleichung ziemlich haarig:

Allgemein gilt bei totaler Differentiation einer Funktion g(t,x(t),y(t)) nach t:

{÷{d}{dt}}g=({÷{∂}{∂t}}g)⋅({÷{d}{dt}}t)+({÷{∂}{∂x}}g)⋅({÷{d}{dt}}x)+({÷{∂}{∂y}}g)⋅({÷{d}{dt}}y)

Oder kürzer:

{÷{d}{dt}}g=(∇g)∙÷{d}{dt}\begin{pmatrix} t \\ x \\ y \end{pmatrix}

Oder noch kürzer (zu kurz), symbolisch:

dg=(∇g)∙d\begin{pmatrix} t \\ x \\ y \end{pmatrix}

Wenn das Funktional F nicht explizit von t abhängt, reicht auch das Jacobiintegral:

\dot{x}\cdot \frac{\partial F(x,\dot{x}) }{\partial\dot{x}}-F(x,\dot{x})=const

Oder die Beltrami-Identität, obwohl, ob das einfacher ist...

\dot{x}\cdot\frac{d}{d\dot{x}}x-F=const.

Ist es noch zu was gut?

Will man eine lineare Differentialgleichung Lu=f mit konstanten Koeffizienten und Inhomogenität lösen, so sucht man sich zuerst eine Fundamentallösung U(x) durch Lösen von:

LU=δ

bzw. zuerst mal für die Fundamentallösung:

LU=0,x\neq 0

und dann für die Integrationskonstanten aber folgendes:

\lim_{\epsilon \rightarrow 0} \int_{-\epsilon}^{\epsilon} LU dx=\lim_{\epsilon \rightarrow 0} \int_{-\epsilon}^{\epsilon} \delta dx=1

Dann kann man durch Faltung die Inhomogenität f miteinbeziehen und erhält so die Lösung u(x) für Lu=f(x):

u(x)=(U*f)(x)

Wobei:

(a*b)(x):=∫_{-∞}^{+∞} a(x-ξ)⋅b(ξ)⋅dξ=∫_{-∞}^{+∞} a(ξ)⋅b(x-ξ)⋅dξ

Vorsicht, im Gegensatz dazu:

∫_{-∞}^{+∞} a(ξ)⋅δ(ξ-x)⋅dξ=a(x)

Graue Theorie

δ ist die Impulsfunktion, δ:=\lim_{ε\rightarrow 0} δ_ε.

Ein Beispiel für eine Impulsfunktion ist δ_ε(x):=\frac{1}{√{επ}}\cdot e^{-\frac{x²}{ε}}. ABER: Normalerweise braucht man ein explizites δ gar nicht, da δ über das Integral definiert ist und man auch damit rumrechnen soll.

Definition der Delta-Distribution δ

∫_a^b δ(x)⋅dx=\left\{\begin{array}{cl} 1, & a<0<b\\0, & \mbox{sonst} \end{array}\right.

bzw. auch:

\lim_{ε\rightarrow 0} ∫_{-ε}^{ε} δ(x)⋅dx=1

Eigenschaften:

Rechenregeln

Gâteaux derivative

δS = S(x+δx) - S(x)

is basically shorthand for the Gâteaux derivative

dS(x;η) = lim_{ε->0} {S(x+εη) - S(x)}/ε

Instead of dragging epsilons and limits around, you can use an infinitesimal that squares to zero - terms of order ε² survive division by ε and vanish after perfoming the limit.