="http://www.w3.org/2000/svg" viewBox="0 0 512 512">

11 Anfänge der Differentialgeometrie

Wie wir bereits am Anfang von Kapitel 10 erwähnt haben, kann eine Abbildung der Form [latex]f: U \to \mathbb {R}^m[/latex] auf einer offenen Menge [latex]U \subseteq \mathbb {R}^n[/latex] verschiedene Bedeutungen haben. In diesem Kapitel werden wir folgende Blickwinkel in den Vordergrund stellen:

  • Für [latex]m = n[/latex] könnte [latex]f[/latex] einen glatten Koordinatenwechsel («Diffeomorphismus» ) darstellen. Polar-, Zylinder-, und Kugelkoordinaten werden drei einfache Beispiele dafür darstellen.
  • Für [latex]m
  • Für [latex]n [latex]
    \begin{aligned}[]f(\theta ,\varphi ) = (\sin \theta \cos \varphi ,\sin \theta \sin \varphi , \cos \theta )\end{aligned}
    [/latex]

    für [latex](\theta ,\varphi ) \in U[/latex] zu parametrisieren. Die Abbildung [latex]f[/latex] liefert also gewissermassen Koordinaten auf der Sphäre [latex]\mathbb {S}^2[/latex] (und stellt, wenn man will, einen Teil eines Atlas zu [latex]\mathbb {S}^2[/latex] dar).

Wir beginnen unsere Diskussion mit dem zweiten Blickwinkel, doch deuten obige Beispiele schon an, dass die drei Themen eng miteinander verwandt sind. Die Sätze und Begriffe dieses Kapitels stellen die Anfänge der Differentialgeometrie dar, welche nebst grosser mathematischer Relevanz auch in anderen Fachgebieten wie zum Beispiel der allgemeinen Relativitätstheorie der Physik eine zentrale Rolle einnimmt.

11.1 – Sätze zur impliziten Funktion und zur inversen Abbildung

Innerhalb der Mathematik oder auch in Anwendungen treten oft Gleichungen der Form [latex]F(x,y) = 0[/latex] auf, die man dann gerne als Definition einer «implizit definierten Funktion» [latex]y = y(x)[/latex] auffassen würde. Zum Beispiel könnte [latex]F[/latex] das sehr konkrete Polynom

[latex]
\begin{aligned}[]F(x,y) = y^5 + x^2y^4 + (1+x)y^3 - x^5 y + 2\end{aligned}
[/latex]

sein, womit wir bereits ein sehr schwieriges Problem vor uns haben: Wie können wir für ein vorgegebenes [latex]x \in \mathbb {R}[/latex] die Lösung [latex]y=y(x)[/latex] von [latex]F(x,y) = 0[/latex] durch eine Formel angeben? Definiert dies überhaupt eine Funktion?

Da im Allgemeinen ein Polynom fünften Grades (hier [latex]y\in \mathbb {R} \mapsto F(x,y)[/latex] für ein fest gewähltes [latex]x \in \mathbb {R}[/latex]) bis zu fünf reelle Nullstellen besitzen kann, definiert [latex]F(x,y) = 0[/latex] keine eindeutig bestimmte Funktion [latex]x \mapsto y(x)[/latex]. Wir werden dieses Problem im Folgenden umgehen, indem wir von einem bekannten Lösungspaar [latex](x_0,y_0)[/latex] mit [latex]F(x_0,y_0) = 0[/latex] ausgehen und für [latex]x[/latex] in der Nähe von [latex]x_0[/latex] eine Lösung [latex]y = y(x)[/latex] für [latex]F(x,y) = 0[/latex] ebenfalls nur in der Nähe von [latex]y_0[/latex] suchen. Unter geeigneten Annahmen wird dies [latex]y[/latex] eindeutig als Funktion von [latex]x[/latex] bestimmen.

Die Antwort auf die erste Frage ist vielleicht etwas überraschender. Selbst für eine polynomielle Gleichung der Form [latex]F(x,y) = 0[/latex] wie oben gibt es im Allgemeinen keine Formel, die die gesuchte Lösung mittels Wurzelausdrücken bestimmt. (Der Beweis dieser Aussage verwendet Galois-Theorie aus der Vorlesung Algebra II im zweiten Studienjahr des Mathematikstudiums.)

Für gewisse nicht-polynomielle Gleichungen wie zum Beispiel
[latex]
\begin{aligned}[]\label{eq:impl-introexp} F(x,y) = x-y -\mathrm {e}^y=0\end{aligned}
[/latex]
ist es etwas weniger überraschend, dass wir keine konkrete Lösungsformel angeben können, selbst wenn für die Gleichung (11.1) zu jedem [latex]x \in \mathbb {R}[/latex] ein eindeutig bestimmtes [latex]y =y(x)\in \mathbb {R}[/latex] mit [latex]x = y + \mathrm {e}^y[/latex] existiert (wieso?). Dennoch wollen wir die Funktion auch ohne Angabe einer konkreten Formel weiter untersuchen.

Wir geben uns also im Zusammenhang mit einer impliziten Gleichung [latex]F(x,y) = 0[/latex] die Aufgabe, ausgehend von einer Lösung [latex](x_0,y_0)[/latex] mit [latex]F(x_0,y_0) = 0[/latex], zu zeigen, dass es für jedes [latex]x[/latex] nahe an [latex]x_0[/latex] ein eindeutig bestimmtes [latex]y[/latex] nahe an [latex]y_0[/latex] gibt mit [latex]F(x,y) = 0[/latex]. Genauer werden wir offene Mengen [latex]U\subseteq \mathbb {R}^n[/latex], [latex]V \subseteq \mathbb {R}^m[/latex], eine Funktion [latex]F: U \times V \to \mathbb {R}^m[/latex], eine Lösung [latex](x_0,y_0)\in U \times V[/latex] der Gleichung [latex]F(x_0,y_0) = 0[/latex] betrachten und zeigen, dass unter geeigneten Annahmen an [latex]F[/latex] bei [latex](x_0,y_0)[/latex] eine lokale Lösungsfunktion [latex]y = f(x)[/latex] existiert, die (mehrmals) stetig differenzierbar ist.

Auf der Suche nach einer inversen Funktion einer injektiven Funktion [latex]f[/latex] von [latex]U \subseteq \mathbb {R}^n[/latex] nach [latex]\mathbb {R}^n[/latex] können wir durch [latex]F: U\times \mathbb {R}^n \to \mathbb {R}^n[/latex] mit [latex]F(x,y) = f(x) -y[/latex] eine Funktion definieren, so dass für gegebenes [latex]y[/latex] die Lösungen [latex]x=x(y)[/latex] der impliziten Gleichung [latex]F(x,y) = 0[/latex] gerade die inverse Funktion beschreiben.

11.1.1 – Satz zur impliziten Funktion

Satz 11.1: Stetige lokale Lösungsfunktion

Sei [latex]r > 0[/latex] ein Radius und seien [latex]x_0 \in \mathbb {R}^n[/latex], [latex]y_0 \in \mathbb {R}^m[/latex] Punkte. Wir betrachten die offene Teilmenge

[latex]
\begin{aligned}[]B_r^{\mathbb {R}^n}(x_0) \times B_r^{\mathbb {R}^m}(y_0) = \left \lbrace {(x,y) \in \mathbb {R}^n \times \mathbb {R}^m} \mid {\| {x-x_0}\| _2[/latex]

von [latex]\mathbb {R}^n \times \mathbb {R}^m[/latex]. Sei [latex]F: B_r^{\mathbb {R}^n}(x_0) \times B_r^{\mathbb {R}^m}(y_0)\to \mathbb {R}^m[/latex] eine stetige Funktion, die die folgenden drei Bedingungen erfüllt:

  • [latex]F(x_0,y_0) =0[/latex].
  • Die partiellen Ableitungen
    [latex]
    \begin{aligned}[]\partial _{y_k} F:B_r^{\mathbb {R}^n}(x_0) \times B_r^{\mathbb {R}^m}(y_0) \to \mathbb {R}^m\end{aligned}
    [/latex]

    existieren für alle [latex]k \in \left \lbrace {1,\ldots ,m} \right \rbrace[/latex] und sind auf [latex]B_r^{\mathbb {R}^n}(x_0) \times B_r^{\mathbb {R}^m}(y_0)[/latex] stetig.

  • Die totale Ableitung [latex]A[/latex] bei [latex]y_0[/latex] der Abbildung [latex]y \in B_r(y_0) \mapsto F(x_0,y)[/latex] ist invertierbar, das heisst, die Matrix [latex]A = (\partial _{y_k} F_j(x_0,y_0))_{j,k} \in \operatorname {Mat}_{m,m}(\mathbb {R})[/latex] hat nicht-verschwindende Determinante.

Dann existiert ein offener Ball [latex]U_0 = B_\alpha (x_0)[/latex] um [latex]x_0[/latex] und ein offener Ball [latex]V_0 = B_\beta (y_0)[/latex] um [latex]y_0[/latex] mit [latex]\alpha ,\beta \in (0,r)[/latex] und eine stetige Funktion [latex]f:U_0 \to V_0[/latex], so dass für alle [latex](x,y) \in U_0 \times V_0[/latex] die Gleichung [latex]F(x,y) = 0[/latex] genau dann gilt, wenn [latex]y = f(x)[/latex] gilt. Insbesondere ist [latex]f(x_0) = y_0[/latex].

Wie wir sehen werden, besteht unserer Beweis des obigen Satzes aus einem (leicht veränderten und auf höhere Dimensionen übertragenen) Newton-Verfahren (siehe Beispiel 8.65) und dem Banachschen Fixpunktsatz, wobei wir [latex]\alpha ,\beta > 0[/latex] geeignet wählen werden, um eine Lipschitz-Kontraktion auf einem vollständigen metrischen Raum zu erhalten.

Beweis

Da wir zu einem jeweils fest gewählten [latex]x[/latex] ein [latex]y[/latex] mit [latex]F(x,y) = 0[/latex] suchen wollen, wird die Notation [latex]F_x(y) = F(x,y)[/latex] für [latex](x,y) \in B_r(x_0) \times B_r(y_0)[/latex] nützlich sein. Wir verwenden diese bereits, um für ein festes [latex]x \in B_r(x_0)[/latex] die Hilfsfunktion

[latex]
\begin{aligned}[]T_x : y \in B_r(y_0) \mapsto y- A^{-1} F_x(y) \in \mathbb {R}^m\end{aligned}
[/latex]

zu definieren. Diese entspricht gerade der Iterationsvorschrift im Newton-Verfahren, wobei wir allerdings die Ableitung von [latex]F_x[/latex] bei [latex]y[/latex] schlicht durch [latex]A = \thinspace {\rm {D}}_{y_0} F_{x_0}[/latex] ersetzt haben. Trotz dieser Änderungen bemerken wir, dass für [latex](x,y) \in B_r(x_0) \times B_r(y_0)[/latex] die Gleichung [latex]F(x,y) = 0[/latex] zur Fixpunktgleichung [latex]T_x(y) = y[/latex] äquivalent ist (wieso?).

Die Abbildung [latex]T_x[/latex] als Lipschitz-Kontraktion: Sei [latex]x \in B_r(x_0)[/latex]. Nach Annahme und Satz 10.10 ist [latex]F_x[/latex] auf [latex]B_r(y_0)[/latex] eine stetig differenzierbare Funktion, womit nach der Kettenregel [latex]T_x[/latex] ebenso stetig differenzierbar ist mit Ableitung

[latex]
\begin{aligned}[]\thinspace {\rm {D}}_y T_x = I_m -A^{-1} \thinspace {\rm {D}}_y F_x = A^{-1}(A-\thinspace {\rm {D}}_yF_x)\end{aligned}
[/latex]

für [latex]y \in B_r(y_0)[/latex], wobei [latex]I_m\in \operatorname {Mat}_{m,m}(\mathbb {R})[/latex] die Identitätsmatrix bezeichnet. Für [latex]x=x_0[/latex] und [latex]y=y_0[/latex] ergibt sich damit

[latex]
\begin{aligned}[]\thinspace {\rm {D}}_{y_0} T_{x_0} = A^{-1}(A-\thinspace {\rm {D}}_{y_0}F_{x_0}) = 0.\end{aligned}
[/latex]

Auf Grund der angenommenen Stetigkeit von [latex](x,y) \in B_r(x_0) \times B_r(y_0) \mapsto \thinspace {\rm {D}}_y F_x[/latex] existiert also ein [latex]\delta \in (0,r)[/latex], so dass für alle [latex](x,y) \in B_\delta (x_0) \times B_\delta (y_0)[/latex] die Abschätzung [latex]\| {\thinspace {\rm {D}}_y T_x}\| _{\mathrm {op}} \leq \frac {1}{2}[/latex] gilt.

Wir zeigen, dass dies die Lipschitz-Kontraktionseigenschaft impliziert. In der Tat folgt für [latex]x \in B_\delta (x_0)[/latex] und [latex]y_1,y_2 \in B_\delta (y_0)[/latex] mit Hilfe des geraden Weges [latex]\gamma :t \in [0,1] \mapsto (1-t)y_1 +ty_2[/latex] von [latex]y_1[/latex] nach [latex]y_2[/latex] (mit Ableitung [latex]y_2-y_1[/latex])

[latex]
\begin{aligned}[]\| {T_x(y_1) - T_x(y_2)}\| = \| {T_x\circ \gamma (1)- T_x\circ \gamma (0)}\| = \Bigl \| \int _0^1 (T_x \circ \gamma )' (t) \thinspace {\rm {d}} t\Bigr \| \\ \leq \int _0^1 \| {\thinspace {\rm {D}}_{\gamma (t)}T_x (y_2-y_1)}\| \thinspace {\rm {d}} t \leq \int _0^1 \| {\thinspace {\rm {D}}_{\gamma (t)}T_x}\| _{\mathrm {op}} \| { (y_2-y_1)}\| \thinspace {\rm {d}} t \leq \tfrac {1}{2} \| {y_2 -y_1}\| .\end{aligned}
[/latex]

Sei nun [latex]\beta = \frac {\delta }{2}[/latex], [latex]V_0= B_\beta (y_0)[/latex] und [latex]Y=\overline {B_\beta (y_0)}[/latex]. Wir erhalten also, dass für jedes fest gewählte [latex]x \in B_{\delta }(x_0)[/latex] die eingeschränkte Abbildung (wieder mit [latex]T_x[/latex] bezeichnet)

[latex]
\begin{aligned}[]T_x:&Y \to \mathbb {R}^m\\ &y\mapsto T_x(y)=y-A^{-1}F_x(y),\end{aligned}
[/latex]

die eine Lipschitz-Kontraktion mit Lipschitz-Konstante [latex]\frac {1}{2}[/latex] ist. Um den Banachschen Fixpunktsatz anwenden zu können, müssen wir noch [latex]T_x(Y)\subseteq Y[/latex] zeigen.

Eine Selbstabbildung: Nach Stetigkeit von [latex]F[/latex] und wegen [latex]F(x_0,y_0) = 0[/latex] existiert ein [latex]\alpha \in (0,\delta )[/latex], so dass für alle [latex]x \in \overline {B_\alpha (x_0)}[/latex] die Abschätzung

[latex]
\begin{aligned}[]\| {T_x(y_0)-y_0}\| = \| {A^{-1}F(x,y_0)}\| [/latex]

gilt. Falls nun [latex]x \in \overline {B_\alpha (x_0)}[/latex] und [latex]y \in Y= \overline {B_\beta (y_0)}[/latex] sind, dann folgt
[latex]
\begin{aligned}[]\| {T_x(y)-y_0}\| &= \| {T_x(y) - T_x(y_0) + T_x(y_0)-y_0}\| \nonumber \\ &\leq \| {T_x(y) - T_x(y_0)}\| + \| {T_x(y_0)-y_0}\| \nonumber \\ &\leq \tfrac {1}{2} \| {y-y_0}\| + \tfrac {\beta }{3} \leq \tfrac {5}{6} \beta [/latex]
Für [latex]x \in \overline {B_\alpha (x_0)}[/latex] und den oben definierten und nach Proposition 9.52 vollständigen metrischen Raum [latex]Y=\overline {B_\beta (y_0)}[/latex] gilt daher [latex]T_x(Y)\subseteq Y[/latex]. Aus dem Banachschen Fixpunktsatz (Satz 9.54) folgt, dass es einen eindeutig bestimmten Punkt [latex]y\in Y[/latex] mit [latex]T_x(y)=y[/latex] gibt. Auf Grund von (11.2) gilt des Weiteren [latex]\| {y-y_0}\|

Definition der Lösungsfunktion

Zusammenfassend haben wir also gezeigt, dass es für jedes [latex]x \in \overline {B_\alpha (x_0)}[/latex] ein eindeutig bestimmtes [latex]y = y(x) \in \overline {B_\beta (y_0)}[/latex] mit [latex]F(x,y) = 0[/latex] gibt, welches zusätzlich auch [latex]y\in B_\beta (y_0)[/latex] erfüllt. Dies definiert somit eine Funktion [latex]f: \overline {B_\alpha (x_0)} \to B_\beta (y_0)[/latex] mit der Eigenschaft [latex]F(x,f(x)) = 0[/latex] für alle [latex]x \in \overline {B_\alpha (x_0)}[/latex].

Stetigkeit der Lösungsfunktion: Um die Stetigkeit von [latex]f[/latex] zu zeigen, wiederholen wir obiges Argument für alle [latex]x \in \overline {B_\alpha (x_0)}[/latex] «gleichzeitig» . Wir betrachten dazu die Teilmenge

[latex]
\begin{aligned}[]\tilde {Y} = \left \lbrace {g: \overline {B_\alpha (x_0)} \to Y} \mid {g \text { ist stetig}}\right \rbrace \subseteq C(\overline {B_\alpha (x_0)},\mathbb {R}^m).\end{aligned}
[/latex]

Nach Satz 9.86 ist [latex]C(\overline {B_\alpha (x_0)},\mathbb {R}^m)[/latex] ausgestattet mit der Supremumsnorm

[latex]
\begin{aligned}[]\| {g}\| _\infty = \sup _{x \in \overline {B_\alpha (x_0)}} \| {g(x)}\|\end{aligned}
[/latex]

ein vollständiger metrischer Raum. Da [latex]Y[/latex] abgeschlossen ist, folgt des Weiteren, dass [latex]\tilde {Y}[/latex] als abgeschlossene Teilmenge ebenso vollständig ist. (Wieso?)

Zu einer Funktion [latex]g \in \tilde {Y}[/latex] definieren wir nun die Funktion

[latex]
\begin{aligned}[]\tilde {T}g: x \in \overline {B_\alpha (x_0)} \mapsto T_x(g(x)) = g(x) - A^{-1} F(x,g(x)),\end{aligned}
[/latex]

welche auf Grund der Stetigkeit von [latex]g \in \tilde {Y}[/latex] und [latex]F[/latex] wiederum stetig ist. Für [latex]g \in \tilde {Y}[/latex] gilt nach Definition [latex]\| {g(x)-y_0}\| \leq \beta[/latex] für alle [latex]x \in \overline {B_\alpha (x_0)}[/latex] und somit gilt auf Grund von (11.2) auch [latex]\| {\tilde {T}g(x)-y_0}\|

[latex]
\begin{aligned}[]\| {(\tilde {T}g_1-\tilde {T}g_2)(x)}\| = \| {T_x (g_1(x)) - T_x (g_2(x))}\| \leq \tfrac {1}{2} \| {g_1(x)-g_2(x)}\| \leq \tfrac {1}{2} \| {g_1-g_2}\| _\infty ,\end{aligned}
[/latex]

da [latex]T_x[/latex] Lipschitz-stetig ist mit Lipschitz-Konstante [latex]\tfrac {1}{2}[/latex].

Dies zeigt, dass [latex]\tilde {T}: \tilde {Y} \to \tilde {Y}[/latex] eine Lipschitz-Kontraktion auf einem vollständigen metrischen Raum darstellt und damit nach dem Banachschen Fixpunktsatz einen eindeutig bestimmten Fixpunkt besitzt. Sei [latex]y = \tilde {T}y[/latex] dieser Fixpunkt. Dann ist [latex]y[/latex] stetig und für alle [latex]x \in \overline {B_\alpha (x_0)}[/latex] gilt [latex]y(x) = \tilde {T}y(x) = T_x(y(x)) \in B_\beta (y_0)[/latex], wodurch [latex]y(x) = f(x)[/latex] die eindeutige Lösung der Gleichung [latex]F(x,y) = 0[/latex] mit [latex]y \in \overline {B_\beta (y_0)}[/latex] sein muss. ∎

Wie wir in obigem Satz gesehen haben, «erbt» die Lösungsfunktion [latex]f[/latex] die Stetigkeitseigenschaft von der Funktion [latex]F[/latex], die die implizite Gleichung definiert. Wir möchten nun zeigen, dass dasselbe auch für Differenzierbarkeit zutrifft.

Satz 11.2: Differenzierbarkeit der lokalen Lösungsfunktion

Seien [latex]r > 0[/latex], [latex]x_0 \in \mathbb {R}^n[/latex], [latex]y_0 \in \mathbb {R}^m[/latex] und [latex]F: B_r(x_0) \times B_r(y_0)\to \mathbb {R}^m[/latex] mit den Eigenschaften aus Satz 11.1 und sei [latex]f: U_0 \to V_0[/latex] die stetige lokale Lösungsfunktion aus Satz 11.1. Angenommen [latex]F[/latex] ist [latex]d[/latex]-mal stetig differenzierbar für [latex]d \geq 1[/latex]. Dann ist die stetige Lösungsfunktion [latex]f[/latex] ebenso [latex]d[/latex]-mal stetig differenzierbar und die Ableitung von [latex]f[/latex] bei [latex]x \in U_0[/latex] ist durch
[latex]
\begin{aligned}[]\label{eq:impl-diffimplfctthm} \thinspace {\rm {D}}_x f = - ((\pmb {\partial }_{{y}} F)(x,f(x)))^{-1} (\pmb {\partial }_{{x}} F)(x,f(x))\end{aligned}
[/latex]
gegeben.

Dabei bezeichnet [latex]\pmb {\partial }_{{x}} F(x,y)[/latex] die Matrix der partiellen Ableitungen von [latex]F[/latex] in den Koordinatenrichtungen der Variable [latex]x \in B_r(x_0)[/latex] ausgewertet an der Stelle [latex](x,y)[/latex], das heisst,

[latex]
\begin{aligned}[]\pmb {\partial }_{{x}} F(x,y) = \big (\partial _{x_{j}} F_i(x,y)\big )_{ij} \in \operatorname {Mat}_{m,n}(\mathbb {R}).\end{aligned}
[/latex]

Alternativ könnte man, konform mit unserer bisherigen Notation, auch schreiben

[latex]
\begin{aligned}[]\pmb {\partial }_{{x}} F(x,y) = \thinspace {\rm {D}}_x(F(\cdot ,y)),\end{aligned}
[/latex]

womit also [latex]\pmb {\partial }_{{x}} F(x,y)[/latex] die Ableitung nach [latex]x[/latex] unter Festhalten von [latex]y[/latex] an der Stelle [latex](x,y)[/latex] bezeichnet. Analog ist [latex]\pmb {\partial }_{{y}} F(x,y)[/latex] die Ableitung nach [latex]y[/latex] unter Festhalten von [latex]x[/latex] an der Stelle [latex](x,y)[/latex]

[latex]
\begin{aligned}[]\pmb {\partial }_{{y}} F(x,y) = \big (\partial _{y_{j}} F_i(x,y)\big )_{ij} \in \operatorname {Mat}_{m,m}(\mathbb {R}).\end{aligned}
[/latex]

Wir bemerken noch, dass a priori die Existenz der Inversen dieser Matrix an der Stelle [latex](x,f(x))[/latex] nicht klar ist und im Beweis unten nachgewiesen wird.

Falls bereits bekannt wäre, dass [latex]f[/latex] in der Tat differenzierbar ist, so würde (11.3) auch aus der Kettenregel folgen. Um dies zu sehen, nehmen Sie zuerst [latex]m=n=1[/latex] an und wenden die Kettenregel auf [latex]F(x,f(x))=0[/latex] an. Der allgemeine Fall ist bloss in der Notation schwieriger.

Beispiel 11.3: Zum Differential der impliziten Funktion

  1. Der Einheitskreis [latex]\mathbb {S}^1[/latex] in [latex]\mathbb {R}^2[/latex] ist definiert durch die Gleichung [latex]x^2+y^2=1[/latex]. Nahe jedem Punkt [latex](x_0,y_0)\in \mathbb {S}^1[/latex] mit [latex]x_0\neq 0[/latex] ist diese Gleichung nach der Variablen [latex]x[/latex] auflösbar und für die so definierte implizite Funktion [latex]x=x(y)[/latex] erhalten wir durch Ableiten der definierenden Gleichung nach [latex]y[/latex] und Auswerten im Punkt [latex](x_0,y_0)[/latex]
    [latex]
    \begin{aligned}[]2x_0x'(y_0)+2y_0=0,\end{aligned}
    [/latex]

    also [latex]x'(y_0)=-\frac {y_0}{x_0}[/latex].

  2. Die Funktion [latex]F\colon \mathbb {R}^4\to \mathbb {R}^2[/latex] sei definiert durch
    [latex]
    \begin{aligned}[]F(x,y,z,w)=\begin{pmatrix}x^2+y+z-2\\ y-2z+w^3\end{pmatrix}\end{aligned}
    [/latex]

    für [latex](x,y,z,w)^t\in \mathbb {R}^4[/latex]. Wir wollen die Auflösbarkeit der Gleichung [latex]F(x,y,z,w)=0[/latex] in einer Umgebung des Punktes [latex](x_0,y_0,z_0,w_0)=(0,1,1,1)[/latex] untersuchen. Dazu betrachten wir das Differential

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{(x_0,y_0,z_0,w_0)}F=\begin{pmatrix}0&1&1&0\\ 0&1&-2&3\end{pmatrix}.\end{aligned}
    [/latex]

    Der Satz über implizite Funktionen besagt nun, dass wir die Gleichung [latex]F(x,y,z,w)=0[/latex] nahe [latex](x_0,y_0,z_0,w_0)[/latex] nach zwei der Variablen [latex]x,y,z,w[/latex] auflösen können, sofern die [latex]2\times 2[/latex]-Teilmatrix obigen Differentials bestehend aus den zu diesen Variablen gehörigen partiellen Ableitungen invertierbar ist. Zum Beispiel ist dies der Fall für das Variablenpaar [latex]y[/latex] und [latex]w[/latex], da die Teilmatrix [latex](\begin{smallmatrix}1&0\\ 1&3\end{smallmatrix})[/latex] bestehend aus der 2. und 4. Spalte invertierbar ist. Die Ableitung der so definierten impliziten Funktionen [latex]y=y(x,z)[/latex] und [latex]w=w(x,z)[/latex] in [latex](x_0,z_0)=(0,1)[/latex] ist gemäss der Formel in Satz 11.2 dann gegeben durch

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{(x_0,z_0)}\begin{pmatrix}y\\ w\end{pmatrix}=-\begin{pmatrix}1&0\\ 1&3\end{pmatrix}^{-1}\begin{pmatrix}0&1\\ 0&-2\end{pmatrix}=\begin{pmatrix}0&-1\\ 0&1\end{pmatrix}.\end{aligned}
    [/latex]
Beweis von Satz 11.2

Nach Annahme in Satz 11.1 ist [latex]A = \thinspace {\rm {D}}_{y_0}F_{x_0}[/latex] invertierbar, wobei wir wieder die Notation [latex]F_{x_0}(y) = F(x_0,y)[/latex] für [latex]y \in B_r(y_0)[/latex] aus dem Beweis von Satz 11.1 verwenden. Seien weiter [latex]T_x[/latex], [latex]\delta > 0[/latex] mit [latex]\| {\thinspace {\rm {D}}_y T_x}\| \leq \frac {1}{2}[/latex] für alle [latex](x,y) \in B_\delta (x_0) \times B_{\delta }(y_0)[/latex] sowie [latex]\alpha[/latex] und [latex]\beta[/latex] ebenso wie im letzten Beweis. Dann gilt [latex]\thinspace {\rm {D}}_y T_x = I_m - A^{-1} (\thinspace {\rm {D}}_y F_x)[/latex] und dadurch auch

[latex]
\begin{aligned}[]A^{-1}(\thinspace {\rm {D}}_yF_x) = I_m - \thinspace {\rm {D}}_y T_x\end{aligned}
[/latex]

für alle [latex](x,y) \in B_\delta (x_0) \times B_{\delta }(y_0)[/latex]. Daraus folgt (siehe Übung 11.4), dass [latex]A^{-1}(\thinspace {\rm {D}}_yF_x)[/latex] invertierbar ist und

[latex]
\begin{aligned}[]\big (A^{-1}(\thinspace {\rm {D}}_yF_x) \big )^{-1} = \big (I_m - \thinspace {\rm {D}}_y T_x\big )^{-1} = \sum _{j=0}^\infty (\thinspace {\rm {D}}_yT_x)^{j}.\end{aligned}
[/latex]

Insbesondere ist [latex]\pmb {\partial }_{{y}} F(x,y)=\thinspace {\rm {D}}_yF_x = A(A^{-1}(\thinspace {\rm {D}}_yF_x))[/latex] für alle [latex](x,y) \in B_\delta (x_0) \times B_{\delta }(y_0)[/latex] als Produkt invertierbarer Matrizen invertierbar. Da [latex]\alpha ,\beta \in (0,\delta )[/latex] sind und [latex]f(B_\alpha (x_0)) \subseteq B_\beta (y_0)[/latex] ebenso in [latex]B_\delta (y_0)[/latex] enthalten ist, folgt insbesondere, dass der Ausdruck

[latex]
\begin{aligned}[]\big (\pmb {\partial }_{{y}} F(x,f(x))\big )^{-1} = \big (\thinspace {\rm {D}}_{f(x)}F_x\big )^{-1}\end{aligned}
[/latex]

in (11.3) für alle [latex]x \in B_\alpha (x_0)[/latex] definiert ist.

Um Differenzierbarkeit von [latex]f[/latex] und (11.3) zu beweisen, fixieren wir [latex]x \in B_\alpha (x_0)[/latex] und definieren [latex]A_x = \pmb {\partial }_{{y}} F(x,f(x))[/latex] sowie [latex]L_x= -A_x^{-1}\pmb {\partial }_{{x}} F(x,f(x))[/latex]. Für genügend kleine [latex]h \in \mathbb {R}^n[/latex] mit [latex]x+h[/latex] in [latex]B_\alpha (x_0)[/latex] erhalten wir damit

[latex]
\begin{aligned}[]\| f(x+h)-f(x)-L_x(h)\| = \| {f(x+h)-f(x)+A_x^{-1}\pmb {\partial }_{{x}} F(x,f(x)) h}\| \\ \leq \| {A_x^{-1}}\| _{\mathrm {op}} \| {\pmb {\partial }_{{x}} F(x,f(x))h + \pmb {\partial }_{{y}} F(x,f(x))(f(x+h)-f(x))}\| ,\end{aligned}
[/latex]

wobei wir [latex]A_x^{-1}[/latex] herausgehoben haben und die Definition der Matrixnorm verwendeten. Wir bemerken nun, dass der Ausdruck [latex]\pmb {\partial }_{{x}} F(x,f(x))h + \pmb {\partial }_{{y}} F(x,f(x)(f(x+h)-f(x))[/latex] genau die totale Ableitung von [latex]F[/latex] in [latex](x,f(x))[/latex] angewendet auf den Vektor [latex]\Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}h \\ f(x+h)-f(x)\end{matrix}}}\Big )[/latex] ist. Als nächstes ändern wir das Vorzeichen dieses Terms innerhalb der Norm und fügen die Funktionswerte von [latex]F[/latex] bei [latex]\Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}x \\ f(x)\end{matrix}}}\Big )[/latex] beziehungsweise [latex]\Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}x+h \\ f(x+h)\end{matrix}}}\Big )[/latex] hinzu. Dies führt zu
[latex]
\begin{aligned}[]\| f(x+h)&-f(x)-L_x(h)\| \nonumber \\ &\leq \| {A_x^{-1}}\| _{\mathrm {op}} \Big \| \underset {=0}{ \underbrace {F\Big (\Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}x+h \\ f(x+h)\end{matrix}}}\Big )\Big )}} - \underset {=0}{ \underbrace {F\Big (\Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}x \\ f(x)\end{matrix}}}\Big )\Big )}} - \thinspace {\rm {D}}_{(x,f(x))}F \Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}h \\ f(x+h)-f(x)\end{matrix}}}\Big )\Big \| \nonumber \\ &\leq \| {A_x^{-1}}\| _{\mathrm {op}}\ \alpha (h)\ \Big \| \Big ({\scriptsize \arraycolsep =0.3\arraycolsep \ensuremath {\begin{matrix}h \\ f(x+h)-f(x)\end{matrix}}}\Big )\Big \| \nonumber \\ &\leq \| {A_x^{-1}}\| _{\mathrm {op}} \ \alpha (h)\ \big ( \| {h}\| + \| {f(x+h)-f(x)}\| \big )\label{eq:impl-diffimplfctthmproof}\end{aligned}
[/latex]
mit [latex]\alpha (h) = o(1)[/latex] für [latex]h \to 0[/latex], da [latex]F[/latex] bei [latex](x,f(x))[/latex] differenzierbar ist und [latex]f[/latex] stetig ist. Dies wäre die gewünschte Abschätzung für die Differenzierbarkeit von [latex]f[/latex], wenn rechts nicht der Term [latex]\| {f(x+h)-f(x)}\|[/latex] auftauchen würde. Wir können diesen jedoch mit einer kleinen Rechnung loswerden, wozu wir [latex]a = \| {A_x^{-1}}\| _{\mathrm {op}}[/latex] und [latex]b= \| {L_x}\| _{\mathrm {op}}[/latex] setzen, um den Fokus auf das Wesentliche zu lenken. Es gilt

[latex]
\begin{aligned}[]\| {f(x+h)-f(x)}\| &= \| {f(x+h)-f(x)-L_x(h) + L_x(h)}\| \\ &\leq \| {f(x+h)-f(x)-L_x(h)}\| + \| {L_x(h)}\| \\ &\leq a \alpha (h) \big ( \| {h}\| + \| {f(x+h)-f(x)}\| \big ) + b \| {h}\|\end{aligned}
[/latex]

und daher auch

[latex]
\begin{aligned}[]\big ( 1- a \alpha (h) \big ) \| {f(x+h)-f(x)}\| \leq \big ( a\alpha (h)+b \big ) \| {h}\| .\end{aligned}
[/latex]

Da [latex]\alpha (h) = o(1)[/latex] für [latex]h \to 0[/latex], gibt es nun ein [latex]\rho \in (0,1)[/latex] klein genug, so dass [latex]a \alpha (h)\leq \frac {1}{2}[/latex] für alle [latex]h \in B_\rho (0)[/latex]. Damit ergibt sich [latex]1- a \alpha (h) \geq \frac {1}{2}[/latex] und

[latex]
\begin{aligned}[]\| {f(x+h)-f(x)}\| \leq 2 \big ( a \alpha (h) + b \big ) \| {h}\| \leq c \| {h}\|\end{aligned}
[/latex]

für [latex]c = 2 ( \frac {1}{2} +b)[/latex]. Wir setzen dies in (11.4) ein und erhalten

[latex]
\begin{aligned}[]\| f(x+h)-f(x)-L_x(h)\| \leq a \alpha (h) (1+c) \| {h}\|\end{aligned}
[/latex]

für [latex]h \in B_\rho (0)[/latex]. Da [latex]\alpha (h) = o(1)[/latex] für [latex]h \to 0[/latex], ergibt dies die Differenzierbarkeit von [latex]f[/latex] sowie die Gleichung (11.3) für jedes [latex]x \in B_\alpha (x_0)[/latex].

Sei nun [latex]F[/latex] zweimal stetig differenzierbar. Nach Gleichung (11.3) gilt, dass die partiellen Ableitungen von [latex]f[/latex] sich durch die Inversenbildung einer invertierbaren Matrix und den ersten partiellen Ableitungen von [latex]F[/latex] ausgewertet bei [latex](x,f(x))[/latex] ausdrücken lassen. Wir bemerken, dass die Einträge der Inverse einer Matrix sich wiederum durch ein Polynom in den Einträgen der Matrix und der Inversen der Determinante ausdrücken lassen (nach der Cramer’schen Regel). Das heisst, die partiellen Ableitungen lassen sich als Summen von Produkten darstellen, wobei jeder Faktor entweder der Kehrwert von [latex]h(x) = \det \big (\pmb {\partial }_{{y}} F(x,f(x))\big )[/latex] ist oder eine erste partiellen Ableitung von [latex]F[/latex] ausgewertet bei [latex](x,f(x))[/latex] ist. Da wir bereits wissen, dass [latex]f[/latex] differenzierbar ist mit stetiger Ableitung, können wir nun diese partiellen Ableitungen nochmals ableiten: Summen von Produkten werden von einer partiellen Ableitung wieder auf Summen von Produkten abgebildet, wobei die Faktoren entweder unverändert bleiben oder diese partiell abgeleitet werden. Nach der Kettenregel hat aber jede partielle Ableitung von [latex]F[/latex] ausgewertet bei [latex](x,f(x))[/latex] wieder eine stetige partielle Ableitung (da ja [latex]f[/latex] stetig differenzierbar ist). Dieses Argument gilt ebenso für [latex]h(x)[/latex] und es folgt, dass die partielle Ableitung von [latex]h(x)^{-1}[/latex] gleich [latex]-h(x)^{-2}[/latex] mal der partiellen Ableitung von [latex]h(x)[/latex] ist. Es folgt also, dass jede zweite partielle Ableitung existiert und als eine Summe von Produkten dargestellt werden kann, wobei die Faktoren entweder eine Potenz von [latex]h^{-1}[/latex], erste oder zweite partielle Ableitungen von [latex]F[/latex] ausgewertet bei [latex](x,f(x))[/latex] sind.

Mit Induktion nach [latex]d[/latex] ergibt sich dieselbe Aussage für alle partiellen Ableitungen bis zur Ordnung [latex]d[/latex], da [latex]F[/latex] als [latex]d[/latex]-mal stetig differenzierbar vorausgesetzt wurde. ∎

Die obigen beiden Sätze zur impliziten Funktion (Satz 11.1 und Satz 11.2) hatten eher lange Beweise. Doch werden wir sehen, dass im restlichen Kapitel diese als wichtige Grundlage dienen und alle weitere Diskussionen dadurch viel einfacher werden.

Übung 11.4: Geometrische Reihe von Matrizen

Es bezeichne [latex]\| {\cdot }\| _{\mathrm {op}}[/latex] die Matrixnorm (siehe Definition 9.75).

  1. Zeigen Sie, dass für [latex]B \in \operatorname {Mat}_{m,m}(\mathbb {R})[/latex] mit [latex]\| {B}\| _{\mathrm {op}} [latex]
    \begin{aligned}[](I_m-B)^{-1} = \sum _{j=0}^\infty B^j.\end{aligned}
    [/latex]

Die Reihe [latex]\sum _{j=0}^\infty B^j[/latex] ist dabei als Grenzwert der Folge [latex]\big (\sum _{j=0}^n B^j\big )_n[/latex] aufzufassen; ein Teil der Aussage ist also, dass diese Folge konvergiert (unter den getroffenen Annahmen).

  • Zeigen Sie, dass die Menge der invertierbaren Matrizen in [latex]\operatorname {Mat}_{m,m}(\mathbb {R})[/latex] offen ist und dass zu [latex]B \in \operatorname {GL}_m(\mathbb {R})[/latex] jedes [latex]C \in \operatorname {Mat}_{m,m}(\mathbb {R})[/latex] mit [latex]\| {C-B}\| _{\mathrm {op}}

    11.1.2 – Satz zur inversen Abbildung

    Wir möchten nun die Differenzierbarkeit der inversen Abbildung vom eindimensionalen Fall in Satz 7.14 auf Abbildungen [latex]f:U\subseteq \mathbb {R}^n \to f(U)\subseteq \mathbb {R}^n[/latex] verallgemeinern. Wie zu Beginn dieses Abschnitts erwähnt wurde, werden wir dazu den Satz der impliziten Funktion (Satz 11.2) verwenden.

    Satz 11.5: Satz zur inversen Abbildung

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] offen und [latex]f: U \to \mathbb {R}^n[/latex] eine [latex]d[/latex]-mal stetig differenzierbare Funktion mit [latex]d \geq 1[/latex]. Sei [latex]x_0 \in U[/latex] mit invertierbarer totaler Ableitung [latex]\thinspace {\rm {D}}_{x_0}f \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] (das heisst, [latex]x_0[/latex] ist ein regulärer Punkt von [latex]f[/latex]). Dann gibt es eine offene Umgebung [latex]U_0 \subseteq U[/latex] und eine offene Umgebung [latex]V_0 \subseteq f(U)[/latex] von [latex]y_0 = f(x_0)[/latex], so dass [latex]f|_{U_0}: U_0 \to V_0[/latex] bijektiv ist und die Umkehrabbildung ebenso [latex]d[/latex]-mal stetig differenzierbar ist. Des Weiteren gilt

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{y}(f^{-1}) = ( \thinspace {\rm {D}}_xf)^{-1}\end{aligned}
    [/latex]

    für alle [latex]x \in U_0[/latex] und [latex]y = f(x) \in V_0[/latex].

    Die zentrale Bedingung in obigem Satz ist wohlgemerkt die Invertierbarkeit der totalen Ableitung bei [latex]x_0[/latex]. Diese verallgemeinert die zentrale Annahme in Satz 7.14, wo verlangt wurde, dass die Ableitung nicht verschwindet.

    Satz 11.5 wird es uns in gewissen Fällen auch erlauben, eine globale Inverse zu finden.

    Definition 11.6: Diffeomorphismus

    Seien [latex]U,V \subseteq \mathbb {R}^n[/latex] offen. Eine bijektive, glatte Funktion [latex]f: U \to V[/latex] mit glatter Inversen [latex]f^{-1}: V \to U[/latex] wird ein (glatter) Diffeomorphismus genannt. Sind [latex]f[/latex] und [latex]f^{-1}[/latex] jeweils bloss [latex]d[/latex]-mal stetig differenzierbar für [latex]d \geq 1[/latex], so nennen wir [latex]f[/latex] einen [latex]C^d[/latex]-Diffeomorphismus.

    Satz 11.5 besagt also auch, dass eine glatte Funktion bei einem regulären Punkt lokal ein Diffeomorphismus auf eine offene Teilmenge im Bild ist.

    Beweis von Satz 11.5

    Sei [latex]r > 0[/latex] ein Radius mit [latex]B_r(x_0) \subseteq U[/latex]. Wir definieren [latex]F:B_r(x_0) \times B_r(y_0) \to \mathbb {R}^n[/latex] durch

    [latex]
    \begin{aligned}[]F(x,y) = f(x)-y\end{aligned}
    [/latex]

    für [latex](x,y) \in B_r(x_0) \times B_r(y_0)[/latex] und wir wollen die Gleichung [latex]F(x,y) = 0[/latex] nach [latex]x[/latex] auflösen. Hierzu bemerken wir, dass [latex]F[/latex] [latex]d[/latex]-mal stetig differenzierbar ist, dass [latex]F(x_0,y_0) = 0[/latex] ist und dass [latex]\pmb {\partial }_{{x}} F(x_0,y_0) = \thinspace {\rm {D}}_{x_0}f[/latex] per Annahme invertierbar ist. Daher erfüllt [latex]F[/latex] alle Voraussetzungen des Satzes über implizite Funktionen (Satz 11.1 und Satz 11.2, wobei [latex]x[/latex] und [latex]y[/latex] vertauschte Rollen einnehmen). Es folgt, dass es Radien [latex]\alpha ,\beta \in (0,r)[/latex] und eine [latex]d[/latex]-mal stetig differenzierbare Funktion [latex]g: V_0 = B_\beta (y_0) \to \tilde {U} = B_\alpha (x_0)[/latex] gibt, sodass für alle [latex](x,y) \in \tilde {U} \times V_0[/latex] die Äquivalenzen
    [latex]
    \begin{aligned}[]\label{eq:impl-proofinvfctthm1} y = f(x) \iff F(x,y) = 0 \iff x = g(y)\end{aligned}
    [/latex]
    gelten. Wir definieren [latex]U_0 = \tilde {U} \cap f^{-1}(V_0)[/latex], welche als Durchschnitt zweier offener Mengen (siehe Proposition 9.37) wieder offen ist. Aus (11.5) folgt nun, dass [latex]f|_{U_0}: U_0 \to V_0[/latex] invertierbar ist (und insbesondere [latex]V_0 \subseteq f(U)[/latex] ist) und dass [latex]g = (f|_{U_0})^{-1}: V_0 \to U_0[/latex] die inverse Abbildung ist.

    Aus Satz 11.2 folgt weiters, dass [latex]g[/latex] [latex]d[/latex]-mal stetig differenzierbar ist und dass für [latex]x \in U_0[/latex] und [latex]y = f(x) \in V_0[/latex]

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_yg=(\thinspace {\rm {D}}_xf)^{-1}\end{aligned}
    [/latex]

    (was auch aus der Kettenregel und [latex]g\circ f|_{U_0}=I_{U_0}[/latex] folgt). Dies beendet den Beweis des Satzes. ∎

    Übung 11.7

    Verwenden Sie den Satz zur inversen Abbildung (Satz 11.5), um den Satz zur impliziten Abbildung (Satz 11.1 und Satz 11.2) zu beweisen.

    Hinweis.

    Betrachten Sie für eine Gleichung [latex]F(x,y) = 0[/latex] die Funktion [latex]f(x,y)=(x,F(x,y))[/latex] auf geeigneten Teilmengen.

    Wir wollen hier noch betonen, dass obiger Existenzsatz für inverse Abbildungen wirklich nur eine lokale Aussage liefert. In mehr als einer Dimension gibt es kein lokales Kriterium für die Injektivität einer Abbildung [latex]f: U \to V[/latex] (im Gegensatz zur Kombination von Korollar 7.35 und Satz 3.65). Beispielsweise ist die komplexe Exponentialabbildung [latex]\exp : \mathbb {C} \to \mathbb {C}[/latex] lokal injektiv, aber nicht injektiv (selbiges gilt auch für die Polarkoordinatenabbildung [latex](r,\varphi ) \in (0,\infty ) \times \mathbb {R} \mapsto (r\cos \varphi ,r \sin \varphi ) \in \mathbb {R}^2[/latex]). Können wir Injektivität aus anderen Überlegungen erhalten, so kann der Satz der inversen Abbildung (Satz 11.5) trotzdem global nützlich sein.

    Korollar 11.8: Kriterium für Diffeomorphie

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] offen und sei [latex]f: U \to \mathbb {R}^n[/latex] eine [latex]d[/latex]-mal stetig differenzierbare, injektive Funktion mit [latex]d \geq 1[/latex]. Angenommen jeder Punkt [latex]x \in U[/latex] hat die Eigenschaft, dass [latex]\thinspace {\rm {D}}_xf[/latex] invertierbar ist (oder in anderen Worten: jeder Punkt in [latex]U[/latex] ist regulär). Dann ist [latex]V = f(U) \subseteq \mathbb {R}^n[/latex] offen und [latex]f: U \to V[/latex] ist ein [latex]C^d[/latex]-Diffeomorphismus mit

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{y}(f^{-1}) = ( \thinspace {\rm {D}}_xf)^{-1}\end{aligned}
    [/latex]

    für alle [latex]x \in U[/latex] und [latex]y = f(x) \in V[/latex].

    Beweis

    Wir zeigen zuerst, dass [latex]V = f(U)[/latex] offen ist. Sei also [latex]y_0 = f(x_0)[/latex] für ein [latex]x_0 \in U[/latex]. Da [latex]\thinspace {\rm {D}}_{x_0} f[/latex] invertierbar ist, können wir den Satz der inversen Abbildung (Satz 11.5) anwenden und erhalten offene Umgebungen [latex]U_0[/latex] von [latex]x_0[/latex] und [latex]V_0[/latex] von [latex]y_0[/latex], so dass [latex]f|_{U_0}: U_0 \to V_0[/latex] ein Diffeomorphismus ist. Insbesondere ist [latex]V_0 = f(U_0) \subseteq f(U) = V[/latex], womit [latex]V[/latex] offen ist, da [latex]y_0 \in V[/latex] beliebig war (eine beliebige Vereinigung offener Mengen ist offen). Des Weiteren stimmt [latex](f|_{U_0})^{-1}: V_0 \to U_0[/latex] mit [latex]f^{-1}|_{V_0}: V_0 \to U_0[/latex] überein, wobei [latex]f^{-1}: V \to U[/latex] auf Grund der vorausgesetzten Injektivität existiert.

    Wir erhalten, dass [latex]f^{-1}[/latex] auf [latex]V_0[/latex] also [latex]d[/latex]-mal stetig differenzierbar ist. Da [latex]y_0\in V[/latex] allerdings beliebig war und da stetige Differenzierbarkeit eine lokale Eigenschaft ist, zeigt dies, dass [latex]f^{-1}[/latex] [latex]d[/latex]-mal stetig differenzierbar ist. Somit ist [latex]f: U \to V[/latex] ein [latex]C^d[/latex]-Diffeomorphismus. ∎

    Beispiel 11.9

    Wir betrachten hier die Abbildung

    [latex]
    \begin{aligned}[]f: \mathbb {R}^2 \to \mathbb {R}^2,\quad (x,y)^t \mapsto (x+y^2,y+x^2)^t\end{aligned}
    [/latex]

    und wollen geeignete offene Mengen [latex]U \subseteq \mathbb {R}^2[/latex], [latex]V \subseteq \mathbb {R}^2[/latex] finden, so dass [latex]f|_U : U \to V[/latex] ein Diffeomorphismus ist. Die Jacobi-Matrix von [latex]f[/latex] bei [latex](x,y)^t \in \mathbb {R}^2[/latex] ist durch

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{(x,y)} f = \begin{pmatrix}1 & 2y \\ 2x & 1\end{pmatrix}\end{aligned}
    [/latex]

    gegeben und deren Determinante (auch Jacobi-Determinante genannt) ist durch [latex]1-4xy[/latex] gegeben. Das heisst, für alle Punkte [latex](x,y)^t \in \mathbb {R}^2[/latex], die nicht auf der Hyperbel [latex]xy = \frac {1}{4}[/latex] liegen, existiert nach dem Satz über die inverse Abbildung (Satz 11.5) eine Umgebung, so dass [latex]f[/latex] eingeschränkt auf diese Umgebung ein Diffeomorphismus auf eine andere offene Menge ist. Wir wollen hier aber das Quadrat [latex]U = (-\frac {1}{2},\frac {1}{2}) \times (-\frac {1}{2},\frac {1}{2})[/latex] zwischen den beiden Punkten [latex](-\frac {1}{2},-\frac {1}{2})[/latex] und [latex](\frac {1}{2},\frac {1}{2})[/latex] auf der Hyperbel betrachten.

    Wir behaupten, dass [latex]f|_U[/latex] injektiv ist. Aus dieser Behauptung und Korollar 11.8 folgt dann, dass [latex]f|_U : U \to f(U)[/latex] ein Diffeomorphismus ist, da die Jacobi-Matrix auf [latex]U[/latex] nicht-verschwin­den­de Determinante besitzt.

    Seien also [latex](x_1,y_1),(x_2,y_2) \in U[/latex] mit [latex]f(x_1,y_1) = f(x_2,y_2)[/latex]. Dann gilt

    [latex]
    \begin{aligned}[]\left . \begin{array}{c} x_1+ y_1^2 = x_2 + y_2^2 \\ y_1 + x_1^2 = y_2 + x_2^2\end{array} \right \rbrace \implies \begin{array}{l} |x_1-x_2| = |y_2^2-y_1^2| = |y_1-y_2||y_1+y_2| \\ |y_1-y_2| = |x_2^2-x_1^2| = |x_1-x_2||x_1+x_2|\end{array}\end{aligned}
    [/latex]

    Da aber [latex]|x_1+x_2|

    Da die Jacobi-Matrix nur auf der Hyperbel [latex]xy=\frac 14[/latex] verschwindet, könnte man vermuten, dass obige Wahl von [latex]U[/latex] als Definitionsbereichs des Diffeomorphismus nicht optimal ist und man diesen deutlich vergrössern könnte. Doch ebenso wie bei den Polarkoordinaten gibt es keine natürliche maximale Wahl des Definitionsbereichs, da zum Beispiel [latex]f(1,0)=(1,1)^t=f(0,1)[/latex] und die Punkte [latex](1,0)^t[/latex], [latex](0,1)^t[/latex] in derselben Zusammenhangskomponente des Komplements der Hyperbel liegen.

    11.1.3 – Polar- und Zylinderkoordinaten

    Die Polarkoordinatenabbildung ist durch

    [latex]
    \begin{aligned}[]f: (0,\infty ) \times (-\pi ,\pi ) &\to \mathbb {R}^2 \setminus ((-\infty ,0] \times \left \lbrace {0} \right \rbrace ) \\ (r,\varphi ) &\mapsto \begin{pmatrix}r\cos \varphi \\ r\sin \varphi \end{pmatrix}\end{aligned}
    [/latex]

    definiert und bildet einen Diffeomorphismus. In der Tat ist [latex]f[/latex] bijektiv (nach Abschnitt 6.6.4) und hat bei [latex](r,\varphi ) \in (0,\infty ) \times (-\pi ,\pi )[/latex] die Jacobi-Matrix

    [latex]
    \begin{aligned}[]\begin{pmatrix}\cos \varphi & -r\sin \varphi \\ \sin \varphi & r \cos \varphi \end{pmatrix}\end{aligned}
    [/latex]

    mit Determinante [latex]r \neq 0[/latex], womit nach Korollar 11.8 die Abbildung [latex]f[/latex] ein Diffeomorphismus ist.

    Des Weiteren kann man natürlich [latex]f[/latex] auch auf den Punkten in [latex]\left \lbrace {0} \right \rbrace \times \mathbb {R}[/latex] durch [latex](0,0)^t[/latex] definieren, doch wäre [latex]f[/latex] bei diesen nicht lokal invertierbar.

    Eine dreidimensionale Verallgemeinerung der Polarkoordinaten stellen die Zylinderkoordinaten dar. Die entsprechende Abbildung ist der Diffeomorphismus

    [latex]
    \begin{aligned}[]f: (0,\infty ) \times (-\pi ,\pi )\times \mathbb {R} &\to \mathbb {R}^3 \setminus ((-\infty ,0] \times \left \lbrace {0} \right \rbrace \times \mathbb {R}) \\ (r,\varphi ,z) &\mapsto \begin{pmatrix}r\cos \varphi \\ r\sin \varphi \\ z\end{pmatrix}\end{aligned}
    [/latex]

    mit Jacobi-Matrix

    [latex]
    \begin{aligned}[]\begin{pmatrix}\cos \varphi & -r\sin \varphi & 0 \\ \sin \varphi & r \cos \varphi & 0\\ 0 & 0 & 1\end{pmatrix}\end{aligned}
    [/latex]

    und Jacobi-Determinante [latex]r[/latex] bei [latex](r,\varphi ,z) \in (0,\infty ) \times (-\pi ,\pi )\times \mathbb {R}[/latex].

    11.1.4 – Kugelkoordinaten

    Eine weitere Verallgemeinerung der Polarkoordinaten für den dreidimensionalen Raum stellen die Kugelkoordinaten dar. Hier werden ein Radius [latex]r \in (0,\infty )[/latex] und zwei Winkel [latex]\theta \in (0,\pi )[/latex], [latex]\varphi \in (-\pi ,\pi )[/latex] verwendet, wobei [latex]\theta[/latex] den Winkel eines Punktes relativ zum Nordpol der Sphäre [latex]\mathbb {S}^2[/latex] und [latex]\varphi[/latex] den Winkel der Projektion auf die [latex]xy[/latex]-Ebene relativ zu [latex](1,0,0)^t[/latex] angeben soll. Der entsprechende Diffeomorphismus ist also gegeben durch

    [latex]
    \begin{aligned}[]f: (0,\infty )\times (0,\pi ) \times (-\pi ,\pi ) &\to \mathbb {R}^3 \setminus ((-\infty ,0] \times \left \lbrace {0} \right \rbrace \times \mathbb {R})\\ (r,\theta ,\varphi ) &\mapsto \begin{pmatrix}r\sin \theta \cos \varphi \\ r\sin \theta \sin \varphi \\ r\cos \theta \end{pmatrix}.\end{aligned}
    [/latex]

    Für [latex](r,\theta ,\varphi ) \in (0,\infty )\times (0,\pi ) \times (-\pi ,\pi )[/latex] ist die Jacobi-Matrix durch

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_{(r,\theta ,\varphi )} f = \begin{pmatrix}\sin \theta \cos \varphi & r\cos \theta \cos \varphi & -r\sin \theta \sin \varphi \\ \sin \theta \sin \varphi & r\cos \theta \sin \varphi & r\sin \theta \cos \varphi \\ \cos \theta & -r\sin \theta & 0\end{pmatrix}\end{aligned}
    [/latex]

    gegeben und die Jacobi-Determinante (nach der Regel von Sarrus) durch

    [latex]
    \begin{aligned}[]\det \big (\thinspace {\rm {D}}_{(r,\theta ,\varphi )} f\big ) &= r^2\sin \theta \cos ^2\theta \cos ^2\varphi + r^2 \sin ^3\theta \sin ^2\varphi \\ &\quad + r^2 \sin \theta \cos ^2\theta \sin ^2\varphi + r^2 \sin ^3\theta \cos ^2\varphi \\ &= r^2(\sin \theta \cos ^2\theta + \sin ^3\theta ) = r^2\sin \theta \neq 0\end{aligned}
    [/latex]

    gegeben.

    11.2 – Teilmannigfaltigkeiten des Euklidschen Raumes

    Falls wir die Extremwerte einer stetig differenzierbaren, reellwertigen Funktion [latex]f[/latex] eingeschränkt auf die abgeschlossene Einheitskugel

    [latex]
    \begin{aligned}[]K = \left \lbrace {v \in \mathbb {R}^n} \mid {\| {v}\| \leq 1}\right \rbrace\end{aligned}
    [/latex]

    finden wollen, dann existieren diese zwar wegen Kompaktheit von [latex]K[/latex] (nach Satz 9.66(5)), aber die Methoden von Kapitel 10 können nur die Extremwerte von [latex]f[/latex] im offenen Ball [latex]B_1(0) = \left \lbrace {v \in \mathbb {R}^n} \mid {\| {v}\|

    Ähnliche und auch andere Probleme führen dazu, dass man Teilmannigfaltigkeiten von [latex]\mathbb {R}^n[/latex] wie zum Beispiel [latex]\mathbb {S}^2[/latex] (analytisch) studieren möchte. Eine Teilmannigfaltigkeit des [latex]\mathbb {R}^n[/latex] sollte man sich als Teilmenge vorstellen, die lokal jeweils wie eine offene Teilmenge eines Euklidischen Raumes (mit meist niegriger Dimension) aussieht und eine gewisse «Glattheit» erfüllt. Beispielsweise kann man sich intuitiv gut vorstellen, dass man um jeden Punkt auf der Sphäre eine Umgebung findet, die sich durch «Flachdrücken» zu einer offenen Kreisscheibe im [latex]\mathbb {R}^2[/latex] formen lässt.

    Wir werden in unseren Diskussionen keine «Kanten» oder «Ecken» einer Teilmannigfaltigkeit erlauben, da sich diese nicht auf «glatte Weise» flach machen lassen. Zum Beispiel ist der Rand [latex]\left \lbrace {(x,y,z)\in \mathbb {R}^3} \mid {\max \left \lbrace {|x|,|y|,|z|} \right \rbrace = 1}\right \rbrace[/latex] des Quaders [latex][-1,1]^3[/latex] keine Teilmannigfaltigkeit des [latex]\mathbb {R}^3[/latex].

    Allgemeinere Mannigfaltigkeiten sind von fundamentaler geometrischer Bedeutung und erscheinen deswegen zum einen in sehr vielen fortführenden Vorlesungen des Mathematikstudiums wie zum Beispiel der Differentialgeometrie im dritten oder vierten Studienjahr, aber auch in Physik-Vorlesungen wie zum Beispiel der allgemeinen Relativitätstheorie. Wir begnügen uns hier mit der Untersuchung von Teilmannigfaltigkeiten des Euklidischen Raumes.

    11.2.1 – Definition und Beispiele

    Definition 11.10

    Sei [latex]0 \leq k \leq n[/latex] für [latex]n \geq 1[/latex]. Eine Teilmenge [latex]M \subseteq \mathbb {R}^n[/latex] ist eine [latex]k[/latex]-dimensionale (glatte) Teilmannigfaltigkeit, falls für jeden Punkt [latex]p \in M[/latex] eine offene Umgebung [latex]U_p[/latex] in [latex]\mathbb {R}^n[/latex] von [latex]p[/latex] und ein Diffeomorphismus [latex]\varphi _p: U_p \to V_p = \varphi _p(U_p)[/latex] auf eine weitere offene Teilmenge [latex]V_p \subseteq \mathbb {R}^n[/latex] existiert, so dass

    [latex]
    \begin{aligned}[]\varphi _p(U_p \cap M) = \left \lbrace {y \in V_p} \mid {y_i = 0 \text { für alle } i > k}\right \rbrace .\end{aligned}
    [/latex]

    In anderen Worten sieht eine Teilmannigfaltigkeit [latex]M[/latex] — in der Nähe eines jeden Punktes in [latex]M[/latex] und bis auf einen Diffeomorphismus — wie ein Teil des Teilraumes [latex]\mathbb {R}^k \times \left \lbrace {0} \right \rbrace ^{n-k}[/latex] von [latex]\mathbb {R}^n[/latex] aus. Wenn wir so wollen, können wir nach Anpassen des obigen Diffeomorphismus weitere Bedingungen an [latex]U_p[/latex] oder [latex]V_p[/latex] stellen. Zum Beispiel könnten wir verlangen, dass [latex]U_p = B_\varepsilon (p)[/latex] für ein geeignetes [latex]\varepsilon > 0[/latex] (durch Einschränken von [latex]\varphi _p[/latex]) oder dass [latex]V_p = (-\varepsilon ,\varepsilon )^n[/latex] für ein geeignetes [latex]\varepsilon > 0[/latex] (durch Verschieben von [latex]\varphi _p[/latex], um [latex]\varphi _p(p) = 0[/latex] zu erreichen, und durch Einschränken). Letzteres legt den Vergleich von [latex]\varphi _p[/latex] zu einer Kartenabbildung nahe, wobei [latex](-\varepsilon ,\varepsilon )^k[/latex] eine «quadratische Karte» und

    [latex]
    \begin{aligned}[](y_1,\ldots ,y_k) \in (-\varepsilon ,\varepsilon )^k \mapsto \varphi _p^{-1}(y_1,\ldots ,y_k,0,\ldots ,0) \in M\end{aligned}
    [/latex]

    die Kartenabbildung darstellt, deren Bild eine Umgebung von [latex]p \in M[/latex] ist.

    Alternativ lässt sich [latex]\varphi _p[/latex] als eine Abbildung auffassen, die, wie zu Beginn dieses Abschnitts erklärt wurde, die Umgebung [latex]U_p[/latex] von [latex]p[/latex] «verbiegt» , so dass [latex]U_p \cap M[/latex] «flach» wird. Hierbei ist eine offene Teilmenge des Teilraumes [latex]\mathbb {R}^k\times \{ 0\} ^{n-k}[/latex] sozusagen flach. Des Weiteren können wir uns die Umkehrabbildung [latex]\psi =\varphi ^{-1}[/latex] nach Einschränkung auf [latex]V_p\cap (\mathbb {R}^k\times \{ 0\} ^{n-k})[/latex] als eine Parametrisierung von [latex]M\cap U_p[/latex] vorstellen, und ohne Einschränkung als eine Parametrisierung der (im [latex]\mathbb {R}^n[/latex] offenen) Umgebung [latex]U_p[/latex] der Punkte in [latex]M\cap U_p[/latex].

    Beispiel 11.11: Erste Beispiele von Teilmannigfaltigkeiten

    1. Jede offene Teilmenge [latex]U[/latex] in [latex]\mathbb {R}^n[/latex] ist eine [latex]n[/latex]-dimensionale Teilmannigfaltigkeit. In der Tat lässt sich der Diffeomorphismus [latex]\varphi _p[/latex] zu [latex]p \in U[/latex] als die Identitätsabbildung auf [latex]U[/latex] wählen (wieso?). Weiter ist jede [latex]n[/latex]-dimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex] eine offene Teilmenge von [latex]\mathbb {R}^n[/latex] (siehe Übung 11.15).
    2. Jede endliche (oder diskrete) Teilmenge [latex]M \subseteq \mathbb {R}^n[/latex] ist eine nulldimensionale Teilmannigfaltigkeit. Dabei lässt sich [latex]\varphi _p[/latex] zu [latex]p \in M[/latex] als eine Verschiebung [latex]B_\varepsilon (p) \to B_\varepsilon (0),\ x \mapsto x-p[/latex] für [latex]\varepsilon > 0[/latex] klein genug wählen (wieso?). Hierbei heisst eine Menge diskret, falls es zu jedem [latex]p\in M[/latex] ein [latex]\varepsilon >0[/latex] gibt mit [latex]M\cap B_\varepsilon (p)=\{ p\}[/latex].
    3. Wir wollen nun zu ersten interessanten Beispiel einer Teilmannigfaltigkeit — Graphen von glatten Funktionen — kommen, welche in einem gewissen Sinn fast den allgemeinen Fall darstellen (siehe Proposition 11.12). Sei also [latex]k [latex]
      \begin{aligned}[]M = \operatorname {Graph}(f) = \left \lbrace {(x,f(x))} \mid {x \in U}\right \rbrace \subseteq \mathbb {R}^n\end{aligned}
      [/latex]

    eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit. Denn für [latex]p = (x_0,f(x_0)) \in M[/latex] zu [latex]x_0 \in U[/latex] können wir [latex]U_p = V_p = U \times \mathbb {R}^{n-k}[/latex] setzen und die glatte Abbildung

    [latex]
    \begin{aligned}[]\varphi =\varphi _p: U_p \to V_p,\quad (x,y) \mapsto (x,y-f(x))\end{aligned}
    [/latex]

    betrachten. Diese definiert in der Tat einen Diffeomorphismus und erfüllt für alle [latex](x,y)[/latex] in [latex]U\times \mathbb {R}^{n-k}[/latex]

    [latex]
    \begin{aligned}[]\varphi (x,y) \in \mathbb {R}^{k} \times \left \lbrace {0} \right \rbrace ^{n-k}\Longleftrightarrow (x,y) \in U_p\cap M = M.\end{aligned}
    [/latex]
  • Die [latex](n-1)[/latex]-dimensionale (Einheits-) Sphäre
    [latex]
    \begin{aligned}[]\mathbb {S}^{n-1} = \left \lbrace {p \in \mathbb {R}^n} \mid {\| {p}\| = 1}\right \rbrace\end{aligned}
    [/latex]

    ist eine [latex](n-1)[/latex]-dimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex].

    Um die Idee des Beweises (auch graphisch) klarer darstellen zu können, beschränken wir uns hier auf den Fall [latex]n = 3[/latex] und verweisen auf Theorem 11.16 unten für den allgemeinen Fall. Sei [latex]p_0 = (x_0,y_0,z_0)^t \in \mathbb {S}^2[/latex].

    • Falls [latex]z_0 > 0[/latex] ist, verwenden wir die Abbildung
      [latex]
      \begin{aligned}[]\varphi _{p_0}= \varphi _+: U_{p_0} = U_+ = B_{1}^{\mathbb {R}^2}(0) \times (0,\infty ) &\to \varphi _+(U_+)\\ (x,y,z)^t &\mapsto (x,y,z-\sqrt {1-x^2-y^2})^t\end{aligned}
      [/latex]

      wie oben im Teil (c) dieses Beispiels.

    • Falls [latex]z_0 [latex]
      \begin{aligned}[]\varphi _-: U_- = B_{1}^{\mathbb {R}^2}(0) \times (-\infty ,0) &\to \varphi _-(U_-)\\ (x,y,z)^t &\mapsto (x,y,z+\sqrt {1-x^2-y^2})^t.\end{aligned}
      [/latex]
    • Falls [latex]z_0 = 0[/latex] und [latex]y_0 > 0[/latex] ist, verwenden wir die Menge
      [latex]
      \begin{aligned}[]\tilde {U}_+ = \left \lbrace {(x,y,z) \in \mathbb {R}^3} \mid {y > 0 \text { und } x^2+z^2 [/latex]

      (was obigem [latex]U_+[/latex] nach Vertauschung der Koordinaten [latex]y[/latex] und [latex]z[/latex] entspricht) gemeinsam mit

      [latex]
      \begin{aligned}[]\tilde {\varphi }_+: (x,y,z)^t \in \tilde {U}_+ \mapsto (x,z,y- \sqrt {1-x^2-z^2})^t.\end{aligned}
      [/latex]
    • Die verbleibenden Fälle (das wären [latex]z_0 = 0[/latex], [latex]y_0
  • Die Diskussion in Teil (d) von Beispiel 11.11 ist gewissermassen typisch für Teilmannigfaltigkeiten. Obwohl wir uns die Teilmannigfaltigkeit [latex]\mathbb {S}^2[/latex] lokal als Graphen einer Funktion vorstellen (siehe Proposition 11.12 unten), benötigen wir oft mehrere Funktionen (oben wegen der Vorzeichenwechsel der Koordinaten) und müssen die Auswahl an Koordinaten, mit denen sich die restlichen Koordinaten darstellen lassen, entsprechend dem Punkt [latex]p \in M[/latex] wählen (damit Punkte am Äquator auch erlaubt sind). Dies ergibt zusammen eine Kollektion von Karten, das heisst, einen «Atlas» von [latex]M[/latex]: lokal sieht [latex]M[/latex] in jedem Punkt wie die einzelnen Karten (zum Beispiel [latex](-\eta ,\eta )^k[/latex] für [latex]\eta > 0[/latex]) aus, doch gibt es zwischen den Karten Überlappungen, die zusammen [latex]M[/latex] komplett beschreiben. Dieser Gesichtspunkt erlaubt es, Definition 11.10 zum Begriff von [latex]k[/latex]-dimensionalen Mannigfaltigkeiten zu erweitern, die dann als metrische Räume, aber nicht zwingend als Teilmenge von [latex]\mathbb {R}^n[/latex] gegeben sind. Wie bereits erwähnt, begnügen wir uns hier aber mit dem Begriff einer Teilmannigfaltigkeit des Euklidschen Raumes.

    Wir möchten nun zeigen, dass sich jede [latex]k[/latex]-dimensionale Teilmannigfaltigkeit lokal als Graph von Funktionen [latex]B \subseteq \mathbb {R}^k \to \mathbb {R}^{n-k}[/latex] darstellen lässt. Dazu beachtet man aber, dass diese Darstellung nicht zwingend über den ersten [latex]k[/latex] Koordinaten möglich sein muss — siehe den Spezialfall [latex]z_0 = 0[/latex] in Beispiel 11.11(d). Wir lassen also Koordinatenvertauschungen zu. Zu [latex]\sigma \in S_n[/latex] sei

    [latex]
    \begin{aligned}[]P_\sigma : (x_1,\ldots ,x_n)^t \in \mathbb {R}^n \mapsto (x_{\sigma (1)},\ldots ,x_{\sigma (n)})^t\in \mathbb {R}^n\end{aligned}
    [/latex]

    die induzierte Permutation der Koordinaten.

    Proposition 11.12: Lokale Darstellbarkeit durch Graphen

    Eine Teilmenge [latex]M \subseteq \mathbb {R}^n[/latex] ist genau dann eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit, wenn es zu jedem Punkt [latex]p \in M[/latex] eine offene Umgebung [latex]U_p[/latex] von [latex]p[/latex] in [latex]\mathbb {R}^n[/latex], eine glatte Funktion [latex]f_p:\tilde {U}_p\to \mathbb {R}^{n-k}[/latex] auf einer offenen Teilmenge [latex]\tilde {U}_p\subseteq \mathbb {R}^k[/latex] und ein [latex]\sigma \in S_n[/latex] gibt, so dass

    [latex]
    \begin{aligned}[]M\cap U_p = P_\sigma (\operatorname {Graph}(f_p)).\end{aligned}
    [/latex]
    Beweis

    Angenommen [latex]M[/latex] ist eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit. Sei [latex]p \in M[/latex], [latex]U_p[/latex] eine offene Umgebung von [latex]p \in \mathbb {R}^n[/latex] und [latex]\varphi _p: U_p \to V_p \subseteq \mathbb {R}^n[/latex] ein Diffeomorphismus wie in Definition 11.10 mit [latex]\varphi _p(p) = 0[/latex]. Sei

    [latex]
    \begin{aligned}[]\psi : (y_1,\ldots ,y_k) \in (-\varepsilon ,\varepsilon )^k \mapsto \varphi _p^{-1}(y_1,\ldots ,y_k,0,\ldots ,0) \in M\end{aligned}
    [/latex]

    für ein [latex]\varepsilon >0[/latex] klein genug. Dann hat das Differential [latex]\thinspace {\rm {D}}_0 \psi[/latex] Rang [latex]k[/latex], womit [latex]k[/latex] linear unabhängige Zeilen in [latex]\thinspace {\rm {D}}_0 \psi[/latex] existieren. Nach Koordinatenvertauschung (von hier stammt [latex]\sigma[/latex] in der Aussage) können wir annehmen, dass diese Zeilen die ersten [latex]k[/latex] sind. Damit hat die Abbildung

    [latex]
    \begin{aligned}[]g:y \in (-\varepsilon ,\varepsilon )^k \mapsto (\psi _1(y),\ldots ,\psi _k(y))^t\end{aligned}
    [/latex]

    ein invertierbares Differential bei [latex]0[/latex]. Also existiert nach dem Satz zur inversen Abbildung (Satz 11.5) eine (nicht-leere) offene Menge [latex]U \subseteq (-\varepsilon ,\varepsilon )^k[/latex], so dass die Einschränkung von [latex]g[/latex] auf [latex]U[/latex] ein Diffeomorphismus ist. Wir betrachten nun die Abbildung [latex]f=\psi \circ (g|_U)^{-1}: g(U) \to M[/latex]. Für [latex]i \leq k[/latex] und alle [latex]y \in g(U)[/latex] gilt [latex]f_i(y) = \psi _i(g|_U^{-1}(y)) = y_i[/latex] nach Konstruktion. Die Teilmannigfaltigkeit [latex]M[/latex] ist also lokal der Graph der Abbildung [latex]y \in g(U) \mapsto (f_{k+1}(y),\ldots ,f_n(y))[/latex] (nach Permutation der Koordinaten), womit der erste Teil der Aussage bewiesen ist.

    Für die Umkehrung kann man analog vorgehen wie in Beispiel 11.11(c). ∎

    Applet 11.13: Illustration zur Darstellbarkeit durch Graphen

    In diesem Applet illustrieren wir Proposition 11.12 anhand einer eindimensionalen Teilmannigfaltigkeit von [latex]\mathbb {R}^2[/latex], wobei Sie rechts auswählen können ob für den ausgewählten Punkt die Vertauschung der Koordinaten angewendet werden sollte.

    Übung 11.14: Ein Überschneidungspunkt

    Sei [latex]M = \left \lbrace {(x,y)\in \mathbb {R}^2} \mid {x(y^2-x) = 0}\right \rbrace[/latex]. Zeigen Sie unter Verwendung von Proposition 11.12, dass [latex]M\setminus \left \lbrace {0} \right \rbrace[/latex] eine Teilmannigfaltigkeit ist, aber [latex]M[/latex] nicht.

    Hinweis.

    Es lohnt sich, die Aussage zuerst in einem Bild zu verifizieren.

    Übung 11.15: Topologische Eigenschaften von Teilmannigfaltigkeiten

    Zeigen Sie, dass jede [latex]n[/latex]-dimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex] eine offene Teilmenge von [latex]\mathbb {R}^n[/latex] ist. Zeigen Sie ebenso, dass jede nulldimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex] eine diskrete Teilmenge von [latex]\mathbb {R}^n[/latex] ist.

    Bemerkung: [latex]C^\ell[/latex]-Teilmannigfaltigkeiten

    Der Begriff der glatten Teilmannigfaltigkeit in Definition 11.10 lässt sich zum Begriff von [latex]C^\ell[/latex]-Teilmannigfaltigkeiten für ein beliebiges [latex]\ell \in \mathbb {N} \cup \left \lbrace {\infty } \right \rbrace[/latex] verallgemeinern. Dazu betrachtet man in Analogie zu Definition 11.10 lokale [latex]C^\ell[/latex]-Diffeo­morphismen [latex]\varphi _p[/latex]. Da wir in Zukunft aber sowieso meist an glatten Teilmannigfaltigkeiten interessiert sein werden und die Notation einfach halten möchten, haben wir auf diese Verallgemeinerung verzichtet.

    11.2.2 – Niveaumengen als Teilmannigfaltigkeiten

    Wie schon die Sphäre, sind viele Teilmannigfaltigkeiten über Gleichungen definiert, und folgender Satz gibt ein allgemeines Resultat in diese Richtung.

    Theorem 11.16: Satz über den konstanten Rang

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] offen, [latex]1 \leq m

    Insbesondere zeigt der Satz, dass für jedes [latex]n[/latex] die Sphäre [latex]\mathbb {S}^{n-1} \subseteq \mathbb {R}^n[/latex] eine Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex] ist. In der Tat ist [latex]\mathbb {S}^{n-1} = \left \lbrace {(x_1,\ldots ,x_n)^t \in \mathbb {R}^n} \mid {F(x_1,\ldots ,x_n) = 0}\right \rbrace[/latex] für [latex]F:(x_1,\ldots ,x_n)^t \in \mathbb {R}^n \mapsto x_1^2+\ldots +x_n^2-1[/latex] und der einzige kritische Punkt von [latex]F[/latex] ist der Ursprung [latex]0 \not \in \mathbb {S}^{n-1}[/latex] (wieso?).

    Beweis

    Sei [latex]p \in M[/latex]. Nach Voraussetzung ist der Rang der totalen Ableitung [latex]\thinspace {\rm {D}}_p F[/latex] gleich [latex]\min (m,n) = m[/latex]. Wie zuvor identifizieren wir [latex]\thinspace {\rm {D}}_p F[/latex] mit der Jacobi-Matrix [latex]\thinspace {\rm {D}}_p F \in \operatorname {Mat}_{m,n}(\mathbb {R})[/latex] (mit [latex]m[/latex] Zeilen und [latex]n[/latex] Spalten). Nach Annahme existieren [latex]m[/latex] dieser Spalten, welche gemeinsam eine invertierbare Matrix bilden. Wenn nötig, vertauschen wir die Koordinaten im [latex]\mathbb {R}^n[/latex] (diese Abbildung wird Teil des Diffeomorphismus) und bezeichnen die ersten [latex]k = n-m[/latex] Koordinaten mit [latex]x[/latex] und die letzten [latex]m[/latex] Koordinaten mit [latex]y[/latex]. Durch diese Vertauschung können wir annehmen, dass [latex]\pmb {\partial }_{{y}}F(p)[/latex] invertierbar ist. In anderen Worten erfüllt die implizite Gleichung [latex]F(x,y) = 0[/latex] bei dem Punkt [latex]p = (x_0,y_0)[/latex] und für ein geeignetes [latex]r>0[/latex] mit [latex]B_r(x_0)\times B_r(y_0)\subseteq U[/latex] die Voraussetzung des Satzes über implizite Funktionen (Satz 11.1 und Satz 11.2) und wir erhalten offene Umgebungen [latex]U_0\subseteq B_r(x_0)[/latex] von [latex]x_0[/latex] und [latex]V_0\subseteq B_r(y_0)[/latex] von [latex]y_0[/latex], so dass

    [latex]
    \begin{aligned}[]M \cap (U_0 \times V_0) = \operatorname {Graph}(f)\end{aligned}
    [/latex]

    für eine glatte Funktion [latex]f: U_0 \to V_0[/latex]. Wir können also [latex]U_p=U_0\times V_0[/latex] und den Diffeomorphismus (genau wie in Beispiel 11.11(1)) durch

    [latex]
    \begin{aligned}[]\varphi _0: U_0 \times V_0 &\to \varphi _0(U_0 \times V_0)\\ (x,y) &\mapsto (x,y-f(x))\end{aligned}
    [/latex]

    definieren.

    Da [latex]p \in M[/latex] beliebig war, beweist dies den Satz. ∎

    Beispiel 11.17

    Der einzige kritische Punkt der Funktion [latex]F: (x,y,z)^t \mapsto x^2+y^2-z^2[/latex] auf [latex]\mathbb {R}^3[/latex] ist wiederum der Ursprung (wieso?). Aus diesem Grund und wegen Theorem 11.16 sind das sogenannte einschalige Hyperboloid

    [latex]
    \begin{aligned}[]H_1 = \left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2-z^2-1 = 0}\right \rbrace\end{aligned}
    [/latex]

    und das sogenannte zweischalige Hyperboloid

    [latex]
    \begin{aligned}[]H_2 = \left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2-z^2+1 = 0}\right \rbrace\end{aligned}
    [/latex]

    zweidimensionale Teilmannigfaltigkeiten von [latex]\mathbb {R}^3[/latex].

    s Obiges Beispiel lässt sich mit derselben Methodik auf beliebige quadratische Formen erweitern (siehe Abschnitt 11.4.2).

    Beispiel 11.18: 2-Torus

    Seien [latex]0

    image

    Wir möchten hier zeigen, dass der [latex]2[/latex]-Torus eine zweidimensionale Teilmannigfaltigkeit des [latex]\mathbb {R}^3[/latex] ist. Passend zu der geometrischen Beschreibung können wir den [latex]2[/latex]-Torus auch durch eine Gleichung definieren, nämlich

    [latex]
    \begin{aligned}[]\mathbb {T}^2 = \left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {\big (\sqrt {x^2+y^2}-R\big )^2 + z^2 = r^2}\right \rbrace .\end{aligned}
    [/latex]

    Wir betrachten also die glatte Funktion

    [latex]
    \begin{aligned}[]F: (x,y,z)^t \in (\mathbb {R}^2\setminus \left \lbrace {0} \right \rbrace ) \times \mathbb {R} \mapsto \ &\big (\sqrt {x^2+y^2}-R\big )^2 + z^2 - r^2\\ &= x^2+y^2+z^2-2R \sqrt {x^2+y^2} + R^2 -r^2.\end{aligned}
    [/latex]

    und zeigen, dass [latex]0[/latex] ein regulärer Wert von [latex]F[/latex] ist. Zuerst bemerken wir, dass

    [latex]
    \begin{aligned}[]F(0,0,z)=z^2+R^2-r^2>0\end{aligned}
    [/latex]

    für alle [latex]z\in \mathbb {R}[/latex]. Für [latex]p =(x,y,z)^t\in M[/latex] gilt also [latex]p\in (\mathbb {R}^2\setminus \left \lbrace {0} \right \rbrace ) \times \mathbb {R}[/latex] und

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_p F &= \left ( 2x - 2R \frac {x}{\sqrt {x^2+y^2}}\ , 2y - 2 R\frac {y}{\sqrt {x^2+y^2}}\ , 2z\right ) \\ &= \left ( 2x\left (1 -\frac {R}{\sqrt {x^2+y^2}}\right )\ , 2y\left (1 - \frac {R}{\sqrt {x^2+y^2}}\right ) \ , 2z\right ).\end{aligned}
    [/latex]

    Wenn nun obiges [latex]p[/latex] ein kritischer Punkt (das heisst, [latex]\thinspace {\rm {D}}_pF = 0[/latex]) ist, so gilt [latex]z = 0[/latex] und [latex]R = \sqrt {x^2+y^2}[/latex] wegen [latex](x,y) \neq 0[/latex]. Keiner dieser Punkte liegt aber auf [latex]\mathbb {T}^2[/latex] und somit ist [latex]0[/latex] ein regulärer Wert von [latex]F[/latex]. Nach Theorem 11.16 ist der [latex]2[/latex]-Torus eine zweidimensionale Teilmannigfaltigkeit des [latex]\mathbb {R}^3[/latex].

    Übung 11.19: Parametrisierung des [latex]2[/latex]-Torus

    Wir möchten hier eine Parametrisierung des [latex]2[/latex]-Torus mit Parametern [latex]R,r[/latex] besprechen.

    Dazu betrachten wir als erstes zwei Winkel [latex]\varphi , \psi[/latex]. Dabei stellt der erste Winkel [latex]\varphi[/latex] den Winkel in der [latex]xy[/latex]-Ebene dar und der zweite Winkel [latex]\psi[/latex] stellt den Winkel in der Ebene dar, die von der [latex]z[/latex]-Richtung und der von [latex]\varphi[/latex] fixierten Richtung in der [latex]xy[/latex]-Ebene gegeben ist.

    1. Sei
      [latex]
      \begin{aligned}[]\bar {f}: [0,2\pi ] \times [0,2\pi ] \to \mathbb {T}^2,\quad (\varphi ,\psi ) \mapsto ((R+r \sin \psi )\cos \varphi ,(R+r\sin \psi )\sin \varphi ,r \cos \psi )^t.\end{aligned}
      [/latex]

      Zeigen Sie, dass [latex]\bar {f}[/latex] tatsächlich eine stetige Abbildung ist, die auf [latex]\mathbb {T}^2[/latex] abbildet. Überzeugen Sie sich auch davon, dass [latex]\bar {f}[/latex] surjektiv, aber nicht injektiv ist.

    2. Die Abbildung [latex]\bar {f}[/latex] lässt sich auch nicht so einschränken, dass [latex]\bar {f}[/latex] eine stetige Bijektion mit stetiger Inverser wird (was wir wollen). Überzeugen Sie sich als Beispiel davon, dass [latex]\bar {f}|_{[0,2\pi )^2}[/latex] bijektiv und stetig ist, aber keine stetige Inverse besitzt.

    Nach (ii) ist [latex]\bar {f}[/latex] offenbar nicht die optimale Weise, den [latex]2[/latex]-Torus topologisch zu verstehen. Wir wechseln nun deswegen vom Intervall [latex][0,2\pi ][/latex] auf den Einheitskreis, wo die Winkel [latex]0[/latex] und [latex]2 \pi[/latex] automatisch identifiziert werden.

    1. Zeigen Sie, dass die Abbildung
      [latex]
      \begin{aligned}[]f: \mathbb {S}^1 \times \mathbb {S}^1 \to \mathbb {T}^2,\quad ((x,y)^t, (v,w)^t) &\mapsto ((R+rw)x,(R+rw)y,rv)^t\end{aligned}
      [/latex]

      eine stetige Bijektion mit stetiger Inversen definiert.

    Tatsächlich ist, wenn man weiss, was differenzierbare Abbildung zwischen Teilmannigfaltigkeiten sind, die obige Abbildung [latex]f[/latex] glatt mit glatter Inversen und somit die richtige Art und Weise [latex]\mathbb {T}^2[/latex] zu verstehen.

    11.2.3 – Tangentialraum und Tangentialbündel

    Wir wollen hier zu einer gegebenen Teilmannigfaltigkeit [latex]M \subseteq \mathbb {R}^n[/latex] den zugehörigen «Phasen­raum» definieren, der analog zum einfacheren Fall [latex]M = U[/latex] für eine offene Teilmenge [latex]U[/latex] von [latex]\mathbb {R}^n[/latex] (siehe Abschnitt 10.2.2), aus allen Paaren der möglichen Orte [latex]p \in M[/latex] und den bei [latex]p[/latex] möglichen Geschwindigkeitsvektoren bestehen soll. Dies legt die folgende Definition nahe.

    Definition 11.20: Tangentialraum

    Sei [latex]M \subseteq \mathbb {R}^n[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit. Der Tangentialraum (oder Phasenraum) von [latex]M[/latex] bei [latex]p \in M[/latex] ist durch

    [latex]
    \begin{aligned}[]\mathrm {T}_p M &= \left \lbrace {(p,\gamma '(0))} \mid {\exists \varepsilon >0,\ \gamma :(-\varepsilon ,\varepsilon ) \to M \text { differenzierbar mit } \gamma (0) = p}\right \rbrace \\ &\subseteq \mathrm {T}_p \mathbb {R}^n = \left \lbrace {p} \right \rbrace \times \mathbb {R}^n\end{aligned}
    [/latex]

    und das Tangentialbündel von [latex]M[/latex] durch

    [latex]
    \begin{aligned}[]\mathrm {T} M = \bigsqcup _{p \in M} \mathrm {T}_p M \subseteq \mathrm {T}\mathbb {R}^n = \mathbb {R}^n \times \mathbb {R}^n\end{aligned}
    [/latex]

    definiert.

    In Worten ausgedrückt ist [latex]\mathrm {T}_p M[/latex] also die Menge der Geschwindigkeitsvektoren von kurzen Wegen durch [latex]p[/latex] in [latex]M[/latex] wie oben schon erklärt. Als erstes kann man sich nun ähnliche Fragen wie in Abschnitt 10.2.2 stellen. Beispielsweise: Ist [latex]\mathrm {T}_p M[/latex] ein Unterraum von [latex]\mathrm {T}_p \mathbb {R}^n[/latex]?

    Die Identität [latex]\mathrm {T}\mathbb {R}^n = \mathbb {R}^n \times \mathbb {R}^n[/latex] drängt weiter die Frage auf, ob vielleicht [latex]\mathrm {T} M[/latex] in einem geeigneten Sinne isomorph zu [latex]M \times \mathbb {R}^k[/latex] ist, wenn [latex]M[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit ist. Diese, im Allgemeinen sehr schwierige Frage werden wir in dieser Vorlesung nur für sehr wenige Teilmannigfaltigkeiten vollständig (je nach Fall positiv oder negativ) beantworten können.

    Stattdessen wollen wir hier vorerst diese Frage nur lokal (wie zuvor heisst das für eine kleine Umgebung eines vorgegebenen Punktes) beantworten. Zur Vereinfachung der Notation werden wir im Folgenden [latex]\mathbb {R}^k[/latex] mit dem Teilraum [latex]\mathbb {R}^{k} \times \left \lbrace {0} \right \rbrace ^{n-k} \subseteq \mathbb {R}^n[/latex] identifizieren.

    Satz 11.21: Lokale Beschreibung des Tangentialbündels

    Sei [latex]M \subseteq \mathbb {R}^n[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit.

    • Sei [latex]U_0 \subseteq \mathbb {R}^n[/latex] eine offene Umgebung und sei [latex]\varphi : U_0 \to V_0 \subseteq \mathbb {R}^n[/latex] ein Diffeomorphismus mit
      [latex]
      \begin{aligned}[]\varphi (U_0 \cap M) = \left \lbrace {y\in V_0} \mid {y_{k+1} = \ldots = y_n = 0}\right \rbrace = V_0 \cap \mathbb {R}^k\end{aligned}
      [/latex]

      wie in Definition 11.10. Wir definieren [latex]\psi = \varphi ^{-1}: V_0 \to U_0[/latex] und die Ableitung

      [latex]
      \begin{aligned}[]\thinspace {\rm {D}} \psi : \mathrm {T} V_0 &\to \mathrm {T} U_0\\ (y,h) &\mapsto (\psi (y), \thinspace {\rm {D}}_y \psi (h)).\end{aligned}
      [/latex]

      Dann ist die Einschränkung von [latex]D\psi[/latex] eine Bijektion von [latex]\mathrm {T} (V_0 \cap \mathbb {R}^k) = (V_0 \cap \mathbb {R}^k) \times \mathbb {R}^k[/latex] nach [latex]\mathrm {T} (U_0 \cap M)[/latex]. Insbesondere ist [latex]\mathrm {T}_p M[/latex] ein [latex]k[/latex]-dimensionaler Unterraum von [latex]\mathrm {T}_p \mathbb {R}^n[/latex] für alle [latex]p\in M[/latex].

    • Angenommen [latex]M = \left \lbrace {x \in U} \mid {F(x) = 0}\right \rbrace[/latex] ist gegeben als Niveaumenge einer glatten Funktion [latex]F: U \to \mathbb {R}^{n-k}[/latex] auf einer offenen Teilmenge [latex]U \subseteq \mathbb {R}^n[/latex], so dass [latex]0[/latex] ein regulärer Wert von [latex]F[/latex] ist (wie im Theorem 11.16 über den konstanten Rang). Dann ist
      [latex]
      \begin{aligned}[]\mathrm {T} M = \left \lbrace {(p,v) \in M \times \mathbb {R}^n} \mid {\thinspace {\rm {D}}_p F (v) = 0}\right \rbrace .\end{aligned}
      [/latex]

    Insbesondere zweitere Aussage erlaubt in spezifischen Fällen eine effiziente Berechnung des Tangentialraums an einem Punkt, welcher dann im Wesentlichen durch den Kern des Differentials der Funktion [latex]F[/latex] an diesem Punkt gegeben ist.

    Beispiel 11.22

    Wir betrachten die Sphäre [latex]\mathbb {S}^{n-1} = \left \lbrace {(x_1,\ldots ,x_n)^t \in \mathbb {R}^n} \mid {F(x_1,\ldots ,x_n) = 0}\right \rbrace[/latex] wobei [latex]F:(x_1,\ldots ,x_n)^t \in \mathbb {R}^n \mapsto x_1^2+\ldots +x_n^2-1[/latex]. Dann ist für [latex]x \in \mathbb {S}^{n-1}[/latex]

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_x F = (2x_1, \ldots , 2x_n ) = 2 x^t.\end{aligned}
    [/latex]

    Somit ist der Tangentialraum bei [latex]x\in \mathbb {S}^{n-1}[/latex] gegeben durch

    [latex]
    \begin{aligned}[]\mathrm {T}_x \mathbb {S}^{n-1} = \left \lbrace {x} \right \rbrace \times \left \lbrace {v\in \mathbb {R}^n} \mid {2x^tv = 0}\right \rbrace = \langle x \rangle ^\perp ,\end{aligned}
    [/latex]

    was gerade die Menge der Vektoren ist, die senkrecht auf [latex]x[/latex] stehen (das orthogonale Komplement von [latex]x[/latex]), und der Anschauung entspricht.

    Wir wenden uns nun dem Beweis von Satz 11.21 zu. Die wesentliche Idee für die erste Aussage ist dabei, dass sich ein Weg in der «flachen lokalen Kopie» [latex]V_0 \cap \mathbb {R}^k[/latex] via des Diffeomorphismus [latex]\psi[/latex] auf [latex]M[/latex] schieben lässt und umgekehrt.

    Beweis von Satz 11.21

    Wir beweisen die erste Aussage zuerst. Da [latex]V_0 \cap \mathbb {R}^k[/latex] offen ist in [latex]\mathbb {R}^k[/latex], gibt es zu jedem [latex]y \in V_0\cap \mathbb {R}^k[/latex] und [latex]h \in \mathbb {R}^k[/latex] einen differenzierbaren Weg [latex]\gamma :(-\varepsilon ,\varepsilon ) \to V_0 \cap \mathbb {R}^k[/latex] mit [latex]\gamma (0) = y[/latex] und [latex]\gamma '(0) = h[/latex] (zum Beispiel den geraden Weg [latex]\gamma (t)=y+th[/latex]). Damit ist [latex]\psi \circ \gamma : (-\varepsilon ,\varepsilon ) \to U_0 \cap M[/latex] ein differenzierbarer Weg mit [latex]\psi \circ \gamma (0) = \psi (y)[/latex] und [latex](\psi \circ \gamma )'(0) = \thinspace {\rm {D}}_y \psi (h)[/latex]. Also gilt

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}} \psi (y,h) = (\psi (y),\thinspace {\rm {D}}_y \psi (h)) \in \mathrm {T}_{\psi (y)} M \subseteq \mathrm {T} (U_0 \cap M).\end{aligned}
    [/latex]

    Da [latex](y,h) \in (V_0 \cap \mathbb {R}^k) \times \mathbb {R}^k[/latex] beliebig war, ergibt sich daraus

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}} \psi ((V_0 \cap \mathbb {R}^k) \times \mathbb {R}^k) \subseteq \mathrm {T} (U_0 \cap M).\end{aligned}
    [/latex]

    Für die andere Inklusion nehmen wir an, dass [latex]\gamma :(-\varepsilon ,\varepsilon ) \to M[/latex] ein differenzierbarer Weg mit [latex]\gamma (0) = p = \psi (y) \in U_0 \cap M[/latex] ist. Da [latex]U_0[/latex] offen ist, existiert ein [latex]\delta \in (0,\varepsilon )[/latex] mit [latex]\gamma ((-\delta ,\delta )) \subseteq U_0 \cap M[/latex]. Wir betrachten nun den Weg [latex]\varphi \circ \gamma : (-\delta ,\delta ) \to V_0 \cap \mathbb {R}^k[/latex], welcher bei [latex]0[/latex] die Ableitung [latex]h=\thinspace {\rm {D}}_p \varphi (\gamma '(0)) \in \mathbb {R}^k[/latex] hat. Gemeinsam mit [latex]\psi \circ \varphi = \text {id}[/latex] auf [latex]U_0[/latex] und der Kettenregel in der Form [latex]\thinspace {\rm {D}}_{y}\psi \circ \thinspace {\rm {D}}_p \varphi = I_n[/latex] erhalten wir

    [latex]
    \begin{aligned}[](p,\gamma '(0)) = \big (\psi (y),\thinspace {\rm {D}}_{y}\psi (\thinspace {\rm {D}}_p \varphi (\gamma '(0)))\big ) =\big (\psi (y),\thinspace {\rm {D}}_{y}\psi (h)\big )\in \thinspace {\rm {D}} \psi ((V_0 \cap \mathbb {R}^k) \times \mathbb {R}^k)).\end{aligned}
    [/latex]

    Dies zeigt, dass [latex]\thinspace {\rm {D}} \psi ((V_0 \cap \mathbb {R}^k) \times \mathbb {R}^k) = \mathrm {T} (U_0 \cap M)[/latex].

    Da es nach Definition einer Teilmannigfaltigkeit für jeden Punkt [latex]p\in M[/latex] einen derartigen Diffeomorphismus mit [latex]p\in U_0[/latex] gibt, folgt für jeden Punkt [latex]p\in M[/latex], dass [latex]\mathrm {T}_p M = \thinspace {\rm {D}} \psi (\left \lbrace {p} \right \rbrace \times \mathbb {R}^k)[/latex] ein [latex]k[/latex]-dimensionaler Unterraum von [latex]\mathrm {T}_p \mathbb {R}^n=\{ p\} \times \mathbb {R}^n[/latex] ist.

    Für die zweite Behauptung sei [latex]p \in M[/latex] beliebig. Da nach obigem [latex]\mathrm {T}_p M[/latex] [latex]k[/latex]-dimensional ist, aber auch der Kern von [latex]\thinspace {\rm {D}}_p F[/latex] [latex]k[/latex]-dimensional ist (wieso?), reicht es, eine Inklusion zu zeigen. Sei [latex]\gamma :(-\varepsilon ,\varepsilon ) \to M[/latex] ein differenzierbarer Weg mit [latex]\gamma (0) = p[/latex]. Dann gilt [latex]F \circ \gamma (t)=0[/latex] für alle [latex]t \in (-\varepsilon ,\varepsilon )[/latex] nach Definition von [latex]M[/latex] und daher ist

    [latex]
    \begin{aligned}[]\thinspace {\rm {D}}_p F (\gamma '(0)) = (F\circ \gamma )'(0) = 0.\end{aligned}
    [/latex]

    Somit ist [latex]\gamma '(0) \in \text {ker}(\thinspace {\rm {D}}_p F)[/latex], was den Beweis des Satzes abschliesst. ∎

    Wir verwenden nun obigen Satz, um einen spezifischen Fall zu diskutieren, wo die Isomorphie [latex]\mathrm {T} M \cong M \times \mathbb {R}^k[/latex] gilt. Mit Satz 11.21 sind wir nun auch in der Lage zu erklären, was wir hier mit Isomorphie meinen. Es soll eine Bijektion [latex]f:\mathrm {T} M \cong M \times \mathbb {R}^k[/latex] (stetig mit stetiger Inversen) existieren, so dass für alle [latex]p \in M[/latex] die Einschränkung [latex]f|_{\mathrm {T}_p M}: \mathrm {T}_p M \to \left \lbrace {p} \right \rbrace \times \mathbb {R}^k[/latex] wohldefiniert ist und ein Isomorphismus von Vektorräumen ist. Wir verlangen insbesondere von einem solchen Isomorphismus, dass er den Fusspunkt [latex]p[/latex] erhält.

    Beispiel 11.23: Tangentialbündel des Einheitskreises und des [latex]2[/latex]-Torus*

    1. Wir behaupten als erstes, dass [latex]\mathrm {T} \mathbb {S}^1 \cong \mathbb {S}^1 \times \mathbb {R}[/latex].

      Sei [latex]\iota : \mathbb {R}^2 \to \mathbb {R}^2[/latex] die Rotation um [latex]90[/latex] Grad im Gegenuhrzeigersinn, das heisst, [latex]\iota (x_1,x_2) = (-x_2,x_1)^t[/latex] für alle [latex](x_1,x_2)^t \in \mathbb {R}^2[/latex]. Wir betrachten nun die Abbildung

      [latex]
      \begin{aligned}[]f: \mathrm {T} \mathbb {S}^1 \to \mathbb {S}^1 \times \mathbb {R}, \quad (x,v) \mapsto (x, \left \langle {v}, {\iota (x)} \right \rangle\end{aligned}
      [/latex]

      und behaupten, dass diese alle gewünschten Eigenschaft hat. Grund dafür ist im Wesentlichen, dass es bei einem fixierten Punkt [latex]x \in \mathbb {S}^1[/latex] nur eine, zu diesem orthogonale Richtung gibt, welche gerade von [latex]\iota (x)[/latex] aufgespannt wird. In der Tat definiert deswegen

      [latex]
      \begin{aligned}[]g: \mathbb {S}^1 \times \mathbb {R} \to \mathrm {T} \mathbb {S}^1,\quad (x,\alpha ) \mapsto (x,\alpha \iota (x))\end{aligned}
      [/latex]

      eine beidseitige Inverse von [latex]f[/latex]. Weiter erhält [latex]f[/latex] per Definition den Fusspunkt und die Abbildung [latex]f|_{\mathrm {T}_x \mathbb {S}^1}[/latex] ist linear und von Null verschieden, also ein Isomorphismus (da beide Räume eindimensional sind).

    2. Wir möchten nun auch [latex]\mathrm {T} \mathbb {T}^2 \cong \mathbb {T}^2 \times \mathbb {R}^2[/latex] zeigen. Dazu verwenden wir, dass sich [latex]\mathbb {T}^2[/latex] mit [latex]\mathbb {S}^1 \times \mathbb {S}^1[/latex] via [latex]f: \mathbb {S}^1 \times \mathbb {S}^1 \to \mathbb {T}^2, ((x,y)^t, (v,w)^t) \mapsto ((R+rw)x,(R+rw)y,rv)^t[/latex] eineindeutig parametrisieren lässt (siehe Übung 11.19). Wir erweitern diese Abbildung zu einer Abbildung
      [latex]
      \begin{aligned}[]\tilde {f}: \mathbb {S}^1 \times \mathbb {S}^1 \times \mathbb {R}^2 &\to \mathrm {T}\mathbb {T}^2\\ \Biggl (\underbrace {\begin{pmatrix}x\\ y\end{pmatrix}, \begin{pmatrix}v\\ w\end{pmatrix}}_{=p},(s,t)\Biggr ) &\mapsto \left (f(p), s\begin{pmatrix}-(R+rw)y\\ (R+rw)x\\ 0\end{pmatrix} +t\begin{pmatrix}rvx\\ rvy\\ -rw\end{pmatrix} \right ).\end{aligned}
      [/latex]

      Man kann nun überprüfen, dass [latex]\tilde f[/latex] einen Isomorphismus zwischen [latex]\mathbb {S}^1 \times \mathbb {S}^1 \times \mathbb {R}^2[/latex] und [latex]\mathrm {T}\mathbb {T}^2[/latex] definiert.

    Übung 11.24: Tangentialbündel von [latex]\mathbb {S}^1 \times \mathbb {S}^1[/latex]*

    1. Zeigen Sie, dass [latex]\mathbb {S}^1 \times \mathbb {S}^1[/latex] eine zweidimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^4[/latex] ist und dass [latex]\mathrm {T} (\mathbb {S}^1 \times \mathbb {S}^1) \cong (\mathbb {S}^1 \times \mathbb {S}^1) \times \mathbb {R}^2[/latex].
    2. Ergänzen Sie die unterlassenen Details in Beispiel 11.23(b) und konstruieren Sie einen Isomorphismus [latex]\mathrm {T} \mathbb {T}^2 \cong \mathbb {T}^2 \times \mathbb {R}^2[/latex].

    11.3 – Extremwertprobleme

    Die letzten beiden Abschnitte enthielten, wenn man so will, sehr wenige konkrete Rechnungen und zeigten stattdessen bloss Existenz gewisser unbekannter Funktionen oder führten neue geometrische Begriffe ein. In diesem Sinne mag es überraschend sein, dass diese für praktische Rechnungen trotzdem relevant sind. Genau dies wollen wir hier nun demonstrieren, indem wir Extremwertaufgaben allgemeiner als zuvor besprechen.

    11.3.1 – Extrema auf kompakten Teilmengen

    Jede stetige, reellwertige Funktion [latex]f[/latex] auf einer kompakten Teilmenge [latex]K \subseteq \mathbb {R}^n[/latex] hat ein globales Maximum und ein globales Minimum (siehe Satz 9.66(5)), die beide in Anwendungen von Interesse sein könnten. Allerdings ist diese Aussage für die Berechnung dieser Extrema (siehe Definition 10.28) nicht sonderlich hilfreich. Wir wollen hier erläutern, wie wir mit Hilfe der bereits entwickelten Theorie und der sogenannten Methode der Lagrange-Multiplikatoren diese Extremwerte finden können.

    Wir werden im Folgenden die topologischen Begriffe des Inneren, des Abschlusses und des Randes verwenden — siehe Definition 9.23.

    Beispiel 11.25: Extrema im Inneren und auf dem Rand

    Wir betrachten im Folgenden mehrere Situationen, in welchen jeweils eine Teilmenge [latex]B \subseteq \mathbb {R}^n[/latex] und eine stetig differenzierbare, reellwertige Funktion [latex]f[/latex] auf [latex]B[/latex] gegeben ist. (Wir wollen des Weiteren immer annehmen, dass [latex]f[/latex] auf einer grösseren offenen Menge [latex]U \supseteq B[/latex] definiert und dort stetig differenzierbar ist.)

    1. Falls [latex]B = I = [a,b][/latex] ein kompaktes Intervall mit [latex]a7.1.3. Das heisst, wir suchen die kritischen Punkte von [latex]f[/latex] in [latex](a,b)[/latex] und betrachten getrennt noch die Randpunkte [latex]\partial I = \left \lbrace {a,b} \right \rbrace[/latex].
    2. Falls [latex]B = P[/latex] ein kompaktes Polygon im [latex]\mathbb {R}^2[/latex] wie zum Beispiel
      [latex]
      \begin{aligned}[]P = \left \lbrace {(x,y)^t\in \mathbb {R}^2} \mid {x \geq 0,\ y \geq 0,\ x+y \leq 1}\right \rbrace\end{aligned}
      [/latex]

      ist, so können wir die Extremwerte auf [latex]B[/latex] finden, indem wir zuerst nach kritischen Punkten von [latex]f[/latex] im Innern [latex]P^\circ[/latex] suchen (mit den Methoden aus Abschnitt 10.4). Anschliessend schränken wir [latex]f[/latex] auf die einzelnen Kanten von [latex]P[/latex] (in obigem Beispiel [latex][0,1] \times \left \lbrace {0} \right \rbrace[/latex], [latex]\left \lbrace {0} \right \rbrace \times [0,1][/latex] und [latex]\left \lbrace {(x,1-x)^t} \mid {x \in [0,1]}\right \rbrace[/latex]) ein und verwenden dort die Methoden von (a). Insbesondere muss man die Werte von [latex]f[/latex] an den Ecken [latex](0,0)^t[/latex], [latex](1,0)^t[/latex] und [latex](0,1)^t[/latex] auch in Betracht ziehen.

    3. Falls [latex]B = \left \lbrace {v \in \mathbb {R}^n} \mid {\| {v}\| _2 \leq 1 }\right \rbrace[/latex] der abgeschlossene Einheitsball im [latex]\mathbb {R}^n[/latex] ist, so können wir die kritischen Punkte von [latex]f[/latex] im Inneren [latex]B^\circ = \left \lbrace {v \in \mathbb {R}^n} \mid {\| {v}\|
    4. Falls
      [latex]
      \begin{aligned}[]B = \left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2\leq z\leq 1}\right \rbrace\end{aligned}
      [/latex]

      ist, so können wir die Funktion [latex]f[/latex]

      • im Inneren [latex]B^\circ[/latex] von [latex]B[/latex],
      • auf der Teilmannigfaltigkeit [latex]\left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2= z
      • auf der Kreisscheibe [latex]\left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2
      • auf dem Kreis [latex]\left \lbrace {(x,y,z)^t \in \mathbb {R}^3} \mid {x^2+y^2= z = 1}\right \rbrace[/latex]

      getrennt betrachten. Wir finden dann die Extremwerte, indem wir alle kritischen Punkte der Einschränkungen von [latex]f[/latex] auf diese Teilmengen finden.

    In den obigen Beispielen ist es einfach eine Parametrisierung der Ränder zu finden, welche man verwenden könnte, um die Suche der Extremwerte auf die Diskussion von glatten Funktionen auf offenen Teilmengen (den Karten) zurückzuspielen. Allerdings ist es, wie bereits besprochen, oft sehr schwer oder sogar unmöglich die Parametrisierung der Ränder explizit durch Formeln und uns wohlbekannten Funktionen zu beschreiben. Aus diesem Grund wäre es von Vorteil eine Methode zur Verfügung zu haben, welche ohne Verwendung der Kartenabbildungen die lokalen Extremwerte berechnen könnte.

    11.3.2 – Extrema mit Nebenbedingungen und Lagrange-Multiplikatoren

    Wie im letzten Teilabschnitt angedeutet wurde, wollen wir nun Funktionen auf Teilmannigfaltigkeiten untersuchen und dort notwendige Bedingungen für lokale Extrema angeben.

    Proposition 11.26: Notwendige Bedingungen für Extrema mit Nebenbedingungen

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] offen und [latex]M \subseteq U[/latex] eine Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex]. Weiter sei [latex]f:U \to \mathbb {R}[/latex] eine differenzierbare Funktion. Angenommen [latex]f|_M[/latex] nimmt in [latex]p \in M[/latex] ein lokales Extremum an. Dann ist [latex]\nabla f (p)[/latex] ein Normalenvektor an [latex]M[/latex] bei [latex]p[/latex], das heisst, es gilt [latex]\left \langle {\nabla f (p)}, {v} \right \rangle = 0[/latex] für alle [latex](p,v) \in \mathrm {T}_p M[/latex].

    Die Menge der Normalenvektoren an [latex]M[/latex] bei [latex]p[/latex] werden wir mit

    [latex]
    \begin{aligned}[](\mathrm {T}_p M)^\perp = \left \lbrace {(p,w)} \mid {\left \langle {w}, {v} \right \rangle = 0 \text { für alle } (p,v) \in \mathrm {T}_p M}\right \rbrace\end{aligned}
    [/latex]

    bezeichnen. Genauso wie [latex]\mathrm {T}_p M[/latex] bildet [latex](\mathrm {T}_p M)^\perp[/latex] einen Unterraum von [latex]\mathrm {T}_p \mathbb {R}^n[/latex]. Wenn [latex]M[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit ist, dann hat [latex](\mathrm {T}_pM)^\perp[/latex] die Dimension [latex](n-k)[/latex] (wieso?).

    Beweis

    Wir betrachten einen differenzierbaren Weg [latex]\gamma :(-\varepsilon ,\varepsilon ) \to M[/latex] mit [latex]\gamma (0) = p[/latex] und [latex]\varepsilon > 0[/latex]. Da [latex]f[/latex] in [latex]p[/latex] ein lokales Extremum annimmt, nimmt [latex]f \circ \gamma : (-\varepsilon ,\varepsilon ) \to \mathbb {R}[/latex] in [latex]0[/latex] ein lokales Extremum an. Daher gilt nach Proposition 7.17 und der Kettenregel

    [latex]
    \begin{aligned}[]0 = (f \circ \gamma )'(0) = \left \langle {\nabla f (p)}, {\gamma '(0)} \right \rangle .\end{aligned}
    [/latex]

    Da [latex]\varepsilon >0[/latex] beliebig und [latex]\gamma :(-\varepsilon ,\varepsilon ) \to M[/latex] ein beliebiger differenzierbarer Weg mit [latex]\gamma (0) = p[/latex] war, folgt daraus mit der Definition des Tangentialraums [latex]\mathrm {T}_p M[/latex] die Proposition. ∎

    Damit wir obiges Resultat in die Praxis umsetzen können, benötigen wir eine weitere Definition. Dazu nehmen wir im Folgenden an, dass [latex]U \subseteq \mathbb {R}^n[/latex] offen ist und die Teilmannigfaltigkeit [latex]M[/latex] durch [latex]M = \left \lbrace {x \in U} \mid {F(x) = 0}\right \rbrace[/latex] für eine glatte Funktion [latex]F: U \to \mathbb {R}^{n-k}[/latex] mit konstantem Rang wie in Theorem 11.16 gegeben ist. Des Weiteren soll [latex]f:U \to \mathbb {R}[/latex] differenzierbar sein.

    Definition 11.27

    Die Lagrange-Funktion [latex]L: U \times \mathbb {R}^{n-k} \to \mathbb {R}[/latex] für eine Funktion [latex]f:U\to \mathbb {R}[/latex] ist durch

    [latex]
    \begin{aligned}[]L:(x,\lambda ) \in U \times \mathbb {R}^{n-k}\mapsto L(x,\lambda ) = f(x) - \sum _{j=1}^{n-k}\lambda _j F_j(x)\end{aligned}
    [/latex]

    definiert. Die Komponenten von [latex]\lambda[/latex] werden auch Lagrange-Multiplikatoren genannt.

    Wir wollen noch betonen, dass wir für den Beweis der im folgenden Korollar vorgestellten praktische Methode eigentlich alle Themen dieses Kapitel (direkt oder indirekt) verwendet werden.

    Korollar 11.28: Notwendige Bedingungen mit Lagrange-Multiplikatoren

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] eine offene Teilmenge und [latex]M = \left \lbrace {x \in U} \mid {F(x) = 0}\right \rbrace[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit gegeben als Niveaumenge durch eine glatte Funktion [latex]F:U \to \mathbb {R}^{n-k}[/latex] mit regulärem Wert [latex]0[/latex] (siehe Theorem 11.16).

    Sei [latex]f:U \to \mathbb {R}[/latex] eine differenzierbare Funktion, für die [latex]f|_M[/latex] in [latex]p \in M[/latex] ein lokales Extremum annimmt, und sei [latex]L[/latex] die zu [latex]M[/latex] und [latex]f[/latex] gehörige Lagrange-Funktion. Dann existieren Lagrange-Multiplikatoren [latex]\lambda \in \mathbb {R}^{n-k}[/latex], so dass die Gleichungen

    [latex]
    \begin{aligned}[]\partial _{x_i} L (p,\lambda ) = 0,\quad \partial _{\lambda _j} L (p,\lambda ) = 0\end{aligned}
    [/latex]

    für alle [latex]i \in \left \lbrace {1,\ldots ,n} \right \rbrace[/latex] und [latex]j \in \left \lbrace {1,\ldots ,n-k} \right \rbrace[/latex] erfüllt sind. Dabei ist zu [latex](x,\lambda ) \in U \times \mathbb {R}^{n-k}[/latex]
    [latex]
    \begin{aligned}[]\label{eq:lagrangepartial} \partial _{x_i} L(x,\lambda ) = \partial _i f(x) - \sum _{j=1}^{n-k}\lambda _j \partial _i F_j(x),\quad \partial _{\lambda _j} L(x,\lambda ) = -F_j(x)\end{aligned}
    [/latex]
    für [latex]i \in \left \lbrace {1,\ldots ,n} \right \rbrace[/latex] und [latex]j \in \left \lbrace {1,\ldots ,n-k} \right \rbrace[/latex].

    Beweis

    Die Gleichungen [latex]\partial _{\lambda _j} L(x,\lambda ) = -F_j(x)[/latex] für [latex]j=1,\ldots ,n-k[/latex] folgen direkt aus der Definition von [latex]L[/latex], womit die Gleichungen [latex]\partial _{\lambda _j} L(p,\lambda ) =0[/latex] für [latex]j=1,\ldots ,n-k[/latex] auf Grund der Definition von [latex]M[/latex] gelten.

    Die Beschreibung von [latex]\partial _{x_i} L(x,\lambda )[/latex] für [latex]i=1,\ldots ,n[/latex] in (11.6) folgen ebenso direkt aus der Definition der Lagrange Funktion. Betrachten wir diese gemeinsam, so erhalten wir eine Umformulierung der zu beweisenden Behauptung: wir wollen zeigen, dass [latex]\nabla f(p)[/latex] eine Linearkombination der Vektoren [latex]\nabla F_1(p),\ldots ,\nabla F_{n-k}(p)[/latex] ist, wobei die Lagrange Multiplikatoren die Koeffizienten der Linearkombination darstellen.

    Wir beobachten zuerst, dass [latex]\thinspace {\rm {D}}_p F_1=(\nabla F_1(p))^t,\ldots ,\thinspace {\rm {D}}_p F_{n-k}=(\nabla F_{n-k}(p))^t[/latex] die Zeilen der Matrix [latex]\thinspace {\rm {D}}_p F[/latex] sind, welche nach Annahme an [latex]F[/latex] linear unabhängig sind. Nach Satz 11.21 gilt somit

    [latex]
    \begin{aligned}[]\mathrm {T}_p M &= \left \lbrace {(p,v) \in \mathrm {T}_p \mathbb {R}^n} \mid {\thinspace {\rm {D}}_p F (v) = 0}\right \rbrace \\ &= \left \lbrace {(p,v) \in \mathrm {T}_p \mathbb {R}^n} \mid { \left \langle {\nabla F_j(p)}, {v} \right \rangle = 0 \text { für alle } j=1,\ldots ,n-k}\right \rbrace .\end{aligned}
    [/latex]

    Also sind die Vektoren [latex]\nabla F_1(p),\ldots ,\nabla F_{n-k}(p)[/latex] Normalenvektoren an [latex]M[/latex] bei [latex]p[/latex]. Wegen linearer Unabhängigkeit und [latex]\dim ((\mathrm {T}_p M)^\perp ) = n-k[/latex] lässt sich nun jeder Normalenvektor als Linearkombination dieser Vektoren schreiben. Nach Proposition 11.26 ist [latex]\nabla f(p)[/latex] ein Normalenvektor und das Korollar folgt. ∎

    Applet 11.29: Lagrange-Multiplikatoren und Normalenvektoren

    In diesem Applet illustrieren wir Proposition 11.26 und Korollar 11.28 anhand einer eindimensionalen Teilmannigfaltigkeit. Unter dieser Annahme liegt nur ein Gradientenvektor [latex]\nabla F[/latex] vor, womit Proposition 11.26 besagt, dass [latex]\nabla F[/latex] und [latex]\nabla f[/latex] parallel sein sollen.

    Für die Praxis ist es wichtig, dass wir zwar für den Beweis von Korollar 11.28 den Satz über implizite Funktionen (Satz 11.1 und Satz 11.2) indirekt (wie genau?) verwendet haben, aber die implizite Funktion (welche wir eher selten berechnen können oder wollen) in der Methode von Lagrange nicht vorkommt.

    Wir wollen diese Methode an einem Beispiel erproben. Dieses wird auch zeigen, dass der Methode der Lagrange-Multiplikatoren (Korollar 11.28) Voraussetzungen zugrunde liegen, die, wenn sie ignoriert werden, zum falschen Ergebnis führen.

    Beispiel 11.30

    Wir betrachten die kompakte Menge

    [latex]
    \begin{aligned}[]K = \left \lbrace {(x,y)^t \in [-1,1]^2} \mid {y^3-x^2 = 0}\right \rbrace ,\end{aligned}
    [/latex]

    welche durch die Funktion [latex]F: (x,y)^t \in \mathbb {R}^2 \mapsto y^3-x^2[/latex] definiert wird. Wir beobachten zuerst, dass [latex]K[/latex] die Punkte [latex](1,1)^t[/latex] und [latex](-1,1)^t[/latex] enthält, welche eine getrennte Behandlung erfordern (wieso?). Wir betrachten die Funktion [latex]f(x,y)=4y-3x[/latex]. Die Punkte [latex](1,1)^t[/latex] und [latex](-1,1)^t[/latex] erfüllen

    [latex]
    \begin{aligned}[]f(1,1) = 1,\quad f(-1,1) = 7.\end{aligned}
    [/latex]

    Wir betrachten also [latex]M = K \setminus \left \lbrace {(1,1)^t, (-1,1)^t} \right \rbrace[/latex] und wollen alle möglichen lokalen Extremwerte von [latex]f|_M[/latex] auffinden. Dazu verwenden wir (vorerst ohne gross zu überlegen) die Methode der Lagrange-Multiplikatoren (Korollar 11.28) an. Anschliessend sollten wir das globale Minimum und das globale Maximum von [latex]f|_K[/latex] sehr leicht unter den gefundenen Funktionswerten bestimmen können. Die zu [latex]f[/latex] und [latex]M[/latex] gehörige Lagrange-Funktion ist gegeben durch

    [latex]
    \begin{aligned}[]L(x,y,\lambda ) = 4y-3x-\lambda (y^3-x^2).\end{aligned}
    [/latex]

    Man berechnet

    [latex]
    \begin{aligned}[]\partial _x L(x,y,\lambda )&= -3+2\lambda x\\ \partial _y L(x,y,\lambda )&= 4-3\lambda y^2\\ \partial _\lambda L(x,y,\lambda ) &= -(y^3-x^2).\end{aligned}
    [/latex]

    Aus [latex]-3 + 2\lambda x = 0[/latex] folgt [latex]\lambda \neq 0[/latex] und [latex]x \neq 0[/latex] sowie [latex]\lambda = \frac {3}{2x}[/latex]. Genauso folgt aus [latex]4-3\lambda y^2 = 0[/latex], dass [latex]y \neq 0[/latex] und [latex]\lambda = \frac {4}{3y^2}[/latex]. Damit gilt [latex]\frac {3}{2x} = \frac {4}{3y^2}[/latex] oder äquivalent dazu [latex]x = \frac {9}{8}y^2[/latex]. Andererseits gilt des Weiteren [latex]\partial _\lambda L(x,y,\lambda ) = -(y^3-x^2)=0[/latex]. Setzen wir nun [latex]x = \frac {9}{8}y^2[/latex] ein, so erhalten wir

    [latex]
    \begin{aligned}[]0 = y^3 - \big (\tfrac {9}{8}y^2\big )^2 = y^3 - \tfrac {9^2}{8^2} y^4 = y^3 \big (1 - \tfrac {9^2}{8^2} y\big ).\end{aligned}
    [/latex]

    Da [latex]y \neq 0[/latex] ist, ergibt dies [latex]y =\frac {8^2}{9^2}[/latex] und [latex]x = \frac {9}{8}y^2 = \frac {8^3}{9^3}[/latex]. Wir erhalten also mit der Methode der Lagrange-Multiplikatoren einen einzigen weiteren Kandidaten nebst den Randpunkten für die Extremwerte, nämlich

    [latex]
    \begin{aligned}[]f(\tfrac {8^3}{9^3},\tfrac {8^2}{9^2}) = 4\tfrac {8^2}{9^2} -3 \tfrac {8^3}{9^3} = 1.053\ldots .\end{aligned}
    [/latex]

    Haben wir jetzt alle lokalen Extremwerte gefunden? Nein, denn [latex]f[/latex] nimmt das globale Minimum auf [latex]K[/latex] im Punkt [latex](0,0)[/latex] an. Wir haben diesen Punkt mit der Methode der Lagrange-Multiplikatoren nicht gefunden, da [latex]M[/latex] keine Teilmannigfaltigkeit von [latex]\mathbb {R}^2[/latex] ist und [latex](0,0)[/latex] ein kritischer Punkt von [latex]F[/latex] ist.

    11.3.3 – Diagonalisierbarkeit symmetrischer Matrizen*

    Obwohl wir hier ja eigentlich Analysis betreiben wollen, können wir mit der Methode der Lagrange-Multiplikatoren relativ einfach folgenden wichtigen Satz aus der Linearen Algebra beweisen (welcher für uns bereits von Relevanz war beim Beweis der Charakterisierung von Indefinitheit in Satz 10.33).

    Satz 11.31

    Jede symmetrische Matrix [latex]A \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] ist über [latex]\mathbb {R}[/latex] diagonalisierbar. Des Weiteren existiert sogar eine Orthonormalbasis von [latex]\mathbb {R}^n[/latex] bestehend aus Eigenvektoren von [latex]A[/latex].

    Der schwierigste Schritt für den Beweis des Satzes ist folgendes Lemma, welches wir mit der Methode von Lagrange beweisen wollen. Schön an diesem Argument ist insbesondere, dass der Fundamentalsatz der Algebra (Theorem 9.81) nicht verwendet wird (siehe auch Übung 11.33).

    Lemma 11.32

    Sei [latex]n \geq 1[/latex] und [latex]A \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] eine symmetrische Matrix. Dann besitzt [latex]A[/latex] einen reellen Eigenvektor.

    Beweis

    Wir betrachten die Sphäre [latex]\mathbb {S}^{n-1}[/latex], die als Niveaumenge der Funktion [latex]F: x \in \mathbb {R}^3 \mapsto \| {x}\| ^2-1 \in \mathbb {R}[/latex] gegeben ist, und die reellwertige Funktion (quadratische Form)

    [latex]
    \begin{aligned}[]f: \mathbb {R}^n\to \mathbb {R},\ x \mapsto x^t A x.\end{aligned}
    [/latex]

    Da [latex]\mathbb {S}^{n-1}[/latex] kompakt ist, nimmt [latex]f|_{\mathbb {S}^{n-1}}[/latex] ein Maximum und ein Minimum an. Also angenommen [latex]f[/latex] nimmt in [latex]p \in \mathbb {S}^{n-1}[/latex] ein Extremum an. Sei

    [latex]
    \begin{aligned}[]L: (x,\lambda ) \in \mathbb {R}^n \times \mathbb {R} \mapsto f(x) - \lambda F(x) = x^tAx-\lambda (\| {x}\| ^2-1)\end{aligned}
    [/latex]

    die zu [latex]\mathbb {S}^{n-1}[/latex] und [latex]f[/latex] gehörige Lagrange-Funktion. Nach Korollar 11.28 existiert also ein [latex]\lambda \in \mathbb {R}[/latex] mit
    [latex]
    \begin{aligned}[]\label{eq:impl-proofexistenceev} \partial _{x_j}L(p,\lambda ) = \partial _j f(p) - \lambda \partial _j F(p) =0\end{aligned}
    [/latex]
    für alle [latex]j = 1,\ldots ,n[/latex] sowie [latex]\partial _\lambda L (p,\lambda ) = F(p) = 0[/latex]. Letzteres besagt bloss, dass [latex]\| {p}\| =1[/latex] oder anders ausgedrückt [latex]p \in \mathbb {S}^{n-1}[/latex], wie bereits bekannt ist.

    Wir berechnen nun die partiellen Ableitungen von [latex]F[/latex] und [latex]f[/latex]. Es gilt für alle [latex]x \in \mathbb {R}^n[/latex]

    [latex]
    \begin{aligned}[]\partial _j F(x) &= \partial _{j} \bigg ( \sum _{k=1}^n x_k^2 \bigg ) = 2x_j\\ \partial _j f(x) &= \partial _{j} \bigg ( \sum _{k,\ell =1}^n a_{k\ell }x_kx_\ell \bigg ) = \sum _{\ell =1}^n a_{j\ell }x_\ell + \sum _{k=1}^n a_{kj}x_k\end{aligned}
    [/latex]

    nach der Produktregel und da [latex]\partial _j (x_k)[/latex] genau dann Null ist, wenn [latex]k \neq j[/latex] ist. Da [latex]A[/latex] per Annahme aber symmetrisch ist, erhalten wir

    [latex]
    \begin{aligned}[]\partial _j f(x) = 2 \sum _{\ell =1}^n a_{j\ell }x_\ell = 2 (Ax)_j.\end{aligned}
    [/latex]

    Somit gilt [latex](Ap)_j = \lambda p_j[/latex] für alle [latex]j = 1,\ldots ,n[/latex] oder äquivalent dazu [latex]Ap = \lambda p[/latex]. ∎

    Beweis von Satz 11.31

    Wir benötigen zusätzlich zu Lemma 11.32 etwas mehr Lineare Algebra für den Beweis, den wir jetzt mit Induktion nach [latex]n[/latex] durchführen werden. Für [latex]n =1[/latex] gibt es nichts zu beweisen. Sei also [latex]A \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] eine symmetrische Matrix. Nach Lemma 11.32 existiert ein reeller Eigenvektor [latex]v_1 \in \mathbb {S}^{n-1}[/latex] zu einem Eigenwert [latex]\lambda _1 \in \mathbb {R}[/latex]. Wir betrachten das orthogonale Komplement

    [latex]
    \begin{aligned}[]W = v_1^\perp = \left \lbrace {w \in \mathbb {R}^n} \mid {\left \langle {w}, {v_1} \right \rangle = 0}\right \rbrace\end{aligned}
    [/latex]

    von [latex]v_1[/latex]. Für [latex]w \in W[/latex] gilt auf Grund der Symmetrie von [latex]A[/latex]

    [latex]
    \begin{aligned}[]\left \langle {Aw}, {v_1} \right \rangle = \left \langle {w}, {Av_1} \right \rangle = \lambda _1 \left \langle {w}, {v_1} \right \rangle = 0\end{aligned}
    [/latex]

    und es folgt, dass [latex]A(W) \subseteq W[/latex]. Sei [latex]w_1,\ldots ,w_{n-1}[/latex] eine Orthonormalbasis von [latex]W[/latex] bezüglich [latex]\left \langle {\cdot }, {\cdot } \right \rangle[/latex] (welche wegen des Gram-Schmidt-Orthonormalisierungsverfahrens existiert). Für [latex]i,j \in \left \lbrace {1,\ldots ,n-1} \right \rbrace[/latex] gilt nun

    [latex]
    \begin{aligned}[]\left \langle {Aw_j}, {w_i} \right \rangle = \left \langle {w_j}, {Aw_i} \right \rangle = \left \langle {Aw_i}, {w_j} \right \rangle .\end{aligned}
    [/latex]

    In anderen Worten ist die Basisdarstellung [latex]B[/latex] von [latex]A|_W: W \to W[/latex] bezüglich der Basis [latex]w_1,\ldots ,w_{n-1}[/latex] wieder symmetrisch. Nach Induktionsvoraussetzung existiert für [latex]B[/latex] eine Orthonormalbasis bestehend aus Eigenvektoren von [latex]B[/latex]. Da aber [latex]B[/latex] (gemeinsam mit der Standardbasis von [latex]\mathbb {R}^{n-1}[/latex]) genau [latex]A|_W[/latex] (gemeinsam mit der Orthonormalbasis [latex]w_1,\ldots ,w_{n-1}[/latex]) entspricht, existiert also auch für [latex]W[/latex] eine Orthonormalbasis [latex]v_2,\ldots ,v_{n}[/latex] aus Eigenvektoren von [latex]A[/latex].

    Wir erhalten damit, dass [latex]v_1,\ldots ,v_n[/latex] eine Orthonormalbasis von [latex]\mathbb {R}^n[/latex] bildet und aus Eigenvektoren von [latex]A[/latex] besteht. ∎

    Übung 11.33

    Der Vollständigkeit halber möchten wir hier ein elementares Argument zum Beweis von Lemma 11.32 unter Verwendung des Fundamentalsatzes angeben. Sei [latex]n \geq 1[/latex] und [latex]A \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] eine symmetrische Matrix.

    1. Zeigen Sie, dass alle komplexen Eigenwerte von [latex]A[/latex] reell sind.
    2. Beweisen Sie Lemma 11.32, indem Sie zeigen, dass [latex]A[/latex] genau dann einen komplexen Eigenvektor besitzt, wenn [latex]A[/latex] einen reellen Eigenvektor besitzt.

    Das in unserem Beweis gewonnene geometrische Verständnis der Eigenwerte von [latex]A[/latex] kann aber auch anders genutzt werden. Als Beispiel davon kann man einen Spezialfall des Satzes von Courant-Fischer beweisen.

    1. Zeigen Sie, dass die Werte
      [latex]
      \begin{aligned}[]\min _{x \in \mathbb {S}^{n-1}}x^t A x,\quad \max _{x \in \mathbb {S}^{n-1}}x^t A x\end{aligned}
      [/latex]

      den kleinsten respektive den grössten Eigenwert von [latex]A[/latex] darstellen.

    11.3.4 – Eine hinreichende Bedingung für Lagrange-Multi­pli­katoren*

    Beispiel 11.34

    Wir betrachten für [latex]a > b > 0[/latex] die Teilmannigfaltigkeit

    [latex]
    \begin{aligned}[]E = \left \lbrace {(x,y)^t \in \mathbb {R}^2} \mid {\frac {x^2}{a^2}+\frac {y^2}{b^2} - 1 = 0}\right \rbrace ,\end{aligned}
    [/latex]

    welche eine Ellipse in Hauptachsenlage darstellt, siehe folgendes Bild.

    image

    Des Weiteren betrachten wir die Funktion

    [latex]
    \begin{aligned}[]f: \mathbb {R}^2 \to \mathbb {R},\ (x,y)^t \mapsto x^2+y^2,\end{aligned}
    [/latex]

    welche eingeschränkt auf [latex]E[/latex] globale Minima bei [latex](0,-b)^t[/latex] und [latex](0,b)^t[/latex] und globale Maxima bei [latex](-a,0)^t[/latex] und [latex](a,0)^t[/latex] annimmt, was aus dem Bild folgt (wieso?).

    Falls wir aber mit Hilfe unseren bisherigen Methoden entscheiden wollen, bei welchen der vier Punkte [latex](0,-b)^t[/latex], [latex](0,b)^t[/latex], [latex](-a,0)^t[/latex] und [latex](a,0)^t[/latex] lokale Minima oder lokale Maxima vorliegen, so ist es vorerst unklar, wie wir dies machen können. In der Tat greift die Diskussion des letzten Abschnitts diese Thematik überhaupt nicht auf und auch das Kriterium aus 10.32 greift nicht, denn die kritischen Punkte von [latex]f[/latex] als Funktion auf [latex]\mathbb {R}^2[/latex] liegen nicht auf [latex]E[/latex]. Versuchen wir diese beiden Methoden ohne gross darüber nachzudenken zu verbinden, so würden wir fälschlicherweise zu dem Schluss kommen, dass alle vier Punkte ein Minimum der Funktion darstellen da die Hesse-Matrix von [latex]f[/latex] bei jedem Punkt positiv definit ist. Aber wo wäre dann das Maximum von [latex]f|_E[/latex]?

    Korollar 11.35: Hesse-Matrix der Lagrange-Funktion

    Sei [latex]U \subseteq \mathbb {R}^n[/latex] eine offene Teilmenge, sei [latex]M = \left \lbrace {x \in U} \mid {F(x) = 0}\right \rbrace[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit gegeben als Niveaumenge durch eine glatte Funktion [latex]F:U \to \mathbb {R}^{n-k}[/latex] mit regulärem Wert [latex]0[/latex] und sei [latex]f: U \to \mathbb {R}[/latex] eine zweimal stetig differenzierbare Funktion. Sei des Weiteren [latex]p \in M[/latex] ein kritischer Punkt für [latex]f|_M[/latex] mit Lagrange-Parameter [latex]\lambda \in \mathbb {R}^{n-k}[/latex], das heisst, [latex](p,\lambda )[/latex] erfüllt die Lagrange-Gleichungen

    [latex]
    \begin{aligned}[]\partial _{x_i}L (p,\lambda ) = 0\end{aligned}
    [/latex]

    für alle [latex]j \in \left \lbrace {1,\ldots ,n} \right \rbrace[/latex]. Wir definieren eine quadratische Form [latex]Q: \mathrm {T}_p M \to \mathbb {R}[/latex] durch

    [latex]
    \begin{aligned}[]Q(v) = \sum _{i,j=1}^n \partial _{x_i} \partial _{x_j} L(p,\lambda ) v_i v_j\end{aligned}
    [/latex]

    für [latex](p,v)\in \mathrm {T}_p M[/latex] (wobei [latex]v_1,\ldots ,v_n[/latex] die Koordinaten von [latex]v[/latex] bezüglich der Standardbasis in [latex]\mathbb {R}^n[/latex] darstellen). Dann gelten folgende Aussagen:

    • Falls [latex]Q[/latex] positiv definit ist, dann nimmt [latex]f|_M[/latex] bei [latex]p[/latex] ein striktes lokales Minimum an.
    • Falls [latex]Q[/latex] negativ definit ist, dann nimmt [latex]f|_M[/latex] bei [latex]p[/latex] ein striktes lokales Maximum an.
    • Falls [latex]Q[/latex] indefinit ist, dann nimmt [latex]f|_M[/latex] bei [latex]p[/latex] kein lokales Extremum an.

    Mit Korollar 11.35 lässt sich unter anderem auch die in Beispiel 11.34 festgestellte Problematik beheben.

    Übung 11.36

    1. Überprüfen Sie, dass in Beispiel 11.34 die Methode der Lagrange-Multiplikatoren genau die vier Punkte [latex](0,-b)^t[/latex], [latex](0,b)^t[/latex], [latex](-a,0)^t[/latex] und [latex](a,0)^t[/latex] aufspürt. Berechnen Sie dabei jeweils die dazugehörigen Lagrange-Multiplikatoren.
    2. Verwenden Sie Korollar 11.35, um bei jedem der vier Punkte zu entscheiden, ob und, wenn ja, was für ein lokales Extremum angenommen wird.
    Beweis von Korollar 11.35

    Wir bemerken, dass es für die Einschränkung auf [latex]M[/latex] keine Rolle spielt, ob wir [latex]f|_M[/latex] oder [latex]L|_M[/latex] betrachten. Dies liegt daran, dass die Funktion [latex]L[/latex] durch [latex]L(x,\lambda ) = f(x)-\sum _{j=1}^{n-k} \lambda _j F_j(x)[/latex] für [latex](x,\lambda ) \in U \times \mathbb {R}^{n-k}[/latex] gegeben ist und [latex]F[/latex] auf [latex]M[/latex] identisch verschwindet. Der entscheidende Vorteil von [latex]L[/latex] ist, dass nach geeigneter Wahl von [latex]\lambda[/latex] der Punkt [latex](p,\lambda )[/latex] sogar ein kritischer Punkt von [latex]L[/latex] auf [latex]U[/latex] ist und wir dann die uns bekannten Methoden (siehe Korollar 10.32) anwenden können. Die quadratische (Taylor-) Approximation von [latex]L[/latex] hat nach Korollar 10.25 die Form
    [latex]
    \begin{aligned}[]\label{eq:impl-proofhesselagrangequadapprox} L(p+h)-L(p) = \sum _{i,j=1}^n \partial _{x_i} \partial _{x_j} L(p,\lambda ) h_ih_j+o(\| {h}\| ^2)\end{aligned}
    [/latex]
    für [latex]h \to 0[/latex] (was für [latex]f[/latex] im Allgemeinen falsch wäre).

    Sei nun [latex]\psi :B_\varepsilon ^{\mathbb {R}^k}(0) \to M[/latex] eine glatte Parametrisierung einer Umgebung von [latex]p \in M[/latex], welche die Eigenschaften

    • [latex]\psi (0) = p[/latex],
    • [latex]\| {\psi (y)-p}\| \leq C \| {y}\|[/latex] für alle [latex]y \in B_\varepsilon ^{\mathbb {R}^k}(0)[/latex] und
    • [latex]\| {\psi (y)- (p+\thinspace {\rm {D}}_0\psi (y)}\| = o(\| {y}\| )[/latex] für [latex]y \to 0[/latex]

    erfüllt (wieso existiert eine solche Parametrisierung?). Setzen wir [latex]h = \psi (y)-p[/latex] für [latex]y\in B_\varepsilon ^{\mathbb {R}^k}(0)[/latex] in Gleichung (11.8) ein, so ergibt sich (wieso?)

    [latex]
    \begin{aligned}[]L(\psi (y))-L(p) = \sum _{i,j=1}^n \partial _{x_i} \partial _{x_j} L(p,\lambda ) (\thinspace {\rm {D}}_0\psi (y))_i (\thinspace {\rm {D}}_0\psi (y))_j +o(\| {y}\| ^2)\end{aligned}
    [/latex]

    Wir bemerken nun, dass nach Satz 11.21

    [latex]
    \begin{aligned}[]\mathrm {T}_p M = \left \lbrace {(p,v) \in \mathrm {T}_p \mathbb {R}^n} \mid {v \in \thinspace {\rm {D}}_0 \psi (\mathbb {R}^k)}\right \rbrace = \left \lbrace {p} \right \rbrace \times \thinspace {\rm {D}}_0 \psi (\mathbb {R}^k)\end{aligned}
    [/latex]

    gilt. Das heisst, dass unsere Annahmen an die quadratische Form [latex]Q[/latex] sich direkt auf die quadratische Form

    [latex]
    \begin{aligned}[]y\in \mathbb {R}^k \mapsto \sum _{i,j=1}^n \partial _{x_i} \partial _{x_j} L(p,\lambda ) (\thinspace {\rm {D}}_0\psi (y))_i (\thinspace {\rm {D}}_0\psi (y))_j\end{aligned}
    [/latex]

    übertragen. Wir können das Korollar also aus demselben Argument wie im Beweis der analogen Aussage auf offenen Teilmengen (Korollar 10.32) erhalten. ∎

    11.4 – Weitere Lernmaterialien

    11.4.1 – Verwendung des Kapitels

    Wie bereits erwähnt ist der Satz über die implizite Funktionen grundlegend für das Verständnis von Gleichungen der Form [latex]F(x,y) = 0[/latex] und deren lokalen Lösungenfunktionen. Der Satz über implizite Funktionen hat auch zum Satz über die inverse Abbildung (einem Kriterium für Diffeomorphie) und einer Möglichkeit, um zu zeigen, dass eine gegebene Teilmenge von [latex]\mathbb {R}^n[/latex] eine Teilmannigfaltigkeit ist (das Theorem über den konstanten Rang), geführt.

    Sie sollten sich einen Diffeomorphismus als einen glatten (statt linearen) Koordinatenwechsel vorstellen. Hierzu sind eben Polarkoordinaten, Zylinderkoordinaten und Kugelkoordinaten wichtige Beispiele. Wir werden Diffeomorphismen wieder im Zusammenhang der mehrdimensionalen Substitutionsregel im nächsten Kapitel begegnen.

    Der Begriff der Teilmannigfaltigkeit ist in dieser Vorlesung vor allem für Flächen im [latex]\mathbb {R}^3[/latex] später von Bedeutung, auf welchen wir auch ein Integral definieren werden. Zum Beispiel werden die mehrdimensionalen Integralsätze ein dreidimensionales Integral über einen Bereich im [latex]\mathbb {R}^3[/latex] mit einem zweidimensionalen Integral über den Rand des Bereichs (oft eine Teilmannigfaltigkeit) in Verbindung bringen wird.

    Schlussendlich erwähnen wir noch, dass die Methode der Lagrange-Multiplikatoren eine wichtige praktische Methode zur Bestimmung von Extremwerten darstellt. Mitunter muss aber diese Methode mit einer Untersuchung des Definitionsbereichs (zum Beispiel bestehend aus einer offenen Menge und einer glatten Teilmannigfaltigkeit als Rand) kombiniert werden.

    11.4.2 – Übungen

    Übung: Umkehrabbildung zu Kugelkoordinaten

    Wir betrachten den Diffeomorphismus

    [latex]
    \begin{aligned}[]f: (0,\infty )\times (0,\pi ) \times (-\pi ,\pi ) &\to \mathbb {R}^3 \setminus ((-\infty ,0] \times \left \lbrace {0} \right \rbrace \times \mathbb {R})\\ (r,\theta ,\varphi ) &\mapsto \begin{pmatrix}r\sin \theta \cos \varphi \\ r\sin \theta \sin \varphi \\ r\cos \theta \end{pmatrix}.\end{aligned}
    [/latex]

    wie in Abschnitt 11.1.4.

    1. Begründen Sie, warum die offene Menge [latex]f((0,\infty )\times (0,\pi ) \times (-\pi ,\pi ))[/latex] in der Tat Komplement [latex]((-\infty ,0] \times \left \lbrace {0} \right \rbrace \times \mathbb {R})[/latex] hat.
    2. Bestimmen Sie die Umkehrabbildung von [latex]f[/latex].

    Übung: Elliptische Kurven

    Sei [latex]a \in \mathbb {R}[/latex] und [latex]M_a = \left \lbrace {(x,y)\in \mathbb {R}^2} \mid {y^2= x^3 + a}\right \rbrace[/latex]. Für welche [latex]a[/latex] ist [latex]M_a[/latex] eine Teilmannigfaltigkeit?

    Übung: Quadratische Hyperflächen

    Sei [latex]A \in \operatorname {Mat}_{n,n}(\mathbb {R})[/latex] eine symmetrische Matrix, so dass die assoziierte quadratische Form [latex]Q_A: x \mapsto x^t A x[/latex] nicht-degeneriert ist. Zeigen Sie, dass [latex]\left \lbrace {x \in \mathbb {R}^n} \mid {Q(x) = 1}\right \rbrace[/latex] eine [latex](n-1)[/latex]-dimensionale Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex] definiert.

    Übung: [latex]\operatorname {SL}_2(\mathbb {R})[/latex]

    In dieser Übung möchten wir zeigen, dass die Gruppe

    [latex]
    \begin{aligned}[]\operatorname {SL}_2(\mathbb {R}) = \left \lbrace {\begin{pmatrix}a_{11} & a_{12}\\ a_{21} & a_{22}\end{pmatrix} \in \operatorname {Mat}_{2,2}(\mathbb {R})} \mid {a_{11}a_{22}-a_{12}a_{21} =1}\right \rbrace\end{aligned}
    [/latex]

    eine Teilmannigfaltigkeit von [latex]\operatorname {Mat}_{2,2}(\mathbb {R}) \cong \mathbb {R}^4[/latex] darstellt.

    1. Zeigen Sie, dass [latex]I_2 \in \operatorname {SL}_2(\mathbb {R})[/latex] ein regulärer Punkt von [latex]\det[/latex] ist und dass [latex]\thinspace {\rm {D}}_{I_2}\det = \operatorname {Tr}[/latex] ist, wobei [latex]\operatorname {Tr}: (a_{ij})_{ij} \in \operatorname {Mat}_{2,2}(\mathbb {R}) \mapsto a_{11} + a_{22}[/latex] die Spur bezeichnet.
    2. Sei [latex]g \in \operatorname {SL}_2(\mathbb {R})[/latex] und [latex]v\in \operatorname {Mat}_{2,2}(\mathbb {R})[/latex]. Zeigen Sie, dass die Richtungableitung [latex]\partial _v \det (g)[/latex] existiert und durch [latex]\operatorname {Tr}(g^{-1}v)[/latex] gegeben ist.
    3. Zeigen Sie, dass [latex]\operatorname {SL}_2(\mathbb {R})[/latex] eine Teilmannigfaltigkeit ist.

    Hinweis.

    In (ii) können Sie die Multiplikativität der Determinante verwenden. Zu (iii): Finden Sie eine Kartenabbildung in einer Umgebung von [latex]I_2[/latex] und verknüpfen Sie diese mit einer Gruppenmultiplikation um Kartenabbildungen in Umgebungen von anderen Punkten zu finden. Alternativ verwenden Sie (ii) und Theorem 11.16.

    Übung: Tangentialbündel ist auch eine Teilmannigfaltigkeit

    Sei [latex]M \subseteq \mathbb {R}^n[/latex] eine [latex]k[/latex]-dimension­ale Teilmannigfaltigkeit. Zeigen Sie, dass [latex]\mathrm {T} M \subseteq \mathrm {T} \mathbb {R}^n = \mathbb {R}^n \times \mathbb {R}^n[/latex] eine [latex]2k[/latex]-dimensionale Teilmannigfaltigkeit ist.

    Übung: Tangentialbündel eines Graphen

    Sei [latex]M[/latex] eine [latex]k[/latex]-dimensionale Teilmannigfaltigkeit gegeben durch den Graphen einer glatten Funktion wie in Beispiel 11.11(c) (oder Proposition 11.12). Charakterisieren Sie in dieser Situation des Tangentialbündel von [latex]M[/latex] in Analogie zum zweiten Teil der Aussage von Satz 11.21.

    Übung: Challenge — Parametrisierung eindimensionaler Teilmannigfaltigkeiten

    Sei [latex]M[/latex] eine zusammenhängende, [latex]1[/latex]-dimensionale, kompakte Teilmannigfaltigkeit von [latex]\mathbb {R}^n[/latex]. Zeigen Sie, dass ein regulärer, einfacher, glatter Weg [latex]\gamma :[0,1] \to M[/latex] existiert mit [latex]\gamma ([0,1]) = M[/latex].

    Übung

    Sei [latex]n\geq 2[/latex]. Zeigen Sie, dass zwei Punkte [latex]x,y \in \mathbb {S}^{n-1}[/latex] genau dann (maximalen) Abstand [latex]2[/latex] haben, wenn [latex]x = - y[/latex] ist. Betrachten Sie hierzu die Funktion [latex](x,y) \mapsto \| {x-y}\| ^2[/latex] auf [latex]\mathbb {S}^{n-1}\times \mathbb {S}^{n-1}\subseteq \mathbb {R}^{2n}[/latex].

    11.4.3 – Lernkarten

    Sie können wiederum die Lernkarten oder den Graphen für Ihre Wiederholung der Themen des Kapitels verwenden.

    <!– post meta –>

    License

    Analysis-Skript CHAB MATH PHYS: 18/19 Copyright © by Manfred Einsiedler and Andreas Wieser. All Rights Reserved.

    }