="http://www.w3.org/2000/svg" viewBox="0 0 512 512">

12 Gewöhnliche Differentialgleichungssysteme

Wir werden nun das Thema der Differentialgleichungen, welches sowohl für vielfältige Anwendungen in den Naturwissenschaften und der Technik als auch für viele weitere mathematische Fragestellungen wichtig ist, ausführlicher besprechen. Dabei werden wir auch die Begriffe und Fragestellungen von Differentialgleichungen wie in Abschnitt 7.5 zu gekoppelten Differentialgleichungssystemen erweitern. Des Weiteren wollen wir die Existenz und Eindeutigkeit für entsprechende Anfangswertprobleme unter sehr schwachen und natürlichen Annahmen beweisen. Hierfür werden wir mittels einer geeigneten Umformulierung des Anfangswertproblems nochmals den Banachschen Fixpunktsatz anwenden.

12.1 – Mehrdeutigkeit der Lösung

Wir wollen hier anhand eines einfachen Beispiels zeigen, dass die Lösung eines Anfangswertproblems wie in Abschnitt 7.5 nicht immer eindeutig bestimmt ist.

Beispiel 12.1: Ein Anfangswertproblem mit überabzählbar vielen Lösungen

Wir betrachten das Anfangswertproblem

[latex]
\begin{aligned}[]y' &= 3 y^{\frac 23}\\ y(0) &= -1,\end{aligned}
[/latex]

wobei wir die Definition [latex]a^{\frac 23} = (a^2)^{\frac {1}{3}}=|a|^{\frac 23}[/latex] für alle [latex]a \in \mathbb {R}[/latex] verwenden. Wir verwenden nochmals die Leibniz-Notation und die Methode der Trennung der Variablen (siehe auch Abschnitt 12.1 für eine allgemeinere Diskussion), um einen Kandidaten für eine Lösung zu finden. Es ergibt sich daraus

[latex]
\begin{aligned}[]\frac {\thinspace {\rm {d}} y}{\thinspace {\rm {d}} x} &= 3 y^\frac 23\\ \frac {\thinspace {\rm {d}} y}{y^\frac 23} &= 3 \thinspace {\rm {d}} x\\ \int \frac {\thinspace {\rm {d}} y}{y^\frac 23} &= 3 \int \thinspace {\rm {d}} x\\ \frac {1}{-\frac 23+1}y^{-\frac 23 + 1} &= 3x + C'\\ y^{\frac {1}{3}} &= x + C\\ y &= (x+ C)^3,\end{aligned}
[/latex]

wobei [latex]C'[/latex] ebenso wie [latex]C= \frac 13 C'[/latex] eine unbekannte Konstante darstellt. Für [latex]x=0[/latex] soll [latex]y(0) = (0+C)^3 = -1 = C^3[/latex] sein, weswegen [latex]C = -1[/latex] ist und wir die Funktion

[latex]
\begin{aligned}[]x\mapsto y_1(x) = (x-1)^3\end{aligned}
[/latex]

erhalten. Obwohl die Schritte der obigen Rechnung nicht unserem Standard für Argumentationen genügen, kann (und soll) man nun schnell überprüfen, dass [latex]y_1[/latex] tatsächlich eine Lösung des Anfangswertproblems darstellt.

Wir möchten jetzt aber für jedes [latex]s \geq 1[/latex] eine Lösung [latex]y_s[/latex] des Anfangswertproblems definieren, so dass [latex]y_s[/latex] für [latex]s=1[/latex], wie die Notation suggeriert, [latex]y_1[/latex] ist, und so dass die [latex]y_s[/latex] jeweils verschieden sind. Somit besitzt dieses Anfangswertproblem überabzählbar viele Lösungen. Zu [latex]s \in (1,\infty ][/latex] setzen wir

[latex]
\begin{aligned}[]x \mapsto y_s(x) = \left \lbrace \begin{array}{ll} (x-1)^3 & \text {falls } x \leq 1 \\ 0 & \text {falls } 1 [/latex]

und zeigen, dass [latex]y_s[/latex] das Anfangswertproblem löst. Es gilt

[latex]
\begin{aligned}[]y_s'(x) &= \left \lbrace \begin{array}{ll} 3(x-1)^2 & \text {falls } x s\end{array} \right . \\ &= 3y_s^{\frac 23}(x)\end{aligned}
[/latex]

für alle [latex]x\in \mathbb {R} \setminus \left \lbrace {1,s} \right \rbrace[/latex]. Bei [latex]x=1[/latex] gilt für die links- respektive rechtseitige Ableitung

[latex]
\begin{aligned}[](y_s)_-'(1) &= 3(1-1)^2 = 0 = 3y_s(1)^{\frac 23},\\ (y_s)_+'(1) &= 0 = 3y_s(1)^{\frac 23} = (y_s)_-'(1)\end{aligned}
[/latex]

und bei [latex]x=s[/latex] gilt

[latex]
\begin{aligned}[](y_s)_-'(s) &= 0 = 3y_s(1)^{\frac 23},\\ (y_s)_+'(s) &= 3(s-s)^2 = 0 = 3y_s(1)^{\frac 23} = (y_s)_-'(s).\end{aligned}
[/latex]

Somit ist [latex]y_s[/latex] stetig differenzierbar und löst das Anfangswertproblem. In der Tat ist der Anfangswert von [latex]y_s[/latex] für alle [latex]s>1[/latex] durch [latex]y_s(0) = (0-1)^3 = -1[/latex] gegeben.

image

Abbildung 12.1 – Die Differentialgleichung [latex]y' = 3 y^{\frac 23}[/latex] hat «Weichen im Richtungsfeld» entlang der ganzen [latex]x[/latex]-Achse.

Wie wir später sehen werden, ist die Struktur der Funktion [latex](x,y) \mapsto y^{\frac 23}[/latex] für die Mehrdeutigkeit in obigem Beispiel verantwortlich. In der Tat werden wir in Abschnitt 12.4 zeigen, dass Lipschitz-Stetigkeit der Funktion [latex](x,y)\mapsto f(x,y)[/latex] die Eindeutigkeit der Lösung des Anfangwertproblems

[latex]
\begin{aligned}[]y' = f(x,y),\quad y(x_0) =y_0\end{aligned}
[/latex]

impliziert. Die Differentialgleichung in Beispiel 12.1 erfüllt diese Bedingung allerdings in der Nähe der [latex]x[/latex]-Achse nicht und dies ist auch genau der Ort wo die Mehrdeutigkeit der Lösungen entsteht.

Wir wollen noch bemerken, dass es je nach Anwendung vielleicht genügt eine Lösung gefunden zu haben. Es könnte aber auch sein, dass in der Anwendung die Mehrdeutigkeit eine spezielle Bedeutung hat. Das Theorem von Picard-Lindelöf (Theorem 12.23) über Existenz und Eindeutigkeit der Lösung (und dessen Annahmen) kann in diesem Sinne auch als Hilfsmittel zur Auffindung der möglichen «Weichen eines Richtungsfeldes» verstanden werden.

12.1.1 – Separierbare Differentialgleichungen: ein Leibniz Kochrezept

Die in Beispiel 12.1 angewandte (und bereits in Abschnitt 7.5.3 für lineare Differentialgleichungen erster Ordnung angedeutete) Methode zur Berechnung von Lösungen gewisser Differentialgleichungen kann allgemeiner wie folgt formuliert werden.

Wie wollen annehmen, dass die Differentialgleichung erster Ordnung die Form
[latex]
\begin{aligned}[]\label{eq:sepbarkochen} y'=f(x)g(y)\end{aligned}
[/latex]
annimmt. In diesem Fall nennen wir die Differentialgleichung separierbar und können in der Leibniz-Notation wie folgt die Variablen trennen.

[latex]
\begin{aligned}[]\frac {\thinspace {\rm {d}} y}{\thinspace {\rm {d}} x} &= f(x)g(y)\\ \frac {\thinspace {\rm {d}} y}{g(y)} &= f(x) \thinspace {\rm {d}} x\\ \int \frac {\thinspace {\rm {d}} y}{g(y)} &= \int f(x)\thinspace {\rm {d}} x\end{aligned}
[/latex]

Dabei hoffen wir nun, dass die Integrale auf den beiden Seiten der Gleichung konkret berechnet werden können. In diesem Fall ergibt sich ein Gleichungssystem für [latex]y[/latex], welches man anschliessend versucht nach [latex]y[/latex] aufzulösen (siehe Abschnitt 11.1.1). Wir wollen diese Methode weiter nicht formal begründen, was aber abgesehen von der Möglichkeit, dass [latex]g(y)[/latex] wie in Beispiel 12.1 verschwinden könnte, mittels der Kettenregel möglich ist.

Übung 12.2: Methode der Trennung der Variablen

Angenommen obige Integrale können berechnet werden und es ergibt sich die Gleichung [latex]G(y)=F(x)+C[/latex], wobei [latex]G[/latex] eine Stammfunktion von [latex]\frac {1}{g}[/latex] und [latex]F[/latex] eine Stammfunktion von [latex]f[/latex] ist. Angenommen diese Gleichung lässt sich nach Wahl von [latex]C[/latex] und innerhalb einer gewissen offenen Teilmenge [latex]U\subseteq \mathbb {R}^2[/latex] eindeutig nach [latex]y=y(x)[/latex] für [latex]x[/latex] in einem Intervall [latex]I\subseteq \mathbb {R}[/latex] und eine differenzierbare Funktion [latex]y:I\to \mathbb {R}[/latex] auflösen. Nehmen Sie schlussendlich noch an, dass [latex]g(y(x))\neq 0[/latex] gilt für alle [latex]x\in I[/latex]. Zeigen Sie, dass dann [latex]y=y(x)[/latex] die Differentialgleichung (12.1) löst.

Übung 12.3: Trennung der Variablen

Finden Sie eine Lösung des Anfangswertproblems

[latex]
\begin{aligned}[]\sqrt {1-x^2}\, y' -y^2 = 1 , \quad y(0) = 0.\end{aligned}
[/latex]

12.2 – Lineare Differentialgleichungen mit konstanten Koeffizienten

Wir wollen hier das Verfahren aus Abschnitt 7.5.4 (für den harmonischen Oszillator und ähnliche linearen Differentialgleichungen zweiter Ordnung) nochmals allgemeiner diskutieren. Insbesondere empfiehlt es sich Abschnitte 7.5.37.5.4 und das Beispiel der gedämpften Schwingung (mit oder ohne Reibung oder Krafeinwirkung) in Erinnerung zu rufen.

Sei [latex]d\in \mathbb {N}[/latex]. Eine lineare, gewöhnliche Differentialgleichung [latex]d[/latex]-ter Ordnung mit konstanten Koeffizienten ist eine Differentialgleichung der Form
[latex]
\begin{aligned}[]\label{eq:abl-inhom.lin.const.coeff diffglg} y^{(d)}+ a_{d-1} y^{(d-1)}+\ldots +a_0 y^{(0)} = g(x),\end{aligned}
[/latex]
wobei die Koeffizienten [latex]a_{d-1},\ldots ,a_0[/latex] reelle Zahlen und [latex]g:I\to \mathbb {R}[/latex] eine Störfunktion [latex]g[/latex] auf einem Intervall [latex]I\subseteq \mathbb {R}[/latex] ist. Falls [latex]g\neq 0[/latex] ist, so nennt man die Differentialgleichung auch inhomogen. Falls die Störfunktion verschwindet, nimmt die Gleichung die Gestalt
[latex]
\begin{aligned}[]\label{eq:abl-hom.lin.const.coeff diffglg} y^{(d)}+ a_{d-1} y^{(d-1)}+\ldots +a_0 y^{(0)} =0\end{aligned}
[/latex]
an und wird homogen genannt.

Das zugehörige Anfangswertproblem hat zusätzlich die Bedingungen
[latex]
\begin{aligned}[]\label{eq:lindiffanfbeding} y(x_0) = w_0,\ y'(x_0) = w_1,\ldots ,\ y^{(d-1)}(x_0) = w_{d-1}\end{aligned}
[/latex]
für ein [latex]x_0 \in \mathbb {R}[/latex] (beziehungsweise [latex]x_0\in I[/latex] falls die Störfunktion [latex]g[/latex] nur auf [latex]I\subseteq \mathbb {R}[/latex] definiert ist) und Anfangswerte [latex]w_0,w_1,\ldots ,w_{d-1} \in \mathbb {R}[/latex]. Wie schon für lineare gewöhnliche Differentialgleichungen erster Ordnung in Abschnitt 7.5.3 lassen sich für obige Differentialgleichungen alle Lösungen der inhomogenen Gleichung (12.2) mit Hilfe einer partikulären Lösungen und der Lösungen der homogenen Gleichung (12.3) bestimmen. Wir erinnern hier daran, dass eine partikuläre Lösung der inhomogenen Gleichung schlicht eine beliebige Lösung ist (es reicht also, nur eine solche zu finden). Wie wir schon in Abschnitt 7.5.4 gesehen haben ist es von grossem Vorteil, hier nicht nur reellwertige, sondern auch komplexwertige[1] Lösungen [latex]y[/latex] zu erlauben.

Wichtige Übung 12.4: Struktur der Lösungsmengen

Sei [latex]I\subseteq \mathbb {R}[/latex] ein Intervall und [latex]g:I\to \mathbb {R}[/latex] die Störfunktion. Zeigen Sie, dass die komplexwertigen Lösungen von (12.3) auf [latex]I \subseteq \mathbb {R}[/latex] einen Vektorraum [latex]V[/latex] über [latex]\mathbb {C}[/latex] bilden und dass die Lösungsmenge von (12.2) die Form [latex]y_{\operatorname {part}} + V[/latex] hat, falls [latex]y_{\operatorname {part}}[/latex] eine partikuläre Lösung von (12.2) ist.

12.2.1 – Die Lösungen für die homogene Gleichung

Um die Lösungen der homogenen Gleichung in (12.3) zu erraten (siehe auch Beispiel 7.65), setzen wir [latex]y = \mathrm {e}^{\alpha x}[/latex] für ein [latex]\alpha \in \mathbb {C}[/latex] und berechnen [latex]y' = \alpha \mathrm {e}^{\alpha x}[/latex], [latex]y'' = \alpha ^2 \mathrm {e}^{\alpha x}[/latex], …, [latex]y^{(d)}= \alpha ^d \mathrm {e}^{\alpha x}[/latex]. Damit ist

[latex]
\begin{aligned}[]y^{(d)}+ a_{d-1} y^{(d-1)}+\ldots +a_0 y^{(0)} = (\alpha ^d + a_{d-1}\alpha ^{d-1}+ \ldots + a_0) \mathrm {e}^{\alpha x}.\end{aligned}
[/latex]

Daher ist [latex]y = \mathrm {e}^{\alpha x}[/latex] genau dann eine Lösung der Differentialgleichung (12.3), wenn [latex]\alpha \in \mathbb {C}[/latex] eine Nullstelle des sogenannten charakteristischen Polynoms der Differentialgleichung (12.3)

[latex]
\begin{aligned}[]p(T) = T^d + a_{d-1}T^{d-1}+ \ldots + a_0 \in \mathbb {R}[T]\end{aligned}
[/latex]

ist.

Ist [latex]\alpha[/latex] eine reelle Nullstelle von [latex]p(T)[/latex], dann ist [latex]y= e^{\alpha x}[/latex] eine reellwertige Lösung. Bei reellen Koeffizienten und einer komplexen Nullstelle [latex]\alpha = \beta + \gamma \mathrm {i} \in \mathbb {C}[/latex] mit [latex]\beta ,\gamma \in \mathbb {R}[/latex] ist [latex]\overline {\alpha } = \beta - \gamma \mathrm {i}[/latex] ebenso eine Nullstelle von [latex]p(T)[/latex]. (Wieso?

Nach Anwendung der Konjugation auf die Gleichung [latex]p(\alpha )=0[/latex] erhält man [latex]p(\overline {\alpha })=0[/latex] wenn die Koeffizienten in der Tat reell sind.

) Damit sind (nach Übung 12.4) alle Linearkombinationen von

[latex]
\begin{aligned}[]\mathrm {e}^{\alpha x} = \mathrm {e}^{\beta x} \big (\cos (\gamma x) + \mathrm {i} \sin (\gamma x)\big ),\quad \mathrm {e}^{\overline {\alpha } x} = \mathrm {e}^{\beta x} \big (\cos (\gamma x) - \mathrm {i} \sin (\gamma x)\big )\end{aligned}
[/latex]

oder auch von

[latex]
\begin{aligned}[]\frac {1}{2}(\mathrm {e}^{\alpha x}+e^{\overline {\alpha } x}) = \mathrm {e}^{\beta x} \cos (\gamma x),\quad \frac {1}{2\mathrm {i}}(\mathrm {e}^{\alpha x}-\mathrm {e}^{\overline {\alpha } x}) = \mathrm {e}^{\beta x} \sin (\gamma x)\end{aligned}
[/latex]

Lösungen von (12.3). Man beachte, dass [latex]\mathrm {e}^{\alpha x}[/latex] und [latex]\mathrm {e}^{\overline {\alpha } x}[/latex] über [latex]\mathbb {C}[/latex] den gleichen Unterraum von Lösungen zu (12.3) aufspannen wie [latex]\mathrm {e}^{\beta x} \cos (\gamma x)[/latex] und [latex]\mathrm {e}^{\beta x} \sin (\gamma x)[/latex]. (Wieso?)

Wir werden in der folgenden allgemeinen Diskussion diesen Wechsel von den Exponentialfunktionen zu Produkten von Exponentialfunktionen und trigonometrischen Funktionen nicht mehr durchführen, wollen dies aber meist in konkreten Beispielen machen um am Ende die allgemeine Lösung mittels reellwertige Funktionen zu beschreiben. Hat [latex]p(T)[/latex] genau [latex]d[/latex] verschiedene Nullstellen über [latex]\mathbb {C}[/latex], dann ergibt obige Diskussion [latex]d[/latex] linear unabhängige Lösungen auf ganz [latex]\mathbb {R}[/latex].

Übung 12.5: Lineare Unabhängigkeit

Seien [latex]\alpha _1,\ldots ,\alpha _d \in \mathbb {C}[/latex] genau [latex]d[/latex] (das heisst, paarweise verschiedene) komplexe Zahlen. Zeigen Sie, dass die komplexwertigen Funktionen

[latex]
\begin{aligned}[]f_k: x \in \mathbb {R} \mapsto \mathrm {e}^{\alpha _k x} \in \mathbb {C}\end{aligned}
[/latex]

für [latex]k=1,\ldots ,d[/latex] linear unabhängig über [latex]\mathbb {C}[/latex] sind.

Hinweis.

Wenn die Aussage nicht zutrifft, dann gibt es auch ein (bezüglich [latex]d[/latex]) kleinstes Gegenbeispiel. Betrachten Sie nun Ableitungen und finden Sie ein noch kleineres Gegenbeispiel.

Wir möchten nun den Fall, wo eine Nullstelle des charakteristischen Polynoms der Differentialgleichung (12.3) mehrfach erscheint, allgemeiner thematisieren. Dazu beginnen wir, Funktionen des Typs [latex]x^n \mathrm {e}^{\alpha x}[/latex], wie wir sie im letzten Fall von Beispiel 7.67 gesehen hatten, genauer zu untersuchen.

Proposition 12.6: Eine Basis eines Teilraumes

Die komplexwertigen Funktionen

[latex]
\begin{aligned}[]x \in \mathbb {R} \mapsto x^n \mathrm {e}^{\alpha x}\end{aligned}
[/latex]

für [latex]n \in \mathbb {N}_0[/latex] und [latex]\alpha \in \mathbb {C}[/latex] bilden eine linear unabhängige Teilmenge des komplexen Vektorraum [latex]F_\mathbb {C}(\mathbb {R})[/latex] der komplexwertigen Funktionen auf [latex]\mathbb {R}[/latex].

Wir bezeichnen die lineare Hülle dieser Funktionen als

[latex]
\begin{aligned}[]\operatorname {PE}_\mathbb {C}(\mathbb {R}) = \left \langle x^n \mathrm {e}^{\alpha x} \big \vert n \in \mathbb {N}_0,\alpha \in \mathbb {C} \right \rangle ,\end{aligned}
[/latex]

da die Elemente von [latex]\operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] aus Polynomen und der Exponentialabbildung konstruiert werden. Für [latex]\alpha \in \mathbb {C}[/latex] definieren wir des Weiteren den Teilraum

[latex]
\begin{aligned}[]\operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R}) = \left \langle x^n \mathrm {e}^{\alpha x} \big \vert n \in \mathbb {N}_0 \right \rangle = \mathbb {C}[x]\mathrm {e}^{\alpha x} \subseteq \operatorname {PE}_\mathbb {C}(\mathbb {R}).\end{aligned}
[/latex]

Die Ableitung definiert eine lineare Abbildung

[latex]
\begin{aligned}[]D: \operatorname {PE}_\mathbb {C}(\mathbb {R}) &\to \operatorname {PE}_\mathbb {C}(\mathbb {R})\quad f \mapsto D(f) = f',\end{aligned}
[/latex]

die des Weiteren [latex]D( \operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R}))\subseteq \operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R})[/latex] für alle [latex]\alpha \in \mathbb {C}[/latex] erfüllt. In der Tat ist
[latex]
\begin{aligned}[]\label{eq:abl-derivative on PE_C^alpha} D(\mathrm {e}^{\alpha x}) = \alpha \mathrm {e}^{\alpha x},\quad D(x^{n}\mathrm {e}^{\alpha x}) = n x^{n-1}\mathrm {e}^{\alpha x} + \alpha x^n \mathrm {e}^{\alpha x}\end{aligned}
[/latex]
für alle [latex]n \in \mathbb {N}[/latex] und [latex]\alpha \in \mathbb {C}[/latex]. Für die Funktion [latex]f:x \mapsto p(x) \mathrm {e}^{\alpha x}[/latex] zu [latex]p(t) \in \mathbb {C}[t][/latex] bezeichnen wir [latex]\deg (p)[/latex] als den Grad von [latex]f[/latex] und [latex]\alpha[/latex] als den Exponenten von [latex]f[/latex]. Nach Obigem ist für [latex]f \in \operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R})[/latex] mit Exponenten [latex]\alpha \neq 0[/latex] der Grad von [latex]D(f)[/latex] gleich dem Grad von [latex]f[/latex].

Beweis

Wir nehmen indirekt an, dass es paarweise verschiedene Parameter [latex]\alpha _1,\ldots ,\alpha _\ell \in ~\mathbb {C}[/latex] und von Null verschiedene Polynome [latex]q_1(T),\ldots ,q_\ell (T) \in \mathbb {C}[T][/latex] gibt, so dass

[latex]
\begin{aligned}[]\sum _{k=1}^\ell q_k(x) \mathrm {e}^{\alpha _k x} =0\end{aligned}
[/latex]

für alle [latex]x \in \mathbb {R}[/latex]. Des Weiteren dürfen wir annehmen, dass [latex]\ell \geq 1[/latex] minimal ist mit dieser Eigenschaft (nach Satz 2.23).

Falls [latex]\ell =1[/latex] ist, multiplizieren wir obige Gleichung mit [latex]\mathrm {e}^{-\alpha _1 x}[/latex] und erhalten die Gleichung [latex]q_1(x) = 0[/latex] für alle [latex]x\in \mathbb {R}[/latex], die [latex]q_1(T) \neq 0[/latex] widerspricht (siehe Abschnitt 3.2).

Sei also [latex]\ell > 1[/latex]. Wir multiplizieren die Gleichung [latex]\sum _{k=1}^\ell q_k(x) \mathrm {e}^{\alpha _k x} =0[/latex] mit [latex]\mathrm {e}^{-\alpha _\ell x}[/latex] und erhalten

[latex]
\begin{aligned}[]\sum _{k=1}^{\ell -1}q_k(x) \mathrm {e}^{(\alpha _k-\alpha _\ell )x} + q_\ell (x) =0.\end{aligned}
[/latex]

für alle [latex]x \in \mathbb {R}[/latex]. Wir wenden nun die Ableitung [latex]D[/latex] genau [latex]\deg (q_\ell )+1[/latex]-mal an. Der Term [latex]q_\ell (x)[/latex] verschwindet und wegen Gleichung (12.5) wird [latex]q_k(x) \mathrm {e}^{(\alpha _k-\alpha _\ell )x}[/latex] für [latex]k\in \left \lbrace {1,\ldots ,\ell -1} \right \rbrace[/latex] zu einem Ausdruck der Form [latex]\tilde {q}_k(x) \mathrm {e}^{(\alpha _k-\alpha _\ell )x}[/latex], wobei [latex]\tilde {q}_k(T) \in \mathbb {C}[T][/latex] den gleichen Grad wie [latex]q_k[/latex] hat (wieso?). Somit gilt

[latex]
\begin{aligned}[]\sum _{k=1}^{\ell -1}\tilde {q}_k(x) \mathrm {e}^{(\alpha _k-\alpha _\ell )x} =0\end{aligned}
[/latex]

für alle [latex]x \in \mathbb {R}[/latex], was der minimalen Wahl von [latex]\ell[/latex] widerspricht. ∎

Übung 12.7: Matrixdarstellung des Differentiationsoperators

Finden Sie eine «Matrix­darstellung» von [latex]D[/latex] eingeschränkt auf [latex]\operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R})[/latex] für [latex]\alpha \in \mathbb {C}[/latex] bezüglich der Basis

[latex]
\begin{aligned}[]\mathrm {e}^{\alpha x},x\mathrm {e}^{\alpha x},\frac {x^2}{2!}\mathrm {e}^{\alpha x},\frac {x^3}{3!}\mathrm {e}^{\alpha x},\ldots .\end{aligned}
[/latex]

Um die Anführungszeichen zu vermeiden, können Sie [latex]D[/latex] auch auf den Unterraum

[latex]
\begin{aligned}[]\left \lbrace {e^{\alpha x} q(x)} \mid {p \in \mathbb {C}[x],\ \deg (q) \leq n}\right \rbrace\end{aligned}
[/latex]

von [latex]\operatorname {PE}_\mathbb {C}^\alpha (\mathbb {R})[/latex] für [latex]n \in \mathbb {N}[/latex] einschränken. Vergleichen Sie ihr Ergebnis mit dem Begriff der Jordan-Normalform aus der Linearen Algebra.

Für ein Polynom [latex]p(T) = \sum _{k=0}^d a_k T^k \in \mathbb {C}[T][/latex] definieren wir die lineare Abbildung

[latex]
\begin{aligned}[]p(D) = \sum _{k=0}^d a_kD^k: f \in \operatorname {PE}_\mathbb {C}(\mathbb {R}) \mapsto \sum _{k=0}^d a_k f^{(k)} \in \operatorname {PE}_\mathbb {C}(\mathbb {R}),\end{aligned}
[/latex]

wobei [latex]D^0=I[/latex] die Identitätsabbildung auf [latex]\operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] darstellt (wir haben [latex]f^{(0)}[/latex] als [latex]f[/latex] definiert). Die homogene Differentialgleichung (siehe auch (12.3))

[latex]
\begin{aligned}[]a_n y^{(d)} + \ldots + a_0 y^{(0)} = \sum _{k=0}^d a_ky^{(k)} =0\end{aligned}
[/latex]

lässt sich mit dem Differentialoperator [latex]p(D)[/latex] auch in der angenehm kurzen Form

[latex]
\begin{aligned}[]p(D) y =0\end{aligned}
[/latex]

schreiben. Die Abbildung [latex]p \in \mathbb {C}[T] \mapsto p(D)[/latex] ist linear. Des Weiteren gilt für zwei Polynome [latex]p(T)= \sum _{k=0}^m a_k T^k[/latex], [latex]q(T) = \sum _{\ell =0}^n b_\ell T^\ell[/latex] und der Konvention [latex]a_k = 0 = b_\ell[/latex] für [latex]k > m[/latex] und [latex]\ell > n[/latex], dass

[latex]
\begin{aligned}[]p(T) q(T) = \sum _{j=0}^{m+n} \left (\sum _{k=0}^j a_kb_{j-k}\right ) T^j.\end{aligned}
[/latex]

Somit gilt die multiplikative Eigenschaft

[latex]
\begin{aligned}[]p(D)(q(D)f) &= p(D) \left (\sum _{\ell =0}^n b_\ell D^\ell f \right )\\ &= \sum _{k=0}^m a_kD^k\left (\sum _{\ell =0}^n b_\ell D^\ell f \right ) = \sum _{k=0}^m \sum _{\ell =0}^na_kb_\ell D^{k+\ell }f\\ &= \sum _{j=0}^{m+n} \left (\sum _{k=0}^j a_kb_{j-k}\right ) D^j f = (pq)(D)(f)\end{aligned}
[/latex]

für alle [latex]f \in \operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] oder kurz [latex]p(D)q(D) = (pq)(D)[/latex]. Diese Eigenschaft macht die Auswertungsabbildung [latex]p\in \mathbb {C}[T] \mapsto p(D)[/latex] zu einem sogenannten Ringhomomorphismus.

Mit der oben eingeführten Abstraktion können wir nun Lösungen zu linearen homogenen Differentialgleichungen mit konstanten Koeffizienten auf zufriedenstellende Art und Weise angeben.

Proposition 12.8: Lineare homogene Differentialgleichungen mit konstanten Koeffizienten

Sei [latex]p(T) = \sum _{k=0}^d a_k T^k \in \mathbb {C}[T][/latex] ein Polynom mit [latex]a_d=1[/latex], das mittels [latex]p(T) = \prod _{k=1}^\ell (T-\alpha _k)^{n_k}[/latex] in Linearfaktoren zerfällt, wobei wir annehmen, dass [latex]\alpha _j \neq \alpha _k[/latex] für [latex]j\neq k\in \left \lbrace {1,\ldots ,\ell } \right \rbrace[/latex]. Dann hat die zugehörige homogene Differentialgleichung

[latex]
\begin{aligned}[]p(D) y =0\end{aligned}
[/latex]

die folgenden [latex]d[/latex] linear unabhängigen Lösungen:

[latex]
\begin{aligned}[]&\mathrm {e}^{\alpha _1 x},\quad x\mathrm {e}^{\alpha _1 x},\quad \ldots \ ,\quad x^{n_1-1}\mathrm {e}^{\alpha _1 x}\\ &\quad \vdots \\ &\mathrm {e}^{\alpha _\ell x},\quad x\mathrm {e}^{\alpha _\ell x},\quad \ldots \ ,\quad x^{n_\ell -1}\mathrm {e}^{\alpha _\ell x}\end{aligned}
[/latex]

Wir bemerken, dass nach dem Fundamentalsatz der Algebra (Theorem 9.81) jedes Polynom über [latex]\mathbb {C}[/latex] in Linearfaktoren zerfällt und somit die Annahme an [latex]p[/latex] in obiger Proposition keine Einschränkung ist. Des Weiteren werden wir später sehen, dass die Lösungsmenge der Gleichung [latex]p(D)y = 0[/latex] genau [latex]d[/latex]-dimensional ist. Somit haben wir mit obigem Resultat eine Basis des Lösungsraumes der Differentialgleichung [latex]p(D)y=0[/latex] erhalten.

Beweis

Nach Annahme hat das Polynom [latex]p[/latex] Grad [latex]d = \sum _{k=0}^\ell n_k[/latex], womit wir in der Tat [latex]d[/latex] Funktionen angegeben haben, die nach Proposition 12.6 linear unabhängig sind. Für ein festes [latex]k \in \left \lbrace {1,\ldots ,\ell } \right \rbrace[/latex] gilt weiter

[latex]
\begin{aligned}[](D-\alpha _kI)\mathrm {e}^{\alpha _k x} &= \alpha _k \mathrm {e}^{\alpha _k x} - \alpha _k \mathrm {e}^{\alpha _k x} = 0\\ (D-\alpha _kI)x^m \mathrm {e}^{\alpha _k x} &= m x^{m-1}\mathrm {e}^{\alpha _k x} +\alpha _k x^m \mathrm {e}^{\alpha _k x} - \alpha _k x^m \mathrm {e}^{\alpha _k x} \\ &= m x^{m-1}\mathrm {e}^{\alpha _k x}\end{aligned}
[/latex]

für alle [latex]m \in \mathbb {N}[/latex]. Für [latex]m \in \left \lbrace {0, \ldots , n_k-1} \right \rbrace[/latex] folgt nun aus dieser Rechnung und Induktion, dass [latex](D-\alpha _kI)^{n_k} x^m \mathrm {e}^{\alpha _k x} = 0[/latex]. Weil die Auswertungsabbildung ein Ringhomomorphismus ist, folgt

[latex]
\begin{aligned}[]p(D)x^m \mathrm {e}^{\alpha _k x} = \Bigg (\prod _{\substack {j=1,\ldots ,n\\ j \neq k}} (D-\alpha _j)^{n_j}\Bigg ) (D-\alpha _kI)^{n_k} x^m \mathrm {e}^{\alpha _k x} = 0,\end{aligned}
[/latex]

was zu beweisen war. ∎

Übung 12.9: Reellwertige Lösungen

Beschreiben Sie einen reellen Vektorraum [latex]\operatorname {PESC}_\mathbb {R}(\mathbb {R})\subseteq \operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] von reellwertigen Funktionen auf [latex]\mathbb {R}[/latex], so dass alle reellwertigen Lösungen in [latex]\operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] von homogenen linearen Differentialgleichungen mit konstanten Koeffizienten in [latex]\operatorname {PESC}_\mathbb {R}(\mathbb {R})[/latex] enthalten sind.

12.2.2 – Eine Lösung der inhomogenen Differentialgleichung

Wir wenden uns nun dem inhomogenen Problem zu. Für eine Störfunktion [latex]g \in \operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] gibt es ein einfaches Rezept, wie man eine partikuläre Lösung [latex]y_{\operatorname {part}}[/latex] der inhomogenen Differentialgleichung

[latex]
\begin{aligned}[]p(D)y = g,\end{aligned}
[/latex]

wobei [latex]p(T) \in \mathbb {C}[T][/latex], finden kann.

  • Falls [latex]g(x) = q(x) \mathrm {e}^{\alpha x}[/latex] für ein Polynom [latex]q(T)[/latex] vom Grad [latex]n[/latex] und [latex]\alpha \in \mathbb {C}[/latex] mit [latex]p(\alpha ) \neq 0[/latex], dann definiert man [latex]y_{\operatorname {part}} = Q(x) \mathrm {e}^{\alpha x}[/latex], wobei [latex]Q(T)[/latex] ein Polynom vom Grad [latex]n[/latex] mit noch zu bestimmenden Koeffizienten ist. Nun berechnet man [latex]p(D)y_{\operatorname {part}}[/latex], setzt dies gleich [latex]g[/latex] und verwendet diese Gleichung, um die Koeffizienten von [latex]Q[/latex] zu bestimmen.
  • Falls [latex]g(x) = q(x) \mathrm {e}^{\alpha x}[/latex] für ein Polynom [latex]q(T)[/latex] vom Grad [latex]n[/latex] und [latex]\alpha \in \mathbb {C}[/latex] mit [latex]p(\alpha ) = 0[/latex], dann wiederholt man obiges Verfahren, allerdings mit dem Ansatz [latex]y_{\operatorname {part}} = Q(x)x^\ell \mathrm {e}^{\alpha x}[/latex], wobei [latex]\ell[/latex] die Vielfachheit der Nullstelle [latex]\alpha[/latex] von [latex]p(T)[/latex] angibt.
  • Ein allgemeines [latex]g \in \operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] lässt sich als Linearkombination von Ausdrücken wie oben darstellen. Auf Grund der Linearität von [latex]p(D)[/latex] kann man also obiges Verfahren für Summanden der Form [latex]q(x) \mathrm {e}^{\alpha x}[/latex] in [latex]g[/latex] anwenden und dann die resultierenden Funktionen addieren.
  • Falls [latex]\alpha \in \mathbb {C} \setminus \mathbb {R}[/latex] ist und wir an reellwertigen Lösungen einer Differentialgleichung mit reellen Koeffizienten interessiert sind, dann kann man [latex]\mathrm {e}^{\alpha x},\mathrm {e}^{\overline { \alpha }x}[/latex] in obigen Diskussionen durch [latex]\mathrm {e}^{\beta x}\cos (\gamma x)[/latex], [latex]\mathrm {e}^{\beta x}\sin (\gamma x)[/latex] für [latex]\beta ,\gamma \in \mathbb {R}[/latex] mit [latex]\alpha = \beta + \gamma \mathrm {i}[/latex] ersetzen.

Übung 12.10: Dies funktioniert immer

Zeigen Sie, dass das oben erklärte Verfahren tatsächlich zum Ziel (das heisst, zu einer partikulären Lösung) führt.

Hinweis.

Verwenden Sie (12.5).

12.2.3 – Lösen des Anfangswertproblems

Die allgemeine Lösung einer inhomogenen Differentialgleichung ergibt sich nun wiederum als die Summe einer partikulären Lösung und der allgemeinen Lösung der zugehörigen homogenen Differentialgleichung (siehe Übung 12.4). Anschliessend kann man die Anfangsbedingungen eines Anfangswertproblems (siehe (12.4)) verwenden, um die Lösung näher zu bestimmen.

Wir wollen das Verfahren zur Lösung eines Anfangswertproblems für eine inhomogene lineare Differentialgleichung mit konstanten Koeffizienten nochmals an einem Beispiel erklären, welches etwas komplexer ist, damit wir eben einige der verschiedenen Möglichkeiten sehen können. Wir überspringen allerdings das Lösen der sich ergebenden linearen Gleichungssysteme.

Beispiel 12.11

Wir betrachten das Polynom [latex]p(T) = (T^2+4)(T-1)T = T^4-T^3+4T^2-4T[/latex] und dazu die inhomogene Differentialgleichung

[latex]
\begin{aligned}[]p(D)y = y^{(4)}-y^{(3)}+4y^{(2)}-4y^{(1)} = \sin (x)+ \mathrm {e}^{x} + x.\end{aligned}
[/latex]
  • Für die homogene Differentialgleichung bemerken wir, dass die Nullstellen von [latex]p(T)[/latex] durch [latex]2\mathrm {i},-2\mathrm {i},1,0[/latex] (jeweils mit Vielfachheit [latex]1[/latex]) gegeben sind und somit die allgemeine Lösung der homogenen Differentialgleichung [latex]p(D)y = 0[/latex] durch
    [latex]
    \begin{aligned}[]y_{\operatorname {hom}} = A_1 \sin (2x) + A_2 \cos (2x) + A_3 \mathrm {e}^x + A_4\end{aligned}
    [/latex]

    gegeben ist.

  • Für die Störfunktion [latex]g_1(x) = \sin (x)[/latex] wählen wir gemäss Rezept den Ansatz [latex]y_{p,1} = B \sin (x) + C \cos (x)[/latex]. Nun berechnet man die Ableitungen [latex]y_{p,1}',\ldots , y_{p,1}^{(4)}[/latex] und setzt dies in [latex]p(D)y_{p,1} = \sin (x)[/latex] ein. Dann bestimmt man [latex]B,C[/latex] mit dem resultierenden Gleichungssystem und erhält [latex]B= -\frac 16,\, C= \frac 16[/latex]. Somit ist [latex]y_{p,1} = \frac 16 (-\sin (x) + \cos (x))[/latex].
  • Für die Störfunktion [latex]g_2(x)=\mathrm {e}^x[/latex] wählen wir gemäss Rezept den Ansatz [latex]y_{p,2} = E xe^x[/latex]. Wie zuvor berechnet man nun die Ableitungen [latex]y_{p,2}',\ldots , y_{p,2}^{(4)}[/latex] und setzt dies in [latex]p(D)y_{p,2} = \mathrm {e}^x[/latex] ein. Man erhält [latex]E = \frac {1}{5}[/latex] und [latex]y_{p,2} = \frac 15 xe^x[/latex].
  • Für die Störfunktion [latex]g_3(x)=x[/latex] wählen wir den Ansatz [latex]y_{p,3} = F x^2 + G x[/latex]. Man berechnet [latex]y_{p,3}' = 2Fx + G[/latex], [latex]y_{p,3}'' = 2F[/latex], [latex]y_{p,3}^{(3)}= y_{p,3}^{(4)}=0[/latex] und setzt dies in [latex]p(D)y_{p,3} = x[/latex] ein. Dies ergibt
    [latex]
    \begin{aligned}[]4 (2F) -4 (2Fx+G) = x = 8F -8Fx -4G\end{aligned}
    [/latex]

    und somit [latex]F = -\frac {1}{8}[/latex], [latex]G = - \frac 14[/latex]. Also ist [latex]y_{p,3} = -\frac {1}{8} x^2 -\frac {1}{4}x[/latex].

Für die allgemeine Lösung der inhomogenen Differentialgleichung [latex]p(D)y =\sin (x)+ \mathrm {e}^{x} + x[/latex] erhalten wir daraus

[latex]
\begin{aligned}[]y_{\operatorname {inhom}} &= y_{\operatorname {hom}} + y_{\operatorname {part}} = y_{\operatorname {hom}} + y_{p,1}+ y_{p,2} + y_{p,3}\\ &= A_1 \sin (2x) + A_2 \cos (2x) + A_3 \mathrm {e}^x + A_4 + \tfrac 16 (-\sin (x) + \cos (x)) + \tfrac 15 x\mathrm {e}^x -\tfrac {1}{8} x^2 -\tfrac {1}{4}x\end{aligned}
[/latex]

Wenn jetzt noch Anfangswerte

[latex]
\begin{aligned}[]y(0) = \tfrac {1}{24},\ y'(0) = -\tfrac {1}{20},\ y''(0) = \tfrac {1}{12},\ y^{(3)} (0) = \tfrac {1}{10}\end{aligned}
[/latex]

gegeben sind, so ergibt sich nach Lösung eines Gleichungssystems in den Variablen [latex]A_1,A_2,A_3,A_4[/latex] die Lösung

[latex]
\begin{aligned}[]y = \tfrac {1}{12} \sin (2x) - \tfrac {1}{40} \cos (2x) - \tfrac {1}{10} + \tfrac 16 (-\sin (x) + \cos (x)) + \tfrac 15 x\mathrm {e}^x -\tfrac {1}{8} x^2 -\tfrac {1}{4}x.\end{aligned}
[/latex]

Übung 12.12: Mehrfache Nullstellen

Bestimmen Sie die allgemeine Lösung der inhomogenen Differentialgleichung [latex]p(D)y=x+\mathrm {e}^x+\sin (2x)[/latex] wobei das Polynom [latex]p(T)\in \mathbb {R}[T][/latex] durch [latex]p(T)=(T-1)^2(T^2+4)[/latex] gegeben ist. Gehen Sie dabei in folgenden Schritten vor:

  1. Bestimmen Sie zuerst die allgemeine Lösung von [latex]p(D)y_0=0[/latex].
  2. Finden Sie ein Polynom [latex]q_1(T)\in \mathbb {R}[T][/latex], so dass [latex]y_1=q_1(x)[/latex] die inhomogene Differentialgleichung [latex]p(D)y_1=x[/latex] löst (und multiplizieren Sie hierfür [latex]p(T)[/latex] aus).
  3. Finden Sie als nächstes ein Polynom [latex]q_2(T)\in \mathbb {R}[T][/latex], so dass [latex]y_2=q_2(x)\mathrm {e}^x[/latex] eine Lösung von [latex]p(D)y_2=\mathrm {e}^x[/latex] ist.
  4. Finden Sie schlussendlich zwei Polynome [latex]q_3(T),q_4(T)\in \mathbb {R}[T][/latex], so dass für die Funktion [latex]y_3=q_3(x)\sin (2x)+q_4(x)\cos (2x)[/latex] die Gleichung [latex]p(D)y_3=\sin (2x)[/latex] gilt.
  5. Nehmen Sie die Summe von all diesen Funktionen (welche auf Grund der Funktion [latex]y_0[/latex] vier unbestimmte Konstanten enthalten wird).

Übung 12.13: Eindeutigkeit

Sei [latex]p \in \mathbb {C}[t][/latex] ein Polynom von Grad [latex]d\in \mathbb {N}[/latex] und seien die Anfangswerte durch [latex]w_0,\ldots ,w_{d-1} \in \mathbb {C}[/latex] gegeben. Sei des Weiteren [latex]g \in \operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] eine Störfunktion. Zeigen Sie, dass das Anfangswertproblem

[latex]
\begin{aligned}[]&p(D) y = g\\ &y(0) = w_0,\ y'(0) = w_1,\ \ldots \ ,\ y^{(d-1)}(0) = w_{d-1}\end{aligned}
[/latex]

in [latex]\operatorname {PE}_\mathbb {C}(\mathbb {R})[/latex] eine eindeutig bestimmte Lösung besitzt.

Übung 12.14: Glattheit

Sei [latex]p \in \mathbb {R}[t][/latex] ein Polynom von Grad [latex]d\in \mathbb {N}[/latex] und sei [latex]g: \mathbb {R} \to \mathbb {R}[/latex] glatt. Zeigen Sie, dass jede Lösung [latex]y[/latex] der Differentialgleichung [latex]p(D) y = g[/latex] eine glatte Funktion ist.

12.3 – Differentialgleichungsysteme

Wir wollen hier den Begriff der Differentialgleichung auf vektorwertige Funktionen oder (äquivalenterweise) auf mehrere, verschiedene Funktionen mit Querbeziehungen verallgemeinern. Sei [latex]I \subseteq \mathbb {R}[/latex] ein Intervall, [latex]U \subseteq I \times \mathbb {R}^d[/latex] offen und [latex]f: U \to \mathbb {R}^d[/latex] eine stetige Funktion. Dann heisst die Gleichung

[latex]
\begin{aligned}[]\dot {x}(t) = f(t,x(t))\end{aligned}
[/latex]

für eine unbekannte (gesuchte) Funktion (Kurve) [latex]x[/latex] ein [latex]d[/latex]-dimensionales Differentialgleichungssystem erster Ordnung. Dabei ist der Definitionsbereich einer Lösung [latex]x[/latex] möglicherweise nur ein Teilintervall von [latex]I[/latex] (insbesondere muss ja [latex](t,x(t))\in U[/latex] für alle [latex]t[/latex] im Definitionsbereich von [latex]x[/latex] gelten). Die Funktion [latex]f[/latex] wird oft auch die rechte Seite genannt. Des Weiteren nennen wir zu [latex](t_0,x_0) \in U[/latex] die Gleichungen

[latex]
\begin{aligned}[]\dot {x}(t) = f(t,x(t)),\quad x(t_0) = x_0\end{aligned}
[/latex]

ein Anfangswertproblem zum Anfangswert [latex]x_0[/latex] bei [latex]t_0 \in I[/latex].

Die Differentialgleichung ist autonom (sich selbst überlassen), falls [latex]f[/latex] zeitunabhängig ist, das heisst, falls [latex]f(t,x) = f(t',x)[/latex] für alle [latex](t,x),(t',x) \in U[/latex]. Wie schon zuvor nennen wir die Funktion [latex]f[/latex] ein Vektorfeld, selbst wenn dieses zeitabhängig ist. Das Vektorfeld gibt bei [latex](t,x) \in U[/latex] die Richtung und die Geschwindigkeit des gesuchten Weges [latex]t\mapsto x(t)[/latex] an. Eine praktische Applikation zur Darstellung von Vektorfeldern (und der Lösungen von Anfangswertproblemen dazu) können Sie hier finden.

12.3.1 – Umwandlung einer Differentialgleichung höherer Ordnung

Es stellt sich die Frage, warum wir oben (und auch im Folgenden) nur Differentialgleichungssysteme erster Ordnung besprechen. Der Grund dafür ist die folgende Konstruktion.

Angenommen
[latex]
\begin{aligned}[]\label{eq:diffglg-redhoeherauferster1} y^{(d)}(t) = f\bigl (t,y(t),\dot y(t),\ldots ,y^{(d-1)}(t)\bigr )\end{aligned}
[/latex]
ist eine explizite Differentialgleichung der Ordnung [latex]d[/latex] und [latex]f:U \to \mathbb {R}[/latex] ist eine stetige Funktion auf einer offenen Teilmenge [latex]U\subseteq \mathbb {R}^{d+1}[/latex]. Dann können wir diese Differentialgleichung in ein [latex]d[/latex]-dimensionales Differentialgleichungssystem erster Ordnung umwandeln, indem wir

[latex]
\begin{aligned}[]x(t) = (x_0(t),x_1(t),\ldots ,x_{d-1}(t))^t\end{aligned}
[/latex]

und
[latex]
\begin{aligned}[]\label{eq:diffglg-redhoeherauferster2} \left \lbrace \begin{array}{c} \dot x_0(t) = x_1(t) \\ \dot x_1(t) = x_2(t) \\ \vdots \\ \dot x_{d-1}(t) = f(t,x_0(t),\ldots ,x_{d-1}(t))\end{array} \right .\end{aligned}
[/latex]
setzen. In der Tat sind mit [latex]y(t) = x_0(t)[/latex] die Gleichungen (12.6) und (12.7) äquivalent. Die in (12.7) definierte (stetige) rechte Seite [latex]\tilde {f}:U \to \mathbb {R}^d[/latex] «erbt» des Weiteren die meisten Eigenschaften von [latex]f[/latex]. Ist beispielsweise [latex]f[/latex] differenzierbar, so ist auch [latex]\tilde {f}[/latex] differenzierbar und selbiges gilt unter anderem für Lipschitz-Stetigkeit (siehe die Annahmen von Theorem 12.23 wieter unten).

Selbiges Verfahren, leicht angepasst, liefert zu einer Differentialgleichungen höherer Ordnung in vektorwertigen Funktionen ebenfalls eine äquivalentes Differentialgleichungssystem erster Ordnung. Die gleiche Diskussion trifft auf die Übertragung von Anfangswerten zu.

Obige Äquivalenz erklärt, wieso wir in den Diskussionen weiter unten uns meist auf Differentialgleichungen (oder Differentialgleichungssysteme) erster Ordnung einschränken werden. Wir überlassen es dabei den Leserinnen und Lesern, die Resultate (siehe vor allem Theorem 12.23) auf Differentialgleichungen höherer Ordnung übertragen.

12.3.2 – Lineare autonome Differentialgleichungssysteme

Wir betrachten hier den Fall eines linearen Differentialgleichungssystem mit konstanten Koeffizienten.

Proposition 12.15: Existenz und Eindeutigkeit von Lösungen

Sei [latex]A \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex], [latex]x_0 \in \mathbb {R}^d[/latex] und [latex]t_0 \in \mathbb {R}[/latex]. Das Anfangswertproblem

[latex]
\begin{aligned}[]\dot {x}(t) = A x(t), \quad x(t_0) = x_0\end{aligned}
[/latex]

hat die eindeutig bestimmte Lösung

[latex]
\begin{aligned}[]t \in \mathbb {R} \mapsto x(t) = \exp (A(t-t_0)) x_0.\end{aligned}
[/latex]

Hierbei ist die (Matrix-) Exponentialabbildung [latex]\exp : \operatorname {Mat}_{d,d}(\mathbb {R}) \to \operatorname {GL}_d(\mathbb {R})[/latex] durch

[latex]
\begin{aligned}[]\exp (B) = \sum _{n=0}^\infty \frac {1}{n!}B^n\end{aligned}
[/latex]

für [latex]B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex] definiert ist.

Auf Grund der Konstruktion aus Abschnitt 12.3.1 gibt Proposition 12.15 auch eine Lösungsmethode für lineare Differentialgleichungen [latex]d[/latex]-ter Ordnung mit konstanten Koeffizienten wie in (12.3) an (siehe auch den Beweis von Korollar 12.18 unten). Hier möchten wir andeuten, wie sich solche Differentialgleichungen als Differentialgleichungssystem erster Ordnung schreiben lassen. Sei also die Differentialgleichung

[latex]
\begin{aligned}[]y^{(d)}+ a_{d-1} y^{(d-1)}+\ldots +a_0 y^{(0)} = 0\end{aligned}
[/latex]

für [latex]a_0,\ldots ,a_{d-1} \in \mathbb {R}[/latex] gegeben. Wandelt man dies in Differentialgleichungssystem erster Ordnung um, so ergibt sich (siehe (12.7)) die Gleichung [latex]\dot {x}(t) = Ax(t)[/latex] für

[latex]
\begin{aligned}[]A = \begin{pmatrix}0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \ddots & \vdots \\ \vdots & & \ddots & \ddots & 0 \\ 0 & 0 & \cdots & 0 & 1 \\ -a_0 & -a_1 & \cdots & -a_{d-2} & -a_{d-1}\end{pmatrix}.\end{aligned}
[/latex]

Dies ist auch die Begleitmatrix des charakteristischen Polynoms der obigen Differentialgleichung — siehe folgende Übung.

Übung 12.16: Begleitmatrix eines Polynoms

Zeigen Sie, dass das charakteristische Polynom der obigen Matrix [latex]A[/latex] genau das Polynom [latex]T^d+ a_{d-1}T^{d-1}+ \ldots + a_1 T + a_0[/latex] ist.

Die Aussage von Proposition 12.15 «konkurriert» gewissermassen mit der Aussage von Proposition 12.8, weswegen man sich fragen könnte, ob die Exponentialabbildung für Matrizen auch für Differentialgleichungen wie Proposition 12.8 entsprechende Lösungen liefert. Dafür möchten wir auf Übung 12.21 verweisen.

Beweis

Wir zeigen zuerst, dass die Exponentialabbildung in der Tat durch eine absolut konvergente Reihe definiert wurde. Dabei ist auf Grund der Normäquivalenz auf endlichdimensionalen Vektorräumen die Wahl der Norm uns überlassen. Wir verwenden die Euklidsche Norm [latex]\| {\cdot }\|[/latex] auf [latex]\mathbb {R}^d[/latex] und die Matrixnorm (Operatornorm — siehe Definition 9.75)

[latex]
\begin{aligned}[]\| {B}\| _\mathrm {op} = \max _{v \in \mathbb {R}^d,\ \| {v}\| \leq 1} \| {Bv}\|\end{aligned}
[/latex]

für [latex]B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex]. Nach Lemma 9.76 ist die Matrixnorm submultiplikativ, das heisst, für [latex]B_1,B_2 \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex] gilt

[latex]
\begin{aligned}[]\| {B_1B_2}\| _\mathrm {op} \leq \| {B_1}\| _\mathrm {op} \| {B_2}\| _\mathrm {op}.\end{aligned}
[/latex]

Daraus folgt für [latex]B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex]

[latex]
\begin{aligned}[]\sum _{n=0}^\infty \| {\tfrac {1}{n!} B^n}\| _\mathrm {op} \leq \sum _{n=0}^\infty \tfrac {1}{n!} \| {B}\| _\mathrm {op}^n = \exp (\| {B}\| _\mathrm {op}) [/latex]

In anderen Worten ist die Reihe [latex]\sum _{n=0}^\infty \frac {1}{n!}B^n[/latex] also für jedes [latex]B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex] (bezüglich [latex]\| {\cdot }\| _\mathrm {op}[/latex] oder äquivalenterweise in jedem Matrixeintrag) absolut konvergent und daher ist die Exponentialabbildung [latex]\exp[/latex] auf Matrizen wohldefiniert.

Für [latex]A,B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex] mit [latex]AB = BA[/latex] (das heisst, [latex]A[/latex] und [latex]B[/latex] kommutieren) gilt der erweiterte Binomialsatz

[latex]
\begin{aligned}[](A+B)^n = \sum _{\ell =0}^n \binom {n}{\ell } A^\ell B^{n-\ell }\end{aligned}
[/latex]

für alle [latex]n \in \mathbb {N}_0[/latex]. (Wieso?

Bei einem kurzen Rückblick auf den Beweis von Satz 3.28 werden Sie feststellen, dass der Beweis durch einfaches Ersetzen von [latex]z,w[/latex] durch [latex]A,B[/latex] auch für kommutierende Matrizen gilt.

) Daraus folgt

[latex]
\begin{aligned}[]\exp (A+B) &= \sum _{n=0}^\infty \frac {1}{n!} (A+B)^n \\ &= \sum _{n=0}^\infty \frac {1}{n!}\sum _{\ell =0}^n \binom {n}{\ell } A^\ell B^{n-\ell }\\ &= \sum _{n=0}^\infty \sum _{\ell =0}^n \frac {1}{\ell !} A^\ell \frac {1}{(n-\ell )!}B^{n-\ell }\\ &= \left (\sum _{\ell = 0}^\infty \frac {1}{\ell !}A^\ell \right ) \left (\sum _{m=0}^\infty \frac {1}{m!}B^m\right )\\ &= \exp (A)\exp (B),\end{aligned}
[/latex]

wobei wir die Verallgemeinerung des Produktsatzes für absolut konvergente Reihen (Satz 6.36 und Korollar 6.37) für Matrizen verwendet haben. Diese Verallgemeinerung folgt aus demselben Beweis oder durch Anwendung des Satzes auf die einzelnen Komponenten

[latex]
\begin{aligned}[](\exp (A))_{ij} = \sum _{\ell = 0}^\infty \frac {1}{\ell !}(A^\ell )_{ij}\\ (\exp (B))_{jk} = \sum _{m=0}^\infty \frac {1}{m!}(B^m)_{jp}\end{aligned}
[/latex]

für [latex]i,j,k \in \left \lbrace {1,\ldots ,d} \right \rbrace[/latex]. Insbesondere gilt

[latex]
\begin{aligned}[]\exp (B) \exp (-B) = \exp (B-B) = \exp (0) = I_d\end{aligned}
[/latex]

und daher ist [latex]\exp (B) \in \operatorname {GL}_d(\mathbb {R})[/latex] invertierbar für alle [latex]B \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex].

Wir betrachten nun die Abbildung [latex]t\in \mathbb {R} \mapsto \exp (At) \in \operatorname {GL}_d(\mathbb {R}) \subseteq \operatorname {Mat}_{d,d}(\mathbb {R})[/latex] und wollen die Ableitung bestimmen. Es gilt

[latex]
\begin{aligned}[]\frac {d}{dt}\bigl (\exp (At)\bigr )|_{t=0} &= \lim _{h \to 0} \frac {\exp (Ah)-\exp (0)}{h} \\ &= \lim _{h \to 0} \sum _{n=1}^\infty \tfrac {1}{n!} A^n h^{n-1} = A\end{aligned}
[/latex]

und daher allgemeiner

[latex]
\begin{aligned}[]\frac {d}{dt}\bigl (\exp (At)\bigr )|_{t = t_0} &= \lim _{h \to 0} \frac {\exp (A(t_0+h))-\exp (At_0)}{h}\\ &= \lim _{h \to 0} \frac {\exp (Ah)-\exp (0)}{h} \exp (At_0) = A \exp (At_0).\end{aligned}
[/latex]

Für die Funktion [latex]t \in \mathbb {R} \mapsto x(t) = \exp (A(t-t_0))x_0[/latex] gilt damit [latex]x(t_0) = I_d x_0 = x_0[/latex] und

[latex]
\begin{aligned}[]\dot {x}(t) = A \exp (A(t-t_0))x_0 = A x(t).\end{aligned}
[/latex]

Um die Eindeutigkeit zu zeigen, nehmen wir an, dass zu einem Intervall [latex]I \subseteq \mathbb {R}[/latex] mit [latex]t_0 \in I[/latex] eine beliebige Lösung [latex]y:I\to \mathbb {R}^d[/latex] des Anfangswertproblems gegeben ist. Wir betrachten die Funktion [latex]t \in I \mapsto \exp (-A(t-t_0))y(t)[/latex] und berechnen die Ableitung mit der Produktregel. Es gilt

[latex]
\begin{aligned}[]\frac {d}{dt}\big (\exp (-A(t-t_0))y(t) \big ) &= -A \exp (-A(t-t_0)) y(t) + \exp (-A(t-t_0))\dot {y}(t)\\ &= -A\exp (-A(t-t_0)) y(t) + \exp (-A(t-t_0)) A y(t)\\ &= -A\exp (-A(t-t_0)) y(t) + A\exp (-A(t-t_0))y(t)\\ & = 0,\end{aligned}
[/latex]

da [latex]A[/latex] und [latex]\exp (-A(t-t_0))[/latex] kommutieren. Also ist die Abbildung [latex]t \in I \mapsto \exp (-A(t-t_0))y(t)[/latex] konstant und damit gleich ihrem Wert [latex]y(t_0) = x_0[/latex] bei [latex]t_0[/latex]. Dies beweist, dass wie gewünscht [latex]y(t) = \exp (A(t-t_0))x_0[/latex] für alle [latex]t \in I[/latex] gilt. ∎

Übung 12.17: Produktregel für matrixwertige Funktionen

Seien [latex]\ell ,m,n \in \mathbb {N}[/latex]. Seien [latex]a

[latex]
\begin{aligned}[]\tfrac {d}{dt}\bigl (A(t)B(t)\bigr ) = \bigl (\tfrac {d}{dt}A(t)\bigr ) B(t) + A(t) \bigl (\tfrac {d}{dt}B(t)\bigr )\end{aligned}
[/latex]

für alle [latex]t \in [a,b][/latex]. Wo wurde dies in obigem Beweis verwendet?

Korollar 12.18: Eindeutigkeit

Sei [latex]d\in \mathbb {N}[/latex]. Ein Anfangswertproblem (12.4) zu einer linearen homogenen gewöhnlichen Differentialgleichung mit konstanten Koeffizienten wie in (12.3) hat eine eindeutig bestimmte Lösung. Falls das Anfangswertproblem zu der inhomogenen Version (12.2) eine Lösung mit einem Intervall [latex]I[/latex] als Definitionsbereich besitzt, so ist diese Lösung ebenso eindeutig bestimmt.

Beweis

Wie vor dem Beweis von Proposition 12.15 erwähnt, erhält man mittels Umwandlung (siehe die Diskussion in Abschnitt 12.3.1) aus einer linearen homogenen gewöhnlichen Differentialgleichung mit konstanten Koeffizienten ein äquivalentes Differentialgleichungssystem [latex]z'=Az[/latex], wobei [latex]A[/latex] hier die Begleitmatrix des charakteristischen Polynoms ist. Um konsistent mit der Notation in (12.3) zu sein, wollen wir hier in beiden Fällen [latex]x[/latex] als unabhängige Variable verwenden wollen. Bei vorgegebenen Anfangswerten für (12.3) wie in (12.4) erhalten wir ebenso einen Anfangswert [latex]z_0[/latex] für [latex]z[/latex] bei [latex]x_0[/latex].

Nun impliziert aber Proposition 12.15 die eindeutige Lösbarkeit des Anfangswertproblems

[latex]
\begin{aligned}[]z'(x) = A z(x),\quad z(x_0) = z_0\end{aligned}
[/latex]

(und gibt auch eine konkrete Lösung mittels der Exponentialabbildung für Matrizen an). Dadurch sehen wir, dass auch das Anfangswertproblem zu (12.3),(12.4) eine eindeutig bestimmte Lösung besitzt.

Falls nun das Anfangswertproblem (12.4) für die inhomogene Gleichung (12.2) zwei Lösungen [latex]y_1,y_2[/latex] hat, so ist [latex]y_1-y_2[/latex] eine Lösung für die Differentialgleichung (12.3) mit trivialen (d.h. verschwindenden) Anfangswerten. In diesem Fall ist aber auf Grund von Obigem [latex]y=0[/latex] die einzige Lösung und wir erhalten [latex]y_1=y_2[/latex]. ∎

Vergleicht man den Beweis des obigen Korollars mit der (auf einem Ansatz beruhenden) Diskussion in Abschnitt 12.2 so ergibt sich, dass die Exponentialabbildung für Matrizen (gemeinsam mit der Jordan-Normalform von Matrizen) die Struktur der in Proposition 12.8 gefunden Lösungen sehr gut erklärt (siehe auch Übung 12.21).

12.3.3 – Beispiele linearer autonomer Differentialgleichungssysteme

Beispiel 12.19: Rotation

Wir betrachten das gekoppelte Differentialgleichungssystem

[latex]
\begin{aligned}[]\dot {x}_1 = -x_2,\quad \dot {x}_2 = x_1,\end{aligned}
[/latex]

welches sich auch kurz als

[latex]
\begin{aligned}[]\dot {x} = \begin{pmatrix}0 & -1 \\ 1 & 0\end{pmatrix} x\end{aligned}
[/latex]

schreiben lässt. Auf Grund der Zeitunabhängigkeit der rechten Seite ist dieses autonom. Das Vektorfeld lässt sich wie in folgendem Bild darstellen.

image

Weiter ist die eindeutig bestimmte Lösung [latex]x[/latex] zum Anfangswertproblem mit einem beliebigen Anfangswert [latex]x_0 \in \mathbb {R}^2[/latex] durch

[latex]
\begin{aligned}[]x(t) = \exp \left (\begin{pmatrix}0 & -1 \\ 1 & 0\end{pmatrix}t\right ) x_0 = \begin{pmatrix}\cos (t) & -\sin (t) \\ \sin (t) & \cos (t)\end{pmatrix} x_0\end{aligned}
[/latex]

gegeben. (Wieso?

Für die Matrix [latex]A[/latex] in der obigen Differentialgleichung [latex]\dot {x}=Ax[/latex] sind die Potenzen gegeben durch [latex]A^0=I,A,-I,-A,I,A,\ldots[/latex] und für die Exponentialreihe [latex]\exp (At)[/latex] treten die geraden Potenzen von [latex]At[/latex] nur in der Diagonal und die ungeraden Potenzen von [latex]At[/latex] nur in den anderen beiden Matrixeintragungen in Erscheinung. Des Weiteren alternieren die Vorzeichen und es ergeben sich die Potenzreihe von [latex]\cos t[/latex] und [latex]\sin t[/latex].

). Startet man also beispielsweise bei [latex](1,0)^t[/latex], so bewegt man sich entlang des Einheitskreises mit Geschwindigkeit [latex]1[/latex], wobei man stets den oben illustrierten Pfeilen folgt, die den Kreis tangential berühren.

Beispiel 12.20: Spirale

Wir betrachten das gekoppelte, autonome Differentialgleichungssystem

[latex]
\begin{aligned}[]\dot {x}_1 = x_1-x_2,\quad \dot {x}_2 = x_1+x_2,\end{aligned}
[/latex]

welches sich auch kurz als

[latex]
\begin{aligned}[]\dot {x} = \begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix} x\end{aligned}
[/latex]

schreiben lässt. Wir stellen das Vektorfeld wieder in einer Grafik dar.

image

Die eindeutig bestimmte Lösung [latex]x[/latex] zum Anfangswertproblem mit einem beliebigen Anfangswert [latex]x_0 \in \mathbb {R}^2[/latex] ist durch

[latex]
\begin{aligned}[]x(t) &= \exp \left (\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}t\right ) x_0 = \exp \left (\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}t\right )\exp \left (\begin{pmatrix}0 & -1 \\ 1 & 0\end{pmatrix}t\right ) x_0 \\ &= \begin{pmatrix}\mathrm {e}^t\cos (t) & -\mathrm {e}^t\sin (t) \\ \mathrm {e}^t\sin (t) & \mathrm {e}^t\cos (t)\end{pmatrix} x_0\end{aligned}
[/latex]

gegeben. (Wieso?

Da die Identitätsmatrix [latex]I[/latex] mit der Matrix [latex]A[/latex] aus Beispiel 12.19 kommutiert, können wir [latex]\exp (It+At)=\exp (It)\exp (At)=\exp (t)\exp (At)[/latex] verwenden (siehe den Beweis von Proposition 12.15).

)

Übung 12.21: Mehr zur Exponentialabbildung

In dieser Übung möchten wir die Exponentialabbildung und Proposition 12.15 weiter erkundschaften.

  1. Berechnen Sie zu [latex]a_1,\ldots ,a_d \in \mathbb {R}[/latex] die Diagonalmatrix
    [latex]
    \begin{aligned}[]\exp \begin{pmatrix}a_1 & & 0 \\ & \ddots & \\ 0 & & a_d\end{pmatrix} .\end{aligned}
    [/latex]

    Interpretieren Sie die Differentialgleichung in dem Fall

    [latex]
    \begin{aligned}[]\dot {x} = \begin{pmatrix}a_1 & 0 \\ 0 & a_2\end{pmatrix} x\end{aligned}
    [/latex]

    und das zugehörige Vektorfeld.

  2. Berechnen Sie [latex]\exp \begin{pmatrix}0 & 1 \\ 0 & 0\end{pmatrix}[/latex] und interpretieren Sie wie zuvor die Differentialgleichung
    [latex]
    \begin{aligned}[]\dot {x} = \begin{pmatrix}0 & 1 \\ 0 & 0\end{pmatrix} x\end{aligned}
    [/latex]

    und das zugehörige Vektorfeld.

  3. Sei [latex]\mathcal {J}[/latex] die [latex]d\times d[/latex]-Matrix, die über der Diagonalen Einsen und sonst nur Nullen stehen hat. Zeigen Sie, dass
    [latex]
    \begin{aligned}[]\exp (t\mathcal {J}) = I_d + t \mathcal {J} + \tfrac {t^2}{2} \mathcal {J}^2 + \ldots + \tfrac {t^{d-1}}{(d-1)!} \mathcal {J}^{d-1}\end{aligned}
    [/latex]

    und kommentieren Sie die Differentialgleichung [latex]\dot {x} = \mathcal {J} x[/latex].

Übung 12.22: Allgemeiner Fall

Sei [latex]A \in \operatorname {Mat}_{d,d}(\mathbb {R})[/latex]. Verwenden Sie die Jordan-Normalform von Matrizen (über [latex]\mathbb {C}[/latex]) um [latex]\exp (At)[/latex] für alle [latex]t\in \mathbb {R}[/latex] zu berechnen. Liefern Sie damit eine explizite Beschreibung der Lösungen in Proposition 12.15 und beweisen Sie Proposition 12.8 erneut.

Hinweis.

Sie können dank der Verhalten der Exponentialabbildung unter Konjugation annehmen, dass [latex]A[/latex] bereits in Jordan-Normalform ist. Beginnen Sie dann damit, den Fall, wo [latex]A[/latex] ein Jordan-Block ist, zu analysieren und verwenden Sie dazu Übung 12.21. Beachten Sie dabei auch, dass sich [latex]A[/latex] in diesem Fall als [latex]\lambda I_d + \mathcal {J}[/latex] schreiben lässt.

12.3.4 – Ein Beispiel eines nicht-linearen Systems

Wir betrachten das nicht-lineare autonome Differentialgleichungssystem
[latex]
\begin{aligned}[]\label{eq:diffglg-nonlinearode} \begin{array}{c} \dot {x} = x-y-(x^2+y^2) x\\ \dot {y} = x+y-(x^2+y^2) y\end{array}\end{aligned}
[/latex]
Das involvierte Vektorfeld lässt sich dann wie in folgendem Bild darstellen.

image

Wir möchten zuerst zwei spezielle Fälle betrachten:

  1. Wir suchen die konstanten Lösungen der Differentialgleichung (12.8). Seien also [latex]x,y[/latex] definiert (und differenzierbar) auf einem Intervall mit
    [latex]
    \begin{aligned}[]\begin{array}{c} 0 = x-y-(x^2+y^2) x\\ 0 = x+y-(x^2+y^2) y\end{array} .\end{aligned}
    [/latex]

    Insbesondere ist dann

    [latex]
    \begin{aligned}[]0 &= \big (x-y-(x^2+y^2) x\big )\cdot y - \big (x+y-(x^2+y^2) y\big )\cdot x \\ &= -x^2 -y^2\end{aligned}
    [/latex]

    und somit [latex]x=y=0[/latex].

  2. Wir betrachten nun das Anfangwertproblem zu (12.8) mit einem Anfangswert [latex](x_0,y_0)^t[/latex] auf dem Einheitskreis. Das obige Bild lässt dann vermuten, dass die Lösung aus Beispiel 12.19 auch hier eine Lösung darstellt;
    [latex]
    \begin{aligned}[](x(t),y(t))^t = \begin{pmatrix}\cos (t) & -\sin (t) \\ \sin (t) & \cos (t)\end{pmatrix} (x_0,y_0)^t.\end{aligned}
    [/latex]

    In der Tat bewegt sich diese Kurve auf dem Einheitskreis, womit [latex]x^2 + y^2 = 1[/latex] stets erfüllt ist und somit die zu lösende Gleichung (12.8) zur Gleichung aus Beispiel 12.19 äquivalent ist (welche ja von [latex](x(t),y(t))^t[/latex] gelöst wird).

Um nun die Differentialgleichung (12.8) allgemeiner behandeln zu können, betrachten wir Polarkoordinaten und hoffen, dass in diesen (12.8) gelöst werden kann. Das heisst, wir schreiben [latex]r(t)^2 = x(t)^2+ y(t)^2[/latex] und

[latex]
\begin{aligned}[]x(t) = r(t)\cos (\varphi (t)),\quad y(t) = r(t)\sin (\varphi (t))\end{aligned}
[/latex]

für eine geeignete Funktion [latex]t\mapsto \varphi (t) \in \mathbb {R}[/latex].

Wir betrachten zuerst den Radius [latex]r[/latex] und finden eine Differentialgleichung für diesen. Man berechnet

[latex]
\begin{aligned}[](r^2)^{\mathbf {\dot {}}} &= (x^2+y^2)^{\mathbf {\dot {}}} = 2x\dot {x} + 2y\dot {y} \\ &= 2\big (x^2-xy -(x^2+y^2)x^2\big ) + 2 \big ( xy +y^2 - (x^2+y^2)y^2\big )\\ &= 2 (r^2-r^4)\end{aligned}
[/latex]

und somit, da [latex](r^2)^{\mathbf {\dot {}}} = 2 r \dot {r}[/latex], erhält man

[latex]
\begin{aligned}[]\dot {r} = r-r^3.\end{aligned}
[/latex]

Eine Lösung davon lässt sich mit der Trennung der Variablen aus Abschnitt 12.1.1 ermitteln; man erhält

[latex]
\begin{aligned}[]r(t) = \frac {\mathrm {e}^t}{\sqrt {C_1+\mathrm {e}^{2t}}}\end{aligned}
[/latex]

für eine passend zum Anfangswert gewählte Konstante [latex]C_1[/latex]. Der Radius verhält sich also wie in folgendem Bild.

image

Insbesondere kommt die Lösung dem Einheitskreis also immer näher, wie man es schon aus der obigen Illustration des Vektorfelds erahnen könnte.

Wir versuchen nun ein ähnliches Vorgehen, um eine Formel für den Winkel [latex]\varphi[/latex] zu finden. Intuitiv gesehen könnte man ein ähnliches Verfahren wie oben für [latex]x^2+y^2[/latex] auf beispielsweise [latex]\frac {x}{y}[/latex] anwenden, was zwar auf das richtige Resultat führt, aber nur dann zulässig ist, wenn [latex]y(t)[/latex] für kein [latex]t[/latex] verschwindet. Wir wollen dies aber nicht voraussetzen. Stattdessen berechnen wir mit der Kettenregel

[latex]
\begin{aligned}[]\dot {x} = \dot {r}\cos (\varphi ) - r \sin (\varphi ) \dot {\varphi } = x-y-r^2x\\ \dot {y} = \dot {r}\sin (\varphi ) + r\cos (\varphi ) \dot {\varphi } = x+y-r^2 y.\end{aligned}
[/latex]

Es gilt jedoch gemeinsam mit [latex]\dot {r}=(1-r^2)r[/latex] ebenso

[latex]
\begin{aligned}[]\dot {x} &= (1-r^2)\underbrace {r\cos (\varphi )}_{=x} - \underbrace {r \sin (\varphi )}_{=y}\dot {\varphi }\\ &= x-y \dot {\varphi }-r^2x\end{aligned}
[/latex]

und damit [latex]-y \dot {\varphi } = -y[/latex]. Analog zeigt man [latex]x \dot {\varphi } = x[/latex]. Unter dem Strich ist also entweder [latex]x = y = 0[/latex] (was der konstanten Lösung entspricht) oder [latex]\dot {\varphi } = 1[/latex] und somit [latex]\varphi (t) = t + C_2[/latex] für eine passend zum Anfangswert gewählte Konstante [latex]C_2[/latex]. Wie man also aus der Darstellung des Vektorfelds hätte vermuten können, bilden die Lösungen Spiralen, die sich dem Einheitskreis annähern.

image

Wir bemerken noch, dass die Lösung [latex]x(t)[/latex] des Anfangwertproblems mit [latex]\| {x_0}\| > 1[/latex] (das heisst, [latex]C_1 12.8) für [latex]\| {(x,y)^t}\| \to \infty[/latex] sehr schnell anwächst.

12.4 – Existenz- und Eindeutigkeitssatz von Picard-Lindelöf

Wie wir bereits in Abschnitt 12.1 gesehen haben, muss die Lösung eines Anfangswertproblems (selbst für eine relativ einfache Differentialgleichung wie [latex]y' = 3 y^{\frac {2}{3}}[/latex]) nicht immer eindeutig bestimmt sein. Wenn man hingegen zu einem Differentialgleichungssystem

[latex]
\begin{aligned}[]\dot {x}(t) = f(t,x(t))\end{aligned}
[/latex]

eine etwas stärkere Annahme an das Vektorfeld [latex]f[/latex] verlangt, so erhält man sowohl Existenz als auch Eindeutigkeit der Lösung nach folgendem fundamentalen Satz (siehe auch [2]).

Theorem 12.23: Picard-Lindelöf

Es sei [latex]d \geq 1[/latex], [latex]U \subseteq \mathbb {R} \times \mathbb {R}^d[/latex] offen und [latex]f:U \to \mathbb {R}^d[/latex] stetig. Angenommen [latex]f[/latex] ist «lokal Lipschitz-stetig im Ort» , das heisst, für alle [latex](t_0,x_0) \in U[/latex] existiert ein [latex]\varepsilon > 0[/latex] mit [latex]B_\varepsilon (t_0,x_0) \subseteq U[/latex] und [latex]M > 0[/latex], so dass für alle [latex](t,x_1),(t,x_2) \in B_\varepsilon (t_0,x_0)[/latex] die Abschätzung

[latex]
\begin{aligned}[]\| {f(t,x_1)-f(t,x_2)}\| \leq M \| {x_1-x_2}\|\end{aligned}
[/latex]

gilt. Sei weiters [latex]t_0\in \mathbb {R}[/latex] und ein Anfangswert [latex]x_0\in \mathbb {R}^d[/latex] mit [latex](t_0,x_0) \in U[/latex] gegeben.

Existenz: Dann existiert ein Zeitintervall [latex]I=I_{\max }=(a,b) \subseteq \mathbb {R}[/latex] und eine differenzierbare Funktion [latex]x(\cdot ): I \to \mathbb {R}^d[/latex] mit

  • [latex](t,x(t)) \in U[/latex] für alle [latex]t \in I[/latex],
  • [latex]\dot {x}(t) = f(t,x(t))[/latex] für alle [latex]t \in I[/latex],
  • [latex]t_0\in I[/latex] und [latex]x(t_0) = x_0[/latex].

Eindeutigkeit: Für jede weitere Lösung [latex]y(\cdot ): J \to \mathbb {R}^d[/latex] desselben Anfangswertproblems definiert auf einem offenen Intervall [latex]J[/latex] mit [latex]t_0 \in J[/latex] gilt [latex]J \subseteq I[/latex] und [latex]x(\cdot )|_J = y(\cdot )[/latex].

Maximalität: Die Grenzwerte [latex]\lim _{t \searrow a}\, (t,x(t))[/latex] und [latex]\lim _{t \nearrow b}\, (t,x(t))[/latex] existieren in [latex]U[/latex] nicht.

Zusammenfassend hat jedes Anfangswertproblem für ein (im Ort lokal) Lipschitz-stetiges Vektorfeld eine eindeutige Lösung. Des Weiteren lässt sich diese entweder beliebig lange fortsetzen ([latex]b=\infty[/latex]) oder solange, bis sie «explodiert» , das heisst, in endlicher Zeit den Definitionsbereich [latex]U[/latex] der Differentialgleichung verlässt (siehe auch Übung 12.28 für eine schärfere Formulierung dieser Behauptung). Wir werden (wie bereits oben) hier häufig [latex]x(\cdot )[/latex] für eine Funktion auf einem Intervall schreiben (welche möglicherweise unser Anfangswertproblem löst), um etwaige Verwirrungen mit dem Anfangspunkt [latex]x_0=x(t_0)\in \mathbb {R}^d[/latex] zu vermeiden.

Mit Hilfe der mehrdimensionalen Differentialrechnung (Korollar 10.17) sehen wir, dass stetig differenzierbare Funktionen lokal Lipschitz-stetig. Insbesondere lässt sich das obige Theorem auf eine grosse Klasse von Vektorfeldern [latex]f[/latex] anwenden.

Übung 12.24: Lokale Lipschitz-Stetigkeit

Sei [latex]U \subseteq \mathbb {R} \times \mathbb {R}^d[/latex] offen und [latex]f: U \to \mathbb {R}^d[/latex] stetig, so dass die partiellen Ableitungen [latex]\partial _kf[/latex] für [latex]k\in \left \lbrace {2,\ldots ,d+1} \right \rbrace[/latex] auf [latex]U[/latex] existieren und stetig sind. Zeigen Sie, dass [latex]f[/latex] dann auch «lokal im Ort Lipschitz-stetig» ist und somit die Voraussetzungen von Theorem 12.23 erfüllt.

Für den Beweis des Theorems werden wir folgende lokale Version zuerst beweisen.

Proposition 12.25: Lokale Existenz und Eindeutigkeit

Seien [latex]r_1,r_2 > 0[/latex], [latex]t_0 \in \mathbb {R}[/latex], [latex]x_0 \in \mathbb {R}^d[/latex] und [latex]f: (t_0-r_1,t_0+r_1) \times B_{r_2}(x_0) \to \mathbb {R}^d[/latex] eine beschränkte stetige Funktion. Angenommen es gibt eine Lipschitz-Konstante [latex]M > 0[/latex] mit

[latex]
\begin{aligned}[]\| {f(t,x_1)-f(t,x_2)}\| \leq M \| {x_1-x_2}\|\end{aligned}
[/latex]

für alle [latex]t \in (t_0-r_1,t_0+r_1)[/latex] und [latex]x_1,x_2 \in B_{r_2}(x_0)[/latex]. Dann existiert ein [latex]\delta \in (0,r_1)[/latex] und eine eindeutig bestimmte Lösung [latex]x(\cdot ):[t_0-\delta ,t_0+\delta ] \to \mathbb {R}^d[/latex] des Anfangswertproblems
[latex]
\begin{aligned}[]\label{eq:diffglg-localivp} \left \lbrace \begin{array}{cc} x(t_0) = x_0, \\ \dot {x}(t) = f(t,x(t))\end{array} \right .\end{aligned}
[/latex]
für [latex]t \in [t_0-\delta ,t_0+\delta ][/latex].

Genauer formuliert, es existiert ein [latex]\delta _0[/latex] (welches von [latex]r_1,r_2[/latex], von der oberen Schranke von [latex]\Vert f(t,x)\Vert[/latex] für [latex](t,x)\in (t_0-r_1,t_0+r_1) \times B_{r_2}(x_0)[/latex] und von der Lipschitz-Konstante [latex]M[/latex] abhängt) so dass obige eindeutige Existenz auf allen Intervallen der Form [latex][t_0-\delta ,t_0+\delta ][/latex] für [latex]\delta \in (0,\delta _0][/latex] gilt.

Wie wir sehen werden, besteht der Beweis der obigen Proposition aus dem Fundamentalsatz der Differential- und Integralrechnung (siehe Abschnitt 8.1) und dem Banachschen Fixpunktsatz (siehe Satz 9.54), welcher ja ebenfalls eine eindeutige Existenz behauptet. Der Beweis des Theorems von Picard-Lindelöf wird die Aussage der obigen Proposition jeweils lokal anwenden und eine Lösung dann geeignet «zusammenstückeln» . Bei dem ersten Lesen der Beweise kann es helfen sich den Fall [latex]d=1[/latex] vorzustellen, an der Beweisidee geht dabei nichts verloren.

Beweis

Nach dem Fundamentalsatz der Differential- und Integralrechnung (Korollar 8.3) (angewandt auf jede Komponente von [latex]x(\cdot )[/latex]) ist das Anfangwertproblem in (12.9) zur Integralgleichung
[latex]
\begin{aligned}[]\label{eq:diffglg-integralgl} x(t) = x_0 + \int _{t_0}^t f(s,x(s)) \thinspace {\rm {d}} s\end{aligned}
[/latex]
für alle [latex]t \in [t_0-\delta ,t_0+\delta ][/latex] äquivalent. Wir möchten diese Gleichung nun als Fixpunktgleichung interpretieren und wollen dazu also einen geeigneten vollständigen metrischen Raum [latex]V[/latex] und eine geeignete Lipschitz-Kontraktion [latex]T:V \to V[/latex] definieren.

Der vollständige Raum [latex]V_\delta[/latex]: Für [latex]\delta \in (0,r_1)[/latex] definieren wir den Raum

[latex]
\begin{aligned}[]V_\delta = \left \lbrace {y(\cdot ):[t_0-\delta ,t_0+\delta ] \to \overline {B_{r_2/2}(x_0)}} \mid {y(\cdot ) \text { ist stetig}}\right \rbrace \subseteq C([t_0-\delta ,t_0+\delta ],\mathbb {R}^d),\end{aligned}
[/latex]

wobei wir mit [latex]\overline {B_{r_2/2}(x_0)} = \left \lbrace {z \in \mathbb {R}^d} \mid {\| {x_0-z}\| \leq \frac {r_2}{2}}\right \rbrace[/latex] den abgeschlossenen Ball um [latex]x_0[/latex] von Radius [latex]\frac {r_2}{2}[/latex] bezeichnen. Wir statten [latex]V_\delta[/latex] dabei mit der von der Maximumsnorm [latex]\| {\cdot }\| _\infty[/latex] induzierten Metrik [latex]\mathrm {d}[/latex] aus, womit also

[latex]
\begin{aligned}[]\mathrm {d}(y(\cdot ),z(\cdot )) = \| {y(\cdot )-z(\cdot )}\| _\infty = \max _{t \in [t_0-\delta ,t_0+\delta ]} \| {y(t)-z(t)}\| .\end{aligned}
[/latex]

für [latex]y(\cdot ),z(\cdot )\in V_\delta[/latex]. Nach Proposition 9.86 ist [latex]C([t_0-\delta ,t_0+\delta ],\mathbb {R}^d)[/latex] vollständig. Wir zeigen nun, dass [latex]V_\delta[/latex] ebenfalls vollständig ist (oder äquivalent dazu eine abgeschlossene Teilmenge ist). Sei [latex](y_n(\cdot ))_n[/latex] eine Cauchy-Folge in [latex]V_\delta[/latex]. Da [latex]C([t_0-\delta ,t_0+\delta ],\mathbb {R}^d)[/latex] vollständig ist, existiert der Grenzwert [latex]y (\cdot )= \lim _{n \to \infty } y_n(\cdot ) \in C([t_0-\delta ,t_0+\delta ],\mathbb {R}^d)[/latex]. Für [latex]t \in [t_0-\delta ,t_0+\delta ][/latex] konvergiert dann wegen [latex]\| {y_n(t) -y(t)}\| \leq \| {y_n(\cdot )-y(\cdot )}\| _\infty[/latex] die Folge [latex](y_n(t))_n[/latex] gegen [latex]y(t)[/latex], womit

[latex]
\begin{aligned}[]\| {y(t)-x_0}\| = \lim _{n \to \infty } \| {y_n(t)-x_0}\| \leq \tfrac {r_2}{2}.\end{aligned}
[/latex]

Daher gilt für [latex]t \in [t_0-\delta ,t_0+\delta ][/latex] also [latex]y(t) \in \overline {B_{r_2/2}(x_0)}[/latex] und somit [latex]y(\cdot ) \in V_\delta[/latex]. Da [latex](y_n)_n[/latex] eine beliebige Cauchy-Folge war, ist [latex]V_\delta[/latex] vollständig ist.

Die Picard-Abbildung [latex]T[/latex] auf [latex]V_\delta[/latex]: Zu einer Funktion [latex]y(\cdot ) \in V_\delta[/latex] definieren wir eine Funktion [latex]Ty(\cdot )[/latex] durch

[latex]
\begin{aligned}[](Ty)(t) = x_0 + \int _{t_0}^t f(s,y(s))\thinspace {\rm {d}} s\end{aligned}
[/latex]

für [latex]t \in [t_0-\delta ,t_0+\delta ][/latex]. (Die Operation [latex]y(\cdot ) \mapsto Ty(\cdot )[/latex] nennt sich auch Picard-Abbildung und bildet eine stetige Funktion auf eine neue stetige Funktion ab.) Da [latex]y(s)\in \overline {B_{r_2/2}(x_0)}\subseteq B_{r_2}(x_0)[/latex] und die Funktionen [latex]y[/latex] und [latex]f[/latex] stetig sind, ist auch [latex]s \in [t_0-\delta ,t_0+\delta ]\mapsto f(s,y(s))[/latex] definiert und stetig. Daher ist [latex]Ty(\cdot )[/latex] nach Korollar 8.3 differenzierbar und insbesondere stetig. Des Weiteren gilt

[latex]
\begin{aligned}[]\| {Ty(t)-x_0}\| =\left \| \int _{t_0}^t f(s,y(s))\thinspace {\rm {d}} s\right \| \leq \left | \int _{t_0}^t \| {f(s,y(s))}\| \thinspace {\rm {d}} s \right |\end{aligned}
[/latex]

für [latex]t \in [t_0-\delta ,t_0+\delta ][/latex], wobei wir die Dreiecksungleichung für das Riemann-Integral in (5.16) verwendet haben und der Absolutbetrag rechts für den Fall [latex]t_0-\delta \leq t 0[/latex], so dass [latex]\| {f(s,y(s))}\| \leq C[/latex] für alle [latex]s\in [t_0-\delta ,t_0+\delta ][/latex]. Daher gilt

[latex]
\begin{aligned}[]\| {Ty(t) - x_0 }\| \leq C |t-t_0| \leq C \delta\end{aligned}
[/latex]

für alle [latex]t \in [t_0-\delta ,t_0+\delta ][/latex]. Diese Abschätzung hängt wohlgemerkt nicht von [latex]y(\cdot )[/latex] ab. Wir sehen hier bereits eine Einschränkung an [latex]\delta >0[/latex]: Falls [latex]\delta \in \left (0,\frac {r_2}{2C}\right )[/latex], dann gilt [latex]Ty(t) \in \overline {B_{C \delta }(x_0)} \subseteq \overline {B_{r_2/2}(x_0)}[/latex] und damit [latex]Ty(\cdot ) \in V_\delta[/latex] wie gewünscht.

Die Kontraktionseigenschaft: Seien nun [latex]y_1,y_2 \in V_\delta[/latex]. Dann gilt

[latex]
\begin{aligned}[]\| {Ty_1(t) - Ty_2(t)}\| &= \left \| \int _{t_0}^t f(s,y_1(s)) - f(s,y_2(s)) \thinspace {\rm {d}} s \right \| \leq \left | \int _{t_0}^t \| {f(s,y_1(s)) - f(s,y_2(s))}\| \thinspace {\rm {d}} s \right |\\ &\leq \left | \int _{t_0}^t M\| {y_1(s)-y_2(s)}\| \thinspace {\rm {d}} s \right | \leq M \delta \| {y_1(\cdot )-y_2(\cdot )}\| _\infty\end{aligned}
[/latex]

für alle [latex]t \in [t_0-\delta ,t_0+\delta ][/latex]. Insbesondere gilt also

[latex]
\begin{aligned}[]\| {Ty_1(\cdot )-Ty_2(\cdot )}\| _\infty \leq M \delta \| {y_1(\cdot )-y_2(\cdot )}\| _\infty .\end{aligned}
[/latex]

Falls nun [latex]\delta[/latex] klein genug ist, so dass [latex]\lambda = M \delta

Konklusion: Nach dem Banachschen Fixpunktsatz (Satz 9.54) gibt es also ein eindeutig bestimmtes [latex]x(\cdot ) \in V_\delta[/latex] mit [latex]Tx(\cdot ) = x(\cdot )[/latex]. Dies ist aber genau Gleichung (12.10), die (wie oben erklärt) auf Grund des Fundamentalsatzes der Integral- und Differentialrechnung (Korollar 8.3) zum Anfangswertproblem in Gleichung (12.9) äquivalent ist.

Für die letzte Behauptung in der Proposition definieren wir zum Beispiel

[latex]
\begin{aligned}[]\delta _0=\min \left (\frac {r_1}{2},\frac {r_2}{2C}, \frac 1{2M}\right ),\end{aligned}
[/latex]

dann erfüllt jedes [latex]\delta \in (0,\delta _0][/latex] alle Bedingungen des obigen Beweises. ∎

Beweis von Theorem 12.23

Wir beweisen zuerst die Eindeutigkeit. Seien also [latex]x_1(\cdot ): I_1 \to \mathbb {R}[/latex] und [latex]x_2(\cdot ):I_2 \to \mathbb {R}[/latex] zwei Lösungen des Anfangswertproblems
[latex]
\begin{aligned}[]\label{eq:diffglg-globalavp} \dot {x}(t) = f(t,x(t)),\quad x(t_0) = x_0\end{aligned}
[/latex]
auf offenen Intervallen [latex]I_1,I_2 \subseteq \mathbb {R}[/latex] mit [latex]t_0 \in I := I_1 \cap I_2 = (\alpha ,\beta )[/latex]. Wir behaupten, dass [latex]x_1(t) = x_2(t)[/latex] für alle [latex]t \in I[/latex] gilt. Wir definieren

[latex]
\begin{aligned}[]s = \sup \left \lbrace {t \in I} \mid {x_1(\cdot )|_{[t_0,t]} = x_2(\cdot )|_{[t_0,t]}}\right \rbrace .\end{aligned}
[/latex]

Falls [latex]s 12.25), dass [latex]x_1|_{(s-\delta ,s+\delta )} = x_2|_{(s-\delta ,s+\delta )}[/latex] für ein [latex]\delta > 0[/latex]. Da dies aber der Definition von [latex]s[/latex] widerspricht, gilt [latex]s = \beta[/latex] und daher

[latex]
\begin{aligned}[]x_1(\cdot )|_{[t_0,\beta )} &= x_2(\cdot )|_{[t_0,\beta )}\\ x_1(\cdot )|_{(\alpha ,t_0]} &= x_2(\cdot )|_{(\alpha ,t_0]},\\ x_1(\cdot )|_{(\alpha ,\beta )} &= x_2(\cdot )|_{(\alpha ,\beta )}.\end{aligned}
[/latex]

In der Tat folgt die zweite Gleichung völlig analog und gemeinsam ergibt sich die dritte Gleichung.

Wir wollen nun die Existenz einer maximalen Lösung wie im Theorem zeigen. Dafür definieren wir

[latex]
\begin{aligned}[]a &= \inf \left \lbrace {\alpha \in (-\infty ,t_0)} \mid {\text {es existiert eine Lösung auf } (\alpha ,\beta ) \text { mit } \beta >t_0}\right \rbrace ,\\ b &= \sup \left \lbrace {\beta \in (t_0,\infty )} \mid {\text {es existiert eine Lösung auf } (\alpha ,\beta ) \text { mit } \alpha [/latex]

Zu [latex]t \in (a,b)[/latex] setzen wir [latex]x_{\max }(t) = x(t)[/latex], wobei [latex]x[/latex] eine Lösung auf einem Teilintervall [latex](\alpha ,\beta )[/latex] mit [latex]a

Dies definiert tatsächlich eine Lösung [latex]x_{\max }(\cdot )[/latex] des Anfangswertes: für [latex]t=t_0[/latex] gilt

[latex]
\begin{aligned}[]x_{\max }(t_0)=x(t_0)=x_0\end{aligned}
[/latex]

für jede Lösung [latex]x(\cdot )[/latex], die in der Definition von [latex]x_{\max }(\cdot )[/latex] betrachtet wird. Des Weiteren gibt es nach Definition für [latex]t\in (a,b)[/latex] eine Lösung [latex]x(\cdot )[/latex], die bei [latex]t[/latex] und damit auch auf einer Umgebung von [latex]t[/latex] definiert ist. Verwenden wir diese Lösung in der ganzen Umgebung so sehen wir auch

[latex]
\begin{aligned}[]\dot {x}_{\max }(t)=\dot {x}(t)=f(t,x(t))=f(t,x_{\max }(t)),\end{aligned}
[/latex]

was zu zeigen war.

Es verbleibt den Beweis des behaupteten Verhaltens der maximalen Lösung [latex]x_{\max }(\cdot )[/latex] in der Nähe von [latex]a[/latex] und [latex]b[/latex] zu erbringen. Falls [latex]b = \infty[/latex] gilt, so gibt es nichts zeigen. Also angenommen [latex]b

[latex]
\begin{aligned}[]\lim _{t \nearrow b} (t,x_{\max }(t)) = (b,x_b) \in U.\end{aligned}
[/latex]

Dann gibt es nach der Existenzaussage in Proposition 12.25 eine Lösung [latex]y(\cdot )[/latex] des Anfangswertproblems
[latex]
\begin{aligned}[]\left \lbrace \begin{array}{l} y(b) = x_b,\\ \dot {y}(t) = f(t,y(t)),\end{array} \right .\end{aligned}
[/latex]
welches zumindest auf [latex](b-\delta ,b+\delta )[/latex] für ein [latex]\delta >0[/latex] definiert ist. Wir verwenden diese Lösung, um eine Lösung des ursprünglichen Anfangswertproblems zu definieren. Sei [latex]x_{\text {neu}}(\cdot ): (a,b+\delta ) \to \mathbb {R}^d[/latex] gegeben durch

[latex]
\begin{aligned}[]x_{\text {neu}}(t) = \left \lbrace \begin{array}{cl} x_{\max }(t) & \text {falls } t \in (a,b) \\ y(t) & \text {falls } t \in [b,b+\delta )\end{array} \right .\end{aligned}
[/latex]

für [latex]t \in (a,b+\delta )[/latex]. Wir behaupten nun, dass [latex]x_{\text {neu}}(\cdot )[/latex] ebenfalls das Anfangswertproblem (12.11) löst, was dann aber einen Widerspruch zur Definition von [latex]b[/latex] darstellt.

Dazu bemerken wir zuerst, dass sowohl [latex]x_{\max }(\cdot )[/latex] als auch [latex]y(\cdot )[/latex] stetig sind und somit [latex]x_{\text {neu}}(\cdot )[/latex] sicherlich an allen Punkten in [latex](a,b+\delta ) \setminus \left \lbrace {b} \right \rbrace[/latex] stetig ist. Weiter gilt per Annahme

[latex]
\begin{aligned}[]\lim _{t \nearrow b} x_{\max }(t) = x_b = y(b) = \lim _{t \to b} y(t)\end{aligned}
[/latex]

und somit ist [latex]x_{\text {neu}}(\cdot ):(a,b+\delta ) \to \mathbb {R}^d[/latex] stetig. Da [latex]x_{\max }(\cdot )[/latex] und [latex]y(\cdot )[/latex] auf [latex](a,b)[/latex] respektive [latex](b,b+\delta )[/latex] die Differentialgleichung [latex]\dot {x}(t) = f(t,x(t))[/latex] lösen, erfüllt auch [latex]x_{\text {neu}}(\cdot )[/latex] diese bei allen Punkten in [latex](a,b+\delta )[/latex] ausser möglicherweise bei [latex]b[/latex].

Es bleibt zu zeigen, dass [latex]x_{\text {neu}}(\cdot )[/latex] bei [latex]b[/latex] differenzierbar ist und dort ebenfalls [latex]\dot {x}(t) = f(t,x(t))[/latex] genügt. Die rechtsseitige Ableitung von [latex]x_{\text {neu}}(\cdot )[/latex] bei [latex]b[/latex] erfüllt

[latex]
\begin{aligned}[]\bigl (x_{\text {neu}}\bigr )_+^{\mathbf {\dot {}}} = \dot {y}(b) = f(b,y(b)) = f(b,x_{\text {neu}}(b))\end{aligned}
[/latex]

wie gewünscht. Die linksseitige Ableitung erfordert ein kleines Argument, welches auf der Stetigkeit von [latex]t\in [t_0,b] \mapsto f(t,x_{\text {neu}}(t))[/latex] beruht (siehe Übung 12.26) und verläuft dann analog. Wie erwähnt zeigt dieser Widerspruch zur Definition von [latex]b[/latex], dass [latex]x_{\max }(\cdot )[/latex] das behauptete Verhalten für [latex]t \nearrow b[/latex] besitzt. Der Nachweis des Verhaltens für [latex]t \searrow a[/latex] erfolgt analog. ∎

Übung 12.26: Fortsetzung der Ableitung auf Randpunkte

Seien [latex]t_0

Hinweis.

Es genügt den Fall [latex]d=1[/latex] zu betrachten. Verwenden Sie dann entweder den Mittelwertsatz oder den Fundamentalsatz der Integral- und Differentialrechnung.

Wir wollen noch kurz erwähnen, wie man obigen Existenz- und Eindeutigkeitssatz (Theorem 12.23) auch auf die Differentialgleichung [latex]y'=|y|^{\frac 23}[/latex] in Beispiel 12.1 anwenden kann. Da dies unser Beispiel für Mehrdeutigkeit ist, können die Vorraussetzungen des Satzes nicht erfüllt sein. In der Tat ist [latex]f(y)=|y|^{\frac 23}[/latex] bei [latex]y=0[/latex] nicht lokal Lipschitz-stetig (wieso?). Wenn man allerdings den Definitionsbereich der Differentialgleichung als [latex]U=\mathbb {R}\times (\mathbb {R}\setminus \{ 0\} )[/latex] definiert, dann sind alle Vorraussetzungen erfüllt (überprüfen Sie dies) und die eindeutige Existenz der Lösungen der zugehörigen Anfangswertprobleme garantiert. Dies ist kein Widerspruch, da die Lösungen in Beispiel 12.1 abseits der «Weiche entlang der horizontalen Achse» eindeutig sind, aber bei der Weiche (das heisst ausserhalb von [latex]U[/latex]) eben länger oder weniger lang verbleiben können.

Applet 12.27: Diverse Differentialgleichungen und ihre Lösungen

Illustration der Lösungen einiger Differentialgleichungen mit jeweils unterschiedlichem Verhalten. In den nächsten paar Abschnitten werden wir uns unter anderem mit der Frage beschäftigen, ob sich nur anhand der Differentialgleichung die Lösungen (in Abhängigkeit des Anfangswerts) beschreiben lassen (ohne explizites Lösen der Gleichung).

Übung 12.28: Challenge

Seien [latex]U[/latex] und [latex]f[/latex] wie im Existenz- und Eindeutigkeitstheorem von Picard-Lindelöf (Theorem 12.23) und [latex]x(\cdot ):(a,b)\to \mathbb {R}^d[/latex] die zugehörige maximale Lösung eines Anfangswertproblems für [latex](t_0,x_0)\in U[/latex]. Zeigen Sie als Verschärfung von Theorem 12.23, dass es für jede kompakte Menge [latex]K\subseteq U[/latex] Zeitpunkte [latex]\alpha ,\beta \in (a,b)[/latex] gibt, so dass [latex](t,x(t))\notin K[/latex] für alle [latex]t\in (a,b)\setminus (\alpha ,\beta )[/latex]. In diesem Sinn verlässt die Lösung jede kompakte Teilmenge von [latex]U[/latex] (und sozusagen damit auch [latex]U[/latex]).

Hinweis.

Es genügt den rechten Endpunkt des Intervalls [latex](a,b)[/latex] zu betrachten. Falls [latex]b=\infty[/latex] reicht Beschränktheit von [latex]K[/latex] aus um [latex]\beta[/latex] zu finden. Für [latex]b

12.4.1 – Mögliches Verhalten in der Nähe eines Fixpunktes*

Wir nehmen hier, nebst den Annahmen in des Existenz- und Eindeutigkeitssatzes von Picard-Lindelöf, an, dass die Differentialgleichung [latex]\dot {x} = f(x)[/latex] autonom und in einer offenen Umgebung [latex]U \subseteq \mathbb {R}^2[/latex] von [latex]0\in \mathbb {R}^2[/latex] definiert ist. Des Weiteren setzen wir voraus, dass [latex]f(0) = 0[/latex] ist. Das heisst, dass die konstante Funktion [latex]t \in \mathbb {R} \mapsto x(t) = 0[/latex] das Anfangswertproblem [latex]\dot {x} = f(x)[/latex], [latex]x(0) = 0[/latex] löst. Wir wollen das Verhalten von Lösungen zu einem Anfangswert nahe bei der [latex]0[/latex] in verschiedenen Situationen untersuchen.

Übung 12.29: Schwarzes Loch

Seien [latex]U[/latex] und [latex]f[/latex] wie oben. Angenommen

[latex]
\begin{aligned}[]f(x) = Ax + o(\left \| x\right \| )\quad \text { für } x \to 0\end{aligned}
[/latex]

für [latex]A \in \operatorname {Mat}_{2,2}(\mathbb {R})[/latex]. Sei [latex]x : I \rightarrow \mathbb {R}^{2}[/latex] eine maximale Lösung.

  1. Sei [latex]A = \begin{pmatrix}\lambda _{1} & 0\\ 0 & \lambda _{2}\end{pmatrix}[/latex] mit [latex]\lambda _{1}, \lambda _{2}
  2. Sei [latex]A = \begin{pmatrix}\lambda & -1\\ 1 & \lambda \end{pmatrix}[/latex] mit [latex]\lambda

Hinweis: Betrachten Sie die Hilfsfunktion [latex]H(x) = \| {x}\| ^2[/latex].

Bemerkung

Übung 12.29 lässt ich ebenso auf höhere Dimensionen und auf alle Matrizen mit nur negativen Realteilen der Eigenwerte verallgemeinern.

Sogenannte hyperbolische Fixpunkte (wo negative und positive Eigenwerte auftreten) sind genauso wie die Fixpunkte der obigen Übung «stabil» . Das heisst, das Verhalten in der Nähe der Null ist analog zu der «zugehörigen linearen Differentialgleichung». Wie die folgende Übung zeigt ist dies bei Eigenwerten mit verschwindendem Realteil nicht der Fall.

Übung 12.30: Nach aussen rotierende Scheiben

Seien [latex]U=B_2(0)[/latex] und [latex]f[/latex] gegeben durch

[latex]
\begin{aligned}[]f(x) = \begin{pmatrix}-x_2+x_1^3 g(\| {x}\| ^2) \\ x_1+x_2^3 g(\| {x}\| ^2)\end{pmatrix},\end{aligned}
[/latex]

wobei [latex]g:[0,4] \to \mathbb {R}[/latex] Lipschitz-stetig ist. Seien [latex]\alpha 0[/latex] für alle [latex]r \in (\alpha ,\beta )[/latex]. Zeigen Sie, dass jede Lösung des Anfangwertproblems [latex]\dot {x} = f(x)[/latex] mit Anfangswert [latex]x_0 \in U[/latex] und [latex]\| {x}\| ^2\in (\alpha ,\beta )[/latex] auf ganz [latex]\mathbb {R}[/latex] definiert ist und die Lösung im Gegenuhrzeigersinn um den Ursprung rotiert und von Innen die Lösung [latex]y_\beta (t) = \sqrt {\beta } \begin{pmatrix}\cos (t) \\ \sin (t)\end{pmatrix}[/latex] approximiert. Falls stattdessen [latex]g(r)

12.4.2 – Stetige Abhängigkeit*

Wir wollen hier den Existenz- und Eindeutigkeitssatz (Theorem 12.23) in einigen Übungen erweitern.

Übung 12.31: Glattheit

Sei [latex]U \subseteq \mathbb {R}^d[/latex] offen und angenommen [latex]f: U\subseteq \mathbb {R} \times \mathbb {R}^d \to \mathbb {R}^d[/latex] ist glatt. Zeigen Sie, dass jede Lösung eines Anfangswertproblems zur rechten Seite [latex]f[/latex] glatt ist.

Wir möchten nun genauer untersuchen, was geschieht, wenn man an den «Angaben» in Theorem 12.23 etwas «rüttelt» . Wir beginnen damit, den Anfangswert leicht zu ändern und fragen also, wie stark sich die eindeutige Lösung (welche nach Theorem 12.23 existiert) ändert.

Proposition 12.32: Stetige Abhängigkeit der Lösung vom Anfangswert

Seien [latex]U[/latex] und [latex]f[/latex] wie in Theorem 12.23. Sei [latex](t_0,x_0)\in U[/latex] ein Anfangswert und sei [latex]x[/latex] eine auf dem kompakten Interval [latex][a,b]\ni t_0[/latex] definierte Lösung zum Anfangswertproblem [latex]\dot {x} = f(t,x(t)),\ x(t_0) = x_0[/latex]. Sei [latex]\varepsilon > 0[/latex] beliebig. Dann existiert ein [latex]\delta > 0[/latex] mit folgender Eigenschauft: Falls ein weiterer Anfangswert [latex]\tilde {x}_0[/latex] mit [latex](t_0,\tilde {x}_0)\in U[/latex] die Abschätzung [latex]\| {x_0-\tilde {x}_0}\|

Tatsächlich lässt sich beweisen, dass die Lösung gewissermassen «differenzierbar» vom Anfangswert abhängt. Wir skizzieren den Beweis der obigen Proposition in folgenden Übung.

Übung 12.33

Beweisen Sie Propoosition 12.32 in folgenden Schritten.

  1. Zeigen Sie dazu, dass es genügt eine lokale Version zu beweisen: Angenommen es existiert für jedes [latex](t_1,x_1)\in U[/latex] ein [latex]\eta >0[/latex] so dass die zugehörige Lösung [latex]x[/latex] auf [latex][t_1-\eta ,t_1+\eta ][/latex] definiert ist und dort die Stetigkeitsaussage von Proposition 12.32 erfüllt. Nehmen Sie weiters für ein kompaktes Intervall [latex][a,b][/latex] an, dass [latex]\eta >0[/latex] gleichmässig für alle [latex]t_1\in [a,b][/latex] und [latex]x_1=x(t_1)[/latex] gewählt werden kann. Schliessen Sie daraus auf die Aussage in Proposition 12.32.
  2. Sei [latex](X,\mathrm {d})[/latex] ein vollständiger metrischer Raum, seien [latex]T,\tilde {T}: X \to X[/latex] Lipschitz-Kontrak­tion­en mit gleicher Lipschitz-Konstante [latex]\lambda 0[/latex]. Angenommen [latex]T,\tilde {T}[/latex] erfüllen die Eigenschaft, dass für alle [latex]x \in X[/latex] die Abschätzung [latex]\mathrm {d}(Tx,\tilde {T}x)
  3. Verwenden Sie (ii), um den Beweis von Proposition 12.25 zu einem Beweis der lokalen Version in (i) zu adaptieren.

Wir erwähnen noch, dass man genauso wie am Anfangswert man auch an dem Vektorfeld leicht «rütteln» kann, ohne dass man dabei die Lösung stark verändert. Der Beweis dafür kann ebenfalls durch eine genaue Analyse der Beweise des Banachschen Fixpunktsatzes (Satz 9.54) und des lokalen Existenz- und Eindeutigkeitssatzes (Proposition 12.25) erbracht werden. Wir wollen dies aber hier nicht weiter verfolgen.

12.4.3 – Ein weiteres Beispiel: der rotierende Tropfen*

Wir wollen hier das nicht-lineare, autonome Differentialgleichungssystem
[latex]
\begin{aligned}[]\label{eq:diffglg-nl2-dgl} \begin{array}{l} \dot {x} = -y + x^2+y^2 \\ \dot {y} = x + 2xy\end{array}\end{aligned}
[/latex]
betrachten. Im Gegensatz zu dem Beispiel in Abschnitt 12.3.4 werden wir dieses System qualitativ untersuchen und die verschiedenen Lösungen in Kategorien unterteilen ohne diese zu berechnen. In der Tat da wir (abgesehen von drei speziellen Lösungen) keine konkreten Formeln angeben werden, beziehen wir unsere Lösungen einzig und allein aus dem Existenz- und Eindeutigkeitssatz von Picard-Lindelöf (Theorem 12.23).

Übung 12.34

Zeigen Sie, dass (12.13) der Voraussetzung der lokalen Lipschitz-Stetigkeit in Theorem 12.23 genügt.

Um die Lösungen der verschiedenen Anfangswertprobleme zu (12.13) zu verstehen, bedienen wir uns unter anderem der Darstellung des Vektorfeld (genauer, der Strömungslinien) im folgenden Bild.

image

Abbildung 12.2 – Visualisierung des Vektorfelds der Differentialgleichung (12.13)

Aus dem Bild entnimmt man mehrere Vermutungen, die wir in verschiedenen Schritten überprüfen wollen.

Übung 12.35: Konstante Lösungen und Lösungen auf einer Geraden

  1. Zeigen Sie, dass die konstanten Lösungen von (12.13) durch
    [latex]
    \begin{aligned}[]\left \lbrace \begin{array}{l} x(t) = 0 \\ y(t) = 0\end{array} \right . \qquad \text {und}\qquad \left \lbrace \begin{array}{c} x(t) = 0 \\ y(t) = 1\end{array} \right .\end{aligned}
    [/latex]

    gegeben sind.

  2. Zeigen Sie, dass es (abgesehen von der konstanten Lösung und einer Zeitverschiebung) nur eine Lösung gibt, die sich entlang einer Geraden bewegt, und dass die entsprechende Gerade durch [latex]y = - \frac {1}{2}[/latex] gegeben ist.
  3. Bestimmen Sie die Lösung zum Anfangswert [latex]x(0) = 0[/latex], [latex]y(0) = -\frac {1}{2}[/latex].

Hinweis.

Betrachten Sie für (ii) die möglichen Geraden [latex]x = c[/latex] und [latex]y = ax+b[/latex] für Konstanten [latex]a,b,c\in \mathbb {R}[/latex]. Bestimmen Sie die Konstanten [latex]a,b,c[/latex], für welche die Lösungen zu (12.13) auf den dazugehörigen Geraden liegen können. Für (iii) separieren Sie die Variablen der Differentialgleichung in [latex]x[/latex] und [latex]t[/latex].

Das Verhalten der weiteren Lösungen erfordert nebst kleinen Rechnungen auch weitere Argumente.

Übung 12.36: Lösungen unterhalb [latex]y_0 = -\frac {1}{2}[/latex]

  1. Zeigen Sie, dass für jede Lösung [latex]t \mapsto (x(t),y(t))^t[/latex] eines Anfangswertproblems zu (12.13) mit Anfangswert [latex]x_0 \in \mathbb {R}[/latex], [latex]y_0
  2. Zeigen Sie, dass für eine solche Lösung [latex]x[/latex] auch [latex]\dot {x}(t) \geq \frac {1}{2}[/latex] für alle [latex]t[/latex] im Definitionsbereich der Lösung erfüllt ist.
  3. Zeigen Sie, dass für jede dieser Lösungen der Definitionsbereich ein beschränktes Intervall bildet.

Hinweis.

Verwenden Sie für (i) die Eindeutigkeit in Theorem 12.23 und den Zwischenwertsatz für [latex]y[/latex]. Für (iii) können Sie die [latex]x[/latex]-Koordinate der Lösung des Anfangswertproblems zu [latex]x_0 = 1[/latex], [latex]y_0

Wie bereits das Bild 12.2 zeigt, ist das Verhalten der Lösungen für [latex]y_0 > -\frac {1}{2}[/latex] interessanter (das heisst, schwieriger zu verstehen). Es sieht so aus, als ob es geschlossene (periodische) Lösungen rund um den Ursprung gäbe. Aber wie wir bereits in Übung 12.30 gesehen haben, genügt es dafür nicht, nur den linearen Anteil der rechten Seite der Differentialgleichung rund um den Ursprung zu betrachten. Es könnte also immer noch sein, dass die Lösungen entlang von Spiralen nach [latex]0[/latex] streben oder umgekehrt von [latex]0[/latex] ausgehend (vielleicht sogar in endlicher Zeit) nach Unendlich streben. Wir wollen dies ausschliessen und auch die Existenz der «Tropfenfunktion» [latex]t \mapsto (x(t),y(t))^t[/latex] mit

[latex]
\begin{aligned}[]&\lim _{t \to -\infty } (x(t),y(t))^t = (1,1)^t\\ &\ x(0) = 0,\ y(0) [/latex]

zeigen.

Übung 12.37

Zeigen Sie, dass für jede Lösung [latex]t \mapsto (x(t),y(t))^t[/latex] eines Anfangswertproblems zu (12.13) mit Anfangswert [latex]x_0 \in \mathbb {R}[/latex], [latex]y_0 > -\frac {1}{2}[/latex] auch [latex]y(t) > -\frac {1}{2}[/latex] für alle [latex]t[/latex] im Definitionsbereich der Lösung erfüllt ist.

Nun teilen wir [latex]\mathbb {R}^2[/latex] in mehrere Gebiete auf und untersuchen auf diesen die Vorzeichen von [latex]\dot {x}[/latex] und [latex]\dot {y}[/latex].

Wir faktorisieren [latex]\dot {y} = x +2xy = x (1+2y)[/latex] und erhalten eine Unterteilung von [latex]\mathbb {R}^2[/latex] in [latex]4[/latex] Quadrate, wo [latex]\dot {y}[/latex] jeweils dasselbe Vorzeichen besitzt; siehe folgendes Bild.

image

Weiter erhalten wir durch quadratische Ergänzung [latex]\dot {x} = -y+x^2+y^2 = x^2 + (y-\frac {1}{2})^2 - \frac {1}{4}[/latex]. Dies ergibt für das Vorzeichen von [latex]\dot {x}[/latex] eine Unterteilung von [latex]\mathbb {R}^2[/latex] in einen Kreis mit Mittelpunkt [latex](0,\frac {1}{2})^t[/latex] und Radius [latex]\frac {1}{2}[/latex]; siehe folgendes Bild.

image

Wenn wir diese beiden Unterteilungen von [latex]\mathbb {R}^2[/latex] gemeinsam betrachten, erhalten wir die schematische Darstellung in Entsprechung zum Bild 12.2.

image

Wir wollen nun die Lösung des Anfangswertproblems (12.13) mit Anfangswerten [latex]x(0) = 0[/latex], [latex]y(0) = y_0 \in (0,1)[/latex] untersuchen. Da [latex]\dot {x}(0) = (y_0-\frac {1}{2})^2 - \frac {1}{4} 0[/latex]. Für diese [latex]t[/latex] gilt weiter [latex]\dot {y} 0[/latex] (minimal gewählt) [latex](x(t_1),y(t_1))^t \in \mathbb {S}[/latex] gilt. In der Tat ist [latex]x(t) \leq x(\delta )

Ab dem Zeitpunkt [latex]t_1[/latex] bewegt sich die Lösung nach unten und nach rechts. Wir wollen als nächstes den minimalen Zeitpunkt [latex]t_2 > t_1[/latex] finden, bei dem [latex]y(t_2) = 0[/latex] ist. Da [latex]y(t_1) > 0[/latex] ist und [latex]\dot {y}(t) = x(t) (1+2y(t))

Übung 12.38

Verwenden Sie die Funktion [latex]H(x,y) = x^2 + y(y-1) = x^2 + (y-\frac {1}{2})^2-\frac {1}{4}[/latex], um zu zeigen, dass der Abstand der Lösung zum Punkt [latex](0,\frac 12)^t[/latex] (zumindest in der Nähe des Ursprungs) zunimmt. Schliessen Sie daraus, dass ein minimales [latex]t_2 > t_1[/latex] mit [latex]y(t_2) = 0[/latex] existieren muss.

Es gibt ein [latex]\eta > 0[/latex] mit [latex]x(t) t_2[/latex] gibt mit [latex]x(t_3) = 0[/latex].

Die Argumente bis jetzt haben eigentlich nur das Vorzeichen von gewissen Ableitungen verwendet und sind sehr allgemein einsetzbar. Doch können diese den vermuteten Zufall, dass es periodische Punkte um den Ursprung gibt, nicht erklären. Für diesen Zufall benötigen wir ein globales Argument wie in folgender Übung.

Übung 12.39

Zeigen Sie, dass die Spiegelung um die [latex]y[/latex]-Achse ([latex]x \to -x[/latex]) und Zeitumkehr ([latex]t \to -t[/latex]) zu demselben Differentialgleichungssystem führt.

Aus obiger Übung und Eindeutigkeit der Lösung folgt, dass die von uns untersuchte Lösung zu dem Anfangswert [latex]x_0 = 0[/latex], [latex]y_0 \in (0,1)[/latex] die Gleichungen [latex]x(-t) = -x(t)[/latex] und [latex]y(-t) = y(t)[/latex] für alle [latex]t[/latex] erfüllt. Insbesondere gilt [latex]x(-t_3) = 0 = x(t_3)[/latex] und [latex]y(-t_3) = y(t_3)[/latex], womit die Lösung tatsächlich periodisch ist.

Wir bewegen nun die Koordinate [latex]y_0[/latex] unseres Anfangswertes [latex](0,y_0)^t[/latex] nach [latex]1[/latex], womit [latex]t_1[/latex] unbeschränkt grösser wird aber [latex]t_2-t_1[/latex] und [latex]t_3-t_2[/latex] beschränkt bleiben (wieso?). Die Punkte [latex](x(t_3),y(t_3))^t[/latex] in [latex]\left \lbrace {0} \right \rbrace \times (0,-\frac {1}{2})[/latex] besitzen einen Grenzwert [latex](x_1,y_1)^t \in \left \lbrace {0} \right \rbrace \times (0,-\frac {1}{2}][/latex] (wieso?). Die Lösung zum Anfangswert [latex](x_1,y_1)^t[/latex] ist die gesuchte Tropfenfunktion (wieso?).

Übung 12.40

Erklären Sie die letzten drei Behauptungen. (Ein vollständiger Beweis hat natürlich Vorteile, aber eine gute Erklärung ohne formale Details kann auch viel Zeit sparen.)

12.5 – Lineare Differentialgleichungssysteme*

Proposition 12.41: Maximale Lösungen für lineare Differentialgleichungssysteme

Sei [latex]I_0\subseteq \mathbb {R}[/latex] ein offenes Intervall und [latex]A:t\in I_0\mapsto A_t\in \operatorname {Mat}_{dd}(\mathbb {R})[/latex] stetig. Dann ist die Menge der (maximalen) Lösungen des homogenen Differentialgleichungssystems

[latex]
\begin{aligned}[]x'(t)=A_tx(t)\end{aligned}
[/latex]

ein [latex]d[/latex]-dimensionaler Teilraum [latex]R[/latex] des Raumes [latex]C^1(I_0,\mathbb {R}^d)[/latex] der [latex]\mathbb {R}^d[/latex]-wertigen stetig differenzierbaren Funktion auf [latex]I_0[/latex]. Für eine stetige Störfunktion [latex]g:I_0\to \mathbb {R}^d[/latex] ist die Menge der Lösungen des inhomogenen Differentialgleichungssystems

[latex]
\begin{aligned}[]x'(t)=A_tx(t)+g(t)\end{aligned}
[/latex]

von der Form [latex]x_{\operatorname {part}}+R[/latex], wobei [latex]x_{\operatorname {part}}:I_0\to \mathbb {R}^d[/latex] eine partikuläre Lösung der inhomogenen Differentialgleichungssystems ist. Insbesondere haben Anfangswertprobleme zu jedem [latex]t_0\in I_0[/latex] eine auf ganz [latex]I_0[/latex] eindeutig bestimmte Lösung.

Übung 12.42: Lineare Differentialgleichungen [latex]d[/latex]-ter Ordnung

Formulieren und beweisen Sie ein Korollar zu Proposition 12.41 für homogene und inhomogene lineare Differentialgleichungen [latex]d[/latex]-ter Ordnung

[latex]
\begin{aligned}[]y^{(d)}(t)=f_{d-1}(t)y^{(d-1)}(t)+\ldots +f_{0}(t)y(t)+g(t),\end{aligned}
[/latex]

welches zum Beispiel die Lösungsmenge der Bessel-Differentialgleichung (10.13) beschreibt.

Beweis

Wir bemerken zuerst, dass für [latex]U=I_0\times \mathbb {R}^d[/latex] die rechte Seite [latex]A_tx[/latex] stetig von [latex](t,x)\in U[/latex] und linear vom Ort [latex]x\in \mathbb {R}^d[/latex] abhängt. Insbesondere hängt [latex]A_tx[/latex] Lipschitz-stetig vom Ort ab und damit sind die Vorraussetzungen vom Existenz- und Eindeutigkeitssatz von Picard-Lindelöf (Theorem 12.23) erfüllt.

Sei [latex]t_0\in I_0[/latex]. Wir verwenden Theorem 12.23 für die Anfangswertsprobleme [latex]x(t_0)=e_k[/latex] zur homogenen Differentialgleichung und erhalten zu jedem Standardbasisvektor [latex]e_k[/latex] von [latex]\mathbb {R}^d[/latex] eine Lösung [latex]x_k:I_k\to \mathbb {R}^d[/latex] mit [latex]x_k(t_0)=e_k[/latex] für [latex]k=1,\ldots ,d[/latex]. Hier ist [latex]I_k\subseteq I_0[/latex] das in Theorem 12.23 gefundene maximale Intervall auf dem [latex]x_k[/latex] definiert ist. Wir setzen die einzelnen Lösungen auch zu einer Matrix-wertigen Funktion [latex]L: t \mapsto L_t[/latex] zusammen, wobei [latex]L_t=(x_1(t),\ldots ,x_d(t))[/latex] für alle [latex]t[/latex] im gemeinsamen Definitionsbereich.

Wir behaupten [latex]I_1=I_2=\ldots =I_d=I_0[/latex] (womit [latex]L[/latex] auf [latex]I_0[/latex] definiert ist) und [latex]\det (L_t)>0[/latex] für alle [latex]t\in I_0[/latex]. Für den Beweis dieser Behauptung setzen wir

[latex]
\begin{aligned}[]\alpha &=\inf \left \lbrace {t\in I_1\cap I_2\cap \ldots \cap I_d} \mid {\det (L_s)>0 \text { für alle }s\in [t,t_0]}\right \rbrace \\ \beta &=\sup \left \lbrace {t\in I_1\cap I_2\cap \ldots \cap I_d} \mid {\det (L_s)>0 \text { für alle }s\in [t_0,t]}\right \rbrace \\ I_{\max }&=(\alpha ,\beta )\subseteq I_0=(a,b),\end{aligned}
[/latex]

und nehmen indirekt [latex]\beta a[/latex] verläuft analog.)

Da [latex]\beta \in I_0[/latex] ist, können wir Theorem 12.23 auch für die Anfangswertprobleme [latex]x(\beta )=e_k[/latex] für [latex]k=1,\ldots ,d[/latex] anwenden und erhalten damit Lösungen, die in (möglicherweise verschiedenen) Umgebung von [latex]\beta[/latex] definiert sind. Wir schneiden die Umgebungen um einen gemeinsamen Definitionsbereich [latex]\tilde {I}[/latex] zu erhalten und setzen die einzelnen Lösungen nochmals zu einer Matrix-wertigen Funktion [latex]\tilde {L}:\tilde {I}\to \operatorname {Mat}_{dd}(\mathbb {R})[/latex] zusammen, womit [latex]\bigl (\tilde {L}(e_k)\bigr )'(t)=A_t \tilde {L}_t(e_k)[/latex] für [latex]k=1,\ldots ,d[/latex] und [latex]\tilde {L}_\beta =I_d[/latex] gilt. Da [latex]\det (\tilde {L}_\beta )=1[/latex] können wir, wenn nötig, die Umgebung kleiner wählen und und des Weiteren annehmen, dass [latex]\det (\tilde {L}_t)>0[/latex] für alle [latex]t\in \tilde {I}=(\tilde \alpha ,\tilde \beta )[/latex].

Sei nun [latex]t_1\in I_{\max }\cap \tilde {I}[/latex]. Wir definieren für jedes [latex]k\in \left \lbrace {1,\ldots ,d} \right \rbrace[/latex] die Funktion

[latex]
\begin{aligned}[]y_k(t)=\begin{cases}x_k(t) &\text {für }t\in (\alpha ,t_1]\\ \tilde {L}_t \bigl (\tilde {L}_{t_1}^{-1}x_k(t_1)\bigr )& \text {für }t\in (t_1,\tilde \beta ),\end{cases}\end{aligned}
[/latex]

wobei die Definition im zweiten Fall so gewählt wurde, dass [latex]y_k[/latex] bei [latex]t_1[/latex] stetig ist. Da nun [latex]y_k[/latex] die Differentialgleichung im Definitionsbereich sowohl für [latex]t\in (\alpha ,t_1)[/latex] als auch für [latex]t\in (t_1,\tilde \beta )[/latex] erfüllt, folgt aus der Stetigkeit (wie schon im Beweis von Theorem 12.23), dass [latex]y_k[/latex] die Differentialgleichung auch bei [latex]t_1[/latex] erfüllt.

Gemeinsam definieren die Lösungsfunktion [latex]y_1,\ldots ,y_d[/latex] wieder eine Matrix, die nun auf [latex](\alpha ,\tilde \beta )[/latex] definiert ist und auch auf [latex][t_1,\tilde \beta )[/latex] eine positive Determinante besitzt. Da [latex]\beta

Der Lösungsraum [latex]R[/latex] des homogenen Differentialgleichungssystems besteht nun aus den Funktionen [latex]t\in I_0\to L_tv[/latex] für beliebige [latex]v\in \mathbb {R}^d[/latex], und ist damit wie behauptet ein [latex]d[/latex]-dimensionaler Teilraum von [latex]C^1(I,\mathbb {R}^d)[/latex].

Wir betrachten nun ein stetiges Störglied [latex]g:I_0\to \mathbb {R}^d[/latex] und nehmen an, dass [latex]x_{\operatorname {part}}:I_{\max }\to \mathbb {R}^d[/latex] eine maximale Lösung zum Anfangswertproblem [latex]x'(t)=A_tx(t)+g(t)[/latex] und [latex]x(t_0)=0[/latex] ist. Wir bezeichnen den Definitionsbereich wiederum mit [latex]I_{\max }=(\alpha ,\beta )\subseteq I_0=(a,b)[/latex] und nehmen indirekt [latex]\beta 12.23 auf das Anfangswertproblem [latex]x'(t)=A_tx(t)+g(t)[/latex] und [latex]x(\beta )=0[/latex] an. Dies definiert ein Intervall [latex]\tilde {I}=(\tilde \alpha ,\tilde \beta )\ni \beta[/latex] und eine Lösung [latex]y:\tilde {I}\to \mathbb {R}^d[/latex] dieses Anfangswertproblems. Sei wiederum [latex]t_1\in (\tilde \alpha ,\beta )[/latex]. Dann können wir die allgemeine Lösung des homogenen Differentialgleichungssystems (welches auf ganz [latex]I_0[/latex] existiert) und die partikuläre Lösung [latex]y[/latex] auf [latex]\tilde {I}[/latex] verwenden um eine Lösung [latex]\tilde {y}[/latex] auf [latex]\tilde {I}[/latex] zu dem Anfangswertproblem [latex]x'(t)=A_tx(t)+g(t)[/latex] und [latex]x(t_1)=x_{\operatorname {part}}(t_1)[/latex] zu finden. Da aber nach Theorem 12.23 die maximale Lösung des Anfangswertproblems eindeutig bestimmt ist, erhalten wir einen Widerspruch und [latex]x_{\operatorname {part}}[/latex] muss auf ganz [latex]I_0[/latex] definiert sein.

Die Proposition ergibt sich nun aus dem «linearen Prinzip» , dass die allgemeine Lösung der inhomogenen linearen Differentialgleichung die Summe einer partikulären Lösung der inhomogenen linearen Differentialgleichung und der allgemeinen Lösung der homogenen linearen Differentialgleichung ist. ∎

12.6 – Weitere Lernmaterialien

12.6.1 – Verwendung des Kapitels

Wie bereits erwähnt ist die Untersuchung von Differentialgleichungen für Anwendungen in vielfältigen Themenbereichen von grosser Bedeutung. Falls aber die betrachtete Differentialgleichung nicht konkret durch bekannte Formeln gelöst werden kann, so muss man sich mitunter mit numerischen Methoden helfen. Für diese oder auch eine theoretische Untersuchung der Lösung ist aber von grosser Wichtigkeit zu wissen, dass es eine Lösung gibt. Denn erst dann kann man versuchen, die Lösung mit weiteren Überlegungen besser zu verstehen oder auch zu verstehen wie nahe die numerische Lösung der eigentlichen Lösung kommt. Der Existenz- und Endeutigkeitssatz von Picard-Lindelöf (Theorem 12.23) ist also aus praktischen und theoretischen Gründen sehr wichtig.

12.6.2 – Übungen

Übung

  1. Bestimmen Sie die allgemeine Lösung der Differentialgleichung
    [latex]
    \begin{aligned}[]y'' - 4y' + 4y = \sin (x).\end{aligned}
    [/latex]
  2. Bestimmen Sie die Lösung des Anfangswertproblems
    [latex]
    \begin{aligned}[]y'' - y = x, \quad y(0) = 1, \quad y'(0) = 3.\end{aligned}
    [/latex]

Übung

Finden Sie eine Lösung des Anfangswertproblems

[latex]
\begin{aligned}[]y' &- \left (\frac {4}{x} + 1\right )y = x^{4}\\ &y(1) = 1\end{aligned}
[/latex]

auf dem Intervall [latex](0,\infty )[/latex].

Übung

Lösen Sie folgende Differentialgleichungen (Sie müssen Spezialfälle, die durch das Verschwinden von gewissen Ausdrücken im Lösungsverfahren entstehen, nicht weiter untersuchen):

  1. [latex](x^2-x)y' = y^2+y[/latex],
  2. [latex]y' + e^{y} = 1[/latex],
  3. [latex]xy'=1 - y^{2}[/latex],
  4. [latex]y'x^{2} = y^{2} + yx + x^{2}[/latex].

12.6.3 – Lernkarten

Sie können wiederum die Lernkarten oder den Graphen für Ihre Wiederholung der Themen des Kapitels verwenden.

<!– post meta –>


  1. Wir können ebenso die Koeffizienten [latex]a_0,\ldots ,a_{d-1}[/latex] und die Anfangswerte [latex]w_0,\ldots ,w_{d-1}[/latex] als komplex annehmen, doch bleibt der Fall mit reellen Koeffizienten und Anfangswerten weiterhin von speziellem Interesse.
  2. E. Lindelöf: Sur l'application des méthodes d'approximations successives à l'étude des intégrales réelles des équations différentielles ordinaires (Journal de mathématiques pures et appliquées , 1894)

License

Analysis-Skript CHAB MATH PHYS: 18/19 Copyright © by Manfred Einsiedler and Andreas Wieser. All Rights Reserved.

}