6.1. Unrestringierte Optimierung¶
Im Folgenden wollen wir uns auf eine bestimmte Klasse von allgemeinen Optimierungsproblemen konzentrieren, den unbeschränkten oder unrestringierten Optimierungsproblemen.
(Unrestringierte Optimierung)
Liegt ein allgemeines Optimierungsproblem der Form \eqref{eq:optimierungsproblem_allgemein} ohne Nebenbedingungen vor, d.h., für die Indexmengen gilt \(\mathcal{E} = \mathcal{I} = \emptyset\), so sprechen wir von einem unbeschränkten oder unrestringierten Optimierungsproblem.
Häufig lassen sich restringierte Optimierungsprobleme in unrestringierte Optimierungsprobleme überführen, indem man zusätzliche Strafterme zur Zielfunktion hinzufügt, die eine Verletzung der ursprünglichen Nebenbedingungen zwar mit Kosten belegt, diese jedoch grundsätzlich erlaubt. Hierbei spricht man auch von relaxierten Optimierungsproblemen.
Möchte man eine Zielfunktion \(F \colon \Omega \rightarrow \R\) unter der Nebenbedingung \(c(x) = 0\) für \(x\in \Omega\) minimieren, so lässt sich beispielsweise folgendes relaxierte Optimierungsproblem gewinnen
Hierbei ist \(\lambda > 0\) ein fest gewählter Parameter, der es erlaubt den Einfluss der Nebenbedingung auf die Minimerung der Zielfunktion zu steuern.
Zur Bestimmung von Optima müssen wir zunächst den Begriff eines stationären Punkts einer zu optimierenden Zielfunktion einführen.
(Stationärer Punkt)
Sei \(\Omega \subset \mathbb{R}^n\) eine offene, zusammenhängende Teilmenge und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Wir nennen einen Punkt \(x^* \in \Omega\) stationären Punkt von \(F\), falls er die Bedingung
erfüllt.
Stationäre Punkte sind in der Optimierung interessante Kandidaten für Extremstellen. Für eine genaue Charakterisierung führen wir zunächst den Begriff eines lokalen bzw. globalen Minimums ein.
(Lokales und globales Minimum)
Sei \(\Omega \subset \mathbb{R}^n\) eine offene, zusammenhängende Teilmenge und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Wir nennen einen Punkt \(x^* \in \Omega\) ein lokales Minimum der Funktion \(F\), falls es eine lokale Umgebung \(U \subset \Omega\) von \(x^* \in U\) gibt, so dass für alle \(x \in U\) gilt:
Wir nennen \(x^* \in \Omega\) ein globales Minimum von \(F\), falls die Ungleichung \eqref{eq:lokales_minimum} für jede beliebige Umgebung \(U \subset \Omega\) gilt und somit insbesondere für \(U = \Omega\).
In obiger Definition sprechen wir nur von Minima, jedoch ist klar, dass sich jedes Maximierungsproblem durch einen Vorzeichenwechsel leicht in ein Minimierungsproblem umschreiben lässt, d.h.,
Da wir nun eine Bedingung für das Vorliegen eines lokalen Minimums haben, können wir mit folgenden Satz die notwendigen Bedingungen für solch ein lokales Minimum angeben.
(Notwendige Optimalitätsbedingungen erster Ordnung)
Sei \(\Omega \subset \mathbb{R}^n\) eine offene, zusammenhängende Teilmenge und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Sei \(x^*\in \Omega\) ein lokales Minimum von \(F\) in \(\Omega\) und die Funktion \(F\) sei stetig partiell differenzierbar in einer lokalen, offenen Umgebung \(U \subset \Omega\) von \(x^*\). Dann gilt
Proof. Wir führen einen Beweis durch Widerspruch. Nehmen wir also an, dass \(x^* \in \mathbb{R}\) ein lokales Minimum von \(F\) sei, jedoch aber \(\nabla F(x^*) \neq 0\) gelte. Wir wählen den Richtungsvektor \(\vec{p} \coloneqq -\nabla F(x^*) \neq 0\). Es ist somit klar, dass
Da \(\nabla F\) nach Voraussetzung stetig in einer lokalen Umgebung \(U \subset \Omega\) von \(x^*\) ist existiert ein \(T > 0\), so dass auch gilt:
Nach dem Satz \ref{satz:taylorformel_mehrdimensional} von Taylor gilt aber auch für jedes \(t \in [0,T]\):
Somit gilt also \(F(x^* + t\vec{p}) < F(x^*)\) und wir haben offenbar eine Richtung \(\vec{p} \in \mathbb{R}^n \setminus \lbrace 0\rbrace\) gefunden in der die Funktionswerte von \(F\) abnehmen. Also ist \(x^* \in \Omega\) kein lokales Minimum von \(F\). Das ist aber ein Widerspruch zur Annahme und somit ist die Behauptung bewiesen.
Die Aussage des Satzes Theorem 6.1 lässt sich wie folgt zusammenfassen.
Jedes lokale Minimum \(x^* \in \Omega\) einer Zielfunktion \(F \colon \Omega \rightarrow \mathbb{R}\) ist ein stationärer Punkt.
Die Umkehrung der Aussage in Satz \ref{satz:minimum_notwendig_ersteOrdnung} gilt im Allgemeinen nicht, wie uns das folgende Beispiel zeigt.
Wir betrachten die Funktion
Diese besitzt einen stationären Punkt in \(x^* = 0\), d.h., es gilt \(\nabla F(0) = 0\). Dennoch handelt es sich hierbei nicht um ein lokales Optimum, sondern lediglich um einen Sattelpunkt.
Bei der Suche nach lokalen Minima einer Zielfunktion \(F\) lässt sich ein weiteres Kriterium anwenden, welches die zweite Ableitung der Funktion verwendet.
(Notwendige Optimalitätsbedingungen zweiter Ordnung)
Sei \(\Omega \subset \mathbb{R}^n\) ein offenes, zusammenhängendes Gebiet und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Sei \(x^*\in \Omega\) ein lokales Minimum von \(F\) in \(\Omega\) und die Hessematrix \(H_F\) von \(F\) sei stetig in einer offenen Umgebung \(U \subset \Omega\) von \(x^*\), d.h., die Funktion \(F\) ist zweimal stetig partiell differenzierbar auf der Teilmenge \(U\). Dann gilt \(\nabla F(x^*) = 0\) und \(H_F(x^*)\) ist positiv semidefinit, d.h., es gilt
Proof. Der erste Teil der Behauptung folgt bereits aus Satz Theorem 6.1, so dass wir uns nur auf den Beweis für die zweite Behauptung konzentrieren müssen.
Wir führen wieder einen Beweis durch Widerspruch. Sei \(x^* \in \Omega\) nach Voraussetzung ein lokaler Minimierer von \(F\), das heißt nach Satz Theorem 6.1 gilt \(\nabla F(x^*) = 0\). Wir nehmen an, dass \(H_F F(x^*)\) nicht positiv semidefinit ist. Dann können wir einen Vektor \(\vec{p} \in \mathbb{R}^n / \lbrace 0\rbrace\) finden, so dass
gilt. Da \(H_F\) nach Voraussetzung stetig ist in einer lokalen Umgebung \(U \subset \Omega\) von \(x^*\) existiert ein \(T > 0\), so dass
Nach dem Satz \ref{satz:taylorformel_mehrdimensional} von Taylor gilt jedoch für alle \(t \in (0,T)\) die folgende Identität
Durch Weglassen des Terms auf der rechten Seite der Gleichung folgt also, dass \(F(x^* + \hat{t}\vec{p}) < F(x^*)\) gilt. Wir haben also eine Richtung \(\vec{p} \in \mathbb{R}^n/\lbrace 0 \rbrace\) gefunden entlang der die Funktionswerte von \(F\) abnehmen. Damit folgt, dass \(x^*\) kein lokales Minimum von \(F\) ist, was aber im Widerspruch zur Annahme steht. Das beweist die Aussage des Satzes.
Schlussendlich wollen wir auch eine hinreichende Bedingung für das Vorliegen eines lokalen Minimums angeben.
(Hinreichende Optimalitätsbedingungen zweiter Ordnung)
Sei \(\Omega \subset \mathbb{R}^n\) eine offene, zusammenhängende Teilmenge und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Sei \(x^*\in \Omega\) ein Punkt für den gelte
\(i)\) \(\nabla F(x^*) \ = \ 0\), \(ii)\) \(H_F(x^*)\) ist positiv definit.
Außerdem sei die Hesse-Matrix \(H_F\) von \(F\) stetig in einer offenen Umgebung \(U \subset \Omega\) von \(x^* \in U\). Dann ist \(x^* \in \Omega\) ein striktes lokales Minimum von \(F\).
Proof. Da die Hesse-Matrix \(H_F\) von \(F\) stetig und positiv definit in \(x^* \in \Omega\) ist nach Voraussetzung können wir einen Radius \(r > 0\) finden, so dass \(H_F(x)\) positiv definit ist für alle \(x \in B_r(x^*)\). Für jeden Vektor \(\vec{p} \in \mathbb{R}^n / \lbrace 0\rbrace\) mit \(||\vec{p}|| < r\) gilt dann nach dem Satz \ref{satz:taylorformel_mehrdimensional} von Taylor:
Da \(||t\vec{p}|| < r\) ist nach Konstruktion wissen wir, dass
gilt und somit schon \(F(x^* + \vec{p}) > F(x^*)\) gelten muss. Da \(\vec{p} \in \mathbb{R}^n / \lbrace 0 \rbrace\) mit \(||\vec{p}|| < r\) beliebig gewählt war handelt es sich bei \(x^* \in \Omega\) um ein striktes lokales Minimum der Funktion \(F\).
An Hand der Definitheit der Hesse-Matrix können wir also in vielen Fällen die Art des stationären Punkts charakterisieren. Es stellt sich heraus, dass folgende Beobachtungen gelten:
Ist die Hesse-Matrix positiv definit, handelt es sich um ein lokales Minimum.
Falls die Hesse-Matrix negativ definit ist, so ist der stationäre Punkt ein lokales Maximum.
Ist die Hesse-Matrix indefinit, so handelt es sich um einen Sattelpunkt.
Sollte die Hesse-Matrix in einem stationären Punkt semidefinit sein, so lässt sich keine eindeutige Aussage treffen.
Im Folgenden wollen wir die notwendigen und hinreichenden Optimalitätsbedingungen für verschiedene Zielfunktionen prüfen.
Wir untersuchen zwei unterschiedliche Zielfunktionen auf mögliche Extremstellen.
Zuerst diskutieren wir eine einfache eindimensionale Zielfunktion \(F \colon \R \rightarrow \R\) mit
Wir prüfen die notwendigen Optimalitätsbedingungen erster Ordnung aus Satz \ref{satz:minimum_notwendig_ersteOrdnung} und bemerken, dass der einzige stationäre Punkt von \(F\) in \(x^* = 0\) vorliegt, da
Da \(F''(x) = 12x^2\) ist gilt im stationären Punkt \(x^* = 0\) nur \(F''(0) = 0\). Daher können wir nicht die hinreichenden Optimalitätsbedingungen zweiter Ordnung aus Satz \ref{thm:minimum_hinreichend} anwenden, da die zweite Ableitung nicht positiv ist. Dennoch erkennen wir, dass \(F\) ein striktes lokales Minimum in \(x=0\) besitzt mit \(\nabla F(0) = 0\). Dies zeigt uns, dass die in Satz \ref{thm:minimum_hinreichend} genannten Bedingungen nur hinreichend sind, jedoch nicht notwendig für das Vorliegen eines strikten lokalen Minimums.
Nun diskutieren wir eine zweidimensionale Zielfunktion \(F \colon \R^2 \rightarrow \R\) mit
Zur Bestimmung von möglichen Extremstellen der Zielfunktion müssen wir zunächst den Gradienten berechnen. Hierzu bestimmen wir die ersten partiellen Ableitungen von \(F\) als
Zur Bestimmung eines stationären Punkts setzen wir
Um mögliche Kandidaten für ein lokales Extremum zu finden müssen wir also folgendes lineares Gleichungssystem lösen:
Durch Lösen des linearen Gleichungssystems erhalten wir den einzigen stationären Punkt in
Wir berechnen als Nächstes die Hesse-Matrix \(H_F\) von \(F\) mit den zweiten Ableitungen:
Insgesamt ergibt sich also für die Hesse-Matrix im stationären Punkt \(x^* \in \R^2\)
Zur Bestimmung der Definitheit von \(H_F\) stellen wir das charakteristische Polynom \(P_{H_F}\) auf als
Wir bestimmen die Eigenwerte der Hesse-Matrix \(H_F\) als Nullstellen des charakteristischen Polynoms \(P_{H_F}\) mittels p-q-Formel und erhalten somit
Da beide Eigenwerte \(\lambda_{1/2} = 7 \pm \sqrt{41}\) von \(H_F\) positiv sind, ist die Hesse-Matrix positiv definit. Damit sind die hinreichenden Bedingungen aus Satz \ref{thm:minimum_hinreichend} für ein striktes lokales Minimum von \(F\) im Punkt \(x^* \ = \ (0.5, 1)\) erfüllt. Da die Hesse-Matrix auf ganz \(\R^2\) positiv definit ist, handelt es sich sogar um ein globales Minimum.
Eine äußerst wertvolle Eigenschaft bei der Optimierung ist die Konvexität einer Zielfunktion, da jedes lokale Optimum einer konvexen Funktion bereits ein globales Optimum ist.
(Konvexität)
Sei \(\Omega \subset \mathbb{R}^n\) eine offene, zusammenhängende Teilmenge und sei \(F \colon \Omega \rightarrow \mathbb{R}\) eine reellwertige Zielfunktion. Wir nennen \(F\) konvex wenn für beliebige Vektoren \(x,y \in \Omega\) die folgende Ungleichung für alle \(0 \leq \alpha \leq 1\) gilt:
Wir nennen die Funktion \(F\) strikt konvex, falls (6.3) eine echte Ungleichung ist.
Anschaulich bedeutet Konvexität einer Funktion \(F\), dass jede Verbindungsgerade zwischen zwei Punkten \(x,y \in \Omega\) oberhalb des Graphen der Funktion \(F\) durch die Punkte \(x\) und \(y\) verläuft.
Folgende Bemerkung stellt die Bedeutung von Konvexität für die Optimierung fest.
Sei \(\Omega \subset \R^n\) eine offene, zusammenhängende Teilmenge und \(F \colon \Omega \rightarrow \R\) eine Zielfunktion. Man kann zeigen, dass die Hesse-Matrix \(H_F(x)\) genau dann positiv definit ist für alle \(x\in \Omega\), wenn \(F\) eine strikt konvexe Funktion ist.
Dies hat zur Konsequenz, dass wenn man einen stationären Punkt \(x^* \in \Omega\) findet mit \(\nabla F(x^*) = 0\), so ist dieser Punkt das eindeutige, globale Minimum der Zielfunktion.