Optimale Steuerung
Die Theorie der optimalen Steuerungen (Vorlage:EnS) ist eng verwandt mit der Variationsrechnung und der Optimierung. Eine optimale Steuerung ist eine Funktion, welche eine gegebene Zielfunktion unter einer Differentialgleichungs-Nebenbedingung und eventuell noch weiteren Restriktionen minimiert oder maximiert.
Zum Beispiel könnte ein Autofahrer versuchen, ein Ziel in möglichst geringer Zeit zu erreichen. Wann schaltet der Autofahrer am besten? Möglicherweise müssen gewisse Nebenbedingungen, z. B. Geschwindigkeitsbegrenzungen, eingehalten werden. Ein anderer Autofahrer versucht dagegen vielleicht, den Kraftstoffverbrauch zu minimieren, d. h., er wählt eine andere Zielfunktion.
Wesentliche Grundlagen der Theorie wurden von Lew Pontrjagin in der UdSSR und Richard Bellman in den USA gelegt.
Das Problem der optimalen Steuerung
Es gibt mehrere mathematische Formulierungen der Aufgabenstellung, wobei wir hier eine möglichst allgemeine Form angeben.
Seien und .
Gesucht ist ein Zustand sowie eine Steuerung , sodass gilt:
unter den Nebenbedingungen:
- für
Ein , das diese Gleichung erfüllt, wird als optimale Steuerung bezeichnet.
Häufig treten zusätzlich noch sogenannte Zustandsbeschränkungen auf, d. h., der Zustand zu einem bestimmten Zeitpunkt ist zusätzlich gewissen Restriktionen unterworfen.
Von Interesse sind in erster Linie die folgenden Fragestellungen:
- Existieren Lösungen und wie kann man sie berechnen?
- Welche notwendigen Bedingungen gibt es? Hierbei ist vor allem das Maximumprinzip von Pontrjagin von Bedeutung.
- Wann sind die notwendigen Bedingungen sogar hinreichend?
Während die Variationsrechnung Konkurrenzfunktionen lediglich auf offenen Mengen zuließ, wurden in den Optimalsteuerungen allgemeinere Voraussetzungen (u. a. abgeschlossene Mengen für die Steuerfunktionen ) betrachtet mit einem anderen Formalismus, der zwischen Steuerfunktionen und Zustandsfunktionen unterscheidet. Das Pontrjaginsche Maximumprinzip ist eine Verallgemeinerung der Weierstraß'schen Bedingung der Variationsrechnung. Für das Maximumprinzip waren neue Beweismethoden (u. a. Separation von Kegeln, Nadelvariationen) erforderlich.
Ökonomische Anwendungen
Die Methodik der optimalen Steuerung wurde schon früh auf praktische Bereiche der Ökonomie angewandt. Robert Dorfman legte 1969 eine ökonomische Interpretation der Theorie der Optimalen Steuerung vor.[1] Den Ausgangspunkt zur Lösung eines solchen Problems bildet die Hamilton-Funktion in der Kontrolltheorie (also Teil des Maximumprinzips).
Beispiel
Eine Firma möchte ihre Gewinne über eine bestimmte Zeitperiode maximieren. Zu jedem Zeitpunkt besitzt sie einen Kapitalstock aufgrund früheren Verhaltens, . Gegeben diesen Kapitalstock kann die Firma eine Entscheidung treffen (z. B. bzgl. des Outputs, Preises etc.). Gegeben und erhält die Firma pro Zeitspanne einen Gewinn . Es lässt sich dann für ein Zeitintervall ein dynamisches Optimierungsproblem formulieren:[2]
Dieses kann ggf. um einen Abzinsungsfaktor erweitert werden.
Anwendung in der Quantenphysik
Die optimale Steuerung wird in verschiedenen Bereichen der Naturwissenschaft verwendet, um zeitliche Abläufe zu verbessern. In der Quantenphysik kann es sich bei der Zielfunktion zum Beispiel um die Fidelität zu einem erwünschten Zustand oder die Sensitivität eines Quantensensors handeln.[3]
Siehe auch
Einzelnachweise
- ↑ An Economic Interpretation of Optimal Control Theory PDF-Version des Artikels. In: The American Economic Review.
- ↑ Optimal ControlVorlage:Toter Link (PDF; 307 kB) Chapter 2 aus einem Skript Dynamic Modeling von Peter Thompson. Goizueta Business School.
- ↑ Vorlage:Literatur
Literatur
Weblinks
- Robert Dorfman. An Economic Interpretation of Optimal Control Theory. The American Economic Review. Volume 59. Issue 5 (Dec., 1969), 817–831. Online-Version (PDF; 1,9 MB)