Optimale Steuerung

Aus testwiki
Version vom 11. März 2025, 20:20 Uhr von imported>Aka (Ökonomische Anwendungen: Tippfehler entfernt)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die Theorie der optimalen Steuerungen (Vorlage:EnS) ist eng verwandt mit der Variationsrechnung und der Optimierung. Eine optimale Steuerung u ist eine Funktion, welche eine gegebene Zielfunktion unter einer Differentialgleichungs-Nebenbedingung und eventuell noch weiteren Restriktionen minimiert oder maximiert.

Zum Beispiel könnte ein Autofahrer versuchen, ein Ziel in möglichst geringer Zeit zu erreichen. Wann schaltet der Autofahrer am besten? Möglicherweise müssen gewisse Nebenbedingungen, z. B. Geschwindigkeitsbegrenzungen, eingehalten werden. Ein anderer Autofahrer versucht dagegen vielleicht, den Kraftstoffverbrauch zu minimieren, d. h., er wählt eine andere Zielfunktion.

Wesentliche Grundlagen der Theorie wurden von Lew Pontrjagin in der UdSSR und Richard Bellman in den USA gelegt.

Das Problem der optimalen Steuerung

Es gibt mehrere mathematische Formulierungen der Aufgabenstellung, wobei wir hier eine möglichst allgemeine Form angeben.

Seien 𝒞a:n,𝒞b:n,f:[a,b]×n×mn,g:[a,b]×n×m und Um.

Gesucht ist ein Zustand x:n sowie eine Steuerung u:m, sodass gilt:

𝒞a(x(a))+𝒞b(x(b))+abg(t,x(t),u(t))dtmin

unter den Nebenbedingungen:

  1. x˙(t)=f(t,x(t),u(t)),x(a)=xa
  2. u(t)U für t[a,b]

Ein u, das diese Gleichung erfüllt, wird als optimale Steuerung bezeichnet.

Häufig treten zusätzlich noch sogenannte Zustandsbeschränkungen auf, d. h., der Zustand zu einem bestimmten Zeitpunkt ist zusätzlich gewissen Restriktionen unterworfen.

Von Interesse sind in erster Linie die folgenden Fragestellungen:

  1. Existieren Lösungen und wie kann man sie berechnen?
  2. Welche notwendigen Bedingungen gibt es? Hierbei ist vor allem das Maximumprinzip von Pontrjagin von Bedeutung.
  3. Wann sind die notwendigen Bedingungen sogar hinreichend?

Während die Variationsrechnung Konkurrenzfunktionen lediglich auf offenen Mengen zuließ, wurden in den Optimalsteuerungen allgemeinere Voraussetzungen (u. a. abgeschlossene Mengen für die Steuerfunktionen u) betrachtet mit einem anderen Formalismus, der zwischen Steuerfunktionen u(t) und Zustandsfunktionen x(t) unterscheidet. Das Pontrjaginsche Maximumprinzip ist eine Verallgemeinerung der Weierstraß'schen Bedingung der Variationsrechnung. Für das Maximumprinzip waren neue Beweismethoden (u. a. Separation von Kegeln, Nadelvariationen) erforderlich.

Ökonomische Anwendungen

Die Methodik der optimalen Steuerung wurde schon früh auf praktische Bereiche der Ökonomie angewandt. Robert Dorfman legte 1969 eine ökonomische Interpretation der Theorie der Optimalen Steuerung vor.[1] Den Ausgangspunkt zur Lösung eines solchen Problems bildet die Hamilton-Funktion in der Kontrolltheorie (also Teil des Maximumprinzips).

Beispiel

Eine Firma möchte ihre Gewinne über eine bestimmte Zeitperiode maximieren. Zu jedem Zeitpunkt t besitzt sie einen Kapitalstock aufgrund früheren Verhaltens, k(t). Gegeben diesen Kapitalstock k(t) kann die Firma eine Entscheidung x(t) treffen (z. B. bzgl. des Outputs, Preises etc.). Gegeben k(t) und x(t) erhält die Firma pro Zeitspanne einen Gewinn u(k(t),x(t)). Es lässt sich dann für ein Zeitintervall [t,T] ein dynamisches Optimierungsproblem formulieren:[2]

W(k(t),x,t)=tTu(k(τ),x(τ),τ)dτk˙(t)=f(k(t),x(t),t)

Dieses kann ggf. um einen Abzinsungsfaktor erweitert werden.

Anwendung in der Quantenphysik

Die optimale Steuerung wird in verschiedenen Bereichen der Naturwissenschaft verwendet, um zeitliche Abläufe zu verbessern. In der Quantenphysik kann es sich bei der Zielfunktion zum Beispiel um die Fidelität zu einem erwünschten Zustand oder die Sensitivität eines Quantensensors handeln.[3]

Siehe auch

Einzelnachweise

  1. An Economic Interpretation of Optimal Control Theory PDF-Version des Artikels. In: The American Economic Review.
  2. Optimal ControlVorlage:Toter Link (PDF; 307 kB) Chapter 2 aus einem Skript Dynamic Modeling von Peter Thompson. Goizueta Business School.
  3. Vorlage:Literatur

Literatur

  • Robert Dorfman. An Economic Interpretation of Optimal Control Theory. The American Economic Review. Volume 59. Issue 5 (Dec., 1969), 817–831. Online-Version (PDF; 1,9 MB)