Quasi-Newton-Verfahren

Aus testwiki
Version vom 28. Dezember 2024, 15:33 Uhr von imported>DerCob (growthexperiments-addlink-summary-summary:2|1|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Quasi-Newton-Verfahren sind eine Klasse von numerischen Verfahren zur Lösung nichtlinearer Minimierungsprobleme. Die Verfahren basieren auf dem Newton-Verfahren, berechnen die Inverse der Hesse-Matrix jedoch nicht direkt, sondern nähern sie lediglich an, um den Rechenaufwand pro Iteration zu verkleinern.

Der erste Algorithmus wurde Mitte der 1950er Jahre von William Davidon, einem Physiker am Argonne National Laboratory, entwickelt. Die bekanntesten Algorithmen sind Broyden-Fletcher-Goldfarb-Shanno (BFGS), benannt nach Roger Fletcher, Donald Goldfarb, David F. Shanno, Charles George Broyden, und Davidon-Fletcher-Powell (DFP) (nach Fletcher, Davidon und Michael J. D. Powell).

Grundlegender Algorithmus

Eine zweifach differenzierbare Funktion f:n wird mit einer Taylor-Entwicklung an der Stelle xk bis zum zweiten Grad angenähert.

f(x)q(x)=f(xk)+(xxk)Tf(xk)+12(xxk)TH(xk)(xxk)

Die Ableitung der Funktion q muss für ein Minimum null ergeben. Daraus folgt:

q(x)=f(xk)+H(xk)(xxk)=0.

Falls die Hesse-Matrix H(xk) positiv definit ist, so handelt es sich bei besagter Nullstelle der Ableitung von q tatsächlich um ein Minimum von q und dieses lässt sich mit dem Newton-Verfahren iterativ annähern:

xk+1=xkH1(xk)f(xk).

Problematisch ist hier, dass die Inverse der Hesse-Matrix berechnet und diese positiv definit sein muss. Das Quasi-Newton-Verfahren ersetzt H1(xk) durch einen Skalar αk und eine Matrix Mk

xk+1=xkαkMkf(xk).

Die Ableitungs-Gleichung von oben ergibt umgeformt für xk und xk+1

f(xk)=H(xk)(xxk)
f(xk+1)=H(xk+1)(xxk+1).

Daraus lässt sich ein Differenzterm Δgk definieren:

Δgk=f(xk+1)f(xk)
Δgk=H(xk+1)(xxk+1)+H(xk)(xxk).

Man nimmt nun an, dass die Hesse-Matrix für xk und xk+1 in etwa gleich sind, also H(xk)H(xk+1) und folgert daraus:

ΔgkH(xk+1)(xkxk+1)
Mk+1Δgk=xk+1xk.

Für Mk+1 wählt man einen Korrekturterm der Form cZZT:

Mk+1=Mk+cZZT
Mk+1Δgk=MkΔgk+cZZTΔgk=xk+1xk=Δxk.

Die Gleichung lässt sich umstellen, so dass

cZ=ΔxkMkΔgkZTΔgk.

Somit gilt

Z=ΔxkMkΔgk
c=1ZTΔgk.

So lässt sich die Matrix Mk+1 eindeutig bestimmen, jedoch ist diese mit nur einem Korrekturterm nicht immer positiv definit.

Davidon-Fletcher-Powell (DFP)

Die Matrix Mk+1 wird mit der Matrix Mk und zwei Korrekturtermen approximiert:

Mk+1=Mk+c1Z1Z1T+c2Z2Z2TMk+1=Mk+ΔxkΔxkTΔxkTΔgkMkΔgkΔgkTMkΔgkTMkΔgk

Eigenschaften

Falls f eine quadratische Funktion ist, liefert der Algorithmus bei exakter Arithmetik nach einer endlichen Anzahl an Iterationen die exakte Lösung. Für alle anderen Funktionen gilt

f(xk+1)<f(xk).

Bei einer quadratischen Funktion mit N Parametern wird idealerweise sogar in N Schritten die Lösung erreicht. In der Praxis benötigt man etwas mehr Iterationen, z. B. wenn die lineare Schrittweitensuche nicht genau genug durchgeführt wird oder die Gradienten nicht genau genug ermittelt werden. Meist stoppt man die Optimierung, wenn z. B. der Gradient sehr klein ist oder eine bestimmte Anzahl von Iterationen erreicht wird.

Reguläre Quasi-Newton-Verfahren

Der Versuch eine Übersicht über die verschiedenen Ansätze der Quasi Newtion Verfahren zu verfassen, wurde 1985 in dem Artikel "Reguläre Quasi-Newton-Verfahren" gemacht. Hier konnte eine umfassende Klasse dieser Verfahren, eine Darstellung aller Rang 1 - Formeln der sogenannten symmetrischen, novellierten Huang-Klasse entwickelt werden, die die bekannten Verfahren wie das Davidon-Fletcher-Powell (DFP), das Broyden-Fletcher-Goldfarb-Shanno (BFGS) und Self-Scaling-Variable-Metric (SSVM) Verfahren beinhaltet. Auch sind dort Vorschläge für eine weitere Optimierung des Lösungsverhaltens von Quasi-Newton-Verfahren gegeben. Dabei wurde folgende Klasse von regulären (d. h. wegen besonderer Eigenschaften bevorzugt zu benutzender) Quasi-Newton-Aufdatierungsformeln konstruiert:

Hi+1:=B(Hi,pi,qi,θi,ri,ρi)

mit

B(H,p,q,θ,r,ρ)=rH+ρσ+rτθσ2ppT+r(θ1)τHqqTHrθσ(pqTH+HqpT);
Hnxn positiv definit; p,qn;ϵ=pTH1p;
σ=pTq;τ=qTHq;θ,r,ρ;r>0;ρσ>0;
θ[ϵτσ2]>σ2;rτ[ρσ+θ(rτρσ)]0.

Für genäherte, hinreichend exakte Strahlminimierung, positiv definites H0nxn und beliebiges x0n gilt für diese regulären Verfahren, die aus der obigen Formel entstehen:

1) Die Verfahren sind Quasi-Newton-Verfahren.

2) Die Matrizen Hi sind für alle Iterationen positiv definit. Damit gilt

f(xi+1)<f(xi) für alle Iterationen.

3) Für alle Iterationen i0 erhalten wir Lösungen des Minimierungsproblems.

Für exakte Strahlminimierung und quadratische Zielfunktion bricht zudem jedes dieser Verfahren nach höchstens n Iterationsschritten im Minimalpunkt ab. Insbesondere besitzen also die regulären Quasi - Newton -Verfahren die guten Eigenschaften sowohl der erweiterten Greenstadt-Klasse als auch der symmetrischen, erweiterten Huang-Klasse bzgl. Konvergenz und Stabilität.

Es kann vermutet werden, dass alle besonders leistungsfähigen Quasi-Newton-Verfahren regulär sind.

Literatur

  • William C. Davidon, Variable Metric Method for Minimization, SIOPT Volume 1 Issue 1, Pages 1-17, 1991 (zuerst als Argonne National Laboratory Report 1959).
  • Jorge Nocedal und Stephen J. Wright: Numerical Optimization, Springer-Verlag, 1999, ISBN 0-387-98793-2.
  • Edwin K.P. Chong and Stanislaw H.Zak: An Introduction to Optimization, 2ed, John Wiley & Sons Pte. Ltd. August 2001.
  • P. Gill, W. Murray und M. Wright: Practical Optimization, 1981
  • Guido Bacharach und Gerhard Freiling: "Reguläre Quasi-Newton-Verfahren", Universität Duisburg, 1985