Hermiteinterpolation

Aus testwiki
Version vom 25. Mai 2024, 20:31 Uhr von imported>일성김 (Hermite-Genocchi-Formel)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der numerischen Mathematik ist die Hermiteinterpolation (benannt nach Charles Hermite) ein Interpolationsverfahren zur Polynominterpolation, das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.

Erstmals veröffentlichte Hermite seine Untersuchungen zu diesem Verfahren 1877 in dem Journal: Sur la formule d’interpolation de Lagrange. In: Journal für die reine und angewandte Mathematik, Band 84, S. 70–79.[1]

Vorbereitung

Motivation

Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei x=0,5

Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition – also der Fehlerabhängigkeit – der Polynominterpolation führt, ihren Fehler also drastisch erhöht.[2]

In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die Splineinterpolation, bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.

Splineinterpolation mit Berücksichtigung der Steigung

Wählt man dabei den „naiven“, Newtonschen Ansatz, stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht (stetig) differenzierbar. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.

Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.

Diese Aufgabe lässt sich analog zur Problemstellung in der klassischen Polynominterpolation analytisch lösen. Als Beispiel dient hier die Aufgabe,

f(1)=1,f(1)=0,f(2)=0 in 𝒫2 zu interpolieren.

Man definiert

p(x):=a0+a1x+a2x2 und leitet ab zu p(x):=a1+a22x.

Das Gleichungssystem wird damit zu

(111012124)(a0a1a2)=(100).

Lösen nach a=(a0,a1,a2)T bringt die gesuchten Koeffizienten.

Dieser Lösungsansatz hat den Nachteil, dass er in der Komplexitätsklasse 𝒪(n3) liegt und damit langsam ist. Es wäre wünschenswert, die Newton-Basis von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.

Hermite-Genocchi-Formel

Die Hermite-Genocchi-Formel bildet die Grundlage der Hermiteinterpolation. Ihre Voraussetzungen sind:

Dann liefert die Formel eine Integraldarstellung für die dividierten Differenzen aus dem Newtonalgorithmus der Polynominterpolation:

f[x0,,xk]=Σkf(k)(x0+i=1ksi(xix0))ds,

mit dem k-dimensionalen Einheitssimplex:

Σk={sk|(i:si0)i=1ksi1}.

Man beweist diese Identität durch vollständige Induktion.[3][4]

Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als

f[x0,,xk]=1k!f(k)(x*),fallsx0==xk=x*

dar, lässt sich diese Identität einfach beweisen.

Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.

Also gilt der folgende Satz:

Hermiteinterpolation

Es gelte:

  • f ist n-mal stetig differenzierbar: fCn([a,b]),n
  • n+1 Stützstellen: x0,,xn[a,b]
  • die Häufigkeit der Wiederholung der Stützstelle xi sei mit mi gegeben.

Dann erfüllt das Newton-Polynom:

p(x):=f(x0)+i=1nf[x0,,xi]j=0i1(xxj)

die Hermiteschen Interpolationsbedingungen:

f(k)(xi)=p(k)(xi)i=0,,n k=0,,mi1.

Darüber hinaus ist diese Lösung eindeutig.

Fehlerabschätzung

Für den Fehler der Hermiteinterpolierten p gibt es eine explizite Darstellung.

Sei dafür fCn+1([a,b]).
Dann existiert für jedes x[a,b] ein ξ[a,b], sodass

f(x)p(x)=f(n+1)(ξ)(n+1)!i=0n(xxi)

gilt.[5][4]
Im Falle des Gitters

x0==xk<xk+1<<xn

gilt:

f(x)p(x)=f(n+1)(ξ)(n+1)!(xx0)k+1i=k+1n(xxi).

Des Weiteren kann der Fehler der Hermiteinterpolation auch mithilfe der dividierten Differenzen als

f(x)p(x)=f[x0,,xn,x]i=0n(xxi)

ausgedrückt werden.[4]

Tschebyscheff-Abszissen

Der zweite Faktor der Fehlerformel hängt nur von den Stützstellen ab und kann wie folgt abgeschätzt werden.

Seien x0,,xnI:=[1,1] beliebig.
Nun gilt die Abschätzung:

maxxIi=0n|xxi|2n.

Diese Schranke wird angenommen mittels einer speziellen Wahl der Stützstellen – den sogenannten Tschebyscheff-Abszissen:

xj:=cos(2j+1n+1π2),j=0,,nmaxxIi=0n|xxi|=2n.

Berechnung der Interpolierten

Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der dividierten Differenzen.

Im Fall x0=x1==xk muss anstatt der dort verwendeten Formel

f[x0,,xk]=1k!f(k)(x0)

berechnet werden.

Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei x0==xi==xk==xn:

  • Statt f[xi,,xk] muss man die dividierte Differenz f[x0,,xki] berechnen
  • Taucht in der Rekursion f[xi] auf, berechnet man stattdessen f[x0]
  • In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes xi durch x0.

Pseudocode

Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.

xvals ← Stützstellen
yvals ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten
zvals ← { f(xvals[i]) | i ∈ 1..#xvals }
for i ← #xvals..1 do
  for ji..#xvals do
    if i = j then
      [xi..xj]fzvals[i]
    else if xvals[i] = xvals[j] then
      index ← Index des ersten Vorkommens von xvals[i] in xvals
      [xi..xj]fyvals[j - i + index] / (j-i)!
    else
      [xi..xj]f ← ([xi+1..xj]f - [xi..xj-1]f) / (xvals[j] - xvals[i])

Vorlage:Wikibooks

Literatur

Einzelnachweise

  1. 1,0 1,1 Elliot Ward Cheney: Introduction to Approximation Theory. McGraw-Hill Book Company, 1966, ISBN 0-07-010757-2, S. 225, 242.
  2. A. H. Turetskii: The bounding of polynomials prescribed at equally distributed points. In: Proc. Pedag. Inst. Vitebsk; 3, 1940.
    Siehe auch Runges Phänomen
  3. Vorlage:Literatur
  4. 4,0 4,1 4,2 Vorlage:Literatur
  5. Vorlage:Literatur