Hermiteinterpolation
In der numerischen Mathematik ist die Hermiteinterpolation (benannt nach Charles Hermite) ein Interpolationsverfahren zur Polynominterpolation, das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.
Erstmals veröffentlichte Hermite seine Untersuchungen zu diesem Verfahren 1877 in dem Journal: Sur la formule d’interpolation de Lagrange. In: Journal für die reine und angewandte Mathematik, Band 84, S. 70–79.<ref name="Cheney" />
Vorbereitung
Motivation
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition – also der Fehlerabhängigkeit – der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: The bounding of polynomials prescribed at equally distributed points. In: Proc. Pedag. Inst. Vitebsk; 3, 1940.
Siehe auch Runges Phänomen</ref>
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die Splineinterpolation, bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.
Wählt man dabei den „naiven“, Newtonschen Ansatz, stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht (stetig) differenzierbar. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.
Diese Aufgabe lässt sich analog zur Problemstellung in der klassischen Polynominterpolation analytisch lösen. Als Beispiel dient hier die Aufgabe,
- <math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.
Man definiert
- <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.
Das Gleichungssystem wird damit zu
- <math>\begin{pmatrix}
1 & -1 & 1 \\ 0 & 1 & -2 \\ 1 & 2 & 4 \end{pmatrix} \cdot \begin{pmatrix} a_0 \\ a_1 \\ a_2 \end{pmatrix} = \begin{pmatrix} -1 \\ 0 \\ 0 \end{pmatrix}. </math> Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.
Dieser Lösungsansatz hat den Nachteil, dass er in der Komplexitätsklasse <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die Newton-Basis von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.
Hermite-Genocchi-Formel
Die Hermite-Genocchi-Formel bildet die Grundlage der Hermiteinterpolation. Ihre Voraussetzungen sind:
- <math>f</math> ist <math>k</math>-mal stetig differenzierbar: <math>f \in C^k([a,b]), \quad k \in \N</math>
- <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math>
Dann liefert die Formel eine Integraldarstellung für die dividierten Differenzen aus dem Newtonalgorithmus der Polynominterpolation:
- <math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math>
mit dem k-dimensionalen Einheitssimplex:
- <math> \;\Sigma^k = \left\{s\in \R^k \bigg | \, (\forall i: s_i \ge 0 ) \, \wedge \sum_{i=1}^k s_i \le 1 \right\}.</math>
Man beweist diese Identität durch vollständige Induktion.<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref name=":0" />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als
- <math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math>
dar, lässt sich diese Identität einfach beweisen.
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.
Also gilt der folgende Satz:
Hermiteinterpolation
Es gelte:
- <math>f</math> ist <math>n</math>-mal stetig differenzierbar: <math>f \in C^n([a,b]), \quad n \in \N</math>
- <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math>
- die Häufigkeit der Wiederholung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.
Dann erfüllt das Newton-Polynom:
- <math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math>
die Hermiteschen Interpolationsbedingungen:
- <math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math>
Darüber hinaus ist diese Lösung eindeutig.
Fehlerabschätzung
Für den Fehler der Hermiteinterpolierten <math>p</math> gibt es eine explizite Darstellung.
Sei dafür <math>f \in C^{n+1}([a,b])</math>.
Dann existiert für jedes <math>x\in[a,b]</math> ein <math>\xi \in [a,b]</math>, sodass
- <math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math>
gilt.<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref name=":0">{{#invoke:Vorlage:Literatur|f}}</ref>
Im Falle des Gitters
- <math>x_0 = \ldots = x_k < x_{k+1} < \dots < x_n </math>
gilt:
- <math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i).</math>
Des Weiteren kann der Fehler der Hermiteinterpolation auch mithilfe der dividierten Differenzen als
- <math>f(x) - p(x) = f[x_0, \dots, x_n, x] \prod_{i=0}^{n} (x - x_i)</math>
ausgedrückt werden.<ref name=":0" />
Tschebyscheff-Abszissen
Der zweite Faktor der Fehlerformel hängt nur von den Stützstellen ab und kann wie folgt abgeschätzt werden.
Seien <math>x_0, \ldots, x_n \in I:=[-1,1]</math> beliebig.
Nun gilt die Abschätzung:
- <math>\max_{x\in I} \prod_{i=0}^n |x-x_i| \geq 2^{-n}.</math>
Diese Schranke wird angenommen mittels einer speziellen Wahl der Stützstellen – den sogenannten Tschebyscheff-Abszissen:
- <math>
\begin{align} x_j &:= \cos \left ( \frac{2j+1}{n+1}\frac{\pi}{2} \right )
, \quad j = 0 , \ldots , n \\
\Rightarrow \max_{x\in I} \prod_{i=0}^n |x-x_i| &= 2^{-n}. \end{align} </math>
Berechnung der Interpolierten
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der dividierten Differenzen.
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel
- <math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math>
berechnet werden.
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:
- Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen
- Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math>
- In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.
Pseudocode
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.
xvals ← Stützstellen
yvals ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten
zvals ← { f(xvals[i]) | i ∈ 1..#xvals }
for i ← #xvals..1 do
for j ← i..#xvals do
if i = j then
[xi..xj]f ← zvals[i]
else if xvals[i] = xvals[j] then
index ← Index des ersten Vorkommens von xvals[i] in xvals
[xi..xj]f ← yvals[j - i + index] / (j-i)!
else
[xi..xj]f ← ([xi+1..xj]f - [xi..xj-1]f) / (xvals[j] - xvals[i])
Weblinks
|1|= – Lern- und Lehrmaterialien |0|-= |X|x={{#switch: 0
|0|4|10|12|14|100=}}
|#default= – Implementierungen in der Algorithmensammlung
}}{{#if: | ({{#invoke:Multilingual|format|{{{lang}}}|slang=!|shift=m}}) }}{{#invoke:TemplatePar|check
|opt= 1= 2= lang= suffix= |template=Vorlage:Wikibooks |cat=Wikipedia:Vorlagenfehler/Schwesterprojekt }}
Literatur
- Richard L. Burden, J. Douglas Faires: Numerische Methoden. Spektrum, Akad. Verlag, Heidelberg / Berlin / Oxford 2000, ISBN 3-8274-0596-3.
- Charles Hermite: Sur la formule d’interpolation de Lagrange. In: Journal für die reine und angewandte Mathematik, Band 84, S. 70–79.<ref name="Cheney" />
- Martin Hermann: Numerische Mathematik, Band 2: Analytische Probleme. 4., überarbeitete und erweiterte Auflage. Walter de Gruyter Verlag, Berlin und Boston 2020. ISBN 978-3-11-065765-4.
Einzelnachweise
<references> <ref name="Cheney"> Elliot Ward Cheney: Introduction to Approximation Theory. McGraw-Hill Book Company, 1966, ISBN 0-07-010757-2, S. 225, 242. </ref> </references>