Kriging

Aus testwiki
Zur Navigation springen Zur Suche springen
Datei:Kriginginterpolation.jpg
Farbliche Darstellung von Ertragswerten eines Ackers nach einer Kriging-Interpolation

Unter Kriging (oder auch: Krigen) versteht man ein geostatistisches Prognose- und Interpolationsverfahren, mit dem man eine räumlich verortete Variable an Orten, an denen sie nicht gemessen wurde, durch umliegende Messwerte interpolieren oder auch annähern kann. Stark vereinfacht könnte man sagen, diese Prognose ist eine Art gewichteter Mittelwert aus allen oder einigen der bekannten Messwerte einer Stichprobe. Außerhalb der Geostatistik ist das Verfahren als Gaußprozess-Regression bekannt.[1]

Der südafrikanische Bergbauingenieur Danie Krige entwickelte 1951 für den Goldbergbau eine Interpolationsmethode, die auf der Abhängigkeit der Messwerte von den Abständen basiert, die zwischen den zugehörigen Messpunkten liegen. Der französische Mathematiker und Ingenieur Georges Matheron veröffentlichte 1960 die Arbeit „Krigeage d’un Panneau Rectangulaire par sa Périphérie“[2], welche die theoretische Grundlage der von Danie Krige entwickelten Methode schuf und sie nach ihm benannte.

Der wesentliche Vorteil gegenüber einfacheren Methoden wie beispielsweise der Inversen Distanzwichtung ist die Berücksichtigung der räumlichen Varianz, die sich mit Hilfe von Semivariogrammen ermitteln lässt. Die Semivarianz beschreibt, wie die Unterschiede zwischen den Messwerten zunehmen bzw. die Ähnlichkeit zwischen den Messwerten abnimmt, wenn der Abstand zwischen den Messpunkten größer wird. Sie eignet sich also dafür, die Gewichte der Mittelwertsbildung zu bestimmen, indem sie für näher gelegene Stichprobenwerte größere Gewichte, und für entferntere Stichprobenwerte kleinere Gewichte vergibt. Für einen gesuchten Wert werden dabei die Gewichte der in die Berechnung einfließenden Messwerte so bestimmt, dass der Prognosefehler möglichst gering ist. Der Prognosefehler hängt dabei von der Qualität des Variogramms bzw. der Variogrammfunktion ab, also wie gut das Semivariogrammmodell die tatsächliche räumliche Autokorrelation beschreibt.

Bei einfacheren Interpolationsverfahren können bei Häufung der Messpunkte Probleme auftreten. Dies wird beim Kriging vermieden und zwar durch die Berücksichtigung der statistischen Abstände zwischen der in die Berechnung eines Punktes einfließenden Nachbarn und Optimierung der gewichteten Mittel. Tritt an einer Stelle eine Clusterung auf, werden die Gewichte der Punkte innerhalb dieses Clusters gesenkt.

Unter Kriging versteht man die Bestimmung der besten linearen Prognose (oder Vorhersage) (englischer Kurzbegriff BLP, best linear prediction) eines Messwertes an einem nicht beobachteten Ort auf der Basis von Messwerten an beobachteten Orten. Dabei werden die Messwerte als Realisierungen von Zufallsvariablen (zufälliger Messungen) modelliert, die ein Zufallsfeld mit bekannter Erwartungswertfunktion und Kovarianzfunktion bilden. Werden in einem allgemeineren Kontext unbekannte Parameter in der Erwartungswertfunktion unverzerrt (erwartungstreu) geschätzt, so ergibt sich das Konzept der besten linearen unverzerrten Prognose (englischer Kurzbegriff BLUP, best linear unbiased prediction).

Modellannahme

Die Messwerte y0,y1,,yn eines interessierenden Merkmals an den Orten x0,x1,,xn werden als Realisierungen von reellwertigen Zufallsvariablen Y(x0),Y(x1),,Y(xn) aufgefasst, die ein Zufallsfeld (Y(x))x𝒳 mit der Indexmenge 𝒳={x0,x1,,xn} bilden.[3] Eigenschaften der gemeinsamen Wahrscheinlichkeitsverteilung des Zufallsfeldes sind die Erwartungswertfunktion

μ(x)=𝔼[Y(x)],x𝒳

und die Kovarianzfunktion

k(x,z)=Cov[(Y(x),Y(z)],x,z𝒳.

Im Spezialfall eines gaußschen Zufallsfeldes liegt durch die Erwartungswertfunktion und die Kovarianzfunktion die multivariate Wahrscheinlichkeitsverteilung der Zufallsvariablen Y(x0),Y(x1),,Y(xn) als multivariate Normalverteilung fest.

Statistische Fragestellung und Kriging-Lösung

Das Kriging beantwortet die Aufgabenstellung, einen Prognosewert y^(x0) an einem nicht beobachteten Ort x0 auf der Basis beobachteter Messwerte y(x1),,y(xn) an den Orten x1,,xn anzugeben. Im einfachsten Fall, wenn die Erwartungswertfunktion bekannt ist, handelt es sich um ein Prognoseverfahren. In Fällen, in denen Parameter der Ewartungswertfunktion geschätzt werden müssen, handelt es sich um eine kombiniertes Schätz- und Prognoseverfahren.

Bekannte Parameter

Der einfachste Fall liegt vor, wenn die Erwartungswertfunktion und die Kovarianzfunktion bekannt sind. In diesem Fall ist die beste lineare Prognose (BLP) durch

y^(x0)=μ0+(𝐲μ)T𝐊1𝐤

gegeben. Dabei gelten die folgenden Bezeichnungen:

  • μ0=𝔼[Y(x0)] bezeichnet den Erwartungswert der Zufallsvariablen Y(x0),
  • 𝐲=(y(x1),,y(xn))T bezeichnet den Vektor der beobachteten Messwerte,
  • μ=(μ1,,μn)T ist ein (n×1)-Vektor mit den Erwartungswerten μi=𝔼[Y(xi)] für i=1,,n,
  • 𝐊=[kij]i,j=1,,m ist eine (n×n)-Kovarianzmatrix mit den Kovarianzen kij=Cov[Y(xi),Y(xj)] und
  • 𝐤=(k1,,kn)T ist ein (n×1)-Vektor mit den Kovarianzen ki=Cov[Y(x0),Y(xi)] für i=1,,n.

Der hochgestellte Index T bezeichnet die Transponierung und 𝐊1 bezeichnet die invertierte Matrix.

Geschätzte Parameter

Wenn die Erwartungswertfunktion unbekannt ist und durch eine bekannte Funktion m:𝒳p und einen unbekannten Parametervektor βp in der Form

μ(x)=m(x)Tβ,x𝒳

dargestellt werden kann, ergibt sich ein kombiniertes Schätz- und Prognoseproblem, das durch die Angabe der besten linearen unverzerrten Prognose (BLUP) gelöst werden kann. Diese führt dann zum Prognosewert

y^(x0)=m(x0)Tβ^+(𝐲𝐌β^)T𝐊1𝐤

mit dem Schätzwert

β^=(𝐌T𝐊1𝐌)1𝐌T𝐊1𝐲

für den unbekannten Parametervektor β. Dabei ist 𝐌:=[m(x1)m(xn)]T eine (n×p)-Matrix, bei der in der i-ten Zeile der Vektor m(xi)T steht.

Beste lineare Prognose (BLP)

Minimierung des mittleren quadratischen Prognosefehlers

Die beste lineare Prognose beruht auf der Minimierung des mittleren quadratischen Prognosefehlers

𝔼[(Y^(x0)Y(x0))2]

zwischen der Prognose Y^(x0) und der nicht beobachteten Zufallsvariable Y(x0).[3] Dabei wird bei der Minimierung die Menge der zulässigen Funktionen auf lineare Funktionen der Form

Y^(x0)=a0+i=1naiY(xi),a0,a1,,an

beschränkt.[3] Die Y(xi) sind die zufälligen Messungen an den Stellen x1,,xn, a0 ist eine Konstante ist und die Koeffizienten a1,,an sind Gewichte der einzelnen Messungen. Die Bildung des Erwartungswertes bezieht sich sowohl auf die Zufallsvariable Y(x0) als auch auf die Zufallsvariablen Y(x1),,Y(xn), die in Y^(x0) eingehen.

Die Parameter λ0,λ1,,λn der besten linearen Prognose im Sinn der Minimierung des mittleren quadratischen Prognosefehlers sind die Komponenten der Minimalstelle (λ0,λ1,,λn) mit der Eigenschaft

𝔼[(λ0+i=1nλiY(xi)Y(x0))2]=min(a0,a1,,an)Tn+1𝔼[(a0+i=1naiY(xi)Y(x0))2].

Sie hängen nur von der Erwartungswertfunktion und der Kovarianzfunktion des Zufallsfeldes (Y(x))x𝒳 ab.[3] Für den Parametervektor λ=(λ1,,λn)T gilt[4]

λ=𝐊1𝐤

und für den Parameter λ0 gilt[4]

λ0=μ0μTλ.

Aus den bekannten Parametern μ0, μ, 𝐤 und 𝐊 können die Parameter λ0 und λ bestimmt werden.

Der Minimalwert des mittleren quadratischen Prognosefehlers ist k0𝐤T𝐊1𝐤 mit k0=Var[Y(x0)]=k(Y(x0),Y(x0)).[4]

Bester linearer Prognoswert

Für gegebene Messwerte 𝐲=(y(x1),,y(xn))T als Realisierungen der Zufallsvariablen Y(x1),,Y(xn) ist dann der Wert

y^(x0)=λ0+i=1nλiy(xi)=μ0μTλ+𝐲Tλ=μ0+(𝐲μ)T𝐊1𝐤

der beste lineare Prognosewert für die Messung am Ort x0. Der beste lineare Prognosewert ist eine Realisierung der Zufallsvariablen

Y^(x0)=λ0+i=1nλiY(xi),

die als beste lineare Prognose bezeichnet wird. Der zufällige Prognosefehler (die zufällige Prognoseabweichung) Y^(x0)Y(x0) hat den Erwartungswert 0 und die Varianz k0𝐤T𝐊1𝐤.

Anmerkungen

  • Die obige Darstellung enthält die stillschweigend gemachte Voraussetzung, dass die Zufallsvariablen Y(xi) für i=0,1,,n jeweils eine endliche Varianz besitzen. Ohne diese Annahme, die beispielsweise für Cauchy-verteilte Zufallsvariablen verletzt ist, ist das Kriterium der Minimierung des mittleren quadratischen Prognosefehlers nicht anwendbar.
  • Es ist oben vorausgesetzt, dass die Kovarianzmatrix 𝐊 invertierbar ist und somit die Kovarianzmatrix nicht nur positiv semidefinit, sondern positiv definit ist. Falls die Kovarianzmatrix nicht invertierbar ist, ist für
min(a0,a1,,an)Tn+1𝔼[(a0+i=1naiY(xi)Y(x0))2]
zwar das Minimum, nicht aber die Minimalstelle eindeutig. Für zwei verschiedene minimierende Parametervektoren (λ0(1),λ1(1),,λn(1)) und(λ0(2),λ1(2),,λn(2)) gilt in diesem Fall
𝔼[(λ0(1)+i=1nλi(1)Y(xi)(λ0(2)+i=1nλi(2)Y(xi))))2]=0,
sodass zwar die Parameter nicht eindeutig sind, aber der prognostizierte Wert
y^(x0)=λ0(1)+i=1nλi(1)y(xi)=λ0(2)+i=1nλi(2)y(xi)
eindeutig ist.[4]
  • Die beste lineare Prognose ist im Allgemeinen nicht die beste Prognose im Sinn der Minimierung des mittleren quadratischen Prognosefehlers, wenn für die Prognose Y^(x0) allgemeinere nichtlineare Funktionen g(Y(x1),,Y(xn)) zugelassen werden.[5]
  • Eine Besonderheit ergibt sich im Spezialfall eines gaußschen Zufallsfelds. Bei dieser speziellen Verteilungsannahme ist die beste Prognose bezüglicher aller, auch nicht-linearer Funktionen, durch die beste lineare Prognose gegeben.[4] In diesem Fall ist also die beste lineare Prognose zugleich die beste Prognose. Außerdem ist die bedingte Verteilung von Y(x0) gegeben (Y(x1),,Y(xn))=(y(x1),,y(xn)) eine univariate Normalverteilung 𝒩(μ0|1,,n,σ0|1,,n2) mit den Parametern[4]
μ0|1,,n=λ0+i=1nλiy(xi)
und
σ0|1,,n2=k0𝐤T𝐊1𝐤.

Beste lineare unverzerrte Prognose (BLUP)

Wenn für das Zufallsfeld (Y(x))x𝒳 die Erwartungswertfunktion und die Kovarianzfunktion bekannt sind, kann der beste lineare Prognosewert (BLP) für den Ort x0 basierend auf Messwerten y1,,yn an den Orten x1,,xn einfach, wie im vorausgegangenen Abschnitt angegeben, berechnet werden.

Wenn aber, was eher typisch ist, die Erwartungswert- und Kovarianzfunktion teilweise unbekannt sind, sind verschiedene einschränkte Modellannahmen erforderlich, um die Zahl der unbekannten Parameter so zu senken, dass diese mit den vorhandenen Beobachtungen schätzbar sind. Es entsteht dann ein kombiniertes Schätz- und Prognoseproblem. Ein bestimmtes Verfahren, bei dem die unbekannten Parameter im Rahmen eines linearen Modellansatzes unverzerrt (erwartungstreu) geschätzt werden, heißt dann beste lineare unverzerrte Prognose (BLUP).

Beispiel

Ein einfaches Beispielmodell beruht auf den beiden folgenden stark vereinfachenden Annahmen:

  • Die Erwartungswertfunktion ist konstant, d. h.
μ(x)=μfür alle x𝒳,
wobei der Parameter μ unbekannt ist.
  • Die Kovarianzfunktion ist
k(x,z)=σ2ed(x,z)für alle x,z𝒳,
wobei der Parameter σ2>0 bekannt ist. Dabei bezeichnet d(x,y)=xz die euklidische Distanz zwischen den Orten x und z. Die Distanz kann zweidimensional in der Fläche, im dreidimensionalen Raum oder allgemeiner in einem d-dimensionalen Raum gemessen werden, in dem die euklidische Distanz definiert ist.

Die Korrelationsfunktion ist in diesem Fall durch

ϱ(x,y)=ed(x,z)>0für alle x,z𝒳

gegeben. Mit zunehmender Distanz nimmt die Korrelation ab. Mit abnehmender Distanz nähert sich die Korrelation dem Wert Eins. Da die Koordinaten der Orte als bekannt vorausgesetzt sind, können die Distanzen und damit die Werte der Kovarianzfunktion bestimmt werden.

Parameterschätzung

Im Beispielmodell gibt es den unbekannten Parameter μ. Da die beiden Parameter μ und σ2 zugleich der Erwartungswert und die Varianz der n beobachtbaren Zufallsvariablen Y(x1),,Y(xn) sind, also

𝔼[Y(xi)]=μ,Var[Y(xi)]=σ2für i=1,,n

gilt, scheint bei oberflächlicher Betrachtung ein Standardproblem der statistischen Schätztheorie vorzuliegen. Dies ist aber nicht der Fall, da bei Standardproblemen der statistischen Schätztheorie von stochastisch unabhängigen Beobachtungen ausgegangen wird. In diesem Beispiel sind aber alle Beobachtungspaare positiv korreliert, wobei die Korrelation für ein Paar (Y(xi),Y(xj)) durch ed(xi,xj) gegeben ist.

Die Schätzung des Parameters μ aus gegebenen beobachteten Werten y(x1),,y(xn) kann in diesem Modellzusammenhang mit Hilfe der verallgemeinerten Methode der kleinsten Quadrate erfolgen, die es ermöglicht, bei der Schätzung eine gegebene Korrelationsstruktur zwischen den beobachtbaren Variablen zu berücksichtigen.[6] Im Fall unkorrelierter Variablen führt die gewöhnliche Methode der kleinsten Quadrate zu dem üblichen Schätzwert

y¯=𝟏nT𝐲𝟏nT𝟏n=1ni=1nyi

für den Parameter μ. Dabei bezeichnet 𝟏n=(1,,1)Tn den Einsvektor der Dimension n. Dagegen ergibt sich im hier vorliegenden Fall korrelierter Beobachtungen mit der verallgemeinerte Methode der kleinsten Quadrate der Schätzwert

μ^=𝟏nT𝐊1𝐲𝟏nT𝐊1𝟏n=(𝟏nT𝐊1𝟏n)1𝟏nT𝐊1𝐲

für den Parameter μ, der im Allgemeinen nicht mit dem arithmetischen Mittelwert y¯ übereinstimmt. Das sich die Komponenten des Gewichtsvektors (𝟏nT𝐊1𝟏n)1𝟏nT𝐊1 zu Eins addieren, wie man durch Rechtsmultiplikation mit dem Vektor 𝟏n unmittelbar verifiziert, handelt es sich um einen gewogenen arithmetischen Mittelwert der beobachteten Werte y(x1),,y(xn).

Im Spezialfall eines gaußschen Zufallsfeldes ist die multivariate Wahrscheinlichkeitsverteilung der Zufallsvariablen Y(x1),,Y(xn) durch die Erwartungswertfunktion und die Kovarianzfunktion als multivariate Normalverteilung vollständig festgelegt, so dass es möglich ist, den Parameter μ bei gegebenen Werten y(x1),,y(xn) durch die Maximum-Likelihood-Methode zu bestimmen.[7]

Prognose

Wäre der Parameter μ bekannt, so ergäbe sich der beste lineare Prognosewert für den Messwert y(x0), wie oben angegeben, als

μ+(𝐲μ𝟏n)T𝐊1𝐤,

wobei der mittlere quadratische Prognosefehler durch k0𝐤T𝐊1𝐤 gegeben ist.

Wenn in einem ersten Schritt ein Schätzwert μ^ für den Parameter μ bestimmt ist, kann in einem zweiten Schritt mit der geschätzten Erwartungswertfunktion

m^(x)=μ^für alle x𝒳,

der beste lineare Prognosewert so bestimmt werden, als ob die Erwartungswertfunktion bekannt sei.[8] Es ergibt sich dann

y^(x0)=μ^+(𝐲μ^𝟏n)T𝐊1𝐤

als bester linearer unverzerrter Prognosewert. Der mittlere quadratische Prognosefehler erhöht sich durch den zufälligen Schätzfehler, der durch die Parameterschätzung verursacht ist. Der mittlere quadratische Prognosefehler der besten linearen unverzerrten Prognose ist durch

k0𝐤T𝐊1𝐤+(1𝟏nT𝐊1𝐤)2𝟏nT𝐊1𝟏n

gegeben, wobei der letzte Term auf die Schätzung des Parameters μ zurückzuführen ist.[8][9]

Allgemeiner Fall

Der allgemeine Fall des Kriging, in dem eine beste lineare unverzerrte Prognose durchführbar ist, liegt vor, wenn die Erwartungswertfunktion teilweise unbekannt ist und durch eine bekannte vektorwertige Funktion 𝐦:𝒳p mit p und einen unbekannten Parametervektor βp in der Form

μ(x)=𝐦(x)Tβ,x𝒳

dargestellt werden kann. Es ergibt sich dann aus dem Ziel, eine Prognose für Y(x0) abzugeben, ein kombiniertes Schätz- und Prognoseproblem, da für eine Prognose implizit der unbekannte Parametervektor β geschätzt werden muss. Die beste lineare unverzerrte Prognose kann mit einem zweistufigen Vorgehen gewonnen werden, bei dem zunächst der Parametervektor β in einem linearen Modell geschätzt wird und dann mit den gewonnenen Schätzwerten formal eine beste lineare Prognose so berechnet wird, als ob die Schätzwerte die unbekannten Parameter seien.[8]

Parameterschätzung

Der unbekannte Parametervektor β wird im Rahmen des linearen Modells

Y(x)=𝐦(x)Tβ+ε(x),x𝒳

gesehen, wobei das Zufallsfeld (ε(x))x𝒳 die konstante Erwartungswertfunktion 𝔼[ε(x)]=0 für alle x𝒳 und dieselbe Kovarianzfunktion wie das Zufallsfeld (Y(x))x𝒳 hat. Hierbei handelt es sich zunächst nur um eine andere, inhaltlich äquivalente Schreibweise für das Zufallsfeld (Y(x))x𝒳, indem man ε(x):=Y(x)μ(x) für alle x𝒳 definiert. Diese Schreibweise macht es aber möglich, die Theorie linearer Regressionsmodelle mit korrelierten Fehlertermen anzuwenden und den Schätzwert

β^=(𝐌T𝐊1𝐌)1𝐌T𝐊1𝐲

für den unbekannten Parametervektor β als beste lineare unverzerrte Schätzung mit bekannter Kovarianzmatrix zu bestimmen. Dabei bezeichnet 𝐌:=[𝐦(x1)𝐦(xn)]T eine (n×p)-Matrix, bei der in der i-ten Zeile der Vektor 𝐦(xi)T steht.[8]

Prognose

Die besten linearen unverzerrten Prognose ergibt sich, wenn der Prognosewert analog zum Vorgehen bei der besten linearen Prognose mit bekannter Erwartungsfunktion so bestimmt wird, als ob der Schätzwert der Parameter wäre. Damit ergibt sich der Prognosewert

y^(x0)=𝐦(x0)Tβ^+(𝐲𝐌β^)T𝐊1𝐤.

Der mittlere quadratische Prognosefehler der besten linearen unverzerrten Prognose ist durch

k0𝐤T𝐊1𝐤+γT(𝐌T𝐊1𝐌)1γ

mit

γ=𝐦(x0)𝐌T𝐊1𝐤

gegeben, wobei der letzte Term auf die Schätzung des Parametervektors β zurückzuführen ist.[8]

Spezialfälle des Kriging

  • Beim einfachen Kriging (simple Kriging) ist die Erwartungswertfunktion konstant,
μ(x)=μ für alle x𝒳,
und der Parameter μ ist bekannt. In diesem Fall kommt die beste lineare Prognose zur Anwendung.
  • Beim gewöhnlichen Kriging (ordinary Kriging) ist die Erwartungswertfunktion konstant, aber der gemeinsame Erwartungswert ist unbekannt und muss aus den beobachteten Werten geschätzt werden. In diesem Fall kommt die beste lineare unverzerrte Prognose zur Anwendung. Das oben ausgeführte Beispiel ist ein Fall des gewöhnlichen Kriging.
  • Beim universalen Kriging (universal Kriging) ist die Erwartungswertfunktion nicht konstant und wird durch einen linearen Regressionsansatz modelliert. In diesem Fall kommt die beste lineare unverzerrte Prognose zur Anwendung, wobei Regressionsparameter mitgeschätzt werden.
  • Unter bayesianischem Kriging (bayesian Kriging) versteht man ein Verfahren bei dem der Schritt der Parameterschätzung mit Hilfe bayesianischer Schätzverfahren durchgeführt wird.
  • Das Indikator-Kriging ist ein Spezialfall bei dem die beobachteten Werte nur die Werte 0 und 1 annehmen, beispielsweise den Wert 0, wenn ein Grenzwert nicht überschritten ist, und den Wert 1, wenn ein Grenzwert überschritten ist.
  • Bei der inversen Distanzgewichtung (oder Distanzwichtung) ist der Prognosewert der gewogene arithmetische Mittelwert
y^(x0)=i=1ngiy(xi)i=1ngi
der beobachteten Werte mit den positiven Gewichten
gi=1d(x0,xi)für i=1,,n.
Wie das obige Beispiel zeigt, ergibt sich dieser Fall als beste lineare unverzerrte Prognose, und damit als Spezialfall des gewöhnlichen Kriging, wenn die Erwartungswertfunktion konstant ist und die Kovarianzfunktion die spezielle Form
k(x,z)={k0für x=z=x0αd(x0,z)für x=zx00für xz,x,z𝒳
mit k0>0 und α>0 hat. In diesem Fall ist 𝐤 der Nullvektor, 𝐊1 ist eine Diagonalmatrik mit den Diagonalelementen 1/(αd(x0,xi) für i=1,,n und der Schätzwert (𝟏nT𝐊1𝟏n)1𝟏nT𝐊1𝐲 vereinfacht sich zum gewogenen arithmetische Mittelwert i=1ngiy(xi)/i=1ngi, da sich der Faktor α herauskürzt.

Abweichende Interpretationen und Verallgemeinerungen

Teilweise wird in anwendungsnahen Darstellungen zugunsten einer vereinfachten Terminologie das Interpolations- und Prognoseproblem mit Begriffen aus der statistischen Schätztheorie beschrieben.[10] Dadurch verschwimmt der Unterschied zwischen dem Schätzen eines unbekannten Parameters durch eine Schätzfunktion und der Prognose des Wertes einer Zufallsvariablen.

Im engeren Sinn bezeichnet Kriging die oben beschriebene Modellierungsmethode der zu schätzenden Parameter durch ein lineares Modell und die dann explizit angebbaren Lösungen im Sinn der besten linearen unverzerrten Prognose. Teilweise wird Kriging aber auch allgemeiner, orientiert an der Fragestellung des Kringing, für andere methodische Vorgehensweisen verwendet. So werden im Bereich des maschinellen Lernens Methoden der Gaußprozess-Regression basierend auf gaußschen Zufallsfeldern als Kriging bezeichnet.[1][11][12] Die klassische Kriging-Methode benötigt keine Normalverteilungsannahme und verarbeitet nur die Informationen der Erwartungswert- und Kovarianzfunktion im Rahmen einer linearen Modellstruktur mit klassischen statistischen Methoden. Dagegen wird bei der Gaußprozess-Regression durch eine weitgehende Annahme einer multivariaten Normalverteilung für alle Zufallsvariablen die Möglichkeit eröffnet, für die multivariate Normalverteilung zur Verfügung stehende Methoden zur Bestimmung von Prognoseverteilungen als bedingten Wahrscheinlichkeitsverteilungen zu verwenden.[13]

Literatur

  • Danie G. Krige: A statistical approach to some basic mine valuation problems on the Witwatersrand. In: J. of the Chem., Metal. and Mining Soc. of South Africa. 52 (6), 1951, S. 119–139.
  • Rudolf Dutter: Mathematische Methoden in der Technik. Band 2: Geostatistik. B.G. Teubner Verlag, Stuttgart 1985, ISBN 3-519-02614-7.
  • J. P. Chiles, P. Delfiner: Geostatistics: Modeling Spatial Uncertainty. Wiley, New York 1999, ISBN 0-471-08315-1.
  • Vorlage:Literatur

Vorlage:Commonscat

Einzelnachweise

  1. 1,0 1,1 Vorlage:Literatur Siehe Abschnitt 2.1 Conventional kriging
  2. Vorlage:Internetquelle
  3. 3,0 3,1 3,2 3,3 Vorlage:Literatur
  4. 4,0 4,1 4,2 4,3 4,4 4,5 Vorlage:Literatur
  5. Vorlage:Literatur
  6. Vorlage:Literatur
  7. Vorlage:Literatur
  8. 8,0 8,1 8,2 8,3 8,4 Vorlage:Literatur
  9. Die im Beispiel angegebenen Formeln ergeben sich aus der allgemeineren Darstellung in M. L. Stein, Interpolation of Spatial Data – Some Theory for Kriging, S. 7–8 mit den folgenden Spezialisierungen der dort verwendeten Notation: p=1, β=μ, 𝐦(𝐱)=1, 𝐌=𝟏n.
  10. Vorlage:Literatur
  11. Vorlage:Literatur
  12. Vorlage:Literatur
  13. Vorlage:Literatur

Vorlage:Normdaten