Posterior predictive distribution

Aus testwiki
Version vom 17. Januar 2024, 17:31 Uhr von imported>Kuebi (DOI formatiert)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der Bayesschen Statistik ist die Posterior predictive distribution eines statistischen Modells[1] die bedingte Wahrscheinlichkeitsdichte neuer, unbeobachteter Werte x~, gegeben alle bisherigen Beobachtungen 𝐱. Man erhält sie durch Parameter-Integration der bedingten Dichte p(x~|θ) mit der Posterior-Dichte p(θ|𝐱).

Definition

Die Posterior predictive distribution ist definiert als

p(x~|𝐱)=Θp(x~|θ)p(θ|𝐱)dθ=𝔼θ|𝐱[p(x~|θ)],

wobei Θ der Parameterraum und p(θ|𝐱) die Posterior-Dichte ist. Die Gleichheit lässt sich mit dem Gesetz der totalen Wahrscheinlichkeit direkt sehen.

Die Posterior predictive distribution spielt zum Beispiel im Rahmen der Gauß-Prozess-Regression eine wichtige Rolle.

Abgrenzung gegenüber der Prior predictive distribution

Die Prior predictive distribution lässt die beobachteten Daten außer Acht: p(x~)=Θp(x~|θ)p(θ)dθ

Bootstrap predictive distribution

Die Posterior predictive distribution kann durch Anwendung der Bootstrap predictive distribution pB(x¯X)=p(x¯θMLE(X~))p^(X~)dX~ genähert werden, wobei X~ per Bootstrapping-Verfahren aus der empirischen Verteilungsfunktion gezogene Stichproben sind.[2][3]

Siehe auch

Einzelnachweise

  1. Gaussian Process Regression Analysis for Functional Data. ISBN 978-1-4398-3774-0.
  2. Tadayoshi Fushiki: Bayesian bootstrap prediction. „[…] the bootstrap predictive distribution is considered to be an approximation of the Bayesian predictive distribution […]“ Vorlage:DOI.
  3. Tadayoshi Fushiki, Fumiyasu Komaki, Kazuyuki Aihara: Nonparametric bootstrap prediction. 2005, Vorlage:DOI.