Evidence lower bound

Aus testwiki
Version vom 23. November 2024, 10:00 Uhr von imported>Schweick ("für" vor Ausgangsgleichung gestrichen, da es sich liest, als würde für eine spezielle Bedingung ein Folgendes gelten.)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die Evidence lower bound (kurz ELBO)[1], ist eine untere Schranke der Log-Likelihood-Funktion beobachteter Daten (X) und nützlich bei der Variational Inference.

Definition

Seien X und Z Zufallsvariablen, dann gilt pθ(X)=pθ(X,Z=z)p(Z=z)dz. Unter Einführung von qϕ(Z=z) als einfach zu verwendender Stichproben-Vorschlags-Verteilung gilt: pθ(X)=pθ(X,Z=z)p(Z=z)qϕ(Z=z)qϕ(Z=z)dz=Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)].

Somit gilt für die Log-Likelihood aufgrund der Jensen-Ungleichung: log(pθ(X))=log(Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)])Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))].

Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))] wird als ELBO bezeichnet.

Durch Schätzen der ELBO unter Verwendung des Stichprobenmittelwertes ist: E^zqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))]=1Ni=1Nlog(pθ(X,Z=zi)p(Z=zi)qϕ(Z=zi))

Anwendung

Die Minimierung der Kullback-Leibler-Divergenz ist äquivalent zur Maximierung der Evidence lower bound. Die evidence lower bound wird bei der variational inference optimiert.

Einzelnachweise

  1. An Introduction to Bayesian Inference, Methods and Computation, Nick Heard, 2021, ISBN 978-3-030-82808-0, https://www.google.de/books/edition/An_Introduction_to_Bayesian_Inference_Me/9t5IEAAAQBAJ?hl=de&gbpv=1&dq=evidence%20lower%20bound&pg=PA57&printsec=frontcover