Evidence lower bound

Aus testwiki
Zur Navigation springen Zur Suche springen

Die Evidence lower bound (kurz ELBO)[1], ist eine untere Schranke der Log-Likelihood-Funktion beobachteter Daten (X) und nützlich bei der Variational Inference.

Definition

Seien X und Z Zufallsvariablen, dann gilt pθ(X)=pθ(X,Z=z)p(Z=z)dz. Unter Einführung von qϕ(Z=z) als einfach zu verwendender Stichproben-Vorschlags-Verteilung gilt: pθ(X)=pθ(X,Z=z)p(Z=z)qϕ(Z=z)qϕ(Z=z)dz=Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)].

Somit gilt für die Log-Likelihood aufgrund der Jensen-Ungleichung: log(pθ(X))=log(Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)])Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))].

Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))] wird als ELBO bezeichnet.

Durch Schätzen der ELBO unter Verwendung des Stichprobenmittelwertes ist: E^zqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))]=1Ni=1Nlog(pθ(X,Z=zi)p(Z=zi)qϕ(Z=zi))

Anwendung

Die Minimierung der Kullback-Leibler-Divergenz ist äquivalent zur Maximierung der Evidence lower bound. Die evidence lower bound wird bei der variational inference optimiert.

Einzelnachweise

  1. An Introduction to Bayesian Inference, Methods and Computation, Nick Heard, 2021, ISBN 978-3-030-82808-0, https://www.google.de/books/edition/An_Introduction_to_Bayesian_Inference_Me/9t5IEAAAQBAJ?hl=de&gbpv=1&dq=evidence%20lower%20bound&pg=PA57&printsec=frontcover