Evidence lower bound: Unterschied zwischen den Versionen

Aus testwiki
Zur Navigation springen Zur Suche springen
imported>Schweick
K "für" vor Ausgangsgleichung gestrichen, da es sich liest, als würde für eine spezielle Bedingung ein Folgendes gelten.
 
(kein Unterschied)

Aktuelle Version vom 23. November 2024, 10:00 Uhr

Die Evidence lower bound (kurz ELBO)[1], ist eine untere Schranke der Log-Likelihood-Funktion beobachteter Daten (X) und nützlich bei der Variational Inference.

Definition

Seien X und Z Zufallsvariablen, dann gilt pθ(X)=pθ(X,Z=z)p(Z=z)dz. Unter Einführung von qϕ(Z=z) als einfach zu verwendender Stichproben-Vorschlags-Verteilung gilt: pθ(X)=pθ(X,Z=z)p(Z=z)qϕ(Z=z)qϕ(Z=z)dz=Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)].

Somit gilt für die Log-Likelihood aufgrund der Jensen-Ungleichung: log(pθ(X))=log(Ezqϕ[pθ(X,Z=z)p(Z=z)qϕ(Z=z)])Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))].

Ezqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))] wird als ELBO bezeichnet.

Durch Schätzen der ELBO unter Verwendung des Stichprobenmittelwertes ist: E^zqϕ[log(pθ(X,Z=z)p(Z=z)qϕ(Z=z))]=1Ni=1Nlog(pθ(X,Z=zi)p(Z=zi)qϕ(Z=zi))

Anwendung

Die Minimierung der Kullback-Leibler-Divergenz ist äquivalent zur Maximierung der Evidence lower bound. Die evidence lower bound wird bei der variational inference optimiert.

Einzelnachweise

  1. An Introduction to Bayesian Inference, Methods and Computation, Nick Heard, 2021, ISBN 978-3-030-82808-0, https://www.google.de/books/edition/An_Introduction_to_Bayesian_Inference_Me/9t5IEAAAQBAJ?hl=de&gbpv=1&dq=evidence%20lower%20bound&pg=PA57&printsec=frontcover