Viterbi-Algorithmus

Aus testwiki
Zur Navigation springen Zur Suche springen

Der Viterbi-Algorithmus ist ein Algorithmus der dynamischen Programmierung zur Bestimmung der wahrscheinlichsten Sequenz von verborgenen Zuständen bei einem gegebenen Hidden Markov Model (HMM) und einer beobachteten Sequenz von Symbolen. Diese Zustandssequenz wird auch als Viterbi-Pfad bezeichnet.

Er wurde von Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt, er fiel quasi als Nebenprodukt bei der Analyse der Fehlerwahrscheinlichkeit von Faltungscodes ab. G. D. Forney leitete daraus 1972 den Optimalempfänger für verzerrte und gestörte Kanäle her. Der Viterbi-Algorithmus wird heutzutage zum Beispiel in Mobiltelefonen oder Wireless LANs zur Fehlerkorrektur der Funkübertragung verwendet, ebenso in Festplatten, da bei der Aufzeichnung auf die Magnetplatten ebenfalls Übertragungsfehler entstehen.

Der Algorithmus ist in der Nachrichtentechnik und Informatik weit verbreitet: Die Informationstheorie, Bioinformatik, Spracherkennung und Computerlinguistik verwenden häufig den Viterbi-Algorithmus.

Hidden Markov-Modell

Gegeben sei ein HMM λ=(S;V;A;B;π) mit

  • S – Menge der verborgenen Zustände
  • VAlphabet der beobachtbaren Symbole (Emissionen)
  • AZustandsübergangsmatrix
  • B – Beobachtungsmatrix
  • π – Anfangswahrscheinlichkeitsverteilung

Aufgabenstellung

Sei 𝒐=o1o2oTV* die beobachtete Sequenz von Symbolen. Es soll die wahrscheinlichste Zustandsfolge 𝒒*=q1*q2*qT*ST berechnet werden. Also diejenige Sequenz von verborgenen Zuständen, die unter allen Folgen 𝒒 der Länge T den Wert von P(𝒒|𝒐;λ) maximiert, das ist die Wahrscheinlichkeit, dass das Modell λ bei Erzeugung der Ausgabe 𝒐 durch die Zustände 𝒒 gelaufen ist.

Nach den Rechenregeln für bedingte Wahrscheinlichkeiten gilt:

P(𝒒|𝒐;λ)=P(𝒐;𝒒|λ)P(𝒐|λ)

Da außerdem P(𝒐|λ) nicht von 𝒒 abhängt, ergibt sich folgender Zusammenhang:

P(𝒐;𝒒*|λ)=max𝒒STP(𝒐;𝒒|λ)

Für die eigentliche Berechnung werden nun zwei verschiedene Arten von Variablen – ϑt(i) und ψt(i) – verwendet:

In ϑt(i) ist die maximale Verbundwahrscheinlichkeit gespeichert zum Zeitpunkt 1tT bei der Beobachtung des Präfixes o1o2ot durch eine Zustandsfolge der Länge t gelaufen zu sein und im Zustand siS zu enden:

ϑt(i)=max𝒒Stqt=siP(o1o2ot;q1q2qt|λ)

Die Variable ψt(i) dagegen merkt sich für jeden Zeitpunkt und jeden Zustand, welcher Vorgängerzustand an der Maximumsbildung beteiligt war.

Algorithmus

Die Variablen ϑt(i) sowie ψt(i) lassen sich rekursiv bestimmen:

Initialisierung
ϑ1(i)=πibi(o1), ψ1(i)=0,1i|S|
Rekursion

Für  1<tT berechne

ϑt(i)=bi(ot)  max1j|S|(aji  ϑt1(j)),1i|S|ψt(i)=argmax1j|S| (aji  ϑt1(j)),1i|S|
Terminierung
P(𝒐;𝒒*|λ)=max1j|S|ϑT(j)qT*=argmax1j|S| ϑT(j)
Pfadermittlung
qt*=ψt+1(qt+1*),1t<T

Komplexität

Die Tabelle der ϑt(i) benötigt O(|S|T) Speicher, die Matrix der ψt(i) ist von gleichem Umfang. Für jede Zelle der beiden Matrizen wird über |S| Alternativen optimiert, also ist die Laufzeit in O(|S|2T).

Um den Speicherplatz zu halbieren, kann der Pfad 𝒒* alternativ auch nach der Terminierung durch Backtracking in der Matrix aller ϑt(i) – also ohne die zusätzlichen Variablen ψt(i) – ermittelt werden. Da aber in der Praxis die Berechnung von ψt(i) keinen Mehraufwand verursacht, verlängert sich die benötigte Rechenzeit bei dem Backtracking-Ansatz geringfügig.

Anwendungen

Der Viterbi-Algorithmus ist der optimale Algorithmus zur Dekodierung von Faltungscodes im Sinne der Blockfehlerrate (maximum likelihood sequence estimation). Der im Sinne der Symbolfehlerrate optimale Dekodieralgorithmus ist der BCJR-Algorithmus.

Wie man aus der Beschreibung des Algorithmus sieht, kann er fast überall eingesetzt werden, um Muster zu erkennen. Das ist ein weites Feld, da Lebewesen ständig Sinnesreize interpretieren müssen und aus dem bereits Gelernten diese Signale einordnen. Der Viterbi-Algorithmus tut genau das auch und ist somit ein wichtiger Baustein der Künstlichen Intelligenz.

Einen wichtigen Stellenwert nimmt der Algorithmus in der Bioinformatik ein, denn anhand des Viterbi-Algorithmus kann unter anderem von der tatsächlichen Sequenz eines DNA-Abschnitts auf eventuelle versteckte Zustände geschlossen werden. So kann zum Beispiel untersucht werden, ob es sich bei einer vorliegenden Sequenz wahrscheinlich um ein bestimmtes Strukturmotiv handelt (CpG-Insel, Promotor, …) oder nicht. Vorteil dieses rekursiven Algorithmus ist hierbei der linear mit der Sequenzlänge steigende Aufwand im Gegensatz zum exponentiellen Aufwand des zugrundeliegenden Hidden Markov Model.

Siehe auch

Literatur