Verbundentropie

Aus testwiki
Zur Navigation springen Zur Suche springen

Die Verbundentropie ist ein Maß für den mittleren Informationsgehalt mehrerer Nachrichtenquellen.

Definition

Die Verbundentropie für zwei Quellen ist folgendermaßen definiert:[1]

H(XY):=yYxXPr{X=x,Y=y}log2(Pr{X=x,Y=y})[ bit Symbolpaar]

Hierbei sind x und y jeweils einzelne Symbole aus den Quellenalphabeten X und Y.

Im Spezialfall der statistischen Unabhängigkeit der Quellen gilt

Pr{X=xi,Y=yj}=Pr{X=xi}Pr{y=yj}

und somit

H(XY)=H(X)+H(Y).

Für mehr als zwei Quellen ergibt sich:

H(X1,,Xn)=x1xnPr{x1,,xn}log2(Pr{x1,,xn})

Siehe auch

Literatur

  • Martin Werner: Information und Codierung. Grundlagen und Anwendungen, 2. Auflage, Vieweg + Teubner Verlag, Wiesbaden 2008, ISBN 978-3-8348-0232-3.
  • Peter Bocker: Datenübertragung. Band I – Grundlagen. Springer Verlag, Berlin / Heidelberg 1976, ISBN 978-3-662-06499-3.

Einzelnachweise

  1. T. H. Cover, J. A. Thomas, Elements of Information Theory, S. 16 f, 2nd Edition, 2006, Wiley Interscience, ISBN 978-0-471-24195-9