Binary Symmetric Channel

Aus testwiki
Version vom 27. Januar 2024, 02:25 Uhr von imported>Middle Distance Biker 39 (Literatur: Hinweis "Leerzeichen um Schrägstrich", Literaturangaben leicht verbessert, ISBN-13 erst ab 2007)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen
Schema eines BSC

Ein binärer symmetrischer Kanal (englisch binary symmetric channel, kurz BSC) ist ein informationstheoretischer Kanal, bei dem die Wahrscheinlichkeit einer Falschübermittlung (auch Fehlerwahrscheinlichkeit) von 1 genau so hoch ist wie die Wahrscheinlichkeit der Falschübermittlung einer 0. Das heißt, die Wahrscheinlichkeit, dass eine 1 empfangen wurde, falls eine 0 gesendet wurde und umgekehrt, beträgt die Wahrscheinlichkeit p. Für die verbleibenden Fälle, also der korrekten Übermittlung, ergibt sich damit eine Wahrscheinlichkeit von jeweils 1p:

Pr[Y=0|X=0]=1pPr[Y=0|X=1]=pPr[Y=1|X=0]=pPr[Y=1|X=1]=1p

Dabei gilt 0p1/2, denn falls p>1/2 wäre, könnte der Empfänger alle empfangenen Bits invertieren und würde damit einen äquivalenten Kanal mit einer Fehlerwahrscheinlichkeit von 1p1/2 erhalten.

Kapazität

Die Kanalkapazität des binären symmetrischen Kanals ist

 CBSC=1Hb(p),

wobei Hb(p) die Entropie der Bernoulli-Verteilung mit Wahrscheinlichkeit p ist:

Hb(p)=plog2(p)(1p)log2(1p)

Beweis: Die Kapazität ist definiert als die maximale Transinformation zwischen Eingang X und Ausgang Y für alle möglichen Wahrscheinlichkeitsverteilungen am Eingang pX(x):

C=maxpX(x){I(X;Y)}

Die Transinformation kann umformuliert werden zu

I(X;Y)=H(Y)H(Y|X)=H(Y)x{0,1}pX(x)H(Y|X=x)=H(Y)x{0,1}pX(x)Hb(p)=H(Y)Hb(p),

wobei die ersten beiden Schritte aus der Definition von Transinformation bzw. der bedingten Entropie folgen. Die Entropie am Ausgang, bei gegebenem und festem Eingangsbit (H(Y|X=x)) gleicht der Entropie der Bernoulli-Verteilung, was zur dritten Zeile führt, welche weiter vereinfacht werden kann.

In der letzten Zeile ist nur der erste Term H(Y) von der Wahrscheinlichkeitsverteilung am Eingang pX(x) abhängig. Außerdem ist von der Entropie einer binären Zufallsvariable bekannt, dass diese ihr Maximum von 1 bei einer Gleichverteilung besitzt. Die Gleichverteilung am Ausgang kann, bedingt durch die Symmetrie des Kanals, nur erreicht werden, wenn auch eine Gleichverteilung am Eingang vorliegt. Damit erhält man CBSC=1Hb(p).[1]

Siehe auch

Literatur

  • Bernd Friedrichs: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Springer Verlag, Berlin/Heidelberg 1995, ISBN 3-540-59353-5.
  • Werner Lütkebohmert: Codierungstheorie. Algebraisch-geometrische Grundlagen und Algorithmen. Vieweg Verlag, Braunschweig u. a. 2003, ISBN 3-528-03197-2 (Vieweg-Studium – Aufbaukurs Mathematik).
  • Rudolf Mathar: Informationstheorie. Diskrete Modelle und Verfahren. B.G. Teubner Verlag, Stuttgart 1996, ISBN 3-519-02574-4.

Einzelnachweise

  1. Thomas M. Cover, Joy A. Thomas: Elements of information theory, S. 187, 2. Auflage, New York: Wiley-Interscience, 2006, ISBN 978-0471241959.