Golomb-Code

Aus testwiki
Zur Navigation springen Zur Suche springen

Der Golomb-Code ist eine Entropiekodierung für alle nichtnegativen ganzen Zahlen, die im Gegensatz zu anderen Codes der Quellenkodierung nur einen endlichen Bereich (z. B. den Wertebereich 0–255) darstellen können. Er wurde 1966 von Solomon W. Golomb entwickelt.[1] Der Code verwendet wenige Bits für kleine und viele Bits für größere Zahlen. Dabei kann er über einen positiven, ganzzahligen Parameter gesteuert werden. Je größer der Parameter, desto langsamer wächst die Anzahl der zur Darstellung benötigten Bits, aber desto größer ist die Anzahl der minimal benötigten Bits für die kleinen Zahlen.

Der Rice-Code ist eine Variante des Golomb-Codes, bei dem der Steuerparameter eine Zweierpotenz ist. Diese Einschränkung ist von Vorteil, da insbesondere in der digitalen Verarbeitung die Multiplikation bzw. Division von 2 sehr effizient implementiert werden kann. Der Rice-Code wurde 1971 von Robert F. Rice und J. Plaunt vorgestellt.[2] Einige Varianten des Rice-Codes werden auch als Exponentieller Golomb-Code (englisch: Exponential-Golomb Code) bezeichnet.

Der Code kann im Bereich der verlustlosen Datenkompression verwendet werden, wenn die Wahrscheinlichkeiten der zu kodierenden Quellendaten (näherungsweise) eine geometrische Verteilung bilden. Typische Anwendungsbereiche sind, als ein Teilverfahren neben anderen Algorithmen, die Bildkompression und Audiodatenkompression. Beispielsweise verwenden das Videokompressionsformat H.264 und das Audiokompressionsformat FLAC[3] je eine verschiedene Variante des exponentiellen Golomb-Codes.

Arbeitsweise

Der Code arbeitet mit der Idee, die darzustellende Zahl n durch einen Quotienten q und den Rest r bei einer Division mit einem Parameter b zu ersetzen.

Die Zahl n mit n0 wird durch

q=nb

und

r=nqb

beschrieben. Zur besseren Beschreibung wird noch die Zahl

c=log2b

benötigt. Als erstes wird q + 1 unär ausgegeben, d. h., es werden q „1“-Bits gefolgt von einer „0“ abgelegt.

Der Rest wird dann in einer „abgeschnittenen binären Darstellung“ (Truncated-Binary-Encoding) genannten Codierung abgelegt. Diese Darstellung legt einen Teil der Werte, falls möglich, mit c1 Bits und den anderen Teil mit c Bits ab. Die Anzahl der Werte, die mit c1 Bits abgelegt werden können, ist 2cb.

Beispiele

Die Darstellung der Zahl 10 mit einem Parameter 4:

q=104=2
r=1024=2
c=log24=2

Abhängig von c wird die Codierung vervollständigt:

  • falls r < 2cb ist, wird r als Binärcode mit der Länge c1 geschrieben.
  • falls r2cb ist, wird r+2cb als Binärcode mit der Länge c geschrieben.

Daraus resultiert die Bitfolge 110 10. Das Leerzeichen zeigt den Übergang vom Quotienten zum Rest.

Ein paar weitere Beispiele:

n 0 1 2 3 4 5 6 7 8 9 10
b=3 0 0 0 10 0 11 10 0 10 10 10 11 110 0 110 10 110 11 1110 0 1110 10
b=4 0 00 0 01 0 10 0 11 10 00 10 01 10 10 10 11 110 00 110 01 110 10
b=5 0 00 0 01 0 10 0 110 0 111 10 00 10 01 10 10 10 110 10 111 110 00
b=7 0 00 0 010 0 011 0 100 0 101 0 110 0 111 10 00 10 010 10 011 10 100

Anwendung

Die beiden Grafiken zeigen die Redundanz des Golomb-Codes pro Symbol.

Der Golomb-Code kann angewendet werden, wenn Zahlen unbekannter Größe abgespeichert werden sollen, doch das eigentliche Anwendungsgebiet liegt in der Datenkompression.

Wenn die Wahrscheinlichkeiten der Zahlen eine bestimmte Verteilung (geometrische Verteilung) aufweisen, dann kann der Golomb-Code ähnlich effizient wie der Huffman-Code sein, ist dabei aber sparsamer mit Speicher, leichter zu implementieren und schneller in der Ausführung.

Rice-Code

Der Rice-Code ist eine Variante des Golomb-Codes, bei dem der Parameter b eine Potenz von 2 ist. Diese Codes lassen sich sehr einfach mit Bitshiften und logischen Bitoperationen umsetzen.

Angenommen, es gilt b=2p. Dann ist

q=np

und

r=n(b1)

Das Symbol steht dabei für bitweises Verschieben nach rechts und für bitweise Und-Verknüpfung. r wird dabei immer mit genau p Bits und normal binär dargestellt.

Exponentieller Golomb-Code

Der exponentielle Golomb-Code ist eine weitere Variante des Rice-Codes und gleichzeitig identisch zum Elias-γ-Code, würde dort n+1 statt n kodiert.

p wird für jede Zahl genau als p=log2(n+1) gewählt, was der „natürlichen“ Bitbreite von n+1 entspricht. Dann wird die unäre Codierung von q nicht mit „1“-Bits gefolgt von „0“, sondern mit „0“-Bits gefolgt von „1“ umgesetzt. Da die binär gespeicherte Zahl r immer an höchster Stelle eine „1“ aufweist, muss diese höchste „1“ nicht doppelt gespeichert werden. Die Enkodierung und Dekodierung vereinfachen sich somit zu folgenden Schritten:

  • Zum Kodieren von n: Schreibe p viele „0“-Bits, danach schreibe n+1 mit der natürlichen Anzahl Bits.
  • Zum Dekodieren von n: Lese „0“-Bits bis einschließlich des ersten „1“-Bits, und lese so viele darauffolgende Bits, wie zuvor „0“-Bits gelesen wurden. Das Ergebnis ist dieser hintere Teil der kodierten Zahl minus 1.

Es zeigt sich, dass eine separate Speicherung von p nicht notwendig ist, da es selbst Teil der kodierten Zahl ist.

Verallgemeinerung zu beliebiger Ordnung

Die Kodierung kann mithilfe des Konzepts der Ordnung k verallgemeinert werden. Das obige Schema entspricht der Ordnung k=0. Bei höheren Ordnungen geschieht eine Aufteilung der Zahl n (nicht n+1!) in Quotient q und Rest r ähnlich zum normalen Rice-Code. Der Dividend ist nun 2k, d. h. q=nk und r=n(k1). Bildlich gesprochen werden die Bits der Zahl in den (festen) unteren Teil r, der immer k Bits hat, und den (variablen) Teil q aufgeteilt.

Für die finale Kodierung wird q im gewöhnlichen exponentiellen Golomb-Code kodiert, d. h. Ordnung 0 wie oben, und r wird mit k Bits (die laut Definition immer ausreichen) an das so kodierte q angehängt. Eine kodierte Zahl umfasst also drei Teile, hier dargestellt anhand k=5 und der kodierten Zahl 489:

4890000Bittiefe von q unär10000q01001r

Der Vorteil dieser Kodierung besteht darin, dass der benötigte Speicherplatz für große Zahlen weniger als die beim Rice-Code benötigten 2log2n+1 („doppelt so viele Bits wie die Zahl selbst hat“) beträgt.

Der Parameter k muss separat gewählt und gespeichert werden. Bei großen Datensätzen eignet sich häufig nicht ein k für alle Daten, daher gibt es verschiedene Verfahren, ein variables k zu wählen. Als einfachen Ansatz verwendet FLAC die Möglichkeit, mehrere Blöcke variabler Größe mit einem jeweils eigenen k zu kodieren. Der Melcode-Algorithmus und seine Varianten passen k automatisch anhand eines einfachen Algorithmus an, welcher symmetrisch auf Enkodier- und Dekodierseite angewandt wird und ohne explizite Speicherung von k auskommt.[4][5]

Verallgemeinerung für negative Zahlen

Rice-Code und allgemeiner exponentieller Golomb-Code können zwar 0, aber keine negativen Zahlen kodieren. Dies wird durch eine der Zickzackkodierungen möglich gemacht, welche die negativen auf die positiven Zahlen abbilden, aber die Eigenschaften der Entropiekodierung erhalten; d. h. betragsmäßig kleine Zahlen werden weiterhin auf kleine Zahlen abgebildet. Konkret bildet man eine Hälfte der ganzen Zahlen auf die geraden natürlichen Zahlen ab und die andere Hälfte auf die ungeraden natürlichen Zahlen:

n={2x falls x02x1 falls x<0(FLAC)n={2x falls x02x1 falls x>0(H.264)

Danach folgt normale Rice-Kodierung oder exponentielle Golomb-Kodierung. In der Praxis lassen sich sowohl De- als auch Enkodierung dieses Formats durch Benutzung von Bitmasken und Shifts beschleunigen.

Einzelnachweise