Moment (Bildverarbeitung)

Aus testwiki
Version vom 20. Mai 2024, 19:35 Uhr von imported>Nuretok (Zentrale Momente (translationsinvariante Momente): Vereinfachung)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Momente, siehe Momente einer Verteilung, sind in der Bildverarbeitung bestimmte gewichtete Mittelwerte aus den Helligkeitswerten der einzelnen Pixel eines Bildes. Sie werden gewöhnlich so gewählt, dass sie gewünschte Eigenschaften des Bildes widerspiegeln oder gewisse geometrische Interpretationen besitzen. Momente sind hilfreich, um einzelne Objekte in einem segmentierten Bild zu beschreiben. Grundlegende Eigenschaften von Bildern, die durch Momente berechnet werden können, sind Fläche (oder Summe der Helligkeitswerte), Schwerpunkt und Ausrichtung.

Nicht zentrierte Momente

Für eine zweidimensionale stetige Funktion f(x,y) ist das Moment (p+q)-ten Grades definiert als

Mpq=xpyqf(x,y)dxdy

für p,q=0,1,2,

Auf digitale Grauwertbilder mit der Grauwertfunktion g(x,y) angewandt ergeben sich die nicht zentrierten Momente Mij aus

Mij=xyxiyjg(x,y)

In einigen Fällen können die nicht zentrierten Momente berechnet werden, indem die Grauwertfunktion als Wahrscheinlichkeitsdichtefunktion aufgefasst wird. Dazu teilt man obige Formel durch

xyg(x,y)

Laut dem Eindeutigkeitstheorem von Athanasios Papoulis (1991) existieren Momente jeglichen Grades, wenn f(x,y) stückweise stetig ist und nur in einem endlichen Teil der xy-Ebene ungleich Null wird. In diesem Fall ist die Folge von Momenten (Mpq) durch f(x,y) eindeutig bestimmt. Ebenso bestimmt (Mpq) die Funktion f(x,y) eindeutig. In der Praxis reichen jedoch meist wenige Momente niedrigen Grades aus um ein Bild hinreichend genau zu charakterisieren.

Beispiele

Einfache Bildeigenschaften, die durch nicht zentrierte Momente bestimmt werden können, sind unter anderen:

  • Fläche (für Binärbilder) oder Summe der Grauwerte (für Grauwertbilder): M00
  • Schwerpunkt: {x¯, y¯}={M10M00,M01M00}

Zentrale Momente (translationsinvariante Momente)

Zentrale Momente sind invariant bezüglich Translationen, sie sind definiert als

μpq=(xx¯)p(yy¯)qf(x,y)dxdy

Auf digitale Grauwertbilder mit der Grauwertfunktion g(x,y) angewandt ergeben sich die Zentralen Momente μij aus

μij=xy(xx¯)i(yy¯)jg(x,y)

Die zentralen Momente bis zum Grad 3 sind:

μ00=M00,
μ01=0,
μ10=0,
μ11=M11x¯M01=M11y¯M10,
μ20=M20x¯M10,
μ02=M02y¯M01,
μ21=M212x¯M11y¯M20+2x¯2M01,
μ12=M122y¯M11x¯M02+2y¯2M10,
μ30=M303x¯M20+2x¯2M10,
μ03=M033y¯M02+2y¯2M01.

Es kann gezeigt werden, dass:

μpq=mpnq(pm)(qn)(x¯)(pm)(y¯)(qn)Mmn

Beispiele

Informationen über die Ausrichtung des Bildes können gewonnen werden, indem man zuerst die drei zentralen Momente zweiten Grades verwendet, um eine Kovarianzmatrix zu berechnen.

μ'20=μ20/μ00=M20/M00x¯2
μ'02=μ02/μ00=M02/M00y¯2
μ'11=μ11/μ00=M11/M00x¯y¯

Die Kovarianzmatrix des Bildes g(x,y) ist dann

cov[I(x,y)]=[μ'20μ'11μ'11μ'02].

Die Eigenvektoren dieser Matrix entsprechen der großen und kleinen Halbachse der Helligkeitswerte. Somit kann die Ausrichtung des Bildes aus dem Winkel des Eigenvektors mit dem größten Eigenwert gegenüber der Achse, die diesem Eigenvektor am nächsten liegt, bestimmt werden. Dieser Winkel Θ kann berechnet werden durch

Θ=12arctan(2μ'11μ'20μ'02).

Die Eigenwerte der Kovarianzmatrix sind

λi=μ'20+μ'022±4μ112+(μ20μ02)22,

Die Exzentrizität des Bildes ist

1λ2λ1.

Skalierungsinvariante Momente

Es können Momente ηi j mit i + j ≥ 2 konstruiert werden, die invariant bezüglich Skalierung und Translation sind, indem man das entsprechende zentrale Moment durch das entsprechend skalierte Moment vom Grad 0 teilt.

ηij=μijμ00(1+i+j2)

Rotationsinvariante Momente

Es ist weiterhin möglich, Momente zu konstruieren, die zusätzlich invariant bezüglich einer Bildrotation sind. Häufig benutzt wird die Hu-Menge invarianter Momente.[1]

I1= η20+η02I2= (η20η02)2+(2η11)2I3= (η303η12)2+(3η21η03)2I4= (η30+η12)2+(η21+η03)2I5= (η303η12)(η30+η12)[(η30+η12)23(η21+η03)2]+ (3η21η03)(η21+η03)[3(η30+η12)2(η21+η03)2]I6= (η20η02)[(η30+η12)2(η21+η03)2]+4η11(η30+η12)(η21+η03)I7= (3η21η03)(η30+η12)[(η30+η12)23(η21+η03)2] (η303η12)(η21+η03)[3(η30+η12)2(η21+η03)2]

Das erste, I1, ist ungefähr gleichzusetzen mit dem Trägheitsmoment um den Schwerpunkt des Bildes, wenn die Helligkeitswerte der Pixel als physikalische Dichte interpretiert werden.

Anwendungsbeispiele

Momente sind für zweierlei Dinge gut geeignet. Zum einen dienen sie zur Klassifikation von Objekten in binarisierten, also Schwarzweiß-Bildern, welche das Ergebnis einer Vorverarbeitung sind, die entscheidet, welche Teile eines Bildes zu einem Objekt gehören (schwarz = 1) und welche nicht (weiß = 0). Auch ein Bild, das außer Schwarz und Weiß auch Grauwerte enthält, weil sich der vorverarbeitende Algorithmus nicht immer sicher war, ob ein Pixel zum Objekt oder zum Hintergrund gehört, ist verwertbar, indem die Graustufen auf den Wertebereich [0, 1] normiert werden.

Am Beispiel der Texterkennung sieht man, dass ein „T“ und ein „I“ zwar links–rechts-symmetrisch sind und sich somit im Schwerpunkt x¯ nicht unterscheiden, allerdings sich im Moment μ20 durch die unterschiedliche Varianz unterscheiden und außerdem im Moment μ03 stark abweichen. Für dieses Moment sollte aufgrund der Oben–Unten-Symmetrie für „I“ ein Wert nahe 0 herauskommen, während ein gescanntes T oben deutlich mehr Pixel aufweist als unten und hier einen stark negativen Wert erhält (für nach unten zunehmende y-Werte).

Zum anderen kann mit Momenten die Anordnung beliebiger extrahierter Features aus Bildern oder ähnlichem zueinander verglichen werden. Hat man beispielsweise mittels eines Eckenfinders einige Ecken extrahiert, lässt sich mithilfe der Momente feststellen, in welchem Teil des Bildes innerhalb einer Bildfolge (=Video) Veränderung stattfindet. Verwendet man hierfür die translationsinvarianten zentralen Momente, so ist die Erkennung stabil gegenüber Wackeln der Kamera.

Quellen

  • Ming-Kuei Hu, "Visual Pattern Recognition by Moment Invariants", Vorlage:Doi

Einzelnachweise