Moment (Bildverarbeitung)

bestimmte gewichtete Mittelwerte aus den Helligkeitswerten der einzelnen Pixel eines Bildes

Momente, siehe Momente einer Verteilung, sind in der Bildverarbeitung bestimmte gewichtete Mittelwerte aus den Helligkeitswerten der einzelnen Pixel eines Bildes. Sie werden gewöhnlich so gewählt, dass sie gewünschte Eigenschaften des Bildes widerspiegeln oder gewisse geometrische Interpretationen besitzen. Momente sind hilfreich, um einzelne Objekte in einem segmentierten Bild zu beschreiben. Grundlegende Eigenschaften von Bildern, die durch Momente berechnet werden können, sind Fläche (oder Summe der Helligkeitswerte), Schwerpunkt und Ausrichtung.

Nicht zentrierte Momente Bearbeiten

Für eine zweidimensionale stetige Funktion   ist das Moment  -ten Grades definiert als

 

für  

Auf digitale Grauwertbilder mit der Grauwertfunktion   angewandt ergeben sich die nicht zentrierten Momente   aus

 

In einigen Fällen können die nicht zentrierten Momente berechnet werden, indem die Grauwertfunktion als Wahrscheinlichkeitsdichtefunktion aufgefasst wird. Dazu teilt man obige Formel durch

 

Laut dem Eindeutigkeitstheorem von Athanasios Papoulis (1991) existieren Momente jeglichen Grades, wenn   stückweise stetig ist und nur in einem endlichen Teil der xy-Ebene ungleich Null wird. In diesem Fall ist die Folge von Momenten   durch   eindeutig bestimmt. Ebenso bestimmt   die Funktion   eindeutig. In der Praxis reichen jedoch meist wenige Momente niedrigen Grades aus um ein Bild hinreichend genau zu charakterisieren.

Beispiele Bearbeiten

Einfache Bildeigenschaften, die durch nicht zentrierte Momente bestimmt werden können, sind unter anderen:

  • Fläche (für Binärbilder) oder Summe der Grauwerte (für Grauwertbilder):  
  • Schwerpunkt:  

Zentrale Momente (translationsinvariante Momente) Bearbeiten

Zentrale Momente sind invariant bezüglich Translationen, sie sind definiert als

 

Auf digitale Grauwertbilder mit der Grauwertfunktion g(x,y) angewandt ergeben sich die Zentralen Momente μij aus

 

Die zentralen Momente bis zum Grad 3 sind:

 
 
 
 
 
 
 
 
 
 

Es kann gezeigt werden, dass:

 

Beispiele Bearbeiten

Informationen über die Ausrichtung des Bildes können gewonnen werden, indem man zuerst die drei zentralen Momente zweiten Grades verwendet, um eine Kovarianzmatrix zu berechnen.

 
 
 

Die Kovarianzmatrix des Bildes   ist dann

 .

Die Eigenvektoren dieser Matrix entsprechen der großen und kleinen Halbachse der Helligkeitswerte. Somit kann die Ausrichtung des Bildes aus dem Winkel des Eigenvektors mit dem größten Eigenwert gegenüber der Achse, die diesem Eigenvektor am nächsten liegt, bestimmt werden. Es kann gezeigt werden, dass dieser Winkel Θ durch die folgende Formel berechnet werden kann.

 

Die Eigenwerte der Kovarianzmatrix sind

 

Die Exzentrizität des Bildes ist

 

Skalierungsinvariante Momente Bearbeiten

Es können Momente ηi j mit i + j ≥ 2 konstruiert werden, die invariant bezüglich Skalierung und Translation sind, indem man das entsprechende zentrale Moment durch das entsprechend skalierte Moment vom Grad 0 teilt.

 

Rotationsinvariante Momente Bearbeiten

Es ist weiterhin möglich, Momente zu konstruieren, die zusätzlich invariant bezüglich einer Bildrotation sind. Häufig benutzt wird die Hu-Menge invarianter Momente.[1]

 

Das erste, I1, ist ungefähr gleichzusetzen mit dem Trägheitsmoment um den Schwerpunkt des Bildes, wenn die Helligkeitswerte der Pixel als physikalische Dichte interpretiert werden.

Anwendungsbeispiele Bearbeiten

Momente sind für zweierlei Dinge gut geeignet. Zum einen dienen sie zur Klassifikation von Objekten in binarisierten, also Schwarzweiß-Bildern, welche das Ergebnis einer Vorverarbeitung sind, die entscheidet, welche Teile eines Bildes zu einem Objekt gehören (schwarz = 1) und welche nicht (weiß = 0). Auch ein Bild, das außer Schwarz und Weiß auch Grauwerte enthält, weil sich der vorverarbeitende Algorithmus nicht immer sicher war, ob ein Pixel zum Objekt oder zum Hintergrund gehört, ist verwertbar, indem die Graustufen auf den Wertebereich [0, 1] normiert werden.

Am Beispiel der Texterkennung sieht man, dass ein „T“ und ein „I“ zwar links–rechts-symmetrisch sind und sich somit im Schwerpunkt   nicht unterscheiden, allerdings sich im Moment   durch die unterschiedliche Varianz unterscheiden und außerdem im Moment   stark abweichen. Für dieses Moment sollte aufgrund der Oben–Unten-Symmetrie für „I“ ein Wert nahe 0 herauskommen, während ein gescanntes T oben deutlich mehr Pixel aufweist als unten und hier einen stark negativen Wert erhält (für nach unten zunehmende y-Werte).

Zum anderen kann mit Momenten die Anordnung beliebiger extrahierter Features aus Bildern oder ähnlichem zueinander verglichen werden. Hat man beispielsweise mittels eines Eckenfinders einige Ecken extrahiert, lässt sich mithilfe der Momente feststellen, in welchem Teil des Bildes innerhalb einer Bildfolge (=Video) Veränderung stattfindet. Verwendet man hierfür die translationsinvarianten zentralen Momente, so ist die Erkennung stabil gegenüber Wackeln der Kamera.

Weblinks Bearbeiten

Quellen Bearbeiten

Einzelnachweise Bearbeiten

  1. Zhihu Huang, Jinsong Leng: Analysis of Hu's moment invariants on image scaling and rotation. In: 2010 2nd International Conference on Computer Engineering and Technology. Band 7, April 2010, S. V7–476–V7–480, doi:10.1109/iccet.2010.5485542 (ieee.org [abgerufen am 25. November 2017]).