Nichtnegative Matrixfaktorisierung

Verfahren zur Dimensionsreduktion von Daten

Die Nichtnegative Matrixfaktorisierung (NMF) ist ein Verfahren zur Dimensionsreduktion von Daten. Eine Matrix mit Einträgen in den nichtnegativen reellen Zahlen wird dabei linear in Faktoren vom Rang 1 zerlegt. Durch spezielle Algorithmen kann eine Zerlegung gefunden werden, bei der auch die einzelnen Faktoren nichtnegativ sind. Diese Forderung führt in vielen Fällen zu Zerlegungen, die leichter zu interpretieren sind und die Daten als Summe von klar getrennten Komponenten darstellen. Die NMF wird seit ihrer Einführung 1999[1] in vielen Gebieten der Wissenschaft angewandt.

Geschichte

Bearbeiten

In der Chemometrik ist die nichtnegative Matrixfaktorisierung bereits seit den 1970er Jahren bekannt, wobei sie allerdings nicht als Faktorisierung von Matrizen beschrieben wurde. In den 90er Jahren veröffentlichten einige finnische Wissenschaftler Arbeiten zur positiven Matrixfaktorisierung.[2]

Den Durchbruch zur weiteren Verbreitung schaffte die NMF, als die amerikanischen Neurowissenschaftler Daniel D. Lee und Sebastian Seung 1999 in einem Artikel in der Fachzeitschrift Nature[1] ihre Eigenschaften untersuchten und den einfachen multiplikativen Algorithmus zu ihrer Berechnung angaben. Die Faktorisierung erfreut sich seitdem großer Beliebtheit und es sind mathematische Analysen, neue Berechnungsalgorithmen und abgewandelte Faktorisierungen[3][4] entstanden.

Definition

Bearbeiten

Sei   eine beliebige Matrix der Dimension   mit nichtnegativen Einträgen. Weiterhin sei die Anzahl der Komponenten   gegeben, die kleiner als   und als   sei. Die nichtnegative Matrixfaktorisierung besteht dann aus einer Matrix   der Dimension   und einer Matrix   der Dimension  , die beide nichtnegative Einträge besitzen und gemeinsam die Frobeniusnorm der Differenz

 

minimieren.

Diese Definition entspricht, abgesehen von der Forderung der Nichtnegativität, genau der der Hauptkomponentenanalyse. Die Faktorisierung ist durch das Minimierungsproblem nicht eindeutig bestimmt. Beispielsweise sind für eine Permutationsmatrix   die Matrizen   und   ebenfalls Minimierer von  , sodass die Ordnung der Faktoren also völlig unbestimmt ist. Auch die Skalierung der Faktoren kann variieren.

Beispiel

Bearbeiten
In diesem Beispiel verwenden wir ein Video als Datenbasis. Es zeigt einen rund einen halben Millimeter breiten Ausschnitt aus medialen präfrontalen Cortex einer Maus, in dem die Aktivierung der Neuronen durch Optogenetik sichtbar gemacht wurden.[5]

Das folgende Beispiel zeigt, wie man mithilfe der NMF zum Beispiel die Aktivität von Neuronen analysieren kann. Als Ausgangsmatrix   wählen wir eine Matrix, die durch Helligkeitswerte in dem rechts stehenden Video gegeben ist. Das Video zeigt eine optogenetische Aufnahme aus dem Gehirn einer Maus; die Maus wurde also gentechnisch so verändert, dass die Aktivierung der Kalziumkanäle der Neuronen einen Lichtimpuls verursacht.

Die Zeilen der Matrix sollen nun die einzelnen Zeitpunkte darstellen, die Spalten die einzelnen Bildpunkte (Pixel) des Videos. Da das Video aus 400 Einzelbildern besteht, die jeweils   Pixel groß sind, ergibt sich so eine Matrix der Dimension  .

Als Komponentenanzahl wählen wir  . Die nichtnegative Matrix   der Dimension   gibt dann den Zeit-Faktor an, die Matrix   der Dimension   beschreibt die räumliche Verteilung. Die Zeilen der Matrix   können dann wieder zu Bildern aufgefaltet werden. Es ergeben sich die folgenden Faktoren:

Die Matrixfaktorisierung kann somit aufzeigen, dass bestimmte Gruppen von Neuronen gemeinsam feuern. Dass die Gewichtungen nichtnegativ sind, ist hier klar von Vorteil, denn die Faktoren sind leichter interpretierbar, wenn keine Neuronen negativ gewichtet werden.

Berechnung

Bearbeiten

Multiplikative Methode

Bearbeiten

Lee und Seung gaben folgende multiplikative Update-Regel zur Bestimmung von   und   an:

 
 

Hierbei bezeichnet   das Hadamard-Produkt, also die elementweise Multiplikation, und auch bei den Brüchen sollen Zähler und Nenner in jedem Eintrag dividiert werden. Diese Update-Regeln kann aus dem Gradientenabstieg unter Hinzunahme spezieller Vorfaktoren hergeleitet werden. Der Vorteil eines multiplikativen gegenüber einem additiven Gradientenabstieg ist, dass die Faktoren automatisch das Vorzeichen beibehalten. Einer der Nachteile ist, dass Elemente von   oder  , die einmal null sind, nicht mehr positiv werden können.

Alternierende Least-Sqaures-Näherung

Bearbeiten

Ein anderes Verfahren zur Bestimmung von   und   ist die Methode der alternierenden Least-Squares-Näherungen. Während das Minimierungsproblem in   und   gemeinsam nicht konvex ist, ist das Minimieren von   für gegebenes   und andersherum ein konvexes Problem und damit leichter zu lösen. In der Tat handelt es sich bei der Minimierung von   für festes   einfach um ein least-squares-Regressionsproblem (kleinste-Quadrate-Regression), bis auf die Einschränkung, dass   nichtnegativ sein muss. Für das Regressionsproblem mit nichtnegativen Variablen (NNLS, nonnegative least squares) gibt es zwar keine einfache analytische Darstellung, aber durchdachte Algorithmen, mit deren Hilfe das Optimierungsproblem dann gelöst werden kann. Die Kostenfunktion wird in jedem Schritt garantiert verringert. Die meisten Software-Pakete für die Nichtnegative Matrixfaktorisierung benutzen dieses Verfahren.[6]

Initialisierung

Bearbeiten

Da bei den iterativen Optimierungsverfahren nicht garantiert ist, dass sie ein globales Optimum finden, kann die Initialisierung der Faktoren   und   eine wichtige Rolle für das Endergebnis spielen. Statt einer zufälligen Initialisierung hat sich unter anderem die Initialisierung auf Grundlage einer zuvor ausgeführten Singulärwertzerlegung bewährt.

Siehe auch

Bearbeiten

Literatur

Bearbeiten
  • N. Gilis: Nonnegative Matrix Factorization. SIAM, 2020

Einzelnachweise

Bearbeiten
  1. a b Daniel D. Lee, H. Sebastian Seung: Learning the parts of objects by non-negative matrix factorization. In: Nature. Band 401, Nr. 6755, Oktober 1999, ISSN 1476-4687, S. 788–791, doi:10.1038/44565 (nature.com [abgerufen am 13. November 2022]).
  2. Pentti Paatero, Unto Tapper: Positive matrix factorization: A non-negative factor model with optimal utilization of error estimates of data values. In: Environmetrics. Band 5, Nr. 2, Juni 1994, S. 111–126, doi:10.1002/env.3170050203 (wiley.com [abgerufen am 13. November 2022]).
  3. C.H.Q. Ding, Tao Li, M.I. Jordan: Convex and Semi-Nonnegative Matrix Factorizations. In: IEEE Transactions on Pattern Analysis and Machine Intelligence. Band 32, Nr. 1, Januar 2010, ISSN 0162-8828, S. 45–55, doi:10.1109/TPAMI.2008.277 (ieee.org [abgerufen am 13. November 2022]).
  4. Paris Smaragdis: Non-negative Matrix Factor Deconvolution; Extraction of Multiple Sound Sources from Monophonic Inputs. In: Independent Component Analysis and Blind Signal Separation. Band 3195. Springer Berlin Heidelberg, Berlin, Heidelberg 2004, ISBN 3-540-23056-4, S. 494–499, doi:10.1007/978-3-540-30110-3_63 (springer.com [abgerufen am 13. November 2022]).
  5. Masashi Kondo, Kenta Kobayashi, Masamichi Ohkura, Junichi Nakai, Masanori Matsuzaki: Two-photon calcium imaging of the medial prefrontal cortex and hippocampus without cortical invasion. In: eLife. Band 6, 25. September 2017, ISSN 2050-084X, S. e26839, doi:10.7554/eLife.26839.
  6. Michael W. Berry, Murray Browne, Amy N. Langville, V. Paul Pauca, Robert J. Plemmons: Algorithms and applications for approximate nonnegative matrix factorization. In: Computational Statistics & Data Analysis. Band 52, Nr. 1, 15. September 2007, ISSN 0167-9473, S. 155–173, doi:10.1016/j.csda.2006.11.006 (sciencedirect.com [abgerufen am 13. November 2022]).