Hauptmenü öffnen

Eigenwertproblem

Bestimmen der Nullstellen des charakteristischen Polynoms
(Weitergeleitet von Eigenwert)
In dieser Scherung der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der Scherabbildung, während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert 1.

Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung.

Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells. Die Verwendung der Vorsilbe „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von David Hilbert aus dem Jahre 1904 zurückführen[1] und wird als Germanismus auch in einigen weiteren Sprachen, darunter dem Englischen, verwendet.

Die im Folgenden beschriebene mathematische Problemstellung heißt spezielles Eigenwertproblem und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen Vektorraums in sich (Endomorphismen), wie sie durch quadratische Matrizen dargestellt werden.

Die Frage, die sich hier stellt, lautet: Unter welchen Bedingungen ist eine Matrix ähnlich zu einer Diagonalmatrix?[2]

Inhaltsverzeichnis

DefinitionBearbeiten

Ist   ein Vektorraum über einem Körper   (in Anwendungen meist der Körper   der reellen Zahlen oder der Körper   der komplexen Zahlen) und   eine lineare Abbildung von   in sich selbst (Endomorphismus), so bezeichnet man als Eigenvektor einen Vektor  , der durch   auf ein Vielfaches   von sich selbst mit   abgebildet wird:

 

Den Faktor   nennt man dann den zugehörigen Eigenwert.

Anders formuliert: Hat für ein   die Gleichung

 

eine Lösung   (der Nullvektor ist natürlich immer eine Lösung), so heißt   Eigenwert von   Jede Lösung   heißt Eigenvektor von   zum Eigenwert  

Hat der Vektorraum eine endliche Dimension   so kann jeder Endomorphismus   durch eine quadratische  -Matrix   beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung

 

schreiben, wobei   hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung   Eigenvektor und   Eigenwert der Matrix  

Diese Gleichung kann man auch in der Form

 

schreiben, wobei   die Einheitsmatrix bezeichnet, und äquivalent zu

 

oder

 

umformen.

Berechnung der EigenwerteBearbeiten

Bei kleinen Matrizen können die Eigenwerte symbolisch (exakt) berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier Verfahren der numerischen Mathematik zum Einsatz kommen.

Symbolische BerechnungBearbeiten

Die Gleichung

 

definiert die Eigenwerte und stellt ein homogenes lineares Gleichungssystem dar.
Da   vorausgesetzt wird, ist dieses genau dann lösbar, wenn

 

gilt. Diese Determinante heißt „charakteristisches Polynom“. Es handelt sich um ein normiertes Polynom  -ten Grades in   Seine Nullstellen, also die Lösungen der Gleichung

 

über  , sind die Eigenwerte. Da ein Polynom vom Grad   höchstens   Nullstellen hat, gibt es auch höchstens   Eigenwerte. Zerfällt das Polynom vollständig in Linearfaktoren, so gibt es genau   Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden. Ist der Grad   eine ungerade Zahl und gilt   oder  , dann ist mindestens einer der Eigenwerte reell.

Eigenraum zum EigenwertBearbeiten

Ist   ein Eigenwert der linearen Abbildung  , dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor den Eigenraum zum Eigenwert  . Der Eigenraum ist durch

 

definiert. Falls die Dimension des Eigenraums größer als 1 ist, wenn es also mehr als einen linear unabhängigen Eigenvektor zum Eigenwert   gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert entartet.[3] Die Dimension des Eigenraums   wird als geometrische Vielfachheit von   bezeichnet.

Eine Verallgemeinerung des Eigenraums ist der Hauptraum.

Spektrum und VielfachheitenBearbeiten

Für den Rest dieses Abschnittes sei   Dann besitzt jede   genau   Eigenwerte, wenn man diese mit ihren Vielfachheiten zählt. Mehrfaches Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählung   der verschiedenen Eigenwerte mit ihren Vielfachheiten   Dabei ist   und  

Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als algebraische Vielfachheit. Eigenwerte der algebraischen Vielfachheit   werden als einfacher Eigenwert bezeichnet.

Die Menge der Eigenwerte wird Spektrum genannt und   geschrieben, sodass also

 

gilt. Als Spektralradius bezeichnet man den größten Betrag aller Eigenwerte.

Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seiner geometrischen Vielfachheit ist, so spricht man von einem halbeinfachen Eigenwert (aus dem englischen ‚semisimple‘). Dies entspricht genau der Diagonalisierbarkeit der Blockmatrix zum gegebenen Eigenwert.

Kennt man die Eigenwerte sowie ihre algebraischen und geometrischen Vielfachheiten (siehe unten), kann man die Jordansche Normalform der Matrix erstellen.

BeispielBearbeiten

Es sei die quadratische Matrix

 

gegeben. Subtraktion der mit   multiplizierten Einheitsmatrix von   ergibt:

 

Ausrechnen der Determinante dieser Matrix (mit Hilfe der Regel von Sarrus) liefert:

 

Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:

 

Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.

Numerische BerechnungBearbeiten

Während die exakte Berechnung der Nullstellen des charakteristischen Polynoms schon für dreireihige Matrizen nicht so einfach ist, wird sie für große Matrizen meist unmöglich, sodass man sich dann auf das Bestimmen von Näherungswerten beschränkt. Hierzu werden Verfahren bevorzugt, die sich durch numerische Stabilität und geringen Rechenaufwand auszeichnen. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie

sowie spezielle Methoden für symmetrische Matrizen als auch Methoden für dünnbesetzte große Matrizen wie

Des Weiteren gibt es noch Methoden zur Abschätzung, z. B. mithilfe

die immer eine grobe Abschätzung (unter gewissen Bedingungen sogar genaue Bestimmung) zulassen.

  • Die Folded Spectrum Method liefert mit jedem Durchlauf einen Eigenvektor, der jedoch auch aus der Mitte des Spektrums stammen kann.

Berechnung der EigenvektorenBearbeiten

AlgorithmusBearbeiten

Für einen Eigenwert   lassen sich die Eigenvektoren aus der Gleichung

 

bestimmen. Die Eigenvektoren spannen den Eigenraum auf, dessen Dimension als geometrische Vielfachheit des Eigenwertes bezeichnet wird. Für einen Eigenwert   der geometrischen Vielfachheit   lassen sich also   linear unabhängige Eigenvektoren   finden, sodass die Menge aller Eigenvektoren zu   gleich der Menge der Linearkombinationen von   ist. Die Menge   heißt dann eine Basis aus Eigenvektoren des zum Eigenwert   gehörenden Eigenraumes.

Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.

Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit.

BeispielBearbeiten

Gegeben ist wie in obigem Beispiel die quadratische Matrix

 

Die Eigenwerte   wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannte Eigenraum) zum Eigenwert   berechnet:

 

Man muss also das folgende lineare Gleichungssystem lösen:

 

Bringt man die Matrix auf obere Dreiecksform, so erhält man:

 

Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors   (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).

Obwohl der Eigenwert   eine algebraische Vielfachheit von 2 hat, existiert nur ein linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist eindimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht diagonalisierbar. Man kann nun versuchen, die Matrix stattdessen in die Jordansche Normalform überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man generalisierte Eigenvektoren oder Hauptvektoren.

Für den Eigenwert   geht man genauso vor:

 

Wieder bringt man die Matrix auf Dreiecksform:

 

Hier ist die Lösung der Vektor   wieder mit allen seinen vom Nullvektor verschiedenen Vielfachen.

EigenschaftenBearbeiten

  • Ist   ein Eigenwert der invertierbaren Matrix   zum Eigenvektor   so ist   Eigenwert der inversen Matrix von   zum Eigenvektor  
  • Sind   die Eigenwerte der Matrix   so gilt
  und  
wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist. Hier bezeichnet   die Spur der Matrix  .
 
Analog gilt
 
  • Jede quadratische Matrix   über dem Körper   der komplexen Zahlen ist ähnlich zu einer oberen Dreiecksmatrix   Die Eigenwerte von   sind genau die Diagonaleinträge der Matrix  
  • Eigenvektoren zum Eigenwert  sind Fixpunkte in der Abbildungsgeometrie. Nach dem Satz vom Fußball gibt es beispielsweise zwei Punkte auf einem Fußball, die sich zu Beginn der ersten und der zweiten Halbzeit an der jeweils gleichen Stelle im Raum befinden.

Speziell für reelle symmetrische oder komplexe hermitesche Matrizen gilt:

Eigenvektoren kommutierender MatrizenBearbeiten

Für kommutierende diagonalisierbare (insbesondere symmetrische) Matrizen ist es möglich, ein System gemeinsamer Eigenvektoren zu finden:

Kommutieren zwei Matrizen   und   (gilt also  ) und ist   ein nichtentarteter Eigenwert (d. h., der zugehörige Eigenraum ist eindimensional) von   mit Eigenvektor   so gilt

 

Auch   ist also ein Eigenvektor von   zum Eigenwert   Da dieser Eigenwert nicht entartet ist, muss   ein Vielfaches von   sein. Das bedeutet, dass   auch ein Eigenvektor der Matrix   ist.

Aus diesem einfachen Beweis geht hervor, dass die Eigenvektoren zu nichtentarteten Eigenwerten mehrerer paarweise kommutierender Matrizen Eigenvektoren aller dieser Matrizen sind.

Allgemein können auch für kommutierende diagonalisierbare Matrizen mit entarteten Eigenwerten gemeinsame Eigenvektoren gefunden werden.[6] Aus diesem Grund können mehrere paarweise kommutierende diagonalisierbare Matrizen auch simultan (d. h. mit einer Basistransformation für alle Matrizen) diagonalisiert werden.

Linkseigenvektoren und verallgemeinertes EigenwertproblemBearbeiten

Manchmal bezeichnet man einen so definierten Eigenvektor auch als Rechtseigenvektor und definiert dann entsprechend den Begriff des Linkseigenvektors durch die Gleichung

 

Linkseigenvektoren finden sich z. B. in der Stochastik bei der Berechnung von stationären Verteilungen von Markow-Ketten mittels einer Übergangsmatrix.

Wegen   sind die Linkseigenvektoren von   gerade die Rechtseigenvektoren der transponierten Matrix   Bei normalen Matrizen fallen Links- und Rechtseigenvektoren zusammen.

Allgemeiner kann man auch quadratische Matrizen   und   und die Gleichung

 

untersuchen. Dieses verallgemeinerte Eigenwertproblem wird hier jedoch nicht weiter betrachtet.

Spektraltheorie in der FunktionalanalysisBearbeiten

Eigenwerte und EigenfunktionenBearbeiten

In der Funktionalanalysis betrachtet man lineare Abbildungen zwischen linearen Funktionenräumen (also lineare Abbildungen zwischen unendlichdimensionalen Vektorräumen). Meistens spricht man von linearen Operatoren anstatt von linearen Abbildungen. Sei   ein Vektorraum über einem Körper   mit   und   ein linearer Operator. In der Funktionalanalysis ordnet man   ein Spektrum zu. Dieses besteht aus allen   für die der Operator   nicht invertierbar ist. Dieses Spektrum muss jedoch nicht – wie bei Abbildungen zwischen endlichdimensionalen Vektorräumen – diskret sein. Denn im Gegensatz zu den linearen Abbildungen zwischen endlichdimensionalen Vektorräumen, die nur   verschiedene Eigenwerte haben, haben lineare Operatoren im Allgemeinen unendlich viele Elemente im Spektrum. Daher ist es zum Beispiel möglich, dass das Spektrum von linearen Operatoren Häufungspunkte besitzt. Um die Untersuchung des Operators und des Spektrums zu vereinfachen, unterteilt man das Spektrum in unterschiedliche Teilspektren. Elemente, die die Gleichung   für ein   lösen, nennt man wie in der linearen Algebra Eigenwerte. Die Gesamtheit der Eigenwerte nennt man das Punktspektrum von   Wie in der linearen Algebra wird jedem Eigenwert ein Raum von Eigenvektoren zugeordnet. Da die Eigenvektoren meist als Funktionen aufgefasst werden, spricht man auch von Eigenfunktionen.

BeispielBearbeiten

Sei   offen. Dann besitzt der Ableitungsoperator   ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle   die Gleichung

 

und wählt   dann sieht man, dass die Gleichung   für alle   erfüllt ist. Also ist jedes   ein Eigenwert mit zugehöriger Eigenfunktion  

Praktische BeispieleBearbeiten

Durch Lösung eines Eigenwertproblems berechnet man

Eigenwerte spielen in der Quantenmechanik eine besondere Rolle. Physikalische Größen wie z. B. der Drehimpuls werden hier durch Operatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z. B. der Hamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes Spektrum, so kann die Energie nur diskrete Werte annehmen, was z. B. für die Energieniveaus in einem Atom typisch ist. So stellen bei den Lösungen der bekannten Schrödingergleichung (im Jahr 1926 durch den Physiker Erwin Schrödinger aufgestellt) die Eigenwerte die erlaubten Energiewerte der Elektronen und die Eigenfunktionen die zugehörigen Wellenfunktionen der Elektronen dar.

Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z. B. von Ort und Impuls), wie von der Heisenbergschen Unschärferelation ausgedrückt, ist letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren existiert.

LiteraturBearbeiten

WeblinksBearbeiten

EinzelnachweiseBearbeiten

  1. FAQL.de, abgerufen am 10. Juni 2013, zitiert David Hilberts Artikel Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen, veröffentlicht 1904 in den Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse.
  2. Hans-Joachim Kowalsky, Gerhard O. Michler: Lineare Algebra. 12. Auflage. Walter de Gruyter, Berlin 2003, ISBN 3-11-017963-6, S. 121.
  3. Karl-Heinz Goldhorn, Hans-Peter Heinz, Margarita Kraus: Moderne mathematische Methoden der Physik. Springer, 9. September 2010, ISBN 978-3-642-05184-5, S. 87 (Abgerufen am 29. Februar 2012).
  4. Reiner Kreissig, Ulrich Benedix: Höhere technische Mechanik: Lehr- und Übungsbuch. Springer DE, 2002, ISBN 978-3-7091-6135-7, S. 12 (eingeschränkte Vorschau in der Google-Buchsuche).
  5. Symmetrische Abbildungen und Matrizen. Theorem 10.75 (Memento des Originals vom 28. März 2007 im Internet Archive)   Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/mfb.informatik.uni-tuebingen.de Uni Tübingen, abgerufen am 19. Februar 2007.
  6. A. W. Joshi: Matrices and tensors in physics. New Age International, 1995, ISBN 978-81-224-0563-7, S. 117 (Abgerufen am 29. Februar 2012).