Inverse Matrix

Bezeichnung in der linearen Algebra
(Weitergeleitet von Matrizeninversion)

Die inverse Matrix, reziproke Matrix, Kehrmatrix oder kurz Inverse einer quadratischen Matrix ist in der Mathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werden reguläre Matrizen genannt. Eine reguläre Matrix ist die Darstellungsmatrix einer bijektiven linearen Abbildung und die inverse Matrix stellt dann die Umkehrabbildung dieser Abbildung dar. Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe. Die inverse Matrix ist dann das jeweilige inverse Element in dieser Gruppe.

Die Berechnung der Inverse einer Matrix wird auch als Inversion oder Invertierung der Matrix bezeichnet. Die Invertierung einer Matrix kann mit dem Gauß-Jordan-Algorithmus oder über die Adjunkte der Matrix erfolgen. Die inverse Matrix wird in der linearen Algebra unter anderem bei der Lösung linearer Gleichungssysteme, bei Äquivalenzrelationen von Matrizen und bei Matrixzerlegungen verwendet.

Definition

Bearbeiten

Ist   eine reguläre Matrix mit Einträgen aus einem unitären Ring   (in der Praxis meist dem Körper der reellen Zahlen), dann ist die zugehörige inverse Matrix diejenige Matrix  , für die

 

gilt, wobei der Malpunkt     die Matrizenmultiplikation darstellt und   die Einheitsmatrix der Größe   ist. Ist   ein kommutativer Ring, Körper oder Schiefkörper, so sind die beiden Bedingungen äquivalent, das heißt eine rechtsinverse Matrix ist auch linksinvers und umgekehrt.

Beispiele

Bearbeiten

Die Inverse der reellen  -Matrix

 

ist

 ,

denn es gilt

 .

Die Inverse einer reellen Diagonalmatrix mit Diagonalelementen   ergibt sich durch Bildung der Kehrwerte aller Diagonalelemente, denn

 .

Eigenschaften

Bearbeiten

Gruppeneigenschaften

Bearbeiten

Die Menge der regulären Matrizen fester Größe über einem unitären Ring   bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen nichtkommutative) Gruppe, die allgemeine lineare Gruppe  . In dieser Gruppe ist die Einheitsmatrix das neutrale Element und die inverse Matrix das inverse Element. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links-, als auch rechtsinvers. Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also

 ,

und die Inverse der inversen Matrix wieder die Ausgangsmatrix, das heißt

 .

Die Matrizen   und   werden daher auch zueinander invers genannt. Das Produkt zweier regulärer Matrizen ist wieder regulär und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:

 .

Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann auf diese Weise die Inverse der Matrix schnell ermittelt werden. Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel

 

mit  . Damit gilt speziell für die Inverse einer Matrixpotenz

 .

Diese Matrix wird auch durch   notiert.

Weitere Eigenschaften

Bearbeiten

Für die Inverse einer Matrix mit Einträgen aus einem Körper   gelten folgende weitere Eigenschaften. Für die Inverse des Produkts einer Matrix mit einem Skalar   mit   gilt

 .

Die Inverse der transponierten Matrix ist gleich der Transponierten der Inversen, also

 .

Gleiches gilt auch für die Inverse einer adjungierten komplexen Matrix

 .

Diese beiden Matrizen werden gelegentlich auch durch   und   notiert.[1] Für den Rang der Inversen gilt

 

und für ihre Determinante

 .

Ist   ein Eigenwert von   zum Eigenvektor  , so ist   ein Eigenwert von   ebenfalls zum Eigenvektor  .

Invarianten

Bearbeiten

Manche reguläre Matrizen behalten ihre Zusatzeigenschaften unter Inversion. Beispiele hierfür sind:

Berechnung

Bearbeiten

Zur Berechnung der Inversen einer Matrix   (auch als Inversion oder Invertierung der Matrix bezeichnet) nutzt man, dass deren  -ten Spalten   jeweils die Lösungen der linearen Gleichungssysteme   mit dem  -ten Einheitsvektor als rechter Seite sind. Numerische Verfahren wie der Gauß-Jordan-Algorithmus führen dann zu effizienten Algorithmen zur Berechnung der Inversen. Daneben lassen sich unter Verwendung der Adjunkten einer Matrix auch explizite Formeln für die Inverse herleiten.

Im Folgenden wird angenommen, dass die Einträge der Matrix aus einem Körper stammen, damit die entsprechenden Rechenoperationen stets durchführbar sind.

Gauß-Jordan-Algorithmus

Bearbeiten

Gleichungsdarstellung

Bearbeiten

Ausgeschrieben lautet die Matrixgleichung   mit   und  

 .

Die  -te Spalte der Inversen   ergibt sich damit als Lösung des linearen Gleichungssystems

 ,

wobei   der  -te Einheitsvektor ist. Die Inverse einer Matrix   ist demnach spaltenweise in der Form

 

aus den Lösungen   linearer Gleichungssysteme mit jeweils   als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.

Verfahren

Bearbeiten

Die Inverse einer Matrix kann nun effizient mit dem Gauß-Jordan-Algorithmus berechnet werden. Die Idee bei diesem Verfahren ist es, die   linearen Gleichungssysteme   simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix   um die Einheitsmatrix   erweitert und man schreibt dann

 .

Nun wird die Matrix   mit Hilfe elementarer Zeilenumformungen auf obere Dreiecksgestalt gebracht, wobei die Einheitsmatrix   mit umgeformt wird:

 .

An dieser Stelle kann entschieden werden, ob die Matrix   überhaupt eine Inverse besitzt. Die Matrix   ist nämlich genau dann invertierbar, wenn die Matrix   keine Null auf der Hauptdiagonalen enthält. Ist dies der Fall, so kann die Matrix   mit weiteren elementaren Zeilenumformungen zunächst auf Diagonalgestalt gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form

 ,

wobei auf der rechten Seite dann die gesuchte Inverse   steht.

Beispiele

Bearbeiten

Als Beispiel werde die Inverse der reellen  -Matrix

 

gesucht. Mit dem Gauß-Jordan-Algorithmus ergeben sich die Rechenschritte

 .

Hierbei wird zunächst die   unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die   oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit   erfordert. Die Inverse von   ist demnach

 .

Als weiteres Beispiel werde die Inverse der reellen  -Matrix

 

gesucht. Zunächst werden hier die beiden  -en in der ersten Spalte eliminiert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem in der zweiten Spalte nun das Pivotelement gleich   ist, wird zur Elimination der   die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:

 .

Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende   oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Zweidrittelfachen der zweiten Zeile zur ersten Zeile geschieht. Schließlich muss noch die zweite Zeile durch   dividiert werden und man erhält als Ergebnis:

 .

Die Inverse von   ist demnach

 .

Korrektheit

Bearbeiten

Dass durch den Gauß-Jordan-Algorithmus tatsächlich die inverse Matrix berechnet wird, kann wie folgt nachgewiesen werden. Sind   Elementarmatrizen, mit denen die Matrix   in die Einheitsmatrix umgeformt wird, dann gilt

 .

Werden nun beide Seiten dieser Gleichung von rechts mit der Matrix   multipliziert, folgt daraus

 .

Wird demnach eine Matrix   durch Multiplikation von links mit einer Reihe von Elementarmatrizen in die Einheitsmatrix umgewandelt, so ergibt die Multiplikation der Einheitsmatrix mit diesen Elementarmatrizen in der gleichen Reihenfolge gerade die Inverse  .

Laufzeit

Bearbeiten

Die Laufzeit des Gauß-Jordan-Algorithmus für die Inversion einer  -Matrix beträgt  .[2]

Darstellung über die Adjunkte

Bearbeiten

Herleitung

Bearbeiten

Mit Hilfe der Cramerschen Regel lässt sich die Lösung des linearen Gleichungssystems   auch explizit durch

 

angeben, wobei die Matrix   durch Ersetzen der  -ten Spalte mit dem Einheitsvektor   entsteht. Wird nun die Determinante im Zähler mit Hilfe des Laplaceschen Entwicklungssatzes nach der  -ten Spalte entwickelt, ergibt sich

 ,

wobei   die Untermatrix von   ist, die durch Streichung der  -ten Zeile und  -ten Spalte entsteht (man beachte in obiger Formel die Vertauschung der Reihenfolge von   und  ). Die Unterdeterminanten   werden auch als Minoren von   bezeichnet. Die Zahlen

 

heißen auch Kofaktoren von   und bilden als Matrix zusammengefasst die Kofaktormatrix  . Die Transponierte der Kofaktormatrix wird auch Adjunkte   von   genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung

 .

Diese Darstellung gilt auch für Matrizen mit Einträgen aus einem kommutativen Ring mit Eins, sofern   eine Einheit in dem Ring darstellt.

Explizite Formeln

Bearbeiten

Für  -Matrizen ergibt sich damit die explizite Formel

 .

Für  -Matrizen ergibt sich entsprechend die Formel

 ,

wobei   mit der Regel von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.

Beispiele

Bearbeiten

Die Inverse der folgenden reellen  -Matrix ergibt sich zu

 

und die Inverse der folgenden reellen  -Matrix zu

 .

Blockweise Inversion

Bearbeiten

Ist eine quadratische Blockmatrix   gegeben, wobei   und das Schur-Komplement   von   in   eine reguläre Matrix ist, dann ist auch   eine reguläre Matrix und es gilt

 

Daraus folgt für die inverse Matrix

 

Wenn   und das Schur-Komplement   von   in   eine reguläre Matrix ist, gilt entsprechend

 

und für die inverse Matrix[3]

 

Mithilfe dieser Formel kann die inverse Matrix einer quadratischen ( )-Blockmatrix   mit Blöcken der Dimension   effizient berechnet werden. Es ist also  . Die Laufzeit für die Inversion beträgt  . Im Vergleich dazu beträgt die Laufzeit für den Gauß-Jordan-Algorithmus  .[4]

Darstellung mithilfe des charakteristischen Polynoms

Bearbeiten

Speziell für eine quadratische, reguläre Matrix lässt sich das Inverse mithilfe ihres charakteristischen Polynomes berechnen:

Sei   eine quadratische Matrix, und   das charakteristische Polynom von  . Dann ist   genau dann regulär, wenn   ist, da   gleich der Determinante von   ist, und es gilt

 

Das Einsetzen der Matrix in das Polynom verläuft analog zum Einsetzen einer reellen Zahl, nur dass hier die Rechenregeln für Matrizen gelten.   bezeichnet die Einheitsmatrix mit   Zeilen und Spalten.

Herleitung

Bearbeiten

Ausgenutzt wurde hierbei der Satz von Cayley-Hamilton, welcher besagt, dass sich immer   ergibt, wenn man eine Matrix in ihr charakteristisches Polynom einsetzt. Für   mit ihrem charakteristischen Polynom   gilt also immer:

 

Beispiel

Bearbeiten

Sei  . Dann ist ihr charakteristisches Polynom  .

Einsetzen in die Formel ergibt:

 

Wobei hier die Zusammenhänge   (siehe charakteristisches Polynom) sowie  (siehe Einheitsmatrix) ausgenutzt wurden.

Numerische Berechnung

Bearbeiten

Generell werden in der Numerik lineare Gleichungssysteme der Form   nicht über die Inverse durch

 ,

sondern mit speziellen Verfahren für lineare Gleichungssysteme gelöst (siehe Numerische lineare Algebra). Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen weniger stabil. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann auf Näherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist die Neumann-Reihe, mit der die Inverse einer Matrix durch die unendliche Reihe

 

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für spezielle Matrizen, wie Bandmatrizen oder Toeplitz-Matrizen, gibt es eigene effiziente Berechnungsverfahren zur Ermittlung der Inversen.

Verwendung

Bearbeiten

Spezielle Matrizen

Bearbeiten

Mit Hilfe der inversen Matrix können folgende Klassen von Matrizen charakterisiert werden:

  • Für eine selbstinverse Matrix ist die Inverse gleich der Ausgangsmatrix, das heißt  .
  • Für eine orthogonale Matrix ist die Inverse gleich der Transponierten, das heißt  .
  • Für eine unitäre Matrix ist die Inverse gleich der Adjungierten, das heißt  .

Weitere Matrizen, deren Inverse explizit angegeben werden kann, sind neben Diagonalmatrizen unter anderem Frobeniusmatrizen, Hilbertmatrizen und Tridiagonal-Toeplitz-Matrizen.

Inverse Abbildungen

Bearbeiten

Sind   und   zwei  -dimensionale Vektorräume über dem Körper  , dann wird die zu einer gegebenen bijektiven linearen Abbildung   zugehörige inverse Abbildung   durch

 

charakterisiert, wobei   die identische Abbildung darstellt. Ist nun   eine Basis für   und   eine Basis für  , dann gilt für die zugehörigen Abbildungsmatrizen   und   die Beziehung

 .

Die Abbildungsmatrix der inversen Abbildung ist demnach gerade die Inverse der Abbildungsmatrix der Ausgangsabbildung.

Duale Basen

Bearbeiten

Ist   ein endlichdimensionaler Vektorraum über dem Körper  , dann ist der zugehörige Dualraum   der Vektorraum der linearen Funktionale  . Ist   eine Basis für  , dann wird die zugehörige duale Basis   von   mit Hilfe des Kronecker-Deltas durch

 

für   charakterisiert. Ist nun   die Matrix bestehend aus den Koordinatenvektoren der Basisvektoren, dann ergibt sich die zugehörige duale Matrix   als

 .

Die Basismatrix der dualen Basis ist demnach gerade die Inverse der Basismatrix der primalen Basis.

Weitere Anwendungen

Bearbeiten

Inverse Matrizen werden in der linearen Algebra unter anderem auch verwendet:

Siehe auch

Bearbeiten
  • Pseudoinverse, eine Verallgemeinerung der Inversen auf singuläre und nichtquadratische Matrizen
  • Sherman-Morrison-Woodbury-Formel, eine Formel für die Inverse einer Rang-k-modifizierten Matrix
  • Diagonalisierung, die Umwandlung einer Matrix in Diagonalform durch eine Ähnlichkeitstransformation
  • Smith-Normalform, die Diagonalisierung einer Matrix mit Einträgen aus einem Hauptidealring

Literatur

Bearbeiten
Bearbeiten

Einzelnachweise

Bearbeiten
  1. G. W. Stewart: Matrix Algorithms. Volume 1: Basic Decompositions. SIAM, 1998, S. 38.
  2. Universität Leipzig: Lineare Gleichungssysteme und lineare Unterräume
  3. Stephen M. Watt, University of Western Ontario: Pivot-Free Block Matrix Inversion
  4. Iria C. S. Cosme, Isaac F. Fernandes, Joao L. de Carvalho, Samuel Xavier-de-Souza: Memory-Usage Advantageous Block Recursive Matrix Inverse