Hauptmenü öffnen

Orthogonale Matrix

Bezeichnung in der linearen Algebra
Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten. Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten.
Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten.

Eine orthogonale Matrix ist in der linearen Algebra eine quadratische, reelle Matrix, deren Zeilen- und Spaltenvektoren orthonormal bezüglich des Standardskalarprodukts sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre Transponierte.

Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Kombinationen daraus, dar. Jede orthogonale Abbildung zwischen zwei endlichdimensionalen Skalarprodukträumen kann nach Wahl je einer Orthonormalbasis durch eine orthogonale Matrix dargestellt werden. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe.

Orthogonale Matrizen werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt. Der analoge Begriff bei komplexen Matrizen ist die unitäre Matrix.

Inhaltsverzeichnis

DefinitionBearbeiten

Eine reelle quadratische Matrix   heißt orthogonal, wenn das Produkt mit ihrer transponierten Matrix   die Einheitsmatrix   ergibt, also

 

gilt. Werden die Spaltenvektoren der Matrix   mit   bezeichnet, dann ist diese Bedingung gleichbedeutend damit, dass das Standardskalarprodukt zweier Spaltenvektoren

 

ergibt, wobei   das Kronecker-Delta ist. Die Spaltenvektoren einer orthogonalen Matrix bilden damit eine Orthonormalbasis des Koordinatenraums  . Dies trifft auch für die Zeilenvektoren einer orthogonalen Matrix zu, denn mit   ist auch   orthogonal, das heißt

 .

Auch wenn die Bezeichnung „orthogonale Matrix“ so verstanden werden könnte, reicht es nicht aus, wenn die Zeilen- oder Spaltenvektoren lediglich paarweise orthogonal sind; sie müssen zusätzlich normiert sein, also die Länge eins aufweisen.

BeispieleBearbeiten

Konkrete BeispieleBearbeiten

  • Die Matrix
 : 
ist orthogonal, denn es gilt
 : .
  • Auch die Matrix
 : 
ist orthogonal, denn es gilt
 : .

Allgemeine BeispieleBearbeiten

  • Permutationsmatrizen, also Matrizen, bei denen genau ein Eintrag pro Zeile und Spalte gleich eins ist und alle anderen Einträge null sind, sind orthogonal. Bezeichnet   die zu einer Permutation   zugehörige Permutationsmatrix, dann gilt
 : ,
denn die transponierte Permutationsmatrix ist gleich der Permutationsmatrix der inversen Permutation, die alle Vertauschungen rückgängig macht, und das Produkt von Permutationsmatrizen entspricht der Hintereinanderausführung der Permutationen. Die vorzeichenbehafteten Permutationsmatrizen, bei denen in jeder Zeile und Spalte genau ein Eintrag plus oder minus eins ist und alle übrigen Einträge null sind, sind genau die ganzzahligen orthogonalen Matrizen.
 : 
die Drehmatrix einer Drehung um einen Winkel  , die den Ursprung festlässt, dann gilt mit dem „trigonometrischen Pythagoras
 : .
Allgemeiner sind auch Drehmatrizen, die eine Drehung in einer beliebigen Ursprungsebene im  -dimensionalen Raum beschreiben, orthogonal.
 : 
die Spiegelungsmatrix einer Spiegelung an einer Ursprungsgerade mit Einheits-Normalenvektor  , dann gilt
 : ,
denn Spiegelungsmatrizen sind nach Definition symmetrisch und für einen Einheitsvektor gilt  . Allgemeiner sind auch Matrizen, die Spiegelungen an einem beliebigen Untervektorraum im  -dimensionalen Raum (beispielsweise einer Hyperebene) beschreiben, orthogonal.

EigenschaftenBearbeiten

InverseBearbeiten

Eine orthogonale Matrix   ist aufgrund der linearen Unabhängigkeit ihrer Zeilen- und Spaltenvektoren stets regulär. Die Inverse einer orthogonalen Matrix ist dabei gleich ihrer Transponierten, das heißt, es gilt

 .

Die Inverse einer Matrix   ist nämlich gerade diejenige Matrix  , für die

 

gilt. Aus der zweiten Gleichung folgt weiterhin, dass die Transponierte einer orthogonalen Matrix orthogonal ist. Es gilt auch die Umkehrung und jede Matrix  , deren Transponierte gleich ihrer Inversen ist, ist orthogonal, denn es gilt dann

 .

Längen- und WinkeltreueBearbeiten

Wird ein Vektor   mit einer orthogonalen Matrix   multipliziert, ändert sich die Länge (euklidische Norm) des Vektors nicht, das heißt

 .

Weiter ist das Standardskalarprodukt zweier Vektoren   invariant bezüglich der Multiplikation mit einer orthogonalen Matrix  , also

 .

Damit bleibt auch der Winkel zwischen den beiden Vektoren erhalten. Beide Eigenschaften folgen direkt aus der Verschiebungseigenschaft des Standardskalarprodukts. Aufgrund dieser Längen- und Winkeltreue stellt die lineare Abbildung

 

eine Kongruenzabbildung im euklidischen Raum dar. Umgekehrt ist die Abbildungsmatrix bezüglich der Standardbasis jeder winkeltreuen linearen Abbildung im euklidischen Raum orthogonal. Aufgrund der Polarisationsformel ist auch jede längentreue Abbildung winkeltreu.

DeterminanteBearbeiten

Für den Betrag der Determinante einer orthogonalen Matrix   gilt

 ,

was mit Hilfe des Determinantenproduktsatzes über

 

folgt. Damit kann die Determinante einer orthogonalen Matrix nur die Werte eins oder minus eins annehmen. Es gibt allerdings auch nicht-orthogonale Matrizen, deren Determinante plus oder minus eins ist, zum Beispiel unimodulare Matrizen. Orthogonale Matrizen, deren Determinante eins ist, entsprechen Drehungen. Man spricht dann auch von einer eigentlich orthogonalen Matrix. Orthogonale Matrizen, deren Determinante minus eins ist, stellen Drehspiegelungen dar. Man spricht dann auch von einer uneigentlich orthogonalen Matrix.

EigenwerteBearbeiten

Die Eigenwerte einer orthogonalen Matrix   sind nicht notwendigerweise alle reell. Sie haben jedoch den komplexen Betrag eins, sind also von der Form

 

mit  . Ist nämlich   ein zu   gehöriger Eigenvektor, dann gilt aufgrund der Längentreue und der absoluten Homogenität einer Norm

 

und daher  . Eine orthogonale Matrix besitzt demnach höchstens die reellen Eigenwerte  . Die komplexen Eigenwerte treten immer paarweise komplex konjugiert auf, das heißt mit   ist auch   ein Eigenwert, denn

 .

Demnach besitzt eine orthogonale Matrix ungerader Dimension   mindestens einen reellen Eigenwert (siehe auch den Satz vom Fußball).

DiagonalisierbarkeitBearbeiten

Eine orthogonale Matrix   ist normal, das heißt, es gilt

 ,

und damit über den komplexen Zahlen unitär diagonalisierbar. Nach dem Spektralsatz gibt es nämlich eine unitäre Matrix  , sodass

 

gilt, wobei   eine Diagonalmatrix mit den Eigenwerten von   ist. Die Spaltenvektoren von   sind dann paarweise orthonormale Eigenvektoren von  . Damit sind auch die Eigenräume einer orthogonalen Matrix paarweise orthogonal.

Im Allgemeinen ist eine orthogonale Matrix   jedoch nicht reell diagonalisierbar. Es existiert allerdings eine orthogonale Matrix  , sodass

 

eine Blockdiagonalmatrix ergibt, bei der die einzelnen Blöcke entweder Drehmatrizen der Größe   sind oder aus der Zahl   oder   bestehen. Diese Darstellung wird auch Normalform einer orthogonalen Matrix genannt.

NormenBearbeiten

Die Spektralnorm einer orthogonalen Matrix   ist

 .

Für die Frobeniusnorm gilt mit dem Frobenius-Skalarprodukt entsprechend

 .

Das Produkt mit einer orthogonalen Matrix erhält sowohl die Spektralnorm, als auch die Frobeniusnorm einer gegebenen Matrix  , denn es gilt

 

und

 .

Damit bleibt auch die Kondition einer Matrix bezüglich dieser Normen nach Multiplikation mit einer orthogonalen Matrix erhalten.

Orthogonale Matrizen als GruppeBearbeiten

Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine Gruppe, die allgemeine lineare Gruppe  . Als neutrales Element dient dabei die Einheitsmatrix  . Die orthogonalen Matrizen bilden eine Untergruppe der allgemeinen linearen Gruppe, die orthogonale Gruppe  . Das Produkt zweier orthogonaler Matrizen   ist nämlich wieder orthogonal, denn es gilt

 .

Weiter ist die Inverse einer orthogonalen Matrix   ebenfalls orthogonal, denn es gilt

 .

Die orthogonalen Matrizen mit Determinante eins, also die Drehmatrizen, bilden wiederum eine Untergruppe der orthogonalen Gruppe, die Drehgruppe (oder spezielle orthogonale Gruppe)  . Dabei handelt es sich um eine Lie-Gruppe, d. h. die Gruppenoperationen sind verträglich mit dem Differenzieren in der Gruppe, und Elemente von   lassen sich als Exponentiale von Matrizen aus der zugehörigen Lie-Algebra darstellen. Die orthogonalen Matrizen mit Determinante minus eins, also die Drehspiegelungen, bilden keine Untergruppe der orthogonalen Gruppe, sondern lediglich eine Nebenklasse, denn ihnen fehlt das neutrale Element.

VerwendungBearbeiten

Lineare GleichungssystemeBearbeiten

Die Lösung linearer Gleichungssysteme der Form

 

mit einer orthogonalen Matrix   und einer rechten Seite   lässt sich numerisch effizient durch

 

berechnen. Die Ermittlung der Lösung   erfordert also lediglich eine Matrix-Vektor-Multiplikation, die mit einem Aufwand der Ordnung   durchgeführt werden kann. Im Vergleich dazu benötigt die Lösung allgemeiner linearer Gleichungssysteme beispielsweise mit Hilfe der Gauß-Elimination einen Aufwand  . Dieser Vorteil wird beispielsweise bei der (reellen) diskreten Fourier-Transformation und der diskreten Kosinus-Transformation genutzt.

MatrixzerlegungenBearbeiten

Eine weitere Anwendung orthogonaler Matrizen ist die QR-Zerlegung einer gegebenen Matrix   als Produkt

 

einer orthogonalen Matrix   und einer oberen Dreiecksmatrix  . Die Konstruktion der Matrix   kann dabei mit Givens-Rotationen, die Drehungen entsprechen, oder Householdertransformationen, die Spiegelungen entsprechen, durchgeführt werden. QR-Zerlegungen werden in der Numerik bei der Lösung schlecht konditionierter, überbestimmter oder unterbestimmter linearer Gleichungssysteme eingesetzt. Ein weiteres Anwendungsfeld besteht in der Berechnung von Eigenwertproblemen mit dem QR-Algorithmus.

Mit Hilfe der Singulärwertzerlegung lässt sich jede reelle Matrix   auch als Produkt

 

einer orthogonalen Matrix  , einer Diagonalmatrix   und der Transponierten einer weiteren orthogonalen Matrix   darstellen. Die Diagonaleinträge der Matrix   sind dann die Singulärwerte von  . Die Singulärwertzerlegung wird beispielsweise in der Geometrie bei der Hauptachsentransformation von Quadriken und in der Statistik bei der Hauptkomponentenanalyse multivariater Datensätze eingesetzt.

Eine quadratische Matrix   kann mittels der Polarzerlegung auch als Produkt

 

einer orthogonalen Matrix   und einer positiv semidefiniten symmetrischen Matrix   faktorisiert werden.

Orthogonale AbbildungenBearbeiten

Ist   ein  -dimensionaler reeller Skalarproduktraum, dann lässt sich jede lineare Abbildung   nach Wahl einer Orthonormalbasis   für   durch die Abbildungsmatrix

 

darstellen, wobei   für   ist. Die Abbildungsmatrix   ist nun genau dann orthogonal, wenn   eine orthogonale Abbildung ist. Dies folgt aus

 ,

wobei   und   sind.

Siehe auchBearbeiten

LiteraturBearbeiten

WeblinksBearbeiten