Transponierte Matrix

(Weitergeleitet von Transponierung)
Animation zur Transponierung einer Matrix

Die transponierte Matrix, gespiegelte Matrix oder gestürzte Matrix ist in der Mathematik diejenige Matrix, die durch Vertauschen der Rollen von Zeilen und Spalten einer gegebenen Matrix entsteht. Die erste Zeile der transponierten Matrix entspricht der ersten Spalte der Ausgangsmatrix, die zweite Zeile der zweiten Spalte und so weiter. Anschaulich entsteht die transponierte Matrix durch Spiegelung der Ausgangsmatrix an ihrer Hauptdiagonale. Die Umwandlung einer Matrix in ihre transponierte Matrix wird Transponierung, Transposition oder Stürzen der Matrix genannt.

Die Transpositionsabbildung, die einer Matrix ihre Transponierte zuordnet, ist stets bijektiv, linear und selbstinvers. Bezüglich der Matrizenaddition stellt sie einen Isomorphismus dar, bezüglich der Matrizenmultiplikation hingegen einen Antiisomorphismus, das heißt, die Reihenfolge bei der Multiplikation von Matrizen kehrt sich nach Transponierung um. Viele Kenngrößen von Matrizen, wie Spur, Rang, Determinante und Eigenwerte, bleiben unter Transponierung erhalten.

In der linearen Algebra wird die transponierte Matrix unter anderem zur Charakterisierung spezieller Klassen von Matrizen eingesetzt. Die transponierte Matrix ist auch die Abbildungsmatrix der dualen Abbildung einer linearen Abbildung zwischen zwei endlichdimensionalen Vektorräumen bezüglich der jeweiligen Dualbasen. Weiterhin ist sie auch die Abbildungsmatrix der adjungierten Abbildung zwischen zwei endlichdimensionalen reellen Skalarprodukträumen bezüglich der jeweiligen Orthonormalbasen. Das Konzept der Transponierung einer Matrix wurde im Jahr 1858 von dem britischen Mathematiker Arthur Cayley eingeführt.

DefinitionBearbeiten

Ist   ein Körper (in der Praxis meist die reellen oder komplexen Zahlen), dann ist die zu einer gegebenen Matrix

 

transponierte Matrix definiert als

 .

Die transponierte Matrix   ergibt sich also dadurch, dass die Rollen von Zeilen und Spalten der Ausgangsmatrix   vertauscht werden. Anschaulich entsteht die transponierte Matrix durch Spiegelung der Ausgangsmatrix an ihrer Hauptdiagonale   mit  . Gelegentlich wird die transponierte Matrix auch durch  ,   oder   notiert.

BeispieleBearbeiten

Durch Transponierung einer  -Matrix (eines Zeilenvektors) entsteht eine  -Matrix (ein Spaltenvektor) und umgekehrt:

 

Eine quadratische Matrix behält durch Transponierung ihre Größe, jedoch werden alle Einträge an der Hauptdiagonale gespiegelt:

 

Durch Transponierung einer  -Matrix entsteht eine  -Matrix, bei der die erste Zeile der ersten Spalte der Ausgangsmatrix und die zweite Zeile der zweiten Spalte der Ausgangsmatrix entspricht:

 

EigenschaftenBearbeiten

SummeBearbeiten

Für die Transponierte der Summe zweier Matrizen   gleicher Größe gilt

 .

Allgemein ergibt sich die Summe von   Matrizen   gleicher Größe zu

 .

Die Transponierte einer Summe von Matrizen ist demnach gleich der Summe der Transponierten.

SkalarmultiplikationBearbeiten

Für die Transponierte des Produkts einer Matrix   mit einem Skalar   gilt

 .

Die Transponierte des Produkts einer Matrix mit einem Skalar ist also gleich dem Produkt des Skalars mit der transponierten Matrix.

Zweifache TranspositionBearbeiten

Für die Transponierte der Transponierten einer Matrix   gilt

 .

Durch zweifache Transposition ergibt sich demnach stets wieder die Ausgangsmatrix.

ProduktBearbeiten

Für die Transponierte des Produkts einer Matrix   mit einer Matrix   gilt

 .

Allgemein ergibt sich für das Produkt von   Matrizen   passender Größe

 .

Die Transponierte eines Produkts von Matrizen ist demnach gleich dem Produkt der Transponierten, jedoch in umgekehrter Reihenfolge.

InverseBearbeiten

Die Transponierte einer regulären Matrix   ist ebenfalls regulär. Für die Transponierte der Inversen einer regulären Matrix gilt dabei

 ,

denn mit der Einheitsmatrix   ergibt sich

 

und daher ist   die inverse Matrix zu  . Die Transponierte der inversen Matrix ist demnach gleich der Inversen der transponierten Matrix. Diese Matrix wird gelegentlich auch mit   bezeichnet.[1]

Exponential und LogarithmusBearbeiten

Für das Matrixexponential der Transponierten einer reellen oder komplexen quadratischen Matrix   gilt

 .

Entsprechend gilt für den Matrixlogarithmus der Transponierten einer regulären reellen oder komplexen Matrix

 .

TranspositionsabbildungBearbeiten

Die Abbildung

 ,

die einer Matrix ihre Transponierte zuordnet, wird Transpositionsabbildung genannt. Aufgrund der vorstehenden Gesetzmäßigkeiten besitzt die Transpositionsabbildung die folgenden Eigenschaften:

BlockmatrizenBearbeiten

Die Transponierte einer Blockmatrix mit   Zeilen- und   Spaltenpartitionen ist durch

 

gegeben. Sie entsteht durch Spiegelung aller Blöcke an der Hauptdiagonale und nachfolgende Transposition jedes Blocks.

KenngrößenBearbeiten

RangBearbeiten

Für eine Matrix   ist der Rang der transponierten Matrix gleich dem der Ausgangsmatrix, das heißt

 .

Das Bild der Abbildung   wird dabei von den Spaltenvektoren von   aufgespannt, während das Bild der Abbildung   von den Zeilenvektoren von   aufgespannt wird. Die Dimensionen dieser beiden Bilder stimmen dabei stets überein.

SpurBearbeiten

Für eine quadratische Matrix   ist die Spur (die Summe der Hauptdiagonalelemente) der transponierten Matrix gleich der Spur der Ausgangsmatrix, das heißt

 ,

denn die Diagonalelemente der transponierten Matrix stimmen mit denen der Ausgangsmatrix überein.

DeterminanteBearbeiten

Für eine quadratische Matrix   ist die Determinante der transponierten Matrix gleich der Determinante der Ausgangsmatrix, das heißt

 .

Dies folgt aus der Leibniz-Formel für Determinanten über

 ,

wobei die Summe über alle Permutationen der symmetrischen Gruppe   läuft und   das Vorzeichen der Permutation   bezeichnet.

SpektrumBearbeiten

Für eine quadratische Matrix   ist aufgrund der Invarianz der Determinante unter Transposition auch das charakteristische Polynom der transponierten Matrix mit dem der Ausgangsmatrix identisch, denn

 .

Daher stimmen auch die Eigenwerte der transponierten Matrix mit denen der Ausgangsmatrix überein, das heißt, für die jeweiligen Spektren gilt

 .

Die Eigenvektoren und Eigenräume müssen jedoch nicht übereinstimmen.

ÄhnlichkeitBearbeiten

Jede quadratische Matrix   ist ähnlich ihrer Transponierten, das heißt, es gibt eine reguläre Matrix  , sodass

 

gilt. Die Matrix   kann dabei sogar symmetrisch gewählt werden.[3] Daraus folgt unter anderem, dass eine quadratische Matrix und ihre Transponierte das gleiche Minimalpolynom und, sofern ihr charakteristisches Polynom vollständig in Linearfaktoren zerfällt, auch die gleiche jordansche Normalform haben.

NormenBearbeiten

Die euklidische Norm eines reellen Vektors   ist durch

 

gegeben. Für die Frobeniusnorm und die Spektralnorm der Transponierten einer reellen oder komplexen Matrix   gilt

    und    .

Die Zeilensummen- und die Spaltensummennorm der Transponierten und der Ausgangsmatrix stehen folgendermaßen in Beziehung:

    und    .

SkalarprodukteBearbeiten

Das Standardskalarprodukt   zweier reeller Vektoren   ist durch

 

gegeben. Bezüglich des Standardskalarprodukts weisen eine reelle Matrix   und ihre Transponierte die Verschiebungseigenschaft

 

für alle Vektoren   und   auf. Hierbei steht auf der linken Seite das Standardskalarprodukt im   und auf der rechten Seite das Standardskalarprodukt im  . Für das Frobenius-Skalarprodukt zweier Matrizen   gilt

 ,

da Matrizen unter der Spur zyklisch vertauschbar sind.

VerwendungBearbeiten

Spezielle MatrizenBearbeiten

Die transponierte Matrix wird in der linearen Algebra in einer Reihe von Definitionen verwendet:

  • Eine symmetrische Matrix ist eine quadratische Matrix, die gleich ihrer Transponierten ist, das heißt  .
  • Eine schiefsymmetrische Matrix ist eine quadratische Matrix, die gleich dem Negativen ihrer Transponierten ist, das heißt  .
  • Eine hermitesche Matrix ist eine komplexe quadratische Matrix, deren Transponierte gleich ihrer Konjugierten ist, das heißt  .
  • Eine schiefhermitesche Matrix ist eine komplexe quadratische Matrix, deren Transponierte gleich dem Negativen ihrer Konjugierten ist, das heißt  .
  • Eine orthogonale Matrix ist eine quadratische Matrix, deren Transponierte gleich ihrer Inversen ist, das heißt  .
  • Eine (reelle) normale Matrix ist eine reelle quadratische Matrix, die mit ihrer Transponierten kommutiert, das heißt  .
  • Für eine beliebige reelle Matrix sind die beiden Gram-Matrizen   und   stets symmetrisch und positiv semidefinit.
  • Das dyadische Produkt zweier Vektoren   und   ergibt die Matrix  .

BilinearformenBearbeiten

Sind   und   endlichdimensionale Vektorräume über dem Körper  , dann lässt sich jede Bilinearform   nach Wahl einer Basis   für   und einer Basis   für   durch die Darstellungsmatrix

 

beschreiben. Sind dabei   und   die Koordinatenvektoren zweier Vektoren   und  , dann ergibt sich der Wert der Bilinearform als

 .

Sind nun   und   weitere Basen jeweils von   und  , dann gilt für die entsprechende Darstellungsmatrix

 ,

wobei   die Basiswechselmatrix in   und   die Basiswechselmatrix in   sind. Zwei quadratische Matrizen   sind daher genau dann zueinander kongruent, es gilt also

 

mit einer regulären Matrix  , wenn sie die gleiche Bilinearform   bezüglich gegebenenfalls unterschiedlicher Basen darstellen.

Duale AbbildungenBearbeiten

Sind wieder   und   endlichdimensionale Vektorräume über dem Körper   mit zugehörigen Dualräumen   und  , dann wird die zu einer gegebenen linearen Abbildung   zugehörige duale Abbildung   durch

 

für alle   charakterisiert. Ist nun   eine Basis für   und   eine Basis für   mit zugehörigen dualen Basen   und  , dann gilt für die Abbildungsmatrizen   von   und   von   die Beziehung

 .

Die Abbildungsmatrix der dualen Abbildung bezüglich der dualen Basen ist demnach gerade die Transponierte der Abbildungsmatrix der primalen Abbildung bezüglich der primalen Basen. In der Physik kommt dieses Konzept bei kovarianten und kontravarianten vektoriellen Größen zum Einsatz.

Adjungierte AbbildungenBearbeiten

Sind nun   und   endlichdimensionale reelle Skalarprodukträume, dann wird die zu einer gegebenen linearen Abbildung   zugehörige adjungierte Abbildung   durch die Beziehung

 

für alle   und   charakterisiert. Ist weiter   eine Orthonormalbasis von  ,   eine Orthonormalbasis von   und   die Abbildungsmatrix von   bezüglich dieser Basen, dann ist die Abbildungsmatrix   von   bezüglich dieser Basen gerade

 .

Bei reellen Matrizen ist demnach die zu einer gegebenen Matrix adjungierte Matrix gerade die transponierte Matrix, also  . In der Funktionalanalysis wird dieses Konzept auf adjungierte Operatoren zwischen unendlichdimensionalen Hilberträumen verallgemeinert.

PermutationenBearbeiten

Durch die transponierte Matrix werden auch spezielle Permutationen definiert. Werden in eine  -Matrix zeilenweise der Reihe nach die Zahlen von   bis   geschrieben und dann spaltenweise wieder abgelesen (was genau einer Transponierung der Matrix entspricht), ergibt sich eine Permutation   dieser Zahlen, die durch

 

für   und   angegeben werden kann. Die Anzahl der Fehlstände und damit auch das Vorzeichen von   lassen sich explizit durch

    und    

bestimmen. In der Zahlentheorie werden diese Permutationen beispielsweise im Lemma von Zolotareff zum Beweis des quadratischen Reziprozitätsgesetzes verwendet.[4]

VerallgemeinerungenBearbeiten

Allgemeiner können auch Matrizen mit Einträgen aus einem Ring (gegebenenfalls mit Eins) betrachtet werden, wobei ein Großteil der Eigenschaften transponierter Matrizen erhalten bleibt. In beliebigen Ringen muss jedoch der Spaltenrang einer Matrix nicht mit ihrem Zeilenrang übereinstimmen. Die Produktformel und die Determinantendarstellung gelten auch nur in kommutativen Ringen.

Siehe auchBearbeiten

LiteraturBearbeiten

Originalarbeit

  • Arthur Cayley: A memoir on the theory of matrices. In: Philosophical Transactions of the Royal Society of London. Band 148, 1858, S. 17–37 (Online).

EinzelnachweiseBearbeiten

  1. Christian Voigt, Jürgen Adamy: Formelsammlung der Matrizenrechnung. Oldenbourg Verlag, 2007, S. 9.
  2. Eberhard Oeljeklaus, Reinhold Remmert: Lineare Algebra I. Springer, 2013, S. 153.
  3. O. Taussky, H. Zassenhaus: On the similarity transformation of matrix and its transpose. In: Pacific J. Math. Band 9, 1959, S. 893–896.
  4. Franz Lemmermeyer: Reciprocity Laws: From Euler to Eisenstein. Springer, 2000, S. 32.

WeblinksBearbeiten