Wishart-Verteilung

matrixvariate Entsprechung der ChiQuadrat Verteilung

Die Wishart-Verteilung ist eine Wahrscheinlichkeitsverteilung und zwar die matrixvariate Entsprechung der χ2-Verteilung. Sie wurde nach dem schottischen Statistiker John Wishart benannt.

Die Wishart-Verteilung spielt eine zentrale Rolle in der Theorie der Zufallsmatrizen und in der multivariaten Statistik.

Wishart Ensemble

Bearbeiten

In der Theorie der Zufallsmatrizen bezeichnet das Wishart Ensemble den Raum der Wishart-Matrizen. Analog zu Dysons  -Gaußschem Ensemble spricht man auch vom  -Wishart Ensemble für (reell) Wishart, komplex Wishart und Quaternion Wishart. Häufig verwendet man aber auch die technische Bezeichnung Laguerre, somit erhält man die  -Ensembles LOE, LUE und LSE, benannt nach der Invarianz des Maßes unter der entsprechenden kompakten Lie-Gruppen-Konjugation.

Definition

Bearbeiten

Formale Definition

Bearbeiten

Sei   eine  -Zufallsmatrix. Das Wahrscheinlichkeitsmaß[1]

 

wobei

 

definiert die zentrierte Wishart-Verteilung mit   Freiheitsgraden auf dem Raum der symmetrischen positiv definiten Matrizen ( ).

Mit   bezeichnet man die multivariate Gammafunktion:

 

Eine Zufallsmatrix   nennt man zentrierte Wishart-Matrix.

Im Fall   erhält man singuläre Wishart-Matrizen.[2]

Einleitung

Bearbeiten

Sei   eine  -dimensionale Zufallsmatrix, die der zentrierten matrixvariaten Normalverteilung   folgt. Dann ist

 

Wishart-verteilt. Das heißt, eine  -Wishart-Matrix besteht aus   sich nicht wiederholenden Elementen. Falls   spricht man von einer zentrierten Wishart-Matrix.

Wenn allerdings   nicht zentriert ist, d. h.  , dann spricht man von einer nicht-zentrierten Wishart-Matrix, geschrieben   (siehe Abschnitt Nicht-zentrierte Wishart-Verteilung). Explizite Formeln sind für diese Matrix in hoher Dimension äußerst kompliziert. Man kann jedoch die charakteristische Funktion angeben.[3]

Falls   einer komplexen matrixvariaten Normalverteilung folgt, dann ist   komplex Wishart-verteilt.

Eigenwertdichte

Bearbeiten

Sei   und   die geordneten Eigenwerte. Weiter sei   das normalisierte Haarsche Maß über der orthogonalen Gruppe   und  , dann ist die Eigenwertdichte[4]

 ,

wobei  .

Für das Integral über der orthogonalen Gruppe gibt es keine bekannte geschlossene Formel. Allerdings kann man mit Hilfe der Theorie der zonalen Polynome eine unendliche Reihenentwicklung für das Integral finden.

Für komplexe Wishart-Matrizen geht das Integral über die unitäre Gruppe  , welches man mittels dem Harish-Chandra-Itzykson-Zuber-Integral berechnen kann.

  wird auch als verallgemeinerte Varianz bezeichnet.

Nicht-zentrierte Wishart-Verteilung

Bearbeiten

Eine symmetrische positive  -Zufallsmatrix   folgt der nicht-zentrierten Wishart-Verteilung, geschrieben  , falls sie folgende Wahrscheinlichkeitsdichte besitzt:[5]

Für   gilt

 

wobei   die verallgemeinerte hypergeometrische Funktion mit Matrizen-Argument ist.

Wishart-Prozess

Bearbeiten

Der Wishart-Prozess bzw. dessen Eigenwertprozess ist das Analogon zu Dysons brownscher Bewegung für Kovarianzmatrizen. Sei   der Raum der semidefiniten reellen  -Matrizen,   und   eine  -Matrix-Brownsche-Bewegung. Weiter sei   und   sowie   ein Parameter. Der Wishart-Prozess ist die starke Lösung folgender stochastischen Differentialgleichung:[6]

 

Betrachtet man das Wishartsche unitäre Ensemble, so wird der Prozess auch häufig Laguerre-Prozess genannt.

Finanzmodelle mit multivariater wishartschen stochastischen Volatilität haben mehr Flexibilität als das klassische Black-Scholes-Modell.

Asymptotisches Spektralmaß

Bearbeiten

Für unendlich große Standard-Wishart-Matrizen (sowie auch für allgemeinere Formen) gilt für die Eigenwerte das Marchenko-Pastur-Gesetz.

Marchenko-Pastur-Gesetz

Bearbeiten

Sei   und   so dass  , dann konvergiert das empirische Spektralmaß von   auf   schwach nach[7]

 

Tracy-Widom-Gesetz

Bearbeiten

Der größte Eigenwert einer normalisierten Wishart-Matrix folgt dem Tracy-Widom-Gesetz.

Eigenschaften

Bearbeiten

Die Wishart-Verteilung hat folgende Eigenschaften:[8]

  1. Sei   und   eine  -Matrix mit Rang  , dann gilt  .
  2. Aus (1.) folgt somit  .
  3. Seien     unabhängige Wishart-Matrizen. Dann ist   (Reproduktivität).
  4. Sei  , dann  

Für nicht-zentralisierte Wishart-Matrizen gilt

  1. Seien   und   und unabhängig, dann ist   (Reproduktivität).

Herleitung

Bearbeiten

Seien   (standardnormalverteilte Zufallsvariablen). Summiert man die Quadrate der   erhält man eine Chi-Quadrat-verteilte Zufallsvariable mit   Freiheitsgraden:

 

Diese Summe lässt sich aber auch als das Produkt eines  -variaten Zufallsvektors mit seiner Transponierten auffassen:

 

wobei  .

Hat man nun   unabhängige Zufallsvektoren  , fasst man diese in einer  -Zufallsmatrix zusammen:

 .

Multipliziert man   mit ihrer Transponierten, erhält man eine (symmetrische)  -Zufallsmatrix, die der Wishart-Verteilung mit   Freiheitsgraden folgt:

 

mit  .

Erläuterungen

Bearbeiten

Betrachte   Observationen mit   Parametern  . Sei  , dann ist

 .

Das heißt, die Wishart-Matrix ist in diesem Beispiel die Summe aus zehn verschiedenen Matrizen.

Statistisches Beispiel

Bearbeiten

Seien   i.i.d.  -dimensionale Zufallsvektoren mit Verteilung  . Definiere die Schätzfunktionen für den Erwartungswert und die Varianz

 
 

Dann gilt

 

Erläuterung

Bearbeiten

Das heißt, die unnormalisierte Kovarianzmatrix der Zufallsstichprobe aus einer multivariaten Normalverteilung folgt der Wishart-Verteilung. Für den Maximum-Likelihood-Schätzer für die Kovarianzmatrix gilt:

 
Bearbeiten

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning. 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1, S. 63.
  2. Harald Uhlig: On Singular Wishart and Singular Multivariate Beta Distributions. In: The Annals of Statistics, Ann. Statist. Nr. 22, 1994, doi:10.1214/aos/1176325375.
  3. T. W. Anderson: The Non-Central Wishart Distribution and Certain Problems of Multivariate Statistics. In: The Annals of Statistics, Ann. Statist. Nr. 17, 1946, doi:10.1214/aoms/1177730882.
  4. Alan T. James: Distributions of Matrix Variates and Latent Roots Derived from Normal Samples. In: The Annals of Mathematical Statistics, Ann. Statist. Nr. 35, 1964, doi:10.1214/aoms/1177703550.
  5. A.K. Gupta, D.K. Nagar: Matrix Variate Distributions. Chapman & Hall/CRC, ISBN 1-58488-046-5, S. 113–114.
  6. Marie-France Bru: Wishart Processes. In: Journal of Theoretical Probability, Vol 4. Nr. 4, 1991, S. 725–751, doi:10.1007/bf01259552.
  7. Pavel Yaskov: A short proof of the Marchenko-Pastur theorem. In: arXiv. Abgerufen am 30. Mai 2021.
  8. Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning. 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1, S. 64.