Die hypergeometrische Funktion mit Matrix-Argument ist eine Verallgemeinerung der verallgemeinerten hypergeometrischen Funktion auf ein Matrix-Argument . Sie taucht häufig in der multivariaten Statistik und in der Theorie der Zufallsmatrizen bei der Berechnung multivariater Integrale auf.
Eine Schwierigkeit beim Berechnen der Funktion besteht darin, dass man Jack-Polynome mit Parameter
α
{\displaystyle \alpha }
berechnen muss. Häufig interessiert man sich für den Fall
α
=
2
{\displaystyle \alpha =2}
, welches die zonalen Polynome sind. Dies sind orthogonale Polynome und multivariate Verallgemeinerungen der Monome . Außerdem sind sie Eigenfunktionen eines Differentialoperators und Jack-Polynome mit einer C-Normalisierung . Es gibt unterschiedliche Definitionen und Berechnungsmöglichkeiten.
Auch wenn es sich bei der hypergeometrischen Funktion mit Matrix-Argument eigentlich um eine verallgemeinerte hypergeometrische Funktion handelt, so verzichtet man in der Literatur in der Regel auf den Zusatz verallgemeinert .
Sei
κ
=
(
k
1
,
…
,
k
p
)
{\displaystyle \kappa =(k_{1},\dots ,k_{p})}
eine Partition einer Zahl
k
∈
N
0
{\displaystyle k\in \mathbb {N} _{0}}
, das heißt, es gilt
k
=
k
1
+
⋯
+
k
p
{\displaystyle k=k_{1}+\dots +k_{p}}
und
k
1
≥
⋯
≥
k
p
≥
0
{\displaystyle k_{1}\geq \cdots \geq k_{p}\geq 0}
wobei
k
1
,
…
,
k
p
∈
N
0
{\displaystyle k_{1},\dots ,k_{p}\in \mathbb {N} _{0}}
.
l
(
κ
)
{\displaystyle l(\kappa )}
die Länge der Partition
κ
{\displaystyle \kappa }
, das heißt die Anzahl Folgenglieder, welche verschieden von Null sind (das bedeutet
l
(
(
2
,
1
,
0
,
0
)
)
=
2
{\displaystyle l((2,1,0,0))=2}
),
(
a
)
κ
α
{\displaystyle (a)_{\kappa }^{\alpha }}
das verallgemeinertes Pochhammer-Symbol .
m
,
n
≥
0
{\displaystyle m,n\geq 0}
nicht-negative ganze Zahlen .
Seien
a
1
,
…
,
a
m
{\displaystyle a_{1},\dots ,a_{m}}
und
b
1
,
…
,
b
n
{\displaystyle b_{1},\dots ,b_{n}}
komplexe Zahlen und
S
{\displaystyle S}
eine komplexe symmetrische Matrix mit Dimension
r
×
r
{\displaystyle r\times r}
. Die hypergeometrische Funktion mit Matrix-Argument ist definiert als
m
F
n
(
α
)
(
a
1
,
…
,
a
m
;
b
1
,
…
,
b
n
;
S
)
=
∑
k
=
0
∞
∑
κ
⊢
k
(
a
1
)
κ
α
⋯
(
a
m
)
κ
α
(
b
1
)
κ
α
⋯
(
b
n
)
κ
α
C
κ
(
α
)
(
S
)
k
!
,
{\displaystyle {}_{m}F_{n}^{(\alpha )}(a_{1},\ldots ,a_{m};b_{1},\ldots ,b_{n};S)=\sum _{k=0}^{\infty }\sum _{\kappa \vdash k}{\frac {(a_{1})_{\kappa }^{\alpha }\cdots (a_{m})_{\kappa }^{\alpha }}{(b_{1})_{\kappa }^{\alpha }\cdots (b_{n})_{\kappa }^{\alpha }}}{\frac {C_{\kappa }^{(\alpha )}(S)}{k!}},}
wobei
κ
⊢
k
{\displaystyle \kappa \vdash k}
die Summation über alle Partitionen von
k
{\displaystyle k}
ist und
C
κ
(
α
)
(
S
)
{\displaystyle C_{\kappa }^{(\alpha )}(S)}
das Jack-Polynom zum Parameter
α
{\displaystyle \alpha }
von
S
{\displaystyle S}
für
κ
{\displaystyle \kappa }
ist.[1] [2]
m
F
n
(
α
)
(
a
1
,
…
,
a
m
;
b
1
,
…
,
b
n
;
S
)
{\displaystyle {}_{m}F_{n}^{(\alpha )}(a_{1},\ldots ,a_{m};b_{1},\ldots ,b_{n};S)}
ist Skalar-wertig.
In der Statistik und in der Stochastik interessiert man sich vor allem für den Fall
α
=
2
{\displaystyle \alpha =2}
, dann sind
C
κ
(
2
)
(
S
)
{\displaystyle C_{\kappa }^{(2)}(S)}
zonale Polynome respektive C-normalisierte Jack-Polynome .
Zweifaches Matrix-Argument
Bearbeiten
Analog definiert man die hypergeometrische Funktion für zwei symmetrische Matrizen
S
{\displaystyle S}
und
T
{\displaystyle T}
mit Dimension
r
×
r
{\displaystyle r\times r}
m
F
n
(
α
)
(
a
1
,
…
,
a
m
;
b
1
,
…
,
b
n
;
S
,
T
)
=
∑
k
=
0
∞
∑
κ
⊢
k
(
a
1
)
κ
α
⋯
(
a
m
)
κ
α
(
b
1
)
κ
α
⋯
(
b
n
)
κ
α
1
k
!
C
κ
(
α
)
(
S
)
C
κ
(
α
)
(
T
)
C
κ
(
α
)
(
I
)
,
{\displaystyle {}_{m}F_{n}^{(\alpha )}(a_{1},\ldots ,a_{m};b_{1},\ldots ,b_{n};S,T)=\sum _{k=0}^{\infty }\sum _{\kappa \vdash k}{\frac {(a_{1})_{\kappa }^{\alpha }\cdots (a_{m})_{\kappa }^{\alpha }}{(b_{1})_{\kappa }^{\alpha }\cdots (b_{n})_{\kappa }^{\alpha }}}{\frac {1}{k!}}{\frac {C_{\kappa }^{(\alpha )}(S)C_{\kappa }^{(\alpha )}(T)}{C_{\kappa }^{(\alpha )}(I)}},}
wobei
I
{\displaystyle I}
die Identitätsmatrix der Dimension
r
×
r
{\displaystyle r\times r}
ist.
Sei
X
{\displaystyle X}
eine
r
×
r
{\displaystyle r\times r}
symmetrische Matrix mit Eigenwerten
y
1
,
…
,
y
r
{\displaystyle y_{1},\dots ,y_{r}}
und
κ
=
(
k
1
,
…
,
k
r
)
{\displaystyle \kappa =(k_{1},\dots ,k_{r})}
eine Partition von
k
{\displaystyle k}
, welche nicht aus mehr als
r
{\displaystyle r}
Teilen besteht. Die zonalen Polynome
C
κ
(
2
)
(
X
)
{\displaystyle C_{\kappa }^{(2)}(X)}
sind die Eigenfunktionen des Differentialoperators
Δ
X
=
∑
i
=
1
r
y
i
2
∂
2
∂
y
i
2
+
∑
i
=
1
r
∑
j
=
1
i
≠
j
r
y
i
2
y
i
−
y
j
∂
∂
y
i
,
{\displaystyle \Delta _{X}=\sum \limits _{i=1}^{r}y_{i}^{2}{\frac {\partial ^{2}}{\partial y_{i}^{2}}}+\sum \limits _{i=1}^{r}\sum \limits _{\begin{array}{c}j=1\\i\neq j\end{array}}^{r}{\frac {y_{i}^{2}}{y_{i}-y_{j}}}{\frac {\partial }{\partial y_{i}}},}
das heißt sie erfüllen die partielle Differentialgleichung
Δ
X
C
κ
(
2
)
(
X
)
=
α
C
κ
(
2
)
(
X
)
{\displaystyle \Delta _{X}C_{\kappa }^{(2)}(X)=\alpha C_{\kappa }^{(2)}(X)}
mit
α
=
∑
i
=
1
r
k
i
(
k
i
−
i
)
+
k
(
r
−
1
)
.
{\displaystyle \alpha =\sum \limits _{i=1}^{r}k_{i}(k_{i}-i)+k(r-1).}
[3]
Arjun K. Gupta, D. K. Nagar: Matrix variate distributions . Chapman & Hall /CRC, 2000, ISBN 1-58488-046-5 (englisch).
Robb J. Muirhead: Aspects of Multivariate Statistical Theory . Hrsg.: Wiley, Deutschland. 2009, S. 258 .
↑ Robb J. Muirhead: Aspects of Multivariate Statistical Theory . Hrsg.: Wiley, Deutschland. 2009, S. 258 .
↑ Ioana Dumitriu , Alan Edelman und Gene Shuman: MOPS: Multivariate orthogonal polynomials (symbolically) . In: Journal of Symbolic Computation . Band 42 , Nr. 6 , 2007, S. 603 , doi :10.1016/j.jsc.2007.01.005 .
↑ Robb J. Muirhead: Aspects of Multivariate Statistical Theory . Hrsg.: Wiley, Deutschland. 2009, S. 228 .