Stationärer stochastischer Prozess

spezieller stochastischer Prozess
(Weitergeleitet von Stationär im weiteren Sinn)

Ein stationärer stochastischer Prozess ist ein stochastischer Prozess mit speziellen Eigenschaften und damit Untersuchungsobjekt der Wahrscheinlichkeitstheorie. Man unterscheidet stochastische Prozesse,

  • die stationär im engeren Sinn (auch strikt, streng oder stark stationär) sind, und solche,
  • die stationär im weiteren Sinn (auch schwach stationär) sind.

Bei beiden Typen von Prozessen besitzen die endlichdimensionalen Verteilungen des Prozesses bestimmte zeitunabhängige Eigenschaften. Diese beziehen sich bei der Stationarität im engeren Sinn auf die gesamte Verteilungsgestalt und bei der Stationarität im weiteren Sinn nur auf die ersten beiden Momente der endlichdimensionalen Verteilungen. Für Gauß-Prozesse, deren sämtliche endlichdimensionalen Verteilungen multivariate Normalverteilungen sind, fallen die beiden Konzepte zusammen.

Definition

Bearbeiten
 
Zeitreihe von Residuen, für dessen zugrundeliegenden Prozess durch eine Dickey-Fuller-Test die Hypothese der Stationarität abgelehnt wird.

Im Folgenden bezeichnet   einen reellwertigen stochastischen Prozess mit Indexmenge  . Dabei ist   häufig die Menge der ganzen, der natürlichen oder der reellen Zahlen. Häufig ist   ein Zeitindex und   eine Menge von Zeitpunkten.

Stationarität im engeren Sinn

Bearbeiten

Ein stochastischer Prozess   mit   heißt stationär im engeren Sinn (auch strikt, streng oder stark stationär), falls alle endlichdimensionalen Verteilungen translationsinvariant sind, d. h. für beliebige  , beliebige Stellen (Zeitpunkte)   und alle Verschiebungen   mit   gilt, dass die Zufallsvektoren (die endlichen Teilfamilien)   und   dieselbe Wahrscheinlichkeitsverteilung haben.[1]

Stationarität im weiteren Sinn

Bearbeiten

Ein stochastischer Prozess   heißt stationär im weiteren Sinn[1] oder schwach stationär, wenn

  1. die Varianzen aller Zufallsvariablen endlich sind, d. h. für alle   gilt  ,
  2. die Erwartungswertfunktion konstant ist, d. h. für alle   gilt  ,
  3. die Kovarianzfunktion translationsinvariant ist, d. h. für alle   und alle Verschiebungen   mit   gilt
 .

Dabei bezeichnen   und   den Erwartungswert und die Varianz einer Zufallsvariablen   und   bezeichnet die Kovarianz der Zufallsvariablen   und  .

Anmerkungen

Bearbeiten
  • Die Kovarianzfunktion wird auch als Autokovarianzfunktion bezeichnet.
  • Mit einem stationären Prozess ohne zusätzliche Spezifikation kann je nach inhaltlichem Kontext und Autor ein im engeren Sinn stationärer Prozess[2] oder ein im weiteren Sinn stationärer Prozess[3] gemeint sein.
  • Die beiden Konzepte der Stationarität können formal analog für allgemeinere Indexmengen   definiert werden, auf denen eine binäre Operation   erklärt ist.
  • Der Begriff der Kovarianzstationarität wird in der Literatur uneinheitlich verwendet. Meistens heißt ein Prozess kovarianzstationär, wenn die Kovarianzfunktion translationsinvariant ist, aber die Erwartungswertfunktion nicht notwendig konstant ist.[4] Bei einigen Autoren wird kovarianzstationär synonym mit stationär im weiteren Sinn verwendet, so dass die Konstanz der Erwartungswertfunktion impliziert ist.[5]

Eigenschaften

Bearbeiten
  • Ein stochastischer Prozess, dessen Zufallsvariablen insgesamt stochastisch unabhängig und identisch verteilt sind, ist stationär im engeren Sinn. Wegen der stochastischen Unabhängigkeit existieren die höherdimensionalen Verteilungen in elementarer Form, nämlich als Produktverteilungen der eindimensionalen Verteilungen, also z. B.
 
für die zweidimensionalen Verteilungen, wobei   die Verteilungsfunktion jeder eindimensionalen Verteilung ist. Also sind alle zweidimensionalen Verteilungen zeitunabhängig. Für drei voneinander verschiedene Zeitpunkte   und   gilt
 ,
so dass auch die dreidimensionalen Verteilungen zeitunabhängig sind. Analoges gilt für alle endlichdimensionalen Verteilungen, so dass die Stationarität im engeren Sinn folgt.
  • Ein stochastischer Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist stationär im weiteren Sinn.
  • Ein stochastischer Prozess der stationär im engeren Sinn ist, ist nicht notwendig auch stationär im weiteren Sinn. Dies hängt damit zusammen, dass eine im weiteren Sinn stationärer Prozess endliche Varianzen besitzen muss, was für einen im engeren Sinn stationären Prozess nicht gilt. Beispielsweise bildet eine Folge stochastisch uanbhängiger identisch Cauchy-verteilter Zufallsvariablen einen im engeren Sinn stationären stochastischen Prozess, der aber nicht im weiteren Sinn stationär ist, da eine Cauchy-verteilte Zufallsvariable keine endliche Varianz besitzt.
  • Ein stochastischer Prozess der stationär im weiteren Sinn ist, muss nicht notwendig stationär im engeren Sinn sein. Die Stationarität im engeren Sinn bezieht sich nur auf die ersten und zweiten Momente des Prozesses. Beispielsweise die dritten Momente oder andere Eigenschaften der Verteilung können sich im Zeitablauf ändern. Wenn eine Zufallsvariable   eine Gleichverteilung im Intervall   hat, dann gilt   und  .   sei eine Folge stochastisch unabhängiger Zufallsvariablen, wobei   für   standardnormalverteilt ist und für   eine Gleichverteilung auf   besitzt, dann ist dieser Prozess stationär im weiteren Sinn, aber nicht stationär im engeren Sinn.
  • Ein Gauß-Prozess ist genau dann stationär im engeren Sinn, wenn er stationär im weiteren Sinn ist. Dies rechtfertigt es, im Zusammenhang von Gauß-Prozessen nur von stationär zu sprechen.
  • Ein Gauß-Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist ein stationärer Gaußprozess, da für multivariate Normalverteilungen aus der Unkorreliertheit die stochastische Unabhängigkeit folgt.
  • Ein stochastischer Prozess identisch normalverteilter Zufallsvariablen, die paarweise unkorreliert sind, ist stationär im weiteren Sinn, aber nicht notwendig stationär im engeren Sinn und nicht notwendig ein Gauß-Prozess.

Interpretation der Stationarität im weiteren Sinn

Bearbeiten

Die erste Eigenschaft besagt, dass jede der Zufallsvariablen endliche Varianz hat und somit zu dem Hilbertraum   gehört. Hieraus folgt dann auch, dass der Erwartungswert   existiert und endlich ist. Mit der Konstanz der Erwartungswertfunktion kann man zu einem neuen Prozess   übergehen, für den dann   gilt. Dieser Prozess wird auch zentrierter Prozess genannt. Man kann also für viele Zwecke ohne Beschränkung der Allgemeinheit annehmen, ein stationärer stochastischer Prozess habe den Mittelwert 0. Die Zeitinvarianz der Kovarianzfunktion stellt eine Beziehung zwischen unterschiedlichen Zeitpunkten her und ist damit die bedeutendste Eigenschaft. Sie sagt aus, dass die Kovarianzen zwischen zwei Zeitpunkten nicht von den beiden Zeitpunkten, sondern nur von dem Abstand   der beiden Zeitpunkte zueinander abhängt. Die Bedingung kann auch so formuliert werden, dass   eine Funktion nur einer einzigen Variablen   ist.

Eine geometrische Interpretation des univariaten Falles greift auf den Hilbertraum   zurück, dessen Elemente die einzelnen Zufallsvariablen des Prozesses sind. Die geometrische Interpretation unterstützt das tiefere Verständnis des Begriffs der Stationarität. Es wird angenommen, dass die Erwartungswertfunktion konstant Null ist. Da   eine Norm in   ist, kann die Forderung   so verstanden werden, dass alle Prozessvariablen gleich lang sind, d. h. auf einer Kugel liegen.   sagt dann, obiger Interpretation folgend, dass für festes   alle   den gleichen Winkel einschließen. Erhöht man   um Eins, so wird immer um denselben Winkel weitergedreht. Die Konstanz der Erwartungswertfunktion bedeutet  , dass also der Winkel zwischen der Einheit und jeder Prozessvariablen konstant ist. Hier wird ein Breitengrad aus der Einheitskugel ausgeschnitten.

Beispiele

Bearbeiten

Anwendungen

Bearbeiten

Zeitreihenanalyse

Bearbeiten

Stationarität ist eine der bedeutendsten Eigenschaften stochastischer Prozesse in der Zeitreihenanalyse. Mit der Stationarität erhält man Eigenschaften, die nicht nur für einzelne Zeitpunkte gelten, sondern Invarianzen über die Zeit hinweg sind. Die Zeitreihe hat zu allen Zeitpunkten den gleichen Erwartungswert und die gleiche Varianz. Eine wichtige Klasse von nichtstationären Prozessen sind integrierte Prozesse.

In der Zeitreihenanalyse ist eine wichtige Fragestellung, eine nichtstationäre Zeitreihe so zu transformieren, dass die Stationärität für die transformierte Zeitreihe plausibel wird. Weit verbreitete Methoden sind hier die Bildung von Differenzen, das Umskalieren oder das Logarithmieren der Zeitreihe. Allgemeiner kann man versuchen, eine stationäre Zeitreihe zu erhalten, indem man ein geeignetes Trend-Saison-Modell verwendet.

Wahrscheinlichkeitstheorie

Bearbeiten

Stationäre stochastische Prozesse in diskreter Zeit, die als kanonische Prozesse gegeben sind, lassen sich als maßerhaltendes dynamisches System auffassen. Dazu definiert man den Shift-Operator   als

 .

Dann ist   und der Prozess entsteht durch iterierte Anwendung von  . Somit handelt es sich um ein dynamisches System, das aufgrund der Stationarität maßerhaltend ist. Darauf aufbauend lassen sich auch ergodische stochastische Prozesse definieren, für die wichtige Sätze der Ergodentheorie wie beispielsweise der individuelle Ergodensatz gelten und damit starke Gesetze der großen Zahlen für abhängige Folgen von Zufallsvariablen liefern.

Literatur

Bearbeiten

Fußnoten

Bearbeiten
  1. a b P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Stationärer Prozess, S. 368.
  2. Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 383.
  3. Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. 2. Auflage. Springer, New York 1991, ISBN 0-387-97429-6, S. 11, doi:10.1007/978-1-4419-0320-4.
  4. Gebhard Kirchgässner, Jürgen Wolters, Uwe Hassler: Introduction to Modern Times Series Analysis. 2. Auflage. Springer, Berlin / Heidelberg 2012, ISBN 978-3-642-33435-1, S. 14, doi:10.1007/978-3-642-33436-8.
  5. James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton 1994, ISBN 978-0-691-04289-3, S. 45.