Diskussion:Markow-Kette

Letzter Kommentar: vor 1 Jahr von INM in Abschnitt Unverständlich 1
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 14 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Archiv.


Unverständlich 1 Bearbeiten

Ich finde das Phänomen der Markov Kette hier sehr unanschaulich beschrieben. Beispiele wären gut, Praktische Anwendungen wären gut. Links und Literaturstellen fehlen Benutzer:rho(nicht signierter Beitrag von 62.104.205.64 (Diskussion) 21:33, 15. Dez. 2003 (CET))Beantworten

da geb ich dir recht. Insbesondere der redirect von Markov-Prozess zu Markov-Kette gefällt mir nicht. Wenn ich die Zeit dazu finde, werde ich einmal bei den stochastischen Prozessen aufräumen.--Benson.by 21:20, 18. Okt 2004 (CEST)

Also wer den Text versteht, der weiss sowieso schon, was Markow-Ketten sind. Ich habe jedenfalls nichts verstanden, auch wenn ich Dipl.Inf. bin. JMS (Diskussion) 14:08, 7. Mär. 2016 (CET)Beantworten

Es ist auch schlicht falsch (bzw. wird unvollständige Kenntnis als Gesamtbeschreibung dargestellt). "Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben." Nein. Das ist nicht das Ziel von Markov Ketten. Bei Markov Ketten geht es darum Veränderung zu simulieren (auf der Basis der Kenntnis vorheriger Veränderungen). Insbesondere geht es dabei nicht zwingend um zeitliche Veränderung. Zum Beispiel könnte man Markov Ketten aus einem Wörterbuch gewinnen und darauf aufbauend neue Wörter für eine Kunstsprache erzeugen. Zukunftsprognosen sind ein sehr spezieller Anwendungsfall. --2A02:810B:C940:13F4:C16F:8014:3738:F142 13:53, 11. Apr. 2018 (CEST)Beantworten

Viereinhalb Jahre später steht dieser Satz immer noch da. --INM (Diskussion) 06:45, 1. Jan. 2023 (CET)Beantworten

Anschauliches Beispiel Bearbeiten

EIn sehr anschauliches Bsp. wäre das Zählen von "Kopf" bei n-fachem Münzwurf. Vielleicht hat ja jemand die Zeit das Beispiel einzubauen und ein Diagramm zu malen ;-). MFG CK(nicht signierter Beitrag von 80.139.212.80 (Diskussion) 21:49, 27. Dez. 2005 (CET))Beantworten

MÜNZWURF: Der Zustandsraum S={0,1,2,...} beim Münzwurfbeispiel (zählen wie oft "Kopf" gefallen ist) ist nach oben offen und damit nicht endlich, ist hier aber unter dem Punkt "diskret, endlich" aufgeführt. Kann mir diese Überlegung jemand bestätigen, ich ändere dann den Eintrag --Dertagtraumtanz 10:15, 09. Sep. 2008 (CEST)Beantworten

Ich finde das Beispiel mit dem Münzwurf eher unpassend, da es doch etwas falsches suggeriert. Bei einem Münzwurf ist die Wahrscheinlichkeit für das zukünftige Ereignis (Kopf/Zahl) eben NICHT vom jetzigen Zustand abhängig, wie es aber üblicherweise bei Markov-Ketten der Fall ist. Wie seht ihr das? --Michael (nicht signierter Beitrag von 128.176.202.132 (Diskussion | Beiträge) 12:48, 29. Sep. 2009 (CEST)) Beantworten

ich denke, um was es geht, ist nicht das zukünftige Ereignis (Kopf o. Zahl), sondern der zustand (Anzahl Kopf). Der hängt dann vom vorherigen Zustand ab (9->9 oder 9->10). Aber wieso endlich?--141.3.192.210 13:28, 10. Mai 2010 (CEST)Beantworten
Ganz mies ist auch, dass zeitdiskrete Markhovketten mit stetigem Zufallsraum gar nicht definiert werden, damit ist der letzte Abschnitt völlig unsinnig. Eine Markhov-Kette mit diskreter Zeit ist eine Folge von Zufallsvariablen mit der Markhov-Eigenschaft. Siehe englische Seite. Hier steht das nirgends. -- 141.89.79.41 15:19, 6. Jan. 2011 (CET)Beantworten

Geht die Richtung der Übergangswahrscheinlichkeit nicht von i nach j? --Philipendula 18:18, 2. Mär 2005 (CET)

Ich würde Dir zustimmen. Stern !? 18:33, 2. Mär 2005 (CET)

Benennung Bearbeiten

Es sollte durchweg entweder Anfangsverteilung oder Startwahrscheinlichkeit heißen.(nicht signierter Beitrag von Ragdoll (Diskussion | Beiträge) 18:45, 5. Mär. 2005 (CET))Beantworten

Ein Markov-Prozess ist doch ein Stochastischer Prozess, welcher die Markov-Eigenschaft erfüllt. Dies könnte etwas deutlicher aus dem Artikel hervorgehen.
Eine Markov-Kette ist dagegen ein Markov-Prozess mit abzählbarem Zustandsraum.
Die Unterscheidung zwischen "diskreter" bzw. "stetiger Zeit" wird durch die Eigenschaft der Parametermenge (i.d.R.   für diskret und   für stetig) bestimmt.(nicht signierter Beitrag von 80.171.192.97 (Diskussion) 19:14, 5. Okt. 2006 (CEST))Beantworten

Etwas aufgeraeumt Bearbeiten

Es gab in der Abteilung 'diskrete Zeit' einiges an Konfusion und auch falschen Behauptungen (soweit ich sehe, hat die Regularitaet der Uebergangsmatrix nichts mit der Frage der Irreduzibilitaet oder der Existenz des Grenzwertes zu tun; es gibt regulaere reduzible Matrizen und singulaere irreduzible Matrizen, genau so wie singulaere Matrizen mit stationaerer Verteilung); ich habe mal versucht etwas aufzuraeumen.

Das Problem mit der fehlenden Anschaulichkeit sehe ich auch, wenn ich etwas Zeit haben sollte, versuche ich da noch etwas zu zu schreiben. Ein bisschen etwas habe ich schon zum random walk geschrieben, aber das ist wenig befriedigend und kann auch wieder geloescht werden. Das Problem dabei ist auch, dass der Artikel dann zu schnell lehrbuchartig und weniger lexikal ist, wenn man da zu viel an Beispielen erklaert.

jcreutzig 18:21, 9.4.2006

Ich werde die Änderungen erstmal zurücksetzen, siehe Diskussion des Benutzers. --chrislb 问题 20:53, 10. Apr 2006 (CEST)

Korrektur? Bearbeiten

sollte das nicht heissen: "und bewegt sich in jedem Schritt aus dem aktuellen Zustand [i] jeweils mit Wahrscheinlichkeit 1 / 2 nach [i + 1] oder bleibt bei zustand [i ]" ? oder gibt es negative zustaende?(nicht signierter Beitrag von 81.173.159.85 (Diskussion) 09:55, 27. Aug. 2006 (CEST))Beantworten

Perron-Frobenius-Theorem Bearbeiten

ist denn das Perron Frobenius Theorem nicht ewähnenswert hier? مبتدئ 18:08, 26. Sep 2006 (CEST)(nicht signierter Beitrag von 217.228.244.165 (Diskussion) 18:06, 26. Sep. 2006 (CEST))Beantworten


stationär Bearbeiten

Ist   ein Spaltenvektor? Sollte die Verteilung nicht als Zeilenvektor von links mit der Übergansgmatrix multipliziert werden? Andernfalls ergibt sich doch zum Beispiel für den 2-dim. Fall:  , aber es sollte   sein, da   von 1 nach 2 geht. (nicht signierter Beitrag von 139.18.183.127 (Diskussion) 18:53, 7. Nov. 2006 (CET))Beantworten

v statt W Bearbeiten

Es ist m. E. unzweifelhaft, dass in diesem Jahrhundert Markov mit v geschrieben wird. Ich moechte aber nicht so radikal in den Text eingreifen. S. ebenhier, http://de.wikipedia.org/wiki/Kyrillisches_Alphabet#Wiedergabe_mit_lateinischen_Buchstaben. Ich wuerde auf Deutsch Andrej Markov schreiben, und auf die frueher gebraeuchlichen Markoff und Markow verweisen. (nicht signierter Beitrag von 81.173.160.13 (Diskussion) 11:10, 20. Mär. 2007 (CET))Beantworten

Ist das noch aktuell? --Thire 18:30, 17. Apr. 2007 (CEST)Beantworten

Ich hab mal gehört, daß die Schreibweise mit "v" die englische ist, die mit "w" die ursprünglich deutsche Transkription und die mit "ff" die französische. Wenn das stimmt, sollte man aus meiner Sicht also überall ein "w" verwenden und vielleicht oben unter "andere Schreibweisen" dazuschreiben, woher das "ff" und das "v" kommen. Schönen Gruß, Volker(nicht signierter Beitrag von 130.149.105.199 (Diskussion) 15:04, 26. Jan. 2009 (CET))Beantworten

Soweit ich das sehe kann man die w-Schreibweise löschen. Es ist keine Quelle dafür angegeben, dass das Ding in der Wissenschaft jemals Markow-Kette genannt wurde. In den angegeben Quellen immer mit v. Die Benennung mit Markow-Kette ist also POV/eigene Forschung. Ich vermute, dass die Annahme dahinter steht, dass sich die Schreibweise eines mathematischen Konzepts ändert, wenn sich die Schreibweise desjenigen nachdem es benannt wurde ändert.--Jocme (Diskussion) 21:31, 11. Feb. 2022 (CET)Beantworten

BITTE SEITE DRINGEND ÜBERARBEITEN Bearbeiten

Es befinden sich viele Fehler im Artikel. Hauptsächlich falsche Zuweisungen. Man sollte z.B. mit der Zustandsmenge konsistent bleiben und nicht zwischen   und   wechseln. (unbekannter Benutzer :) )(nicht signierter Beitrag von 130.83.2.27 (Diskussion) 10:36, 18. Dez. 2007 (CET))Beantworten

Modellierung Bearbeiten

Da steht zum Beispiel der Satz: Bei dieser Disziplin werden zu Beginn eines Zeitschrittes die Bedienungen gestartet. Disziplin bezeichnet sehr wahrscheinlich einen Typ von Modellierung; dieser Begriff sollte dann im vorangegangenen Abschnitt erwähnt werden, damit er hier nicht so unvermittelt auftritt. Für einen Laien ist völlig unklar, was das Starten einer Bedienung ist. Dann treten am Ende eines Zeitschrittes Bedienende auf. Was bedeutet das? BASTA-Eigenschaft? Da mag noch ein Artikel fehlen, hier bleibt der Rest unverständlich. Ist BASTA-Eigenschaft äquivalent zu Forderungsankunft vor Bedienender? Ich weiß es nicht. Insgesamt erscheint der Zusammenhang zu den zuvor gegebenen Definitionen nicht klar; wo sind die Übergangswahrscheinlichkeiten?, was hat das mit Markow-Prozessen zu tun? Könnte da bitte jemand etwas Licht ins Dunkel bringen?--FerdiBf 12:01, 9. Mai 2009 (CEST)Beantworten

für sich alleine ist (η) aber kein Markow-Prozess. Bearbeiten

Könnte jemand noch einen Satz dazu schreiben, wieso die Lampenkonfiguration für sich kein Markow-Prozess ist? --141.3.192.210 13:40, 10. Mai 2010 (CEST)Beantworten

Verständlichkeit 3 Bearbeiten

Das Beispiel mit "Lamplighter" ist eher verwirrend. Besser weglassen. (nicht signierter Beitrag von 84.184.117.16 (Diskussion) 14:29, 19. Feb. 2012 (CET)) Beantworten

Beispiele endlicher Zustandsraum Bearbeiten

" Wir starten also fast sicher im Zustand 1. Multiplikation von links mit der Übergangsmatrix liefert" und ab da wir von rechts mit der Übergangsmatrix M multipliziert. Entweder bitte M transponieren oder "rechts" zu "links" ändern. (nicht signierter Beitrag von 139.14.20.247 (Diskussion) 11:58, 4. Nov. 2015 (CET))Beantworten

Ich hab mal "links" zu "rechts" geändert (also da, wo der Daumen links ist ;). Danke! -- HilberTraum (d, m) 14:22, 4. Nov. 2015 (CET)Beantworten

Ordnung einer Markow-Kette Bearbeiten

In der Einleitung wird von der Ordnung einer Markow-Kette gesprochen. Es sollte erwähnt werden, dass man im allgemeinen 1te Ordnung meint, wenn man von einer Markow-Kette spricht. Das Lamplighterbeispiel habe ich entfernt, da es sich um eine Markowkette zweiter Ordung handelt, wenn man nur den Lampenzustand betrachtet. (nicht signierter Beitrag von Stefran91 (Diskussion | Beiträge) 11:43, 22. Dez. 2015 (CET))Beantworten

Beispiele: Endlicher Zustandsraum: "[...] fast sicher im Zustand eins [...]" Bearbeiten

Im Artikel in den Beispielen heißt es:

Dazu geben wir die Anfangsverteilung   vor in Form des stochastischen Startvektors  . Wir starten also fast sicher im Zustand 1

Wenn ich als Startverteilung   vorgebe starte ich nicht "fast sicher" sondern 100%ig in diesem Zustand. "Fast sicher" wäre es bei einer Verteilung wie etwa   --95.91.242.234 11:25, 2. Jun. 2022 (CEST)Beantworten