Hauptmenü öffnen

Als unsicheres Wissen werden in der Künstlichen Intelligenz und Wissensrepräsentation Informationen bezeichnet, die aufgrund mangelnder Genauigkeit oder Verlässlichkeit ungewiss sind.

In der formalen Logik und Entscheidungstheorie bedient man sich zur Behandlung derartiger Informationen u. a. Instrumentarien der Wahrscheinlichkeitslogik (probabilistisches Schließen), wobei z. B. ein Erwartungswert für die Geltung einer Aussage beziffert wird, der Fuzzy-Logik, wobei z. B. „unscharfe“ Prädikate berücksichtigbar sind, und Techniken des nichtmonotonen Schließens.

Beispielsweise werden die Komponenten der Wissensbasis von Software-Agenten als „unsicher“ gewichtet, für welche nicht festlegbar ist, dass diese als unumstößlich wahr gelten sollen; dies betrifft im Allgemeinen sämtliches durch Agenten erworbenes Einzelwissen.

Wie entsteht unsicheres Wissen?Bearbeiten

Unsicheres Wissen kann aus verschiedenen Gründen entstehen.

  • Zum einen kann die Umgebung unzugänglich sein. Somit stehen dem Agenten nicht alle Informationen über die Umgebung zur Verfügung.
  • Eine andere Möglichkeit ist die Fehlerhaftigkeit von Informationen. Falsche Informationen gelten auch als Unsicheres Wissen.
  • Eine dritte Möglichkeit ist die Fehlinterpretation/Fehleinschätzung des Wissens durch den Agenten.

Spies unterscheidet vier Arten von unsicherem Wissen:[1]

  1. unscharfes Wissen, das mit der Fuzzy-Logik dargestellt und verarbeitet werden kann, speziell in der Regelungstechnik
  2. Wahrscheinlichkeitsschlüsse, also Schlussfolgerungen mit Hilfe der Wahrscheinlichkeitstheorie
  3. plausibles Schließen, Schlussfolgern mit Hilfe von Plausibilität sowie positiven und negativen Evidenzen
  4. Erkennen und Verstehen unvollständiger und verzerrter Muster, die Mustererkennung

Für jede dieser Arten unsicheren Wissens stellen Informatik und Mathematik passende Verfahren bereit.

Wie können Agenten bei unsicherem Wissen planen?Bearbeiten

Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres sollte auf der Diskussionsseite angegeben sein. Bitte hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Liegt unsicheres Wissen vor, gibt es für den Agenten zwei Möglichkeiten, mit diesem Wissen umzugehen.

Bedingtes PlanenBearbeiten

Der Agent plant für jeden möglichen Ausgang. Es entsteht ein Binärer Baum, welcher als Knoten Aktionen enthält und als ausgehende Kanten die zwei möglichen Ausgänge „Erfolg“ und „Misserfolg“. Schlägt nun eine Aktion fehl, hat der Agent immer einen Plan B zur Verfügung, um weiter zu arbeiten.

Vorteil: Agent ist robust gegenüber Misserfolgen. Ist der Plan erstellt, weiß der Agent immer sofort, was er tun kann.
Nachteil: Erstellen des Plans kann relativ lang dauern, je nachdem wie groß der Plan wird.

AusführungsüberwachungBearbeiten

Der Agent erstellt nur einen „Generalplan“. Dieser wird ausgeführt. Allerdings überwacht der Agent die Ausführung und merkt deshalb sofort, wenn ein Misserfolg auftritt. Ist dies der Fall, beginnt der Agent erneut einen neuen Plan ausgehend von der aktuellen Situation zu entwerfen.

Vorteil: Erstellen des Plans vergleichsweise schnell.
Nachteil: Der Agent stoppt bei Fehlschlägen zwischenzeitlich die Ausführung, um neu zu planen. Dies ist vor allem bei zeitkritischen Aufgaben von Nachteil.

EinzelnachweiseBearbeiten

  1. Marcus Spies: Unsicheres Wissen: Wahrscheinlichkeit, Fuzzy-Logic, neuronale Netze und menschliches Denken. Spektrum Akademischer Verlag, Heidelberg 1993, ISBN 3-86025-006-X, S. 17–19.

LiteraturBearbeiten

  • Walter Hehl: Die unheimliche Beschleunigung des Wissens. Warum wir nichts verstehen und trotzdem Grosses schaffen. vdf Hochschulverlag AG an der ETH Zürich, Zürich 2012, ISBN 978-3-7281-3455-4.
  • Gerhard Knorz: Unsicheres und unvollständiges Wissen in wissensbasierten Systemen, Kontrolle von Heuristik durch systematische Beobachtung. In: Brigitte Endres-Niggemeyer und Jürgen Krause (Hrsg.): Informatik-Fachberichte 114: Sprachverarbeitung in Information und Dokumentation: Hannover, 5.–7. März 1985; Proceedings. Springer-Verlag, London 1985, ISBN 3-540-16071-X, S. 203–215.
  • Marcus Spies: Unsicheres Wissen: Wahrscheinlichkeit, Fuzzy-Logic, neuronale Netze und menschliches Denken. Spektrum Akademischer Verlag, Heidelberg 1993, ISBN 3-86025-006-X.
  • Oliver Thomas: Dienstleistungsmodellierung: Methoden, Werkzeuge und Branchenlösungen. Hrsg.: Markus Nüttgens. Physica-Verlag, Berlin 2008, ISBN 978-3-7908-2098-0.
  • Stuart J. Russell: Artificial intelligence: a modern approach. Hrsg.: Peter Norvig. Prentice-Hall, London 1995, ISBN 0-13-103805-2, Kapitel V: Uncertain knowledge and reasoning, S. 413–522.

WeblinksBearbeiten