Hauptmenü öffnen

Formale Sprache

abstrakte Sprache, die mathematisch ausgedrückt und verwendet wird

Eine formale Sprache ist eine abstrakte Sprache, bei der im Unterschied zu konkreten Sprachen oft nicht die Kommunikation im Vordergrund steht, sondern die mathematische Verwendung. Eine formale Sprache besteht aus einer bestimmten Menge von Symbolketten (im Allgemeinen Zeichenketten) („Worte“ der Sprache), die aus einem Zeichen-/Symbolvorrat („Alphabet“, Grundsymbole) zusammengesetzt werden können. Anwendung finden formale Sprachen in der Linguistik, der Logik und der theoretischen Informatik.

Formale Sprachen eignen sich zur (mathematisch) präzisen Beschreibung des Umgangs mit Zeichenketten. So können zum Beispiel Datenformate oder ganze Programmiersprachen spezifiziert werden. Zusammen mit einer formalen Semantik erhalten die definierten Zeichenketten eine (mathematische) Bedeutung. Bei einer Programmiersprache kann damit einer Programmieranweisung (als Teil der formalen Sprache) ein eindeutiges Maschinenverhalten (als Teil der Semantik) zugeordnet werden.

Aufbauend auf formalen Sprachen können aber auch Logikkalküle definiert werden, mit denen man mathematische Schlüsse ziehen kann. In Verbindung mit formal definierten Programmiersprachen können Kalküle helfen, Programme auf ihre Korrektheit zu überprüfen.

DefinitionBearbeiten

Eine formale Sprache   über einem Alphabet   ist eine Teilmenge der Kleeneschen Hülle des Alphabets:  .

Ein Alphabet   legt die Zeichen fest, aus denen ein „Wort“ der Sprache gebildet werden kann. Zum Beispiel kann man die Dezimaldarstellung jeder natürlichen Zahl aus dem Alphabet   bilden.

Alle aus einem gegebenen Alphabet   beliebig bildbaren Wörter mit endlicher Länge (Länge 0 oder länger), deren jeder einzelne Buchstabe Element von   ist, diese größtmögliche Wortmenge zum Alphabet  , nennt man die Kleenesche Hülle des Alphabetes  , kurz  . Eine formale Sprache über einem Alphabet   ist also eine bestimmte Teilmenge der Kleeneschen Hülle ihres Alphabets – im Allgemeinen ist also nicht jede beliebige Zeichenkombination ein gültiges Wort der Sprache.

Formale Sprachen können leer, endlich oder unendlich sein; maximal können sie die gesamte Kleenesche Hülle ihres Alphabetes umfassen. Sie können über eine mathematische Bedingung an ihre Wörter definiert sein: „Die Sprache … ist die Menge aller Wörter, für die gilt …“.

Die in der theoretischen Informatik auftretenden Sprachen sind jedoch meistens spezieller durch ein bestimmtes Ersetzungsverfahren definiert – Regeln, wie die Alphabet-Zeichen kombiniert sein/werden dürfen. Von den Ersetzungsverfahren gibt es verschiedene Typen: Semi-Thue-Systeme, Chomsky-Grammatiken, Lindenmayer-Systeme u. a. Bei solchen Ersetzungsverfahren geht man beispielsweise von einer spezifischen Start-Zeichenkette aus, die man durch wiederholte („rekursive“) Anwendung der Regeln (Text-Ersetzungen) schrittweise in Wortgebilde überführt, die dann als ganzes, oder nur ein vorgegebener Abschnitt davon, als Wörter der Sprache gelten. Man redet hier auch von generativen Grammatiken, weil die Wörter einer Sprache über solche Textsubstitutionen schrittweise erzeugt werden. Umgekehrt kann man Sprachen auch definieren als die Menge aller Wörter, aus denen (über das Ersetzungsverfahren der Sprache) ein bestimmtes vorgegebenes Wort oder eines von mehreren vorgegebenen Wörtern erzeugbar ist. („Es gehört alles zur Sprache, was sich über die Regeln auf … zurückführen lässt.“)

Abgrenzung von natürlichen SprachenBearbeiten

Mit Hilfe formaler Sprachen können auch natürliche Sprachen modelliert werden, vor allem deren Syntax. Beim Vergleich formaler Sprachen mit natürlichen Sprachen ist aber zu beachten, dass natürliche Sprachen oberhalb der elementaren Laut-Zeichen mindestens die zwei übereinander liegenden Hierarchieebenen des Wortes und des Satzes besitzen. Die Regeln für deren Aufbau trennt man gewöhnlich in Morphologie zum einen und in Syntax zum anderen. In formalen Sprachen dagegen liegt über dem elementaren Alphabet-Zeichen oft nur die eine Hierarchieebene des formalen Wortes, man redet im Hinblick auf den Bau der Wörter formalsprachlich von Syntax. Wenn eine natürliche Sprache mittels einer formalen modelliert wird, dann werden also die Sätze der natürlichen Sprache in formalsprachlicher Betrachtung Wörter genannt.

Außerdem haben Äußerungen in natürlicher Sprache eine natürliche Bedeutung, während die Bedeutung formaler Sprachen stets auf ebenfalls formalem Weg definiert werden muss.

BeispieleBearbeiten

  1. Die Programmiersprache C ist eine formale Sprache. Die Wörter von C sind die jeweiligen Programme. Das Alphabet von C sind die Schlüsselwörter und Zeichen, die in der Definition von C festgelegt sind.
  2. Die natürlichen Zahlen in unärer Darstellung:  
  3. Die unäre Sprache über  , die nur Wörter quadratischer Länge enthält:  
  4.  
  5.  
  6. Die Sprache aller Palindrome:  
    wobei   die Spiegelung des Wortes   ist.
  7. Die Dezimalkodierung der Primzahlen:  .
    Hierbei bezeichnet   die Kodierung der natürlichen Zahlen im Dezimalsystem und PRIM steht für die Menge der Primzahlen.
  8. Die Morse- oder Thue-Folge:  .
    Wobei   ein Homomorphismus ist, der folgendermaßen definiert ist:   und  ,  .
    Somit sind die ersten Elemente der Thue-Folge: 0, 01, 0110, 01101001, 0110100110010110 …

Operationen auf formalen SprachenBearbeiten

Zwei Sprachen   über dem Alphabet   und   über dem Alphabet   sind banalerweise beide Sprachen auch über  , also Mengen von Wörtern aus  . Deshalb sind auch

  • die Vereinigung  
  • der Durchschnitt  
  • die Differenz  

Sprachen über  .

Weitere Operationen auf Sprachen sind:

KonkatenationBearbeiten

Die Konkatenation zweier Sprachen   und   ist die Sprache der Wörter, die durch Hintereinanderschreibung (Konkatenation) je eines beliebigen Wortes   aus   und   aus   entsteht:

 .

So sind zum Beispiel die Konkatenationen von verschiedenen Sprachen über dem Alphabet  :

 
 
 

Das neutrale Element der Konkatenation ist die Sprache, welche nur das leere Wort enthält. So gilt für jede beliebige Sprache  :

 

Das absorbierende Element der Konkatenation ist die leere Sprache, sodass für jede Sprache   gilt:

 

Die Konkatenation von Sprachen ist wie die Konkatenation von Wörtern assoziativ, aber nicht kommutativ. So ist zum Beispiel:

 

aber:

 

Da außerdem die Potenzmenge der Kleeneschen Hülle eines beliebigen Alphabets   (die gleich der Menge aller Sprachen ist, die aus   gebildet werden können) abgeschlossen bezüglich Konkatenation ist, bildet sie zusammen mit der Konkatenation als Operator und der Sprache des leeren Wortes als neutrales Element ein Monoid.

PotenzBearbeiten

Die Potenz   einer Sprache ist die  -fache Konkatenation dieser Sprache mit sich selbst. Sie ist rekursiv definiert mit:

 
    (für  )

So sind zum Beispiel:

 
 
 

Im Speziellen gilt für jede einelementige, formale Sprache   (mit  ) und jedes  :

 

Kleene-*-Abschluss und Kleene-+-AbschlussBearbeiten

Der Kleene-*-Abschluss   (Kleenesche Hülle, auch Iteration genannt) und der Kleene-+-Abschluss   (positive Hülle) einer formalen Sprache   sind definiert über die Vereinigung der Potenzsprachen von  :

 

 

 


Wichtige formale SprachklassenBearbeiten

  1. Noam Chomsky hat 1956 eine Hierarchie von formalen Grammatiken aufgestellt, die verschiedene Typen von formalen Sprachen erzeugen.[1] Diese ist heute unter dem Namen Chomsky-Hierarchie bekannt. Hier wird unterschieden zwischen Typ 0, Typ 1, Typ 2 und Typ 3: Rekursiv aufzählbare, kontextsensitive, kontextfreie bzw. reguläre Sprachen.
  2. Aristid Lindenmayer hat ein Regelsystem vorgeschlagen, in dem Ersetzungsschritte in jedem Schritt an jeder Stelle parallel durchgeführt werden. Diese Systeme heißen Lindenmayer-Systeme.
  3. Mit Semi-Thue-Systemen lassen sich Sprachen festlegen, die aus Startwörtern abgeleitet werden.
  4. Mit Church-Rosser-Systemen werden Sprachen erklärt, deren Wörter sich auf ein Terminalwort reduzieren lassen.
  5. Termersetzungssysteme erzeugen die Menge von Termen, die zu einem Ausgangsterm äquivalent sind.
  6. Verallgemeinerungen von formalen Sprachen erhalten wir mit Graphgrammatiken, mit denen wir Graphsprachen erzeugen können.
  7. Hypergraphgrammatiken erzeugen Hypergraphen, eine Verallgemeinerung von Graphen.

HistorischesBearbeiten

Als eine der ersten formalen Sprachen wird Gottlob Freges Begriffsschrift erachtet[2], eine wie Frege schrieb „Formelsprache des reinen Denkens“. Axel Thues im Jahre 1914[3] eingeführtes Semi-Thue-System, das verwendet werden kann, um Zeichenketten zu transformieren, hatte ebenfalls Einfluss auf die Entwicklung formaler Grammatiken.

ZitatBearbeiten

Die heutige Grundlagenforschung ist beherrscht

„[…] vom Geist der Mathematik. […] Sie ist durchmathematisiert bis an die äußersten Grenzen dessen, was heute auf Grund einer weit vorgerückten Formalisierungstechnik erreicht werden kann. Das Ziel dieser Forschung ist ein ziemlich hochliegendes Ziel. Es ist die Beherrschung einer möglichst großen Zahl von möglichst tiefliegenden Problemen aus dem Bereich der Grundlagenforschung mit einer Art von Genauigkeit, die als ‚Genauigkeit in den kleinsten Teilen‘ bezeichnet werden kann. […]

Die angestrebte Genauigkeit kann wie in der Mathematik nur durch die Schöpfung von Präzisionssprachen erreicht werden, die angestrebte Genauigkeit in den kleinsten Teilen nur durch die Schöpfung von Präzisionssprachen, deren Genauigkeitsgrad den Genauigkeitsgrad auch der höchstentwickelten mathematischen Präzisionssprache des gegenwärtigen Zeitalters, der Sprache der Mengenlehre und der Sprache der modernen Algebra wesentlich übertrifft. […] Eine solche Präzisionssprache ist eine formalisierte wissenschaftliche Sprache. […] ein Rüstzeug, dessen Leistungsfähigkeit mit dem Auflösungsvermögen eines Elektronenmikroskops verglichen werden kann. […] Leibniz ist der erste gewesen, der Präzisionssprachen von diesem Genauigkeitsgrad gefordert hat.“

Heinrich Scholz im Jahre 1941: Eine neue Gestalt der Grundlagenforschung[4]

Heinrich Scholz traf sich 1944 mit Konrad Zuse, der im Zuge seiner Doktorarbeit an seinem Plankalkül arbeitete. Im März 1945 sprach ihm Scholz für die Anwendung seines Logikkalküls seine Anerkennung aus.[5]

Siehe auchBearbeiten

LiteraturBearbeiten

  • Lars Peter Georgie: Berechenbarkeit, Komplexität, Logik. Vieweg, Braunschweig Wiesbaden,
    • Eine dritte Auflage erschien 1995.
    • Englische Ausgabe: Computability, Complexity, Logic. Erschienen in der Reihe: Studies in logic and the foundations of mathematics. North Holland, Amsterdam 1985.
Eine Darstellung der formalen Sprachen im Kontext der Berechenbarkeitstheorie, Logik und Komplexitätstheorie. Stellt hohe Anforderungen an den Leser, liefert dafür tiefe Einblicke.
  • Michael A. Harrison: Introduction to Formal Language Theory. Erschienen in der Reihe: Series in Computer Science, Addison-Wesley, 1978.
Eine sehr ausführliche und viel gelobte Einführung.
  • John E. Hopcroft und Jeffrey D. Ullman: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Addison-Wesley, 1988.
    • Englisches Original: Introduction to Automata Theory, Languages and Computation. Addison-Wesley, 1979.
    • Eine überarbeitete dritte Auflage auf Deutsch erschien 1994 bei der Oldenbourg R. Verlag GmbH. Im Jahr 2004 erschien bei Addison-Wesley eine zweite überarbeitete Auflage.
Das englische Original ist das in der theoretischen Informatik am häufigsten zitierte Buch. Die Beweise sind in älteren deutschen Übersetzungen gelegentlich falsch wiedergegeben. Dieses Buch ist in zahlreiche Sprachen übersetzt worden.
  • Grzegorz Rozenberg und Arto Salomaa: The Mathematical Theory of L-Systems. Academic Press, New York, 1980.
Das ausführlichste Buch über L-Systeme.
  • Grzegorz Rozenberg und Arto Salomaa (Herausgeber): Handbook of Formal Languages. Volume I-III, Springer, 1997, ISBN 3-540-61486-9.
Eine ausführliche Übersicht über die wichtigsten Gebiete der formalen Sprachen dargestellt jeweils von aktiv in diesem Gebiet arbeitenden Wissenschaftlern.
  • Arto Salomaa: Formale Sprachen. Springer, 1978.
    • Englisches Original: Formal Languages. Academic Press, 1973.
  • Ingo Wegener: Theoretische Informatik. Teubner Stuttgart, 1993. ISBN 3-519-02123-4.
In der Darstellung der Formalen Sprachen wird stets die Komplexität der formalsprachlichen Konstruktionen mitbehandelt. Diese ist sonst nur in der Originalliteratur zu finden.
  • U. Hedtstück: Einführung in die Theoretische Informatik – Formale Sprachen und Automatentheorie. Oldenbourg Verlag, München 2000, ISBN 3-486-25515-0
  • S. Abramsky, Dov M. Gabbay, T.S.E. Maibaum (eds.): Handbook of logic in computer science. Vol. 5: Logical and algebraic methods. Oxford University Press 2000, ISBN 0-19-853781-6
  • Mogens Nielsen, Wolfgang Thomas: Computer Science Logic. Springer 1998, ISBN 3-540-64570-5

EinzelnachweiseBearbeiten

  1. Chomsky, Noam (1956). "Three models for the description of language". IRE Transactions on Information Theory (2): 113–124.
  2. Martin Davis (1995). Influences of Mathematical Logic on Computer Science. In Rolf Herken. The universal Turing machine: a half-century survey. Springer. S. 290. ISBN 978-3-211-82637-9.
  3. Ronald V. Book uand Friedrich Otto, String-rewriting Systems, Springer, 1993, ISBN 0-387-97965-4. S. 36.
  4. In: Forschungen und Fortschritte Nr. 35/36, Jahrgang 1941, S. 382ff.
  5. Hartmut Petzold,Moderne Rechenkünstler. Die Industrialisierung der Rechentechnik in Deutschland. München, C.H. Beck Verlag, 1992.