Hauptmenü öffnen

Sortierverfahren

Algorithmus zum Ordnen eines Tupels

Unter einem Sortierverfahren versteht man in der Informatik einen Algorithmus, der dazu dient, ein Tupel (i. Allg. ein Array) zu sortieren. Voraussetzung ist, dass auf der Menge der Elemente eine strenge schwache Ordnung definiert ist, z. B. die lexikographische Ordnung von Zeichenketten oder die numerische Ordnung von Zahlen.

Es gibt verschiedene Sortierverfahren, die unterschiedlich effizient arbeiten bezüglich der Zeitkomplexität (Anzahl der nötigen Operationen) sowie der Platzkomplexität (zusätzlich zum Eingabe-Array benötigter weiterer Speicherplatz). Die Komplexität eines Algorithmus wird üblicherweise in der Landau-Notation dargestellt (s. u. Ausdrücke wie ). Die Zeitkomplexität hängt bei einigen Sortierverfahren von der anfänglichen Anordnung der Werte im Array ab, man unterscheidet dann zwischen Best Case (bei günstigster „Vorsortierung“), Average Case (Normalfall) und Worst Case (schlechtester Fall ~ die Werte sind „maximal ungünstig vorgeordnet“). Häufig sind zusätzliche Faktoren zu beachten, die Einfluss auf Zeit- oder Platzkomplexität haben, zum Beispiel langsamer Zugriff auf extern liegende Daten, begrenzte Größe des Arbeitsspeichers oder ähnliches.

Man unterscheidet zudem zwischen stabilen und instabilen Sortierverfahren. Stabile Sortierverfahren sind solche, die die relative Reihenfolge von Elementen, die bezüglich der Ordnung äquivalent sind, nicht verändern, während instabile Sortierverfahren dies nicht garantieren. Ist beispielsweise die Mitarbeiterliste einer Firma nach Nachname geordnet, und wird anschließend nach Alter (in Jahren) sortiert, so bleibt die (Nachnamen-)Reihenfolge unter gleichaltrigen Mitarbeitern bei einem stabilen Sortierverfahren bestehen.

Zudem unterscheidet man zwischen Sortierverfahren, die in-place (auch in situ) arbeiten, d. h. der zusätzliche Speicherbedarf ist unabhängig von der Anzahl der zu sortierenden Elemente (also konstant und meist gering), und solchen, bei denen er abhängig ist (out-of-place oder ex situ).

Und man unterscheidet auch zwischen natürlichen Sortierverfahren, die bei vorsortierten Daten schneller arbeiten als bei unsortierten Daten, und solchen, die es nicht tun. Algorithmen, bei denen der Kontrollfluss von den Daten abhängt, nennt man adaptiv und dementsprechend Sortierverfahren, die nicht von den Eingabedaten abhängen, nicht-adaptiv. Nicht-adaptive Algorithmen sind demnach besonders interessant für Hardware-Implementierungen.

Manuelles Sortieren (etwa von Karteikarten) sowie elektro-mechanische Sortierverfahren (z. B. für Lochkarten) entsprechen meist einem der hier beschriebenen softwarebasierten Sortierverfahren, oder Mischtypen.

Vergleichsbasiertes SortierenBearbeiten

Allgemeine Verfahren basieren auf dem paarweisen Vergleich der zu sortierenden Elemente, ob das eine Element „kleiner“ als, „größer“ als oder „gleich(groß)“ wie das andere Element ist. Bei der Komplexitätsanalyse wird davon ausgegangen, dass der Aufwand zum Vergleich zweier Elemente konstant ist.

Sortierverfahren Günstigster Fall („Best-Case“) Mittlerer Fall („Average-Case“) Ungünstigster Fall („Worst-Case“) Stabil Zusätzlicher Speicherbedarf
Binary Tree Sort
(höhen-balanciert)
      ja[1]  
Binary Tree Sort       ja[1]  
Bubblesort       ja
Combsort       nein
Gnomesort       ja
Heapsort       nein
Insertionsort       ja
Introsort       nein
Merge Insertion       ja
Mergesort       ja
Natural Mergesort       ja
Quicksort       nein
Selectionsort       nein
Shakersort (Cocktailsort)       ja
Shellsort  [2]  [2]  [2] nein
Smoothsort       nein
Stoogesort       nein
Swap-Sort      
Timsort       ja
Bogosort    [3]  [3] nein
Slowsort       nein
  1. a b Für die stabile Version s. die Bemerkung im Artikel Binary Tree Sort.
  2. a b c Für die (im Worst Case) beste bekannte Distanzfolge.
  3. a b Erwartete Laufzeit.

Nicht-vergleichsbasiertes SortierenBearbeiten

Bei Sortierverfahren, die nicht auf Vergleichen beruhen, bei denen die zu sortierenden Objekte also nicht untereinander auf „kleiner“, „größer“ oder „gleich“ verglichen werden, kann bei entsprechend konditionierter Eingabe erreicht werden, dass die benötigte Zeit nur linear mit der Anzahl der zu sortierenden Elemente ansteigt. Bei großen Anzahlen zu sortierender Datensätze sind diese Algorithmen den vergleichsbasierten Verfahren überlegen, sofern sie (wegen des zusätzlichen Speicherbedarfs) angewendet werden können. Sie können allerdings nur für numerische Datentypen verwendet werden (oder unter der Bedingung, dass der Datentyp in annehmbarem Aufwand auf Zahlenwerte gleicher Reihenfolge abgebildet werden kann). Das Senken der Zeitkomplexität der Verfahren wird erkauft durch eine zusätzliche zeitliche Abhängigkeitsgröße, ggf. auch durch zusätzlichen Speicherbedarf.

Sortierverfahren Zeit Stabil Zusätzlicher Speicherbedarf
Bucketsort   ja  
Countingsort   ja  
Radixsort   ja  
MSD Radixsort   nein  , in-place
Flashsort   nein  

Dabei stellt   die Anzahl der Elemente dar,   die Anzahl der möglichen Werte und   die Anzahl der Stellen des längsten Schlüssels.

Sortierung nach BeziehungenBearbeiten

Wenn nicht mehr nach Eigenschaften, sondern nur noch nach paarweisen Beziehungen sortiert werden kann, so spricht man von einer topologischen Sortierung. Dies ist beispielsweise der Fall, wenn Aufgaben erledigt werden müssen, manche Aufgaben aber unbedingt vor anderen durchzuführen sind, bei anderen jedoch die Reihenfolge keine Rolle spielt.

Für das topologische Sortieren gibt es Algorithmen, deren Laufzeit von der Anzahl der Beziehungen abhängt. Topologisches Sortieren ist nicht möglich, wenn gegenseitige (zyklische) Abhängigkeiten bestehen. Eine topologische Sortierung muss nicht eindeutig sein.

Wenn die Beziehungen vollständig sind, also für je zwei Objekte eine Abhängigkeit vorgegeben ist, so geht die topologische Sortierung in eine gewöhnliche Sortierung über. Das Laufzeitverhalten der Algorithmen bei n Objekten ist dann  .

Indirektes SortierenBearbeiten

In den Fällen, bei denen das Umstellen der Daten mit hohem Aufwand verbunden ist, kann man auch indirektes Sortieren anwenden. Man benötigt dazu zusätzlichen Speicher proportional zur Anzahl der Elemente (bspw. einen Zeiger auf das jeweilige Element, oder dessen Indexnummer im Basis-Array). Dann wird dieses Array indirekt sortiert und stellt somit einen (gemäß dem Vergleichskriterium) sortierten Index dar. Sollen die eigentlichen Daten anschließend ebenfalls in die richtige Reihenfolge gebracht werden, ist ein zusätzlicher Aufwand von   erforderlich.

Ist auch der (wahlfreie) Zugriff auf die Elemente „teuer“, so werden mitunter auch diejenigen Datenkomponenten in den Index übernommen, die in den Sortierschlüssel einfließen. Dies benötigt dann weiteren zusätzlichen Speicherplatz.

Siehe auch: Adaptiertes 2-Phasen-2-Band-Mischen

Beweis der unteren Schranke für vergleichsbasiertes SortierenBearbeiten

Es lässt sich beweisen, dass ein vergleichsbasiertes Sortierverfahren nicht schneller als   sein kann:

Sei   der Entscheidungsbaum für die Zahlenfolge  . Da alle Permutationen von   das Ergebnis des Sortieralgorithmus sein könnten, muss der Entscheidungsbaum   mindestens   Blätter haben. Da eine Mindestanzahl von Schritten gesucht ist, treten im Entscheidungsbaum keine unnötigen Vergleiche auf.

In einem Entscheidungsbaum mit   Blättern beträgt die maximale und die mittlere Tiefe eines Blattes mindestens  . Da eine untere Schranke gesucht ist, kann   mittels   nach unten hin abgeschätzt werden. Damit gilt  .

Es bleibt noch zu zeigen, dass in einem Binärbaum mit   Blättern die maximale und die mittlere Tiefe eines Blattes mindestens   beträgt. Angenommen   sei ein Binärbaum, für welchen die obige Aussage nicht gilt. Seien   und   Teilbäume eines Binärbaumes mit   Blättern. Für die Anzahl der Blätter   in   bzw.   in   gilt nun offensichtlich  ,   und  . Für die Tiefe jedes Blattes, bezogen auf die Wurzel von  , gilt:

 

Das Minimum dieser Funktion liegt nun bei   und  . Eingesetzt in obige Formel ergibt das:

 .

Dies ergibt einen Widerspruch zur Annahme, womit obige Aussage bewiesen ist.

LiteraturBearbeiten

  • Donald E. Knuth: Sorting and Searching. In: The Art of Computer Programming. 2. Auflage. Band 3. Addison-Wesley, Boston 2003, ISBN 0-201-89685-0.
  • Niklaus Wirth: Algorithmen und Datenstrukturen. 5. Auflage. Teubner Verlag, Stuttgart/Leipzig 1999, ISBN 3-519-22250-7.
  • Robert Sedgewick: Algorithms in Java, Part 1–4. 3. Auflage. Addison-Wesley, Boston 2002, ISBN 0-201-36120-5.
  • Thomas H. Cormen, Charles Leiserson, Ronald L. Rivest, Clifford Stein: Algorithmen – Eine Einführung. 3. Auflage. Oldenbourg Verlag, München 2010, ISBN 978-3-486-59002-9 (amerikanisches Englisch: Introduction to Algorithms. Übersetzt von Paul Molitor).
  • Thomas H. Cormen, Charles Leiserson, Ronald L. Rivest, Clifford Stein: Introduction to Algorithms. 3. Auflage. The MIT Press, Cambridge MA / London 2009, ISBN 978-0-262-03384-8.
  • Thomas Ottmann, Peter Widmayer: Algorithmen und Datenstrukturen. 3. Auflage. Spektrum Verlag, Heidelberg/Berlin/Oxford 1996, ISBN 3-8274-0110-0.
  • Anany Levitin: Introduction to The Design and Analysis of Algorithms. 2. Auflage. Pearson Addison-Wesley, Boston 2007, ISBN 978-0-321-36413-5.

WeblinksBearbeiten