global determinstic optimization

Im Artikel steht gerade "Im Gegensatz zur lokalen Optimierung ist die globale Optimierung ein quasi ungelöstes Problem der Mathematik: Es gibt praktisch keinerlei Methoden, bei deren Anwendung man in den meisten Fällen als Ergebnis einen Punkt erhält, der mit Sicherheit oder auch nur großer Wahrscheinlichkeit das absolute Extremum darstellt."

Das ist leider komplett falsch. Deterministisch globale Methoden (e.g., branch-and-bound) können solche Probleme lösen. Das ist etabliert. Ich werde es ändern, wenn ich Zeit habe. (nicht signierter Beitrag von ArturSchweidtmann (Diskussion | Beiträge) 19:02, 1. Sep. 2020 (CEST))

Absolut korrekt. --BumbleMath (Diskussion) 00:35, 8. Dez. 2023 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: Kritisierter Satz nicht mehr im Artikel|--Sigma^2 (Diskussion) 19:38, 27. Jan. 2024 (CET)

Lemma

Hallo,

der Artikel scheint mir unter dem falschen Lemma zu liegen. Man sollte Teile nach Optimierungsalgorithmus oder Parameteroptimierung verschieben. Unter diesem Lemma denke ich eher an die Variationsrechnung, also das Finden einer optimalen Funktion. --Suricata 12:54, 29. Mär 2005 (CEST)

Hallo Suricata! Das Problem ist, dass es bisher zum Thema Optimierung nur hier und da verstreut ein paar Zeilen gab, die zudem mit den Muttergebieten Numerik, Statistik und Informatik schlecht verlinkt waren. Zudem finde ich den Zehnzeiler-Artikel zu "Optimierungsproblem" aus der Informatik ziemlich schlecht verständlich, zumal für eine allgemeine Einführung in einem allgemeinen Lexikon. Das Problem in der Wiki (und Wissenschaft allgemein) ist halt, dass dasselbe Problem oft von unterschiedlichen Fakultäten behandelt wird. Optimierung liegt im Schnittgebiet zwischen Numerik, Informatik, Statistik und Operations Research. Ich habe jetzt die Links aus dem Artikel "Optimierungsalgorithmus" in diesem hier untergebracht. Ich denke, dieser Artikel hier ist ganz gut dazu geeignet, von Informatikern, Mathematikern usw. weiter aufgebaut und ergänzt zu werden. Grüsse, Croco

Hallo Croco, Der Artikel ist gut. Ich würde jedoch die Optimierungsverfahren nach Optimierungsalgorithmus auslagern. --Suricata 17:10, 29. Mär 2005 (CEST)
Und noch ein Hinweis, Du hast recht, dass die Artikel Optimierungsproblem sehr unverständlich ist, und Optimierungsalgorithmus ebenso. Ein neuer Artikel unter einem unbelegten Lemma verbessert leider die Situation nicht, sondern schafft Verwirrung. Versuche mal unter diesem Aspekt etwas Ordnung zu schaffen. Es gehört dazu auch in fremden Artikeln rumzuwursteln. --Suricata 17:19, 29. Mär 2005 (CEST)
Ich hoffe, der Artikel zu Optimierungsproblem nach der kürzlichen Überarbeitung aus eurer Sicht jetzt besser zu lesen. Trotzdem gibt es Probleme mit dem Lemma (s. Diskussion unter "Grundsätzliche Kritik") --BumbleMath (Diskussion) 08:31, 8. Dez. 2023 (CET)

Alternative wäre, "Optimierungsalgorithmus" auf "Optimierung (Mathematik)" zu redirecten. Ich weiss nicht, ob es so übersichtlich ist, das Problem und die Liste der Lösungsmethoden zu trennen. Oft ist den Leuten, die auf der Suche nach Methoden sind, gar nicht bewusst oder bekannt, dass es auch globale Optimierungsprobleme gibt und dass sie es vielleicht mit einem solchen zu tun haben. Aber diese Strukturierungsfrage überlasse ich auch gerne Euch. Grüsse, Croco.

Ihr könnt auch Du zu mir sagen :-) Ich werde mich vielleicht morgen mal um die Strukturierung kümmern. Was mir eben fehlt sind echte mathematische Optimierungsaufgaben wie

  • Welcher Körper hat bei vorgegebenem Volumen die kleinste Oberfläche?
  • Die schnellste Rutschbahn zwischen zwei Punkten (Brachistochrone)
  • Idealllinie eines Rennfahrers in einer mathematischen Fläche

Dabei helfen die genannten Optimierungsverfahren recht wenig. --Suricata 17:32, 29. Mär 2005 (CEST)

Als einfaches Beispiel könnte man sowas bringen. Aber das ist nicht der Inhalt der Optimierungsforschung, eher ne Rechenaufgabe für Studenten. Obwohl: Man rennt auch schon in einer Diplomarbeit schnell gegen die Hürden ganz anderer Aufgaben. Bei der Optimierung in der Numerik/Statistik/Operations Research/Chemie/Physik geht's um ziemlich komplexere Aufgabenstellungen und Fittopologien. Und da wird's dann auch richtig interessant. Mach dir mal ein Bild, indem du auf entsprechende Seiten gehst. Lehrstuhl Ritter an der TU München ist z.B. ein "Optimierungs"lehrstuhl, der viel auf physikalischen Aufgabengebieten arbeitet. (Mit dem hab' ich aber nix zu tun.) Ich hatte schon mit Optimierungsproblemen zu tun, in denen es ca. 60.000 offene Parameter gab. Ich habe gerade hier mit einem Kalibrationsproblem zu tun, bei dem die Rechenkosten für EINEN Funktionsaufruf auf einer Dual CPU-Maschine ca. 10 min. betragen. Da müssen dann Numerik, Mathematik und Informatik ineinandergreifen. Grüsse! Croco

Hallo Croco, ich bin da etwas anderer Meinung. Die Optimierungsverfahren arbeiten mit einfachen mathematischen Mitteln, dafür mit viel Rechenleistung und mit Heuristiken. Die Frage, warum die Brachistochrone die schnellste Rutschbahn zwischen zwei Punkten ist, sollte ein Mathematikstudent berechnen können (gerade so). Warum die Gerade die kürzeste Verbindung zwischen zwei Punkten ist und die Kugel eine minimale Oberfläche hat, kann Dir kaum ein Student beantworten. Von der dichtesten Kugelpackung ganz zu schweigen. --Suricata 08:06, 30. Mär 2005 (CEST) Sorry, ich korrigiere: Theorie der endlichen Kugelpackungen --Suricata 08:08, 30. Mär 2005 (CEST)

"Einfache Mittel"? Es gibt schon Gründe dafür, warum beispielsweise Optimierungsverfahren zur Lösung von gemischt-ganzzahligen Optimierungsproblemen in der Regel seit Jahrzehnten von kommerziellen Unternehmen professionell implementiert und für viel Geld verkauft werden. Die Komplexität ist enorm. Ähnliches gilt für die state-of-the-art Solver im Bereich der nichtlinearen Optimierung wie ipopt. Das ist jahrelange Fleißarbeit basierend auf höchst nichttrivialen Ideen. --BumbleMath (Diskussion) 08:30, 8. Dez. 2023 (CET)


Hallo Suricata!

Sorry, gestern hatte ich ziemlich wenig Zeit, auch zum Nachdenken. Du hast natürlich recht, mit "Einfach" oder "Schwierig" ist es bei der Abgrenzung hier nicht getan. Variationsrechnung ist ja kein  -Problem, sondern ein  -Problem. Aber deshalb heisst es ja auch anders und wird ja auch schon in einem entsprechenden Artikel behandelt. Ein Querverweis von hier in die Variationsrechnung finde ich sehr nützlich. Dass es sich bei der Variationsrechnung um die "echte" Optimierung handelt - wie kommst du darauf? Wer hat das so definiert? Gib mal in Google "Optimization" ein! Die erste vier Links, die bei mir gerade kamen, waren:

http://epubs.siam.org/sam-bin/dbq/toclist/SIOPT http://www.ece.northwestern.edu/OTC/ http://solon.cma.univie.ac.at/~neum/glopt.html http://plato.la.asu.edu/topics/problems.html

Schau dir diese mal an! Das SIAM-Journal ist tatsächlich sehr wichtig für das Gebiet. Und du siehst, dass mehr als Dreiviertel der Artikel sich mit den von mir geschilderten Problemen befassen. Das Stichwort "Lineare Programmierung" und "Nichtlineare Programmierung" sollte vielleicht noch irgendwo fallen, aber der Kern der beiden Verfahrensklassen ist genau ein parametrisches Optimierungsproblem, wie im Artikel geschildert. Auch die anderen drei Links führen so Software und Darstellungen, die nichts mit Vairationsrechnung, aber sehr viel mit dem zu tun haben, was in dem Artikel jetzt steht. Ich finde es für eine Encyclopädie eminent wichtig, dass die Definitionen der Communities eingehalten werden. Dass also ein Fachartikel zum Thema "Rot" nicht etwas beschreibt, was die Community unter "Blau" kennt. Wenn es neben "Blau" noch "Hellblau" und "Türkis" gibt - wunderbar. Dann soll es dort auch erwähnt oder verlinkt werden. Ich habe z.B. die reine informatische Optimierung hier auch nicht behandelt, Stichwort Traveling-Salesman-Problem. Das führt dann in die Optimierung von Algorithmen. Aber ich finde, ein Link sollte dazu schon noch rein. Grüsse! Croco

Danke für eure Anmerkungen. Die Variataionsrechnung als unendlichdimensioales Optimierungsproblem ist jetzt (nur wenige Jahre später) Teil des Artikels. --BumbleMath (Diskussion) 08:30, 8. Dez. 2023 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 19:40, 27. Jan. 2024 (CET)

Struktur

Alles dies (Variationsrechnung, Travelling Salesman) sind Teilgebiete der Optimierung (Unendlichdimensionale Optimierung, ganzzahlige Optimierung). Ich habe mal eine Klassifikation eingefügt, die das (zumindest potentiell) klarer machen soll. Wie soll es denn in den Abschnitten zu jeder Unterklasse (Lineare Programmierung, etc) weitergehen: jeweils nur ein kurzer Abriss und Link auf Spezialseite? Oder doch längere Diskussion. Ich wäre für ersteres. Zwei Fragen zur Terminologie: sollte man anstatt Parameter nicht besser Variablen sagen? Parameter ist für mich etwas, was z.B. eine Famillie von optimierungsproblemen definiert. Und "Liniensuche" klingt nach wortwörtlicher Übersetzung von "linesearch". Wie heisst das denn richtig auf Deutsch? Werner: Numerische Mathematik II, Vieweg spricht von Schrittweitensuche. Grothey 16:36, 15. Dez 2005 (CET)

Ich habe die Erklärung des Begriffes "Programm" überarbeitet. Es ist nicht nur einfach eine unzutreffende Übersetzung aus dem englischen. Das englische Wort "program" (in der Alltagssprache) hat die gleiche Bedeutung wie im Deutschen, auch dort wird "mathematical programming" häufig missverstanden. Grothey 12:07, 12. Jan 2006 (CET)

Hallo Grothey, ich bin deiner Meinung. Das Lemma ist gut so, und Parameter sollten Variablen heißen. Da das Thema sehr umfangreich ist, bietet sich wahrscheinlich zu jedem Teilgebiet der Optimierung eine Zusammenfassung mit Link auf Spezialartikel an. Dieser Artikel sollte nur eine Übersicht geben. Insbesondere der Artikel Lineare Optimierung ist schon ein guter Anfang, um ihn zu einem lesenswerten Artikel auszubauen. -- Sdo 21:14, 16. Jan 2006 (CET) P.S.: Ich habe den Nutzen der Innere-Punkte-Verfahren im Text etwas eingeschränkt. Es kann sein, dass sie für bestimmte Probleme gut sind, aber zumindest zum Lösen linear-ganzzahliger Programme ist Branch-and-Bound in Verbindung mit dem Simplex-Verfahren immer noch ziemlich konkurrenzlos, weil dabei viele LPs gelöst werden müssen, die fast gleich aussehen. -- Sdo 21:18, 16. Jan 2006 (CET)
Ich sehe es genauso wie ihr (viele Verlinkungen hier und "Parameter" sollte zu "Variable" werden). Werde es demnächst umsetzen. --BumbleMath (Diskussion) 08:33, 8. Dez. 2023 (CET)
Ist umgesetzt. --BumbleMath (Diskussion) 23:10, 27. Jan. 2024 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 23:12, 27. Jan. 2024 (CET)

Globale Optimierung vs. globales Optimum

Unter "(Weitere) Methoden der globalen nichtlinearen Optimierung" wird der Bergsteigeralgorithmus aufgeführt, der eigentlich kein globaler Algorithmus ist, oder? --88.73.211.225 18:47, 8. Mär. 2007 (CET)

Ja, aber im Bergsteigerartikel wird in einem eigenen Teil zumindest andiskutiert, wie dieses Problem angegangen werden kann. Falls Dir das reicht. Dort wird auch behauptet, dies sei ein generell ungelöstes Problem, also müsste die Liste demnach sowieso leer sein... --PeterFrankfurt
Hallo 88.73.211.225, das kommt darauf an, was Du unter „globaler Algorithmus“ verstehst. Der Name Bergsteigeralgorithmus ist nur eine hochtrabende Bezeichnung für einen simplen Greedy-Algorithmus, der in der Regel kein globales Optimum findet. Insofern hast Du recht, wenn Du unter einem globalen Algorithmus einen verstehst, der immer eine globale Optimallösung findet. Der Begriff „globale Optimierung“ bezeichnet dagegen alle Optimierungsprobleme, die sich nicht in irgendeinen Spezialfall (konvex, linear,...) einordnen lassen. Und für solche Probleme kann der Bersteigeralgorithmus verwendet werden (vorausgesetzt, man kann eine Richtung des steilsten Anstiegs berechnen). Er ist also ein globaler Algorithmus in dem Sinne, dass er für globale Optimierungsprobleme verwendet werden kann. Für die anderen Algorithmen, die dort als Beispiel aufgeführt sind, gilt das Gleiche. Für allgemeine Optimierungsprobleme ist halt keinen Algorithmus bekannt, der immer ein globales Optimum findet. Klärt das Deine Frage? Gruß, -- Sdo 03:24, 9. Mär. 2007 (CET)
Mich hat es auch irritiert. Gerade im Gegensatz zu Simulated Annealing etc. ist das einfache Hill Climbing eigentlich in meinen Augen eben nicht global orientiert. Vielleicht sollte man zumindest eine kurze Anmerkung hinzufügen wie "(eingeschränkt global)" o.ä. -- Hans Meine 12:43, 29. Sep. 2008 (CEST)
Ich habe mir eben das Simulated Annealing angeschaut. Es mach nichts anderes (nämlich per Zufallssprung in die Umgebung aus einem lokalen Minimum herausfinden), was man auch bei allen anderen Algorithmen als Sicherheitsmaßnahme zusätzlich draufsatteln kann und oft muss. Insofern hat mir immer noch niemand ein "richtiges" (und dabei effizientes) globales Verfahren zeigen können. --PeterFrankfurt 01:09, 30. Sep. 2008 (CEST)
Das hat sich mit der neuen Version des Artikels erledigt. Zur Klärung, falls zukünftige Zivilisationen das nochmal lesen: Den Begriff "Globale Optimierung" für Heuristiken zu verwenden ist irreführend, aber hat sich leider in manchen Communities durchgesetzt. Zum Beispiel kann man im Journal "Journal of Global Optimization" durchaus Heuristiken veröffentlichen, wo die Hoffnung besteht das globale Optimum zu berechnen --BumbleMath (Diskussion) 23:15, 27. Jan. 2024 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 23:15, 27. Jan. 2024 (CET)

Frage

Ich hätte da ein schönes Optimierungsprogramm "Optwin.exe", das ich vor einiger Zeit für den PC adaptiert habe. Es hat schon einiges geleistet (Österreichischer Kraftwerkseinsatz, Zumtobel-Leuchten, Reifengeräusch-Minimierung etc) und wurde jetzt zur Parameterberechnung für Funktionen aus Punktehaufen (fitten) zurecht gestutzt. Ich möchte das zur freien Verfügung stellen, so dass es jeder benutzen (runterladen) kann. Wie (wo) tue ich das? -- Dr.mgf.winkelmann 13:51, 27. Apr. 2007 (CEST)

Hallo Herr Winkelmann, welche Art von Optimierungsproblemen löst denn das Programm aus mathematischer Sicht – lineare, konvexe, nichtlineare? Mit rationalen oder ganzzahligen Variablen? Exakt oder näherungsweise? Zumindest passt es in die Wikipedia nicht gut hinein, da hier ja Informationen über andere Dinge bereitgestellt werden sollen und keine Programme. Ich habe gerade mal bei Wikisource geguckt, aber das sieht auch nicht besonders passend aus. Ist der Sourcecode frei verfügbar? Dann lässt es sich vielleicht bei Sourcefourge unterbringen. Ansonsten würde ich es einfach auf die eigene Homepage stellen. Noch eine Bitte: neue Beiträge bitte unten anhängen, damit sie leichter gefunden werden. Danke und schöne Grüße, -- Sdo 21:34, 27. Apr. 2007 (CEST)

Danke- als Zielfunktionen gibt es im Moment: Gerade, Kreis, Ellipse, Parabeln, x hoch 3, x hoch 4, Hyperbel, exp.-fktn, kubische Fktn, + sinus. Grundlagen sind weiterentwickelte Evolutionsstrategien mit wachsenden Populationen, crossing over, Gespenstern etc. Grenzqualität kann man vorgeben (auch Null und damit exakt), Fließkomma. Naja, vielleicht doch auf meine homepage ([1]), obwohl sie da wohl nicht reinpasst (hauptsächlich Spiele + Bilder) danke nochmals! vielleicht sollte ich einen Artikel über die Algorithmen verfassen? -- Dr.mgf.winkelmann 01:49, 28. Apr. 2007 (CEST)

Hallo Herr Winkelmann, Evolutionsstrategien und Crossing over sagen mir etwas, Gespenster sagen mir in diesem Zusammenhang nichts. Aber ich vermute, die Informationen zu den Algorithmen passen am besten bei Metaheuristik oder in die dort verlinkten Spezialartikel (z. B. Evolutionärer Algorithmus) hinein. Sie können ja mal gucken, ob da wesentliche Information fehlt, und sie ggf. ergänzen. Und noch ein Tip, nachdem ich gerade mal auf Ihre Homepage geguckt habe: ich würde vielleicht noch ein paar Informationen zum Programm dazuschreiben. Welche Art von Problemen löst es, wie benutzt man es, was sind die Voraussetzungen an den Input, welche Art Output liefert es, usw. Als potentieller Benutzer würde ich jedenfalls keine exe-Datei ohne weitere Beschreibung herunterladen und aufrufen. Gruß, -- Sdo 10:51, 28. Apr. 2007 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 19:44, 27. Jan. 2024 (CET)

Nichtlineare Optimierung ohne Ableitung

Hallo, ich hab mich hier ein wenig informiert und bin auf das Sekantenverfahren gestoßen welches in der Kategorie von Verfahren aufgeführt ist die keine Ableitung benötigen. Das Sekantenverfahren berechnet jedoch Nullstellen. Um es für optimierungen benutzen zu können benötigt man dann doch die erste Ableitung. Ist das jetzt falsch eingeordnet, oder ist mir etwas entgangen? -Matthias (Der vorstehende Beitrag stammt von 146.140.208.13 (DiskussionBeiträge), 16:43, 23. Apr. 2008. -- Jesi 20:06, 23. Apr. 2008 (CEST)

Letzteres. Wenn Du unter Sekantenverfahren nachschaust, findest Du, dass es seine Nullstellen auch ohne Ableitungen findet. Das geht wirklich. Mit Ableitungen ginge es typischerweise viel schneller (aber auch riskanter mit Gefahr des In-die-Wüste-Laufens), aber es geht, und zwar sehr robust und sicher. --PeterFrankfurt 01:02, 24. Apr. 2008 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 19:45, 27. Jan. 2024 (CET)

Begriffe: Zielfunktion, Nebenbedingungen, zulässige Menge, lokale und globale Optimierung

In diesem Abschnitt kommt der Begriff zulässige Menge gar nicht vor. (nicht signierter Beitrag von 129.13.72.177 (Diskussion | Beiträge) 14:38, 15. Sep. 2009 (CEST))

Hmm, ganz am Schluss steht es doch? --PeterFrankfurt 01:23, 16. Sep. 2009 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 23:12, 27. Jan. 2024 (CET)

Schwarmoptimierung

Vielleicht sollte man die Particle Swarm Optimisation (http://en.wikipedia.org/wiki/Particle_swarm_optimization englische Wikipedia) anführen? Dazu gibt es offenbar noch keinen deutschen Wikipedia-Artikel. -- 141.44.130.100 (13:43, 20. Sep. 2010 (CEST), Datum/Uhrzeit nachträglich eingefügt, siehe Hilfe:Signatur)

Den Artikel gibt es mittlerweile: Partikelschwarmoptimierung --BumbleMath (Diskussion) 23:17, 27. Jan. 2024 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 23:17, 27. Jan. 2024 (CET)

Nebenbedingungen, Randbedingungen

Zitat aus der Neuformulierung: "Diese Nebenbedingungen werden auch Randbedingungen genannt." Ich dachte immer, das sei was Verschiedenes? --PeterFrankfurt 23:51, 15. Dez. 2010 (CET)

Es ist was Verschiedenes, siehe bei Nebenbedingung und Randbedingung. --PeterFrankfurt 03:40, 17. Dez. 2010 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 23:18, 27. Jan. 2024 (CET)

Konvexe Optimierung

In dem Abschnitt über konvexe Optimierung handelt es sich doch bei der zweiten Definition um die Definition einer konkaven Funktion (bla >= bla). Hab das gleich mal geändert. --131.173.68.103 11:06, 21. Aug. 2014 (CEST) Grüße Schuster

Hallo, es reicht hier sicherlich, nur konvexe Funktionen zu betrachten. Ich habe die Stelle entsprechend angepasst. Grüße -- HilberTraumd, m11:32, 21. Aug. 2014 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 19:54, 27. Jan. 2024 (CET)

Sekantenverfahren

Das Sekantenverfahren ist nur dann ein ableitungsfreies Verfahren, wenn es zur Berechnung von Nullstellen verwendet wird. Man kann es aber auch zu Berechnung von Extremstellen, also zur Optimierung, einsetzen, indem man damit die Nullstellen der Ableitung der Zielfunktion berechnet. In diesem Fall ist es also dann kein ableitungsfreies Verfahren mehr. Ich mache die Änderung also wieder rückgängig. -- HilberTraum (Diskussion) 20:34, 5. Apr. 2013 (CEST)

Hi HilberTraum, das Sekantenverfahren ist auch in deinem Fall ein ableitungsfreies Verfahren. Ableitungsfrei bedeutet, dass ich es auf eine Funktion f anwenden kann, ohne ihre Ableitungen zu kennen. In deinem Fall gilt f=h', falls h die von dir erwähnte Zielfunktion ist. Trotzdem braucht das Sekantenverfahren nicht die Ableitung von f, was dann nämlich die zweiten Ableitungen von h wären. PS: Beim Archivieren ist mir das irgendwie durch die Lappen gegangen. Füge ich jetzt noch hinzu. --BumbleMath (Diskussion) 09:15, 4. Feb. 2024 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 09:16, 4. Feb. 2024 (CET)

Umgang mit Literatur, insbes. der Literaturliste

Ich würde gern besser verstehen, warum es neben den Einzelnachweisen noch eine separate Liste für "Literatur" gibt. Ich kenne es aus der wissenschaftlichen Arbeit, dass Literatur dann angegeben wird, wenn sie im Text auch konkret verwendet wird und nicht "auf Vorrat". Sobald Listen präsentiert werden, ohne die Elemente dieser explizit im Text zu referenzieren, sind sie aus meiner Sicht etwas willkürlich und stehen abseits der eigentlichen Darstellung. Meiner persönlichen Beobachtung nach (ich kann mich natürlich irren), ist das auch ein deutsches Phänomen. Auf englischen Seiten habe ich das bisher nicht gesehen und denke, dass es zumindest deutlich seltener vorkommt. Ich plädiere also dafür, die Liste zu löschen und Elemente der Liste, die unbedingt erwähnt werden sollten, als Quellen für Aussagen des Artikels zu verwenden. Ich höre mir aber auch gern Gegenargumente an. --BumbleMath (Diskussion) 10:14, 10. Dez. 2023 (CET)

Es wäre zu prüfen, ob die z.Zt. angegebene Literatur sich mit dem Thema des Lemmas selbst befassen und nicht mit verwandten, allgemeineren oder spezielleren Themen. Lit. die Wikipedia:Literatur#Allgemeines entspricht, sollte mMg. aufgelistet bleiben. Ich habe es mehrfach erlebt, dass im Laufe der Zeit Teiltexte mit EN entfernt wurden und dann auch die Lit-Info verloren war. --Doc.Heintz (Disk |  ) 14:00, 10. Dez. 2023 (CET)
Okay, danke für deine Einschätzung. Was bedeutet EN? Ich werde dann die einzelnen Einträge der Liste hinsichtlich deiner Kriterien prüfen. --BumbleMath (Diskussion) 14:52, 10. Dez. 2023 (CET)
EN= Wikipedia:Einzelnachweis. --Doc.Heintz (Disk |  ) 15:39, 10. Dez. 2023 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: --BumbleMath (Diskussion) 09:37, 4. Feb. 2024 (CET)