Diskussion:Entropie

Letzter Kommentar: vor 3 Monaten von Kein Einstein in Abschnitt Maß für die Unordnung
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 30 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Zum Archiv

Dieser Artikel wurde ab April 2009 in der Qualitätssicherung Physik unter dem Titel „Entropie (Thermodynamik)“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: größere Überarbeitung im Dez 2014

Dieser Artikel wurde ab Januar 2015 in der Qualitätssicherung Physik unter dem Titel „Entropie: Gliederung, Didaktik, usw.“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: Überarbeitung des Abschnitts "Ein einfacher Zugang zur Entropie"

Dieser Artikel wurde ab Januar 2016 in der Qualitätssicherung Physik unter dem Titel „Entropie“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: leichte Umformulierung des Abschnitts "Mischungsentropie"

Quantenverschränkungs-Entropie Bearbeiten

Fehlt, ist aber aktuelles Forschungsgebiet (Takayanagi, Ahrenshoop, Zusammenhang mit Area Laws, Eisert, Black Hole Entropy, New Horizons in Physics Prize 2015 ...)--Claude J (Diskussion) 22:26, 25. Sep. 2016 (CEST)Beantworten

Irreversible Thermodynamik Bearbeiten

Muss die Rolle der Entropie als Antrieb aller spontanen (also irreversiblen, also aller wirklichen) Prozessen nicht deutlich gemacht werden? Das ist auch in den Artikeln zu Caratheodory, Onsager etc. noch sehr dünn. Ich bin da leider nicht der wahre Experte für, sondern erinnere mich vor allem anein paar Stellen aus dem alten Becker, Theorie der Wärme. --Bleckneuhaus (Diskussion) 17:24, 17. Aug. 2020 (CEST)Beantworten

Einleitender Satz Bearbeiten

Was dem Artikel m.E. fehlt, ist ein einleitender klarer Satz, der auf den Wesenskern der Entropie hindeutet und somit kurz und prägnant in das Thema einführt. Der Artikel der engl. Wikipedia beginnt bspw. mit dem Satz: "Entropy is a scientific concept that is most commonly associated with a state of disorder, randomness, or uncertainty." --2003:F7:1703:D600:5C6:A9B2:7341:AFD5 11:29, 28. Okt. 2023 (CEST)Beantworten

Ich kann das Anliegen sehr gut nachvollziehen. Vor allem Lernende wollen eine Antwort auf die Frage: "Was darf ich mir darunter vorstellen?" Die vielleicht sachlich korrekte Antwort: "Am besten gar nichts." ist da leider wenig hilfreich. Ich übersetze den mal den zitierten Satz um zu prüfen, ob man ihn übernehmen kann: "Entropie ist ein wissenschaftliches Konzept, das überwiegend mit einem Zustand von Unordnung, Beliebigkeit und Ungewissheit verknüpft wird." Ein paar Dinge daran stören mich: Entropie ist kein "Konzept", sondern eine "Größe", denn sie hat ein Symbol, eine Einheit, eine Definitionsgleichung, ... (Konzepte sind "Felder", "Wellen" und dergleichen). "Unordnung" - ein Begriff, der sehr populär, aber unscharf ist. "Beliebigkeit": sachlich sehr nah dran: Ein System ist umso entropischer, je beliebiger der Mikrozustand ist. Allerdings klingt das in dem Wort "Beliebigkeit" für den unbedarften Leser kaum mit. "Ungewissheit": Gemeint ist: Ein System ist umso entropischer, je ungewisser die Kenntnis über seinen Mikrozustand ist. Ähnliches Problem wie bei "Beliebigkeit". Ein Bild, das ich mir zurechtgelegt habe: "Entropie ist ein Maß dafür, wie weit sich ein System durch irreversible Vorgänge von einem wohl geordneten Ausgangszustand entfernt hat." (Das ist aber nicht zitierfähig, weil es auf meinem Mist gewachsen ist und daher TF in Reinform). Einen Formulierungsvorschlag habe ich noch nicht, aber ich finde es wie die IP wichtig, dass einer gefunden wird. --Pyrrhocorax (Diskussion) 10:50, 29. Okt. 2023 (CET)Beantworten
Man sollte beachten, dass es hier um den Entropiebegriff in der Thermodynamik geht; zu Entropie gibt es ja ansonsten auch eine BKS. Ich selbst finde den aktuellen Satz in der Einleitung gut; auch genauer als den in dem korrespondierenden englischen Wikipedia-Artikel.
Zur Diskussion empfehle ich:
  1. auch einen Blick auf die zugehörige englische :en:BKS zu werfen.
    • Gut finde ich hier den einleitenden Satz: »Entropy, in thermodynamics, is a property originally introduced to explain the part of the internal energy of a thermodynamic system that is unavailable as a source for useful work.«
  2. beim DWDS Entropie
    • auch vielleicht interessant: »physikalische Größe als Bezeichnung für den Grad der Nichtumkehrbarkeit physikalischer Vorgänge«
  3. und im Physik-Lexikon Entropie
Der Zusammenhang mit der Ordnung bzw. Unordnung kommt über die mikroskopischen Modelle der statistischen Physik auf und ist, alles andere als einfach einem Laien zu erklären. Ich sehe hier keine Verbesserung, gleich in der Einleitung mit ins Haus zu fallen. Dies dürfte bei physikalisch Unbedarften m.E. mehr zur Verunsicherung als zu einem echten Verständnis beitragen. --ArchibaldWagner (Diskussion) 13:57, 29. Okt. 2023 (CET)Beantworten
Huch, dann bin ich ja beruhigt, dass meine "Privat-Definition" ziemlich gut mit der von DWDS übereinstimmt. Ich bin auch kein Freund davon, gleich mit der statistischen Mechanik anzufangen, weshalb ich die von der anonymen IP vorgeschlagene englische Formulierung etwas kritisch sehe. An der DWDS ist leider etwas unschön, dass sie die Zustandsgröße Entropie über Prozesse (= Vorgänge) erklären will. Beide Erklärungen finden sich bei Stierstadt wieder. Hilfreich wäre eher folgende Überlegung: Ein System kann verschiedene Zustände annehmen, deren Energieinhalt gleich ist. Wenn man ein Whiskey-Glas vereinfacht als adiabatisch abgeschlossen ansieht, so ist der warme Whiskey mit Eiswürfel gleich energiereich wie das kühle Whiskey-Wasser-Gemisch. Wenn man beide Zustände als das jeweilige Ende einer Skala ansieht, dann sagt uns die Entropie, wo wir gerade stehen, denn es ist klar, dass es kein Zurück mehr gibt. (Ich bevorzuge Whiskey übrigens ohne Eis). Aber kann man das in kurze Worte fassen, ohne die Anschaulichkeit zu verlieren?) --Pyrrhocorax (Diskussion) 16:13, 29. Okt. 2023 (CET)Beantworten

Es dürfte ja ziemlich schwer sein, in einem ersten Satz OMA-verständlich die Entropie zu charakterisieren. Der von der IP empfohlene Satz zählt auch nur auf, womit sie zusammenhängt. Unser derzeitige 1. Satz ("... eine grundlegende Zustandsgröße eines makroskopischen Systems. Ihre SI-Einheit ist Joule pro Kelvin (J/K). ") hilft dem Verständnis allerdings noch weniger, muss ich schon zugeben. Den einleitenden Satz: »Entropy, in thermodynamics, is a property originally introduced to explain the part of the internal energy of a thermodynamic system that is unavailable as a source for useful work.« sehe ich - wenn man das Wort "originally" erstmal überliest - als falsch an, weil der Carnotsche Wirkungsgrad eben von 2 Temperaturen abhängt und bei   gegen 100% strebt. Einfach und richtig wäre eine Charakterisierung nahe beim 2. Hauptsatz: "Entropie ist eine physikalische Größe, die in jedem abgeschlossenen physikalischen System aufgrund spontaner innerer Prozesse solange ansteigt, bis sie den für dieses System möglichen Maximalwert erreicht. Dann ist das System im thermodynamischen Gleichgewicht und verändert sich nicht weiter." - Bitte weiter kürzen/ergänzen/etc. --Bleckneuhaus (Diskussion) 21:24, 29. Okt. 2023 (CET) (Achtung: Nachtrag in fett --Bleckneuhaus (Diskussion) 13:16, 30. Okt. 2023 (CET))Beantworten

Wir haben hier ein des öfteren anzutreffender Wunsch (oder Ehrgeiz), nämlich einen komplexen physikalischen Begriff in einem oder wenigen Sätzen allgemeinverständlich und korrekt erläutern bzw. charakterisieren zu wollen. Frage: muss das eigentlich immer möglich sein? Kann das nicht bei manchen Lesern zu einem falschen Verständnis führen?
Ich empfehle euch bzgl. der Entropie die Abschnitte 1-9 "The Basic problem of thermodynamics" und 1-10 "The entropy maximum postulates" p 25 - 32 (evtl. auch 17-1 "Entropy as measure of disorder") in "Thermodynamics and an Introduction to thermodynamics" (2. Aufl.) von Herbert B. Callen anzuschauen. Hier kommt es mir auf die folgenden Sätze an: (p 27)»It must be stressed that we postulate the existence of the entropy only for equilibrium states[...]each of which might also be realized in the presence of a suitable constraint« Es wird damit letztlich weiter angenommen, dass bei allen "Zwischenzuständen" zumindest überall ein lokales thermodynamische Gleichgewicht vorliegt, so dass sich die Entropie als Summe vieler kleiner (nährerungsweise) im Gleichgewicht befindlichen Systeme mit Hilfe des Postulates III berechnen lässt. (p 28) »All problems in thermodynamics are derived from the basic problem formulated in Section 1.9.«
Nun zu dem Textvoschlag von @Bleckneuhaus, die meisten Physiker haben gegen diesen Vorschlag wahrscheinlich nichts einzuwenden, und doch bin ich nicht glücklich mit diesem Satz, weil er impliziert man könne für alle möglichen Zustände eines Systems die Entropie angeben, aber tatsächlich finden sich dann in (mir bekannten) Lehrbüchern nur Angaben und Formeln für Systeme im Gleichgewicht. Auch die berühmte Boltzmann Formel gilt ja nur für ein System im Gleichgewicht. Der Trick in den Thermodynamik läuft dann immer über das zusammengesetzte System und das Postulat, dass sich die (Ausgangs-)Entropie als die Summe der Entropien der Einzelsysteme ergibt, und nach Entfernen der "Constraints" (siehe Callen 1-9) die (End-)Entropie für dieses neue im Gleichgewicht befindliche System berechnet wird und diese dann größer als die Ausgangsentropie sein muss.
Aus diesem Grunde neige ich eher dazu, in der Einleitung ein einfaches Beispiel zu nehmen, von mir aus das Whiskey-Eis System von @Pyrrhocorax. Zwei Systeme jeweils im eigenen thermodynamischen Gleichgewicht mit den Entropien 1 und 2 werden zusammengefügt (die "Trennwände" entfernt), nach Einstellen des Gleichgewichts ist die Entropie (3) des Gesamtsystems größer als die Summe der von 1 und 2.
Auch könnte evtl. ein Satz in der Einleitung über die Motivation zur Einführung angebracht sein. Ich bin allerdings mit der Geschichte und den Arbeiten von Clausius nicht wirklich vertraut, kann mir aber vorstellen, dass ein wesentlicher Grund, die Berechnung des theoretisch erreichbaren maximalen Wirkungsgrades von Wärmekraftmaschinen (Dampfmaschinen) war. --ArchibaldWagner (Diskussion) 17:21, 30. Okt. 2023 (CET)Beantworten
Alles bedenkenswert, aber in einem Punkt glaube ich nicht richtig: Entropie ist nicht auf Gleichgewichtszustände beschränkt. Prinzipiell schon deshalb nicht, weil zB beim Temperaturausgleich explizit mit einem System fern des Gleichgewichts begonnen wird. Aber auch die statistische Definition ist ja auf beliebige Zustände anwendbar. Und wie könnte Entropie dann eine additive Größe sein? --Bleckneuhaus (Diskussion) 18:29, 30. Okt. 2023 (CET)Beantworten
Das wird so auch nicht behauptet. Der Begriff wird mit dem Postulat für aus mehreren im jeweiligen eigenen Gleichgewicht befindlichen Systemen ja für die Zusammensetzung solcher Systeme erweitert; und darüber laufen dann auch die Rechnungen mit der Bestimmung des Maximums, siehe hierzu etwa im Callen 2.4 Thermal Equilibrium - Temperature, 2.7 Mechanical Equilibrium oder 2.9 Chemical Equilibrium. Bei Stierstadt 2. Auflage Kap. 5.2 Das Prinzip maximaler Entropie (auch hier ein Komposit aus zwei Einzelsystemen). Was behauptet wird, ist, dass die Entropie nur für recht spezielle System (thermodynamische Kopplung zweier oder mehrerer Systeme) explizit angegeben werden kann.
Lass mich hier noch einmal Ludwig Band IV S 89 zitieren: „Das Problem der Entropiedefinition für Nichtgleichgewichtszustände ist ein sehr tiefliegendes und wird oft verharmlost, indem man gleich zu »speziellen« Nichtgleichgewichtszuständen übergeht. Auf keinen Fall lässt sich allgemein eine Entropie auf die Art und Weise einführen, wie dies in §4.1 geschehen ist. Dies folgt schon allein daraus, dass es für Nichtgleichgewichtszustände im allgemeinen keine Temperaturdefinition gibt.[...]“
Man löst das Problem, indem man eine allgemeine Entropie-Funktion (mit bestimmten Zusatzeigenschaften) fordert, die Funktion aber in der Regel nicht explizit angeben kann, bis auf die Fälle in welchen zwei Systeme gekoppelt werden, und ihre Entropie unmittelbar nach der Kopplung als Summe ihrer jeweiligen Entropien vor der Kopplung setzt. (Später wird das Verfahren auf kontinuierliche Systeme entsprechend erweitert, siehe hierzu z.B. die Berechnung der Wärmeleitung oder die Navier-Stokessche Gleichungen)
Was den Temperaturausgleich betrifft ist dieses ja genau der Fall, man hat am Anfang (mindestens) zwei Systeme definierter Temperatur (also jeweils im eigenen Gleichgewicht).
Sicher gibt es viele die beim Erlernen der Thermodynamik über diese Problematik hinweg sehen bzw. ihrer gar nicht gewahr werden, allerdings gibt es auch solche, die damit in erhebliche Verständnisprobleme kommen. Und ich denke, es ist wichtig, diesen mitzuteilen, dass die Sachlage hier tatsächlich recht komplex ist. (Die einzigen Lehrbücher, die ich kenne und die auf die Problematik explizit hinweisen, sind der Callen und der Ludwig.)
Letztlich zeigt uns aber die Erfahrung an ungezählten Beispielen, dass das Verfahren in der Praxis zu brauchbaren Ergebnis führt. --ArchibaldWagner (Diskussion) 21:45, 30. Okt. 2023 (CET)Beantworten
Ein alternativer Textvorschlag auf der Basis des folgenden Zitates aus dem Buch von Callen S 28:
  • »All problems in thermodynamics are derivative from the basic problem formulated in Section 1.9. The basic problem can be completely solved with the aid of a extremum principle if the entropy of the system is known as a function of the extensive parameters. The relation that gives the entropy as a function of the extensive parameters is known as a fundamental relation. It therefore follows that if the fundamental relation of a particular systen is known all conceivable thermodynamic information about the system is ascertainable from it.«
  • »The importance of the foregoing statement cannot be overemphasized. The information contained in a fundamental relation is all-inclusive - it is equivalent to all conceivable numerical data, to all charts, and to all imaginable types of descriptions of thermodynamic properties. If the fundamental relation of a system is known, every thermodynamic attribute is completely and precisely determined.«
Mein Vorschlag: „Die Entropie hat eine zentrale Bedeutung in Thermodynamik, denn: ist die Entropie als Funktion der extensiven Parameter eines thermodynamischen Systems vollständig bekannt, können daraus alle thermodynamischen Größen des Systems berechnet werden.“ --ArchibaldWagner (Diskussion) 11:42, 31. Okt. 2023 (CET)Beantworten

Dem kann ich mich in der Tendenz anschließen. Weiter ausformuliert etwa:

Die Entropie ist eine physikalische Größe von zentraler Bedeutung in der Thermodynamik. Sämtliche thermodynamischen Größen eines makroskopischen Systems können berechnet werden, wenn die Entropie des Systems als Funktion von dessen äußeren Parametern bekannt ist (Fundamentalgleichung). Ihre SI-Einheit ist ...

Vor dem nächsten Absatz mit dem Anwachsen der Entropie etc. wäre aber noch ein weiterer OMA-verständlicher Satz zum allgemeinen Verständnis als "Maß der Unordnung" (nur Platzhalter hier) gut.--Bleckneuhaus (Diskussion) 12:00, 31. Okt. 2023 (CET)Beantworten

Ehrlich gesagt geht mir Diskussion in eine falsche Richtung. Zum einen sind die letzten Gedanken keineswegs allgemeinverständlicher als der aktuelle Zustand des Artikels. Zum anderen ist das Lemma des Artikels "Entropie". Aufgabe des Artikels ist es also zu erklären, was Entropie ist, und nicht, was sich berechnen lässt, wenn man weiß, wie die Entropie von anderen Parametern abhängt. --Pyrrhocorax (Diskussion) 15:59, 31. Okt. 2023 (CET)Beantworten
Nun ja, die Entropie ist nichts anderes als eine Funktion gewisser Parameter, die dazu noch die tolle Eigenschaft hat: man kann mit ihr alle thermodynamische Größen berechnen. Was will man als Physiker eigentlich noch mehr. Ich denke, das ist schon eine sehr wichtige Charakterisierung; in meinen Augen deutlich handfester als, die Entropie beschreibt die maximale Unordnung. --ArchibaldWagner (Diskussion) 17:12, 31. Okt. 2023 (CET)Beantworten
Oder: Ja, was ist denn Entropie? (Etwa: eine mengenartige, mit der Energie verbundene Größe, die ebensowenig wie die Energie ins Nichts verschwinden kann, im Gegensatz zu dieser aber entsteht, wo immer ein irreversibler Prozess abläuft --?) --Bleckneuhaus (Diskussion) 17:31, 31. Okt. 2023 (CET)Beantworten
Ich vermute, was @Pyrrhocorax sucht, ist eher eine anschauliches Bild, eine Methapher für die Entropie; etwas was den Sinnen bzw. der täglichen Erfahrung vieler Menschen näher ist als diese recht abstrakte Größe Entropie. Dies ist verständlich aber nicht unproblematisch, weil es zu einem falschen Verständnis führen kann. Was hier am ehesten weiter helfen könnte, ist dann doch ein einfaches Beispiel aus dem Alltag, das die Anwendungsmöglichkeit der abstrakten Größe Entropie zeigt. Allerdings Beispiele in der Einleitung müssen in wenigen Sätzen darstellbar sein. --ArchibaldWagner (Diskussion) 10:06, 1. Nov. 2023 (CET)Beantworten
Gut @Bleckneuhaus, das kann zu einem Konsens konvergieren.
  • Allerdings du hast die extensiven Parameter zu äußeren gemacht (vmtl. wegen Laienverständlichkeit), nun ist das aber m.E. nicht dasselbe, und damit könnte die Aussage falsch werden; ich denke etwa an ein System mit mehreren Phasen.
  • Bei dem Link auf das Lemma Fundamentalgleichung sollte dann dort auch die entropische Fundamentalgleichung ergänzt werden. (Ich könnte mich darum kümmern.)
Was die von vielen gewünschte Unordnung (oder Unwissenheit) betrifft, zitiere ich wieder den Callen 17.1 p 381 "Entropy as a Measure of disorder":
  • »For a closed system the entropy corresponds to Shannon's quantitative measure of maximum possible disorder in the distribution of the system over its permissible microstates.«
  • oder auch die kanonische Verteilung (Systeme in Kontakt mit einem Wärmereservoir) einschließend: »The entropy is the quantitative measure of disorder in the relevant distribution of the system over its permissible microstates.«
Damit liegt vielleicht schon ein Satz in der Luft, der die Freunde der Unordnung befriedigen könnte. --ArchibaldWagner (Diskussion) 17:39, 31. Okt. 2023 (CET)Beantworten

@ArchibaldWagner: Du schreibst: "Ich vermute, was Pyrrhocorax sucht, ist eher eine anschauliches Bild, eine Methapher für die Entropie; etwas was den Sinnen bzw. der täglichen Erfahrung vieler Menschen näher ist als diese recht abstrakte Größe Entropie." So ist es. Ich weiß, dass das schwierig ist (sonst hätte ich schon lange eine entsprechende Formulierung eingefügt, ohne lang zu fragen). Ich halte es aber für unumgänglich. Die Entropie (obwohl sehr abstrakt) ist ein Begriff, der auch omA über den Weg läuft, sei es im Physik-Unterricht der Schule oder in einer populärwissenschaftlichen Veröffentlichung. OmA braucht hier keine vollständige Erklärung des Begriffs, keine mathematisch einwandfreie Definition, sondern etwas, was ihm/ihr hilft, einen Satz zu verstehen, in dem das Wort "Entropie" auftaucht. Ich bin übrigens gar kein Fan von der Unordnungs-Geschichte, denn es ist nicht wirklich einfach den neuen Begriff "Unordnung" korrekt und allgemeinverständlich zu erklären. Wie wäre es mit folgendem Erklärungsversuch: "In physikalischen Systemen laufen Prozesse ab, die sich teilweise umkehren lassen (z. B. das Hin- und Herschwingen eines Pendels) und teilweise unumkehrbar sind (z. B. die Vermischung zweier Flüssigkeiten). Die Entropie ist ein Maß dafür, wie weit die unumkehrbare Veränderung des Systems vorangeschritten ist." (Weiter oben habe ich eine ähnliche Formulierung von mir als TF bezeichnet. Inzwischen habe ich mehr Hoffnung, dass sich dafür ein belastbarer Literaturbeleg finden lässt (Hier in der Diskussion wurde bereits DWDS angeführt). --Pyrrhocorax (Diskussion) 11:11, 1. Nov. 2023 (CET)Beantworten

Die von mir vorgeschlagene Formulierung hätte den Charme, dass man dann gleich fortsetzen kann: "Alle reversiblen (= umkehrbaren) Prozesse sind also dadurch gekennzeichnet, dass die Entropie unverändert bleibt, während sie bei allen irreversiblen (= unumkehrbaren) Prozessen zunimmt. Die Entropie kann in einem abgeschlossenen System daher niemals abnehmen."--Pyrrhocorax (Diskussion) 11:15, 1. Nov. 2023 (CET)Beantworten
Ohne mich großartig inhaltlich einbringen zu wollen, plädiere ich dafür, Verbindungswörter wie "daher" und "also" wegzulassen, da sie eine Folgerungskette suggerieren, die hier meines Erachtens nicht vorliegt. --Wrongfilter ... 11:49, 1. Nov. 2023 (CET)Beantworten
Pyrrhocorax' Formulierung klingt attraktiv, ist aber wohl doch nicht genügend trennscharf, weil OMA mit sich Recht fragen könnte, wie er es denn schafft, die Küche immer wieder sauber zu kriegen. Jedenfalls endete mein Versuch, daraus den Anfang des Artikels zuformen, bislang in folgendem Versuch:
In der Welt laufen ohne äußeren Eingriff physikalische Prozesse ab, die im Idealfall in entgegengesetzter Richtung exakt genauso ablaufen würden (z. B. das Hin- und Herschwingen eines Pendels ohne Reibung). Andere Prozesse sind nur mit fortgesetztem äußeren Eingriff umkehrbar (z. B. das Abbremsen des Pendels in Luft, oder die Vermischung zweier Flüssigkeiten), also für sich genommen unumkehrbar. Die Entropie ist ein physikalisches Maß dafür, wie weit die unumkehrbare Veränderung des Systems vorangeschritten ist. Alle reversiblen (= umkehrbaren) Prozesse sind dadurch gekennzeichnet, dass die Entropie unverändert bleibt, bei allen irreversiblen (= unumkehrbaren) Prozessen nimmt sie zu. Die Entropie kann in einem abgeschlossenen System daher niemals abnehmen. Alle darin spontan ablaufenden Prozesse sind irreversibel.

Wie gesagt, halb fertig. --Bleckneuhaus (Diskussion) 15:39, 8. Nov. 2023 (CET)Beantworten

Ohne jetzt auf Deinen Vorschlag einzugehen möchte ich hier zwei Zitate aus dem Becker "Theorie der Wärme" erwähnen:
  1. »Diejenige Größe, welche die ganze Thermodynamik beherrscht, nämlich die Entropie, erweist sich als ein quantitatives Maß der soeben geschilderten Unkenntnis.« S 63 im Teil II "Statistische Mechanik" § 23 Einleitung
  2. »Die Thermodynamik macht auf Grund einiger Zahlenangaben, wie Energie, Volumen usw., Aussagen über das Verhalten materieller Körper, welche aus ungeheuer vielen Atomen zusammengesetzt sind und von deren Bewegung wir im einzelnen nichts wissen. [...] und die Entropie eines abgeschlossenen Systems zu interpretieren als  « S 253 Im Kap.A "Entropie und Wahrscheinlichkeit" §73 Der allg. Zusammenhang b) Die Entropie als Maß der Uneknntnis
--ArchibaldWagner (Diskussion) 19:07, 9. Nov. 2023 (CET)Beantworten
Ich wünsche mir als einleitenden ersten Satz, eher eine Formulierung wie oben von mir bzw. @Bleckneuhaus vorgeschlagen, vielleicht sogar mit dem Bezug zu Grad der Unwissenheit siehe die Zitate aus Becker bzw. Callen (disorder).
Einen Bezug zu allgemeinen Alltagserfahrung bzw. Irreversibiltät kann/sollte am Beginn des zweiten Absatz stehen. Aber das muss nicht allumfassend erklärt werden, sondern hier erscheint mir ein konkretes Beispiel sogar besser, etwa die Zunahme der Entropie (mit konkreter Zahl) bei der Mischung von je 1 l kalten und warmen Wasser, oder Auflösung eines Teelöffels Zucker in Wasser, siehe auch Übungsaufgaben in Kap. 4 von Stierstadt, oder Beispielrechnung im Buch von Rainer Müller S 272 (Entropieerzeugung beim Mischen[..]).
Aktuell beginnt der zweite Absatz im Artikel so: „Die Entropie eines Systems steigt mit jedem makroskopischen Prozess, der innerhalb des Systems spontan abläuft, und mit jeder Zufuhr von Wärme oder Materie von außen. ...“ Hier würde doch so ein Beispiel bzw. die Irreversibiltät eher hin passen als ganz am Anfang. --ArchibaldWagner (Diskussion) 21:15, 9. Nov. 2023 (CET)Beantworten

Mal ein Entwurf einer neuen Einleitung Bearbeiten


Die Entropie ist in der Thermodynamik eine Zustandsgröße eines makroskopischen Systems von fundamentaler Bedeutung. Sie hat unter anderem folgende Eigenschaften:

  • In einem abgeschlossenen System, das sich durch spontane innere Prozesse (wie Wärmeleitung, Vermischung durch Diffusion, Erzeugung von Reibungswärme, chemische Reaktion etc.) dem thermodynamischen Gleichgewicht annähert, lassen diese Prozesse die Entropie des Systems anwachsen. Der Gleichgewichtszustand ist erreicht, wenn die Entropie den größtmöglichen Wert erreicht, der mit den gegebenen äußeren Parametern des Systems (wie Volumen, Energie, Teilchenzahlen, äußeres Kraftfeld etc) verträglich ist. Alle spontanen thermodynamischen Prozesse kommen dann zum Erliegen und die Entropie bleibt konstant.
  • Entropie kann nicht vernichtet werden. Ein Prozess, bei dem Entropie entstanden ist, kann nicht rückgängig gemacht werden, ohne dass die entstandene Entropie an die Umgebung des Systems abgegeben wird. Selbst wenn der ursprüngliche Zustand des Systems damit wiederhergestellt werden kann, ist nun die Umgebung in einem anderen Zustand als vorher. Eine spurlose Rückkehr zum alten Zustand von System und Umgebung ist unmöglich. Weil alle spontanen thermodynamischen Prozesse Entropie erzeugen, werden sie auch als irreversibel (=unumkehrbar) bezeichnet.
  • Das Anwachsen der Entropie durch jeglichen spontanen Prozess definiert in der Physik die Richtung der fortschreitenden Zeit.
  • Wird einem System mit der Temperatur T die Wärme Q zugeführt oder abgegeben, wird ihm damit auch die Entropie   zugeführt bzw. abgegeben. Auch Zufuhr bzw. Abgabe von Materie erhöht bzw. verringert die Entropie eines Systems. Wird am System nur physikalische Arbeit geleistet, fließt keine Entropie.
  • Ist für ein System bekannt, wie sich die Entropie aus seiner inneren Energie, seinem Volumen und den Stoffmengen der einzelnen chemischen Komponenten darin berechnen lässt, dann wird diese Formel als Fundamentalgleichung bezeichnet. Aus ihr lassen sich die Formeln für alle thermodynamischen Eigenschaften des Systems ableiten (z. B. Zustandsgleichungen, Kompressibilität, spezifische Wärmekapazität, Wärmeausdehnungskoeffizient).

Die SI-Einheit der Entropie ist Joule pro Kelvin (J/K).

Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Entropie ist ein logarithmisches Maß für die Anzahl der verschiedenen Mikrozustände, die das System in dem gegebenen Makrozustand haben könnte. Das Anwachsen der Entropie in einem System, das von einem beliebigen Anfangszustand aus sich selbst überlassen bleibt und sich foglich dem Gleichgewichtszustand nähert, erklärt sich dadurch, dass der Zustand des Systems mittels dieser inneren Prozesse sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände zu realisieren ist. Dieser Makrozustand hat die höchstmögliche Entropie und stellt den stabilen (makroskopischen) Gleichgewichtszustand des Systems dar. Durch diese spontan ablaufenden Annäherung an den Gleichgewichtszustand, die als Relaxation bezeichnet wird, wird Entropie erzeugt.

Im Rahmen dieser Deutung wird umgangssprachlich die Entropie häufig als ein „Maß für die Unordnung“ bezeichnet. Allerdings ist Unordnung kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können. Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.<ref name="Becker" />


Das habe ich mal entworfen, um die Diskussion wieder zu beleben. --Bleckneuhaus (Diskussion) 15:09, 14. Nov. 2023 (CET)Beantworten

Danke @Bleckneuhaus für Deine Arbeit. Die Idee mit einer Liste kurzer Beschreibungen finde ich gut. Bei dem Absatz mit der Fundamentalgleichung sehe ich ein Problem bei „den übrigen thermodynamischen Zustandsgrößen“, evtl. hier konkret die Parameter auflisten: innere Energie, Volumen und die Stoffmengen der einzelnen Komponenten (damit erfasst man dann leider aber nicht alle Systeme, wie etwa bei äußeren Magnetfeldern), siehe hierzu etwa Callen Kap. 2.2. --ArchibaldWagner (Diskussion) 17:07, 14. Nov. 2023 (CET)Beantworten
Danke zurück. Ich habe es etwas überarbeitet. Gibt es weitere Stimmen hierzu? --Bleckneuhaus (Diskussion) 18:18, 16. Nov. 2023 (CET)Beantworten
@Bleckneuhaus, du bist mir gerade zuvor gekommen, es gab einen Editierkonflikt. Folgendes hatte ich noch mitteilen wollen:
Änderungvorschlag für den Punkt mit der Fundamentalgleichung:
  • »Ist für ein einfaches System bekannt, wie sich die Entropie aus der inneren Energie, dem Volumen und den Stoffmengen der einzelnen chemischen Komponenten berechnen lässt, dann wird diese Formel als Fundamentalgleichung bezeichnet. Aus ihr lassen sich die Formeln für alle thermodynamischen Eigenschaften des Systems ableiten (z. B. Zustandsgleichungen, Kompressibilität, spezifische Wärmekapazität, Wärmeausdehnungskoeffizient), soweit keine äußeren Kraftfelder auf das System einwirken.«
Dies ist ein Versuch, den Satz weniger angreifbar zu machen. Ich hatte in einigen Lehrbüchern nachgeschaut und sehe mich nicht in der Lage, den Sachverhalt kurz und doch völlig korrekt darzustellen. Ansonsten denke ich: der Entwurf von Bleckneuhaus berücksichtigt den Wunsch der IP gut und mit einer Übernahme in den Artikel kann der obige Diskussionspunkt von meiner Seite abgeschlossen werden. ArchibaldWagner (Diskussion) 18:23, 16. Nov. 2023 (CET)Beantworten
Danke, das würde ich so übernehmen. Wenn sich nicht schnell noch merklicher Protest regt, kommt das ganze dann in Kürze in den Artikel. Ob weiter unten neuer Anpassungsbedarf entsteht, müssen wir dann sehen. --Bleckneuhaus (Diskussion) 22:26, 16. Nov. 2023 (CET)Beantworten

Nun habe ich den obigen Entwurf noch einmal verbessert, vor allem den 2. Punkt noch klarer gemacht, denke ich. Im letzten Punkt störte mich der ansonsten undefinierte Begriff "einfaches" System. Damit ist doch nichts anderes gemeint, als durch die folgenden Worte gesagt wird, nämlich dass seine Entropie aus den drei Variablen berechnet werden kann und andere nicht zu betrachten sind. Oder übersehe ich da was? - Beim allerersten Stichpunkt bin ich am Zweifeln, ob eine andere Formulierung der Prozesse nicht schneller eingängig wäre: Temperaturausgleich durch Wärmeleitung, Abbremsen von bewegten Teilen durch Reibung, gleichmäßige Durchmischung durch Diffusion, chemische Reaktion. --Bleckneuhaus (Diskussion) 15:21, 17. Nov. 2023 (CET)Beantworten

Dürfte ich vielleicht anmerken, dass ich beim allerersten Satz über das nachgestellte "von fundamentaler Bedeutung" stolpere? Beim ersten Lesen beziehe ich das auf das System und bin verwirrt. Beim zweiten Lesen ist eh klar, dass es sich auf die Zustandsgröße bezieht, dennoch kann man das vielleicht verbessern, indem man den Satz auseinander zieht. Zwei Ansätze:
1. Die Entropie ist eine physikalische Größe von fundamentaler Bedeutung in der Thermodynamik. Sie ist eine Zustandsgröße eines makroskopischen Systems und hat unter anderem folgende Eigenschaften:
2. Die Entropie ist eine Zustandsgröße eines makroskopischen Systems. Sie ist von fundamentaler Bedeutung in der Thermodynamik und hat unter anderem folgende Eigenschaften:
Die erste Variante hat im ersten Satz so gar keine Definition und bietet nur eine Einordnung. Ob die zweite Variante für einen Neuling so erhellend ist, weiß ich aber auch nicht. Vielleicht scheint mir gerade deshalb die erste Variante "ehrlicher", weil sie darauf hinarbeitet, dass der eigentliche Gehalt eben in den Eigenschaften steckt. --Wrongfilter ... 16:18, 17. Nov. 2023 (CET)Beantworten
Danke Wrongfilter! Dasselbe Gefühl von unklarer Doppel-Aussage hatte ich nämlich auch gerade, und die Lösung liegt wohl in der Teilung, wie Du vorschlägst. Ich mach mal was, aber erst morgen. --Bleckneuhaus (Diskussion) 16:54, 17. Nov. 2023 (CET)Beantworten

Wärmekraftmaschine in die Einleitung? Bearbeiten

Bei den Stichpunkten in der Einleitung fehlt mir irgendwie doch ein Satz wie: Ein Prozess, der kontinuierlich Wärme in Arbeit umwandelt (Wärmekraftmaschine), ist nur möglich, wenn die zugeführte Wärme zum Teil als Abwärme wieder an die Umgebung abgegeben wird, um die mit der Wärme zugeführte Entropie wieder abzuführen. Nur die Differenz aus zugeführter und abgegebener Wärme kann in Arbeit umgewandelt werden. --Bleckneuhaus (Diskussion) 14:29, 19. Nov. 2023 (CET)Beantworten

Maß für die Unordnung Bearbeiten

Ich habe einen gerade beginnenden Editwar durch Seitenschutz beendet. WinfriedSchneider wollte die Beschreibung mit der Unordnung prominenter in der Einleitung haben. Abgesehen von der Diskussionspflicht auf Seiten dessen, der eine Änderung zum status quo will, hat mich irritiert, dass die hier noch gut sichtbare nicht lange zurückliegende Diskussion gerade dazu von Winfried trotz ZF-Hinweis von Wrongfilter nicht aufgegriffen wurde. Ich hoffe auf Lektüre der obigen Diskussionen und ggf. neuen Argumenten. Geschützt habe ich, da ich inhaltlich nicht involviert war in den Diskussionen - sonst hätte ich das auf VM melden müssen. Gruß Kein Einstein (Diskussion) 21:19, 4. Jan. 2024 (CET)Beantworten

Hallo Kein Einstein, danke für deine Aktion, die ich ausdrücklich unterstütze. -- Wassermaus (Diskussion) 22:06, 4. Jan. 2024 (CET)Beantworten
Den Seitenschutz kannst Du wieder wieder aufheben, denn „beginnender Editwar“ missversteht mein Interesse an Verbesserung des Artikels und Verteidigung der Revert-Regeln gegen Missbrauch. Ich belasse es bei je einem Versuch, aber erlaube mir den Hinweis, dass es keine „Diskussionspflicht auf Seiten dessen (gibt), der eine Änderung zum status quo will“, nur Wikiquette und das Grundprinzip Sei mutig! Grüße von --Winnie Schneider (Diskussion) 22:22, 4. Jan. 2024 (CET)Beantworten
Ich gestehe ein, dass ich den Belege-Aspekt (Punkt 3) hier generalisiert habe - aber auch die von dir zitierte Revert-Regel setzt den status quo, also die frühere Version, als Normalzustand. Daher hat Wrongfilter das verteidigt, was in längeren Diskussionen erarbeitet wurde. Wenn du Argumente für eine Veränderung hast, dann nenne sie hier bitte. Im Vertrauen auf deine gegebene Zusage hebe ich den Seitenschutz auf. Kein Einstein (Diskussion) 22:46, 4. Jan. 2024 (CET)Beantworten