Hauptmenü öffnen
Icon tools.svg
Dieser Artikel wurde den Mitarbeitern der Redaktion Physik zur Qualitätssicherung aufgetragen. Wenn du dich mit dem Thema auskennst, bist du herzlich eingeladen, dich an der Prüfung und möglichen Verbesserung des Artikels zu beteiligen. Der Meinungsaustausch darüber findet derzeit nicht auf der Artikeldiskussionsseite, sondern auf der Qualitätssicherungs-Seite der Physik statt.

In der statistischen Physik ist die fehlende Information eines Systems die Information, die benötigt wird, um herauszufinden, in welchem Zustand sich ein System befindet. Sie ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten

wobei die die Wahrscheinlichkeiten der Zustände des Systems sind.

Als Informationsentropie wird die fehlende Information bezeichnet, um herauszufinden, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines Ensembles befindet.

Setzt man , so ergibt sich der Informationsgehalt aus der Informationstheorie in der Einheit Shannon. In der Statistischen Physik setzt man jedoch auf die Boltzmann-Konstante , weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.

Das Gleichgewichtssystem ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.

Mikrokanonisches EnsembleBearbeiten

Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand  , bei dem z. B.   die Energie,   die Teilchenzahl und   das Volumen sind, eine Anzahl   mikroskopischer Zustände, so sind folglich die Energieniveaus   mit den Wahrscheinlichkeiten   vertreten.

Die Informationsentropie beträgt dann

 

beziehungsweise für eine bestimmte Energie  

 

Kanonisches EnsembleBearbeiten

Für das kanonische Ensemble sind die Wahrscheinlichkeiten für verschiedene Energien  . Und die Informationsentropie beträgt

 

wobei   die Freie Energie und   die Innere Energie sind.

LiteraturBearbeiten