Mikroskopische Betrachtungen

Mit einem Würfel werden wir die Zahlen 1 - 6 mit gleicher Wahrscheinlichkeit würfeln (wir arbeiten ja nicht mit manipulierten Würfeln). Mit zwei Würfeln werden wir als Summe der Augenzahlen 2 bis 12 erhalten, aber mit unterschiedlicher Häufigkeit, denn es gibt für die Summe 2 bzw. 12 nur jeweils die eine Möglichkeit 1+1 bzw. 6+6, für die Summe 7 hingegen die W=6 Möglichkeiten 1+6, 2+5, 3+4, 4+3, 5+2, 6+1.

Wenn ich also wette, wie groß die Summe der Augenzahlen beim nächsten Wurf mit zwei Würfeln ist, dann habe ich bei 7 eine sechsmal größere Chance zu gewinnen als bei 2 (oder 12).

Beim Spiel mit drei Würfeln habe ich für die Summe 3 (1+1+1) nur eine Möglichkeit, für die mittlere Augenzahl von 10 (und auch 11) gibt es hingegen W=27 Möglichkeiten.

Bei 4 Würfeln ist der Tip auf die mittlere Augenzahl von 14 bereits um den Faktor von W=72 größer, als auf die Summe 4 zu tippen.

Mit zunehmender Zahl von Würfeln (Teilchen) nimmt die Wahrscheinlichkeit, eine mittlere Augenzahl zu würfeln (die Teilchen bei einer mittleren Energie zu finden), im Vergleich zur Wahrscheinlichkeit, eine andere Augenzahl zu würfeln (Teilchen bei einer anderen Energie zu finden), überproportional zu. Das statistische Gewicht W wächst extrem schnell mit zunehmender Teilchenzahl (Würfeln), d.h. andere als die wahrscheinlichste Summe beim Würfeln werden kaum realisiert. Ludwig Boltzmann legte so die Entropie S fest:
 

S = k ln W

 Und diese Gleichung ist auf seinem Grabstein eingemeißelt.

Entropie und Unordnung

Wir können einen Einblick in den Entropiezuwachs bei der Mischung  zweier Gase gewinnen, wenn wir diesen Vorgang zunächst einmal für eine wesentlich geringere Anzahl  von Molekülen betrachten.

Einen Zustand hoher Ordnung haben wir zum Beispiel  bei einem neuen Satz von Skatkarten, in dem alle Karten in der richtigen Rangordnung vom Kreuz As bis zur Karo Sieben liegen. Dies ist die einzige korrekte Reihenfolge, und wenn wir auch nur eine Karte an eine falsche Stelle stecken, dann ist die Ordnung zerstört. Es gibt beim Skatspiel 31 "falsche" Stellen für eine bestimmte Karte, aber nur eine "richtige" Stelle. Wenn wir nun die zusätzliche Forderung aufstellen, dass jede beliebige Karte umgesteckt werden kann, dann erhalten wir W = 31 · 31 = 961 verschiedene Anordnungen, die dieser Forderung genügen.

In der Nomenklatur thermodynamischer Systeme sagt man, dass es 961 verschiedene Zustände (Mikrozustände) des Skatspiels gibt, die dieselbe Verteilung (Makrozustand) realisieren, nämlich diejenige, bei welcher eine Karte umgesteckt ist.

Man beachte, dass jede dieser Anordnungen mit einer "falschen" Karte genauso definiert ist wie die korrekte Reihenfolge. Es gibt W = 961 verschiedene Anordnungen, die sich durch die Angabe charakterisieren lassen, eine Karte sei umgesteckt worden; hier wird nicht angegeben, welche Karte dies ist und wo sie jetzt steckt. Da wir auf diese letztere, präzise Information verzichten, können wir sagen, dass der etwas geringere Ordnungszustand (eine von 32 Karten hat sich verirrt) 961mal wahrscheinlicher ist als die Anordnung, von der wir ausgegangen sind und die wir als die größtmögliche Ordnung des Systems ansehen wollen.

Wenn wir nun das Kartenspiel kräftig mischen, wird die vorherige Anordnung völlig zerstört. Wir erhalten eine der 32! möglichen Anordnungen, da die Gesamtzahl der Anordnungen des Skatspiels 32! ist, wissen aber nicht welche. Wir haben die gesamte Information verloren, die wir zuvor über die Anordnung der Karten besaßen.Nun sind ja unsere Karten glücklicherweise gekennzeichnet, und wir können durch Sortieren die ursprüngliche Reihenfolge herstellen. Aber durch weiteres Mischen des Kartenspiels wird uns das innerhalb eines vernünftigen Zeitraums wohl kaum gelingen.

Warum ist die durch Mischen hergestellte Ordnung ihrer Natur nach irreversibel? Sie ist es nicht etwa, weil irgendeine durch Mischen hergestellte Anordnung wahrscheinlicher wäre als irgendeine andere, die vor dem Mischvorgang bestanden hat. Der Mischvorgang ist deswegen irreversibel, weil die Zahl der "ungeordneten" Zustände, also jener Anordnungen, die von der ursprünglichen abweichen,  um vieles größer ist als eins. Jede besondere Reihenfolge - auch die, die wir als geordnet ansehen - hat dieselbe Wahrscheinlichkeit von 1/32! (Prinzip der gleichen a-priori-Wahrscheinlichkeiten). Wenn wir aber alle anderen außer der einen Reihenfolge als ungeordnet bezeichnen, dann sind die Chancen für die Entstehung ungeordneter Zustände beim Mischvorgang überwältigend groß. Wir können daher die Ergebnisse des Mischens so zusammenfassen:

Die Analogie zwischen dem Mischen der Karten und dem Mischen von Gasen durch gegenseitige Diffusion ist augenscheinlich. Der ursprüngliche Zustand des binären Systems ist dadurch gekennzeichnet, dass beide Komponenten völlig getrennt sind. Dies entspricht dem Zustand eines Kartenspiels, bei dem alle roten und alle schwarzen Karten aufeinanderliegen. Dem mechanischen Mischvorgang der Karten entspricht die spontane Diffusion der Gasmoleküle A und B aufgrund ihrer thermischen Bewegungen. Die sich ergebende Mischung von A und B stellt einen maximalen Unordnungszustand dar. Diese ist zusammen mit allen anderen Mischungszuständen wegen  der ungeheuer großen Zahl von Molekülen in unserem System unvorstellbar viel wahrscheinlicher als der einzige ungemischte Zustand. Wir haben zudem Information verloren in dem Sinne, dass wir nicht länger sagen können, in welchem Teil unserer Anordnung ein bestimmtes Molekül jetzt ist oder zuvor war.

Der gemischte Zustand hat eine größere Entropie als der ungemischte. Um eine quantitative Beziehung zwischen der Entropie S und der Zahl W der verschiedenen Mikrozustände des Systems herzustellen, erinnern wir uns daran, dass die Entropie additiv, die Zahl W jedoch multiplikativ ist. Wenn wir ein System betrachten, das in zwei Teile geteilt ist, dann ist die Entropie des gesamten Systems die Summe der Entropien seiner Teile: S = S1 + S2. Andererseits ergibt sich die Zahl W der verschiedenen Zustände des kombinierten Systems aus dem Produkt der Zustände der beiden Teile des Systems. Es ist also W = W1 · W2, da jeder der W1 Zustände des Teils I mit jedem der W2 Zustände des Teils II kombiniert werden kann. Zwischen S und W muss also eine logarithmische Beziehung bestehen, die in ihrer allgemeinen Form folgendermaßen lautet:
 

ΔS = S2 - S1 =  a ln W2/W1

Der Wert der Konstanten a läßt sich herleiten, indem man einen einfachen Vorgang, für den das ΔS thermodynamisch bestimmt werden kann, nach dem Gesichtspunkt seiner Wahrscheinlichkeit analysiert. Dieser Vorgang bestehe in der Expansion eines Mols eines idealen Gases von einem Behälter mit dem Volumen V1 in einen evakuierten Behälter des Volumens V2 . Dabei soll der Druck von p1 auf  p2 absinken, das Volumen nimmt von V1 auf V1 + V2 zu. Wie später noch gezeigt wird, gilt dann für die Entropiezunahme:
 

ΔS = S2 - S1 =R ln (V1 + V2/V1)

Es ist R = NAk; damit erhalten wir:
 

ΔS = k . ln (V1/V1 + V2)-NA

Wenn die Behälter miteinander verbunden werden, erhält man die Wahrscheinlichkeit, ein bestimmtes Molekül im ersten Behälter anzutreffen, einfach aus dem Verhältnis des Volumens V1zum Gesamtvolumen V1 + V2. Da Wahrscheinlichkeiten multiplikativ sind, ist die Chance, dass sich alle NA Moleküle im ersten Behälter aufhalten (Wahrscheinlichkeit P1 für den ursprünglichen Zustand des Systems):
 

P1 = (V1/V1 + V2)NA

Der Volumenquotient ist <1; wir sehen also hier schon, dass p1 eine Zahl ist, die sich nur wenig von null unterscheidet.

Im Endzustand müssen sich alle Moleküle im einen oder anderen Behälter (also im Gesamtvolumen) befinden; die Wahrscheinlichkeit für diesen Zustand ist also P2 = 1. Demnach ist P2/P1 = W2/W1 = [V1/(V1 + V2)]-NA. Man erhält also:
 

ΔS = S2 - S1 = a ln W2/W1  = a ln (V1/V1 + V2)-NA

Dies ist nun die gewünschte Beziehung zwischen der thermodynamischen und der statistischen Definition der Entropie. Ein Vergleich mit ΔS = k . ln (V1/V1 + V2)-NA zeigt, dass die Konstante a gleich der BOLTZMANNschen Konstante k ist. Es ist also
 

S = k ln W

Für eine Änderung vom Zustand 1 in den Zustand 2 gilt.
 

ΔS = S2 - S1 = k ln W2/W1

Wenn W2 der Gleichgewichtswert WGl ist, dann ist die Wahrscheinlichkeit, eine Entropieabnahme Δ zu beobachten.
 

W/WG1  = e -ΔS/k

Für 1 Mol Helium hat S/k bei 273 K den Wert 9 · 1024 . Die Wahrscheinlichkeit, eine Entropieabnahme um lediglich ein Millionstel dieses Betrages beobachten zu können, ist etwa exp(-1019) oder 10-2000000000000000000. Eine solche Schwankung im makroskopischen Maßstab ist so unwahrscheinlich, dass sie "niemals" beobachtet wird. Niemand, der ein Buch auf einem Pult liegen sieht, würde erwarten, dass es spontan wie unter einem Schüttelfrost zur Decke hinauffliegen würde. Prinzipiell können wir uns eine Situation vorzustellen, bei der sich alle Moleküle im Buch spontan in einer bestimmten Richtung bewegen. Nur ist eine solche Situation extrem unwahrscheinlich, da es unvorstellbar viele Moleküle in einem Buch oder in einem anderen makroskopischen Stück Materie gibt. Jeder, der ein Buch spontan gegen die Decke fliegen sieht, hat es höchstwahrscheinlich mit einem Telekineten oder einem Poltergeist und nicht mit einer Energieschwankung zu tun. Nur wenn ein System sehr klein ist, besteht die gute Chance, eine merkliche relative Entropieabnahme beobachten zu können.
 


Entropie und Information

Ordnungszustände in einem System entsprechen einer zusätzlichen, spezifischen Aussage über dieses System. Eine Zunahme an Information entspricht einer Abnahme der Entropie des Systems. Es erhebt sich nun die Frage, ob sich eine quantitative Beziehung zwischen Entropie und Information erhalten läßt. Ein erster Schritt in dieser Richtung ist das quantitative Maß für die Information, wie es durch die Informationstheorie von WEAVER und SHANNON geliefert wird.

Eine Information wird oft mit Hilfe eines binären Codes übertragen, in einem Computer z. B. mit einem Schaltelement, das entweder eingeschaltet (1) oder ausgeschaltet ist (0). Wenn eine Nachricht n solcher Systeme enthält, würde es N = 2n Möglichkeiten für die Anordnung dieser Symbole geben. Wir definieren die gewonnene Information durch
 

I = n = log2

Die so definierte Einheit der Information nennt man ein bit. Diese Bezeichnung ist aus dem englischen Begriff binary digit (=Binärziffer) entstanden. Als Beispiel wählen wir wieder einen Satz Karten, in dem wir eine Karte kennzeichnen. Für die dadurch gegebene Information gilt I = log232 = 5 (es ist 25 = 32). Die Kennzeichnung der Karte erfordert also fünf Informationsbits. Weiteres zu Entropie und Information gibt es hier.
Wir können die Information auch in thermodynamischen Einheiten messen, indem wir log2 durch ln ersetzen und mit k multiplizieren. Es gilt der Zusammenhang:
 

-I = S1 - S0 = ΔS

Wir können also die Entropie als negative Information oder die Information als negative Entropie deuten.
 


Auf diesem Webangebot gilt die Datenschutzerklärung der TU Braunschweig mit Ausnahme der Abschnitte VI, VII und VIII.