Mit einem Würfel werden wir die Zahlen 1 - 6 mit gleicher Wahrscheinlichkeit würfeln (wir arbeiten ja nicht mit manipulierten Würfeln). Mit zwei Würfeln werden wir als Summe der Augenzahlen 2 bis 12 erhalten, aber mit unterschiedlicher Häufigkeit, denn es gibt für die Summe 2 bzw. 12 nur jeweils die eine Möglichkeit 1+1 bzw. 6+6, für die Summe 7 hingegen die W=6 Möglichkeiten 1+6, 2+5, 3+4, 4+3, 5+2, 6+1.
Wenn ich also wette, wie groß die Summe der Augenzahlen beim nächsten Wurf mit zwei Würfeln ist, dann habe ich bei 7 eine sechsmal größere Chance zu gewinnen als bei 2 (oder 12).
Beim Spiel mit drei Würfeln habe ich für die Summe 3 (1+1+1) nur eine Möglichkeit, für die mittlere Augenzahl von 10 (und auch 11) gibt es hingegen W=27 Möglichkeiten.
Bei 4 Würfeln ist der Tip auf die mittlere Augenzahl von 14 bereits um den Faktor von W=72 größer, als auf die Summe 4 zu tippen.
Mit zunehmender Zahl von Würfeln (Teilchen) nimmt die Wahrscheinlichkeit,
eine mittlere Augenzahl zu würfeln (die Teilchen bei einer mittleren
Energie zu finden), im Vergleich zur Wahrscheinlichkeit, eine andere Augenzahl
zu würfeln (Teilchen bei einer anderen Energie zu finden), überproportional
zu. Das statistische Gewicht W wächst extrem schnell mit zunehmender
Teilchenzahl (Würfeln), d.h. andere als die wahrscheinlichste Summe
beim Würfeln werden kaum realisiert. Ludwig Boltzmann legte so die
Entropie S fest:
|
Und diese Gleichung ist auf seinem Grabstein eingemeißelt.
Entropie und Unordnung
Wir können einen Einblick in den Entropiezuwachs bei der Mischung zweier Gase gewinnen, wenn wir diesen Vorgang zunächst einmal für eine wesentlich geringere Anzahl von Molekülen betrachten.
Einen Zustand hoher Ordnung haben wir zum Beispiel bei einem neuen Satz von Skatkarten, in dem alle Karten in der richtigen Rangordnung vom Kreuz As bis zur Karo Sieben liegen. Dies ist die einzige korrekte Reihenfolge, und wenn wir auch nur eine Karte an eine falsche Stelle stecken, dann ist die Ordnung zerstört. Es gibt beim Skatspiel 31 "falsche" Stellen für eine bestimmte Karte, aber nur eine "richtige" Stelle. Wenn wir nun die zusätzliche Forderung aufstellen, dass jede beliebige Karte umgesteckt werden kann, dann erhalten wir W = 31 · 31 = 961 verschiedene Anordnungen, die dieser Forderung genügen.
In der Nomenklatur thermodynamischer Systeme sagt man, dass es 961 verschiedene Zustände (Mikrozustände) des Skatspiels gibt, die dieselbe Verteilung (Makrozustand) realisieren, nämlich diejenige, bei welcher eine Karte umgesteckt ist.
Man beachte, dass jede dieser Anordnungen mit einer "falschen" Karte genauso definiert ist wie die korrekte Reihenfolge. Es gibt W = 961 verschiedene Anordnungen, die sich durch die Angabe charakterisieren lassen, eine Karte sei umgesteckt worden; hier wird nicht angegeben, welche Karte dies ist und wo sie jetzt steckt. Da wir auf diese letztere, präzise Information verzichten, können wir sagen, dass der etwas geringere Ordnungszustand (eine von 32 Karten hat sich verirrt) 961mal wahrscheinlicher ist als die Anordnung, von der wir ausgegangen sind und die wir als die größtmögliche Ordnung des Systems ansehen wollen.
Wenn wir nun das Kartenspiel kräftig mischen, wird die vorherige Anordnung völlig zerstört. Wir erhalten eine der 32! möglichen Anordnungen, da die Gesamtzahl der Anordnungen des Skatspiels 32! ist, wissen aber nicht welche. Wir haben die gesamte Information verloren, die wir zuvor über die Anordnung der Karten besaßen.Nun sind ja unsere Karten glücklicherweise gekennzeichnet, und wir können durch Sortieren die ursprüngliche Reihenfolge herstellen. Aber durch weiteres Mischen des Kartenspiels wird uns das innerhalb eines vernünftigen Zeitraums wohl kaum gelingen.
Warum ist die durch Mischen hergestellte Ordnung ihrer Natur nach irreversibel? Sie ist es nicht etwa, weil irgendeine durch Mischen hergestellte Anordnung wahrscheinlicher wäre als irgendeine andere, die vor dem Mischvorgang bestanden hat. Der Mischvorgang ist deswegen irreversibel, weil die Zahl der "ungeordneten" Zustände, also jener Anordnungen, die von der ursprünglichen abweichen, um vieles größer ist als eins. Jede besondere Reihenfolge - auch die, die wir als geordnet ansehen - hat dieselbe Wahrscheinlichkeit von 1/32! (Prinzip der gleichen a-priori-Wahrscheinlichkeiten). Wenn wir aber alle anderen außer der einen Reihenfolge als ungeordnet bezeichnen, dann sind die Chancen für die Entstehung ungeordneter Zustände beim Mischvorgang überwältigend groß. Wir können daher die Ergebnisse des Mischens so zusammenfassen:
Der gemischte Zustand hat eine größere Entropie als der ungemischte.
Um eine quantitative Beziehung zwischen der Entropie S und der Zahl
W
der verschiedenen Mikrozustände des Systems herzustellen, erinnern
wir uns daran, dass die Entropie additiv, die Zahl W jedoch
multiplikativ ist. Wenn wir ein System betrachten, das in zwei Teile geteilt
ist, dann ist die Entropie des gesamten Systems die Summe der Entropien
seiner Teile: S = S1 + S2. Andererseits
ergibt sich die Zahl W der verschiedenen Zustände des kombinierten
Systems aus dem Produkt der Zustände der beiden Teile des Systems.
Es ist also W = W1 · W2,
da
jeder der W1 Zustände des Teils I mit jedem
der W2 Zustände des Teils II kombiniert werden kann.
Zwischen S und W muss also eine logarithmische Beziehung
bestehen, die in ihrer allgemeinen Form folgendermaßen lautet:
|
Der Wert der Konstanten a läßt sich herleiten, indem
man einen einfachen Vorgang, für den das ΔS
thermodynamisch bestimmt werden kann, nach dem Gesichtspunkt seiner Wahrscheinlichkeit
analysiert. Dieser Vorgang bestehe in der Expansion eines Mols eines idealen
Gases von einem Behälter mit dem Volumen V1 in einen
evakuierten Behälter des Volumens V2 . Dabei
soll der Druck von p1 auf p2
absinken, das Volumen nimmt von V1 auf V1
+ V2 zu. Wie später noch gezeigt wird, gilt
dann für die Entropiezunahme:
|
Es ist R = NAk; damit erhalten wir:
|
Wenn die Behälter miteinander verbunden werden, erhält man
die Wahrscheinlichkeit, ein bestimmtes Molekül im ersten Behälter
anzutreffen, einfach aus dem Verhältnis des Volumens V1zum
Gesamtvolumen V1 + V2. Da Wahrscheinlichkeiten
multiplikativ sind, ist die Chance, dass sich alle NA
Moleküle im ersten Behälter aufhalten (Wahrscheinlichkeit
P1
für
den ursprünglichen Zustand des Systems):
|
Der Volumenquotient ist <1; wir sehen also hier schon, dass p1 eine Zahl ist, die sich nur wenig von null unterscheidet.
Im Endzustand müssen sich alle Moleküle im einen oder anderen
Behälter (also im Gesamtvolumen) befinden; die Wahrscheinlichkeit
für diesen Zustand ist also P2 = 1. Demnach ist
P2/P1
= W2/W1 = [V1/(V1
+ V2)]-NA. Man erhält
also:
|
Dies ist nun die gewünschte Beziehung zwischen der thermodynamischen
und der statistischen Definition der Entropie. Ein Vergleich mit ΔS
= k . ln (V1/V1
+ V2)-NA
zeigt, dass die Konstante a gleich der BOLTZMANNschen Konstante
k
ist. Es ist also
|
Für eine Änderung vom Zustand 1 in den Zustand 2 gilt.
|
Wenn W2 der Gleichgewichtswert WGl
ist, dann ist die Wahrscheinlichkeit, eine Entropieabnahme ΔS
zu beobachten.
|
Für 1 Mol Helium hat S/k
bei
273 K den Wert 9 · 1024 . Die Wahrscheinlichkeit,
eine Entropieabnahme um lediglich ein Millionstel dieses Betrages beobachten
zu können, ist etwa exp(-1019) oder 10-2000000000000000000.
Eine solche Schwankung im makroskopischen Maßstab ist so unwahrscheinlich,
dass sie "niemals" beobachtet wird. Niemand, der ein Buch auf einem
Pult liegen sieht, würde erwarten, dass es spontan wie unter
einem Schüttelfrost zur Decke hinauffliegen würde. Prinzipiell
können wir uns eine Situation vorzustellen, bei der sich alle Moleküle
im Buch spontan in einer bestimmten Richtung bewegen. Nur ist eine solche
Situation extrem unwahrscheinlich, da es unvorstellbar viele Moleküle
in einem Buch oder in einem anderen makroskopischen Stück Materie
gibt. Jeder, der ein Buch spontan gegen die Decke fliegen sieht, hat es
höchstwahrscheinlich
mit einem Telekineten oder einem Poltergeist und nicht mit einer Energieschwankung
zu tun. Nur wenn ein System sehr klein ist, besteht die gute Chance, eine
merkliche relative Entropieabnahme
beobachten zu können.
Ordnungszustände in einem System entsprechen einer zusätzlichen, spezifischen Aussage über dieses System. Eine Zunahme an Information entspricht einer Abnahme der Entropie des Systems. Es erhebt sich nun die Frage, ob sich eine quantitative Beziehung zwischen Entropie und Information erhalten läßt. Ein erster Schritt in dieser Richtung ist das quantitative Maß für die Information, wie es durch die Informationstheorie von WEAVER und SHANNON geliefert wird.
Eine Information wird oft mit Hilfe eines binären Codes übertragen,
in einem Computer z. B. mit einem Schaltelement, das entweder eingeschaltet
(1) oder ausgeschaltet ist (0). Wenn eine Nachricht n solcher Systeme
enthält, würde es N = 2n Möglichkeiten
für die Anordnung dieser Symbole geben. Wir definieren die gewonnene
Information durch
|
Die so definierte Einheit der Information nennt man ein bit.
Diese Bezeichnung ist aus dem englischen Begriff binary digit (=Binärziffer)
entstanden. Als Beispiel wählen wir wieder einen Satz Karten, in dem
wir eine Karte kennzeichnen. Für die dadurch gegebene Information
gilt I = log232 = 5 (es ist 25 = 32). Die
Kennzeichnung der Karte erfordert also fünf Informationsbits. Weiteres
zu Entropie und Information gibt es hier.
Wir können die Information auch in thermodynamischen Einheiten
messen, indem wir log2 durch ln ersetzen und mit k multiplizieren.
Es gilt der Zusammenhang:
|
Wir können also die Entropie als negative Information oder die
Information als negative Entropie deuten.
Auf diesem Webangebot gilt die Datenschutzerklärung der TU Braunschweig mit Ausnahme der Abschnitte VI, VII und VIII.