Grundgleichungen der Statistischen Thermodynamik

Wir betrachten nun ein System von vielen Teilchen, das abgeschlossen hinsichtlich der Teilchenzahl und der inneren Energie sein soll. D.h. es muss für die Gesamtzahl N aller Teilchen gelten:

N  =  Σi Ni

und für die innere Energie U der Gesamtsystems:

U  =  Σi Ni Ei

Für ein solches System gilt, was wir schon als Boltzmannverteilung kennengelernt haben, nämlich, dass die Wahrscheilichkeit das System im i-ten Zustand zu finden durch

Pi  =  Ni/N  =  (Gi e−Ei/kT)/Q

gegeben ist, wobei Q die Zustandssumme für das ganze System ist:

Q  =  Σi Gi e−Ei/kT

Gi gibt dabei die Zahl der Zustände bei der Energie Ei (die Entartung) an. Die mittlere Energie des Systems <E> ist die aus der Thermodynamik bekannte innere Energie U:

U  =  <E>  =  Σi Pi Ei  =  1/Q Σi Ei Gi e−Ei/kT

Wir können danach U berechnen, wenn wir alle Energiezustände i des Systems kennen. Um diese Formel etwas eleganter schreiben zu können, versuchen wir nun, die Summe "loszuwerden". Da sich die Summe für U von der für Q nur dadurch unterscheidet, dass zusätzlich über "Ei" zu summieren ist, müssen wir nur versuchen, dieses "Ei" über Q auszudrücken. Aber wie? Nun, wir wissen, dass die Ableitung einer e-Funktion diese erhält, aber man muss noch mit der inneren Ableitung multiplizieren, d.h. wir müssen nur Q so ableiten, das mit "Ei" multipliziert werden muss. Probieren wir es also:

∂Q/∂T  =  Σi Gi e−Ei/kT (Ei/kT²)

kT² ∂Q/∂T  =  Σi Gi Ei e−Ei/kT

Einsetzen in U ergibt sofort den Ausdruck für die innere Energie:
 

U  =  kT² · 1/Q · ∂Q/∂T  =  kT² · ∂lnQ/∂T

Das letzte Gleichheitszeichen gilt, da ∂lnQ/∂T = 1/Q · ∂Q/∂T ist.

Das Energieverteilungsgesetz von Boltzmann (Pi) wurde von ihm etwas aufwendiger gewonnen, indem er sich überlegte, dass die Entropie S eines Systems im Gleichgewicht genau dadurch gegeben ist, die wahrscheinlichste Verteilung aller möglichen Zustände diejenige ist, dass die am häufigsten vorkommt (Prinzip der maximalen Unordnung). So definierte Boltzmann die Entropie über die Gleichung
 

S  =  k ln W

die später seinen Grabstein schmücken sollte.

Wir wollen die Entropie etwas moderner definieren:
 

S  =  − k Σi Pi ln Pi

Greifen wir ein Untersystem heraus, in dem jeder Zustand gleich wahrscheinlich ist, dann ist

Pi  =  1/W

z.B. ist die Wahrscheinlichkeit, bei einem Würfel eine bestimmte Zahl zu würfeln, gerade 1/6, wenn es W = 6 Möglichkeiten gibt. Die Entropie ist dann

S  =  − k Σi(1/W) (− ln W)

Da die Summe über Konstanten geht, ist Σi1 = W, die Gesamtzahl der Möglichkeiten (d.h. 6 beim Würfeln). D.h. S  =  k ln W, was genau der Definition von Boltzmann entspricht. Die alte Definition ist also ein Spezialfall unserer neuen Definition. Berechnen wir nun hiermit die Entropie des Gesamtsystems, dann gilt

S  =  − k Σi{1/Q e−Ei/kT}{Ei/kT− ln Q}

S  =  k · {U/kT + ln Q}

Vergleich wir diesen Ausdruck mit der thermodynamischen Definition der freien Energie

A  =  U − TS

S  =  U/TA/T

dann finden wir die einfachen Beziehung:
A/T  =  k ln Q
 
A  =  − k T ln Q

Wir können jetzt die thermodynamische Größe ableiten. So ist der Druck z.B. über
 

p  =  − (∂A/∂V)Ni,T  =  kT (∂lnQ/∂V)Ni,T

gegeben. Die Enthalpie ist über

H  =  U + pV
definiert. Also gilt:
 
H  =  kT² (∂lnQ/∂T)Ni,V + kTV (∂lnQ/∂V)Ni,T

die freie Enthalpie (Gibbsenergie) ist über

G  =  H - TS = U + pV -TS = A + pV
definiert. Also gilt
 
G  =  − kT lnQ + kTV(∂lnQ/∂V)

 

Auf diesem Webangebot gilt die Datenschutzerklärung der TU Braunschweig mit Ausnahme der Abschnitte VI, VII und VIII.