Wir wenden uns jetzt einem weiteren Bereich in der Physik zu, der sich in einer Vielzahl von Fällen sehr nützlich anwenden lässt. Es geht dabei um Systeme, die nicht nur aus ein oder zwei Teilchen bestehen, sondern die vielmehr ein makroskopisches Volumen haben. Gleichzeitig werden die molekularen Strukturen der Körper berücksichtigt. Der mathematische Aufwand ist bei der Beschreibung thermodynamischer Beziehungen im Allgemeinen sehr gering. Andererseits ist die physikalische Interpretation der verschiedenen Größen mitunter etwas aufwendiger. Als Beispiel könnte man hier die Entropie anführen, die später noch beleuchtet wird.
Bisher hatten wir es mit einfachen geordneten Systemen zu tun. Die Eigenschaften dieser Systeme und all ihrer Teilsysteme konnten vollständig angegeben werden. Das heißt, die zeitliche Entwicklung eines solchen Systems kann durch die üblichen dynamischen Gleichungen beschrieben werden. Diese Lösungen sind auch gegen Zeitumkehr invariant. Jetzt aber, wollen wir uns mit größeren Systemen auseinandersetzten.
Wenn man sich makroskopische Systeme anschaut, zum Beispiel den Menschen, besteht ein solches System aus vielen Teilsystemen. Betrachtet man in einer Untersuchung nur 10 oder 50 Teilsysteme, mag das Ganze noch überschaubar sein. Aber die Anzahl der Teilsysteme oder Moleküle, aus denen beispielsweise ein Gasvolumen besteht, belaufen sich allein bei 1 cm³ Luft auf 10²³ Moleküle. In einem solchen Fall ist es nicht mehr möglich, 10²³ gekoppelte Differentialgleichungen untereinander aufzuschreiben und diese dann alle miteinander zu lösen.
Ganz zu schweigen davon, die einzelnen Moleküle nachzuverfolgen, die in dem Volumen umherschwirren. Der mathematische Aufwand ist einfach zu groß, und deshalb muss man eine andere Lösung finden. Daher ist es wichtig, gewisse makroskopische Eigenschaften dieser Systeme zu untersuchen, sie zu beschreiben, und schließlich auf komplexe Systeme zu übertragen. Es kommt nur darauf an, gewisse Mittelwerte über alle diese Moleküle zu bilden, damit man dann zu Größen kommt, die makroskopisch beobachtbar sind. Letztlich ist es das Ziel, auch große Systeme zu beschreiben. Und eine dieser wichtigen Größen ist die Temperatur.
Es geht also darum, makroskopische Systemeigenschaften durch Mittelung über mikroskopische Systemeigenschaften zu erhalten. Und damit sind wir schon bei der ersten Frage: Wie mittelt man, und was für einen Mittelwert bildet man? Es können nämlich dabei ganz unterschiedliche Ergebnisse herauskommen. Da gibt es im Wesentlichen zwei Möglichkeiten:
Möglichkeit 1:
Man lässt ein Volumensystem sich eine Zeit lang entwickeln, und verfolgt ein
Molekül gedanklich auf seinem Weg innerhalb des Volumens. Während dessen
beobachtet man ständig, wie groß die kinetische Energie dieses Moleküls ist.
Denn diese Moleküle werden immer wieder miteinander zusammen stoßen. Auf diese
Weise kann man über einen gewissen Zeitraum die Werte mitteln. Und schließlich
erhält man eine mittlere kinetische Energie des Moleküls. Man nennt dies auch ein
„Zeitmittel”.
Möglichkeit 2:
Eine zweite Möglichkeit besteht darin, eine Momentaufnahme des Systems zu machen.
Zum Beispiel, wenn man alle Geschwindigkeiten von allen Teilchen und die kinetischen
Energien von allen Molekülen in dem System kennt. Dann kann man mitteln, über alle
kinetischen Energien aller dieser einzelnen Moleküle, zu einem bestimmten Zeitpunkt.
Das nennt man dann ein „Scharmittel”, wegen der Schar von Molekülen.
Für welche Mittelung man sich entscheidet, ist oft eine Geschmacksache. Unter sehr allgemeinen Voraussetzungen werden diese beiden Mittelwerte miteinander zusammenfallen. Diese Gemeinsamkeit tritt allerdings nur dann auf, wenn eine gewisse chaotische Situation in dem Medium vorhanden ist. Nur bei einer gewissen Unordnung in einem System, lassen sich vergleichbare Mittelwerte ermitteln.
Wenn das also gegeben ist, nimmt man die sogenannte „Ergodenhypothese” an, nämlich dass diese beiden Arten der Mittelung vergleichbar sind. Sodass, wenn man dann generell über eine Mittelwertbildung spricht, die Wahl der jeweiligen Methode gleichwertig ist. Das ist eine der grundlegenden Annahmen bei der Beschreibung thermodynamischer Systeme.
Eine weitere wichtige Annahme ist das sogenannte Postulat von der gleichen a priori Wahrscheinlichkeit. Was bedeutet das? Nehmen wir an, man betrachtet einen makroskopischen Zustand eines Gases bei einer bestimmten Temperatur und einem bestimmten Druck in einem festgelegten Volumen. Beispielsweise das Luftvolumen in einem Raum. Dann wird es sehr viele verschiedene mikroskopische Situationen geben, die diesen makroskopischen Zustand realisieren können. Die Moleküle können sich in den unterschiedlichsten Weisen bewegen, und trotzdem herrschen überall die gleiche Temperatur, das gleiche Volumen und der gleiche Druck. Und letztlich sind alle diese mikroskopischen Realisierungsmöglichkeiten eines makroskopisch beobachtbaren Zustands gleich wahrscheinlich, und sie werden alle im Laufe der Zeit auch eintreten.
Man möchte den Aspekt betonen, dass man es bei den vielen Molekülen mit einem System zu tun hat, bei dem die einzelnen Teilchen mehr oder weniger statistisch unkorreliert durcheinander fliegen. Also, die unterschiedlichen mikroskopischen Realisierungen eines Makrozustandes sind gleich wahrscheinlich. Aber es gibt noch eine weitere Möglichkeit, diese statistische Komponente bei der Bewegung der Moleküle in einem System zu beschreiben. Gase sind beispielsweise um einiges einfacher zu beschreiben, im Vergleich zu anderen Systemen.
Bei dieser Annahme des molekularen Chaos nimmt man an, dass die Orte und Geschwindigkeiten zweier Teilchen oder Moleküle unkorreliert miteinander sind. Wenn also ein Teilchen in die eine Richtung fliegt, kann das andere Teilchen in die entgegengesetzte Richtung fliegen. Auch das ist wieder ein Ausdruck für die statistische Komponente. Bei genaueren statistischen Auswertungen stellt sich heraus, dass alle diese verschiedenen Annahmen genaugenommen nicht ganz äquivalent zueinander sind. Und es erfordert eine ziemlich tiefgehende statistische Analyse, um zu verstehen, welche konkreten Zusammenhänge bestehen. Das sind jedoch Grundlagenfragen der statistischen Physik.
Zunächst haben wir eine gewisse Grundlage für die statistische Beschreibung von großen Systemen. Auf dieser Grundlage haben wir unter vorgenannten Voraussetzungen ein spezielles Verhaltensmuster dieser großen Systeme. Dieses Verhalten ist bei den kleinen Mikrosystemen mit überschaubaren Teilchen, die wir bisher betrachtet haben, nicht gegeben. Insofern muss die Frage der Zeitumkehr neu gestellt werden.
Wenn man ein großes System analysiert, zum Beispiel in einer Größenordnung von 10²³ Teilchen, mit all diesen zusätzlichen Annahmen, dann ist eine derartige Zeitumkehr nicht mehr ohne weiteres gegeben. Und das ist ein ganz entscheidender qualitativer Unterschied zwischen den kleinen und den großen Systemen. Es bedarf keiner großen Phantasie, um das nachzuvollziehen.
Um den Begriff der „Zeitumkehr” verständlich zu machen, könnte man sich ein System oder einen Behälter mit einer mittig angeordneten Membrane vorstellen. In der einen Hälfte bewegen sich eine willkürliche Anzahl Moleküle, und die andere Hälfte ist leer bzw. hoch evakuiert. Hoch evakuiert ist natürlich ein relativer Begriff. Selbst wenn man den Druck auf 1 millionstel bar reduzieren würde, ist das nichts im Vergleich zum Vakuum im All. MAn kann noch so gut evakuieren, es sind immer noch ein Haufen Moleküle enthalten. Mit den besten Pumpen erreicht man derzeit ein Vakuum mit weniger als 10 Mio. Gasmolekülen pro Liter. Das ist nicht zu vergleichen mit dem interstellaren Raum, wo etwa nur 1000 Gasmoleküle pro Liter bzw. 1 Molekül pro cm³ herumfliegt. Solch ein Vakuum lässt sich auf der Erde nicht erzeugen. Aber das ist für unsere Überlegung auch nicht entscheidend.
Nimmt man jetzt die Membrane weg, würden sich die Moleküle über das ganze Volumen ausbreiten. Und jetzt kommt der wesentliche Aspekt. Den ganzen Vorgang könnte man mittels einer Videokamera aufnehmen und anschließend rückwärts ablaufen lassen. Man kann sofort erkennen, dass sich so ein rückläufiger Vorgang in der Wirklichkeit nicht abspielen würde. Die Zeitumkehr wäre aufgrund der Gleichungen zwar möglich, aber aufgrund der Natur unwahrscheinlich.
Man könnte sogar beweisen, dass bei einer derartigen Ausbreitung in umgekehrter Richtung, die statistische Wahrscheinlichkeit gleich Null ist. Es ist zwar nicht ausgeschlossen, aber die Wahrscheinlichkeit dafür ist Null, also tritt es in der Praxis auch nicht ein. Und diese Situation der Unmöglichkeit dieser Zeitumkehr, führt zu der sogenannten Richtung des Zeitpfeiles. Diese einheitliche Richtung der Zeit ist bei den makroskopischen Systemen grundlegend. Die Irreversibilität wird dadurch erkennbar. Das ist eine ganz wichtige Eigenschaft makroskopischer Systeme.
Man könnte das alles natürlich statistisch untermauern, aber das würde im Allgemeinen zu einem nicht unerheblichen mathematischen Aufwand führen. Die ganze Thermodynamik, mit der wir uns nachfolgend beschäftigen, hat zwei grundsätzliche Ansätze. Einen „statistischen” Ansatz und einen sogenannten „phänomenologischen” Ansatz.
Eingangs haben wir kurz die Statistik beleuchtet. Bei der phänomenologischen Thermodynamik versucht man sich die Dinge einfacher zu machen. Hierbei geht man von vornherein von den Makroeigenschaften bei Systemen aus, wie dem Druck, der Temperatur oder dem Volumen, und setzt diese miteinander in Beziehung. Nach Aufstellung von gewissen Grundgesetzen, wie den sogenannten „Hauptsätzen der Thermodynamik” ist es dann möglich, ein ganzes Gerüst von Gesetzmäßigkeiten abzuleiten.
Auf diese Weise lassen sich viele thermodynamische Eigenschaften der Systeme darstellen, ohne mit dem Thema der molekularen Bewegung in Berührung zu kommen. Bereits vor Ludwig Boltzmann, der wesentliche Grundlagen für die Thermodynamik geschaffen hat, und dem ein entscheidender Durchbruch gelang, war die phänomenologische Thermodynamik das Entscheidende. Die statistische Betrachtungsweise kam erst später hinzu.
Man hatte Mitte des 19. Jahrhunderts damit begonnen, Dampfmaschinen zu konstruieren, und man wollte die Abläufe verstehen und hat das entsprechend phänomenologisch durchgerechnet. Ziel war es ja, die Abläufe zu optimieren, und den Wirkungsgrad zu erhöhen. Parallel dazu sind die wichtigsten makroskopischen Größen, inklusive der Entropie, rein phänomenologisch eingeführt worden. Das ist beachtlich, zumal die physikalischen Zustände keine einfache Interpretation zulassen.
Erst durch Boltzmann und einige seiner Zeitgenossen ist es dann gelungen, diese Beziehungen, die man phänomenologisch aufgestellt hatte, und die man aus einigen wichtigen Grundgesetzen hergeleitet hatte, mit der mikroskopischen molekularen Interpretationen zu untermauern. Eine der wichtigen Aufgaben der statistischen Thermodynamik besteht darin, thermodynamische phänomenologische Beziehungen zu erläutern und zu erklären.
Darüber hinaus ist es auch möglich, spezielle Eigenschaften der unterschiedlichen Systeme, insbesondere deren chemische Komponenten und Substanzen zu erklären. Mit der statistischen Thermodynamik, kann man vieles, was über die phänomenologische Thermodynamik hinausgeht, verständlich machen.
Letzten Endes kann man beide Vorgehensweisen, sprich jede für sich, ganz konsistent aufbauen. Es kommt zu Wechselbeziehungen, aus denen man ableiten kann, dass beispielsweise ein gewisser statistischer Mittelungsprozess zum Begriff der makroskopischen „Temperatur” führt. Die beiden Vorgehensweisen ergänzen sich in sehr angenehmer Art und Weise, um zu einem Verständnis der Thermodynamik zu gelangen.
⇦ Kapitel Kapitel ⇨