1 Vonos

Entropie Berechnung Beispiel Essay

Dieser Artikel beschreibt den physikalischen Begriff aus der Thermodynamik. Für andere Bedeutungen siehe Entropie (Begriffsklärung).

Die Entropie (Kunstwortaltgriechischἐντροπίαentropía, von ἐνen ‚an‘, ‚in‘ und τροπήtropḗ ‚Wendung‘) ist eine fundamentale thermodynamischeZustandsgröße mit der SI-EinheitJoule pro Kelvin, also J/K.

Die in einem System vorhandene Entropie steigt oder sinkt bei Aufnahme bzw. Abgabe von Wärme, oder steigt durch spontan ablaufende Prozesse innerhalb des Systems wie z. B. Vermischung, Wärmeleitung oder chemische Reaktion. Entropie entsteht z. B. auch dadurch, dass mechanische Energie durch Reibung in thermische Energie umgewandelt wird (siehe Dissipation, Energieentwertung). In einem abgeschlossenen System (einem System, bei dem es keinen Wärme- oder Materieaustausch mit der Umgebung gibt), kann die Entropie nicht abnehmen, sondern im Lauf der Zeit nur zunehmen (Zweiter Hauptsatz der Thermodynamik). Prozesse, bei denen Entropie entsteht, werden daher als irreversibel (unumkehrbar) bezeichnet. Sie können nur dadurch rückgängig gemacht werden, dass ein zweites System die Entropie aufnimmt.

In der statistischen Mechanik stellt die Entropie ein Maß für die Zahl der beim gegebenen Makrozustand zugänglichen, energetisch gleichwertigen Mikrozustände dar. Makrozustände höherer Entropie haben mehr Mikrozustände und sind daher statistisch wahrscheinlicher als Makrozustände niedrigerer Entropie. Folglich bewirken die inneren Vorgänge in einem sich selbst überlassenen System im statistischen Mittel, dass das System sich dem Makrozustand annähert, der bei gleicher Energie die höchstmögliche Entropie hat. Diese Interpretation des Entropiebegriffs wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist Unordnung kein wohldefinierter Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des Zustands aller einzelnen Teilchen“ zu begreifen, welches die fehlende Information misst, um von einem bekannten Makrozustand auf den Mikrozustand des Systems schließen zu können.[1]

Geschichtlicher Überblick[Bearbeiten | Quelltext bearbeiten]

In der Geschichte der Physik gab es lange Zeit eine Auseinandersetzung über die Bedeutung des Wärmebegriffs: Die eine Seite vertrat die Theorie, dass die Wärmeerscheinungen allein in der vis viva („lebendige Kraft“ = kinetische Energie) der Atome begründet seien; die andere behauptete, dass die Wärme eine Substanz sei, der man den Namen Caloricum (französischcalorique, englischcaloric) gab.

Antoine Laurent de Lavoisier unterschied 1789 chaleur (Wärme) von calorique (Caloricum). Das Caloricum sollte unter anderem eine abstoßende Kraft zwischen den Atomen eines Festkörpers bewirken, so dass dieser bei Zufuhr einer ausreichenden Menge von Caloricum erst flüssig und dann gasförmig würde.[2] Zusammen mit Pierre Simon Laplace konstruierte er einen Eiskalorimeter. Lavoisier und Laplace wollten sich aber nicht festlegen, ob die vis viva oder die Caloricum-Substanz die Ursache für die Wärmeerscheinungen ist.[3]Joseph Black unterschied temperature von der quantity of heat, u. a. anhand der latenten Wärme beim Schmelzen. Er bemerkte, dass die Wärmemenge mit dem aus einem Kessel entweichenden Dampf mittransportiert werden müsse.[4][5]

Benjamin Thompson, Reichsgraf von Rumford, untersuchte in seiner Münchner Zeit 1798 die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit entstehen konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.[6][5]

Der Namensgeber des Carnot-Prozesses, Nicolas Léonard Sadi Carnot, schrieb 1824[7], dass die Kraft einer Dampfmaschine nicht am Verbrauch von calorique liegt, sondern an ihrem Transport von einem warmen Körper auf einen kalten, und bereitete damit den Entropiebegriff vor. Mit den Experimenten von Robert Mayer und James Prescott Joule wurde Anfang der 1840er Jahre gezeigt, dass sich mechanische Arbeit quantitativ in Wärme umwandeln ließ. Dies war die Grundlage für den 1847 von Hermann von Helmholtz allgemein formulierten Energieerhaltungssatz, also den ersten Hauptsatz.

Weitere 20 Jahre später stellte Rudolf Clausius fest, dass bei einer Übertragung der Energieform Wärme auch eine andere mengenartige Größe fließen muss. Diese Größe sah er als die Ursache für die Disgregation beim Schmelzen an und nannte sie Entropie.[8][9] Wie von Hugh Longbourne Callendar 1911 herausgearbeitet, entspricht die Entropie bei Clausius dem calorique bei Lavoisier und Carnot.[10][11]

Mit Arbeiten von Ludwig Boltzmann und Willard Gibbs gelang es um 1875, der Entropie eine statistische Definition zu geben, welche die zuvor makroskopisch definierte Größe mikroskopisch erklärt.[12] Die Entropie eines Makrozustands wird dabei durch die Wahrscheinlichkeiten der Mikrozustände berechnet:

Der Proportionalitätsfaktor ist die Boltzmannkonstante, Boltzmann selbst hat ihren Wert jedoch nicht bestimmt.

Die so statistisch definierte Entropie kann in vielen Kontexten sinnvoll verwendet werden.

Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19. Jahrhundert durch Diskussion über den Maxwellschen Dämon, ein Gedankenexperiment, das im Rahmen der Miniaturisierung im Computerzeitalter aktuell wurde. Die Informatik nutzt die Shannonsche Informationsentropie, die der statistischen Interpretation entspricht, als abstraktes Maß der Information ohne direkten Bezug zur physikalischen Realisation. Auch Norbert Wiener nutzte den Begriff der Entropie zur Beschreibung von Informationsphänomenen, allerdings mit unterschiedlichem Vorzeichen als Shannon. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben.[13]

Klassische Thermodynamik[Bearbeiten | Quelltext bearbeiten]

In der Thermodynamik kann ein System auf zwei Arten mit seiner Umgebung Energie austauschen: in Form von Wärme und Arbeit, wobei abhängig vom System und der Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit, chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs ändert sich die Entropie sowohl des Systems als auch der Umgebung. Nur wenn die globale Summe der Entropieänderungen positiv ist, erfolgt die Änderung spontan.

Grundlagen[Bearbeiten | Quelltext bearbeiten]

Die Entropie (Einheit J/K) ist eine extensive Zustandsgröße eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das Volumen, die Elektrische Ladung oder die Stoffmenge. Der deutsche Physiker Rudolf Clausius führte diesen Begriff 1865 zur Beschreibung von Kreisprozessen ein. Dividiert man durch die Masse des Systems, erhält man die spezifische Entropie mit der Einheit J/(kg·K) als intensive Zustandsgröße.

Das Differential ist nach Clausius bei reversiblen Vorgängen das Verhältnis von übertragener Wärme und absoluter Temperatur:

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In dieser Schreibweise wird ein nicht-kursives benutzt, um hervorzuheben, dass es sich um ein vollständiges Differential handelt, im Gegensatz zu , das kein vollständiges Differential sein kann, weil eine Prozessgröße ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem – mathematisch gesehen – unvollständigen Differential, ein zugehöriges vollständiges Differential macht.[14] Dadurch ist die Änderung der Entropie bei reversiblen Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig.

Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wie weit die Energie eines Systems in Arbeit umgewandelt werden kann.

Benutzt man den ersten Hauptsatz der Thermodynamik, , also dass die Energieänderung sich zusammensetzt aus zugeführter Arbeit und Wärme, und setzt für die Arbeit alle dem Experimentator mittels Änderung der Systemgrößen möglichen Prozesse, erhält man aus (1) für die Änderung der Entropie als Funktion der thermodynamischen Variablen (immer noch im reversiblen Fall)

Clausius behandelte aber auch irreversible Prozesse. Und zwar zeigte er, dass in einem isolierten thermodynamischen System die Entropie folgende Ungleichung erfüllt:

wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt.

Man kann ein nicht-isoliertes System, wie es in (1) behandelt wird, immer zu einem isolierten System erweitern, und zwar durch Addition eines Zusatzes. Dabei entspricht die ebenfalls additive Zusatzentropie einer reversiblen Wärmeänderung. Aus Gleichung (2) folgt also, dass bei irreversibler Wärmeänderung in (1) anstatt des Gleichheitszeichens das Größerzeichen gilt, und zwar selbst dann, wenn die Wärme nicht zugeführt, sondern abgeführt wird. Das Größerzeichen ist auch bei negativen Zahlen sinnvoll. Dem entspricht also die in vielen Lehrbüchern übliche Schreibweise

Auch hier gilt das Gleichheitszeichen nur bei reversiblen Prozessen. Diese Schreibweise ist unpräzise: Man unterscheidet daher genauer zwischen der transportierten Entropie und der produzierten Entropie. Man fasst beides zu einer Gleichung zusammen, die allgemein gilt:

Dabei ist die innerhalb des Systemsdissipierte Arbeit. Sie ist immer positiv, da sie dem System zugeführt wird (z. B. Reibungsarbeit). Auch diese dissipativen Prozesse treten als Wärme in Erscheinung und tragen zur Entropieänderung bei. Beispielsweise spricht man beim Ohmschen Widerstand in der Elektrizitätslehre von der erzeugten „Jouleschen Wärme“. Der „integrierende Nenner“ tritt in beiden Termen auf. Um präzise zu vergleichen, muss man aber stets angeben, auf welchen Ausgangszustand genau sich die Änderungen beziehen.

Gleichung (3) ist eine Form des zweiten Hauptsatzes der Thermodynamik. Das Differential existiert allerdings nur für quasi-statische Zustandsänderungen. Das bedeutet, dass eine Folge von Zuständen messtechnisch erfasst werden können muss, und zwar Zustände mit nur geringen Ungleichgewichten. Sind nur Anfangs- und Endzustand bekannt, kann unter Umständen (z. B. bei idealen Gasen) auch ein Ersatzprozess zur Berechnung verwendet werden. Wie dies geschieht, wird in dem Anwendungsbeispiel zum Expansionsversuch von Gay-Lussac erklärt.

Aus dem ersten Hauptsatz der Thermodynamik

folgt, dass das Produkt den nicht verwerteten Anteil („Abwärme“) bei der isothermen Erzeugung von Arbeit aus vorhandener innerer Energie darstellt. Der Maximalwert dieser Arbeit ist die sogenannte Freie Energie

.

Dies ist eine äquivalente Form des 2. Hauptsatzes.

Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art. Clausius formulierte:

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es nämlich möglich, einen solchen Kreisprozess zu konstruieren, dann könnte man dem warmen Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die Formulierung von William Thomson, dem späteren Lord Kelvin:

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, , bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch und reversibel, folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur die Wärme aufgenommen und die Wärmemenge bei wieder abgegeben, und erfolgen Wärmeaufnahme und Abgabe reversibel, so gilt, dass sich die Entropie dabei nicht ändert:

;     oder   .

Daraus lassen sich die maximale verrichtete Arbeit und der maximale Wirkungsgrad, der so genannte Carnot-Wirkungsgrad, ableiten:

Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit dissipiert, z. B. durch Reibung. Folglich entsteht in einer realen Maschine Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie arbeitet also irreversibel.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung auftritt, am absoluten Nullpunkt als Null fest:

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).

Erfüllt eine Substanz nicht die Bedingung perfekt kristallin (wenn z. B. mehrere Konfigurationen vorliegen oder es sich um ein Glas handelt), dann kann ihr auch am absoluten Nullpunkt eine Entropie zugeschrieben werden (Nullpunktsentropie).

Partielle Ableitungen der Entropie[Bearbeiten | Quelltext bearbeiten]

Aus dem 2. Hauptsatz folgen Aussagen über die partiellen Ableitungen der Entropie, z. B. nach der Temperatur oder dem Volumen . Mit dem zweiten Hauptsatz gilt zunächst, dass bei reversiblen Zustandsänderungen ist. Zusammen mit dem ersten Hauptsatz folgt daraus weil nach dem ersten Hauptsatz für die Innere Energie gilt, dass die Summe der dem betrachteten System zugeführten Arbeit und der zugeführten Wärme ( einzeln keine Zustandsfunktionen! ) eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.

Also

wobei eingesetzt wurde.

bzw.
.

Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z. B. von elektrischen oder magnetischen Momenten.

Aus dem 3. Hauptsatz folgt, dass sowohl als auch für verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.

Statistische Physik[Bearbeiten | Quelltext bearbeiten]

In der u. a. von James Maxwell begründeten statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie Atome und Moleküle, erklärt. Bezüglich der Entropie stellt sich die Frage, wie sie hier gedeutet werden kann, und ob der zweite Hauptsatz aus einer mikroskopischen zeitumkehrinvarianten Theorie hergeleitet werden kann.

Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand ist demnach ein Punkt in einem 6N

Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: Die Entropie des Wassers im Eiswürfel nimmt dabei zu (Rudolf Clausius 1862)

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Entropie



Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen werden unter Entropie (Begriffsklärung) aufgeführt.

Die Entropie (griechisches Kunstwort εντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropí] – Wendung, Umwandlung) ist eine extensive Zustandsgröße der Thermodynamik. Jedem Gleichgewichtszustand eines thermodynamischen Systems kann eindeutig ein Entropiewert zugeordnet werden. In der statistischen Physik stellt die Entropie ein Maß für das vom System erreichbare Phasenraumvolumen dar. Im Rahmen der klassischen Thermodynamik verkörpert die Entropie ein Maß für die adiabatische Erreichbarkeit.

Grundlagen

  Die Entropie ist eine thermodynamische Größe, mit der Wärmeübertragungen und irreversible Vorgänge in thermodynamischen Prozessen rechnerisch erfasst und anschaulich dargestellt werden können (vergl. T-s-Diagramm). Die Entropie S (Einheit J/K) ist eine extensiveZustandsgröße wie das Volumen, die elektrische Ladung oder die Stoffmenge. Dividiert man durch die Masse, erhält man die spezifische Entropies mit der Einheit J/(kg·K) als intensive Zustandsgröße. Der deutsche Physiker Rudolf Clausius führte den von ihm erfundenen Begriff 1865 zur Beschreibung von Kreisprozessen ein.

Das Differential dS ist nach Clausius bei reversiblen Vorgängen das Verhältnis von übertragener Wärme δQ und absoluter TemperaturT:

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. Clausius beschrieb auch die Entropievermehrung ohne Wärmeübertragung durch irreversible Vorgänge in einem isolierten System mit der Ungleichung:

Man unterscheidet heute zwischen der transportierten Entropie (1. Gleichung) und der produzierten Entropie (2. Gleichung) und fasst − allgemein gültig, also auch für das nicht adiabate System - beide Gleichungen zusammen:

Dabei ist δWdiss die innerhalb des Systems dissipierte Arbeit, die immer positiv ist, also dem System zugeführt wird (z. B. Reibungsarbeit). Die 3. Gleichung ist eine Form des zweiten Hauptsatzes der Thermodynamik. Das Differential dS existiert allerdings nur für quasi-statische Zustandsänderungen, d. h., dass eine Folge von Zuständen messtechnisch erfasst werden kann (Zustände mit nur geringen Ungleichgewichten). Bei dem im Bild dargestellten Vorgang im adiabaten System, bei dem nur Anfangszustand und Endzustand angegeben werden können, wäre das nicht der Fall. Für ein ideales Gas kann aber die Entropiedifferenz auf einfache Weise über einen reversiblen isothermen Ersatzprozess (Abgabe von Arbeit und Aufnahme von Wärme aus der Umgebung) berechnet werden, wie dies im Abschnitt Beispiele geschehen ist.

Geschichte des Begriffes „Entropie“

Die Entropie ist neben der Energie der wichtigste Begriff der Thermodynamik und es ist hilfreich, sich für ein besseres Verständnis an den Ausgangspunkt dieser Wissenschaft zu begeben und die Entwicklung zu rekapitulieren. Im Jahre 1712 wurde die erste Dampfmaschine von Thomas Newcomen in einem Bergwerk installiert, um Wasser zu pumpen. Die Maschine wurde ihrer Aufgabe gerecht, benötigte aber sehr viel Brennstoff. Zu diesem Zeitpunkt war der Zusammenhang zwischen Energie und Wärme völlig unklar und es sollten noch über 130 Jahre vergehen, bis Julius Mayer den 1. Hauptsatz der Thermodynamik publizierte. Ab 1764 verbesserte James Watt die Dampfmaschine und konnte deren Wirkungsgrad auf über 1% mehr als verdoppeln, ohne die zugrundeliegende Theorie zu kennen. Erst 60 Jahre später hatte der junge französische Ingenieur Sadi Carnot die entscheidende Idee, die er 1824 publizierte. Inspiriert von der Arbeit seines Vaters über Wassermühlen beschrieb Carnot eine Dampfmaschine durch einen zyklischen Prozess, bei dem Wärme von einer heißen Quelle zu einer kalten Senke fließt und dabei Arbeit leistet. Das Verhältnis von entnommener mechanischer Arbeit ΔW zu eingeleiteter Wärme ΔQ war der Wirkungsgrad:

In seiner ursprünglichen Schrift vertrat Carnot die Meinung, dass Wärme eine Art unwägbarer Stoff sei, der immer von einem heißen zu einem kühleren Körper fließt, ähnlich wie Wasser sich immer bergab bewegt. Und genau wie herabstürzendes Wasser konnte Wärme umso mehr Arbeit leisten je höher das Gefälle war, insbesondere konnte die Maschine nicht mehr Arbeit leisten als Wärme zugeführt wurde. Carnot korrigierte sich später und erkannte bereits ein Jahrzehnt vor Mayer, Joule und Thomson die Äquivalenz von Wärme und Energie. Er war also seiner Zeit weit voraus, leider starb er jung und sein Werk blieb zunächst unbemerkt. Erst Clausius formulierte den Zusammenhang von Temperaturdifferenz - der Quelle und Senke - mit dem Wirkungsgrad der Carnot-Maschine und dass dieser Wirkungsgrad nicht von einer anderen Wärmekraftmaschine überschritten werden kann, da sonst Wärme spontan von einem kalten zu einem heißen Körper fließen würde. Die Unmöglichkeit eines solchen Vorgangs in der Natur bezeichnet man heute als 2. Hauptsatz der Thermodynamik. Clausius formulierte ihn mit einem Kreisprozess:

Es existiert keine zyklisch arbeitende Maschine, deren einzige Wirkung Wärmetransport von einem kühleren zu einem wärmeren Reservoir ist.

Einfacher ausgedrückt besagt also der 2. Hauptsatz, dass Temperaturdifferenzen sich in der Natur nicht spontan vergrößern können. Clausius konnte mit dieser Forderung den Satz

für beliebige Kreisprozesse herleiten. Das Gleichheitszeichen gilt dabei nur für reversible Prozesse. Mit diesem Satz von Clausius liegt es auf der Hand die Größe

differentiell zu definieren. Clausius nannte diese Größe Entropie und es wurde mit der Zeit üblich, den 2. Hauptsatz direkt mit der Entropie zu formulieren, was keineswegs zu einem tieferen Verständnis führt. Erst Jahrzehnte später konnte Ludwig Boltzmann mit seiner statistischen Mechanik eine Erklärung für die Entropie als Maß für die erreichbaren Mikrozustände des Systems finden. Wärme ist zufällig über Atome und Moleküle verteilte Energie und fließt von heiß nach kalt, weil der umgekehrte Weg einfach zu unwahrscheinlich ist.

Im Jahre 1999 haben die theoretischen Physiker Elliott Lieb und Jakob Yngvason die Definition der Entropie in der phänomenologischen Thermodynamik auf eine streng axiomatische Basis gestellt. Diese Definition macht keinen Gebrauch von Größen wie „Wärme“ und „Temperatur“, die sich ohne Entropie nicht exakt definieren lassen, sondern beruht auf dem Konzept der adiabatischen Erreichbarkeit.

Hilfestellung zum Verständnis

Energie wird – entgegen der landläufigen Redeweise – im physikalischen Sinn nicht verbraucht, sondern nur umgewandelt, z. B. in Maschinen (1. Hauptsatz der Thermodynamik – Energieerhaltung). Einem Benzinmotor wird also im Laufe eines Zyklus dieselbe Energiemenge in Form von Kraftstoff zugeführt, wie als Antriebsarbeit und Wärme abgeführt wird. Da auch die Antriebsarbeit durch Reibung schließlich in Wärme umgesetzt wird, landet am Ende der gesamte Energieinhalt des Kraftstoffes als Wärmemenge in der Umgebung, sieht man von eventuell in potentielle Energie oder mechanisch in Deformationsenergie umgewandelten Anteilen ab. Die Energie wurde also nicht verbraucht, sondern lediglich umgewandelt. Man benötigte also eine Größe, um die Arbeitsfähigkeit der Energie zu beschreiben, da die Energiemenge alleine nichts über die Arbeitsfähigkeit aussagt. So enthalten die Weltmeere theoretisch eine riesige Energiemenge. Da diese aber bei Umgebungstemperatur vorliegt, kann damit keine Arbeit geleistet werden.

Clausius fand nun heraus, dass man mit einer Energiemenge um so mehr Arbeit leisten kann, je höher die Temperatur ist, bei der sie der Maschine zugeführt wird (siehe Carnot-Wirkungsgrad). Am Beispiel des Motors wird die Kraftstoffenergie durch die Verbrennung dem Motor bei ca. 2000–2500 °C zugeführt und verlässt ihn wieder bei ca. 50 °C durch den Kühler sowie über die Räder. Mit Hilfe der Gleichungen von Clausius kann man nun genau vorhersagen, wie viel Arbeitsleistung der Motor maximal erbringen könnte. Die zugeführte Energie hat dabei eine geringe Entropie, während die Abwärme eine hohe Entropie hat. Aus der Differenz lässt sich die mögliche Arbeitsleistung berechnen.

Problematik des Begriffs Entropie

In populärwissenschaftlichen Büchern, aber auch in vielen Lehrbüchern wird die Entropie mit Unordnung gleichgesetzt. Diese Analogie trifft für einige Systeme zu, z. B. besitzt ein geordneter Kristall eine viel geringere Entropie als seine Schmelze. Für andere Systeme ist diese Betrachtung eher problematisch, z. B. besitzt eine geordnete Biomembran in Wasser eine höhere Entropie als ihre ungeordneten, in Wasser gelösten Bestandteile (siehe Beispiele unten). Das Problem besteht in erster Linie darin, dass der umgangssprachliche Begriff Unordnung nicht eindeutig definiert ist und die Entropie kein Maß für die Symmetrie des Systems darstellt, sondern für die Anzahl der mikroskopisch erreichbaren Zustände, unabhängig von ihrem wie auch immer definierten Ordnungsgrad. Insbesondere in Lehrbüchern der theoretischen Physik wird der Begriff Unordnung deshalb gemieden.

Verwirrung entsteht auch dadurch, dass der Begriff der Entropie in unterschiedlichen Disziplinen mit Bezug auf unterschiedliche Phänomene verwendet wird. Die Entdeckung der Entropie im Zusammenhang mit der Thermodynamik und ihre zentrale Rolle für diese Theorie beschränkte nicht ihre Übertragung auf andere Bereiche, wie z. B. der Informationstheorie. Die Entropie ist eine statistisch definierte Größe und kann in vielen Kontexten sinnvoll verwendet werden. Unbeschadet dessen können die Definitionen in den Einzeldisziplinen inkonsistent oder sogar widersprüchlich sein. So nutzte Norbert Wiener den Begriff der Entropie ebenso zur Beschreibung von Informationsphänomenen wie Claude Elwood Shannon, allerdings mit einem negativen Vorzeichen. Dass sich die Definition von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben. Es wird aber aus diesem Beispiel deutlich, dass bei einer interdisziplinären Anwendung des Entropiebegriffes mindestens Vorsicht und eine genaue Quellenanalyse geboten ist.

Die Entropie ist keine direkt messbare statistische Größe, wie z. B. die Temperatur und der Druck. Es können nur Änderungen der Entropie erfasst werden, und sie ist auch keine strenge Erhaltungsgröße wie Energie, Masse, Teilchenzahl oder Ladung eines Systems. Dies ist auch ein wesentlicher Unterschied zwischen erstem und zweitem Hauptsatz der Thermodynamik. Während der erste Hauptsatz nichts anderes als die Formulierung des streng gültigen Energieerhaltungssatzes in der Sprache der Thermodynamik ist, stellt der zweite Hauptsatz nur eine statistisch gerechtfertigte Behauptung dar. Allerdings ist die Wahrscheinlichkeit für einen Verstoß gegen den zweiten Hauptsatz in makroskopischen Systemen extrem gering. Er kann allerdings nicht direkt aus den mikroskopischen Gleichungen gefolgert werden und wurde sogar im Rahmen der klassischen Mechanik durch Poincaré widerlegt. All diese Eigenschaften führen zu Problemen beim Verständnis des Begriffs der Entropie.

Entropie in der Thermodynamik

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, ΔS = 0, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabat. Ist ein Prozess adiabat und reversibel folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur Th die Wärme Qh aufgenommen und die Wärmemenge Ql bei Tl wieder abgegeben, gilt, dass sich die Entropie ändert:

Daraus lassen sich die maximale Energieleistung A = QhQl und der maximale Wirkungsgrad ableiten.

Ähnlich wie die Temperatur die statistisch gemittelte Energie der Teilchen eines Vielteilchensystems angibt, konnte Boltzmann zeigen, dass sich auch die Entropie statistisch erfassen lässt, und zwar als Funktion der Zahl der besetzbaren Zustände in einem Vielteilchensystem:

kB ist die Boltzmann-Konstante, ln der natürliche Logarithmus und Ω die Zahl der Zustände, die die Teilchen eines Systems einnehmen können. Die Wahl der Basis des Logarithmus ist unkritisch, sie bewirkt lediglich eine Änderung des konstanten Faktors.

 

Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.

Die Entropie ist ein Maß für Unwissenheit. Als Maß für Unordnung muss man genau auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist oder Bereiche, die frei sind von Farbe.

Die Mischungsentropie lässt sich berechnen. Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Lauf der Zeit dieser Gleichverteilung zustrebt.

Die Entropie bleibt nur dann unverändert, wenn die Prozesse reversibel verlaufen. Reale Zustandsänderungen sind immer mit Energieverlusten (z. B. durch Reibung) verbunden, wodurch sich die Entropie erhöht. Eine Verringerung der Gesamtentropie in einem geschlossenen System ist nicht möglich. Aber die Entropie kann lokal verkleinert werden, wenn sie an anderen Orten des Systems entsprechend anwächst.

Zweiter und dritter Hauptsatz

Rudolf Julius Emanuel Clausius hatte erkannt, dass die durch

differentiell gegebene Größe eine extensive Zustandsgröße darstellt, also unabhängig vom Reaktionspfad und proportional zur Systemgröße ist. Die Bezeichnung δQreversibel statt dQ betont, dass die Änderung der Wärme wegabhängig ist (Beispiel siehe Kreisprozess) und deshalb kein vollständiges Differential ist.

Clausius fand außerdem, dass in einem isolierten System die Entropie monoton wächst:

Er formulierte diese Beobachtung im 2. Hauptsatz der Thermodynamik als Negation der Existenz eines Perpetuum mobile zweiter Art:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Äquivalent dazu ist die Formulierung von William Thomson:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Im Gegensatz zu den bereits bekannten extensiven Größen von thermodynamischen Systemen, wie Energie E, Volumen V und Masse m, entzog sich die Entropie zunächst dem tieferen Verständnis. Die Entropie konnte erst im Rahmen der statistischen Mechanik von Ludwig Boltzmann befriedigend als Maß für das Phasenraumvolumen erklärt werden, das von der Phasentrajektorie des Systems unter Einhaltung der Konstanz ausgewählter makroskopischer Observablen, wie Temperatur T, Volumen V oder Teilchenzahl N, erreicht werden kann.

Anschaulich ist die Entropie demnach ein Maß für fehlende Information über den tatsächlichen Mikrozustand, wenn lediglich eine geringe Anzahl beobachtbarer Größen zur Charakterisierung des Makrozustands vorliegen. Die Ergodenhypothese behauptet, dass die Trajektorie des Systems tatsächlich im Laufe der Zeit das gesamte durch die Entropie gemessene Phasenvolumen überdeckt. Systeme, die dieses Verhalten zeigen, nennt man auch ergodisch. Nur bei diesen kann der 2. Hauptsatz sinnvoll angewandt werden. Eng damit verbunden ist die Irreversibilität von Prozessen in der Natur.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz am absoluten Nullpunkt als Null fest:

S(0) = 0

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet.

Beispiele

 

Expansionsversuch von Gay-Lussac: In der Einleitung wird das Experiment von Gay-Lussac beschrieben. Wie groß ist nun die Entropieänderung in dem beschrieben Versuch? Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt die Trennwand herauszuziehen, kann man sie auch langsam nach rechts schieben, bis das Endvolumen erreicht ist. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um dV, die Entropie steigt um dS = ΔQ / T. Aus dem ersten Hauptsatz dU = ΔQ + ΔW folgt mit dU = 0 und ΔW = − pdV, da ausschließlich Volumenarbeit verrichtet wird:

Aus dem idealen Gasgesetz (N ist die Anzahl der Gasatome)

folgt:

.

Hieraus ergibt sich durch Integration sofort:

.

Da in obigen Beispiel N = 47 Atome eingezeichnet sind gilt:

.

Realistischer wäre z. B. 1 mol Atome, also Atome, womit sich

ergibt.

Zahlenbeispiel:

In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10 °C die Entropie , bei 20 °C , bei 30 °C . 1 kg kaltes Wasser (10 °C) und 1 kg warmes Wasser (30 °C) können bei Berührung spontan in den Zustand 2 kg lauwarmes Wasser (20 °C) übergehen, weil die Entropie des Anfangszustandes (151 + 437 = 588) kleiner ist als die Entropie des Endzustandes (297 + 297 = 594). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2 kg Wasser bestehenden Systems von 594 J/K auf 588 J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.

Biomembranen: Gibt man Lipide, also die Bausteine der Biomembranen, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die freie EnthalpieΔG = ΔHTΔS. Die EnthalpieΔH lässt sich experimentell messen und ist positiv. Da der Prozess spontan abläuft muss aber ΔG negativ sein, d. h. die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens dafür verantwortlich ist, dass sich Substanzen vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit für die schlechte Löslichkeit vieler unpolarer Substanzen verantwortlich, die die Bildung von Wasserstoffbrückenbindungen stören.

Lebende Organismen: Ein lebender Organismus kann in gewissem Sinne als eine thermodynamische Maschine betrachtet werden, die chemische Energie in Arbeit und Wärme umwandelt und gleichzeitig Entropie produziert. Es ist jedoch nach dem gegenwärtigen Stand der Forschung noch nicht geklärt, ob sich einem biologischen System eine Entropie zuordnen lässt, da es sich nicht im Zustand des thermodynamischen Gleichgewichts befindet.

Andere Disziplinen: Neben ihrer Rolle als fundamentale Zustandsgröße der phänomenologischen und statistischen Thermodynamik wird die Entropie in anderen Gebieten, insbesondere in der Informationstheorie und in der Wirtschaftswissenschaft benutzt. Die Entropie besitzt in diesen Gebieten eine eigenständige Bedeutung. So ist es z. B. in der Astrophysik notwendig, bei der Beschreibung von Sterngeburten, weißen Zwergen, Neutronensternen, schwarzen Löchern (sie haben die höchste Entropie aller bekannten physikalischen Systeme), Kugelsternhaufen, Galaxien(haufen) und letztendlich dem ganzen Kosmos auf den Begriff der Entropie zurückzugreifen.

Statistische Physik

Um 1880 konnte Ludwig Boltzmann mit der von ihm und James Maxwell begründeten statistischen Physik auf mikroskopischer Ebene die Entropie erklären. In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie Atome und Moleküle, erklärt. Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand ist demnach ein Element eines 6N-dimensionalen Vektorraums, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie. Alle unter gegebenen makroskopischen Randbedingungen, wie z. B. Gesamtenergie E, Volumen V und Teilchenzahl N, erreichbaren Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen Ω. Die Entropie berechnet sich im SI-System aus

in der Einheit J/K. Um diese Rechnung konkret ausführen zu können, müssen also zunächst die makroskopischen Observablen des betrachteten Systems bekannt sein. Die Konstante kB wird in Anerkennung der Leistungen Ludwig Boltzmanns bei der Entwicklung der statistischen Theorie als Boltzmann-Konstante bezeichnet, er selbst hat ihren Wert jedoch nicht bestimmt.

Quantenmechanik

In der Quantenstatistik ist ein Mikrozustand gegeben durch einen Vektor im Hilbertraum.

Dieser reine Zustand enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind. Ein Makrozustand ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die bestimmte Erhaltungsgrößen gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist gegeben durch eine Verteilungsfunktion , an deren Stelle in der quantenmechanischen Beschreibung der Dichteoperator tritt

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen gemischten Zustand ist gegeben durch

Die Entropie ist über die Wahrscheinlichkeiten der einzelnen Mikrozustände im Makrozustand gegeben durch

wobei pi die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein (siehe Stirling-Formel zur Herleitung dieser Relation). kB ist die Boltzmann-Konstante.

Als Beispiel nehmen wir ein Spinsystem mit 4 Elektronen. Die Gesamtenergie soll − 2μB sein.

Daraus folgt, dass Ω = 4

Die allgemeine Formel ist bis auf einen konstanten Faktor identisch mit der Formel für die Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.

Der 2. Hauptsatz der Thermodynamik wird in der statistischen Mechanik eine Wahrscheinlichkeitsaussage: Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird.

Bei realen Systemen und normalen Temperaturen lassen sich keine einzelnen Zustände mehr abzählen. An Stelle der Anzahl der Zustände tritt dann das erreichbare Volumen im vieldimensionalen Phasenraum.

Eigenschaften der statistischen Entropie eines quantenmechanischen Zustandes

Seien und Dichteoperatoren auf dem Hilbertraum .

  • Invarianz unter unitären Transformationen von (mit )
Minimum wird bei reinen Zuständen angenommen
Maximum wird angenommen, wenn alle möglichen Zustandsvektoren mit gleicher Wahrscheinlichkeit auftreten
  mit  
Sei Dichteoperator auf   und   bzw. reduzierte Dichteoperatoren auf bzw.

Zitate

  • „Das überwältigende Bestreben nach Unordnung bedeutet nicht, dass sich geordnete Strukturen wie Sterne und Planeten oder geordnete Lebensformen wie Pflanzen und Tiere nicht bilden können. Sie können. Und sie tun es offensichtlich. Der Zweite Hauptsatz der Thermodynamik besagt, dass bei der Hervorbringung von Ordnung eine mehr als gleichwertige Erzeugung von Unordnung erfolgt. Die Entropiebilanz ist noch immer in der Gewinnzone, selbst wenn einige Bestandteile ein höheres Maß an Ordnung annehmen.“ (Brian Greene: Der Stoff, aus dem der Kosmos ist. Siedler, München 2004, ISBN 3-88680-738-X, S. 204f)
  • „Dieser Begriff erfreut sich allgemeiner Unbeliebtheit und gilt als schwierig, vielleicht weil er zwar eine Bilanz- aber keine Erhaltungsgröße ist und sogar die ungewöhnliche Eigenschaft hat, zuzunehmen, und zwar um so mehr, je weniger man aufpasst.“ (Norbert Treitz: Brücke zur Physik, Deutsch-Verlag, Frankfurt 2003, ISBN 3-8171-1681-0, Kapitel 6.3)
  • „Wenn du deinen Reispudding rührst, Septimus, denn verteilt sich die Marmelade herum und macht dabei rote Spuren wie in dem Bild eines Meteors in meinem astronomischen Atlas. Aber wenn du rückwärts rührst, kommt die Marmelade nicht mehr zusammen. Tatsächlich merkt der Pudding davon nichts und wird weiterhin rosa wie zuvor“ (Tom Stoppard: Arcadia, 1.Akt, 1.Szene, Dialog zwischen Thomasina und Septimus. In diesem 1993 uraufgeführten Theaterstück thematisiert Tom Stoppard Entropie an verschiedenen Stellen.)
  • „In der Natur nimmt die Entropie die Rolle des Direktors ein, die Energie aber nur die eines Buchhalters.“ (Arnold Sommerfeld)

Literatur

Lehrbücher

  • G. Adam, O. Hittmair: Wärmetheorie. 4. Auflage. Vieweg, 1992, ISBN 3-528-33311-1.
  • Richard Becker: Theorie der Wärme. 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
  • Johan Diedrich Fast: Entropie. Huethig, 1982, ISBN 3-87145-299-8.
  • Arnold Sommerfeld: Vorlesungen über theoretische Physik – Thermodynamik und Statistik. Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
  • André Thess: Das Entropieprinzip – Thermodynamik für Unzufriedene, Oldenbourg Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.

Populärwissenschaftliche Darstellungen

  • Arieh Ben-Naim: Entropy Demystified - The Second Law Reduced to Plain Common Sense. 2007, ISBN 981-270-055-2.
  • H. Dieter Zeh: Entropie. Fischer, 2005, ISBN 3-596-16127-4.
  • Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York 1980 (dt.: Entropie: Ein neues Weltbild. Hamburg, Hofmann & Campe, 1984).
  • V. J. Becker: Gottes geheime Gedanken: Ein philosophischer Exkurs an die Grenzen von Wissenschaft und Verstand. Books on Demand GmbH, Norderstedt, Deutschland 2006, ISBN 3-8334-4805-9.

Kategorie: Thermodynamik

Leave a Comment

(0 Comments)

Your email address will not be published. Required fields are marked *