Entropie ist ein fundamentales Konzept in der Physik, insbesondere in der Thermodynamik und der statistischen Mechanik. Ursprünglich von Rudolf Clausius im 19. Jahrhundert eingeführt, beschreibt sie ein Maß für die Unordnung, Zufälligkeit oder die Anzahl der möglichen Mikrozustände eines Systems, die zu einem gegebenen Makrozustand führen können. Sie gibt an, wie Energie in einem System verteilt ist und wie "gleichmäßig" sie sich über die verfügbaren Freiheitsgrade ausbreitet. Ein System mit hoher Entropie ist eines, in dem die Energie über viele Mikrozustände verteilt ist, was einer erhöhten Unordnung entspricht.
Der zweite Hauptsatz der Thermodynamik besagt, dass die Gesamtentropie eines isolierten Systems niemals abnimmt; sie bleibt entweder konstant (bei reversiblen Prozessen) oder nimmt zu (bei irreversiblen Prozessen). Dies bedeutet, dass Prozesse in der Natur spontan in Richtung eines Zustands ablaufen, der eine höhere Gesamtentropie aufweist. Ein klassisches Beispiel hierfür ist die Wärmeübertragung von einem wärmeren zu einem kälteren Körper: Die Wärme fließt von selbst, bis ein Temperaturgleichgewicht erreicht ist, was einer Maximierung der Entropie des Gesamtsystems entspricht.
Ludwig Boltzmann erweiterte das Verständnis der Entropie durch seine statistische Interpretation. Er zeigte, dass Entropie direkt mit der Wahrscheinlichkeit eines bestimmten Makrozustandes zusammenhängt. Ein Zustand höherer Entropie ist statistisch wahrscheinlicher, da es mehr mikroskopische Anordnungen gibt, die diesen Makrozustand realisieren können. Die berühmte Boltzmann-Formel S = k * ln(W) drückt dies aus, wobei S die Entropie, k die Boltzmann-Konstante und W die Anzahl der Mikrozustände ist. Diese Formel verbindet die makroskopische Größe Entropie mit der mikroskopischen Welt der Atome und Moleküle.
Die Entropie ist auch eng mit dem Konzept des "Pfeils der Zeit" verbunden. Da die Entropie in isolierten Systemen immer zunimmt, gibt sie eine bevorzugte Richtung für natürliche Prozesse vor. Dies erklärt, warum bestimmte Ereignisse (wie ein zerbrochenes Glas oder die Diffusion von Tinte in Wasser) spontan geschehen, während ihre Umkehrung (das spontane Zusammensetzen des Glases oder die Trennung der Tinte) extrem unwahrscheinlich ist. Die Zeit scheint in die Richtung zu fließen, in der die Entropie des Universums als Ganzes zunimmt.
Obwohl die Entropie oft mit Unordnung gleichgesetzt wird, ist es präziser, sie als ein Maß für die Streuung von Energie oder die Anzahl der verfügbaren Mikrozustände zu betrachten. Eine höhere Entropie bedeutet, dass die Energie des Systems auf mehr Arten verteilt werden kann, was zu einer größeren "Ununterscheidbarkeit" der einzelnen Teilchen führt. Dies hat weitreichende Konsequenzen für die Effizienz von Wärmekraftmaschinen und die Grenzen der Energieumwandlung.
Neben ihrer Rolle in der Thermodynamik findet das Konzept der Entropie auch Anwendung in anderen Bereichen, wie der Informationstheorie. Die Shannon-Entropie, benannt nach Claude Shannon, misst die Unsicherheit oder den Informationsgehalt einer Nachrichtenquelle. Hier gibt eine höhere Entropie an, dass eine Nachricht weniger vorhersagbar ist und somit mehr neue Informationen enthält. Es besteht eine tiefe mathematische Analogie zwischen der thermodynamischen und der informationstheoretischen Entropie.
Im kosmologischen Kontext spielt die Entropie eine zentrale Rolle bei der Diskussion über das Schicksal des Universums. Das Konzept des "Wärmetods" des Universums postuliert, dass das Universum, da es ein isoliertes System ist, einem Zustand maximaler Entropie zustrebt, in dem alle Energie gleichmäßig verteilt und keine nutzbare Energie mehr verfügbar ist. Dies würde das Ende aller Prozesse und Strukturen bedeuten und einen Zustand des thermodynamischen Gleichgewichts auf höchster Ebene repräsentieren.