Startseite
Forum
Fragen
Suchen
Formeleditor
Über Uns
Registrieren
Login
FAQ
Suchen
Foren-Übersicht
->
Wärmelehre
Antwort schreiben
Benutzername
(du bist
nicht
eingeloggt!)
Titel
Nachrichtentext
Smilies
Weitere Smilies ansehen
Schriftfarbe:
Standard
Dunkelrot
Rot
Orange
Braun
Gelb
Grün
Oliv
Cyan
Blau
Dunkelblau
Indigo
Violett
Weiß
Schwarz
Schriftgröße:
Schriftgröße
Winzig
Klein
Normal
Groß
Riesig
Tags schließen
Schreibt eure Formeln hier im Board am besten mit Latex!
So gehts:
Latex-Kurzbeschreibung
|
Formeleditor
[quote="bishop"]die Entropie ist tatsächlich eine sehr unanschauliche Größe und bereitet vielen Probleme, der Wikieintrag fasst das nochmal sehr schön zusammen. Die Entropie ist ein (logarithmisches) Maß für die Anzahl von Phasenraumzuständen. Es ist ein Maß für die Anzahl der Zustände, die ein System einnehmen kann, quasi seine Freiheiten. Oft läuft es darauf hinaus, dass der Begriff gleichbedeutend mit der Unordnung ist, was jedoch einfach falsch ist, denn es gibt Beispiele wo die Unordnung ab, aber die Entropie zunimmt. Hier ist ein beliebtes Beispiel meines Profs eine Müslischüssel mit Bananenstückchen. Rührt man das Müsli um, so verklumpt es -> Unordnung hat abgenommen. Gleichzeitig hat seine Entropie zugenommen Jedenfalls ist die Entropie ein Konstrukt, mit dem man ein Extremalprinzip definieren kann, was in der Physik sehr hilfreich ist. Und man kann mit ihr eine natürliche Temperaturskala definieren, nämlich die Kelvinskala, die nicht auf willkürlichen Fixpunkten beruht sondern universell ist. Die erste Formel kommt rein aus der Statistik, wo man den Phasenraum willkürlich in Zellen unterteilt und die Entropie danach misst wie wahrscheinlich es ist, dass sich ein gegebener Zustand in einer davon aufhält. Die zweite Formel kommt aus der Thermodynamik, wo man Begriffe wie Wärme und Temperatur definiert hat und das dann so schreiben kann. Beide sind äquivalent, weil die zweite aus der ersten hervorgeht, jedoch benutzt man die zweite bei den thermodynamischen Problemen gruß bishop[/quote]
Optionen
HTML ist
aus
BBCode
ist
an
Smilies sind
an
BBCode in diesem Beitrag deaktivieren
Smilies in diesem Beitrag deaktivieren
Spamschutz
Text aus Bild eingeben
Alle Zeiten sind GMT + 1 Stunde
Gehe zu:
Forum auswählen
Themenbereiche
----------------
Mechanik
Elektrik
Quantenphysik
Astronomie
Wärmelehre
Optik
Sonstiges
FAQ
Sonstiges
----------------
Off-Topic
Ankündigungen
Thema-Überblick
Autor
Nachricht
TomS
Verfasst am: 11. Sep 2009 12:53
Titel:
Nochmal eine Anmerkung: die Definition der Entropie im Rahmen der statistischen Physik (die wie Bishop erwähnt natürlich mit der Definition in der Thermodynamik in Verbindung gesetzt werden kann - sie entsprechen sich), lautet:
wobei hier das für ein System zugängliche Phasenraumvolumen eingeführt wurde.
Die Definition mittels einer Wahrscheinlichkeit lautet etwas anders als die von dir angegeben Formel:
Dabei betrachtet man ein statistisches Ensemble, das in der QM durch einen statistischen Operator definiert wird. Die Entropie ergibt sich aus der Spur des Logarithmus des statistischen Operators.
Anschaulich "zählt" die Entropie die Anzahl der (quantenmechanischen) Mikrozustände, die ein und dem selben (thermodynamischen) Makrozustand entsprechen.
bishop
Verfasst am: 11. Sep 2009 10:28
Titel:
die Entropie ist tatsächlich eine sehr unanschauliche Größe und bereitet vielen Probleme, der Wikieintrag fasst das nochmal sehr schön zusammen.
Die Entropie ist ein (logarithmisches) Maß für die Anzahl von Phasenraumzuständen. Es ist ein Maß für die Anzahl der Zustände, die ein System einnehmen kann, quasi seine Freiheiten.
Oft läuft es darauf hinaus, dass der Begriff gleichbedeutend mit der Unordnung ist, was jedoch einfach falsch ist, denn es gibt Beispiele wo die Unordnung ab, aber die Entropie zunimmt. Hier ist ein beliebtes Beispiel meines Profs eine Müslischüssel mit Bananenstückchen.
Rührt man das Müsli um, so verklumpt es -> Unordnung hat abgenommen. Gleichzeitig hat seine Entropie zugenommen
Jedenfalls ist die Entropie ein Konstrukt, mit dem man ein Extremalprinzip definieren kann, was in der Physik sehr hilfreich ist. Und man kann mit ihr eine natürliche Temperaturskala definieren, nämlich die Kelvinskala, die nicht auf willkürlichen Fixpunkten beruht sondern universell ist.
Die erste Formel kommt rein aus der Statistik, wo man den Phasenraum willkürlich in Zellen unterteilt und die Entropie danach misst wie wahrscheinlich es ist, dass sich ein gegebener Zustand in einer davon aufhält.
Die zweite Formel kommt aus der Thermodynamik, wo man Begriffe wie Wärme und Temperatur definiert hat und das dann so schreiben kann. Beide sind äquivalent, weil die zweite aus der ersten hervorgeht, jedoch benutzt man die zweite bei den thermodynamischen Problemen
gruß bishop
Veryyy
Verfasst am: 10. Sep 2009 17:15
Titel: Entropie anschaulich
Hallo,
ich habe noch Probleme mit den Begriff der Entropie anschaulich vorzustellen...
Entropie wird oft als "Unordnung" bezeichnet oder als Maß für die Zahl der äquivalenten Zustände, die ein System einnehmen kann.
Ich kenne auch zwei verschiedene Formen die Entropie S zu definieren:
mit w = Wahrscheinlichkeit, dass Zustand eintritt
und
Aber ich kann mir das ganze nicht so wirklich anschaulich vorstellen..
Wäre nett, wenn mir da jemand weiterhelfen könnte.
Gruß, Veryyy