RegistrierenRegistrieren   LoginLogin   FAQFAQ    SuchenSuchen   
Was ist Entropie? Beispiel Kartenspiel?
 
Neue Frage »
Antworten »
    Foren-Übersicht -> Wärmelehre
Autor Nachricht
Dieter5858
Moderator


Anmeldungsdatum: 02.08.2004
Beiträge: 696
Wohnort: Hamburg

Beitrag Dieter5858 Verfasst am: 05. Jan 2005 19:51    Titel: Was ist Entropie? Beispiel Kartenspiel? Antworten mit Zitat

Hi Leute
Ich hab den Begriff nun zwar auch schon mal gehört,
aber ich hab noch nicht so ganz begriffen was dieser "Wert"
Aussagt oder wozu er verwendet wird.
Das ganze hat ja irgendwas damit zu tun das die Möglichkeiten der Unordnung immer größer werden.
Kann mir das jemand nochmal Begreiflich erklären.

Vielleicht am Beispiel eines Kartenspieles, welches geordnet ist.
Wenn ich es mische nimmt nun die Entropie zu, warum?
AndyRo



Anmeldungsdatum: 27.12.2004
Beiträge: 22
Wohnort: Hamburg

Beitrag AndyRo Verfasst am: 05. Jan 2005 20:08    Titel: Antworten mit Zitat

Geh am besten auf www.wikipedia.de

Da ist es gut und ausfürlich und leicht verständlich erklärt.

MfG: AndyRo

_________________
- Wenn alle Stricke reißen, dann hänge ich mich auf - (Karl Krauss)
eXpli



Anmeldungsdatum: 05.01.2005
Beiträge: 42

Beitrag eXpli Verfasst am: 05. Jan 2005 20:19    Titel: Antworten mit Zitat

Entropie ist ein Maß für die Unordnung in einem System.
Außerdem besagt hohe Entropie dass es viele mögliche Zustände gibt.

Für weiteres: www.wikipedia.de
umwälzer
Gast





Beitrag umwälzer Verfasst am: 17. Jan 2005 15:29    Titel: Re: Was ist Entropie Antworten mit Zitat

Dieter5858 hat Folgendes geschrieben:
Hi Leute
Ich hab den Begriff nun zwar auch schon mal gehört,
aber ich hab noch nicht so ganz begriffen was dieser "Wert"
Aussagt oder wozu er verwendet wird.
Das ganze hat ja irgendwas damit zu tun das die Möglichkeiten der Unordnung immer größer werden.
Kann mir das jemand nochmal Begreiflich erklären.

Vielleicht am Beispiel eines Kartenspieles, welches geordnet ist.
Wenn ich es mische nimmt nun die Entropie zu, warum?


Die Entropie gilt nur für geschlossene Systeme ,nicht für offene,da
alle Systeme in der Natur offene Systeme sind,besteht die Möglichkeit davon auszugehen das das Universum auch offen ist,dh. die Aussage
das die Unordnung im Universum zunimmt gilt dann wohl nicht mehr,
wir sehen das die Natur immer neue Strukturen erschafft und evoltär
ist,gemäß dem linearem Denkschema der Thermodymik steuern
wir aber immer nur die Unordung zu und das ist einfach unlogisch,denn
sonst könnte die Natur keine höherwertigen sich ständig aufbauende Strukturen erschaffen,die Unordung ensteht dort wo alte Materie,abgestorbenes Leben zersetzt wird,sodas die Natur aus dessen
zersetzen Einzelbestandteile wieder neue Stoffgruppen,Ordnung erschafft.
umwälzer
Gast





Beitrag umwälzer Verfasst am: 17. Jan 2005 15:35    Titel: Antworten mit Zitat

Wenn meine These nicht stimmt,dann frag ich mal wie man Unordnung,
Ordnung denn nun definiert,in bezug auf Expansion,Kontraktion,Gravitation,Evolution,Implosion,Explosion in der
Frage ob einzelne Gruppen,vernetze Gruppen von Elementen/Materie/Stoffe,also vernetzt oder nicht vernetzt,biologisch
betrachtet.
Gast






Beitrag Gast Verfasst am: 17. Jan 2005 15:39    Titel: Re: Was ist Entropie Antworten mit Zitat

umwälzer hat Folgendes geschrieben:

,gemäß dem linearem Denkschema der Thermodymik steuern
wir aber immer nur die Unordung zu und das ist einfach unlogisch,denn
sonst könnte die Natur keine höherwertigen sich ständig aufbauende Strukturen erschaffen,die Unordung ensteht dort wo alte Materie,abgestorbenes Leben zersetzt wird,sodas die Natur aus dessen
zersetzen Einzelbestandteile wieder neue Stoffgruppen,Ordnung erschafft.



das bisschen Natur gleicht hier nichts aus, zumal dazu auch die Energiebilanz mit zu berücksichtigen ist. Ohne die Entropie der Sonne wär hier nichts mit Natur und Ordnung
MI



Anmeldungsdatum: 03.11.2004
Beiträge: 828
Wohnort: München

Beitrag MI Verfasst am: 17. Jan 2005 18:30    Titel: Antworten mit Zitat

@umwälzer:
Wie gesagt. Wikipedia, da steht schon etwas drin.

Und ganz kurz: Ordnung=1/Unordnung (Entropie gleich Unordnung).
Der zweite Hauptsatz der Thermodynamik besagt: Die Entropie in einen irreversiblen System nimmt IMMMER zu, in einem reversiblen System kann sie auch konstant bleiben. Sie kann NICHT abnehmen.

Reversible Systeme: elastische Stösse zwischen wenigen Teilchen, einige kontrollierte Bewegungen
Irreversible Systeme: alles andere (also praktisch alles).

Aber wie wird der Begriff Ordnung und Unordnung eigentlich definiert?
Im Universum gibt es nur Energie in verschiedenen Formen. Alles ist Energie. Zustände mit niedriger Entropie (also geordnet) sind Energie in Masse, in Form von potentieller, chemischer oder kinetischer Energie.
Der Zustand mit hoher Entropie (ungeordnet) ist Wärme. Wenn also das ganze Universum nur noch aus Wärme besteht, dann ist der Entropiewert auf dem Höchstmöglichen.

Falls ich hier Mist erzähle, dann bitte schnell korrigieren, aber das ist die Definition und Erklärung, die ich kenne.

Gruss
MI
Gast






Beitrag Gast Verfasst am: 17. Jan 2005 18:46    Titel: Antworten mit Zitat

Ein bisschen Mist ist schon verträglich g
Dr.Oleg



Anmeldungsdatum: 25.01.2005
Beiträge: 98
Wohnort: Dresden

Beitrag Dr.Oleg Verfasst am: 25. Jan 2005 17:04    Titel: Antworten mit Zitat

Kommentar von meinem Chemielehrer:
"Das brauchen Sie nicht zu verstehen, sie müssen nur die Formel kennen. Was die Entropie ist, dass versteh ich nicht, das verstehen nur die Quantenmechaniker."

_________________
Wenn der Weise auf die Sterne zeigt, sieht der Idiot nur den Finger...

In Foren betiteln sich manche Idioten mit Namen und akademischen Titeln, die sie in Wirklichkeit gar nicht besitzen. Das beste Beispiel ist "Dr. Oleg".
Dieter5858
Moderator


Anmeldungsdatum: 02.08.2004
Beiträge: 696
Wohnort: Hamburg

Beitrag Dieter5858 Verfasst am: 25. Jan 2005 18:17    Titel: Antworten mit Zitat

Hi Leute
Ahh endlich jemand der mir sagt das ich das nicht begreifen muss:-)
Mit Quantenphysik hab ich ja nix am Hut.
Aber kann jemand nochmal Versuchen das ganze am Beispiel eines Kartenspiel zu Erleutern.
Wenn ich also ein geordnetes Kartenspiel habe, und anfange es zu mischen, dann nimmt die Entropie zu.
Weil ich die Karten in einen ungeordneteren zusatnd bringe als sie vorher waren.
Aber ich kann ja trotzdem nicht vorhersagen welcher zusatnd der nächste ist.
Ob ich nun ein geordnetes oder ungeordnetes Kartenspiel nehme.
Oder ist das ein geschlossenes System oder was?
es gibt beim Kartenspiel ja eine Bestimmte Anzahl an möglichen zusammensetzung der Karten, und wenn ich die Karten mische wird sich diese Zahl ja nicht erhöhen.
Also ich habs noch net ganz verstanden...
para
Moderator


Anmeldungsdatum: 02.10.2004
Beiträge: 2874
Wohnort: Dresden

Beitrag para Verfasst am: 25. Jan 2005 18:25    Titel: Antworten mit Zitat

Unser Chemie-Lehrer (der gleiche wie bei "dr." oleg) hat uns das anhand einiger Runden Poker erklärt. Die unwahrscheinlichsten Kartenkombinationen (die mit der höchsten Ordnung) zählen am meisten, während die 0815-Kombis im Allgemeinen nichts bringen.
Die Zustände höherer Entropie sind also am wertlosesten und gleichzeitig am häufigsten ... Ist sicher nicht vollständig, aber für unsere Bedürfnisse war's gut Big Laugh.

_________________
Formeln mit LaTeX
Bruce



Anmeldungsdatum: 20.07.2004
Beiträge: 537

Beitrag Bruce Verfasst am: 26. Jan 2005 00:23    Titel: Antworten mit Zitat

Ein Kartenspiel hat zunächst mal keine Entropie, egal ob die Karten
gemischt sind oder nicht. Allerdings kann man sich fragen, wie groß nach
dem Mischen die Wahrscheinlichkeit ist, daß die Karten gemäß einer
bestimmten Folge untereinander auf dem Stapel liegen. Wenn diese
Wahrscheinlichkeit für jede Folge gleich ist, dann ist das Kartenspiel
optimal gemischt, dann liegt der Zustand größtmöglicher Unbestimmtheit
oder meinetwegen der Zustand maximaler Unordnung vor. Man kann
jedoch eine Entropie für die Wahrscheinlichkeitsverteilung
der möglichen Kartenfolgen nach dem Mischen definieren.
Diese Entropie ist ein Funktional (d.h. eine Funktion deren Argument
eine Funktion ist), das jeder sinnvollen Wahrscheinlichkeitsverteilung
für Kartenfolgen eine positive reelle Zahl zuordnet, die Entropie S. Das
Entropiefunktional S kann so definiert werden, daß maximal wird,
wenn nach dem Mischen jede denkbare Kartenfolge gleichwahrscheinlich
ist, d.h. für den Zustand maximaler Unordnung. Für andere, speziellere
("geordnetere") Zustände nach dem Mischen wie z.B., wenn alle Karten
einer Sorte direkt untereinander liegen, würde das Entropiefunktional
einen kleineren Wert liefern.

Ein bekanntes Beispiel für ein Entropiefunktional eines Kartenspiels lautet

wobei der über alle mögichen Kartenfolgen auf dem Stapel summiert wird und
die Wahrscheinlichkeit ist, nach dem speziellen Mischvorgang die
Kartenfolge auf dem Stapel zu finden. Eine besondere Eigenschaft
dieses Entropiefunktionals ist seine Extensivität für hinreichend große
Kartenspiele, d.h. legt man zwei Stapel Karten übereinander, so ist
die Entropie dieses Stapels gleich der Summe der Entropien der beiden
einzelnen Stapel. Dadurch wird dieses Entropiefunktional physikalisch
relevant, da damit die thermodynamische Zustandsgröße Entropie
physikalisch sinnvoll definiert werden kann.

Gruß von Bruce
Karl-Heinz_M



Anmeldungsdatum: 18.09.2013
Beiträge: 2
Wohnort: Deggendorf

Beitrag Karl-Heinz_M Verfasst am: 17. Jan 2014 18:54    Titel: Entropie als Größe zur Systembeschreibung Antworten mit Zitat

Entropie ist eine Größe, die sich relativ schwer bestimmen lässt, aber denoch notwendig ist, um jedes System zu beschrieben.

Die Entropie ist eine thermodynamische Größe, die ein System beschreibt (analog dem Durck). Die Größe Entropie ergibt sich aus dem zweiten Hauptsatz der Thermodynamik und gibt an, in welche Richtung ein "System läuft. (jeder kennt den Ausdruck: bei einer freiwillig ablaufenden Reaktion nimmt die Entropie zu). Die Entropie berechnet sich aus der Formel S = k ln(W) [k = Bolzmannkonstante, B = Besetzungszustand]. Durch diese Formel wird immer umgangssprachlich gesagt, die Entropie ist ein Maß für die Unordnung.

Beispiel: Ideales Kristallgitter, alle Atome befinden sich am gleichen Platz => W = 1 => S = k ln(1) = 0 (was auch sein sollte).

http://www.lernort-mint.de/Physikalische%20Chemie/Termodynamik/entropie.html
jh8979
Moderator


Anmeldungsdatum: 10.07.2012
Beiträge: 8259

Beitrag jh8979 Verfasst am: 17. Jan 2014 18:57    Titel: Antworten mit Zitat

Gut dass das nach 9 Jahren noch gesagt wurde smile
Neue Frage »
Antworten »
    Foren-Übersicht -> Wärmelehre