Entropia: Rozdiel medzi revíziami

Smazaný obsah Přidaný obsah
Luckas-bot (diskusia | príspevky)
Vegetator (diskusia | príspevky)
Bez shrnutí editace
Riadok 1:
{{iný význam|fyzikálnej veličine|entropii z hľadiska teórie informácií|Entropia (teória informácií)}}
'''Entropia''' je fyzikálna veličina, ktorá meria neusporiadanosť (náhodnosť, neporiadok,...) systému. Je jednou zo [[stavová veličina|stavových veličín]] v termodynamike, no zavádza sa (všeobecnejšie) i v štatistikejštatistickej fyzike. Jej jednotkou je J/K (Joul na Kelvin). Prvý krát ju použil (v termodynamickom zmysle) [[Rudolf Clausis]] v roku 1850, prvýkrát ju však osobitne popísal a pomenoval až v roku 1865.
 
Jeden z najdôležitejších zákonov termodynamiky, druhá veta termodynamická, hovorí, že entropia izolovanej sústavy s časom rastie. Keď teda dáme do pohára s horúcim čajom studenú lyžičku, entropia je menšia než po istom čase kedy sa teploty vyrovnajú. Toto si môžeme vysvetliť tým, že vnútorná energia na začiatku prevažne sústredená v horúcom čaji sa neskôr rozdelila rovnomernejšie (a teda neusporiadanejšie) medzi čaj a lyžičku. No a čím vyššia neusporiadanosť, tým vyššia entropia.