Entropia: Rozdiel medzi revíziami

Smazaný obsah Přidaný obsah
d Verzia používateľa 95.103.31.70 (diskusia) bola vrátená, bola obnovená verzia od 178.40.175.205
Radoslav Ivan (diskusia | príspevky)
Bez shrnutí editace
Značky: úprava z mobilu úprava z mobilného webu
Riadok 1:
{{iný význam|fyzikálnej veličine|entropii z hľadiska teórie informácií|Entropia (teória informácií)}}
'''Entropia''' je fyzikálna veličina, ktorá meria neusporiadanosť (náhodnosť, neporiadok, mieru neurčitosti) systému. Je jednou zo [[stavová veličina|stavových veličín]] v termodynamike, no zavádza sa (všeobecnejšie) i v štatistickej fyzike. Jej jednotkou je J/K (Joul na Kelvin). Prvýkrát ju použil (v termodynamickom zmysle) [[Rudolf Clausis]] v roku 1850, prvýkrát ju však osobitne popísal a pomenoval až v roku 1865.
 
Jeden z najdôležitejších zákonov termodynamiky, druhá veta termodynamická, hovorí, že entropia izolovanej sústavy s časom rastie. Keď teda dáme do pohára s horúcim čajom studenú lyžičku, entropia je menšia než po istom čase kedy sa teploty vyrovnajú. Toto si môžeme vysvetliť tým, že vnútorná energia na začiatku prevažne sústredená v horúcom čaji sa neskôr rozdelila rovnomernejšie (a teda neusporiadanejšie) medzi čaj a lyžičku. No a čím vyššia neusporiadanosť, tým vyššia entropia.