Ovo je glavno značenje pojma Entropija. Za druga značenja pogledajte Entropija (razdvojba).

Entropija (oznaka S) je pojam koji je uveo 1865. Rudolf Clausius, a predstavlja termodinamičku funkciju stanja sustava kojoj beskonačno mala (infinitezimalna) promjena dS između dva beskonačno bliska ravnotežna stanja termodinamičkog sustava iznosi:

Povratni (reverzibilni) adijabatski proces: od termodinamičkog stanja (temperatura, tlak i obujam) plina s lijeve strane može se postići termodinamičko stanje plina s desne strane, i obratno, bez izmjene toplinske energije s okolinom.
Carnotov ciklus kao toplinski stroj, prikazano na dijagramu temperatura – entropija. Ciklus se odvija između ogrjevnog spremnika temperature TH i rashladnog spremnika temperature TC. Na apscisi je entropija, a na ordinati temperatura.
Nepovratni adijabatski proces: od termodinamičkog stanja (temperatura, tlak i obujam) plina s lijeve gornje strane može se postići termodinamičko stanje plina s desne strane, ali obratno, zbog izmjene toplinske energije s okolinom, postiže se novo stanje s povećanom entropijom (s gubitcima energije).

gdje je: - toplina razmijenjena u povratnom (reverzibilnom) procesu kojim sustav prelazi iz jednog stanja u drugo, a - apsolutna temperatura.[1] Ovako definiran izraz za definiciju entropije u literaturi je poznat kao Clausiusova jednakost.[2]

Termodinamička veličina koja opisuje stupanj neuređenosti zove se entropija i označava se slovom S. Entropija je funkcija stanja, što znači da ovisi samo o konačnom i početnom stanju sustava. Dio kemije koji se bavi proučavanjem toplinskih promjena u kemijskim reakcijama zove se kemijska termodinamika. Pored raznih značenja, entropija ima veliku ulogu u teoriji informacija (obavijesnoj teoriji). Entropijom i drugim zakonom termodinamike bavili su se i hrvatski znanstvenici: Josip Lončar, Fran Bošnjaković, Vladimir Matković koji je istraživao entropiju hrvatskoga jezika.

Objašnjenje

uredi

Na zatvorenom povratnom (reverzibilnom) putu (Carnotov kružni proces), kada se konačno i početno stanje poklope, promjena entropije iščezava, ΔS = 0. Prema drugom zakonu termodinamike, entropija izoliranog sustava (sustava koji nije u interakciji s okolinom) veća je ili jednaka nuli: ΔS ≥ 0, pri čemu se znak jednakosti veže za povratne (reverzibilne) procese, a znak nejednakosti za nepovratne (ireverzibilne) procese u sustavu. Entropija izoliranih sustava povećava se, jer takvi sustavi teže stanju najveće neuređenosti. Statistička mehanika nam kaže da je to upravo i najvjerovatniji tijek odigravanja procesa, odnosno ti sustavi teže stanju s najvećom entropijom. Iz drugog zakona termodinamike proizlazi da se neki makroskopski procesi odvijaju samo u smjeru porasta entropije, da imaju strijelu vremena i da im se nered i besciljnost povećavaju (disipativni sustavi). Budući da u stvarnosti ne pokazuju smanjenje entropije, u makroskopskim procesima nije moguć obrat vremena. Zbog toga je, kao filozofsku implikaciju entropije, Arthur Stanley Eddington uveo pojam strijele vremena, koji ima veliku ulogu u modernoj kozmologiji, fizici elementarnih čestica i biologiji.

Stvarni procesi u prirodi su uvijek nepovratni (ireverzibilni), to jest kod njih entropija uvijek raste. Entropija je specifična u odnosu na ostale fizikalne veličine po tome što možemo reći da entropija određuje smjer (ili strijelu) vremena u makroskopskom svijetu. Stvarni smjer vremena (uobičajeni smjer, vrijeme ide prema "naprijed") je onaj u kojem se entropija makroskopskih sistema povećava ili ostaje ista. Osobita je važnost pojma entropije u formulaciji i razumijevanju drugog zakona termodinamike.

Entropija u statističkoj mehanici

uredi

Početke povezivanja entropije s teorijom vjerojatnosti započeo je Ludwig Boltzmann između 1872 i 1875. Konačnu formulu utvrdio je Max Planck 1900. godine. Boltzmannova entropija definira se pomoću broja mikrostanja koji odgovaraju nekom makrostanju kao:

 

ovdje je   - Boltzmannova konstanta, a   broj mikrostanja.

Sljedeći korak bio je povezivanje entropije s pojmom vjerojatnosti. To je ostvario američki fizičar Josiah Willard Gibbs. Entropija se prema njemu definira kao:

 

ovdje je   vjerojatnost da će se određeno mikrostanje pojaviti uslijed fluktuacije sustava.

Boltzmannova entropija se dobije iz Gibbsove pomoću sljedeće relacije  .[3]

Ta relacija nam kaže kako je svako mikrostanje jednako vjerojatno (jedan od temeljnih postulata statističke termodinamike).

Pokazano je kako su i ova i prethodna definicija entropije jednake klasičnoj Clausiusovoj definiciji entropije s početka članka.[4] Kasnije von Neumann i Shannon proširili su pojam entropije na kvantnu mehaniku i teoriju informacija.

Entropija nekih kemijskih tvari

uredi
Tvar m/J mol-1 K-1
CaCO3(S) 92,9
CaO(S) 39,8
CO2(g) 213,6
N2(g) 191,6
H2(g) 130,7
NH3(g) 192,5

Izvori

uredi
  1. entropija, [1] "Hrvatska enciklopedija", Leksikografski zavod Miroslav Krleža, www.enciklopedija.hr, 2017.
  2. Fermi, E. (1956). "jednadžba 72". Thermodynamics. Dover Publications. str. 52.
  3. Tolman, Richard Chace (1979). The Principles of Statistical Mechanics. Courier Corporation. ISBN 978-0-486-63896-6. str. 59
  4. E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391 (1965); https://doi.org/10.1119/1.1971557