Interpretazione statistica del secondo principio

annuncio pubblicitario
Interpretazione statistica del secondo principio della termodinamica:
entropia, probabilità e disordine.
prof. Euro Sampaolesi – Liceo G. Leopardi di Recanati
Il secondo principio della termodinamica (secondo le formulazioni equivalenti di Kelvin, 1849 e
Clausius, 1862) afferma che c’è un’asimmetria nella trasformazione calore (Q) ↔ lavoro (W):
• W → Q: il lavoro meccanico che mette in moto in una certa direzione un corpo A
facendogli acquisire un’energia cinetica (Ec) ordinata può essere spontaneamente ceduto
alle molecole di un altro corpo B aumentando il loro moto in tutte le direzioni e quindi
l’energia interna disordinata di B e il suo calore Q (es. il lavoro del corpo A in moto viene
integralmente convertito in calore del corpo B per attrito).
⇓
trasformazione spontanea di energia ordinata (W) in energia disordinata (Q)
• Q → W: è impossibile, o meglio estremamente improbabile, riordinare i moti casuali di tutte
le molecole (∼ 1023 in una mole di gas) del corpo B avente il calore Q in modo che cedano
tutte quante la loro Ec nella stessa direzione al corpo A e lo mettano in moto in una certa
direzione facendogli acquisire la capacità di compiere il lavoro meccanico W.
⇓
enorme improbabilità della trasformazione completa
di energia disordinata (Q) in energia ordinata (W)
Il secondo principio della termodinamica, usando la nuova grandezza entropia (S) introdotta
da Clausius nel 1865, afferma anche che in una qualunque trasformazione termodinamica in un
sistema isolato l’entropia aumenta sempre:
∆S ≥ 0 ⇒ la natura evolve spontaneamente verso stati di massima entropia
Questo collegamento tra la direzione dei processi termodinamici naturali e i concetti di
entropia, probabilità e disordine è stato studiato da Boltzmann, che ha analizzato il secondo
principio della termodinamica dal punto di vista microscopico e ha fornito un’interpretazione
statistica dell’entropia dimostrando l’equazione:
S(A) = kB · log (WA) (Boltzmann, 1877)
dove S(A) è l’entropia del macrostato A,
kB = 1,38·10 Joule/Kelvin è una costante numerica detta costante di Boltzmann,
WA è il numero di microstati distinti che realizzano il macrostato A.
-23
• Macrostato (stato macroscopico): stato termodinamico di un sistema descritto da variabili
macroscopiche come volume, pressione, temperatura, ….
• Microstato (stato microscopico): configurazione dei costituenti microscopici del sistema
descritta da variabili microscopiche come massa, posizione, velocità, … di ogni singola
molecola.
⇓
Ogni microstato genera un preciso macrostato,
mentre un macrostato può essere realizzato da molti diversi microstati.
Pagina 1 di 2
Ecco un esempio: sistema costituito da 8 molecole distinguibili (N = 8) contenute in un recipiente
diviso in due parti, quindi un certo numero di molecole si trovano nella parte sinistra (Ns) e le altre
si trovano a destra (Nd); vale ovviamente la relazione N = Ns + Nd.
MACROSTATO
Nome
MICROSTATI
Descrizione (W = n° di configurazioni distinte che realizzano il macrostato)*
A
Ns = 8
Nd = 0
(1 solo modo: tutte le molecole a sinistra e nessuna a destra)*
B
Ns = 7
Nd = 1
(8 modi distinti: si può mettere a destra la molecola n° 1, oppure la
molecola n° 2, …oppure la molecola n°8)*
C
D
E
F
G
Ns = 6
Nd = 2
Ns = 5
Nd = 3
Ns = 4
Nd = 4
Ns = 3
Nd = 5
Ns = 2
Nd = 6
WA = 1
ENTROPIA
S = kB · log (W)
SA = 0
WB = 8
WC = 28
(28 modi distinti: combinazioni di 8 oggetti in classi di 2, vedi formula*)
WD = 56
(56 modi distinti: combinazioni di 8 oggetti in classi di 3, vedi formula*)
WE = 70
(70 modi distinti: combinazioni di 8 oggetti in classi di 4, vedi formula*)
WF = 56
(56modi distinti: combinazioni di 8 oggetti in classi di 5, vedi formula*)
WG = 28
(28 modi distinti: combinazioni di 8 oggetti in classi di 6, vedi formula*)
SB = 2.1 kB
SC = 3.3 kB
SD = 4.0 kB
SE = 4.2 kB
SF = 4.0 kB
SG = 3.3 kB
WH = 8
H
Ns = 1
Nd = 7
(8 modi distinti: si può mettere a sinistra la molecola n° 1, oppure la
molecola n° 2, …oppure la molecola n°8)*
I
Ns = 0
Nd = 8
(1 solo modo: tutte le molecole a destra e nessuna a sinistra)*
WI = 1
SH = 2.1 kB
SI = 0
 N 
N!
 =
(*) W = C N, N s = 
= combinazioni di N oggetti in classi di Ns
 N s  N s !(N − N s )!
dove N! = N·(N-1)·(N-2)·(N-3)·…·3·2·1 (N fattoriale = permutazioni di N oggetti)
L’esempio precedente mostra che i macrostati A e I con entropia minima sono i meno
probabili (si possono realizzare in un sol modo) e più ordinati (nel senso che c’è la minima
indeterminazione sulla posizione di una certa particella: sta nella parte sinistra oppure in quella
destra del recipiente), mentre il macrostato E con entropia massima è il più probabile (può essere
realizzato in 70 modi diversi) e il più disordinato (nel senso che c’è la massima indeterminazione
sulla posizione di una qualsiasi particella, che può trovarsi con la stessa probabilità sia nella parte
sinistra che in quella destra del recipiente).
⇒ l’entropia di un sistema è una misura del grado di disordine molecolare del sistema.
Per N = 8 molecole la probabilità del macrostato più disordinato (WE=70) è 70 volte più
grande di quella dei macrostati più ordinati (WA = WI = 1), ma per i sistemi naturali in cui N∼1023
(n° molecole contenute in una mole) il macrostato più disordinato è enormemente più probabile.
In conclusione in base al secondo principio della termodinamica si può affermare che:
la natura tende spontaneamente verso stati di massima entropia
la natura evolve spontaneamente verso stati più disordinati
la natura tende a realizzare gli stati più probabili
i processi inversi non sono teoricamente impossibili, ma estremamente improbabili.
Pagina 2 di 2
Scarica