ENTROPIA
Introduzione
Per capire l’importanza del concetto dell’Entropia facciamo il seguente esempio.
Si disponga di due macchine di Carnot (chiamiamole A e B) che lavorano ciclicamente utilizzando entrambe come
termostato refrigerante uno a temperatura di 300K (grosso modo la temperatura dell’ambiente esterno che circonda
un motore a scoppio reale), mentre assorbono calore pari a 100J da due sorgenti a temperatura rispettivamente
TA = 400K e TB =600K.
300 K 1
300 K 1
Il rendimento delle due macchine è dato da A  1 

e
 B 1 

400 K 4
600 K 2
La prima trasforma in lavoro utile solo il 25% del calore fornito ad essa dall’ambiente esterno, mentre la seconda il
50%. Come si può vedere a parità di refrigerante il rendimento aumenta al crescere della temperatura della
sorgente che fornisce il calore al sistema e in altre parole il calore associato ad una sorgente a più bassa
temperatura è, per così dire, una forma di energia “più degradata o meno nobile” rispetto a quello associato ad una
sorgente a temperatura più alta.
Per comprendere meglio il comportamento del calore fornito da una sorgente alle diverse temperature di
erogazione il fisico tedesco Rudolf Julius Emanuel Clausius (1822 – 1888) introdusse il concetto di Entropia
1. Definizione e caratteristiche dell’entropia.
Entropia: funzione, introdotta da Clausius nel 1865 per esplicitare analiticamente il secondo principio della
termodinamica, che rappresenta e definisce un sistema che si trova in un determinato stato.
È una grandezza assunta come:
1. indice della perdita di capacità di un sistema di compiere lavoro;
2. indice dello stato di disordine di un sistema;
3. indice della probabilità di uno stato termico.
S
Q
T
Funzione entropica
Rapporto fra il calore che un sistema assorbe isotermicamente dall’ambiente esterno alla
temperatura e la temperatura T di interazione tra il sistema e il termostato che fornisce il calore
Questa funzione è l’espressione analitica del 2° principio della termodinamica
(enunciati di Kelvin e Clausius)
L’unità di misura dell’Entropia è J/K
Per variazione di Entropia di un sistema che passa da uno stato termodinamico A ad uno B si intende la
differenza S = S(B) - S(A)
L’Entropia oltre ad esprimere in forma analitica la seconda legge della termodinamica:
 conferma le limitazioni e le difficoltà imposte dal 2° principio nelle trasformazioni di calore in lavoro
meccanico;
 fornisce la possibilità di valutare l’energia che può essere generata nella transazione da uno stato in cui il
calore è utilizzabile ad uno in cui non è più ulteriormente utilizzabile;
 individua una specie di freccia del tempo, nel senso che consente di distinguere il verso dell’evoluzione
degli eventi;
 qualifica da un punto di vista macroscopico lo stato di crescente disordine, di degradazione, di
inquinamento dei processi naturali (è cioè un indice dello stato di disordine di un sistema);
 caratterizza, in certo qual modo, il grado di irreversibilità di una trasformazione reale (irreversibile).
2. L’Entropia nei processi reversibili
A. La variazione di entropia in un ciclo reversibile.
Ricordiamo la conclusione nella trattazione del ciclo di Carnot:
Tra la quantità di calore Q2 fornita al sistema alla temperatura T2 e il calore Q1 ceduto dal sistema
all’ambiente esterno (refrigerante) alla temperatura T1 sussiste la seguente relazione Q1  T1
Q 2 T2
che, moltiplicando entrambi i membri per
Q2
Q2 Q1

, può essere scritta nella forma
T2
T1
T1
Quest’ultima uguaglianza può essere riscritta anche nei seguenti modi
Q2 Q1

0
T2 T1
e
Q2  Q1

0
T2
T1

Ricordando la convenzione sui segni del calore assorbito e ceduto da un sistema (Q fornito dall’ambiente al
sistema è positivo Q>0, mentre il calore ceduto dal sistema all’ambiente è negativo Q<0, possiamo scrivere
Q 2 Q1

0
che rappresenta la variazione di Entropia nel ciclo di Carnot.
T2 T1
Possiamo dunque concludere che in un ciclo di Carnot (in cui le trasformazioni sono reversibili) la variazione
di Entropia è nulla.
Questa relazione può essere generalizzata ad un ciclo in cui vengono scambiate tra ambiente esterno e
sistema le quantità di calore Q1, Q2, Q3, … Qn (ognuno col proprio segno + o – a seconda che esso
venga fornito dall’ambiente esterno o ceduto dal sistema all’ambiente) alle corrispondenti temperature T1, T2, T3
…, Tn
n
ΔQi
i1
Ti

0
che rappresenta l’espressione più generale dell’uguaglianza di Clausius, che stabilisce che
“la variazione di entropia di un sistema che descrive una trasformazione ciclica reversibile
è sistematicamente nulla”.
B. L’Entropia (S) è una funzione di stato.
Dimostriamo che la funzione entropica è una funzione di stato (come l’energia
potenziale e l’energia interna di un sistema termodinamico)
Ricordiamo che una funzione è “funzione di stato” quando la sua trasformazione da uno
stato iniziale a quello finale è indipendente da come il sistema si evolve da uno stato
all’altro ma dipende solo dal “dislivello” tra i due stati.
Per es. nei due casi citati: l’energia potenziale dipende dalla differenza dei dislivelli tra
stato iniziale e finale (h1-h2) mentre nel caso dell’energia interna di un sistema
termodinamico dalla differenza tra l’energia finale e iniziale (U2 - U1)
Si consideri dunque, con riferimento alla fig.1, un sistema termodinamico che passi dallo
stato di equilibrio iniziale 1 a quello finale 2, anch’esso di equilibrio (traiettoria 1a2) e poi
ritorni allo stato iniziale 1 (traiettoria 2 b 1).
Dopo l’intero ciclo, se la trasformazione è reversibile si ha, per quanto già detto nel paragrafo precedente,
n
Q i
i1
Ti

 0 dove la sommatoria si intende estesa a tutti i Q/T che intervengono nel ciclo
(vi possono essere più scambi di calore tra ambiente e sistema).
Se si spezza il ciclo nei due rami (1a2) e (2b1) come illustrato in fig.1, la sommatoria può essere anch’essa
Q
Q 
divisa in due addendi  12    12
  0 (la somma è estesa a tutti gli scambi positivi e negativi dei tratti
T a 
T b

1a2 e 2b1).
 ΔQ     1 ΔQ  o anche  2 ΔQ     2 ΔQ 
Tale somma può anche essere scritta  12

 2

 1

 1

T a
T b
T a
T b




Nell’ultima formula la seconda sommatoria è ora relativa al tratto 1b2 invece che a 2b1 come era nella
precedente formula.
L’ultima relazione dice che le due somme relative a due trasformazioni che portano il sistema dallo stato di
equilibrio 1 a quello finale di equilibrio 2 sono uguali. Ma le due sommatorie altro non sono che la variazione di
entropia del sistema che passa da 1 a 2 con due trasformazioni diverse. In altre parole la variazione di entropia
non dipende da come il sistema è passato da 1 a 2 (non interessa cioè come viene scambiato calore tra
ambiente e sorgente) ma solo dal “dislivello” tra lo stato 1 e lo stato 2.
Poiché gli stati di equilibrio 1 e 2, come le trasformazioni a e b, sono arbitrari, la

Q
, calcolata lungo una
T
qualsiasi trasformazione reversibile, dipende solo dallo stato iniziale e finale e non da come si è passati dallo
stato 1 allo stato 2.
La grandezza S, entropia di un sistema, presenta le stesse caratteristiche delle funzioni energia potenziale ed
energia interna di un sistema termodinamico già incontrate in Fisica. Come allora avevamo concluso che tali
funzioni erano “funzioni di stato definite a meno di una costante arbitraria additiva” (ciò che interessa è la
variazione della grandezza e non tanto il valore assoluto di tali grandezza; peraltro le costanti additive
scompaiono quando si calcola la differenza di tali funzioni relative a due stati diversi!), anche adesso possiamo
concludere che “la funzione entropica è una funzione di stato definita a meno di una costante additiva”.
Ricordiamo che la costante additiva tien conto del particolare sistema di riferimento adottato.
Comunque se si volesse calcolare il valore assoluto di S si potrebbe prendere come stato di riferimento quello
in cui T = 0; a tale stato compete una S = 0.
ΔQ
Indicando con S2 l’entropia nello stato finale 2 e con S1 quella nello stato iniziale 1 la S  S 2  S1  12
T
fornisce, mediante grandezze operativamente misurabili, la variazione di entropia fra due macrostati ben
definiti.
Analizzando l’ultima relazione si può concludere che se Q è il bilancio positivo tra il calore ceduto
dall’ambiente al sistema e quello restituito dal sistema all’ambiente, la variazione di entropia è positiva
(l’entropia aumenta) se invece Q è negativo la variazione S < 0 (cioè l’entropia diminuisce).
Occorre però stare attenti che nel secondo caso è pur vero che l’entropia diminuisce, ma solo quella del
sistema che trasforma il calore in energia meccanica. Infatti se si considera il sistema complessivo composto da
ambiente + sistema (che risulta un sistema isolato) allora il bilancio della variazione di calore è nulla (Q = 0)
per cui S = 0.
Per capire meglio quest’ultimo concetto possiamo pensare ad un sistema  immerso in un ambiente  , tali da
formare complessivamente un sistema isolato. Il sistema  passi da uno stato A ad uno stato B mediante
trasformazioni reversibili assorbendo dall’ambiente le quantità di calore Q1, Q2, Q3, … Qn (ognuno col
proprio segno + o – a seconda che esso venga fornito dall’ambiente esterno o ceduto dal sistema all’ambiente)
alle corrispondenti temperature T1, T2, T3 …, Tn. La variazione di Entropia di  è data da


S(B) - S(A) =  Q1  Q1  Q3  ...  Qn 


 T1
T2
T3
Tn rev
L’ambiente  dal quale il sistema  assorbe il calore subirà invece una variazione di Entropia data da
  Q1
 Q1
 Q3
 Qn 




 ... 
S(B) – S(A) =
T1
T2
T3
Tn rev

Questo perché il
calore +Q assorbito da  e fornito dall’ambiente
 è uguale al calore –Q ceduto da  e assorbito da . Si noti inoltre che questi passaggi di calore avvengono
alle stesse temperature. In altre parole i denominatori delle frazioni delle due espressioni sono uguali mentre i
numeratori sono uguali in valore assoluto, ma di segno opposto.
Pertanto la variazione complessiva dell’Entropia dell’ambiente + il sistema sarà nulla, cioè
[S(B) - S(A)] + [S(B) – S(A)] = 0
Concludendo “in un sistema isolato, al cui interno avvengono esclusivamente trasformazioni
reversibili, l’entropia non può diminuire e resta costante”.
N.B. L’Entropia di un sistema può anche diminuire (come avviene per es. in un frigorifero), ma
contemporaneamente l’Entropia dell’ambiente che lo circonda (che assorbe il calore ceduto dal frigorifero)
aumenta e la somma delle due Entropie deve dare quantomeno zero e non una quantità negativa perché il
calore ceduro dal frigorifero all’ambiente è uguale a quello assorbito dall’ambiente e queste trasformazioni
contemporanee avvengono alle stesse temperature.
C. L’Entropia è una grandezza estensiva.
Se un sistema generale  è composto da due sottostimami diversi e separati 1 e 2 tali che  = 1  2
si può dimostrare, ricorrendo alla proprietà associativa della somma, che l’Entropia del sistema  è uguale alla
somma delle Entropia dei suoi due sottostimi, in formule S() = S(1) + S(2).
Possiamo pertanto concludere che l’Entropia è una grandezza estensiva.
2. L’Entropia nei processi irreversibili
A. La variazione di entropia nel passaggio di calore (da un corpo più caldo a uno più freddo)
Iniziamo col considerare un caso semplice di processo irreversibile (passaggio di calore tra due corpi).
Siano A e B due corpi in un sistema isolato. Sia T A la temperatura del corpo A e TB quella di B; sia inoltre
TA > TB. Posti i due corpi in contatto, una certa quantità di calore Q passa dal corpo A a quello B.
Per la convenzione dei segni sul calore ceduto e assorbito si avrà che Q < 0 per A mentre Q > 0 per B.
(Il corpo A è l’equivalente dell’ambiente e quello B del sistema)
Pertanto l’entropia del corpo A (Q/TA) diminuisce, mentre quella del corpo B (Q/TB) aumentata. La variazione
complessiva di entropia del sistema A + B è data da
TA  TB
 1
Q Q
1 
S 

 Q 

  Q
TB TA
TA TB
 TB TA 
Poiché TA >TB deve risultare S > 0, cioè l’Entropia è aumentata.
Occorre osservare che il processo analizzato è irreversibile in quanto, spontaneamente, il calore acquistato da
B non viene restituito al corpo A (enunciato di Clausius).
Pertanto, a seguito del passaggio di calore da un corpo caldo ad uno freddo, trasformazione tipicamente
irreversibile, l’entropia complessiva del sistema è aumentata.
B. La variazione di entropia nelle trasformazioni irreversibili. (caso generale)
Consideriamo una trasformazione ciclica 1 2 1 fig. 2. Questa volta la trasformazione che porta dallo stato 2 allo
stato 1 sia irreversibile.
Ragionando in modo analogo a come già fatto precedentemente per le trasformazioni
reversibili, si ricava
 2 ΔQ 
 1 ΔQ 
  2
0
 1


T  REV 
T  iRREV

in quanto Q scambiato in una trasformazione reversibile è maggiore di quello
scambiato in una irreversibile [Qrev > Qirrev].
Per capire quest’ultima affermazioni si può ragionare così:
Se l’ambiente fornisce una quantità Q di calore al sistema si possono avere i seguenti due casi:
- Il processo è reversibile per cui il calore Q viene integralmente trasformato in energia meccanica o
elettromagnetica L;
- Il processo è irreversibile, per cui per gli immancabili attriti ecc., solo una parte di Q (Q’) viene trasformato
in energia L’, mentre una certa quantità Q” viene perduto in un lavoro L” di attrito.
Il bilancio porta a L= L’+ L” (Q=Q’+Q”) e quindi a L> L’ e cioè a Q > Q’ o anche [Qrev > Qirrev].
In altre parole se si vuole produrre lo stesso lavoro con le due trasformazioni rev. e irrev. occorre
somministrare una quantità maggiore di Q per i processi irrev.
Si può pertanto concludere che nei processi irreversibili
n
Q i
i1
Ti

 0 e, in termini generali,
n
Q i
i1
Ti

0
Dove il segno = vale per le trasformazioni reversibili mentre il < per quelle irreversibili.
Allo stesso risultato si può pervenire partendo dal teorema di Carnot relativo ai rendimenti delle macchine che
lavorano con trasformazioni reversibili e irreversibili.
Infatti dalla relazione irr  rev che enuncia il principio che “tutte le macchine reversibili che lavorano fra
due termostati hanno lo stesso rendimento e nessun’altra macchina reale che operi fra gli stessi
termostati può avere un rendimento maggiore” si può ricavare, con ovvi passaggi matematici
1
Q1 Q1
T

 1 1
Q2 Q2
T2

Q2 Q1

T2
T1

Q2 Q1

0
T2 T1

Q2  Q1

0
T2
T1

Q2 Q1

0
T2 T1
C. Formulazione analitica del secondo principio della Termodinamica
n
ΔQ i
 0 è detta disuguaglianza di Clausius ed esprime analiticamente il secondo
Ti
principio della termodinamica, cioè è l’espressione matematica del 2° principio della termodinamica nelle due
formulazioni di Kelvin e Clausius.
L’espressione 
i 1
Infatti, utilizzando per semplicità di dimostrazione l’espressione semplificata, relativa alle trasformazioni
Q2 Q1

 0 e ragionando per assurdo, si ha:
irreversibili,
T2 T1
1. Primo enunciato (Kelvin) “È impossibile … “.
Se Q1 (calore restituito dal sistema all’ambiente) fosse nullo allora nella relazione resterebbe solo Q 2/T2 che
sarebbe positivo, essendo Q2 > 0 e quindi non sarebbe verificata la disuguaglianza di Clausius; (cioè se
non è valido l’ununciato di Kelvin non e valida la disuguaglianza di Clausius)
2. Secondo enunciato (Clausius) “È impossibile … “.
Ammettiamo, per assurdo che esista un sistema a temperatura T1 che in un ciclo ceda spontaneamente
all’ambiente che lo circonda avente temperatura T2 (con T2 > T1) una certa quantità di calore Q.
Q2 Q1

Calcoliamo l’Entropia del ciclo utilizzando la relazione S 
T2
T1
Osserviamo che sistema e ambiente si scambiano la stessa quantità di calore Q, pertanto |Q2| = |Q1| = Q e,
per la convenzione sui segni, sarà Q2 < 0 mentre Q1 > 0 [il calore ceduto all'ambiente (refrigerante) è
negativo; nel nostro caso l’ambiente riceve una quantità di calore –Q alla temperatura T2 mentre il sistema
cede una pari quantità di calore alla temperatura T1 < T2]. Pertanto la formula dell’Entropia dovrà essere
scritta
S
Q Q
T T
T T
 1 1
  Q      Q 1 2  Q 2 1  0 in contrasto con la disuguaglianza di Clausius
T2 T1
T
T
T
T
T1T2
 2 1
1 2
In entrambi i casi dunque si contraddice la relazione di Clausius; cioè se gli enunciati di Kelvin e
Clausius del secondo principio fossero falsi sarebbe falsa anche la disuguaglianza di Clausius relativa
alla variazione di Entropia.
3. Riepilogo e conclusione
n

Q i

ΔQ 

ΔQ 
 0 all’esemplificazione della fig. 2 possiamo scrivere  12
  12
0


T
T  Irrev 
T  Rev

i
i1
Poiché la trasformazione che porta il sistema da 2 a 1 è per ipotesi reversibile, il primo addendo della relazione
può essere sostituito con S = S1 – S2 cioè
Adattando la
 2 ΔQ 
 2 ΔQ 
S1  S 2   1
 0 da cui  1
 S 2 - S1


T Irrev
T Irrev


o anche
 2 ΔQ 
 
 1 T Irrev
S 2 - S1  
In base ai risultati ottenuti si può affermare che quando un sistema passa da uno stato iniziale 1 a uno finale 2,
spontaneamente o a seguito di qualche processo di interazione con l’ambiente esterno, si ha:
2 ΔQ
in un processo reversibile
S 2 - S1 
1
T
2 ΔQ
in un processo irreversibile
S 2 - S1 
1
T
In altre parole l’entropia di un sistema non subisce variazioni se le trasformazioni che in esso avvengono sono
reversibili, aumenta invece se tali trasformazioni sono irreversibili.
Nel caso particolare che il sistema sia isolato, per cui non ci sono interazioni con l’ambiente circostante (Q=0)
nelle ultime due relazioni è nullo il secondo termine per cui esse si riducono a
S2 = S1
in un processo reversibile
S2 > S1
in un processo irreversibile


Proprietà dell’Entropia
- è una grandezza estensiva: l’entropia complessiva di due sistemi aventi entropia rispettivamente SA ed SB è
uguale alla somma delle entropie SAB = SA + SB
- facendo interagire un sistema con un altro, l’entropia totale dei due sistemi deve sempre aumentare; al
limite l’entropia totale resta costante se i processi sono tutti reversibili
- se si sa che l’entropia di uno stato B [S(B)] è maggiore di quella di uno sto A [S(A)] si può concludere che il
sistema si è evoluto dallo stato A allo stato B in quanto tale trasformazione ha comportato un aumento di
entropia (principio dell’aumento di entropia).
Osservazione.
 Abbiamo dimostrato che in un sistema isolato ogni trasformazione genera in esso una variazione di Entropia
uguale a zero se le trasformazioni sono reversibili e maggiore di zero se sono irreversibili. Possiamo
osservare che il nostro Universo è un sistema chiuso e isolato e che pertanto, poiché le trasformazioni che
avvengono in esso sono irreversibili, la sua Entropia è in continuo aumento.
 Esiste un parallelismo tra il trascorrere del tempo e la variazione di Entropia nel senso che “il tempo scorre
nel verso a cui corrisponde un aumento continuo dell’Entropia”.
E si potrebbe concludere con Clausius “una volta che l’Universo avrà raggiunto il valore massimo dell’Entropia
si troverà in uno stato di morte immodificabile” (???? )
4. Interpretazione dell’Entropia
La trattazione precedente ci ha portato a definire una funzione matematica che spiega in maniera esaustiva il
secondo principio della termodinamica, ma il vero significato fisico di tale entità non credo sia ancora chiaro.
Sulla base di studi portati avanti inizialmente da Maxwell è possibile avere un’idea più attinente alla
fenomenologia fisica reale dei processi termodinamici.
Utilizzando l’esempio esplicativo di Mawell: in un recipiente, diviso in due settori in uno dei quali è stato inserito
del gas, il setto divisorio è dotato di una finestra che può essere chiusa o aperta da un diavoletto che consente
alle molecole del gas di passare dal settore A (contenete il gas), a quello B originariamente vuoto. Tale
diavoletto, agendo sullo sportello della finestra consente quindi alle molecole di A di passare in B e impedisce a
quelle di B di ritornare in A.
Il risultato finale della trasformazione è quello di far passare tutto il gas da A a B ed eventualmente viceversa.
E’ stata realizzata quindi una trasformazione perfettamente reversibile.
Il diavoletto avrebbe potuto anche far passare le molecole più veloci in B lasciando quelle più lente in A,
creando quindi uno squilibrio termico (il calore passa da un corpo freddo ad uno più caldo).
Se si pone l’uguaglianza diavoletto = natura si può capire che il processo non è del tutto impossibile, soprattutto
se il numero delle molecole è basso.
Per capire meglio quest’ultima affermazione diamo innanzi tutto la def. di probabilità di un evento.
Per es. che probabilità ho di indovinare il risultato del lancio di una moneta (T-C)? essendo due gli stati possibili
(o esce Testa o esce Croce) ho la probabilità pari a ½ (o del 50%).
Che probabilità ho di indovinare il risultato del lancio di un dado? 1/6.
Che probabilità ho di indovinare il risultato dell’estrazione di un numero al lotto? 1/90
Definizione di probabilità di un evento:
Prendiamo in considerazione per semplicità una scatola contenete prima 1 moneta, poi 2, poi 3 e così via e
calcoliamo le probabilità dei vari casi possibili che si possono ottenere dopo aver opportunamente agitato la
scatola.
N°
monete
elenco casi possibili
n° casi possibili
1
2
3
4
…
10
…
100
…
1000
…
1000000
TC
TT TC CT CC
TTT TTC TCT CTT TCC CTC CCT CCC
TTTT TTTC TTCT TCTT CTTT TTCC TCTC TCCT CTTC CTCT CCTT TCCC CTCC CCTC CCCT CCC
…………………………………..
………………………………….
…………………………………
…………………………………
21 = 2
22 = 4
23 = 8
24 = 16
……….
210 = 1024
……….
2100
……….
21000
……….
21000000 = ???
Nell’esempio a 4 monete si può vedere che, se le monete sono indistinguibili tra loro, come lo sono le molecole
di un gas, la P(TTTT) = P(CCCC) 1/16
P(TTTC) = P(TCCC) = 4/16
P(TTCC) = 6/16
Cosa ci aspetteremo di trovare nella scatola contenente 1.000.000 di monete? All’incirca 500.000 T e altrettante
C.
Cioè uno di quegli stati ai quali compete la probabilità maggiore.
In modo analogo un sistema termodinamico composto da n moli e quindi da n .1023 molecole lasciato libero di
evolversi si porterà verso quello stato al quale compete la più alta probabilità.
Che probabilità si ha che le molecole dell’es. di Maxwell passino tutte dallo scomparto A a quello B,
supponendo che il gas sia esattamente di una mole? (1/2)^ 1023 = 0,000000000….000000000000…000000
….1 = praticamente 0!!!
Per meglio trarre le conclusioni premettiamo qualche considerazione e definizione.
a. Abbiamo già detto che lo stato di un sistema fisico è dato dall’insieme delle variabili macroscopiche che
permettono di identificare le proprietà del sistema. Queste variabili per un sistema gassoso sono (V;p;T).
Pertanto tali variabili determinano lo stato macroscopico/stato termodinamico (o macrostato) del
sistema.
b. La conoscenza del modello atomico e molecolare della materia ci permette di definire un altro concetto
quello di stato microscopico/stato dinamico (o microstato) che può essere definito come “una precisa
configurazione dei suoi costituenti microscopici” e viene individuato normalmente dalla coordinate
dinamiche (x;y;z;v) o più brevemente (per quanto detto nella teoria cinetico molecolare) da (x;vx)
Il microstato è determinata quando si conoscono i valori delle proprietà fisiche dei costituenti microscopici di
quel particolare sistema, come ad es. masse, posizioni, velocità di ciascuna molecola.
c.
Ad ogni microstato si può associare uno ed un solo macrostato, le cui proprietà sono definite dai valori medi
o totali delle grandezze che caratterizzano il microstato. Per intenderci ad es. la T è definita dall’energia
cinetica media delle molecole (teoria cinetica molecolare), ecc.
d. In generale, a ogni macrostato si può associare molti microstati (tutte quelle configurazioni di microstati che
forniscono gli stessi valori medi delle variabili termodinamiche (V,p,T). In altre parole un macrostato è
individuato da tutti quei microstati aventi le stesse medie delle coordinate microscopiche o dinamiche.
e. Si definisce molteplicità (o probabilità termodinamica) M() del macrostato  il numero di microstati
diversi che originano .
Un esempio chiarificatore dei punti (d) ed (e) che ci porta a ragionare in termini di sistemi gassosi è quello che
si riffa all’es. di Maxell.
Per semplicità consideriamo i due recipienti A e B il primo contenente 8 molecole macroscopicamente
indistinguibili, ma microscopicamente distinguibili (per es. 8 molecole di gas diversi) e il secondo vuoto.
Determiniamo le molteplicità del macrostati possibili. Il tutto è chiarito dalla tabella seguente:
n° di molecole che si trovano nello
scomparto A
scomparto B

1
8
0
2
7
1
3
6
2
4
5
3
5
4
4
6
3
5
7
2
6
8
1
7
9
0
8
Molteplicità del macrostato
corrispondente M()
1
8
28
56
70
56
28
8
1
Totale
256
Probabilità del
macrostato P()
1/ 256
8/256
28/256
56/256
70/256
56/256
28/256
8/256
1/256
Come si può vedere ad es. il macrostato composto da 6 molecole in A e 2 in B ha una molteplicità di 28
microstati, mentre quello costituito da 4 molecole nello scomparto A e 4 in B ha una molteplicità di 70 microstati.
Dopo un lasso di tempo brevissimo questut’ultima configurazione è certamente quella che più facilmente
constateremo essere realizzata in quanto ad essa compete la probabilità maggiore.
Anche in questo esempio si può capire che se il n° delle molecole cresce da 8 ad es a 10 23 la molteplicità
avente il più alto valore e quindi il macrostato più probabile è quello che prevede metà delle molecole in A e
metà in B! Al macrostato “tutte le molecole in A e nessuna in B” è associato un solo microstato.
Occorre stare attenti che a quest’ultimo macrostato non si è negata l’impossibilità verificarsi, ma semplicemente
che una tale eventualità è praticamente irrealizzabile e tale impossibilità cresce col crescere del numero dei
componenti il sistema.
Ovviamente ai macrostati 1 e 9 compete il massimo ordine mentre al 5 il massimo disordine, ciò perché mentre
per i primi due abbiamo la minima indeterminazione sulla posizione delle particelle nella situazione 5 si ha la
massima indeterminazione.
“L’entropia misura la probabilità dell’evoluzione di un sistema verso quello stato di massima probabilità al quale
compete il massimo disordine e quindi il massimo di Entropia”..
Sulla base delle osservazioni sulle proprietà di cui gode la funzione entropica si può dimostrare che il legame
matematico che lega l’Entropia associata ad uno stato  e la sua molteplicità W() che tale stato si presenti
[P(A)] è espresso da
S() = k ln [W()]
[dove k = costante di Boltzmann e ln = logaritmo naturale o neperiano (loge)]