Formulazione assiomatica della Termodinamica

Università degli Studi di Pisa
Facoltà di Scienze Matematiche Fisiche e naturali
Corso di Laurea in Fisica
Anno Accademico 2002-2003
Tesi di Laurea
Formulazione assiomatica della
Termodinamica
Candidato:
Giuseppe De Nittis
Relatore:
Chiar.mo Prof. Enore Guadagnini
Ai miei genitori
Sintesi dei risultati
Uno dei concetti fondamentali della fisica è quello di stato del sistema: lo stato
di un sistema è definito da tutto ciò che serve per caratterizzare completamente
e riproducibilmente la situazione sperimentale osservabile; le quantità che definiscono lo stato di un sistema riguardano, quindi, solo grandezze controllabili e
misurabili. In virtù di ciò, è una situazione molto comune in fisica, ritenere che
lo stato di un sistema possa essere determinato univocamente dai valori assunti
da n variabili reali indipendenti x1 , . . . , xn . Studiare la fisica di un sistema significa indagare le leggi di trasformazione alle quali il sistema deve ubbidire quando
compie una transizione tra due stati. Per comprendere come un sistema possa
evolvere tra due stati “lontani è fondamentale conoscere prima come il sistema
transita tra stati “molto vicini in seguito ad una trasformazione infinitesima.
Se il sistema evolve dallo stato x1 , . . . , xn allo stato x1 + dx1 , . . . , xn + dxn ,
possiamo assumere che la variazione di una generica variabile dipendente F sia
esprimibile cone una sovrapposizione lineare degli spostamenti infinitesimi dxi
nel modo seguente:
δF (x1 , . . . , xn ) =
n
X
gi (x1 , . . . , xn )dxi ,
(1)
i=1
dove i coefficienti gi sono, in genere, funzioni sufficientemente regolari delle
variabili di stato x1 , . . . , xn . Matematicamente l’espressione (1) prende il nome
di 1-forma. Se esiste una funzione a valori reali F = F (x1 , . . . , xn ) tale che
gi = ∂F/∂xi allora la (1) diviene
δF =
n
X
∂F
dxi = dF,
∂x
i
i=1
(2)
ossia la 1-forma è il differenziale esatto della funzione F ; in questo caso si parla
di 1-forma esatta.
In fisica teorica, spesso si è soliti ricondurre le leggi fisiche che determinano
l’evoluzione del sistema ad equazioni differenziali del tipo
δF =
n
X
gi dxi = 0.
(3)
i=1
La (3) prende il nome di equazione di Pfaff; risolvere una tale equazione significa
trovare una curva γ ∈ Rn , parametrizzata da ~x(t) = (x1 (t), . . . , xn (t)), tale che
n
X
dxi gi (~x(t))
δF (~x(t)) =
= 0.
(4)
dt t
i=1
i
Fisicamente la curva γ descrive la successione di stati attraversati dal sistema
durante la trasformazione.
Quando δF è una 1-forma esatta, l’integrale generale dell’equazione (3) è fornito
dalla famiglia di superfici equipotenziali ΣC le quali sono definite dall’equazione
F (x1 , . . . , xn ) = C con C ∈ R. Poiché le superfici ΣC non si possono intersecare
in nessun punto, in questo caso le curve γ, soluzioni dell’equazione di Pfaff
(3), non possono mai connettere due stati che appartengono a superfici diverse.
Fisicamente questo equivale ad affermare che esistono stati infinitamente vicini
allo stato di partenza che non potranno mai essere raggiunti dal sistema in
seguito ad una trasformazione; diremo che un tale sistema è soggetto ad una
condizione di irraggiungibilità.
La condizione di esattezza della 1-forma δF non è la richiesta più generale
affinché l’equazione (3) possa ammettere come soluzione generale delle superfici
equipotenziali. Data una 1-forma δF ′ non esatta, sotto opportune condizioni,
è possibile determinare una funzione a valori reali µ = µ(x1 , . . . , xn ) 6= 0 tale
che µδF ′ = dF è un differenziale esatto; la funzione µ prende il nome di fattore
integrante ed una equazione di Pfaff δF ′ = 0, per cui δF ′ ammette un fattore
integrante, viene detta olonoma. Se
δF ′ =
n
X
gi′ dxi = 0
(5)
i=1
è un’equazione di Pfaff olonoma per cui µδF ′ = dF , allora deve valere anche
che
n
X
µgi′ dxi = dF = 0
(6)
µδF ′ =
i=1
e quindi tutte le curve γ che sono soluzione della (5) devono risolvere anche
la (6) ed in definitiva, devono giacere sulle superfici equipotenziali definite da
F (x1 , . . . , xn ) = C. Ovviamente anche nel caso in cui il sistema fisico sia descritto da un’equazione olonoma, esso è soggetto ad una condizione di irraggiungibilità; punti appartenenti a superfici equipotenziali distinte non possono
essere connessi tra loro.
Sicuramente la condizione di olonomia dell’equazione (3) garantisce che per il
sistema deve valere una condizione di irraggiungibilità; Carathéodory dimostrò
che in realtà vale anche il viceversa. Il I Teorema di Carathéodory afferma che
se vi sono punti infinitamente vicini che non possono essere collegati con una
curva soluzione dell’equazione (3), allora quest’ultima deve essere necessariamente olonoma.
Il I Teorema di Carathéodory trova la sua più naturale applicazione alla termodinamica dei sistemi ad n gradi di libertà. Durante una trasformazione reversibile, il calore infinitesimo che il sistema termodinamico scambia con l’esterno è
dato da
n
X
gi (x1 , . . . , xn ) dxi ,
(7)
δQ =
i=1
quindi è esprimibile in termini di una 1-forma che, generalmente, non è esatta.
Tra tutte le trasformazioni termodinamiche reversibili, quelle che sono anche
adiabatiche devono soddisfare l’equazione di Pfaff
δQ =
n
X
gi dxi = 0.
i=1
ii
(8)
Come conseguenza di ripetute osservazioni sperimentali è lecito postulare che,
infinitamente vicino ad ogni stato di equilibrio di un sistema termodinamico,
vi sono altri stati di equilibrio che non sono raggiungibili tramite trasformazioni adiabatiche 1 ; questa è esattamente una condizione di irraggiungibilità
sull’equazione di Pfaff (8). Se si accetta questa ipotesi, allora, come immediata
conseguenza del Teorema di Carathéodory, deve esistere un fattore integrante
µ che rende esatta la quantità δQ, ossia tale che dS = µδQ; la funzione di
stato S prende il nome di entropia del sistema e come conseguenza della olonomicità della (8), segue che le trasformazioni adiabatiche reversibili giacciono
sopra superfici isoentropiche. Inoltre, richiedendo che in seguito all’accoppiamento termico due sistemi raggiungono la stessa temperatura, è possibile dimostrare 2 che il fattore integrante µ deve essere una funzione universale della
sola temperatura θ del sistema considerato; in questo caso sarà indicato con
µ = 1/T (θ). Per l’arbitrarietà sulla scelta della scala termometrica, è possibile
definire una nuova scala delle temperature, chiamata scala Kelvin, tramite la
relazione T = T (θ). In definitiva, postulando che i sistemi termodinamici siano soggetti ad una condizione di irraggiungibilità adiabatica, come inevitabile
conseguenza delle proprietà delle equazioni di Pfaff, deve esistere la funzione di
stato entropia, definita da dS = δQ/T per trasformazioni reversibili.
I risultati cosı̀ ottenuti non aggiungono nulla di nuovo alle conoscenze della termodinamica “tradizionale, tuttavia il lavoro di Carathéodory sintetizza tutte
le conseguenze fisiche in un’unica, rigorosa teoria matematica; l’esistenza delle
superfici isoentropiche non dipende dalle proprietà dei cicli di Carnot (fondamentali nel lavoro di Clausius), essa è una conseguenza naturale delle proprietà
delle equazioni di Pfaff che sono alla base della descrizione dei fenomeni termodinamici.
Infine, rafforzando il postulato di irraggiungibilità adiabatica 3 , è possibile recuperare la legge dell’aumento dell’entropia includendo, in tal modo, nello schema
matematico di Carathéodory, la descrizione dei fenomeno irreversibili .
1 Come sarà dimostrato nel Paragrafo 3.3, la richiesta di irraggiungibilità è già contenuta
nell’enunciato del II Principio della termodinamica dato da Kelvin e Planck, e come tale non
aggiunge nulla di nuovo alle ipotesi minime che stanno alla base della formulazione classica
della termodinamica.
2 Questo è il contenuto del II Teorema di Carathéodory.
3 Anche la versione “forte del postulato è già contenuta nell’enunciato di Kelvin-Planck.
iii
Prefazione
La termodinamica, come disciplina fisica, nasce ufficialmente con la pubblicazione degli studi di S. Carnot nel 1824. Solo negli anni che vanno dal 1850
al 1856, tuttavia, tale disciplina assume una formulazione coerente e moderna,
soprattutto grazie ai lavori di Clausius e Kelvin (con i quali si rinuncia definitivamente all’idea del calorico). Nel 1890, come risultato degli studi di Planck,
viene riconosciuto il ruolo fondamentale che ha il concetto di entropia nella
comprensione dei fenomeni termodinamici; con questo fatto la termodinamica
riceve la formulazione, pressoché definitiva, tuttora studiata nei vari corsi di fisica. Tuttavia la termodinamica classica (ossia quella nata dai lavori di Clausius,
Kelvin e Planck) si basa su principi di carattere fenomenologico ed ingegneristico, come, ad esempio, appare evidente dagli enunciati del II Principio dati da
Clausius e da Kelvin e Planck. Questo faceva sı̀ che la termodinamica sfuggisse
alla pretesa, tipicamente ottocentesca, di voler ricondurre tutti i fenomeni fisici
a principi semplici e di tipo meccanico-matematico. Inoltre la termodinamica
di Clausius, Kelvin e Planck utilizzava una matematica eccessivamente semplice
rinunciando, quasi totalmente, agli strumenti del calcolo infinitesimale (come
ad esempio l’utilizzo di equazioni differenziali) e questo appariva come un limite
per una più profonda comprensione dei principi termodinamici stessi. Spinto
da queste premesse, nel 1908, M. Born incitò il giovane matematico greco C.
Carathéodory a studiare una nuova formulazione della termodinamica, che desse a questa disciplina una veste puramente teorica. I’impegno di Carathéodory
si concretizzò in un articolo pubblicato 4 nel 1909. In questo lavoro egli apporta
delle importanti innovazioni; per la prima volta si introducono le equazioni differenziali in termodinamica e per la prima volta si formula una teoria fisica in
maniera totalmente assiomatica. In particolare l’enunciato fenomenologico del
II Principio dato da Kelvin viene sostituito da un’ipotesi esclusivamente matematica.
Il proponimento del presente lavoro è quello di esporre, in maniera semplice e
rigorosa, le idee di Carathéodory che stanno alla base della formulazione assiomatica della termodinamica. L’esposizione degli argomenti è stata suddivisa
in tre capitoli: il Cap.1 è di carattere esclusivamente matematico ed è dedicato
all’esposizione dei concetti matematici necessari per comprendere e dimostrare
i due Teoremi di Carathéodory; in particolare si espone la teoria delle equazioni
di Pfaff e si discutono le condizioni di esistenza del fattore integrante fino ad
arrivare a dare una completa caratterizzazione delle equazioni pfaffiane olonome esclusivamente in termini di una condizione di irraggiungibilità; il Cap.2 è
4 C. Carathéodory: Untersuchungen über die Grundlagen der Thermodynamik, Math. Ann.
67, 355 (1909).
iv
dedicato alla formulazione assiomatica della termodinamica che si basa sull’assunzione di alcune semplici ipotesi lavorative alle quali vengono affiancati tre
assiomi basilari (i tre Principi della termodinamica); dall’enunciato di Carathéodory del II Principio, grazie ai due Teoremi di Carathéodory, si dimostra
l’esistenza di superfici isoentropiche e vengono recuperati tutti i risultati propri
della termodinamica classica; nel Cap.3 si confronta l’impostazione classica con
la formulazione assiomatica e tale obbiettivo raggiunto tramite un confronto tra
l’enunciato di Kelvin-Planck ed il Principio di irraggiungibilità di Carathéodory;
al fine di evidenziare le differenze concettuali che intercorrono tra l’approccio
classico e quello assiomatico, verrà esposta, in maniera sintetica, la teoria del
fattore integrante di Clausius, basata sui cicli di Carnot.
G. De Nittis
v
Indice
1 I teoremi di Carathéodory
1.1 Superfici . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Gli insiemi di livello ed il teorema di Dini . . .
1.1.2 Il Piano tangente ad una superficie . . . . . . .
1.2 Curve . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Definizioni generali . . . . . . . . . . . . . . . .
1.2.2 Curve appartenenti ad una superficie . . . . . .
1.2.3 Differenziazione lungo una curva . . . . . . . .
1.3 Le 1-forme . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Definizione generale . . . . . . . . . . . . . . .
1.3.2 1-forme esatte . . . . . . . . . . . . . . . . . . .
1.3.3 L’integrale di linea . . . . . . . . . . . . . . . .
1.3.4 Il fattore integrante . . . . . . . . . . . . . . .
1.3.5 Cambiamento di coordinate . . . . . . . . . . .
1.3.6 Condizioni per l’esistenza del fattore integrante
1.4 Le equazioni di Pfaff . . . . . . . . . . . . . . . . . . .
1.4.1 Il problema di Pfaff . . . . . . . . . . . . . . .
1.4.2 Interpretazione geometrica . . . . . . . . . . .
1.4.3 I teoremi di Carathéodory . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Gli assiomi della termodinamica
2.1 Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Sistemi termodinamici . . . . . . . . . . . . . . . . .
2.1.2 L’equilibrio termodinamico . . . . . . . . . . . . . .
2.1.3 Variabili intensive e variabili estensive . . . . . . . .
2.1.4 Sistemi accoppiati . . . . . . . . . . . . . . . . . . .
2.2 La temperatura empirica . . . . . . . . . . . . . . . . . . . .
2.2.1 Il principio zero della termodinamica . . . . . . . . .
2.2.2 Il concetto di temperatura . . . . . . . . . . . . . . .
2.3 Lavoro e calore . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Il lavoro per i sistemi termodinamici . . . . . . . . .
2.3.2 Trasformazioni quasi-statiche . . . . . . . . . . . . .
2.3.3 Forze generalizzate e lavoro termodinamico . . . . .
2.3.4 Il primo principio della termodinamica; il concetto di
2.4 L’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Processi reversibili ed irreversibili . . . . . . . . . . .
2.4.2 Il primo principio in forma differenziale . . . . . . .
2.4.3 Il secondo principio della termodinamica; l’entropia .
vi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
calore
. . .
. . .
. . .
. . .
1
1
1
2
4
4
5
7
8
8
8
10
11
13
16
19
19
20
21
28
28
28
29
29
30
32
32
33
35
35
36
37
39
42
42
43
44
2.5
2.4.4
I cicli
2.5.1
2.5.2
2.5.3
Variazione di entropia nei processi reali
termodinamici . . . . . . . . . . . . . . .
La disuguaglianza di Clausius . . . . . .
Il rendimento di un ciclo . . . . . . . . .
Il ciclo di Carnot . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
49
49
51
52
3 Termodinamica classica e termodinamica assiomatica
54
3.1 Gli enunciati classici del II Principio . . . . . . . . . . . . . . . . 54
3.2 La teoria del fattore integrante di Clausius . . . . . . . . . . . . . 54
3.3 Vantaggi di una formulazione assiomatica . . . . . . . . . . . . . 59
Bibliografia
62
vii
Capitolo 1
I teoremi di Carathéodory
1.1
1.1.1
Superfici
Gli insiemi di livello ed il teorema di Dini
Sia A ∈ Rn un generico insieme aperto e connesso 1 ; data una funzione φ : Rn ⊇
A → R, l’equazione
φ(~x) = φ(x1 , . . . , xn ) = C,
C∈R
(1.1)
determina una relazione in Rn . L’insieme ΣC = {~x ∈ A ⊆ Rn | φ(~x) = C}
dei punti di Rn che soddisfano la (1.1) prende il nome di insieme di livello di
φ. L’insieme ΣC è interpretabile come l’intersezione del grafico di y = φ(~x) con
l’iperpiano y = C; al variare di C in R la (1.1) individua una famiglia continua
di insiemi di livello di φ. Se la funzione φ è monodroma in A (ossia se assume
un unico valore nel punto considerato), allora i due generici insiemi di livello
ΣC e ΣC ′ , con C 6= C ′ non avranno alcun punto in comune.
Può succedere, sotto opportune condizioni, che la (1.1) sia esplicitabile (almeno
localmente) rispetto ad una delle n variabili x1 , . . . , xn , che indicheremo con xi ;
quando ciò accade è possibile risolvere la (1.1) ricavando xi in funzione delle
restanti n − 1 variabili x1 , . . . , xi−1 , xi+1 , . . . , xn . In questo caso ΣC coincide
(almeno localmente) con il grafico di una funzione di n − 1 variabili della forma
z ≡ xi = χ(i) (x1 , . . . , xi−1 , xi+1 , . . . , xn ).
(1.2)
Le funzioni tipo χ(i) (il pedice i indica che è stata esplicitata la i-esima variabile) sono definite in modo implicito dall’equazione (1.1). Formalizziamo
quanto detto con una definizione precisa. Sia ~x = (x1 , . . . , xn ) ∈ Rn , indicheremo con ~x = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) ∈ Rn−1 la restrizione del vettore
posizione ~x all’ipersuperfice (n − 1)-dimensionale relativa agli assi coordinati
x1 , . . . , xi−1 , xi+1 , . . . , xn ; possiamo introdurre la seguente
Definizione 1 (funzione implicita) Sia φ : Rn ⊇ A → R. La fuzione z ≡
xi = χ(i) (~x), con ~x ∈ B ⊆ Rn−1 , si dice definita implicitamente dall’equazione
(1.1) se accade che:
1 Nel seguito, salvo avviso contrario, con il simbolo A indicheremo sempre un sottoinsieme
di Rn aperto e connesso.
1
• il grafico di χ(i) è contenuto in A, ossia
Graf [χ(i) ] ⊂ A;
• per ogni ~x ∈ B deve valere che
φ(~x, χ(i) (~x)) = C.
Le condizioni sufficienti a garantire esistenza ed unicità di una funzione implicita
sono contenuti nel seguente, importante
Teorema 1 (delle funzioni implicite) Sia φ : Rn ⊇ A → R; se accade che
• φe
∂φ
∂xi
sono continue in A;
• nel punto ~y = (~y , yi ) ∈ A si ha
φ(~y ) = φ(~y , yi ) = C
e
∂φ 6= 0;
∂xi ~y
allora esiste un intorno B ⊂ Rn−1 di ~y ed un’unica funzione χ(i) tale che
χ(i) (~y ) = yi
e
φ(~x, χ(i) (~x)) = C
∀ ~x ∈ B.
Inoltre, se vale che
• φ è di classe C 1 (A) 2 ;
allora χ(i) è di classe C 1 (B) e, per ogni k 6= i, vale la seguente formula:
∂φ ∂χ(i) ∂xk ∀ ~x ∈ B.
= − ∂φ ∂xk ~x
(1.3)
∂xi (~
x,χ(i) (~
x))
Per una dimostrazione del Teorema delle funzioni implicite si può consultare
[Pagani-Salsa, volume I, pg. 404].
Dall’enunciato del teorema segue che la regolarità della funzione φ si trasferisce
alla funzione χ(i) , ossia se φ ∈ C k (A), allora χ(i) ∈ C k (I).
1.1.2
Il Piano tangente ad una superficie
Il Teorema delle funzioni implicite permette di dare una notevole caratterizzazione degli insiemi di livello ΣC , relativi ad equazioni del tipo (1.1), nel caso in
cui la funzione φ sia almeno di classe C 1 . Nell’intorno dei punti in cui accade
che
∂φ
∂φ
~
6= 0,
(1.4)
,...,
∇φ ≡
∂x1
∂xn
l’insieme ΣC è il grafico di una funzione del tipo (1.2) di classe C 1 . Chiameremo
regolari tutti i punti di Rn che verificano la (1.4) mentre chiameremo singolari
~ = 0. Inoltre, diamo la seguente
quei punti per cui ∇φ
2 La funzione φ è di classe C 1 (A) se tutte le derivate parziali
e sono continue in A.
2
∂φ
∂xk
con k = 1, . . . , n esistono
Definizione 2 (funzione regolare) Sia φ : Rn ⊇ A → R una funzione di
classe C 1 (A); se tutti i punti di A sono regolari per φ, allora diremo che φ è
una funzione regolare su A.
Se ~
y = (~y , yi ) è un punto in cui la funzione φ è regolare allora, poiché χ(i) è C 1 in
un intorno di ~y, la funzione χ(i) deve ammette in tale intorno l’aprossimazione
lineare del primo ordine data da
X ∂χ(i) (xk − yk ) + o(k~x − ~y k).
χ(i) (~x) = χ(i) (~y ) +
(1.5)
∂xk ~y
k6=i
Osserviamo che la funzione
xi = χ(i) (~y ) +
X ∂χ(i) (xk − yk )
∂xk ~y
(1.6)
k6=i
ha come grafico in Rn una iperpiano (n − 1)-dimensionale passante per il punto
~y = (~y , yi ) e la (1.5) equivale ad affermare che essa è la funzione lineare (o meglio
affine) che meglio approssima χ(i) in un intorno di ~y . L’iperpiano affine definito
dall’equazione (1.6) prende il nome di piano tangente al grafico di χ(i) nel punto
~y = (~y , yi ). Quindi, come conseguenza del Teorema delle funzioni implicite,
segue che l’iperpiano affine (1.6) è tangente all’insieme di livello ΣC nel punto
~y ; inoltre ricordando che χ(i) (~y ) = yi ed utilizzando la formula (1.3), l’equazione
(1.6) per il piano tangente può essere riscritta in una forma simmetrica rispetto
a tutte le variabili nel modo seguente:
n
X
∂φ ~ y ) · (~x − ~y) = 0.
(xk − yk ) = ∇φ(~
(1.7)
∂xk y~
k=1
L’equazione (1.7) ci permette di fare le seguenti, importanti, considerazioni:
1. se φ è almeno di classe C 1 (A), allora in tutti i punti regolari per φ l’insieme di livello ΣC è localmente approssimabile con un iperpiano (n −
1)-dimensionale definito dall’equazione (1.7);
~ y ) è
2. se ~y ∈ ΣC è un punto regolare per la funzione φ allora il vettore ∇φ(~
ortogonale al piano tangente in ~y all’insieme di livello ΣC ; in questo caso
~ y ) è ortogonale a ΣC in ~y ;
si usa dire che il vettore ∇φ(~
3. se tutti i punti di ΣC sono regolari per φ, allora ΣC ammette un piano
tangente in ogni punto; diremo in questo caso che l’insieme ΣC è liscio e
chiameremo ΣC superficie equipotenziale o di livello di φ;
4. se la funzione φ : Rn ⊇ A → R è regolare e monodroma in A, allora il
campo vettoriale gradiente definito da
~ : Rn ⊇ A → Rn
∇φ
gode della proprietà di essere ortogonale alle superfici equipotenziali di φ.
3
1.2
1.2.1
Curve
Definizioni generali
Sia γ un sottoinsieme di Rn e supponiamo che esista una funzione continua
~x : [a, b] ⊇ R → Rn , con [a, b] intervallo della retta reale, tale che l’immagine di
~x sia appunto γ; diremo allora che ~x è una parametrizzazione dell’insieme γ. È
evidente che un medesimo insieme γ può avere più di una parametrizzazione.
Definizione 3 (curva e curva chiusa) Chiameremo curva in Rn un sottoinsieme γ ⊂ Rn munito di una parametrizzazione ~x = ~x(t) = (x1 (t), . . . , xn (t))
con t ∈ [a, b] ⊆ R. Diremo che γ è una curva chiusa se accade che ~x(a) = ~x(b).
Chiameremo l’insieme γ sostegno della curva. Una curva, quindi, deve essere
sempre determinata dalla coppia sostegno-parametrizzazione. In accordo alla
Definizione 2 vale la
Definizione 4 (curva regolare) Diremo che la curva γ, parametrizzata da
~x = ~x(t) con t ∈ [a, b], è regolare se:
• ~x è almeno di classe C 1 ([a, b]);
• per ogni t ∈ [a, b]
d~x ~v (t) ≡
6 0.
=
dt t
dx1
dxn
x
Il vettore ~v = d~
prende il nome di vettore tangente alla curva
dt =
dt , . . . , dt
γ o anche vettore velocità. Il nome è giustificato dal fatto che il sottospazio
affine di equazione
d~x ~
ξ(τ ) = ~x(t0 ) + τ
= ~x(t0 ) + τ~v (t0 )
τ ∈R
dt t0
descrive la retta tangente al sostegno della curva nel punto ~x(t0 ).
Definizione 5 (curva integrale) Sia γ una curva regolare parametrizzata da
~x : [a, b] → Rn . Diremo che γ è una curva integrale per il campo vettoriale
F~ : A ⊇ Rn → Rn se, per ogni t ∈ [a, b], sono verificate le seguenti condizioni:
• ~x(t) ∈ A;
• ~v (t) = F~ (~x(t)).
Le proprietà delle curve integrali sono espresse nel seguente
Lemma 1 Se il campo vettoriale F~ = F~ (~x) è di classe C k (A) con k ≥ 1, allora:
1. per ogni punto ~x0 ∈ A passa una ed una sola curva integrale γ(~x0 ; t) del
campo 3 ;
2. sul proprio intervallo di definizione, la parametrizzazione di tale curva è
di classe C k+1 ;
3 Le ipotesi assunte sono sovrabbondanti: per l’esistenza è necessario che il campo F
~ sia
continuo, mentre per l’unicità occorre assumere che esso sia localmente lipschitziano.
4
3. le curve γ(~x0 ; t) sono di classe C 1 rispetto alla variabile ~x0 .
Dimostrazione
Daremo solo un breve accenno della dimostrazione:
1. Consideriamo la curva integrale γ(~x0 ; t) parametrizzata da ~x = ~x(t) tale che
~x0 = ~x(t0 ); per definizione di curva integrale essa deve soddisfare


 d~x = F~ (~x(t))
dt t
(1.8)

 ~x(t ) = ~x .
0
0
Quindi si tratta di un tipico problema di Cauchy con dato iniziale (t0 , ~x0 ) ed
il Teorema di esistenza ed unicità afferma che in un intorno [t0 − δ1 , t0 + δ2 ] la
curva soluzione ~x = ~x(t) esiste ed è unica. In oltre l’intervallo di definizione
può essere sempre prolungato ad un intervallo massimale [a, b]. Indicheremo
con γ(~x0 ; t) la curva soluzione definita sull’intervallo massimale relativa al dato
iniziale ~x0 e parametrizzata nel parametro t.
2. Per ciò che riguarda la regolarita della parametrizzazione ~x = ~x(t) osserviamo che essa deve essere sicuramente continua poiché per ogni t deve esistere la
derivata. Osserviamo che date due funzioni f e h rispettivamente di classe C p
e C q la funzione composta (f ◦ h) sarà di classe C r con r = min{p, q}. Dalla
prima delle (1.8) risulta che se si assume la funzione ~x = ~x(t) di classe C p con
p < k allora al fuzione composta che compare a secondo membro sarà di classe
C p e poiché questa è la derivata della parametrizzazione ~x = ~x(t) risulta che la
parametrizzazione stessa deve essere di classe C p+1 . Possiamo allora iterare il
ragionamento fino a ottenere che se la funzione F~ è di classe C k allora la curva
soluzione ammetterà una parametrizzazione di classe C k+1 .
3. Il Teorema sulla dipendenza continua dai dati iniziali asserisce che se γ(~x0 ; t)
e γ(x~′ 0 ; t) sono due curve soluzione del problema (1.8) parametrizzate rispettivamente da ~x = ~x(t) e x~′ = x~′ (t) con condizioni iniziali x~0 = ~x(t0 ) e x~′ 0 = x~′ (t0 )
allora vale che
||~x(t) − x~′ (t)|| ≤ ||~x0 − ~x′0 || eL(b−a)
∀t ∈ [a, b];
dove L è una opportuna costante. Questo prova che la curva γ(~x0 ; t) è sicuramente continua nel parametro ~x0 . Inoltre è possibile dimostrare che la curva
deve essere anche derivabile con continuità rispetto a ~x0 . ◭
Si può consultare [Pagani-Salsa, volume II, cap. 4] per una dimostrazione
precisa del precedente Lemma . Il Lemma 1 dice che l’insieme A può essere
rappresentato come unione disgiunta di tutte le curve integrali del campo F~ ;
questo si esprime dicendo che la famiglia delle curve integrali costituisce una
fogliazione di A.
1.2.2
Curve appartenenti ad una superficie
Definizione 6 Dato l’insieme di livello ΣC descritto dall’equazione φ(~x) = C,
diremo che la curva parametrizzata da ~x = ~x(t) giace su ΣC se il sostegno γ
della curva è tutto contenuto in ΣC , ossia se
φ(~x(t)) = C
∀ t ∈ [a, b].
5
Consideriamo la superficie di livello ΣC definita da φ(~x) = C e sia γ una
curva regolare appartenente a tale superficie e parametrizzata da ~x = ~x(t)
con t ∈ [a, b]; la restrizione della funzione φ sul sostegno della curva fornisce
un’applicazione dall’intervallo [a, b] in R definita da
[a, b] ∋ t → (φ ◦ ~x)(t) ≡ φ(~x(t)) ∈ R.
Poiché la curva γ giace sulla superficie la funzione composta (φ ◦ ~x) assume
sempre il valore costante C e quindi, usando la regola di derivazioni per funzioni
composte, si ha
n
0=
X ∂φ dxk
d
~ · ~v
(φ ◦ ~x) =
= ∇φ
dt
∂xk dt
∀ t ∈ [a, b].
(1.9)
k=1
Dalla (1.9) si deduce che il vettore velocità ~v = ~v (t) è sempre ortogonale al
~ applicato in ~x = ~x(t) e quindi giace nel piano tangente in quel punto
vettore ∇φ
alla superficie ΣC . Viceversa vale anche la seguente
Proposizione 1 Sia φ : Rn ⊇ A → R una funzione regolare in A. Se la curva
regolare γ ⊂ A, parametrizzata da ~x = ~x(t), soddisfa all’equazione differenziale
n
X
∂φ dxk
~ · ~v = 0
= ∇φ
∂xk dt
(1.10)
k=1
allora γ giace su di una superficie equipotenziale di φ.
Dimostrazione
Basta osservare che il primo membro della (1.10), se valutato lungo la curva ~x =
~x(t), è la derivata rispetto a t della funzione di una variabile (φ◦~x)(t) = φ(~x(t)).
La condizione di annullamento allora equivale a φ(~x(t)) = C con C ∈ R. Ciò
mostra che la curva γ deve appartenere ad una superficie equipotenziale di φ.
◭
Abbiamo visto che il vettore velocità di una curva che giace su di una superficie
equipotenziale ΣC appartiene al piano tangente alla superficie stessa, questo ci
permette di dare una nuova caratterizzazione per il piano tangente. Il piano
tangente in un punto a ΣC è l’insieme di tutti i vettori velocità di tutte le
possibili curve contenute in ΣC che passano per il punto considerato. Quanto
affermato è il contenuto della seguente
Proposizione 2 Sia ~x0 un punto appartenente ad una superficie regolare ΣC
definita da φ(~x) = C; se ~v è un vettore applicato in ~x0 ed appartenete al piano
tangente a ΣC in ~x0 , allora esiste una curva appartenete alla superficie, passante
per ~x0 e che in ~x0 possiede un vettore velocita uguale a ~v .
Dimostrazione
Consideriamo il seguente campo vettoriale
F~ (~x) = ~v −
~ x)
~v · ∇φ(~
~ x)||2
||∇φ(~
6
!
~ x).
∇φ(~
In ogni punto della superficie il campo F~ è ortogonale al campo gradiente (e
quindi giace nel piano tangente), infatti
!
~ x)
~
v
·
∇φ(~
~ x) = ~v · ∇φ(~
~ x) −
~ x)||2 = 0.
F~ (~x) · ∇φ(~
||∇φ(~
~ x)||2
||∇φ(~
~ x0 ) = 0. Poiché il campo F~ è
Inoltre F~ (~x0 ) = ~v poiché, per ipotesi, ~v · ∇φ(~
continuo (in virtù del fatto che φ è, per ipotesi, almeno C 1 e quindi il campo
gradiente è continuo), esso ammetterà una curva integrale ~x = ~x(t) tale che
~x(0) = ~x0 . Allora, in base alla Definizione 5 si ha che:
• la curva ha in ~x0 velocità pari a
d~x = F~ (~x0 ) = ~v ;
dt t=0
• valutando la derivata di (φ ◦ ~x) lungo la curva
d(φ ◦ ~x) ~ x(t)) · d~x = ∇φ(~
~ x(t)) · F~ (~x(t)) = 0.
=
∇φ(~
dt
dt t
t
In particolare si ottiene che l’espressione φ(~x(t)) assume un valore costante lungo
la curva e poiché, per ipotesi, φ(~x0 ) = C il valore di questa costante risulta
essere appunto C. Questo prova che la curva integrale ~x = ~x(t) appartiene alla
superficie equipotenziale ΣC . ◭
1.2.3
Differenziazione lungo una curva
Sia φ : Rn ⊇ A → R una funzione C 1 (A) e sia γ una curva regolare contenuta in
A e parametrizzata da ~x = ~x(t) con t ∈ [a, b]. La restrizione della funzione φ alla
curva γ fornisce un’applicazione da [a, b] in R. Indicando con dφ il differenziale
di questa applicazione 4 si ottiene che
!
n
n
X
X
∂φ
∂φ dxk
dt =
dxk
(1.11)
dφ =
∂xk dt
∂xk
k=1
k=1
k
dove dxk = dx
dt dt è il differenziale della funzione di una variabile xk = xk (t).
L’espressione (1.11) fornisce l’incremento infinitesimo della funzione φ quando
si compie uno spostamento infinitesimo lungo la curva ~x = ~x(t). La (1.11) può
essere scritta nella seguente forma più sintetica
~ · d~x.
dφ = ∇φ
(1.12)
Il vettore d~x = (dx1 , . . . , dxn ) prende il nome di vettore spostamento infinitesimo; esso è un vettore di lunghezza indeterminata (nel senso che rappresenta
una quantità infinitesima) ed indica la direzione lungo la quale si compie la
“ ”
f
differenziale di una funzione f : R 7→ R è definito da df = ddt
dt; questa relazione dice
che l’incremento infinitesimo df della funzione f è proporzionale all’incremento infinitesimo
della variabile indipendente t, con coefficiente di proporzionalità dato dalla derivata di f .
4 Il
7
variazione. Se si valuta la variazione infinitesima della funzione φ lungo una
qualsiasi curva che giace su di una superficie equipotenziale ΣC si ottiene che
dφ = 0 dato che il valore di φ è costante lungo dette curve; questo implica che
~ · d~x = 0.
dφ = ∇φ
(1.13)
Viceversa tutte le curve che soddisfano l’equazione (1.13) devono avere la proprietà che qualunque spostamento infinitesimo lungo esse avviene in direzione
ortogonale al gradiente di φ, ossia tali spostamenti sono sempre contenuti nei
piani tangenti ad una superficie equipotenziale di φ; inoltre, dato che lungo ogni
curva, per definizione vale che d~x = dt ~v , risulta che le equazioni (1.10) e (1.13)
sono perfettamente equivalenti ed ammettono come soluzioni tutte le curve che
giacciono sulle superfici equipotenziali di φ. Tuttavia, poiché come conseguenza
della Proposizione 2 i piani tangenti alle superfici equipotenziali coincidono con
gli insiemi di tutti i vettori velocità di tutte le curve contenute sulla superficie
stessa, e poiché ~v ∝ d~x, il problema della soluzione dell’equazione (1.13) può
essere ricondotto al problema della ricerca di quelle superfici che ammettono in
~
ogni punto piano tangente ortogonale a ∇φ;
tali superfici sono appunto tutte
quelle descritte da φ(~x) = C al variare di C in R, ossia l’intera famiglia di
superfici equipotenziali ΣC .
1.3
1.3.1
Le 1-forme
Definizione generale
Sia ~g : Rn ⊇ A → Rn un campo vettoriale non singolare (ossia che non si annulla
in nessun punto di A) e di classe C 1 (A) 5 . Indicando con d~x = (dx1 , . . . , dxn ) il
vettore spostamento infinitesimo possiamo introdurre la seguente
Definizione 7 (1-forma) Chiameremo forma differenziale lineare o più brevemente 1-forma associata al campo vettoriale ~g l’espressione formale
ω(~x) = ~g (~x) · d~x =
n
X
gk (~x)dxk .
(1.14)
k=1
1.3.2
1-forme esatte
Se il il campo ~g = ~g (~x) è ottenibile come gradiente di una funzione scalare
~ x), diremo che φ è una funzione
φ : Rn ⊇ A → R, ossia se vale che ~g (~x) = ∇φ(~
potenziale per il campo ~g; in tal caso il campo vettoriale prende il nome di campo
conservativo. Osserviamo, banalmente, che se φ è una funzione potenziale per
il campo ~g allora anche la funzione φ′ = φ + c, con c generica costante reale,
è una funzione potenziale per ~g ; se un campo vettoriale ammette una funzione
potenziale, allora essa è sempre definita a meno di una costante arbitraria.
5 Il
campo vettoriale ~g è di classe C 1 (A) se ogni componente gk = gk (~
x) è di classe C 1 (A)
∂gk
ossia se gk ammette in A tutte le derivate parziali ∂x (con i = 1, . . . , n) che devono essere,
i
inoltre, continue. Nel seguito, salvo avviso contrario, supporremo sempre che il generico campo
1
~g sia C (A) e non singolare.
8
Poiché per ipotesi il campo ~g è di classe C 1 (A), affinché φ possa essere una
funzione potenziale per ~g, è necessario almeno che φ sia di classe C 2 (A) 6 .
Definizione 8 (1-forma esatta) Sia ω una 1-forma associata al campo ~g ; se
φ è una funzione potenziale per il campo ~g diremo che ω è una 1-forma esatta.
Dalla Definizione 8 segue che se ω è esatta e se φ è la funzione potenziale
per ~g, allora in accordo alla (1.12) possiamo scrivere
~ · d~x = dφ.
ω = ~g · d~x = ∇φ
Quindi una 1-forma esatta coincide sempre con il differenziale di una funzione
scalare φ che sia almeno di classe C 2 . Una condizione necessaria per l’esattezza
di una 1-forma è espressa dalla seguente
Proposizione 3 Sia ω una 1-forma associata al campo ~g = (g1 , . . . , gn ). Se ω
è una forma esatta, allora in A deve valere che
∂gi
∂gk
=
∂xk
∂xi
∀ i, k = 1, . . . , n.
(1.15)
Dimostrazione
Le n relazioni che si ottengono dalle (1.15) ponendo i = k sono delle banali
identità, quindi supponiamo che i 6= k. poiché per ipotesi ω è esatta, esiste una
funzione potenziale φ ∈ C 2 (A) tale che
gi =
∂φ
∂xi
e
gk =
∂φ
.
∂xk
Poiché φ ∈ C 2 (A), si può applicare il Teorema di Schwarz sull’invertibilità
dell’ordine di derivazione e quindi
∂2φ
∂ 2φ
∂gk
∂gi
=
=
=
.
∂xk
∂xk ∂xi
∂xi ∂xk
∂xi
Ciò prova l’asserto. ◭
Per un fissato n le (1.15) rappresenta un sistema di n(n − 1)/2 equazioni indipendenti, tante quante sono le coppie di indici distinti i 6= k che è possibile
ottenere da un insieme di n indici 7 . Un campo vettoriale che soddisfa le (1.15)
viene detto irrotazionale; l’enunciato della Proposizione 3 può essere riformulato
nel seguente modo; se la 1-forma ω è esatta, allora il campo vettoriale ~g ad essa
associato deve essere irrotazionale. Va tenuto presente che in generale non vale
l’inverso (ameno di fare alcune ipotesi sul dominio di definizione).
Facciamo alcuni esempi:
2
φ
(con i, k =
φ deve ammettere in A tutte le derivate parziali seconde ∂x∂ ∂x
i
k
1, . . . , n) che devono essere, inoltre, continue.
7 Più in generale dato un insieme di n oggetti distinti (ad esempio n indici) siamo interessati
a contare quanti sottoinsiemi di m ≤ n oggetti distinti si possono ottenere. Abbiamo n scelte
per il primo, n − 1 per il secondo e cosı̀ di seguito fino ad avere n − m + 1 scelte per l’ultimo
oggetto. Infine, poiché non siamo interessati a contare sottoinsiemi che differiscono solo per la
permutazione dei m elementi, dobbiamo dividere il risultato del conteggio per m!. In definitiva
n(n−1)...(n−m+1)
il numero dei possibili sottoinsiemi è
.
m!
6 Quindi
9
• In dimensione n = 2 sia ~g(x1 , x2 ) = (g1 , g2 ) un campo vettoriale; le condizioni di irrotazionalità (1.15) si riducono all’unica equazione non banale
∂g1 /∂x2 = ∂g2 /∂x1 .
• In dimensione n = 3 sia ~g (x1 , x2 , x3 ) = (g1 , g2 , g3 ) un campo vettoriale; le tre condizioni di irrotazionalità (1.15) non banali possono essere
~ × ~g = 0.
sinteticamente riassunte dall’equazione vettoriale rot ~g ≡ ∇
1.3.3
L’integrale di linea
Sia ω una 1-forma associata al campo vettoriale ~g e sia γ una curva regolare
contenuta in A e parametrizzata da ~x = ~x(t) con t ∈ [a, b]; possiamo introdurre
la seguente
Definizione 9 Chiameremo integrale curvilineo di ω lungo γ la seguente espressione:
Z b
Z
~g (~x(t)) · ~v (t)dt
(1.16)
ω≡
a
γ
dove ~v = ~v (t) è il campo di velocità della curva γ associato alla parametrizzazione ~x = ~x(t).
Il valore dell’integrale di linea (1.16) non dipende dal tipo di parametrizzazione
data alla curva γ ma solo dal verso di percorrenza di tale curva. Supponiamo che
t sia una funzione continua e strettamente monotona di un nuovo parametro t′ ∈
[c, d], ossia t = t(t′ ) e sia, inoltre, ~y(t′ ) = ~x(t(t′ )) la nuova parametrizzazione.
Vale che
d~x dt ′
d~x
d~y
dt =
dt = ~v dt.
wdt
~ ′ = ′ dt′ =
dt
dt dt′
dt
Se γ è la curva parametrizzata in t mentre γ ′ quella parametrizzata in t′ vale
che
Z
Z
Z
Z
d
γ′
t(d)
~g (~y (t′ )) · w(t
~ ′ )dt′ =
ω=
c
ω,
~g (~x(t)) · ~v (t)dt = ±
t(c)
γ
dove si ha il segno + se t è una funzione strettamente crescente di t′ per cui
t(c) = a e t(d) = b (la curva viene percorsa nello stesso verso secondo ambo le
parametrizzazioni), mentre si ha il segno − se t è strettamente decrescente per
cui t(c) = b e t(d) = a (le due parametrizzazioni si differenziano per il verso di
percorrenza della curva).
Quando l’integrale di linea
H (1.16) viene valutato lungo una curva chiusa γ esso
si indica con il simbolo γ ω.
Proposizione 4 Sia ω una 1-forma esatta che ammette una funzione potenziale φ. Se γ è una curva parametrizzata da ~x = ~x(t) con t ∈ [a, b] e tale che
~x(a) = x~′ e ~x(b) = x~′′ , allora
Z
ω = φ(x~′′ ) − φ(x~′ ),
γ
ossia il valore dell’integrale dipende solo dagli estremi della curva, indipendentemente dalla curva scelta.
10
Dimostrazione
Poiché, per ipotesi, il campo ~g è conservativo ed in particolare coincide con il
campo gradiente di φ si ha che
dφ ~g (~x(t)) · ~v (t) =
.
dt ~
x(t)
Quindi
Z
γ
ω=
Z
b
a
dφ b
dt = φ(~x(t))|a = φ(x~′′ ) − φ(x~′ )
dt ~x(t)
Cio conclude la dimostrazione. ◭
Come ovvia conseguenza della Proposizione appena dimostrata segue che l’integrale di linea di una 1-forma esatta su ogni curva chiusa si annulla identicamente.
Si dimostra che vale anche il viceversa, ossia che se l’integrale di linea di una
1-forma si annulla identicamente su tutte le curve chiuse contenute in A, allora la 1-forma è esatta in A; una dimostrazione di questo asserto è data in
[Pagani-Salsa, volume II, pg. 47].
1.3.4
Il fattore integrante
Sia ω una 1-forma associata al campo vettoriale ~g ∈ C 1 (A);
Definizione 10 (fattore integrante) Se la 1-forma
ω(~x) =
n
X
gk (~x)dxk
k=1
non è esatta e se esiste una funzione µ : Rn ⊇ A → R tale che:
• µ è di classe C 1 (A);
• µ(~x) 6= 0 per ogni ~x ∈ A;
• la forma
ω ′ (~x) = µ(~x)ω(~x) =
n
X
µ(~x)gk (~x)dxk
k=1
è esatta;
allora diremo che la funzione µ è un fattore integrante per la 1-forma ω.
Vediamo a quali condizioni deve obbedire un campo ~g affinché la 1-forma ad
esso associato ammetti un fattore integrante. Se µ è un fattore integrante pre la
1-forma ω = ~g · d~x allora µω è una forma esatta e dalla Proposizione 3 segue che
il campo µ~g deve essere irrotazionale. Applicando le condizioni di irrotazionalità
(1.15) al campo µ~g si ottiene che
∂
(µgi ) =
∂xk
⇓
∂µ
∂gi
+ gi
=
µ
∂xk
∂xk
⇓
∂gk
∂gi
µ
=
−
∂xk
∂xi
∂
(µgk )
∂xi
µ
∂µ
∂gk
+ gk
∂xi
∂xi
gk
∂µ
∂µ
− gi
∂xi
∂xk
11
i, k = 1, · · · , n.
(1.17)
Le (1.17) rappresentano un sistema di n(n − 1)/2 equazioni differenziali indipendenti che devono essere simultaneamente verificate dal fattore integrante µ.
Consideriamo tre indici distinti s, k, i e scriviamo le tre seguenti relazioni

∂gi
∂µ
∂µ
∂gk


gs µ
= gs gk
−
− gs gi


∂x
∂x
∂x
∂x

k
i
i
k



∂gs
∂µ
∂µ
∂gi
gk µ
= gk gi
−
− gk gs

∂xi
∂xs
∂xs
∂xi




∂µ
∂µ
∂gs
∂gk


 gi µ
= gi gs
−
− gi gk
∂xs
∂xk
∂xk
∂xs
che sommate membro a membro, ricordando che µ 6= 0, forniscono
∂gi
∂gs
∂gk
∂gk
∂gi
∂gs
+ gk
+ gi
=0
gs
−
−
−
∂xk
∂xi
∂xi
∂xs
∂xs
∂xk
(1.18)
che indicheremo anche con il simbolo
D~xsik [~g] = 0
dove D~xsik ha il significato di operatore differenziale sul campo ~g. Le (1.18)
rappresentano un insieme di n(n − 1)(n − 2)/6 condizioni indipendenti (cfr.
nota 7) per il campo vettoriale ~g, necessarie affinché la 1-forma ad esso associato
ammetti un fattore integrante; per tale motivo esse sono chiamate condizioni
di completa integrabilità. Osserviamo che se ω è una 1-forma esatta relativa
al campo irrotazionale ~g, allora le (1.18) sono banalmente verificate, mentre le
(1.17) si riducono a
gk
∂µ
∂µ
= gi
∂xi
∂xk
i 6= k = 1, . . . , n
che, in modo ovvio, ammettono come soluzione tutte le funzioni del tipo µ(~x) = c
con c costante reale.
Lemma 2 Sia ~g un generico campo vettoriali su A e α ∈ C 1 (A) una funzione
scalare; allora D~xsik si comporta come un operatore omogeneo di grado 1 rispetto
alla moltiplicazione per una funzione scalare.
Dimostrazione
La dimostrazione si riduce ad un conto diretto;
∂α
∂gi
∂α
∂gk
∂(αgi ) ∂(αgk )
= gs gi
+ αgs
.
−
− gk
−
gs
∂xk
∂xi
∂xk
∂xi
∂xk
∂xi
Se si sommano tre termini di questo tipo con gli indici messi a rotazione gli
addendi contenenti le derivate parziali di α si annullano a vicenda e quindi si
ottiene che
D~xsik [α~g ] = αD~xsik [~g ]
(1.19)
Ciò conclude la dimostrazione. ◭
Come immediata conseguenza del Lemma 2 è evidente che se il campo ~g soddisfa
le condizioni di completa integrabilità, allora le soddisfa anche ogni campo della
12
forma µ~g.
Ha senso scrivere le condizioni (1.18) solo nel caso in cui si ha a che fare con
campi vettoriali di dimensione n ≥ 3 (infatti servono almeno tre indici distinti);
come vedremo nel Paragrafo 1.3.6, ciò deriva dal fatto che per n = 2 ogni 1-forma
ammette sempre un fattore integrante e quindi se vi fossero condizioni tipo le
(1.18), esse dovrebbero essere banalmente verificate da ogni campo vettoriale
bidimensionale.
Nel caso n = 3 le (1.18) si riducono ad un’unica condizione non banale sulle
componenti del campo ~g = (g1 , g2 , g3 ) che può essere scritta sinteticamente
~ × ~g ) · ~g = 0.
come (∇
Se una 1-forma ammette un fattore integrante allora essa possiede tutta una
famiglia di fattori integrante; in altre parole la scelta del fattore integrante per
una 1-forma non è univoca. Questo è il contenuto del seguente
Teorema 2 Sia ω una 1-forma relativa al campo vettoriale ~g su A e sia µ un
fattore integrante per ω. Per definizione di fattore integrante il campo vettoriale
µ~g si può esprimere come il gradiente di una funzione potenziale φ. Se Ψ : R →
R è una generica funzione continua che ammette come primitiva la funzione ψ,
allora
µ′ (~x) = Ψ(φ(~x))µ(~x)
è un nuovo fattore integrante per ω ed il campo µ′~g ammetterà come funzione
potenziale
φ′ (~x) = (ψ ◦ φ)(~x) ≡ ψ(φ(~x)).
Dimostrazione
La 1-forma µω è il differenziale della funzione potenziale φ, ossia µω = dφ. Consideriamo la funzione composta φ′ (~x) = (ψ ◦ φ)(~x) ≡ ψ(φ(~x)) dove la funzione
ψ : R → R è definita per ipotesi da
Z
ψ(ξ) = Ψ(ξ)dξ.
Poiché Ψ è continua in R si ha che ψ ∈ C 1 (R) e quindi la funzione composta
φ′ = ψ ◦ φ è sicuramente differenziabile. Per la regola di differenziazione delle
funzioni composte si ottiene che
dφ′ = d(ψ ◦ φ) =
dψ ~
(∇φ · d~x) = Ψ(φ)dφ.
dφ
In definitiva vale che Ψ(φ)µω = Ψ(φ)dφ = dφ′ e ciò mostra che µ′ = Ψ(φ)µ è
un nuovo fattore integrante per ω. ◭
1.3.5
Cambiamento di coordinate
Ogni punto di Rn può essere messo in corrispondenza biunivoca con una nupla di numeri reali; stabilire una tale corrispondenza significa definire quello
che si chiama un sistema di coordinate. Ovviamente i modi in cui è possibile
costruire una sistema di coordinate sono molteplici e può essere interessante
studiare le relazioni che intercorrono tra due diversi sistemi di coordinate. In
questo paragrafo discuteremo brevemente il comportamento delle 1-forme sotto
13
cambiamenti di coordinate. Consideriamo i due sistemi di coordinate X =
{x1 , . . . , xn } ed Y = {y1 , . . . , yn } definiti in un aperto A ⊆ Rn ; chiameremo
cambiamento di coordinate ogni funzione Φ : Y → X che sia biunivoca ed
almeno di classe C 1 insieme alla sua inversa. In genere rappresenteremo un
cambiamento di coordinate nel seguente modo


 x1 = x1 (y1 , . . . , yn )
..
..
.
.


xn = xn (y1 , . . . , yn )
o più sinteticamente scrivendo ~x = Φ(~y ). Un campo vettoriale su un sottoinsieme di Rn è un oggetto astratto nel senso che è definito in modo indipendente
dalla particolare scelta di coordinate e questo vale ovviamente anche per le 1forme. Supponiamo che ω = ω(x1 , . . . , xn ) sia una 1-forma rappresentata nel
sistema di coordinate X mentre Ω = Ω(y1 , . . . , yn ) sia la sua rappresentazione
nel sistema di coordinate Y , ossia
ω(x1 , . . . , xn )
q
Pn
g
(x
k=1 k 1 , . . . , xn )dxk
Φ
←→
Ω(y1 , . . . , yn )
q
Pn
G
(y
k=1 k 1 , . . . , yn )dyk
(1.20)
Siamo interessati a determinare la relazione che intercorre tra i campi ~g =
~ = G(y
~ 1 , . . . , yn ) affinché il diagramma (1.20) sia soddisfatto.
~g (x1 , . . . , xn ) e G
Poiché se xk = xk (y1 , . . . , yn ), allora
dxk =
n
X
∂xk
∂ys
s=1
dys
deve valere che
ω(Φ(~y )) =
=
n
X
k=1
n
X
gk (Φ(~y ))dxk =
n
X
gk
k=1
s=1
n
X
k=1
= Ω(~y )
∂xk
gk
∂ys
dove si è posto
Gs (~y ) =
!
n
X
k=1
dys =
n
X
∂xk
s=1
n
X
∂ys
dys
!
Gs (~y)dys
s=1
∂xk gk
.
∂ys Φ(~y)
(1.21)
La (1.21) rappresenta la regola di trasformazione che permette di esprimere lo
stesso campo vettoriale in diversi sistemi di coordinate; essa è la nota legge di
trasformazione dei vettori cartesiani.
~ lo stesso campo vettoriale espresso rispettivamente nei
Lemma 3 Siano ~g e G
sistemi di coordinate X ed Y ; se ~g soddisfa le equazioni (1.18) rispetto alle
~ soddisfa le medesime equazioni rispetto alle coordinate
coordinate X allora G
Y.
14
Dimostrazione
Dalla (1.21) si ottiene
∂Gi
∂yk
!
n
X
∂
∂xt
=
gt
∂yk t=1 ∂yi
X
n n X
∂ 2 xt
∂gt ∂xt
gt
+
.
=
∂yk ∂yi
∂yk ∂yi
t=1
t=1
Allora, eliminando le derivate seconde in virtù del Teorema di Schwarz, vale che
ed osservando che
n X
∂Gi
∂gt ∂xt
∂Gk
∂gt ∂xt
−
=
−
∂yk
∂yi
∂yk ∂yi
∂yi ∂yk
t=1
n
X ∂gt ∂xp
∂gt
=
∂yk
∂xp ∂yk
p=1
possiamo, infine, scrivere
n n
X
X
∂gt ∂xp ∂xt
∂gt
∂Gk
∂xp ∂xt
∂gp ∂xp ∂xt
∂Gi
=
−
=
−
−
.
∂yk
∂yi
∂xp ∂yk ∂yi
∂yi ∂yk
∂xp
∂xt ∂yk ∂yi
t,p=1
t,p=1
Questa relazione esprime la legge di trasformazione di un tensore cartesiano di
rango due. Utilizzando l’ultima equazione, la (1.21) ed il fatto che gli indici di
sommatoria sono muti si ha
! n n
X
∂Gi
∂Gk
∂gp ∂xp ∂xt
∂xm X ∂gt
Gs
=
−
−
gm
∂yk
∂yi
∂ys t,p=1 ∂xp
∂xt ∂yk ∂yi
m=1
n
X
∂gp ∂xm ∂xp ∂xt
∂gt
−
.
=
gm
∂xp
∂xt ∂ys ∂yk ∂yi
m,t,p=1
La precedente relazione è la regola di trasformazione di un tensore cartesiano di
rango tre. Utilizzando il fatto che gli indici m, t, p sono muti, si verifica che
~ =
Dy~sik [G]
n
X
m,t,p=1
∂xm ∂xp ∂xt
D~xmtp [~g]
∂ys ∂yk ∂yi
(1.22)
Per ipotesi gli addendi sotto il segno di sommatoria nel secondo membro della
(1.22) sono tutti nulli e quindi risulta nullo pure il primo membro; questo conclude la dimostrazione. ◭
Il lemma 3 sostanzialmente asserisce che la completa integrabilità di un campo
di vettori è una proprietà indipendente dal particolare sistema di coordinate,
ossia è una caratteristica intrinseca del campo vettoriale stesso. D’altra parte
anche l’ammettere un fattore integrante è una proprietà intrinseca; per i campi che posseggono un fattore integrante il Lemma 3 può essere dedotto come
conseguenza diretta dell’esistenza di un fattore integrante.
15
1.3.6
Condizioni per l’esistenza del fattore integrante
Nel Paragrafo 1.3.4 abbiamo dedotto che le equazioni (1.18) sono condizioni
necessaria affinché la 1-forma ω associata al un campo vettoriale ~g ammetti un
fattore integrante; nel presente paragrafo mostreremo come le (1.18) forniscono
anche una condizione sufficiente per l’esistenza del fattore integrante. Come
premessa a questo risultato generale dimostreremo che tutte le 1-forme in dimensione n = 2 ammettono sempre un fattore integrante; questo è il contenuto
del seguente
Lemma 4 Sia ω(x1 , x2 ) = g1 (x1 , x2 )dx1 + g2 (x1 , x2 )dx2 una 1-forma associata
al campo vettoriale ~g = (g1 , g2 ) : R2 ⊇ A → R2 , allora la 1-forma ω ammette
sempre un fattore integrante µ = µ(x1 , x2 ).
Dimostrazione
Consideriamo la seguente equazione differenziale
ω(x1 , x2 ) = g1 (x1 , x2 )dx1 + g2 (x1 , x2 )dx2 = 0
(1.23)
Cerchiamo una curva soluzione della (1.23) parametrizzata da (x1 (t), x2 (t)). Se
(v1 (t), v2 (t)) è il campo di velocità associato a tale curva l’equazione (1.23)
diviene
g1 (x1 (t), x2 (t))v1 (t) + g2 (x1 (t), x2 (t))v2 (t) = 0.
Quindi le curve soluzioni della (1.23) hanno in ogni punto vettore velocità ortogonale al campo (g1 , g2 ). Se in un sottoinsieme di R2 si definisce un campo vettoriale non singolare, allora in ogni punto di tale sottoinsieme rimane
univocamente determinato il sottospazio unidimensionale ortogonale al campo;
quindi, dato il campo (g1 , g2 ), è possibile costruire in modo univoco (a meno
dell’inversione del verso di tutti i vettori) un campo di versori continuo (v1 , v2 )
ortogonale a (g1 , g2 ) nel modo seguente:
1
(v1 , v2 ) = p
(g2 , −g1 )
(g1 )2 + (g2 )2
(1.24)
A meno di tutte le possibili riparametrizzazioni, tutte le curve soluzioni dell’equazione (1.23) sono tutte e sole le curve integrali del campo (1.24). Inoltre
dalla (1.24) risulta evidente che il campo (v1 , v2 ) è di classe C 1 (A) come il campo
(g1 , g2 ); quindi ci troviamo nelle ipotesi del Lemma 1 che ci assicura che l’insieme
delle curve soluzione dell’equazione (1.23) costituisce una fogliazione di A. Sia
γ(~x ′ ; t) la generica curva soluzione parametrizzata da (x1 , x2 ) = (x1 (t), x2 (t))
con t ∈ [a, b] e passante per il punto ~x ′ = (x′1 , x′2 ) quando t = t0 . Sia Γ una
curva trasversa a tutte le curve soluzione, ossia una curva regolare che interseca tutte le curve soluzione e tale che in nessun punto il suo vettore velocità
è parallelo al campo (v1 , v2 ); indichiamo con ~x = (x1 (s), x2 (s)) con s ∈ [c, d]
la parametrizzazione della curva Γ. Dal Lemma 1 segue che la generica curva
soluzione γ(~x ′ ; t) è di classe C 1 sia rispetto al parametro t che al dato iniziale
~x ′ ; la funzione composta Φ ≡ γ(~x(s); t) tale che Φ : [c, d] × [a, b] → A ⊆ R2
associa in modo biunivoco alla coppia (s′ , t′ ) il punto di coordinate (x1 , x2 ) che
la curva γ(~x(s′ ); t′ ), relativa al dato iniziale ~x(s′ ) ∈ Γ, tocca per t = t′ . La
funzione Φ risulta di classe C 1 rispetto ad entrambe le variabili s e t è quindi
è un cambio di coordinate, differenziabile con continuità, tra le variabili locali
16
(s, t) e le variabili cartesiane (x1 , x2 ) 8 . Nel piano s, t le curve soluzioni γ(~x ′ ; t)
diventano le rette s = r con r costante reale. Sia f : [c, d] × [a, b] → R una
generica funzione almeno di classe C 1 , tale che f (s, t) = f (s). La funzione f
assume valore costante lungo le curve soluzioni; per un cambiamento di variabili
si ottiene
φ(x1 , x2 ) ≡ f (Φ−1 (x1 , x2 )).
(1.25)
Supponiamo che fissato s′ , per ogni t valga che f (s′ , t) = f (s′ ) = C; per la
(1.25) deve accadere che
C = φ(x1 , x2 ) = f (Φ−1 (x1 , x2 )) = f (s′ , t)
∀t ∈ [a, b].
Questo significa che l’insieme dei punti per cui φ(x1 , x2 ) = C è esattamente il
sostegno della curva soluzione γ(~x(s′ ); t). Al variare di C tutte le curve soluzione
possono essere espresse come superfici equipotenziali della funzione φ che per
costruzione è di classe C 1 (A). Segue che il campo (g1 , g2 ) è ortogonale in tutti
i punti alle superfici equipotenziali di φ e quindi è parallelo in ogni punto al
gradiente di φ, ossia
∂φ ∂φ
µ(g1 , g2 ) =
,
∂x1 ∂x2
dove µ = µ(x1 , x2 ) è una opportuna funzione di classe C 1 che non si annulla
mai in A. Questo equivale a dire che il campo (g1 , g2 ) ammette come fattore
integrante µ; ciò conclude la dimostrazione. ◭
Il fattore integrante µ = µ(x1 , x2 ) va determinato risolvendo il sistema di equazioni differenziali (1.17) che per n = 2 si riduce all’unica equazione differenziale
del primo ordine
∂µ
∂µ
∂g1
∂g2
= g1
−
− g2
µ
∂x1
∂x2
∂x2
∂x1
che, in virtù del Lemma 4 deve ammettere una soluzione.
Siamo ora in grado di dimostrare il seguente
Teorema 3 ia ω una 1-forma associata al campo vettoriale ~g : Rn ⊇ A → Rn
di classe C 1 (A). Condizione necessaria e sufficiente affinché ω ammetta un
fattore integrante è che il campo ~g soddisfi il sistema di equazioni (1.18).
Dimostrazione
Nel Paragrafo 1.3.4 il sistema di equazioni (1.18) è stato dedotto come condizione necessaria per l’esistenza del fattore integrante di ω; mostriamo come esso
rappresenti anche una condizione sufficiente. Supponiamo che la 1-forma
ω(x1 , . . . , xn ) =
n
X
gk (x1 , . . . , xn )dxk
(1.26)
k=1
sia tale che il campo ~g = (g1 , . . . , gn ) soddisfi le relazioni (1.18) che qui riscriviamo
∂gi
∂gs
∂gk
∂gk
∂gi
∂gs
gs
+ gk
+ gi
= 0.
−
−
−
∂xk
∂xi
∂xi
∂xs
∂xs
∂xk
8 Si osservi che l’arbitrarietà nella scelta dell’arco tarsverso Γ e della sua parametrizzazione
con s equivale all’arbitrarietà nella scelta di diverse coordinate locali (s, t) nelle quali è possibile
esprimere la fogliazione come insieme di rette s = const.
17
Nell’espressione (1.26) manteniamo costanti le variabili x1 , . . . , xn−2 e facciamo
variare solo le variabili xn−1 , xn ; in altre parole consideriamo la restrizione della
1-forma ω al generico piano bidimensionale xn−1 , xn . Ristretta su tale iperpiano,
la (1.26) diviene
ω(λ, xn−1 , xn ) = gn−1 (λ, xn−1 , xn )dxn−1 + gn (λ, xn−1 , xn )dxn
(1.27)
dove con il parametro λ indichiamo l’insieme delle n − 2 variabili x1 , . . . , xn−2
che manteniamo costanti. La (1.27), per ogni valore del parametro λ, descrive
una 1-forma in due dimensioni; allora per il Lemma 4 esistono sempre un fattore
integrante µ = µ(λ, xn−1 , xn ) ed una funzione φ = φ(λ, xn−1 , xn ) (ovviamente
sia µ che φ devono dipendere dal parametro λ) tali che
µ(λ, xn−1 , xn )ω(λ, xn−1 , xn ) =
∂φ
∂φ
dxn−1 +
dxn .
∂xn−1
∂xn
(1.28)
Se ora consideriamo il parametro λ libero di variare otteniamo che µ e φ sono
funzioni di tutte le n variabili x1 , . . . , xn ed in particolare si ha che
n−2
X ∂φ
∂φ
∂φ
dxn−1 +
dxn = dφ −
dxk .
∂xn−1
∂xn
∂xk
k=1
Inserendo la (1.27) nella (1.28) ed usando la precedente uguaglianza si ottiene
#
"
n−2
X ∂φ
1
dφ −
dxk
gn−1 dxn−1 + gn dxn =
µ
∂xk
k=1
dove, ora, gn−1 , gn , µ e φ vanno considerate come funzioni di tutte le n variabili
x1 , . . . , xn . Facendo uso dell’ultima espressione possiamo riscrivere la (1.26) nel
seguente modo
#
"
n−2
n−2
X
X ∂φ
1
ω=
gk dxk +
dφ −
dxk
µ
∂xk
k=1
da cui
µω =
k=1
n−2
X
k=1
∂φ
µgk −
dxk + dφ.
∂xk
(1.29)
A questo punto è conveniente operare un cambiamento di variabili
(x1 , . . . , xn ) → (y1 , . . . , yn ) definito da
(
yk = yk (x1 , . . . , xn ) = xk
se
k = 1, . . . , n − 2, n
yn−1 = yn−1 (x1 , . . . , xn ) = φ(x1 , . . . , xn ).
In tale modo per gli incrementi infinitesimi si avrà che dyn−1 = dφ mentre
dyk = dxk per k = 1, . . . , n − 2, n. Infine ponendo
∂φ
k = 1, . . . , n − 2
Gk = µgk −
∂xk
la (1.29) assume la forma
Ω = µω =
n−2
X
Gk dyk + dyn−1 .
k=1
18
(1.30)
La 1-forma Ω espressa dalla (1.30) possiede un addendo in meno rispetto alla
1-forma originaria ω definita dalla (1.26); tuttavia, almeno in apparenza, le
funzioni Gk e quindi Ω dovrebbero dipendere da tutte le n variabili y1 , . . . , yn .
Inoltre dalla (1.30) risulta evidente che la la 1-forma ω ammette un fattore
integrante se e solo se lo ammette anche Ω, infatti siamo passati dalla (1.26)
alla (1.30) solo tramite passaggi algebrici. Sempre dalla (1.30) si vede che il
~ = (G1 , . . . , Gn ) si ottiene a partire dal campo vettoriale
campo vettoriale G
µ~g = (µg1 , . . . , µgn ) tramite il cambio di variabili (x1 , . . . , xn ) → (y1 , . . . , yn );
~ soddisfa le relazioni
questo, in base ai Lemmi 2 e 3, ci assicura che il campo G
(1.18) relativamente alle variabili y1 , . . . , yn in quanto, per ipotesi, il campo ~g
le soddisfa relativamente alle variabili x1 , . . . , xn . Scriviamo queste condizioni
~
per il campo G:
∂Gi
∂Gs
∂Gk
∂Gk
∂Gi
∂Gs
Gs
+ Gk
+ Gi
= 0.
(1.31)
−
−
−
∂yk
∂yi
∂yi
∂ys
∂ys
∂yk
Se nella (1.31) poniamo i = n − 1 e k = n, ricordando che in base alla (1.30)
deve essere Gn−1 = 1 e Gn = 0, si ottiene che
∂Gs
=0
∂yn
∀ s = 1, . . . , n
ossia nessuna componente del campo dipende da yn . Questo significa che Ω è
~ : Rn−1 ⊇
una 1-forma di dimensione n − 1 associata ad un campo vettoriale G
n−1
A→R
che continua a soddisfare le condizioni (1.18). Con il procedimento
usato abbiamo ricondotto il problema iniziale n-dimensionale ad un equivalente
problema (n − 1)-dimensionale. Iterando la tecnica n − 2 volte ci si riconduce
ad una 1-forma bidimensionale equivalente a quella di partenza; poiché, per
quanto dimostrato nel lemma 4, una 1-forma in dimensione 2 ammette sempre
un fattore integrante, allora anche la 1-forma di partenza ω deve ammettere
un fattore integrante sotto l’unica condizione di dover soddisfare le (1.18). Ciò
conclude la dimostrazione. ◭
La dimostrazione del Teorema 3 qui riportata ricalca quella data in [Honig, pg.
75].
1.4
1.4.1
Le equazioni di Pfaff
Il problema di Pfaff
Consideriamo su Rn la 1-forma ω relativa al generico campo vettoriale ~g .
Definizione 11 (equazione di Pfaff ) Data la 1-forma ω chiameremo equazione di Pfaff o anche espressione pfaffiana la seguente equazione differenziale:
ω(~x) =
n
X
gk (~x)dxk = 0.
(1.32)
k=1
Il problema di Pfaff consiste nella ricerca di quelle curve regolari γ ⊂ A che
risolvono l’equazione (1.32), ossia di quelle curve γ parametrizzate da ~x = ~x(t)
con t ∈ [a, b] tali che ω(t) = ω(~x(t)) = 0 per ogni valore di t. Data un’equazione
di Pfaff chiameremo curva di Pfaff ogni curva soluzione di tale equazione.
19
1.4.2
Interpretazione geometrica
Supponiamo che la curva γ ⊂ A con parametrizzazione ~x = ~x(t) con t ∈ [a, b]
sia una curva soluzione per l’equazione di Pfaff (1.32), allora deve valere che
!
n
n
X
X
dxk
0 = ω(~x(t)) =
gk (~x(t))
dt =
gk (~x(t))vk (t) dt,
dt
k=1
k=1
ossia ~g (~x(t))·~v (t) = 0 per ogni t ∈ [a, b] dove ~v = ~v (t) è il vettore velocita relativo
alla curva γ. In definitiva le curve di Pfaff relative all’equazione (1.32) sono tutte
e sole le curve che posseggono in ogni punto un vettore velocità ortogonale al
campo di vettori ~g. In effetti l’equazione (1.32), che possiamo riscrivere come
~g · d~x = 0, definisce in ogni punto dell’insieme di definizione A il sottospazio
ortogonale al vettore ~g valutato nello stesso punto; tale sottospazio avrà sempre
dimensione n − 1 poiché per ipotesi il campo ~g è assunto non singolare. Questo
significa anche che l’equazione (1.32) determina in ogni punto di A, n−1 possibili
direzioni indipendenti per gli spostamenti infinitesimi d~x.
L’equazione di Pfaff esatta
Supponiamo che la 1-forma ω che compare nell’equazione di Pfaff (1.32) sia
esatta ossia che il campo vettoriale ~g sia il gradiente di una funzione regolare φ;
in questo caso diremo che l’equazione di Pfaff è esatta e la (1.32) si riduce a
n
X
∂φ
~ · ~x = dφ.
dxk = ∇φ
0=ω=
∂xk
(1.33)
k=1
Per quanto discusso nel Paragrafo 1.2.3 le curve di Pfaff relative ad un’equazione
di Pfaff esatta sono tutte e sole le curve che giacciono sulle superfici equipotenziali ΣC definite dall’equazione φ(~x) = C; quindi nel caso di equazioni esatte il
problema di Pfaff si riduce alla determinazione stessa delle superfici equipoten~ è regolare allora la funzione
ziali ΣC . Poiché per ipotesi il campo vettoriale ∇φ
φ = φ(~x) non può assumere valore costante su tutto un intorno di A, infatti
se ciò accadesse in un tale intorno il gradiente si annullerebbe 9 . Da questo
segue che se ~x0 è un punto appartenente alla superficie equipotenziale ΣC in
ogni intorno di tale punto esistono punti che non appartengono a ΣC e quindi
in ogni intorno (piccolo a piacere) di ~x0 vi sono punti che non possono essere
raggiunti da ~x0 percorrendo una curva di Pfaff soluzione dell’equazione esatta
(1.33).
L’equazione di Pfaff olonoma
Consideriamo ora il caso in cui la 1-forma ω che compare nell’espressione pfaffiana (1.32) ammetti un fattore integrante µ; in questo caso diremo che l’equazione
di Pfaff è olonoma. Se la curva γ è soluzione dell’equazione
ω(~x) =
n
X
gk (~x)dxk = 0
k=1
9 Ciò può essere giustificato ricordando che il gradiente di una funzione di più variabili
punta nella direzione di massima crescita per la funzione.
20
e se µ = µ(~x) è una generica funzione di classe C 1 (A) tale da non annullarsi mai
in A, allora γ sarà anche soluzione dell’equazione
ω ′ (~x) = µ(~x)ω(~x) = µ(~x)
n
X
gk (~x)dxk = 0.
k=1
Ora, se µ è un fattore integrante di ω, ciò significa che il campo µ~g è il gradiente
di una funzione regolare φ e la precedente equazione si riduce ad una espressione
tipo la (1.33). Quindi, in virtù della discussione precedente, la curva γ deve
necessariamente appartenere ad una superficie equipotenziale ΣC della funzione
φ = φ(~x). Quanto affermato ha un’interpretazione geometrica immediata. Una
curva di Pfaff possiede in ogni punto un vettore velocità ortogonale al campo
~g ; se tale campo ammette un fattore integrante significa che esso, a meno di
essere opportunamente riscalato in ogni punto, è fondamentalmente un campo
~
gradiente, ossia ~g = µ−1 ∇φ.
Ora in ogni punto del dominio lo spazio ortogonale
~ e quindi coincide con i piani tangenti alle
a ~g coincide con quello ortogonale a ∇φ
superfici equipotenziali definite da φ(~x) = C; quindi i vettori velocità della curva
γ apparteranno a tali piani tangenti e la curva stessa dovrà necessariamente
giacere su di una superficie equipotenziale. Anche nel caso di equazioni olonome
il problema di Pfaff si riduce alla determinazione stessa di tutte le superfici
equipotenziali ΣC relative ad una determinata funzione φ. Possiamo dimostrare
la seguente
Proposizione 5 Consideriamo il generico punto ~x0 ∈ A, allora in ogni intorno
piccolo a piacere di ~x0 vi sono punti che non possono essere raggiunti da ~x0
percorrendo una curva soluzione di un’equazione di Pfaff olonoma.
Dimostrazione
L’asserto è sicuramente vero per le curve soluzioni di un’equazione esatta; la dimostrazione è conclusa osservando che tutte le curve soluzioni di un’equazione
olonoma sono anche soluzioni di un’opportuna equazione esatta ottenuta moltiplicando la prima per il fattore integrante. ◭
Un’ottima discussione sul significato e sull’interpretazione geometrica delle equazioni di Pfaff si trova in [Afanassjeva, appendice I ].
1.4.3
I teoremi di Carathéodory
In questo paragrafo caratterizzeremo le equazioni di Pfaff in base al comportamento delle curve soluzione; prima di fare questo introduciamo la
Definizione 12 (condizione di irraggiungibilità) Sia ~g un campo di vettori regolare definito nell’aperto A di Rn ; diremo che l’equazione di Pfaff
ω(~x) =
n
X
gk (~x)dxk = 0
(1.34)
k=1
soddisfa la condizione di irraggiungibilità se, comunque scelto un punto ~x0 ed
un suo intorno U ⊂ A piccolo a piacere, vi sono punti appartenenti ad U
che non possono essere raggiunti a partire da ~x0 lungo una curva γ soluzione
dell’equazione (1.34).
21
Grazie alla Proposizione 5 si è visto che se un’equazione di Pfaff è olonoma, o
in particolar modo esatta, allora essa soddisfa la condizione di irraggiungibilità.
Con un lavoro di grande rilievo Carathéodory riuscı̀ a dimostrare che la condizione di irraggiungibilità non è solo necessaria affinché una espressione pfaffiana
sia olonoma, ma costituisce anche una condizione sufficiente; in questo modo
l’irraggiungibilità caratterizza in modo completo le equazioni di Pfaff olonome.
Teorema 4 (I Teorema di Carathéodory) Se l’espressione pfaffiana
(1.34) soddisfa la condizione di irraggiungibilità, allora essa è olonoma, ossia
ammette un fattore integrante.
Dimostrazione
Sia γ una curva soluzione per l’equazione (1.34) parametrizzata da ~x = ~x(t) con
t ∈ [a, b] e siano Pα e Pβ due punti appartenenti a tale curva rispettivamente di
coordinate
~xα = ~x(tα ),
~xβ = ~x(tβ )
a ≤ tα < tβ ≤ b.
Sia ϕ una seconda curva soluzione per la (1.34) tale da intersecare la curva γ
nel punto Pα e che si differenzia da quest’ultima per una quantità infinitesima;
parametrizzeremo ϕ nel seguente modo
~
y (t) = ~x(t) + εξ(t)
~
t ∈ [a, b]
~ è
dove ε > 0 è un parametro formale che assumeremo piccolo mentre ξ~ = ξ(t)
~ α ) = 0. Indicheremo
una parametrizzazione regolare soggetta alla condizione ξ(t
con

d~x 

~
v
(t)
=


dt t





d~y ~u(t) =
dt t





dξ~ 


~
=
 w(t)
dt t
i campi di velocità relativi alle diverse parametrizzazioni e deve valere che ~u(t) =
~v (t) + εw(t).
~
Poiché per ipotesi sia γ che ϕ sono soluzioni dell’equazione (1.34)
si avrà che
n
X
gk (~x(t))vk (t) =
0
(1.35)
~
gk (~x(t) + εξ(t))[v
k (t) + εwk (t)] =
0.
(1.36)
k=1
n
X
k=1
Espandiamo in serie di Taylor nel parametro ε la componente gk nella (1.36)
fino al primo ordine in ε.
~
gk (~x(t) + εξ(t))
= gk (~x(t)) + ε
22
n
X
∂gk ξi (t) + o(ε).
∂xi ~x(t)
i=0
Inserendo questa espressione nella (1.36), tenendo conto della (1.35) e esplicitando solo i termini del primo ordine in ε si ha
n
n
X
X
∂gk gk (~x(t))wk (t) + ε
0=ε
ξi (t)vk (t) + o(ε).
∂xi ~x(t)
k,i=0
k=1
Dividendo tutto per ε e facendo il limite per ε → 0 otteniamo il risultato esatto
n
n
X
X
∂gk ξi (t)vk (t) = 0.
(1.37)
gk (~x(t))wk (t) +
∂xi ~x(t)
k=1
k,i=0
La (1.37) è un’equazione per le componenti della funzione ξ~ e quindi esprime
una condizione di dipendenza per una di tale componenti in funzione delle altre.
Se si fissano in modo arbitrario le funzioni ξ1 , . . . , ξn−1 (e quindi le derivate
w1 , . . . , wn−1 ) la (1.37) da la condizione che la componente ξn deve soddisfare.
Per semplificare la notazione rinunceremo ad esplicitare la dipendenza dalle
variabili ricordando che il campo ~g è valutato lungo la curva γ e che le funzioni
~x e ξ~ con le loro derivate ~v e w
~ dipendono dal parametro t. Riscriviamo la (1.37)
nel seguente modo:
!
!
n
n−1
n−1
n
X
X X
X
∂gk
∂gk
dξn
gk wk −
(1.38)
vk ξn = −
vk ξi ;
+
gn
dt
∂xn
∂xi
i=1
k=1
k=1
k=1
quest’ultima è un’equazione differenziale lineare del primo ordine per la funzione
ξn .
Sia λ = λ(t) una generica funzione di classe C 1 (A) e calcoliamo lungo la curva
γ la derivata della funzione λgn ξn ;
!
n
X
dλ
d
dξn
∂gn
vk ξn +
(λgn ξn ) = λgn
+λ
gn ξn .
(1.39)
dt
dt
∂xk
dt
k=1
Possiamo supporre, senza perdere di generalità che lungo la curva γ la componente gk del campo vettoriale non si annulli mai; qualora questo dovesse
accadere potremmo sempre ripetere il ragionamento per un’altra componente
di ~g, infatti poiché il campo è supposto non singolare, lungo ogni tratto di γ vi
è sempre qualche componente di ~g non nulla. Se si impone alla funzione λ di
soddisfare la relazione
n ∂gn
λ X ∂gk
dλ
vk
(1.40)
−
=
dt
gn
∂xn
∂xk
k=1
il secondo membro della (1.39) coincidere con λ-volte il primo membro della
(1.38); quindi se lungo la curva γ la funzione λ soddisfa la condizione (1.40) si
ha che
! #
"n−1
n
n−1
X
X X
d
∂gk
vk ξi .
(λgn ξn ) = −λ
gk wk +
dt
∂xi
i=1
k=1
k=1
Integrando la precedente espressione tra tα e t e ricordando che la parametrizzazione ξ~ si annulla per t = tα , vale che
! #
Z t "n−1
n
n−1
X
X X
∂gk
t
λ
λgn ξn |tα = λgn ξn = −
gk wk +
(1.41)
vk ξi dt.
∂xi
tα
i=1
k=1
k=1
23
Poiché
n−1
X
d
dt
gk ξk
k=1
!
=
n−1
X
k=1
n
X
∂gk
i=1
∂xi
vi
!
ξk +
n−1
X
gk wk
k=1
dato che gli indici delle sommatorie sono muti, possiamo riscrivere l’integrale
(1.41) nel modo seguente
#
!
Z t"
n n−1
n−1
X ∂gk
X
d X
∂gi
λ
λgn ξn = −
vk ξi dt. (1.42)
−
gk ξk + λ
dt
∂xi
∂xk
tα
i=1
k=1
k=1
Tramite un’integrazione per parte si ottiene
t
!
Z t
Z t
n−1
n−1
X
dλ
d X
gk ξk −
gk ξk dt = λ
λ
dt
tα dt
tα
k=1
k=1
tα
n−1
X
gk ξk
k=1
!
dt
che ricordando il vincolo ξk (tα ) = 0 ed imponendo la condizione (1.40) che la
derivata rispetto a t di λ deve soddisfare, diventa
!
!
Z t
Z t
n−1
n n−1
n−1
X
X
d X
λ X ∂gk
∂gn
gi ξi dt.
λ
gk ξk −
vk
−
gk ξk dt = λ
∂xn
∂xk
tα gn
tα dt
i=1
k=1
k=1
k=1
Inserendo quest’ultima espressione nel secondo membro della (1.42) otteniamo
Z t(
n−1
n n−1
X
λ XX
∂gk
∂gn
−
λgn ξn = −λ
gk ξk −
gi
vk ξi
−
gn
∂xn
∂xk
tα
k=1
k=1 i=1
)
n n−1
X
X ∂gk
∂gi
vk ξi dt
−
+λ
∂xi
∂xk
k=1 i=1
n−1
n n−1
X
X
XZ t λ
∂gn
∂gk
= −λ
gk ξk −
vk ξi gi
−
gn
∂xk
∂xn
k=1
k=1 i=1 tα
∂gk
∂gi
+ gn
dt.
(1.43)
−
∂xi
∂xk
Osserviamo che è possibile aggiungere nella (1.43), senza variarne il valore, un
termine del tipo
n n−1
X
XZ t λ
∂gi
∂gn
(1.44)
vk ξi gk
−
−
g
∂xn
∂xi
i=1 tα n
k=1
infatti esso può essere riscritto nel seguente modo
!
n−1
n
XZ t λ
X
∂gi
∂gn
−
=0
gk vk
ξi
−
g
∂xn
∂xi
i=1 tα n
k=1
dove l’annullamento è giustificato dal fatto che lungo la curva di Pfaff γ il
termine tra parentesi tonde si annulla identicamente. Sommando la (1.44) alla
(1.43), infine otteniamo che lungo la curva γ deve valere
ξn =
n−1
X
k=1
n n−1 Z
gk
1 XX t λ
ξk −
vk ξi D~xink [~g ] dt.
gn
λgn
g
n
i=1 tα
k=1
24
(1.45)
Discutiamo l’equazione (1.45); il valore della funzione ξn in tβ non dipende
solo dai valori che assumono per tβ le funzioni ξ1 , . . . , ξn−1 (che compaiono
nel primo addendo di destra) ma anche dai valori che tali funzioni assumono
in tutto l’intervallo tα ≤ t ≤ tβ (dato che esse compaiono sotto il segno di
integrale che deve essere valutato tra gli estremi tα e tβ ). Poiché la scelta delle
funzioni ξ1 , . . . , ξn−1 è totalmente arbitraria ciò comporta che anche il valore
~ β ) può essere scelto arbitrariamente; infatti comunque si fissino i valori di
di ξ(t
ξ1 (tβ ), . . . , ξn−1 (tβ ) il valore di ξn (tβ ) dipende da come si definiscono le funzioni
ξ1 , . . . , ξn−1 e quindi può essere variato con continuità. Questo comporta che la
curva soluzione ϕ può connettere il punto Pα con un generico punto che si trova
in un intorno di Pα e questo contraddice la condizione di irraggiungibilità che
avevamo assunto valido per ipotesi. Quindi, affinché le ipotesi siano soddisfatte,
dobbiamo richiedere che nel membro di destra della (1.45) il termine contenente
l’integrale sia identicamente nullo. Ovviamente questo non può essere ottenuto
imponendo che siano nulle le funzioni ξ1 , . . . , ξn−1 né, tantomeno, che sia nulla
la funzione λ. Quello che ha senso è richiedere che siano verificate le relazioni
n
X
D~xink [~g ] vk = 0
i = 1, . . . , n − 1;
(1.46)
k=1
Se queste condizioni vengono soddisfatte, il valore di ξn (tβ ) dipenderà solo dagli
n − 1 valori ξ1 (tβ ), . . . , ξn−1 (tβ ). Questo limita l’insieme dei possibili valori che
~ β ) e quindi il numero dei punti raggiungibili da Pα tramite
può assumere ξ(t
una curva soluzione. Le relazioni (1.46) devono valere lungo una qualsiasi curva
soluzione dell’equazione di Pfaff e quindi per una arbitraria scelta del campo di
velocità ~v = (v1 , . . . , vn ) che sia conforme alla richiesta di ortogonalità con il
campo ~g. Questo comporta che in tutto il dominio di definizione dell’equazione
di Pfaff, comunque scelti tre diversi indici i, n, k deve valere
D~xink [~g ] = 0,
questa condizione, in base al Teorema 3, assicura che l’equazione (1.34) sia olonoma. Questo conclude la dimostrazione. ◭
Quindi il I Teorema di Carathéodory da una completa caratterizzazione dell’olonomia nel senso che tutte e sole le equazioni di Pfaff olonome soddisfano
la condizione di irraggiungibilità. La dimostrazione appena data è tratta da
[Honig, pg. 78], una dimostrazione alternativa, di carattere unicamente geometrico, è data in [Wilson].
Di fondamentale importanza per gli argomenti che saranno trattati nel seguito
è il
Teorema 5 (II Teorema di Carathéodory) Consideriamo le due seguenti
1-forme ω1 = ω1 (x1 , . . . , xn−1 , τ ) e ω2 = ω2 (y1 , . . . , ym−1 , τ ) entrambe dipendenti dalla una stessa coordinata τ 10 . Supponiamo che ω1 ed ω2 ammettano
rispettivamente µ1 e µ2 come fattori integranti ed inoltre supponiamo che la
1-forma ω = ω1 + ω2 ammetta, pur’ essa, un fattore integrante µ; sotto queste
10 Questa condizione equivale a richiedere che tra le n variabili da cui dipende ω e le m
1
da cui dipende ω2 deve sussistere una relazione del tipo τ1 (x1 , . . . , xn ) = τ2 (y1 , . . . , ym ) = τ
dove τ1 e τ2 sono funzioni sufficientemente regolari da poter essere invertite rispettivamente
in funzione di xn ed ym .
25
condizioni ω, ω1 e ω2 ammettono uno stesso fattore integrante che risulta essere
una funzione della sola variabile τ .
Dimostrazione
Dalla relazione
ω(x1 , . . . , xn−1 , y1 , . . . , ym−1 , τ ) = ω1 (x1 , . . . , xn−1 , τ ) + ω(y1 , . . . , ym−1 , τ )
segue che
1
1
1
dφ1 +
dφ2
dφ =
µ
µ1
µ2
dove con ovvio significato si è posto
dφ = µω,
dφ1 = µ1 ω1 ,
Quindi deve valere che
dφ =
dφ2 = µ2 ω2 .
µ
µ
dφ1 +
dφ2 .
µ1
µ2
(1.47)
Le funzioni φ1 e µ1 dipendono dalle variabili (x1 , . . . , xn−1 , τ ), le funzioni φ2 e µ2
dipendono dalle variabili (y1 , . . . , ym−1 , τ ) ed infine le funzioni φ e µ dipendono
dalle variabili (x1 , . . . , xn−1 , y1 , . . . , ym−1 , τ ). Le funzioni φ1 e φ2 sono regolari
per ipotesi e quindi possono essere usate per indurre il seguente cambiamento
di coordinate


 (x1 , . . . , xn−1 , τ )
 (x1 , . . . , xn−2 , φ1 , τ )
−→
(1.48)


(y1 , . . . , ym−1 , τ )
(y1 , . . . , ym−2 , φ2 , τ ).
Sotto il cambiamento di coordinate (1.48) la funzione φ deve dipendere dalle
variabili (x1 , . . . , xn−2 , φ1 , y1 , . . . , ym−2 , φ2 , τ ), ma dall’equazione (1.47) segue
che le derivate parziali di φ rispetto a x1 , . . . , xn−2 , y1 , . . . , ym−2 e τ sono tutte
nulle, ossia φ dipende solo da φ1 e φ2 e vale che
µ
∂φ
=
,
∂φ1
µ1
∂φ
µ
=
.
∂φ2
µ2
Poiché φ deve dipendere solo da φ1 e φ2 segue che per soddisfare la (1.47),
anche i rapporti µ/µ1 e µ/µ2 devono dipendere solo da φ1 e φ2 . Se µ dipendesse
dalle coordinate x1 , . . . , xn−2 , il rapporto µ/µ2 dovrebbe continuare a dipendere
da queste coordinate poiché il fattore integrante µ2 al più può dipendere dalle
coordinate y1 , . . . , ym−2 e quindi non vi sarebbe modo di eliminare la dipendenza
da x1 , . . . , xn−2 ; questo significa che φ è indipendente da x1 , . . . , xn−2 e poiché
anche il rapporto µ/µ1 deve essere indipendente da tali variabili segue che anche
µ1 non può dipendere da x1 , . . . , xn−2 . Un analogo ragionamento vale anche per
il set di variabili y1 , . . . , ym−2 , e alla fine risulta che
µ = µ(φ1 , φ2 , τ ),
µ1 = µ1 (φ1 , τ ),
µ2 = µ2 (φ2 , τ ).
Come è evidente le tre funzioni µ, µ1 e µ2 possono ancora dipendere da τ , ma i
rapporti µ/µ1 e µ/µ2 non devono dipendere da tale variabile; questa condizione
è verificata se µ, µ1 e µ2 ammettono una stessa dipendenza funzionale da τ in
26
modo tale che questa dipendenza possa essere annullata nei rapporti. Quindi si
deve avere che
µ = T (τ )η(φ1 , φ2 ),
µ1 = T (τ )η1 (φ1 ),
µ2 = T (τ )η2 (φ2 ),
dove la funzione T = T (τ ) è la medesima per i tre fattori integranti. Quindi
possiamo scrivere che
T (τ )ω =
1
dφ,
η(φ1 , φ2 )
T (τ )ω1 =
1
dφ1 ,
η1 (φ1 )
T (τ )ω2 =
1
dφ2 .
η2 (φ2 )
Dalla condizione ω = ω1 + ω2 segue che
1
1
1
dφ =
dφ1 +
dφ2
η(φ1 , φ2 )
η1 (φ1 )
η2 (φ2 )
e quindi
∂φ
1
1
=
,
η(φ1 , φ2 ) ∂φ1
η1 (φ1 )
∂φ
1
1
=
.
η(φ1 , φ2 ) ∂φ2
η2 (φ2 )
(1.49)
Derivando la prima delle (1.49) rispetto a φ2 e la seconda rispetto a φ1 e
sottraendo membro a membro si ottiene che
∂
1 ∂φ
1 ∂φ
∂
−
=0
∂φ2 η ∂φ1
∂φ1 η ∂φ2
da cui, avendo calcolato le derivata di 1/η si ricava
∂η ∂φ
∂η ∂φ
−
=0
∂φ2 ∂φ1
∂φ1 ∂φ2
(1.50)
La (1.52) esprime l’annullamento del determinante jacobiano ∂(η, φ)/∂(φ1 , φ2 ) e
questo è sufficiente per affermare che η e φ sono funzionalmente dipendenti, ossia
che possiamo considerare η unicamente funzione di φ. Con questa osservazione
possiamo scrivere
T (τ )ω =
1
dφ,
η(φ)
T (τ )ω1 =
1
dφ1 ,
η1 (φ1 )
T (τ )ω2 =
1
dφ2 .
η2 (φ2 )
(1.51)
Poiché le funzioni η, η1 ed η2 sono sufficientemente regolari per essere integrabili,
possiamo porre
Z
Z
Z
dφ1
dφ2
dφ
,
Φ1 (φ1 ) =
,
Φ2 (φ2 ) =
.
Φ(φ) =
η(φ)
η1 (φ1 )
η2 (φ2 )
Avendo definite queste nuove funzioni le (1.52) si possono riscrivere come
T (τ )ω = dΦ,
T (τ )ω1 = dΦ1 ,
T (τ )ω2 = dΦ2
(1.52)
e questo conclude la dimostrazione. ◭
La precedente dimostrazione è una generalizzazione al caso di n variabili della
dimostrazione che si trova in [Wilson].
27
Capitolo 2
Gli assiomi della
termodinamica
2.1
Concetti introduttivi
2.1.1
Sistemi termodinamici
Lo studio di un generico fenomeno fisico viene sempre effettuato su di una zona
limitata di spazio o su una porzione finita di materia di tutto l’universo. La
parte presa in esame prende il nome di sistema mentre tutto ciò che vi è al
di fuori di essa viene denominato col termine ambiente esterno. Ogni porzione
di un sistema prende il nome di sottosistema. La fisica di un sistema consiste
nello studio delle trasformazioni che il sistema subisce a causa delle interazioni
con l’ambiente esterno. Un tale studio necessita della definizione di grandezze
misurabili, associate al comportamento del sistema; queste quantità vengono
generalmente denominate coordinate. La termodinamica si propone di descrivere il comportamento di un sistema da un punto di vista macroscopico ossia
riferendosi semplicemente alle caratteristiche globali ed ai comportamenti su
larga scala del sistema. La descrizione di un sistema termodinamico richiede
la definizione di quelle che chiameremo coordinate macroscopiche o coordinate
termodinamiche o più spesso variabili termodinamiche. Sistemi termodinamici diversi saranno descritti da diverse variabili termodinamiche; tuttavia tutte
le variabili termodinamiche sono accomunate dalle seguenti caratteristiche di
origine sperimentale:
• Non implicano ipotesi particolari sulla struttura del materia di cui il
sistema è costituito.
• Per una descrizione macroscopica completa del sistema è necessario definire un numero finito n, generalmente piccolo 1 , di coordinate.
• I valori delle coordinate devono essere misurabili direttamente.
1 L’aggettivo “piccolo è da intendersi rispetto al numero di Avogadro N = 6, 022045 × 1023
che rappresenta il numero caratteristico di gradi di libertà nella descrizione microscopica di
un sistema.
28
• Il valore delle coordinate termodinamiche può essere variato in modo
continuo e all’occorrenza anche di quantità infinitesime.
2.1.2
L’equilibrio termodinamico
Èun dato di fatto che per ogni sistema termodinamico esiste un insieme minimo
di variabili i cui valori determinano univocamente lo stato del sistema. Quando
le variabili termodinamiche che descrivono il sistema conservano un valore costante fintanto che vengono preservate le stesse condizioni esterne, diremo che il
sistema si trova in uno stato di equilibrio termodinamico. Quindi se non si hanno modifiche dell’ambiente esterno uno stato di equilibrio dovrebbe conservarsi
indefinitamente. Può accadere che, in seguito ad una variazione delle condizione
esterne, il sistema passi da uno stato di equilibrio iniziale, individuato da un
determinato valore delle variabili termodinamiche, ad un nuovo stato di equilibrio specificato da valori diversi delle variabili termodinamiche; quando succede
questo diremo che il sistema ha subito una trasformazione termodinamica. Durante una trasformazione il sistema si trova in stati di non equilibrio; in questi
stati non è più possibile definire le coordinate termodinamiche del sistema 2 .
Come conseguenza di tutte le osservazioni fatte possiamo formulare la seguente
Ipotesi 1 Ad ogni sistema termodinamico X è associato un insieme minimo
di n variabili termodinamiche indipendenti il cui valore fissa in modo univoco
gli stati di equilibrio del sistema. Una volta fissate le n variabili indipendenti,
ogni stato di equilibrio è in corrispondenza biunivoca con una n-upla di numeri
reali ~x = (x1 , . . . , xn ). L’insieme di tutti i possibili stati di equilibrio di X verrà
rappresentato da un sottoinsieme A di Rn . Si fa l’ipotesi che A sia un insieme
limitato, aperto e connesso 3 .
Poiché gli stati di equilibrio di X sono in corrispondenza biunivoca con i punti di
A, allora A è isomorfo all’insieme degli stati di equilibrio del sistema; in questo
senso col simbolo A indicheremo sia il sottoinsieme di Rn che l’insieme degli
stati fisici di equilibrio di X .
Il numero n di coordinate indipendenti prende il nome di numero di gradi di
libertà e costituisce una caratteristica del particolare sistema considerato. Ovviamente il numero di gradi di libertà del sistema non può cambiare in seguito
a trasformazioni termodinamiche.
2.1.3
Variabili intensive e variabili estensive
Le variabili termodinamiche si possono dividere in due grandi famiglie:
2 Quando un sistema è in uno stato di non equilibrio molte grandezza termodinamiche
non sono neanche più misurabili. La descrizione di uno stato di non equilibrio richiederebbe
l’ausilio di un numero di parametri estremamente maggiore rispetto al piccolo numero di
coordinate termodinamiche che serve a descrivere gli stati di equilibrio.
3 l’ipotesi che A sia limitato deriva dall’osservazione che oltre certi valori delle coordinate
termodinamiche i sistemi reali collassano. La frontiera di A, che indicheremo con ∂A, è
costituita dai punti di Rn che corrispondono agli stati in cui il sistema inizia a collassare;
poiché questi stati non possono essere di equilibrio (dopo il collasso il sistema potrebbe anche
non esistere più) deve succedere che ∂A ∩ A = ∅ e questo significa che A è un insieme aperto.
L’ipotesi di connessione equivale ad ammettere che qualsiasi coppia di stati di equilibrio può
essere collegata tramite una successione continua di stati di equilibrio intermedi.
29
Variabili intensive. Sono quelle variabili il cui valore non è legato alle dimensioni del sistema né alla quantità di materia di cui il sistema è costituito.
Se una variabile intensiva assume lo stesso valore su ogni sottosistema,
anche arbitrariamente piccolo, allora si dice che l’intero sistema è omogeneo rispetto alla data variabile. Se si considera un sistema omogeneo
come unione di sottosistemi infinitamente piccoli, in linea di principio ha
senso attribuire lo stesso valore delle variabili intensive ad ogni punto del
sistema 4 . Un sistema termodinamico può essere costituito dall’unione
di più sottosistemi omogenei ognuno dei quali possiede un diverso valore
della data coordinata intensiva.
Variabili estensive. Si tratta di quelle variabili il cui valore dipende dalle dimensioni del sistema. Il valore che tali variabili assumono sull’intero sistema
è uguale alla somma dei valori che esse assumono sui diversi sottosistemi
di cui il sistema di partenza è costituito; per tale motivo queste variabili
prendono il nome anche di variabili additive.
Generalmente accade che le variabili intensive caratterizzano lo stato della sostanza che costituisce il sistema, mentre le variabili estensive sono determinate
dalla struttura e dalla dimensione del sistema.
2.1.4
Sistemi accoppiati
Definizione di accoppiamento
Sperimentalmente si osserva che le trasformazioni termodinamiche di un dato
sistema possono influire direttamente sullo stato di equilibrio di altri sistemi.
Consideriamo i due sistemi termodinamici X e Y i cui stati di equilibrio sono rispettivamente caratterizzati dai valori delle variabili (x1 , . . . , xn ) ∈ AX e
(y1 , . . . , ym ) ∈ AY . Se ogni stato di equilibrio del sistema X può convivere con
ogni stato di equilibrio del sistema Y diremo che i due sistemi sono completamente isolati, al contrario se lo stato di equilibrio di uno dei due sistemi influisce
sullo stato di equilibrio dell’altro, diremo che i due sistemi sono in contatto o,
equivalentemente, che sono accoppiati. Possiamo considerare X e Y come due
sottosistemi di un unico sistema termodinamico i cui stati di equilibrio sono
descritti dalle variabili (x1 , . . . , xn , y1 , . . . , ym ) ∈ AX ∪ AY . Quando i sistemi X
e Y sono isolati, ovviamente il vettore (x1 , . . . , xn , y1 , . . . , ym ) può assumere un
qualsiasi valore in AX ∪ AY . Si osserva, invece, che quando i sistemi X e Y sono
in contatto, lo stato di equilibrio simultaneo dei due sistemi non è più descritto
dal valore assunto dalle n + m variabili indipendenti (x1 , . . . , xn , y1 , . . . , ym ),
ma la specificazione di alcuni di questi valori determina univocamente anche i
rimanenti; in base a questo possiamo formulare la seguente
Ipotesi 2 Se i sistemi X e Y sono accoppiati allora, in uno stato di equilibrio simultaneo, l’insieme delle variabili termodinamiche (x1 , . . . , xn , y1 , . . . , ym ) deve
4 Si tratta di una ovvia idealizzazione concettuale, infatti le dimensioni dei sottosistemi non
possono essere minori delle dimensioni dei costituenti intimi della materia ed in ogni caso i
sottosistemi devono essere sufficientemente grandi per ammettere ancora una descrizione in
termini di variabili termodinamiche.
30
soddisfare un sistema di relazioni del tipo


 f1 (x1 , . . . , xn , y1 , . . . , ym )
..
.


fk (x1 , . . . , xn , y1 , . . . , ym )
= 0
..
.
= 0
che dà le condizioni di equilibrio per l’accoppiamento. Si assume che le funzioni
fi : AX ∪ AY → R, con i = 1, . . . , k, siano regolari in AX ∪ AY .
Il numero k viene detto ordine dell’ accoppiamento tra i due sistemi e rappresenta il numero di variabilei che a causa dell’accoppiamento sono divenute
dipendenti. Due sistemi completamente isolati sono tra loro in accoppiamento
di ordine zero.
Molto importanti sono gli accoppiamenti semplici o del primo ordine, ossia i
contatti per cui si ha una sola condizione di equilibrio. Un esempio di accoppiamento del primo ordine è dato dall’accoppiamento chimico che si instaura
tra due sistemi quando essi si scambiano reciprocamente solo materia; in questo
caso se mX ed mY sono le masse dei due sistemi, la condizione di equilibrio sarà
definita dall’equazione mX + mY = M , dove M rappresenta la massa totale dei
due sistemi che ha un valore costante. Un secondo esempio di accoppiamento
del primo ordine è fornito dall’accoppiamento meccanico che si instaura tra due
sistemi che esercitano reciprocamente uno sull’altro delle forze di tipo meccaniche. Molto spesso al raggiungimento dell’equilibrio meccanico i due sistemi
hanno variato il loro volume (senza che però si abbia variazione del volume totale occupato dai due sistemi); in questo caso se VX ed VY sono i volumi dei due
sistemi, la condizione di equilibrio sarà definita dall’equazione VX + VY = V ,
dove V è il volume totale dei due sistemi.
Accoppiamento termico.
L’esperienza mostra che due sistemi termodinamici, incapaci di scambiarsi materia e tali da non poter esercitare alcun tipo di forza l’uno sull’altro, possono
essere ancora capaci di interagire; ad esempio quando un recipiente contenete
del ghiaccio viene posto in contatto con una fiamma, quello che si osserva e che
il giaccio fonde. Un tale contatto, che ovviamente non è né di tipo chimico né
tantomeno di tipo meccanico, viene chiamato accoppiamento termico. Questa
osservazione ci consente di formulare la
Ipotesi 3 Esiste un’accoppiamento termodinamico del primo ordine che non è
né di tipo chimico né di tipo meccanico, esso prende il nome di accoppiamento
termico ed è mediato dallo scambio di una quantità chiamata calore.
Tra tutti i possibili accoppiamenti, l’accoppiamento termico è sicuramente quello più rilevante dal punto di vista termodinamico. Per il momento non faremo
nessuna ipotesi sulla natura del calore tranne che ritenerlo responsabile dell’accoppiamento termico. Quando due sistemi sono separati da una parete che
impedisce l’accoppiamento termico diremo che essi sono termicamente isolati .
Le pareti che impediscono il contatto termico vengono dette adiabatiche mentre
chiameremo diaterme quelle che lo permettono; ovviamente le pareti diaterme
devono essere attraversabili dal calore mentre quelle adiabatiche devono essere
impermeabili al passaggio di calore. Tutti i processi che avvengono in un sistema separato dall’ambiente esterno tramite pareti adiabatiche sono detti processi
31
adiabatici. Quando due sistemi termodinamici, che sono unicamente in reciproco
contatto termico, raggiungono uno stato di equilibrio, allora essi sono in equilibrio termico. Diremo che un sistema termodinamico è termicamente omogeneo
se esso non contiene nessun sottosistema separato tramite pareti adiabatiche. In
questo senso un sistema termicamente omogeneo è in contatto termico con ogni
suo sottosistema; quando un sistema termicamente omogeneo è in uno stato di
equilibrio allora è in equilibrio termico con ogni suo sottosistema.
2.2
2.2.1
La temperatura empirica
Il principio zero della termodinamica
Siano X e Y due sistemi termicamente omogenei perfettamente isolati tra loro
e supponiamo che siano entrambi in contatto termico con un terzo sistema termicamente omogeneo Z; al raggiungimento dell’equilibrio, i sistemi X e Y sono
in equilibrio termico con Z. Supponiamo ora di mettere in contatto termico X
e Y; quello che sperimentalmente si osserva è che le variabili termodinamiche
dei due sistemi non cambiano valore, ossia X e Y sono già in equilibrio termico
tra loro. Questa osservazione, di valenza esclusivamente sperimentale, costituisce il contenuto della prima asserzione fondamentale per la formulazione della
termodinamica, ossia:
Principio 1 (Principio zero della termodinamica) Se i due sistemi termicamente omogenei X e Y sono individualmente in equilibrio termico con
un terzo sistema termicamente omogeneo Z, allora i sistemi X e Y sono in
equilibrio termico tra loro.
Dato un sistema termodinamico X ha senso considerare tutti i possibili stati di
equilibrio che esso in teoria può assumere; da questo punto di vista è lo stesso
sistema termodinamico che può esistere in uno qualsiasi di questi stati. È possibile avere anche un secondo punto di vista: dato il sistema X consideriamo
tante copie virtuali, identiche, del sistema quanti sono i possibili stati di equilibrio raggiungibili da X ; quindi possiamo pensare che ognuna di queste copie
possa esistere in uno solo dei possibili stati di equilibrio (ogni copia si deve
trovare in uno stato differente). Indicheremo con ℧ l’insieme di tutti i sistemi
termodinamici termicamente omogenei in equilibrio, includendo nel conteggio
tutte le possibili copie virtuali di ogni dato sistema fisico. Come conseguenza
del Principio zero otteniamo che:
Proposizione 6 L’equilibrio termico induce una relazione di equivalenza su ℧.
Dimostrazione
Per definizione di equilibrio termico un sistema X è sicuramente in equilibrio
con ogni suo sottosistema e quindi con se stesso (proprietà riflessiva); inoltre se
X è in equilibrio con Y, allora banalmente Y sarà in equilibrio con X (proprietà
simmetrica). Resta da verificare l’ultima proprietà; supponiamo che X sia in
equilibrio con Y che è a sua volta in equilibrio con Z. Per la proprietà simmetrica
anche Z è in equilibrio con Y e per il Principio zero X e Z devono essere in
equilibrio tra loro (proprietà transitiva). Ciò conclude la dimostrazione. ◭
Quindi l’equilibrio termico produce in modo naturale una partizione dell’insieme
32
℧ in classi di equivalenza formate da sistemi tutti in equilibrio termico tra loro.
Indicheremo le S
classi di equivalenza
con [℧]r al variare del parametro r; deve
T
valere che ℧ = r [℧]r e [℧]r [℧]r′ se r 6= r′ .
2.2.2
Il concetto di temperatura
Gli insiemi isotermi
Consideriamo due sistemi termicamente omogenei X e Y in reciproco equilibrio
termico. Supponiamo che il sistema Y sia mantenuto costantemente in uno stato
′
di equilibrio descritto da (y1′ , . . . , ym
). Gli esperimenti mostrano che, in genere,
esiste tutta una collezione di stati in cui il sistema X si trova in equilibrio con
′
lo stato (y1′ , . . . , ym
) del sistema Y. Indicheremo con Σ l’insieme di tutti gli
′
stati di equilibrio di X che sono in equilibrio termico con lo stato (y1′ , . . . , ym
).
Come ovvia conseguenza del Principio zero tutti gli stati di Σ (intesi come stati
di copie virtuali di X ) devono essere in reciproco equilibrio termico. Quindi, gli
insiemi costruiti come Σ devono essere totalmente contenuti in un’unica classe
di equivalenza in cui ℧ viene ripartito dalla relazione indotta dall’equilibrio
termico. Supponiamo che X sia un sistema termodinamico ad n gradi di libertà;
considerato come insieme dei punti rappresentativi degli stati di equilibrio, si
ha che Σ ⊂ AX ⊂ Rn (ricordiamo che con AX si indica l’insieme di tutti gli
stati di equilibrio del sistema X ). Σ prende il nome di insieme isotermo di X .
Valgono le seguenti considerazioni:
• L’insieme AX è unione disgiunta di insiemi isotermi di X .
• Le classi di equivalenza [℧]r in cui ℧ viene ripartito sono unione disgiunta
di insiemi isotermi di diversi sistemi fisici.
La temperatura empirica
Siano X , Y e Z tre sistemi termodinamici, termicamente omogenei ed in reciproco equilibrio termico; siano (x1 , . . . , xn ), (y1 , . . . , ym ) e (z1 , . . . , zs ) i rispettivi
valori delle variabili termodinamiche. Poichè per ipotesi il contatto termico
è descritto da un accoppiamento semplice, possiamo scrivere le condizioni di
equilibrio termico tra le coppie di sistemi X -Z e Y-Z come segue:

 fX Z (x1 , . . . , xn , z1 , . . . , zs ) = 0
(2.1)

fYZ (y1 , . . . , ym , z1 , . . . , zs ) = 0.
Dato che le funzioni fX Z e fYZ sono, per ipotesi, regolari in virtù del Teorema di
Dini possiamo risolvere le (2.1) in modo da ottenere z1 in funzione delle restanti
coordinate,

 z1 = gX Z (x1 , . . . , xn , z2 , . . . , zs )
e quindi

z1
=
gYZ (y1 , . . . , ym , z2 , . . . , zs ),
gX Z (x1 , . . . , xn , z2 , . . . , zs ) − gYZ (y1 , . . . , ym , z2 , . . . , zs ) = 0.
(2.2)
L’equazione (2.2) descrive la situazione di equilibrio termico simultaneo tra le
coppie di sistemi X -Z e Y-Z, tuttavia tale situazione, in virtù del Principio
33
zero, deve essere esprimibile come condizione di equilibrio tra X e Y e quindi
deve essere equivalente alla condizione
fX Y (x1 , . . . , xn , y1 , . . . , ym ) = 0.
(2.3)
Questo è possibile se anche la (2.2) si riduce ad una relazione che involve le
sole variabili (x1 , . . . , xn , y1 , . . . , ym ), quindi, la condizione di compatibilità tra
la (2.2) e la (2.3) richiede che deve valere

 gX Z (x1 , . . . , xn , z2 , . . . , zs ) = θX (x1 , . . . , xn )α(z2 , . . . , zs ) + β(z2 , . . . , zs )

gYZ (y1 , . . . , ym , z2 , . . . , zs )
=
θY (y1 , . . . , ym )α(z2 , . . . , zs ) + β(z2 , . . . , zs ),
dove le funzioni α e β sono le stesse in ambo le equazioni. In virtù della (2.2) si
ha
θX (x1 , . . . , xn ) = θY (y1 , . . . , ym ).
Applicando lo stesso procedimento all’equilibrio tra le coppie X -Y e Z-Y, otteniamo una relazione della forma
θX (x1 , . . . , xn ) = θY (y1 , . . . , ym ) = θZ (z1 , . . . , zs ).
(2.4)
La (2.4) mostra che esiste una funzione per ogni insieme di coordinate che
deve assumere lo stesso valore per sistemi che sono reciprocamente in equilibrio
termico. Il valore comune θ di queste funzione prende il nome di temperatura
empirica o più brevemente di temperatura. Dalla (2.4) segue che tutti i sistemi
termicamente omogenei in reciproco equilibrio termico, ossia tutti gli elementi
di una stessa classe di equivalenza di ℧, sono identificati da uno stesso valore
della temperatura e quindi la temperatura diviene il parametro caratterizzante
dell’equilibrio termico. Consideriamo l’ equazione relativa al sistema X
θX (x1 , . . . , xn ) = θ;
(2.5)
la (2.5) prende il nome di equazione di stato per il sistema X . Per un fissato
valore di θ l’insieme di n-uple che soddisfano la (2.5) coincide con l’insieme dei
punti rappresentativi di tutte le copie virtuali di X in reciproco equilibrio termico e quindi identifica tutti i punti di un insieme isotermico. Poiché la funzione
θX è supposta regolare, la (2.5) dice che gli insiemi isotermici sono ipersuperfici
n − 1 dimensionali contenute in Rn ; chiameremo tali superfici superfici isotermiche del sistema X e le indicheremo con il simbolo Σθ . Poiché θX è una funzione
regolare (e quindi continua), quando viene valutata sull’insieme (aperto e limitato e connesso ) AX essa ha come immagine un intervallo aperto di R. Allora,
tramite l’equazione (2.5), si ottiene una corrispondenza biunivoca e continua
tra la totalità delle superfici isotermiche e un intervallo aperto di R; questo ci
permette di dare un ordinamento all’insieme delle temperature e ciò ci consente
di stabilire quale tra due temperature è più grande (o piccola) dell’altra.
Un sistema termicamente omogeneo è in contatto termico con tutti i suoi possibili sottosistemi e quando esso è all’equilibrio allora è in equilibrio termico
con tutti i suoi sottosistemi, piccoli che essi siano. Da questo segue che ogni
sottosistema di un sistema termicamente omogeneo è alla stessa temperatura
e quindi, all’equilibrio, in ogni punto di un sistema termicamente omogeneo è
possibile misurare la stessa temperatura. In definitiva un sistema termicamente
omogeneo è omogeneo rispetto alla variabile termodinamica temperatura.
34
Il termometro
Cosı̀ come abbiamo fatto per i sistemi X , Y e Z possiamo pensare di costruire, almeno in linea di principio, la funzione temperatura θK per ogni generico
sistema termicamente omogeneo K; ovviamente tutte le funzioni temperatura
devono soddisfare una relazione tipo la (2.4) per gli stati di reciproco equilibrio.
Tuttavia le funzioni θK possono essere anche estremamente diverse tra loro e
certamente può risultare poco pratico dover costruire una infinità di funzioni per
assegnare la temperatura dello stato di equilibrio di ogni sistema termodinamico.
Vi è un metodo più agevole che si basa sull’assunzione della seguente
Ipotesi 4 Esiste un sistema termodinamico T , termicamente omogeneo, che
può essere messo in equilibrio termico con ogni stato di ogni sistema termodinamico. Inoltre è nota la funzione temperatura θK di questo sistema. T prende
il nome di termometro.
Ciò significa che in ogni classe di equivalenza [℧]r di ℧ esiste almeno uno stato
di equilibrio del sistema T . Possiamo costruire una funzione temperatura che è
universalmente valida per ogni sistema termodinamico. Consideriamo il generico
sistema termicamente omogeneo K che si trova in uno stato di equilibrio termico
definito dai valori (k1 , . . . , kp ). Supponiamo che questo stato di equilibrio sia
nella classe di equivalenza [℧]r assieme allo stato (t1 , . . . , tq ) di T . Definiamo
la funzione Θ nel seguente modo
Θ(k1 , . . . , kp ) ≡ θT (t1 , . . . , tq ) = θr .
In questo modo si ha che Θ : ℧ → R ed inoltre è evidente che
Θ([℧]r ) = θr ,
ossia assume valore costante sulle classi di equivalenza di ℧ (che quindi, possono essere labellate tramite il valore della temperatura). Ovviamente anche
la definizione di Θ non è univoca; se h : R → R è una funzione strettamente
monotona allora anche Θ′ ≡ h ◦ Θ è un buona funzione temperatura universale.
2.3
2.3.1
Lavoro e calore
Il lavoro per i sistemi termodinamici
Il lavoro è un concetto puramente meccanico ed è legato allo spostamento di un
corpo sotto l’effetto di una forza; ad esempio si dice che un campo di forza f~
compie su di un corpo un lavoro infinitesimo δW = f~ · d~x quando il corpo in
esame subisce uno spostamento d~x della sua posizione5 . Se un sistema termodinamico, considerato nel suo insieme, esercita sull’ambiente esterno una forza
e se come conseguenza di ciò si ha un qualunque spostamento, allora il lavoro
fatto o subito dal sistema prende il nome di lavoro esterno; ad esempio un gas
che si espande in un cilindro chiuso da un pistone compie del lavoro esterno
sull’ambiente circostante. Il lavoro interno, invece, è quello che una parte del
sistema compie sul resto del sistema; ad esempio l’interazione molecolare è causa
5 Osserviamo che abbiamo usato il simbolo δW e non dW poichè il lavoro infinitesimo non
è, in generale, un differenziale esatto; il lavoro infinitesimo ha la struttura di una 1-forma.
35
di lavoro interno.
Ai fini di una descrizione termodinamica, il lavoro interno compiuto dal sistema
non ha rilevanza, ciò che conta è il lavoro prodotto dall’interazione del sistema
con l’ambiente esterno o con eventuali altri sistemi. Quando un sistema termodinamico compie del lavoro esterno, i cambiamenti che hanno luogo possono
essere descritti in termini della variazione dei valori delle coordinate termodinamiche. D’ora in poi con la parola lavoro intenderemo sempre il lavoro esterno.
Se la forza che un sistema termodinamico esercita sull’ambiente circostante è
equiversa allo spostamento che ne deriva, diremo che il sistema compie un certo
lavoro sull’ambiente esterno e tale lavoro è assunto convenzionalmente positivo;
viceversa se lo spostamento ha verso opposto rispetto alla forza che il sistema
esercita sull’ambiente diremo che viene compiuto del lavoro sul sistema, e tale
lavoro è negativo.
2.3.2
Trasformazioni quasi-statiche
Consideriamo un sistema termodinamico X i cui stati di equilibrio sono descritti
dalle coordinate (x1 , . . . , xn ) ∈ A ⊂ Rn . Se l’equilibrio viene rotto (ad esempio
da una variazione delle condizioni esterne o dall’insorgere di nuovi accoppiamenti tra le diverse parti del sistema stesso) il sistema subirà una trasformazione
termodinamica attraversando una successione continua di stati di non equilibrio, finché il processo non si arresterà con il raggiungimento di un nuovo stato
di equilibrio. Nel Paragrafo 2.1.2, in virtù dell’Ipotesi 1, abbiamo ammesso
che solo gli stati di equilibrio possano essere definiti univocamente dal valore
che assumono le n coordinate termodinamiche; rimane da capire cosa accade
durante gli stati di non equilibrio. Per semplicità supponiamo che X sia un sistema omogeneo rispetto a tutte le sue variabili estensive; possiamo immaginare
che l’intero sistema sia formato da un numero N molto grande di sottosistemi,
(i)
(i)
ognuno dei quali è descritto da n coordinate termodinamiche (x1 , . . . , xn ) con
i = 1, . . . , N . Tutti questi sistemi devono essere accoppiati reciprocamente in
modo tale che all’equilibrio devono valere le seguenti relazioni

(1)
(N )

(per le variabili intensive)
 xk = xk = . . . = xk

 x = x(1) + . . . + x(N )
k
k
k
(per le variabili estensive).
In particolare possiamo scegliere la suddivisione in modo tale che all’equilibrio
i sottosistemi siano tutti della stessa dimensione e con una uguale quantità di
materia in modo tale che deve valere

(1)
(N )

(per le variabili intensive)
 xk = xk = . . . = xk
(2.6)

 xk = x(1) = . . . = x(N )
(per le variabili estensive).
k
k
N
Se in seguito ad un qualche fenomeno si ha rottura dell’equilibrio, le variabili
termodinamiche dei vari sottosistemi cominceranno a cambiare in maniera indipendente e la differenza di questi valori farà nascere nuovi accoppiamenti in
modo tale che la perturbazione si propagherà (con una velocità finita) nei diversi
punti del sistema. Inoltre non è da escludere che a causa della rottura dell’equilibrio vi sia anche uno scambio di materia ed una variazione dei volumi dei vari
36
sottosistemi. Quindi lo stato di non equilibrio del sistema dovrebbe essere descritto ad ogni istante da un insieme molto grande di variabili termodinamiche;
la descrizione risulta tanto più accurata quanto maggiore è il numero N di sottosistemi presi in considerazione ma cosı̀ facendo aumenta il numero degli nN
parametri indipendenti necessari a descrivere il sistema totale. Inoltre il valore
di N non può essere preso grande a piacere in quanto la materia ha una struttura intima che è discreta ed i vari sottosistemi devono essere sufficientemente
grandi da poter essere considerati ancora sistemi termodinamici. Quindi una
tale descrizione degli stati di non equilibrio, sarà sempre approssimata seppure
l’approssimazione risulta tanto migliore quanto il valore di N è grande.
Se lo stato di equilibrio iniziale del sistema è descritto da un vettore ~x ∈ Rn ,
alla rottura dell’equilibrio, in ogni istante il sistema sarà descritto da un vetto~ = (~x(1) , . . . , ~x(N ) ) ∈ RnN . Lo spazio iniziale Rn , che chiameremo spazio
re X
d’equilibrio è quindi un sottospazio dello spazio di trasformazione RnN e viene individuato dalle condizioni (2.6). Quindi, la più generica trasformazione
termodinamica può essere rappresentata da una curva in uno spazio di trasformazione nN -dimensionale, che ha il punto iniziale e quello finale che giacenti in
un sottospazio di equilibrio n-dimensionale.
Possiamo pensare di considerare dei processi che avvengono in modo infinitamente lento; in queste condizioni,ad ogni istante, tutti gli N sottosistemi avranno valori molto prossimi delle variabili termodinamiche ed in questo senso il
punto rappresentativo dello stato del sistema sarà, ad ogni istante, infinitamente vicino al sottospazio di equilibrio Rn . Un processo infinitamente lento prende
il nome di trasformazione quasi-staticae poiché per un tale processo possiamo
confondere tutti gli stati di non equilibrio con stati di equilibrio, esso verrà
rappresentato da una curva continua contenuta in Rn . I processi quasi-statici
possono avvenire in due modi: si viene a creare un accoppiamento tra diverse
parti del sistema che anno valori delle coordinate termodinamiche che differiscono di una quantità infinitesima, in tal caso si parla di processi spontanei;
le condizioni esterne subiscono una successione lenta di variazioni infinitesimi,
in modo tale che, ad ogni istante, le forze non equilibrate dal sistema hanno
un’intensità infinitesima, in tal caso si parla di processi forzati dall’esterno.
Ovviamente il processo quasi-statico, ottenuto come limite di una trasformazione estremamente lenta, è solo una idealizzazione teorica, tuttavia essi sono
approssimabili arbitrariamente bene.
2.3.3
Forze generalizzate e lavoro termodinamico
Fino ad ora abbiamo parlato di forze e di lavoro permutando il significato di
queste parole dai relativi concetti meccanici, in questo senso il lavoro compiuto da un sistema termodinamico è sempre associato ad una variazione delle
coordinate geometriche del sistema stesso; tuttavia per una trattazione formale
può essere utile dare delle definizioni generali. Consideriamo due sistemi termodinamici, indipendentemente in equilibrio, X e Y, definiti reciprocamente
dagli insiemi di variabili termodinamiche ~x = (x1 , . . . , xn ) ed ~y = (y1 , . . . , ym ).
Supponiamo che in seguito all’accoppiamento i due sistemi evolvano verso l’equilibrio variando solo le coordinate x1 e y1 secondo una relazione funzionale
del tipo g(x1 , y1 ) = 0 e mantenendo costanti tutte le altre variabili6 . Per il
6 si tratta di un accoppiamento di ordine n + m − 1 in quanto la condizione di equilibrio è
funzione di una sola variabile indipendente.
37
Teorema delle funzioni implicite la condizione di equilibrio può essere riscritta
come x1 = h(y1 ) e considerando y1′ = −h(y1 ) come nuova variabile termodinamica per il sistema Y, la condizione di equilibrio si riduce a x1 + y1′ = 0. A
questo punto, dimenticando l’apice per la variabile y1′ , otteniamo la relazione
per le variazioni infinitesime dx1 + dy1 = 0. Per il raggiungimento dell’equilibrio
possono verificarsi tre distinte ipotesi: x1 aumenta mentre y1 diminuisce; y1 aumenta mentre x1 diminuisce; x1 e y1 restano costanti. Ovviamente, nell’ultimo
caso, i due sistemi erano in equilibrio anche prima di essere messi in contatto.
Consideriamo due generiche funzioni positive fX = fX (~x) e fY = fY (~y ) tali che

se
dx1 > 0 dy1 < 0
 fX > fY
fX < fY
se
dx1 < 0 dy1 > 0
(2.7)

fX = fY
se
dx1 = 0 dy1 = 0;
una tale coppia di funzioni prende il nome di forze generalizzate 7 e le variabili
x1 ed y1 prendono il nome di coordinate di deformazione. Se interpretiamo
fX come la forza che il sistema X applica sul sistema Y ed fY come la forza
che il sistema Y applica sul sistema X , la (2.7) assume un ovvio significato: il
sistema che applica una forza maggiore sull’altro incrementa la propria variabili
a discapito della diminuzione della variabile relativa dell’altro sistema; si ha
equilibrio quando le forze si bilanciano. Quindi possiamo pensare che l’equilibrio
dei due sistemi si determina per il reciproco effetto di queste forze. Per i processi
quasi-statici deve accadere che la differenza delle due forze deve avere un valore
infinitesimale.
La quantità δWX = fX dx1 rappresenta il lavoro infinitesimo che il sistema X
compie sul sistema Y per mezzo della forza generalizzata fX ; analogo significato
ha l’espressione δWY = fY dy1 = −fY dx1 . La quantità
δW = δWX − δWY = (fX − fY )dx1
da il lavoro infinitesimo totale compiuto all’interno del sistema composto da X
e Y; tale quantità è sempre positiva.
Discutiamo il caso particolare in cui il sistema Y funge da ambiente esterno per
il sistema X e supponiamo che quest’ultimo applichi sull’ambiente esterno un
insieme di forze generalizzate f1 = f1 (~x); . . . ; fp = fp (~x) con p ≤ n, tale che
la forza fi sia relativa alla variabile termodinamica xi (omettiamo il pedice X
nell’espressione delle forze poiché considereremo solo forze applicate dal sistema
X sull’esterno). Il lavoro infinitesimo che X compie sull’esterno è dato da
δW =
p
X
δWi =
p
X
fi (~x)dxi .
(2.8)
i=1
i=1
La (2.8) ha la struttura di una 1-forma in Rn relativa ad un campo vettoriale
f~ = f~(~x) che eventualmente ha componenti costantemente nulle in relazione a
quelle variabili termodinamiche che non subiscono variazioni. Supponiamo che
sotto l’effetto di tali forze il sistema X passi dallo stato di equilibrio iniziale
7 Osserviamo che le funzioni f
X ed fY sono abbastanza arbitrarie in quanto sono definite a
′ = (ϕ◦f ) e f ′ = (ϕ◦f )
meno di una qualsiasi funzione strettamente crescente ϕ tale che fX
X
X
X
sono ancora due forze generalizzate. Questa arbitrarietà permette di operare la scelta più
conveniente nelle diverse situazioni pratiche.
38
~x = (x1 , . . . , xn ) ad uno stato di equilibrio finale ~x
pensare che il lavoro totale compiuto sia dato da
W =
Z
′
= (x′1 , . . . , x′n ); possiamo
′
x
~
δW.
~
x
Ovviamente un tale integrale ha senso solo se le variabili termodinamiche, da
cui dipende il lavoro infinitesimale δW , sono definite durante tutta la trasformazione; quindi il calcolo del lavoro tramite il precedente integrale ha senso
solo per trasformazioni quasi-statiche. Sotto una trasformazione quasi-statica
dovuta alle forze generalizzate fi che porta il sistema dallo stato ~x allo stato
~x ′ , viene compiuto un lavoro finito
W =
Z
~
x
′
δW =
~
x
Z
~
x
~
x
′
p
X
fi (~x)dxi .
(2.9)
i=1
L’equazione (2.9) è l’integrale di linea di una 1-forma e per quanto visto nel
Paragrafo 1.3.3 il valore di W non dipende esclusivamente dagli estremi di integrazione, ossia dagli stati iniziale e finale, ma dipende in modo essenziale dal
percorso lungo il quale l’integrale è calcolato. Fisicamente ciò significa che il lavoro che un sistema termodinamico compie quando evolve tra due stati distinti,
dipende in modo determinante dal tipo di trasformazione che esso subisce, ossia
da tutti gli stati intermedi attraverso i quali esso passa. Ovvia conseguenza
di ciò è che in una trasformazione ciclica, che riporta il sistema nello stato di
partenza, viene generalmente compiuto un lavoro non nullo. Tuttavia nel caso
particolare in cui il campo di forze generalizzate f~ sia conservativo e quindi il
lavoro infinitesimale è il differenziale di una funzione scalare ψ, otteniamo che
W =
Z
~
x
~
x
′
δW =
Z
~
x
′
dψ = ψ(~x ′ ) − ψ(~x),
~
x
ossia il lavoro dipende solo dagli stati iniziali e finali ed in un ciclo chiuso, il
lavoro compiuto da un tale sistema si annulla identicamente.
2.3.4
Il primo principio della termodinamica; il concetto
di calore
Abbiamo mostrato che l’effetto significativo che si osserva durante un processo
di accoppiamento termico tra due sistemi è che i due corpi variano le loro temperature fino a che esse non assumono uno stesso valore; un tale processo può
essere interpretato in termini dello scambio di una quantità chiamata calore.
Fino ad ora il calore è stato introdotto in maniera operativa nel modo seguente:
il calore è l’ente che viene scambiato tra due sistemi in virtù di una differenza di
temperatura; il flusso di calore cessa al raggiungimento dell’equilibrio termico.
Tuttavia una tale definizione non dice nulla circa l’essenza fisica di tale ente; il
discorso che segue mirerà a chiarire quale sia la natura del calore.
Purchè l’accoppiamento non sia di tipo termico, le variazioni di stato dell’ambiente circostante possono indurre trasformazioni termodinamiche anche in un
sistema adiabatico. Quindi un sistema adiabatico può essere accoppiato all’ambiente esterno in modo da poter produrre del lavoro. Come tipico esempio
possiamo considerare un gas contenuto in un recipiente adiabatico provvisto
39
di un pistone scorrevole, manovrabile dall’esterno. Applicando una opportuna
forza è possibile comprimere il gas che tuttavia rimane termicamente isolato
durante tutta la trasformazione; in questo caso il sistema termodinamico ha
compiuto un processo adiabatico per mezzo di un accoppiamento di tipo meccanico con il mondo esterno ed ha compiuto un lavoro W che in generale non
è nullo. Innumerevoli esperimenti mostrano che quando un sistema adiabatico
X passa da uno stato iniziale ~x ad uno finale ~x ′ secondo una qualsiasi trasformazione adiabatica, allora il lavoro compiuto W (~x → ~x ′ ) ha sempre lo stesso
valore. Questa osservazione conduce a pensare che per sistemi adiabatici il lavoro compiuto durante una generica trasformazione adiabatica sia solo funzione
delle coordinate termodinamiche dello stato iniziale e di quello finale, indipendentemente dal percorso adiabatico che congiunge i due stati. Quindi in virtù
di quanto detto nei paragrafi 1.3.3 e 2.3.3, il lavoro W (~x → ~x ′ ) compiuto da un
sistema adiabatico deve essere esprimibile in termini della differenza dei valori
assunti da una funzione di stato8 del sistema tra gli stati ~x e ~x ′ ; chiameremo
una tale funzione energia interna e la indicheremo con U . quindi per un sistema
adiabatico che passa dallo stato ~x allo stato ~x ′ vale che
−W (~x → ~x ′ ) = U (~x ′ ) − U (~x)
(2.10)
dove il segno meno è stato introdotto in modo che quando il sistema compie un
lavoro positivo, la sua energia interna diminuisce. Se interpretiamo la quantità
U (~x ′ ) − U (~x) come la variazione di energia del sistema, allora la (2.10) esprime un principio di conservazione dell’energia tramite l’uguaglianza del lavoro
adiabatico con la variazione di energia. Tuttavia la (2.10) esprime qualcosa in
più; essa dice che esiste una funzione delle coordinate termodinamiche tale che
la differenza tra due suoi valori rappresenta la variazione di energia del sistema.
Quando il sistema compie trasformazioni non adiabatiche le considerazioni fino
ad ora fatte non valgono più in quanto il lavoro compiuto non è più funzione
solo degli stati iniziale e finale, ma dipende fortemente dalla particolare trasformazione seguita. Il problema da risolvere è quello di riuscire a legare ancora il
lavoro compiuto con una funzione di stato del sistema in modo che sia ancora verificato un principio di conservazione dell’energia. La soluzione di un tale
problema si può ottenere solo tramite l’introduzione di un’ipotesi; si postula che
per i sistemi termodinamici valga il
Principio 2 (I Principio della termodinamica) Per ogni sistema termodinamico X esiste una funzione delle sole coordinate termodinamiche del sistema
~x = (x1 , . . . , xn ) che chiamiamo energia interna e che indichiamo con U = U (~x).
In un processo in cui il sistema passa da uno stato iniziale ~x ad uno finale ~x ′
la variazione di energia interna deve essere espressa da
△U = U (~x ′ ) − U (~x)
indipendentemente dal tipo di trasformazione compiuta dal sistema. Inoltre, in
un processo adiabatico in cui il sistema compie un lavoro Wad , deve valere che
−Wad = △U . Per finire supporremo che U sia una funzione regolare delle
variabili termodinamiche del sistema.
8 Una funzione di stato è una funzione il cui valore dipende solo dal valore delle coordinate
termodinamiche che descrivono il sistema.
40
L’ultima richiesta probabilmente è solo un’idealizzazione ma permette una notevole semplificazione della matematica. Osserviamo che il I Principio definisce
solo la differenza di energia interna e quindi definisce U a meno di una costante
additiva priva di qualsiasi significato fondamentale.
Resta da capire come sia possibile determinare la funzione U per quei sistemi che
non sono adiabaticamente isolati. Supponiamo che il sistema X possa evolvere
dallo stato iniziale ~x allo stato finale ~x ′ tramite due distinte trasformazioni,
di cui una avviene in condizioni adiabatiche mentre l’altra in condizioni generiche. Sia Wad il lavoro compiuto nella trasformazione adiabatica e W il lavoro
compiuto nella trasformazione non adiabatica. In generale vale che Wad 6= W .
Poniamo Q = W −Wad dove la funzione di deficit Q prende il nome di calore della trasformazione; poiché nel processo adiabatico deve valere che △U = −Wad e
poiché la quantità △U non dipende dalla trasformazione eseguita ma solo dagli
stati iniziale e finale, per il generico processo possiamo scrivere
Q = W + △U
⇒ △U = Q − W.
(2.11)
Per qualunque trasformazione che connette gli stessi stati il valore di △U è
sempre lo stesso sebbene la natura dell’interazione tra il sistema e l’ambiente
circostante differisce per ogni diversa trasformazione; in questo senso le funzioni
Q e W son intimamente legate al tipo di interazione che produce la trasformazione nel sistema. Dalla (2.11) segue che in un processo adiabatico deve valere
che Q = 0; la condizione di annullamento del calore è quindi sufficiente per
determinare la natura adiabatica di una trasformazione. L’equazione (2.11) risponde alle domande rimaste ancora aperte riguardo alla natura fisica dell’ente
calore; valgono le seguenti osservazioni:
1. Q e W sono due diverse manifestazioni dell’energia che viene scambiata
tra il sistema termodinamico e l’ambiente circostante.
2. △U è una funzione crescente di Q; se Q > 0 diremo che il calore fluisce nel
sistema e ciò comporta un aumento dell’energia interna, al contrario quando Q < 0 diremo che il calore defluisce dal sistema e a ciò si accompagna
una diminuzione dell’energia interna.
3. △U è una funzione decrescente di W ; se W > 0, ossia se il sistema compie
un lavoro positivo sull’ambiente si ha una diminuzione dell’energia interna,
al contrario quando W < 0, ossia quando il lavoro è compiuto sul sistema,
si ha un aumento dell’energia interna.
4. Q e W non sono in generale funzioni di stato, solo la loro somma è una
funzione di stato e quindi non ha senso chiedersi quanto calore o quanto
lavoro un sistema possiede in un determinato stato; ogni stato del sistema può essere raggiunto tramite diversi processi ognuno dei quali può
involvere diverse quantità di lavoro e calore.
Se si interpreta Q e W come forme di energia che vengono scambiate tra il
sistema e l’ambiente esterno durante un processo, bisogna pure ammettere che
qualsiasi processo che avviene totalmente all’interno del sistema non ne può
modificare la sua energia interna. Quindi, come corollario del I Principio segue
il
41
Principio 3 (Conservazione dell’energia) In un sistema perfettamente isolato deve valere che △U = 0, ossia l’energia interna è costante, qualsiasi sia il
processo che avviene internamente al sistema.
Un esempio paradigmatico di sistema perfettamente isolato è l’intero universo.
2.4
2.4.1
L’entropia
Processi reversibili ed irreversibili
Definiamo il significato di reversibilità di un processo:
un processo reversibile è una trasformazione che si svolge in modo tale che alla
fine, sia il sistema, sia ciò che localmente lo circonda, possono essere riportati
allo stato iniziale, senza produrre alcun cambiamento nel resto dell’universo;
durante una tale trasformazione il sistema deve passare da stati infinitamente
vicini a stati di equilibrio a causa di successive piccole variazioni delle condizioni
esterne. La trasformazione inversa si deve poter ottenere invertendo l’ordine
delle variazioni subite dalle condizioni esterne. Una trasformazione che non
soddisfa queste condizioni verrà indicata come un processo irreversibile.
Dalla definizione segue che una trasformazione reversibile è necessariamente
quasi-statica, ma non vale il viceversa. Si osserva che la totalità dei processi
spontanei che avvengono in natura sono di tipo irreversibile ed è per questo
motivo che le trasformazioni irreversibili vengono anche chiamate trasformazioni
reali. Alla base dell’irreversibilità vi sono sempre effetti dissipativi quali attriti
tra le parti in movimento del sistema, viscosità dei fluidi contenuti nel sistema,
isteresi dei materiali sottoposti a forti stress, etc.; questi effetti dissipativi sono
responsabili della trasformazione di parte del lavoro fatto dal sistema in una
forma di energia interna che non è più recuperabile semplicemente ripercorrendo
il processo nel senso inverso. Consideriamo una trasformazione quasi-statica
irreversibile che porta il sistema termodinamico X dallo stato iniziale ~x ad uno
stato finale ~x ′ lungo il cammino γ. Per il I Principio deve valere che
U (~x ′ ) − U (~x) = Q(γ) − W (γ)
dove Q(γ) e W (γ) sono rispettivamente il calore scambiato con l’ambiente esterno ed il lavoro fatto dal sistema durante la trasformazione γ; inoltre su un tratto
infinitesimo della trasformazione, se δQ e δW sono le quantità infinitesime di
calore e di lavoro che il sistema scambia, deve valere che
dU = δQ − δW.
(2.12)
Dato che la trasformazione considerata è quasi-statica, poiché sono definiti tutti
gli stati di equilibrio intermedi, deve valere che
Z



Q(γ)
=
δQ



γ

(2.13)

Z




δW.
 W (γ) =
γ
Supponiamo di forzare il processo quasi-statico inverso lungo il cammino −γ.
poiché la trasformazione è irreversibile alla fine del processo inverso l’ambiente
42
esterno non può tornare nello stato originario e quindi devono valere le seguenti
disuguaglianze


 Q(−γ) 6= −Q(γ)
(2.14)


W (−γ) 6= −W (γ)
dove Q(−γ) e W (−γ) sono il calore ed il lavoro che il sistema scambia lungo il
cammino inverso −γ. Dalle (2.13) ed (2.14) si ottiene che
Z
 Z


δQ
δQ
=
6
−



γ
 −γ
(2.15)

Z
Z




δW 6= − δW.

γ
−γ
In virtù dei risultati ottenuti nel Paragrafo 1.3.3 le (2.15) hanno senso solo se si ammette che né δQ né δW siano 1-forme funzioni delle sole variabili
~x = (x1 , . . . , xn ); tuttavia poiché queste espressioni rappresentano quantità infinitesime che devono variare con continuità durante la trasformazione dobbiamo
ammettere che esse dipendono anche da un set di parametri che indicheremo
con λ il cui valore varia secondo il senso di percorrenza della trasformazione.
Osservando che dalla (2.12) segue che la combinazione δQγ − δWγ non deve
dipendere dai parametri λ, possiamo scrivere che


 δQ(~x, λ) = δQrev (~x) + δΥ(~x, λ)
(2.16)


δW (~x, λ) = δWrev (~x) + δΥ(~x, λ),
dove δQrev e δWrev sono delle 1-forme dipendenti dalle sole variabili termodinamiche ~x e rappresentano, rispettivamente, le quantità infinitesime di calore e
e di lavoro che il sistema è capace di ricevere o restituire interamente a seconda che la trasformazione sia diretta o inversa. Il termine infinitesimo δΥ(~x, λ)
rappresenta, su ogni tratto infinitesimo della trasformazione, la quantità di lavoro compiuto dal sistema che viene irrimediabilmente trasformata in calore a
causa degli effetti dissipativi e che non è più possibile riconvertire in lavoro.
I parametri λ sono quindi legati alle cause di dissipazione e pertanto vengono detti parametri di dissipazione; ovviamente nel limite λ → 0 avremo che
δΥ → 0 il che equivale ad affermare che se si annullano le cause di dissipazione
la trasformazione quasi-statica diviene reversibile. Dato che gli effetti dissipativi sono generalmente legati al comportamento microscopico della materia essi
non possono essere interpretati in termini di grandezze termodinamiche, questo
giustifica la necessità di introdurre i parametri di dissipazione λ che non dipendono dalle coordinate termodinamiche del sistema e che differenziano i processi
reversibili da quelli irreversibili.
2.4.2
Il primo principio in forma differenziale
Sia X un sistema termodinamico descritto dalle variabili ~x = (x1 , . . . , xn ); in
una trasformazione finita questo sistema scambierà con l’esterno una quantità
di calore Q che in virtù del I Principio si può scrivere come Q = W + △U .
43
Consideriamo una trasformazione infinitesima tra due stati di equilibrio infinitamente vicini; poiché U è una funzione di stato dipendente unicamente dalle
variabili termodinamiche ~x, la sua variazione infinitesima coincide con il suo
differenziale, ossia
n
X
∂U dU =
dxi .
(2.17)
∂xi ~
x
i=1
Inoltre, in accordo alla (2.16)
δW = δWrev (~x) + δΥ(~x, λ) =
n
X
fi (~x)dxi + δΥ(~x, λ)
(2.18)
i=1
dove, utilizzando la (2.8),si è espresso il lavoro infinitesimo reversibile in termini
delle forze generalizzate del sistema. Dalla (2.17) e dalla (2.18) segue che la
quantità di calore scambiata è
δQ = dU + δW =
n
X
gi (~x)dxi + δΥ(~x, λ)
(2.19)
i=1
dove si è posto
∂U gi (~x) =
+ fi (~x).
∂xi x~
La (2.19) esprime il primo primo principio della termodinamica in forma differenziale. Dalle (2.16) segue che δQrev = δQ − δΥ e quindi
δQrev =
n
X
gi (~x)dxi ;
(2.20)
i=1
è evidente che il calore infinitesimo δQrev , scambiato in una trasformazione
infinitesima reversibile, ha l’espressione di una 1-forma, anche se in generale
non è un differenziale esatto.
In un processo adiabatico reversibile la quantità di calore che il sistema scambia
deve essere nulla e quindi dalla (2.19) si ottiene che
δQrev =
n
X
gi (~x)dxi = 0;
(2.21)
i=1
quindi un sistema adiabatico evolve reversibilmente in modo tale da soddisfare
un’equazione di Pfaff.
2.4.3
Il secondo principio della termodinamica; l’entropia
Come conseguenza di un gran numero di esperimenti effettuati sui più vari sistemi termodinamici è opportuno ritenere che i sistemi termodinamici soddisfano
il seguente
Principio 4 (II Principio della termodinamica; forma debole) In
prossimità di ogni stato di equilibrio di un sistema termodinamico esistono stati infinitamente vicini che non possono essere raggiunti tramite un processo
adiabatico reversibile.
44
Matematicamente questo equivale ad affermare che in prossimità del generico
stato di equilibrio ~x del dato sistema termodinamico X vi sono stati ~x + d~x
infinitamente vicini che non possono essere raggiunti tramite una curva soluzione
dell’equazione di Pfaff (2.21), che qui riscriviamo
δQ =
n
X
gi (~x)dxi = 0.
i=1
In questa forma il II Principio della termodinamica ha lo stesso contenuto del
Principio 12; per tale motivo il Principio 4, enunciato in questo modo, prende
anche il nome di Principio di irraggiungibilità adiabatica.
Come conseguenza delle proprietà delle curve di Pfaff è quindi possibile applicare il Teorema di Carathéodory (Teorema 4) alla 1-forma δQrev definita dalla
(2.21); ne consegue che l’espressione pfaffiana è olonoma, ossia deve esistere una
funzione delle coordinate termodinamiche µ = µ(~x) che è un fattore integrante
per δQ:
ds = µ δQrev .
(2.22)
Al primo membro della (2.22) compare il differenziale esatto di una funzione di
stato del sistema; tale funzione che indichiamo con s = s(~x) prende il nome di
entropia empirica.
a questo punto è necessario dare un significato fisico alle funzioni µ ed s; per
fare ciò consideriamo due sistemi termicamente omogenei X ed Y e accoppiati
termicamente in modo da formare un unico sistema termicamente omogeneo Z.
Al raggiungimento dell’equilibrio termico i due sistemi saranno descritti rispettivamente dalle coordinate termodinamiche (x1 , . . . , xn−1 , θ) e (y1 , . . . , ym−1 , θ)
dove θ è la temperatura empirica comune ai due sistemi. Poiché in un generico
processo la quantità di calore QZ che il sistema composto Z scambia con l’esterno è uguale alla somma dei calori QX e QY che i singoli sistemi X e Y scambiano
con l’esterno, possiamo scrivere in seguito ad un processo infinitesimo che
δQZ = δQX + δQY ;
(2.23)
limitiamoci a considerare un processo reversibile in cui δQZ , δQX e δQY sono
le quantità reversibili di calore scambiato. Sia i due sistemi X e Y che il sistema
composto Z sono soggetti singolarmente al II Principio della termodinamica e
come conseguenza di ciò le 1-forme δQX , δQY e δQZ ammettono tutte un fattore
integrante. Siamo nelle condizioni per poter applicare il Teorema 5 secondo cui

δQX = T (θ)φX (sX )dsX





δQX = T (θ)φY (sY )dsY
(2.24)





δQX = T (θ)φZ (sZ )dsZ ,
dove le funzioni di stato sX , sY ed sZ , sono le entropie empiriche dei vari sistemi.
Introducendo le nuove funzioni
Z
Z
Z
SX = φX dsX ,
SY = φY dsY ,
SZ = φZ dsZ ,
45
le (2.24) diventano

δQX





δQX





δQX
=
T (θ)dSX
=
T (θ)dSY
(2.25)
= T (θ)dSZ ,
e le funzioni di stato SX , SY ed SZ prendono il nome di entropie metriche o
più brevemente entropie. Poiché le considerazioni che abbiamo fatto continuano
a valere per una qualsiasi coppia di sistemi termicamente omogenei, possiamo
concludere che esiste un fattore integrante universale T = T (θ) relativo alla
quantità di calore infinitesima δQ scambiata dal generico sistema termicamente
omogeneo, che conduce ad un’equazione di valore universale
n
δQrev
1 X
dS =
gi (~x)dxi ,
=
T (θ)
T (θ) i=1
(2.26)
dove S è appunto l’entropia del sistema. Osserviamo che l’equazione (2.26)
fissa solo il differenziale dell’entropia e quindi definisce la funzione di stato S
a meno di una costante additiva. La funzione T = T (θ) prende il nome di
funzione temperatura assoluta e fissa una scala universale delle temperature che
prende il nome di scala delle temperature Kelvin; ovviamente come funzione
della temperatura empirica θ la forma funzionale di T dipende dalla scala in cui
è misurata θ. Utilizzando la scala Kelvin la (2.26) assume la forma funzionale
più semplice, ossia
δQrev
;
dS =
T
in questo senso la scala delle temperature Kelvin risulta essere una scala privilegiata rispetto all’infinità di diverse scale possibili di temperatura che è possibile
definire.
Entropia di sistemi non termicamente omogenei
Consideriamo nuovamente i due sistemi termicamente omogenei X ed Y, in
contatto termico in modo da formare un unico sistema termicamente omogeneo
Z ; dalla (2.23) e dalle (2.25) segue che
dSZ = dSX + dSY ,
da cui tramite una semplice integrazione, ponendo le costanti di integrazione
uguali a zero, si ottiene
SZ = SX + SY .
(2.27)
La (2.27) dice che l’entropia di un sistema termicamente omogeneo è la somma
delle entropie dei suoi singoli sottosistemi, e quindi l’entropia è una funzione
di stato additiva. possiamo usare questa proprietà dell’entropia per definire la
funzione entropia di un sistema non termicamente omogeneo. Sia X un sistema termodinamico formato dai sottosistemi termicamente omogenei X1 , . . . , Xp
alle rispettivamente alle temperature θ1 , . . . , θp . In oltre sia Ti = T (θi ) con
i = 1, . . . , p la temperatura di ogni sottosistema espressa nella scala Kelvin.
46
L’entropia del sistema X viene definita dall’equazione
dSX =
p
X
dSXi =
i=1
2.4.4
p
p
X
X
δQXi
δQXi
.
=
T
(θ
)
Ti
i
i=1
i=1
Variazione di entropia nei processi reali
Le superfici isoentropiche
Per il momento ci siamo limitati a considerare processi reversibili che sono i soli
processi per cui ha senso scrivere l’equazione (2.26)
δQrev = T dS.
Consideriamo un sistema termodinamico X descritto dalle coordinate termodinamiche ~x = (x1 , . . . , xn ). Supponiamo che questo sistema subisca un generico
processo reversibile ed adiabatico; tale processo sarà descritto da una curva nello
spazio delle coordinate termodinamiche che deve soddisfare l’equazione di Pfaff
δQrev = 0; tuttavia una tale curva deve essere anche soluzione dell’equazione
differenziale dS = 0 il che equivale ad affermare che un processo reversibile ed
adiabatico è descritto da una curva nello spazio delle coordinate termodinamiche che giace su una generica superficie definita dall’equazione S(~x) = S con
S costante reale. Quindi in tutti i processi che sono reversibili ed adiabatici
l’entropia mantiene un valore costante; tali processi vengono detti isoentropici,
mentre le superfici ΣS definite dall’equazione S(~x) = S vengono dette superfici isoentropiche. Due generici punti che giacciono su di una stessa superficie
isoentropica possono essere collegati tramite una curva soluzione dell’equazione
δQrev = 0; questo equivale ad affermare che partendo da un dato stato iniziale
tramite trasformazioni reversibili ed adiabatiche si possono raggiungere tutti gli
stati possibili per i quali l’entropia assume lo stesso valore.
Il II Principio in forma forte
La diretta conseguenza del II Principio della termodinamica, enunciato nella
forma del Principio 4, è l’esistenza delle superfici isoentropiche da cui si ricava
che durante una trasformazione adiabatica reversibile il sistema non varia la sua
entropia. Tuttavia, dato in questa forma, il II Principio non da alcuna informazione riguardo ai processi reali. Poiché la termodinamica deve essere capace
di dare una descrizione dei fenomeni naturali ciò rende necessario enunciare il
II Principio in una forma più generale:
Principio 5 (II Principio della termodinamica; forma forte) In prossimità di ogni stato di equilibrio di un sistema termodinamico esistono stati infinitamente vicini che non possono essere raggiunti tramite nessun tipo di processo
adiabatico.
Discutiamo le implicazioni del II Principio, dato nella forma del Principio 5,
sul cambiamento di entropia in un sistema adiabaticamente isolato quando esso
compie una trasformazione reale e finita. Supponiamo che il sistema termodinamico X sia adiabaticamente isolato; il generico stato del sistema può viene
descritto dalle coordinate termodinamiche ~x = (x1 , . . . , xn ) mentre S = S(~x)
è il valore che l’entropia assume in tale stato. Lo stato di un tale sistema può
47
essere anche definito univocamente dal set di nuove variabili (x1 , . . . , xn−1 , S)
dove l’entropia è assunta come una delle n variabili indipendenti; osserviamo
che in queste nuove variabili le superfici isoentropiche ΣS coincidono con la
famiglia di piani definiti dalla condizione S(~x) = S al variare di S in R. Supponiamo che il sistema si trovi nello stato iniziale descritto dalle coordinate
(x′1 , . . . , x′n−1 , S ′ ) e che in seguito ad una generica trasformazione adiabatica (reversibile o irreversibile) giunga nello stato finale (x′′1 , . . . , x′′n−1 , S ′′ ). Sia V ⊆ Rn
l’insieme di tutti i possibili stati raggiungibili dal sistema a partire dallo stato
iniziale (x′1 , . . . , x′n−1 , S ′ ) tramite una generica trasformazione adiabatica; ovviamente se in V vi è uno stato per cui l’entropia vale S, allora V conterrà
anche tutta la superficie isoentropica relativa al valore S dell’entropia. Assumeremo, ovviamente, che V sia un insieme limitato. Se si fissano solo le n − 1
coordinate finali x′′1 , . . . , x′′n−1 l’entropia dello stato finale risulta una funzione
continua della n-esima variabile, ossia S ′′ = S ′′ (x′′1 , . . . , x′′n−1 , xn ) ≡ S ′′ (xn ).
Consideriamo l’intervallo9 reale E definito da E = {xn |(x′′1 , . . . , x′′n−1 , xn ) ∈ V};
ovviamente anche E è un insieme limitato. Sia I ⊂ R il sottoinsieme definito da
I = {S ′′ (xn )|xn ∈ E}; I è l’immagine di una funzione continua ristretta ad un
intervallo limitato e per questo è esso stesso un intervallo limitato che ammette,
quindi, un estremo superiore ed uno inferiore.
i) Mostriamo che il valore S ′ che assume l’entropia nello stato iniziale deve
appartenere a I. Se tramite una trasformazione adiabatica reversibile si variamo le n− 1 coordinate iniziali x′1 , . . . , x′n−1 fino a portarle ai valori x′′1 , . . . , x′′n−1 ,
il valore S ′ dell’entropia non cambia poiché una tale trasformazione è necessariamente isoentropica; quindi S ′ ∈ I.
ii) A questo punto possiamo dimostrare che S ′ deve necessariamente essere
un’estremo dell’insieme I. Supponiamo che S ′ sia un punto interno ad I, allora
tramite un processo adiabatico reale infinitesimo è possibile portare il sistema
in uno stato finale (x′′1 , . . . , x′′n−1 , S ′′ ) per cui S ′′ può essere arbitrariamente vicino a S ′ . A questo punto tramite una trasformazione isoentropica si possono
variare arbitrariamente le restanti n − 1 coordinate (x′′1 , . . . , x′′n−1 ) in modo da
raggiungere tutti i possibili stati che si trovano in un intorno arbitrariamente piccolo dello stato iniziale (x′1 , . . . , x′n−1 , S ′ ). Questo tuttavia contraddice
il II Principio della termodinamica espresso in forma forte dall’enunciato del
Principio 5. Per evitare di violare il II Principio dobbiamo ammettere che S ′
sia un estremo dell’intervallo I, ossia, qualsiasi sia la trasformazione che porta
dallo stato iniziale (x′1 , . . . , x′n−1 , S ′ ) a quello finale (x′′1 , . . . , x′′n−1 , S ′′ ), si deve
avere che o S ′ ≥ S ′′ oppure S ′ ≤ S ′′ ; lo stato iniziale deve poter raggiungere adiabaticamente o solo stati ad entropia maggiore o solo stati ad entropia
minore.
iii) Il seguente ragionamento mostrerà che a prescindere dallo stato di partenza, può verificarsi solo una delle due situazioni sopra esposte. Supponiamo
che vi siano stati di partenza che possono raggiungere adiabaticamente stati ad
entropia maggiore, ed altri che possono raggiungere stati ad entropia minore.
Ogni stato che può raggiungere adiabaticamente solo stati ad entropia maggiore,
deve a sua volta poter essere raggiunto solo da stati ad entropia minore e viceversa stati che possono raggiungere adiabaticamente solo stati ad entropia minore
devono poter essere raggiunti solo da stati che si trovano ad entropia maggiore;
9 L’affermazione che E sia un intervallo segue dall’assunzione che le variabili termodinamiche
possono essere variate con continuità; ad esempio si può assumere che la coordinata xn sia
una variabile geometrica che è possibile variare con continuità anche in un sistema adiabatico.
48
se cosı̀ non fosse riusciremmo a trovare stati intermedi che connettono adiabaticamente stati con entropie sia maggiori che minori violando, quindi, il II Principio. Consideriamo tutti i possibili stati che possono essere raggiunti tramite una
trasformazione adiabatica dallo stato (x′1 , . . . , x′n−1 , S ′ ), e per tutti questi stati
valga che S ≥ S ′ , dove S è l’entropia del generico stato raggiunto. Allo stesso
modo consideriamo tutti i possibili stati che possono essere raggiunti dallo stato
(x′′1 , . . . , x′′n−1 , S ′′ ) tramite una trasformazione adiabatica e supponiamo che per
′′′
′′′
questi stati valga S ≤ S ′′ . Consideriamo, infine, uno stato (x′′′
1 , . . . , xn−1 , S )
′′
′′′
′
′′′
′′′
′′′
per cui valga S < S < S ; lo stato (x1 , . . . , xn−1 , S ) deve essere adiabaticamente inaccessibile sia da (x′1 , . . . , x′n−1 , S ′ ) che da (x′′1 , . . . , x′′n−1 , S ′′ ), tuttavia
sia (x′1 , . . . , x′n−1 , S ′ ) che (x′′1 , . . . , x′′n−1 , S ′′ ) possono essere connessi adiabati′′′
′′′
camente da (x′′′
1 , . . . , xn−1 , S ). Quindi avremmo trovato uno stato che può
connettere stati sia ad entropia maggiore che ad entropia minore violando cosı̀
il II Principio. Per evitare una tale contraddizione bisogna scegliere la direzione
della disuguaglianza in modo unico per tutte le trasformazioni adiabatiche.
iv) Una tale scelta è basata sulla relazione δQrev = T dS; per convenzione si
assume che T ≥ 0 e dS ≥ 0 in modo tale che se durante un processo reversibile
il calore Q del sistema aumenta, allora il processo sarà accompagnato da un
aumento dell’entropia.
Come conseguenza delle precedenti considerazioni possiamo enunciare un
diretto corollario del II Principio
Principio 6 (aumento dell’entropia) In una generica trasformazione adiabatica il valore dell’entropia non può mai diminuire.
Il Principio 6 rivela l’importanza che assume l’entropia; la variazione di entropia
fornisce una discriminante per i processi che possono avvenire spontaneamente in
un sistema adiabaticamente o totalmente isolato. Per tali processi è necessario
che l’entropia dello stato finale del sistema sia maggiore di quella dello stato
iniziale. Valgono le seguenti considerazioni:
• Quando un processo avviene in un sistema completamente isolato esso è
incontrollabile dall’esterno e quindi procede in modo inarrestabile e spontaneo. L’entropia di un tale sistema, durante questo processo spontaneo,
cresce fino a quando il processo stesso si arresta ed il sistema raggiunge
l’equilibrio; a questo punto l’entropia ha raggiunto il suo massimo valore
• La condizione dS = 0 è soddisfatta solo dalle trasformazioni adiabatiche
e reversibili del sistema.
• A causa dell’accoppiamento con l’ambiente esterno, l’entropia del sistema
può decrescere; tuttavia l’entropia totale del sistema considerato più tutto
l’ambiente esterno non può diminuire dato che l’universo è considerato
nella sua totalità un sistema completamente isolato. Ne consegue che
l’entropia dell’universo tende ad aumentare.
2.5
2.5.1
I cicli termodinamici
La disuguaglianza di Clausius
Sia X un sistema termodinamico ad n gradi di libertà e siano ~x e ~x ′ i punti rappresentativi di due stati di equilibrio infinitamente vicini. Supponiamo
49
che il sistema possa andare da ~x a ~x ′ sia in modo reversibile, scambiando
con l’ambiente esterno una quantità di calore δQrev , sia in modo irreversibile
scambiando, invece, una quantità di calore δQir . Poiché la variazione di energia interna non deve dipendere dalla particolare trasformazione eseguita, deve
valere che dU = δQrev − δWrev = δQir − δWir , da cui
δQir − δQrev = δWir − δWrev .
(2.28)
Ovviamente l’ espressione (2.28) deve essere diversa da zero, infatti, nel caso
contrario, il cammino reversibile e quello irreversibile dovrebbero coincidere in
quanto gli infinitesimi δQ e δW dipendono dalla curva sulla quale sono stimati.
L’espressione (2.28) può essere o positiva o negativa; analizziamo le conseguenze:
1. Supponiamo che la (2.28) sia maggiore di zero. Consideriamo la trasformazione ottenuta andando da ~x a ~x ′ lungo il percorso irreversibile e poi
riportando il sistema allo stato ~x invertendo il verso della trasformazione reversibile. Se δQrev e δWrev sono il calore infinitesimo ed il lavoro
infinitesimo che il sistema scambia nella trasformazione reversibile infinitesima, allora indicheremo con δ Q̄rev = −δQrev e δ W̄rev = −δQrev le
relative quantità rispetto alla trasformazione inversa. In base alla (2.28)
deve valere che
δQir + δ Q̄rev = δWir + δ W̄rev > 0,
ossia il sistema assorbe una quantità di calore non nulla e compie lavoro
sull’ambiente senza alcun altro cambiamento nell’universo.
2. Supponiamo che la (2.28) sia minore di zero di zero. Con ragionamenti
analoghi possiamo scrivere
δQir + δ Q̄rev = δWir + δ W̄rev < 0.
In questo caso l’ ambiente esterno compie del lavoro sul sistema che in
cambio cede una quantità di calore non nulla; nessun altro cambiamento
viene prodotto nell’universo.
Ci possiamo chiedere quale delle due situazioni sia fisicamente realizzata. Poiché lungo il tratto reversibile vale che δQrev = T dS, se accettiamo la situazione
1. deve valere che T dS < δQir , al contrario se accettiamo la situazione 2. deve
accadere che T dS > δQir . Le considerazioni fatte fino ad ora sono del tutto
generali e devono continuare a valere se come trasformazione irreversibile scegliamo un processo adiabatico; in questo caso, poiché deve essere δQir = 0,
avremo che T dS < 0 nel caso 1. oppure, nel caso 2., T dS > 0. Osserviamo
che dS rappresenta la variazione di entropia che il sistema X subisce quando
passa dallo stato ~x allo stato ~x ′ ; se accettiamo l’ipotesi 1. dovremmo ammettere che il sistema subisce una diminuzione di entropia quando compie una
trasformazione adiabatica irreversibile tra gli stati ~x e ~x ′ e questo contraddice
il Principio 6 sull’aumento dell’entropia. In definitiva abbiamo dimostrato che
in una trasformazione infinitesima tra due stati vicini
δQir < T dS = δQrev
(2.29)
qualunque sia il processo irreversibile considerato. Dalla (2.29) e dalla (2.28),
inoltre, si ottiene che δWir < δWrev . Il risultato appena conseguito è molto
50
importante; se si porta il sistema tra due generici stati tramite una successione
di processi infinitesimi reversibili, la variazione di entropia che ne consegue deve
essere pareggiata tramite uno scambio di calore tale che dS = δQrev /T su ogni
variazione infinitesima. Al contrario, se il processo si svolge in modo irreversibile
si avrà un’aumento di entropia che eccede la quantità δQir /T ; questo eccesso di
entropia è dovuto a processi che avvengono interamente nell’interno del sistema
e che hanno a che fare con la sua struttura microscopica.
Per un processo finito ed irreversibile, si può generalizzare l’equazione (2.29)
scrivendo
Z ~x ′
δQir
< S(~x ′ ) − S(~x).
(2.30)
T
~
x
L’equazione (2.30) deve essere usata con cura poiché lascia aperta la questione
di quale temperatura T debba essere usata durante la trasformazione del sistema (in un processo che non passa per stati di equilibrio, la temperatura può
non essere definibile). In genere l’equazione (2.30) ha senso quando il sistema
in esame rimane in contatto termico, durante tutta la trasformazione, con una
sorgente di calore 10 S fissa alla temperatura T ; in questo caso il valore di T
nella (2.30) è proprio la temperatura della sorgente S.
Quando in seguito ad una trasformazione termodinamica lo stato finale del
sistema coincide con quello iniziale, diremo che il sistema ha compiuto una trasformazione ciclica o più brevemente un ciclo. I cicli quasi-statici di un sistema
ad n gradi di libertà, saranno descritti da curve chiuse in Rn . Dall’equazione
(2.29) segue che il sistema compie una trasformazione ciclica deve valere che
I
I
δQ
6 dS = 0
(2.31)
T
dove il segno di uguaglianza vale solo se la trasformazione è reversibile. La
(2.31) è nota come disuguaglianza di Clausius.
2.5.2
Il rendimento di un ciclo
Per un generico sistema termodinamico X che compie una trasformazione ciclica,
possiamo definire il rendimento del ciclo nel modo seguente
η=
W
Qin
dove la quantità Qin rappresenta il calore che è fluito nel sistema durante il ciclo;
ovviamente, per convenzione, Qin > 0. In un processo ciclico la variazione di
energia interna del sistema deve essere nulla dato che U è una funzione di stato,
quindi dal I Principio si ottiene che 0 = Q − W . Q rappresenta la quantità di
calore scambiata durante tutto il processo e può essere espressa come somma
algebrica tra il calore assorbito Qin e quello ceduto −Qout (con la convenzione
sul segno deve essere che Qout > 0 ), ossia Q = Qin − Qout . Possiamo ridefinire
il rendimento come segue
η=
Q
Qin − Qout
Qout
W
=
=
=
1
−
.
Qin
Qin
Qin
Qin
(2.32)
10 Una sorgente di calore è un sistema termodinamico S di massa talmente grande da poter
assorbire o cedere calore in quantità illimitate senza che la sua temperatura o il valore delle
altre variabili termodinamiche subiscano variazioni apprezzabili.
51
La (2.32) è valida per ogni trasformazione ciclica e dice che il rendimento di un
ciclo è sempre minore o alpiù uguale ad uno; η ha valore massimo se Qout = 0
ossia come risultato finale della trasformazione il sistema non deve aver ceduto
calore.
2.5.3
Il ciclo di Carnot
Di notevole importanza per la termodinamica sono i cicli termici; un ciclo termico è costituito da una successione di due trasformazioni isoterme alternate da
due trasformazioni adiabatiche. Le trasformazioni isoterme vengono effettuate
mettendo il sistema X in contatto termico con due sorgenti di calore tenute a
temperature costanti T1 e T2 ; indicheremo tali sorgenti con i simboli ST1 ed
ST2 , rispettivamente. Poiché durante le adiabatiche il sistema non può scambiare calore con l’esterno, si avrà trasferimento di calore solo durante i processi
isotermici e quindi il sistema scambierà calore solo con le sorgenti termiche ST1
ed ST2 . Durante un ciclo termico il sistema X non può assorbire calore da entrambe le sorgenti, infatti, sia in seguito all’assorbimento di calore sia durante le
adiabatiche il sistema continua ad aumentare la sua entropia (o alpiù l’entropia
resta costante durante le adiabatiche se queste sono pure reversibili) e quindi
dopo un ciclo si avrebbe un ∆S > 0; questo, tuttavia, non è possibile dato che
dopo un ciclo il sistema deve tornare allo stesso stato. Supponiamo che durante
il ciclo il sistema compia un lavoro W > 0, allora il sistema deve assorbire un
calore Q = Qin + Qout > 0; inoltre sia T1 > T2 . Mostriamo che in questo caso
Qin ≡ Q1 è il calore assorbito dalla sorgente ST1 a temperatura più alta, mentre
Qout ≡ −Q2 e quello scambiato con la sorgente ST2 a temperatura più bassa.
Dall’equazione (3.5) segue che durante le due isoterme deve valere che
Qout
Qin
+
6 ∆Siso
Tin
Tout
dove ∆Siso è la variazione di entropia che si ha durante le isoterme. Ora,
se ∆Sad > 0 è la variazione di entropia dovuta ai processi adiabatici, poiché
sull’intero ciclo ∆S = ∆Siso + ∆Sad = 0, deve valere che ∆Siso 6 0. Allora la
precedente equazione si può scrivere come
−Qout
Qin
6
.
Tin
Tout
Ora, dato che per ipotesi Qin > −Qout > 0, la precedente disuguaglianza può
essere rispettata solo se Tin > Tout , e quindi in definitiva deve essere Tin ≡ T1
e Tout ≡ T2 , come volevasi dimostrare. Quindi un sistema termodinamico che
compie un ciclo termico assorbendo calore (Q1 ) dalla sorgente a temperatura
più alta (T1 ) e cedendo calore (−Q2 ) alla sorgente a temperatura più bassa (T2 )
compie un lavoro positivo sull’ambiente; inoltre vale
Q1
Q2
6
T1
T2
⇒
T2
Q2
6
.
T1
Q1
(2.33)
Con analoghi ragionamenti si dimostra anche il viceversa, ossia che se il sistema
assorbe calore dalla sorgente a temperatura più bassa per cederne parte a quella
a temperatura più alta, allora W < 0.
52
Un ciclo termico che sia pure reversibile prende il nome di ciclo di Carnot. Supponiamo che le due isoterme appartengano a due superfici isoterme definite dalla temperature T1 > T2 mentre le due adiabatiche a due superfici isoentropiche
caratterizzate dai valori S1 > S2 dell’entropia. Quando il sistema percorre l’isoterma a temperatura T1 variando la sua entropia da S2 ad S1 il sistema scambia
una quantità di calore che in base alla (2.26) è data da (S1 − S2 )T1 = Q1 > 0.
Quando invece il sistema passa da entropia S1 ad entropia S2 lungo l’isoterma
a temperatura T2 si ha uno scambio di calore pari a (S2 − S1 )T2 = Q2 < 0. Ovviamente durante le adiabatiche non si ha scambio di calore. In base a quanto
detto, il rendimento di un ciclo di Carnot è dato da
ηCarnot = 1 −
(S2 − S1 )T2
T2
Q2
=1−
=1− .
Q1
(S1 − S2 )T1
T1
(2.34)
Come mostra la (2.34), il rendimento per un ciclo di Carnot è indipendente dal
particolare sistema che lo compie e dal particolare tipo di trasformazioni che
costituiscono il ciclo stesso; il rendimento dipende solo dalle temperature alle
quali vengono eseguite le due isoterme; questo è il contenuto del I Teorema di
Carnot. Il rendimento in un ciclo di Carnot cresce all’aumentare di T1 (isoterma
a temperatura più alta) e decresce all’aumentare di T2 (isoterma a temperatura
più bassa); come è evidente esso è sempre minore o uguale ad uno.
Supponiamo che un sistema termodinamico compia un ciclo termico tra le sorgenti ST1 ed ST2 con T1 > T2 e compia un lavoro W > 0; allora utilizzando
l’equazione (2.33) si ottiene
η =1−
Q2
T2
61−
= ηCarnot
Q1
T1
(2.35)
ossia il rendimento di un ciclo termico irreversibile è sempre minore del rendimento del ciclo di Carnot che opera tra le stesse temperature; questo è il
contenuto del II Teorema di Carnot.
53
Capitolo 3
Termodinamica classica e
termodinamica assiomatica
3.1
Gli enunciati classici del II Principio
La differenza fondamentale che intercorre tra la termodinamica classica e la termodinamica assiomatica è tutta concentrata nel modo in cui viene enunciato
il II Principio. Come abbiamo avuto modo di vedere nei capitoli precedenti,
la termodinamica assiomatica fondata da Carathéodory assume come II Principio della termodinamica il Principio di irraggiungibilità adiabatica (in forma
forte). Partendo da questo enunciato di natura essenzialmente matematico, Carathéodory ricostruisce la termodinamica usando principalmente le proprietà
delle equazioni di Pfaff; l’esistenza stessa della funzione di stato entropia, appare, nell’ottica di Carathéodory, come una inevitabile conseguenza della natura
delle equazioni differenziali che stanno alla basa della descrizione del comportamento dei sistemi termodinamici. Al contrario, la termodinamica classica si basa
su due enunciati del II Principio che sono di natura per lo più fenomenologico
ed ingegneristico; essi sono:
Principio 7 (enunciato di Clausius) Non è possibile realizzare una trasformazione il cui unico risultato sia un passaggio di calore da un corpo ad una data
temperatura ad un altro che si trova a temperatura più alto.
Principio 8 (enunciato di Kelvin-Planck) Non è possibile realizzare una
trasformazione il cui unico risultato sia una trasformazione in lavoro di calore
tratto da una sorgente a temperatura uniforme.
Si dimostra che gli enunciati dei Principi 7 e 8 sono completamente equivalenti;
una dimostrazione di ciò si trova in [Zemansky, pg. 166].
3.2
La teoria del fattore integrante di Clausius
Mostreremo in che modo sia possibile dimostrare l’esistenza di una funzione di
stato entropia e quindi di un fattore integrante per il δQ partendo dall’enunciato del Principio 7 o equivalentemente del Principio 8. Per fare questo risulta
54
essenziale sfruttare le proprieta dei cicli termici compiuti da un dato sistema termodinamico. Ritroveremo, tramite un approccio completamente diverso, tutti
i risultati dei Paragrafi 2.4 e 2.5. Le argomentazioni che seguono sono tratte da
[Fermi, cap. 3]. Come prima cosa mostriamo che
Proposizione 7 Se il sistema termodinamico X compie un ciclo termico tra
le sorgenti Sθ1 e Sθ2 con θ1 > θ2 , facendo un lavoro W > 0 sull’ambiente
esterno, allora il sistema assorbe una quantità di calore Q1 > 0 da Sθ1 e cede
una quantità di calore −Q2 < 0 a Sθ2 . Inoltre Q1 > Q2 .
Dimostrazione
Sicuramente il sistema non può assorbire calore dalla sorgente a temperatura
più bassa; se cosı̀ fosse, alla fine del ciclo le due sorgenti potrebbero essere
messe in contatto termico fino a quando quella a temperatura più alta non
cede a quella a temperatura più bassa una quantità di calore pari a quella
che è stata assorbita dal sistema. Alla fine del processo sia il sistema che la
sorgente Sθ2 avrebbero ripristinato il loro stato originario; in tal modo avremmo
realizzato lavoro positivo unicamente sfruttando il calore scambiato con Sθ1 e
ciò contraddice il Principio 8. Quindi X cede una quantità di calore −Q2 (con
Q2 > 0) a Sθ2 ; in oltre per il I Principio deve valere che Q1 − Q2 = W > 0 da
cui Q1 = Q2 + W > Q2 > 0. Ciò conclude la dimostrazione. ◭
Questo risultato ci permette di dimostrare la seguente
Proposizione 8 Consideriamo due sistemi termodinamici X ed X e supponiamo che entrambi compiano dei cicli termici tra le sorgenti Sθ1 e Sθ2 con
θ1 > θ2 . Se Q1 , Q1 e Q2 , Q2 sono le quantità di calore che i due sistemi
scambiano rispettivamente con Sθ1 ed e Sθ2 , allora deve valere che
• se X compie un ciclo reversibile (ossia un ciclo di Carnot)
Q
Q1
> 1;
Q2
Q2
(3.1)
• se anche X compie un ciclo reversibile
Q
Q1
= 1.
Q2
Q2
(3.2)
Dimostrazione
Se entrambi i sistemi fanno un lavoro positivo W e W durante il ciclo, deve
valere che
W = Q1 − Q2
(3.3)
W = Q1 − Q2 ,
(Q1 , Q2 , Q1 , Q2 sono tutte quantità positive). Il rapporto Q1 /Q1 può essere
approssimato in modo arbitrariamente preciso da un numero razionale della
forma m/m con m, m ∈ N. Supponiamo che il sistema X compia m cicli diretti
e X , m cicli al rovescio (per ipotesi X compie dei cicli reversibili). Durante
un ciclo a rovescio, il sistema X assorbe una quantità di lavoro −W , cede una
quantità di calore −Q1 ad Sθ1 ed assorbe una quantità di calore Q2 da Sθ2 . Il
lavoro totale compiuto dai due sistemi durante tutta la trasformazione è
W tot = m W − m W,
55
(3.4)
mentre le sorgenti Sθ1 ed Sθ2 scambieranno, rispettivamente, una quantità di
calore data da
Qtot
1 = m Q1 − m Q1 ,
−Qtot
2 = m Q2 − m Q2 .
(3.5)
Tramite le relazioni (3.3) ed (3.5) la (3.4) si può riscrivere come W tot = Qtot
1 −
tot
=
m/m
segue
che
Q
=
0
e
quindi
deve
valere
Qtot
.
Dalla
uguaglianza
Q
/Q
1
1
1
2
che W tot = −Qtot
2 ; in definitiva, alla fine di tutto il processo non si ha scambio
di calore con la sorgente a temperatura più alta mentre il lavoro totale dipende
solo dal calore −Qtot
2 scambiato con la sorgente a temperatura più bassa. Poiché
tutto il processo è costituito da un numero intero di cicli, alla fine i due sistemi
tornano nel loro stato originario; quindi per non violare il Principio 8 deve valere
che W tot 6 0 da cui segue che Qtot
2 > 0 ed usando la (3.5) m Q2 6 m Q2 . Quindi
deve valere che
Q2
Q1
Q1
m
Q1
.
(3.6)
=
6
⇒
6
m
Q2
Q2
Q1
Q2
Per completare la dimostrazione, supponiamo che anche il sistema X sia reversibile ; questo equivale a scambiare nelle precedenti equazioni il ruolo dei due
sistemi e quindi deve valere che
Q1
Q1
.
>
Q2
Q2
Ma poiché entrambi i sistemi sono supposti reversibili, deve continuare a valere
anche la (3.6); allora le due disuguaglianze sono compatibili solo se accade che
Q1
Q1
=
Q2
Q2
e ciò conclude la dimostrazione. ◭
Dalla Proposizione appena dimostrata segue che se si hanno diversi sistemi termodinamici che compiono dei cicli termici tra due sorgenti di calore tenute a
temperature θ1 e θ2 , allora tutti i sistemi che compiono cicli reversibili hanno
stesso rendimento, mentre quelli che compiono cicli non reversibili avranno dei
rendimenti che non possono superare il rendimento ottenuto tramite un ciclo reversibile. Inoltre il rapporto Q1 /Q2 deve avere lo stesso valore per tutti i sistemi
termodinamici che compiono cicli di Carnot tra sorgenti tenute alle temperature θ1 e θ2 indipendentemente dalla particolare natura del sistema. L’ultima
osservazione ci permette di affermare che nei cicli di Carnot il rapporto Q1 /Q2
è funzione delle sole temperature θ1 e θ2 , ossia
Q1
= f (θ1 , θ2 ),
Q2
dove f = f (θ1 , θ2 ) è una funzione universale delle due temperature.
Proposizione 9 Esiste una funzione universale della temperatura T = T (θ)
tale che quando un generico sistema termodinamico compie un ciclo di Carnot
tra due sorgenti di calore Sθ1 ed Sθ2 con θ1 > θ2 , allora vale
T (θ1 )
Q1
=
Q2
T (θ2 )
56
(3.7)
dove Q1 è la quantità di calore assorbita da Sθ1 , mentre −Q2 è la quantità di
calore ceduto a Sθ2 .
Dimostrazione
Siano X ed Y due sistemi termodinamici che compiono dei cicli di Carnot rispettivamente tra le sorgenti Sθ1 , Sθ0 ed Sθ2 , Sθ0 con θ1 > θ2 > θ0 . Supponiamo
che, durante un ciclo, X ed Y assorbano, rispettivamente, le quantità di calore
Q1 e Q2 da Sθ1 e da Sθ2 , e supponiamo ancora che entrambi i sistemi cedano
una quantità di calore −Q0 alla sorgente comune Sθ0 . Sotto queste condizioni
possiamo scrivere che
Q1
= f (θ1 , θ0 ),
Q0
Q2
= f (θ2 , θ0 ).
Q0
Dividendo membro a membro queste due uguaglianze si ricava che
f (θ1 , θ0 )
Q1
=
.
Q2
f (θ2 , θ0 )
(3.8)
Consideriamo la trasformazione composta ottenuta da un ciclo diretto del sistema X e da un ciclo inverso del sistema Y; anche questo processo composto
è un ciclo reversibile poiché è la composizione di due cicli reversibili. Durante
il processo complessivo, inoltre, non viene scambiato calore con la sorgente Sθ0
poiché la quantità di calore −Q0 ceduta da X viene assorbita da Y. Durante
tutto il ciclo X assorbe una quantità di calore Q1 da Sθ1 , mentre Y cede una
quantità di calore −Q2 a Sθ2 . In definitiva quando X ed Y lavorano assieme,
compiono un ciclo di Carnot tra le sorgenti Sθ1 ed Sθ2 e quindi deve valere che
Q1
= f (θ1 , θ2 ).
Q2
(3.9)
Dalle equazioni (3.8) ed (3.9) si ottiene che
f (θ1 , θ0 )
= f (θ1 , θ2 ).
f (θ2 , θ0 )
(3.10)
Poiché in tutta la discussione θ0 è una temperatura arbitraria, possiamo mantenerla costante in tutte le equazioni; da ciò segue che possiamo considerare
f funzione della sola temperatura θ, ossia Kf (θ, θ0 ) = T (θ), con K costante
arbitraria. in questo modo possiamo riscrivere l’equazione (3.8) come
Q1
T (θ1 )
=
Q2
T (θ2 )
e ciò conclude la dimostrazione. ◭
La forma funzionale della funzione T = T (θ) dipende dalla particolare scala
termometrica usata per misurare la temperatura empirica θ; tuttavia poiché la
scelta della scala della temperatura è del tutto arbitraria, possiamo definire una
nuova scala di temperatura usando T (θ) a l posto di θ. La scala di temperatura
cosı̀ definita è la scala Kelvin. In questa scala la (3.7) si scrive
T1
Q1
=
.
Q2
T2
57
Consideriamo un sistema termodinamico X che compie una trasformazione ciclica. Supponiamo che durante il ciclo il sistema scambi calore con un insieme di
sorgenti ST1 , . . . , STr tenute rispettivamente alle temperature T1 , . . . , Tr . Siano
Q1 , . . . , Qr le quantità di calore che X scambia con le varie sorgenti (ovviamente le Qi saranno positive se rappresentano quantità di calore assorbite dal
sistema,altrimenti saranno negative). Vale la seguente
Proposizione 10 Quando il sistema X compie un ciclo deve valere che
r
X
Qi
i=1
6 0,
Ti
(3.11)
dove il segno di uguaglianza vale se il ciclo è reversibile.
Dimostrazione
Accanto alle r sorgenti introduciamo la sorgente ST0 mantenuta ad una temperatura T0 arbitraria ed introduciamo anche r sistemi termodinamici M1 , . . . , Mr ,
l’i-esimo dei quali compie un ciclo di Carnot tra le sorgenti STi ed ST0 . Supponiamo che durante un ciclo il sistema Mi ceda alla sorgente STi una quantità di
calore −Qi , cioè una quantità di calore pari, in modulo, al calore che la sorgente
STi cede ad X durante un ciclo di quest’ultimo. Secondo la (3.7) il sistema Mi
acquista da ST0 una quantità di calore Q0,i pari a
Q0,i =
T0
Qi .
Ti
Consideriamo un ciclo composto costituito da un ciclo del sistema X più un
ciclo di Carnot di ogni sistema Mi . Alla fine della trasformazione ciascuna
delle sorgenti STi avrà compiuto uno scambio di calore nullo; infatti il sistema X
acquista una quantità di calore Qi dalla sorgente STi , mentre il sistema Mi cede
una quantità di calore −Qi a quest’ultima. D’altra parte i sistemi M1 , . . . , Mr
assorbono da ST0 le quantità di calore Q0,1 , . . . , Q0,r , per cui la quantità totale
di calore assorbito durante gli r cicli di Carnot deve essere
Q0 =
r
X
Q0,i = T0
r
X
Qi
i=1
i=1
Ti
.
In definitiva, il risultato finale della trasformazione composta è che i sistemi
M1 , . . . , Mr e X scambiano complessivamente una quantità di calore Q0 con la
sorgente ST0 .Poiché dopo la trasformazione tutti i sistemi tornano allo stato iniziale e poiche si ha, in definitiva, scambio di calore con una sola sorgente tenuta
a temperatura costante, per non violare il Principio 8 dobbiamo ammettere che
Q0 6 0, ossia
r
X
Qi
6 0.
Ti
i=1
Se il sistema X compie un ciclo reversibile, esso può essere percorso in senso inverso; in questo caso tutte le Qi cambiano segno ed applicando le considerazioni
precedente al ciclo inverso si deve ottenere che
r
X
Qi
i=1
Ti
58
> 0.
Poiché le due disuguaglianze devono valere contemporaneamente, nel caso di
ciclo reversibile vale che
r
X
Qi
=0
Ti
i=1
e questo conclude la dimostrazione. ◭
È importante considerare il caso in cui il sistema scambi calore con una distribuzione continua di sorgenti. In questo caso la sommatoria che compare nella
(3.11) deve essere sostituita da un integrale eseguito sull’intero ciclo. Se δQ
è la quantità infinitesima di calore che il sistema scambia con una sorgente a
temperatura T , allora vale il
Teorema 6 (di Clausius) Quando il sistema X compie una generica trasformazione ciclica deve valere che
I
δQ
6 0,
(3.12)
T
dove il segno di uguaglianza vale solo se il ciclo è reversibile.
Osserviamo che nella (3.12) la temperatura T è quella della sorgente e non
del sistema; tuttavia nel caso di trasformazioni reversibili le due temperature
coincidono.
Poiché la relazione
I
δQ
=0
T
vale per qualsiasi ciclo reversibile eseguito dal sistema X , questo, per quanto
visto nel Paragrafo 1.3.3 è sufficiente ad affermare che la quantità δQ/T è un
differenziale esatto che indicheremo con dS. Quindi la temperatura assoluta T è
il fattore integrante per il calore infinitesimo δQ. Preso uno stato di equilibrio di
riferimento ~x0 per il sistema X e supponendo che ogni alto stato ~x possa essere
connesso a ~x0 tramite un cammino reversibile, possiamo definire la funzione di
stato entropia nel modo seguente
S(~x) =
Z
x
~
~
x0
δQ
+ S(~x0 ).
T
È evidente che S è definita a meno di una costante additiva arbitraria.
3.3
Vantaggi di una formulazione assiomatica
La teoria del fattore integrante nello schema di Clausius, di cui abbiamo brevemente tracciato le linee nel paragrafo precedente, per quanto rigorosa e generale
è senza dubbio di carattere estremamente applicativa. Fintanto che si è interessati alla progettazione di macchine termiche è essenziale poter disporre di
principi che siano validi a prescindere dal tipo di sostanza che venga utilizzata;
se tuttavia si vuole studiare il comportamento dei sistemi durante le trasformazioni in termini di funzioni di stato e di variazione dei parametri termodinamici,
allora è preferibile utilizzare un metodo che sia più strettamente legato all’uso delle coordinate. La strada percorsa da Clausius appare molto distante da
59
quella prospettata da Carathéodory nel suo tentativo di assiomatizzare la termodinamica; in realtà sia l’enunciato del II Principio dato da Clausius che quello
dovuto a Kelvin e Planck contengono il Principio di irraggiungibilità adiabatica
proposto da Carathéodory. Questo è dimostrato nel seguente
Teorema 7 Se vale il Principio 8 allora necessariamente è soddisfatto pure il
Principio 5.
Dimostrazione
Consideriamo un sistema termodinamico X che si trova in uno stato di equilibrio descritto dalle coordinate ~x = (x1 , . . . , xn−1 , U ) dove U è l’energia interna del sistema. In seguito ad una trasformazione adiabatica reversibile infinitesima γ, il sistema raggiungerà un nuovo stato di equilibrio descritto da
~x + d~x = ~x ′ = (x′1 , . . . , x′n−1 , U ′ ). Consideriamo la retta π ∈ Rn ottenuta mantenendo costanti i valori delle coordinate x′1 , . . . , x′n−1 e facendo variare solo la
coordinata U . Tutti gli stati che si trovano sulla retta π si differenziano solo
per un diverso valore dell’energia interna mentre hanno valori identici per tutte le altre coordinate termodinamiche; questo significa che la retta π descrive
trasformazioni in cui il sistema non compie lavoro in quanto non varia nessuna
coordinata di deformazione, tuttavia varia l’energia interna U e questo può accadere unicamente tramite scambio di calore con l’ambiente esterno. Sia π+ la
semiretta definita da U > U ′ , mentre π− quella definita da U < U ′ . Mostriamo che se vale il Principio 8 allora non vi è nessuna trasformazione adiabatica
(reversibile o irreversibile) capace di portare il sistema X in uno stato di π− .
Ragioniamo per assurdo e supponiamo che tramite una trasformazione adiabatica β il sistema vada nello stato ~x ′′ ∈ π− . Ora, tramite assorbimento di una
quantità di calore Q il sistema viene portato nello stato ~x ′ ed in seguito, tramite
la trasformazione γ −1 (ossia l’inversa della trasformazione γ) viene ricondotto
allo stato di partenza ~x. Poiché le trasformazioni β e γ −1 sono adiabatiche,
il sistema acquista unicamente la quantità di calore Q > 0 passando da ~x ′′ a
~x ′ lungo π; d’altra parte il sistema compie un ciclo e per il I Principio esso
compie una quantità di lavoro W = Q > 0. In definitiva il sistema compie del
lavoro positivo scambiando unicamente calore con un’unica sorgente e ciò viola
il Principio 8. Quindi se si accetta l’enunciato di Kelvin-Planck si deve ammettere che tutti i punti di π− sono adiabaticamente irraggiungibili per quanto
vicini allo stato iniziale ~x; ma questo è esattamente l’enunciato del Principio 5
sull’irraggiungibilità. ◭
In un certo senso il Principio di irraggiungibilità, dato in forma forte, può essere considerato come il Principio di Kelvin-Planck ridotto all’essenziale. Non si
può accusare Carathéodory di aver formulato la termodinamica partendo da un
principio troppo matematico e lontano dal senso fisico; chi accetta gli enunciati
classici sta già indirettamente accettando il Principio di irraggiungibilità. Il lavoro di Carathéodory, inoltre, ci mostra che l’esistenza di un fattore integrante
per il δQ e quindi la possibilità di considerare le superfici isoentropiche. non
sono, in nessun modo, conseguenza delle proprietà dei cicli di Carnot. La possibilità di definire l’entropia come funzione di stato, è una diretta conseguenza
della natura delle equazioni di Pfaff che sono alla base della teoria termodinamica. La teoria assiomatica di Carathéodory non è solo formalmente più elegante
della teoria classica, ma è anche più profonda; accettando il Principio di KelvinPlanck, in virtù dei due Teoremi di Carathéodory, la teoria di Clausius risulta
60
semplicemente un’ovvia conseguenza. Una analisi critica e profonda della formulazione assiomatica della termodinamica è fornita in [Afanassjeva]. Bisogna
dire che il lavoro di Carathéodory è stato soggetto anche a numerose critiche,
per tanti l’assiomatizzazione della termodinamica è da ridursi al semplice rango di diletto matematico mentre i meriti di Carathéodory non vanno oltre a
quelli di avere dimostrato un “bel teorema sulle equazioni di Pfaff. Una decisa
critica nei confronti della termodinamica assiomatica è data in [Truesdell]. A
mio modesto parere una buona teoria fisica deve avere tra le altre qualità anche
quella dell’eleganza e, indiscutibilmente, la formulazione assiomatica della termodinamica data da Carathéodory non è manchevole né di eleganza formale né
di rigore logico; già questo dovrebbe essere sufficiente affinché la termodinamica
assiomatica venga almeno ritenuta un interessante punto di vista alternativo
rispetto alla più immediata formulazione classica.
61
Bibliografia
[Afanassjeva] Afanassjeva T.E. (1996), I fondamenti della Termodinamica, La
goliardica Pavese, Pavia.
[Fermi] Fermi E. (1972), Termodinamica, 2a ed., Boringhieri, Torino.
[Honig] Honig J.M. (1999), Thermodynamics, 2a ed., Academic Press, San
Diego-London.
[Pagani-Salsa] Pagani C.D., Salsa S. (1995), Analisi Matematica, volumi I e II,
Masson, Milano.
[Truesdell] Truesdell C. (1984), Rational Thermodynamics, 2a ed., SpringerVerlag, New York.
[Wilson] Wilson A.H. (1957), Thermodynamics and Statistical Mechanics,
University press, Cambridge.
[Zemansky] Zemansky M.W. (1991), Calore e Termodinamica, Zanichelli,
Bologna.
62