Università degli Studi di Pisa Facoltà di Scienze Matematiche Fisiche e naturali Corso di Laurea in Fisica Anno Accademico 2002-2003 Tesi di Laurea Formulazione assiomatica della Termodinamica Candidato: Giuseppe De Nittis Relatore: Chiar.mo Prof. Enore Guadagnini Ai miei genitori Sintesi dei risultati Uno dei concetti fondamentali della fisica è quello di stato del sistema: lo stato di un sistema è definito da tutto ciò che serve per caratterizzare completamente e riproducibilmente la situazione sperimentale osservabile; le quantità che definiscono lo stato di un sistema riguardano, quindi, solo grandezze controllabili e misurabili. In virtù di ciò, è una situazione molto comune in fisica, ritenere che lo stato di un sistema possa essere determinato univocamente dai valori assunti da n variabili reali indipendenti x1 , . . . , xn . Studiare la fisica di un sistema significa indagare le leggi di trasformazione alle quali il sistema deve ubbidire quando compie una transizione tra due stati. Per comprendere come un sistema possa evolvere tra due stati “lontani è fondamentale conoscere prima come il sistema transita tra stati “molto vicini in seguito ad una trasformazione infinitesima. Se il sistema evolve dallo stato x1 , . . . , xn allo stato x1 + dx1 , . . . , xn + dxn , possiamo assumere che la variazione di una generica variabile dipendente F sia esprimibile cone una sovrapposizione lineare degli spostamenti infinitesimi dxi nel modo seguente: δF (x1 , . . . , xn ) = n X gi (x1 , . . . , xn )dxi , (1) i=1 dove i coefficienti gi sono, in genere, funzioni sufficientemente regolari delle variabili di stato x1 , . . . , xn . Matematicamente l’espressione (1) prende il nome di 1-forma. Se esiste una funzione a valori reali F = F (x1 , . . . , xn ) tale che gi = ∂F/∂xi allora la (1) diviene δF = n X ∂F dxi = dF, ∂x i i=1 (2) ossia la 1-forma è il differenziale esatto della funzione F ; in questo caso si parla di 1-forma esatta. In fisica teorica, spesso si è soliti ricondurre le leggi fisiche che determinano l’evoluzione del sistema ad equazioni differenziali del tipo δF = n X gi dxi = 0. (3) i=1 La (3) prende il nome di equazione di Pfaff; risolvere una tale equazione significa trovare una curva γ ∈ Rn , parametrizzata da ~x(t) = (x1 (t), . . . , xn (t)), tale che n X dxi gi (~x(t)) δF (~x(t)) = = 0. (4) dt t i=1 i Fisicamente la curva γ descrive la successione di stati attraversati dal sistema durante la trasformazione. Quando δF è una 1-forma esatta, l’integrale generale dell’equazione (3) è fornito dalla famiglia di superfici equipotenziali ΣC le quali sono definite dall’equazione F (x1 , . . . , xn ) = C con C ∈ R. Poiché le superfici ΣC non si possono intersecare in nessun punto, in questo caso le curve γ, soluzioni dell’equazione di Pfaff (3), non possono mai connettere due stati che appartengono a superfici diverse. Fisicamente questo equivale ad affermare che esistono stati infinitamente vicini allo stato di partenza che non potranno mai essere raggiunti dal sistema in seguito ad una trasformazione; diremo che un tale sistema è soggetto ad una condizione di irraggiungibilità. La condizione di esattezza della 1-forma δF non è la richiesta più generale affinché l’equazione (3) possa ammettere come soluzione generale delle superfici equipotenziali. Data una 1-forma δF ′ non esatta, sotto opportune condizioni, è possibile determinare una funzione a valori reali µ = µ(x1 , . . . , xn ) 6= 0 tale che µδF ′ = dF è un differenziale esatto; la funzione µ prende il nome di fattore integrante ed una equazione di Pfaff δF ′ = 0, per cui δF ′ ammette un fattore integrante, viene detta olonoma. Se δF ′ = n X gi′ dxi = 0 (5) i=1 è un’equazione di Pfaff olonoma per cui µδF ′ = dF , allora deve valere anche che n X µgi′ dxi = dF = 0 (6) µδF ′ = i=1 e quindi tutte le curve γ che sono soluzione della (5) devono risolvere anche la (6) ed in definitiva, devono giacere sulle superfici equipotenziali definite da F (x1 , . . . , xn ) = C. Ovviamente anche nel caso in cui il sistema fisico sia descritto da un’equazione olonoma, esso è soggetto ad una condizione di irraggiungibilità; punti appartenenti a superfici equipotenziali distinte non possono essere connessi tra loro. Sicuramente la condizione di olonomia dell’equazione (3) garantisce che per il sistema deve valere una condizione di irraggiungibilità; Carathéodory dimostrò che in realtà vale anche il viceversa. Il I Teorema di Carathéodory afferma che se vi sono punti infinitamente vicini che non possono essere collegati con una curva soluzione dell’equazione (3), allora quest’ultima deve essere necessariamente olonoma. Il I Teorema di Carathéodory trova la sua più naturale applicazione alla termodinamica dei sistemi ad n gradi di libertà. Durante una trasformazione reversibile, il calore infinitesimo che il sistema termodinamico scambia con l’esterno è dato da n X gi (x1 , . . . , xn ) dxi , (7) δQ = i=1 quindi è esprimibile in termini di una 1-forma che, generalmente, non è esatta. Tra tutte le trasformazioni termodinamiche reversibili, quelle che sono anche adiabatiche devono soddisfare l’equazione di Pfaff δQ = n X gi dxi = 0. i=1 ii (8) Come conseguenza di ripetute osservazioni sperimentali è lecito postulare che, infinitamente vicino ad ogni stato di equilibrio di un sistema termodinamico, vi sono altri stati di equilibrio che non sono raggiungibili tramite trasformazioni adiabatiche 1 ; questa è esattamente una condizione di irraggiungibilità sull’equazione di Pfaff (8). Se si accetta questa ipotesi, allora, come immediata conseguenza del Teorema di Carathéodory, deve esistere un fattore integrante µ che rende esatta la quantità δQ, ossia tale che dS = µδQ; la funzione di stato S prende il nome di entropia del sistema e come conseguenza della olonomicità della (8), segue che le trasformazioni adiabatiche reversibili giacciono sopra superfici isoentropiche. Inoltre, richiedendo che in seguito all’accoppiamento termico due sistemi raggiungono la stessa temperatura, è possibile dimostrare 2 che il fattore integrante µ deve essere una funzione universale della sola temperatura θ del sistema considerato; in questo caso sarà indicato con µ = 1/T (θ). Per l’arbitrarietà sulla scelta della scala termometrica, è possibile definire una nuova scala delle temperature, chiamata scala Kelvin, tramite la relazione T = T (θ). In definitiva, postulando che i sistemi termodinamici siano soggetti ad una condizione di irraggiungibilità adiabatica, come inevitabile conseguenza delle proprietà delle equazioni di Pfaff, deve esistere la funzione di stato entropia, definita da dS = δQ/T per trasformazioni reversibili. I risultati cosı̀ ottenuti non aggiungono nulla di nuovo alle conoscenze della termodinamica “tradizionale, tuttavia il lavoro di Carathéodory sintetizza tutte le conseguenze fisiche in un’unica, rigorosa teoria matematica; l’esistenza delle superfici isoentropiche non dipende dalle proprietà dei cicli di Carnot (fondamentali nel lavoro di Clausius), essa è una conseguenza naturale delle proprietà delle equazioni di Pfaff che sono alla base della descrizione dei fenomeni termodinamici. Infine, rafforzando il postulato di irraggiungibilità adiabatica 3 , è possibile recuperare la legge dell’aumento dell’entropia includendo, in tal modo, nello schema matematico di Carathéodory, la descrizione dei fenomeno irreversibili . 1 Come sarà dimostrato nel Paragrafo 3.3, la richiesta di irraggiungibilità è già contenuta nell’enunciato del II Principio della termodinamica dato da Kelvin e Planck, e come tale non aggiunge nulla di nuovo alle ipotesi minime che stanno alla base della formulazione classica della termodinamica. 2 Questo è il contenuto del II Teorema di Carathéodory. 3 Anche la versione “forte del postulato è già contenuta nell’enunciato di Kelvin-Planck. iii Prefazione La termodinamica, come disciplina fisica, nasce ufficialmente con la pubblicazione degli studi di S. Carnot nel 1824. Solo negli anni che vanno dal 1850 al 1856, tuttavia, tale disciplina assume una formulazione coerente e moderna, soprattutto grazie ai lavori di Clausius e Kelvin (con i quali si rinuncia definitivamente all’idea del calorico). Nel 1890, come risultato degli studi di Planck, viene riconosciuto il ruolo fondamentale che ha il concetto di entropia nella comprensione dei fenomeni termodinamici; con questo fatto la termodinamica riceve la formulazione, pressoché definitiva, tuttora studiata nei vari corsi di fisica. Tuttavia la termodinamica classica (ossia quella nata dai lavori di Clausius, Kelvin e Planck) si basa su principi di carattere fenomenologico ed ingegneristico, come, ad esempio, appare evidente dagli enunciati del II Principio dati da Clausius e da Kelvin e Planck. Questo faceva sı̀ che la termodinamica sfuggisse alla pretesa, tipicamente ottocentesca, di voler ricondurre tutti i fenomeni fisici a principi semplici e di tipo meccanico-matematico. Inoltre la termodinamica di Clausius, Kelvin e Planck utilizzava una matematica eccessivamente semplice rinunciando, quasi totalmente, agli strumenti del calcolo infinitesimale (come ad esempio l’utilizzo di equazioni differenziali) e questo appariva come un limite per una più profonda comprensione dei principi termodinamici stessi. Spinto da queste premesse, nel 1908, M. Born incitò il giovane matematico greco C. Carathéodory a studiare una nuova formulazione della termodinamica, che desse a questa disciplina una veste puramente teorica. I’impegno di Carathéodory si concretizzò in un articolo pubblicato 4 nel 1909. In questo lavoro egli apporta delle importanti innovazioni; per la prima volta si introducono le equazioni differenziali in termodinamica e per la prima volta si formula una teoria fisica in maniera totalmente assiomatica. In particolare l’enunciato fenomenologico del II Principio dato da Kelvin viene sostituito da un’ipotesi esclusivamente matematica. Il proponimento del presente lavoro è quello di esporre, in maniera semplice e rigorosa, le idee di Carathéodory che stanno alla base della formulazione assiomatica della termodinamica. L’esposizione degli argomenti è stata suddivisa in tre capitoli: il Cap.1 è di carattere esclusivamente matematico ed è dedicato all’esposizione dei concetti matematici necessari per comprendere e dimostrare i due Teoremi di Carathéodory; in particolare si espone la teoria delle equazioni di Pfaff e si discutono le condizioni di esistenza del fattore integrante fino ad arrivare a dare una completa caratterizzazione delle equazioni pfaffiane olonome esclusivamente in termini di una condizione di irraggiungibilità; il Cap.2 è 4 C. Carathéodory: Untersuchungen über die Grundlagen der Thermodynamik, Math. Ann. 67, 355 (1909). iv dedicato alla formulazione assiomatica della termodinamica che si basa sull’assunzione di alcune semplici ipotesi lavorative alle quali vengono affiancati tre assiomi basilari (i tre Principi della termodinamica); dall’enunciato di Carathéodory del II Principio, grazie ai due Teoremi di Carathéodory, si dimostra l’esistenza di superfici isoentropiche e vengono recuperati tutti i risultati propri della termodinamica classica; nel Cap.3 si confronta l’impostazione classica con la formulazione assiomatica e tale obbiettivo raggiunto tramite un confronto tra l’enunciato di Kelvin-Planck ed il Principio di irraggiungibilità di Carathéodory; al fine di evidenziare le differenze concettuali che intercorrono tra l’approccio classico e quello assiomatico, verrà esposta, in maniera sintetica, la teoria del fattore integrante di Clausius, basata sui cicli di Carnot. G. De Nittis v Indice 1 I teoremi di Carathéodory 1.1 Superfici . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Gli insiemi di livello ed il teorema di Dini . . . 1.1.2 Il Piano tangente ad una superficie . . . . . . . 1.2 Curve . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Definizioni generali . . . . . . . . . . . . . . . . 1.2.2 Curve appartenenti ad una superficie . . . . . . 1.2.3 Differenziazione lungo una curva . . . . . . . . 1.3 Le 1-forme . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Definizione generale . . . . . . . . . . . . . . . 1.3.2 1-forme esatte . . . . . . . . . . . . . . . . . . . 1.3.3 L’integrale di linea . . . . . . . . . . . . . . . . 1.3.4 Il fattore integrante . . . . . . . . . . . . . . . 1.3.5 Cambiamento di coordinate . . . . . . . . . . . 1.3.6 Condizioni per l’esistenza del fattore integrante 1.4 Le equazioni di Pfaff . . . . . . . . . . . . . . . . . . . 1.4.1 Il problema di Pfaff . . . . . . . . . . . . . . . 1.4.2 Interpretazione geometrica . . . . . . . . . . . 1.4.3 I teoremi di Carathéodory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Gli assiomi della termodinamica 2.1 Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Sistemi termodinamici . . . . . . . . . . . . . . . . . 2.1.2 L’equilibrio termodinamico . . . . . . . . . . . . . . 2.1.3 Variabili intensive e variabili estensive . . . . . . . . 2.1.4 Sistemi accoppiati . . . . . . . . . . . . . . . . . . . 2.2 La temperatura empirica . . . . . . . . . . . . . . . . . . . . 2.2.1 Il principio zero della termodinamica . . . . . . . . . 2.2.2 Il concetto di temperatura . . . . . . . . . . . . . . . 2.3 Lavoro e calore . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Il lavoro per i sistemi termodinamici . . . . . . . . . 2.3.2 Trasformazioni quasi-statiche . . . . . . . . . . . . . 2.3.3 Forze generalizzate e lavoro termodinamico . . . . . 2.3.4 Il primo principio della termodinamica; il concetto di 2.4 L’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Processi reversibili ed irreversibili . . . . . . . . . . . 2.4.2 Il primo principio in forma differenziale . . . . . . . 2.4.3 Il secondo principio della termodinamica; l’entropia . vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . calore . . . . . . . . . . . . 1 1 1 2 4 4 5 7 8 8 8 10 11 13 16 19 19 20 21 28 28 28 29 29 30 32 32 33 35 35 36 37 39 42 42 43 44 2.5 2.4.4 I cicli 2.5.1 2.5.2 2.5.3 Variazione di entropia nei processi reali termodinamici . . . . . . . . . . . . . . . La disuguaglianza di Clausius . . . . . . Il rendimento di un ciclo . . . . . . . . . Il ciclo di Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 49 49 51 52 3 Termodinamica classica e termodinamica assiomatica 54 3.1 Gli enunciati classici del II Principio . . . . . . . . . . . . . . . . 54 3.2 La teoria del fattore integrante di Clausius . . . . . . . . . . . . . 54 3.3 Vantaggi di una formulazione assiomatica . . . . . . . . . . . . . 59 Bibliografia 62 vii Capitolo 1 I teoremi di Carathéodory 1.1 1.1.1 Superfici Gli insiemi di livello ed il teorema di Dini Sia A ∈ Rn un generico insieme aperto e connesso 1 ; data una funzione φ : Rn ⊇ A → R, l’equazione φ(~x) = φ(x1 , . . . , xn ) = C, C∈R (1.1) determina una relazione in Rn . L’insieme ΣC = {~x ∈ A ⊆ Rn | φ(~x) = C} dei punti di Rn che soddisfano la (1.1) prende il nome di insieme di livello di φ. L’insieme ΣC è interpretabile come l’intersezione del grafico di y = φ(~x) con l’iperpiano y = C; al variare di C in R la (1.1) individua una famiglia continua di insiemi di livello di φ. Se la funzione φ è monodroma in A (ossia se assume un unico valore nel punto considerato), allora i due generici insiemi di livello ΣC e ΣC ′ , con C 6= C ′ non avranno alcun punto in comune. Può succedere, sotto opportune condizioni, che la (1.1) sia esplicitabile (almeno localmente) rispetto ad una delle n variabili x1 , . . . , xn , che indicheremo con xi ; quando ciò accade è possibile risolvere la (1.1) ricavando xi in funzione delle restanti n − 1 variabili x1 , . . . , xi−1 , xi+1 , . . . , xn . In questo caso ΣC coincide (almeno localmente) con il grafico di una funzione di n − 1 variabili della forma z ≡ xi = χ(i) (x1 , . . . , xi−1 , xi+1 , . . . , xn ). (1.2) Le funzioni tipo χ(i) (il pedice i indica che è stata esplicitata la i-esima variabile) sono definite in modo implicito dall’equazione (1.1). Formalizziamo quanto detto con una definizione precisa. Sia ~x = (x1 , . . . , xn ) ∈ Rn , indicheremo con ~x = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) ∈ Rn−1 la restrizione del vettore posizione ~x all’ipersuperfice (n − 1)-dimensionale relativa agli assi coordinati x1 , . . . , xi−1 , xi+1 , . . . , xn ; possiamo introdurre la seguente Definizione 1 (funzione implicita) Sia φ : Rn ⊇ A → R. La fuzione z ≡ xi = χ(i) (~x), con ~x ∈ B ⊆ Rn−1 , si dice definita implicitamente dall’equazione (1.1) se accade che: 1 Nel seguito, salvo avviso contrario, con il simbolo A indicheremo sempre un sottoinsieme di Rn aperto e connesso. 1 • il grafico di χ(i) è contenuto in A, ossia Graf [χ(i) ] ⊂ A; • per ogni ~x ∈ B deve valere che φ(~x, χ(i) (~x)) = C. Le condizioni sufficienti a garantire esistenza ed unicità di una funzione implicita sono contenuti nel seguente, importante Teorema 1 (delle funzioni implicite) Sia φ : Rn ⊇ A → R; se accade che • φe ∂φ ∂xi sono continue in A; • nel punto ~y = (~y , yi ) ∈ A si ha φ(~y ) = φ(~y , yi ) = C e ∂φ 6= 0; ∂xi ~y allora esiste un intorno B ⊂ Rn−1 di ~y ed un’unica funzione χ(i) tale che χ(i) (~y ) = yi e φ(~x, χ(i) (~x)) = C ∀ ~x ∈ B. Inoltre, se vale che • φ è di classe C 1 (A) 2 ; allora χ(i) è di classe C 1 (B) e, per ogni k 6= i, vale la seguente formula: ∂φ ∂χ(i) ∂xk ∀ ~x ∈ B. = − ∂φ ∂xk ~x (1.3) ∂xi (~ x,χ(i) (~ x)) Per una dimostrazione del Teorema delle funzioni implicite si può consultare [Pagani-Salsa, volume I, pg. 404]. Dall’enunciato del teorema segue che la regolarità della funzione φ si trasferisce alla funzione χ(i) , ossia se φ ∈ C k (A), allora χ(i) ∈ C k (I). 1.1.2 Il Piano tangente ad una superficie Il Teorema delle funzioni implicite permette di dare una notevole caratterizzazione degli insiemi di livello ΣC , relativi ad equazioni del tipo (1.1), nel caso in cui la funzione φ sia almeno di classe C 1 . Nell’intorno dei punti in cui accade che ∂φ ∂φ ~ 6= 0, (1.4) ,..., ∇φ ≡ ∂x1 ∂xn l’insieme ΣC è il grafico di una funzione del tipo (1.2) di classe C 1 . Chiameremo regolari tutti i punti di Rn che verificano la (1.4) mentre chiameremo singolari ~ = 0. Inoltre, diamo la seguente quei punti per cui ∇φ 2 La funzione φ è di classe C 1 (A) se tutte le derivate parziali e sono continue in A. 2 ∂φ ∂xk con k = 1, . . . , n esistono Definizione 2 (funzione regolare) Sia φ : Rn ⊇ A → R una funzione di classe C 1 (A); se tutti i punti di A sono regolari per φ, allora diremo che φ è una funzione regolare su A. Se ~ y = (~y , yi ) è un punto in cui la funzione φ è regolare allora, poiché χ(i) è C 1 in un intorno di ~y, la funzione χ(i) deve ammette in tale intorno l’aprossimazione lineare del primo ordine data da X ∂χ(i) (xk − yk ) + o(k~x − ~y k). χ(i) (~x) = χ(i) (~y ) + (1.5) ∂xk ~y k6=i Osserviamo che la funzione xi = χ(i) (~y ) + X ∂χ(i) (xk − yk ) ∂xk ~y (1.6) k6=i ha come grafico in Rn una iperpiano (n − 1)-dimensionale passante per il punto ~y = (~y , yi ) e la (1.5) equivale ad affermare che essa è la funzione lineare (o meglio affine) che meglio approssima χ(i) in un intorno di ~y . L’iperpiano affine definito dall’equazione (1.6) prende il nome di piano tangente al grafico di χ(i) nel punto ~y = (~y , yi ). Quindi, come conseguenza del Teorema delle funzioni implicite, segue che l’iperpiano affine (1.6) è tangente all’insieme di livello ΣC nel punto ~y ; inoltre ricordando che χ(i) (~y ) = yi ed utilizzando la formula (1.3), l’equazione (1.6) per il piano tangente può essere riscritta in una forma simmetrica rispetto a tutte le variabili nel modo seguente: n X ∂φ ~ y ) · (~x − ~y) = 0. (xk − yk ) = ∇φ(~ (1.7) ∂xk y~ k=1 L’equazione (1.7) ci permette di fare le seguenti, importanti, considerazioni: 1. se φ è almeno di classe C 1 (A), allora in tutti i punti regolari per φ l’insieme di livello ΣC è localmente approssimabile con un iperpiano (n − 1)-dimensionale definito dall’equazione (1.7); ~ y ) è 2. se ~y ∈ ΣC è un punto regolare per la funzione φ allora il vettore ∇φ(~ ortogonale al piano tangente in ~y all’insieme di livello ΣC ; in questo caso ~ y ) è ortogonale a ΣC in ~y ; si usa dire che il vettore ∇φ(~ 3. se tutti i punti di ΣC sono regolari per φ, allora ΣC ammette un piano tangente in ogni punto; diremo in questo caso che l’insieme ΣC è liscio e chiameremo ΣC superficie equipotenziale o di livello di φ; 4. se la funzione φ : Rn ⊇ A → R è regolare e monodroma in A, allora il campo vettoriale gradiente definito da ~ : Rn ⊇ A → Rn ∇φ gode della proprietà di essere ortogonale alle superfici equipotenziali di φ. 3 1.2 1.2.1 Curve Definizioni generali Sia γ un sottoinsieme di Rn e supponiamo che esista una funzione continua ~x : [a, b] ⊇ R → Rn , con [a, b] intervallo della retta reale, tale che l’immagine di ~x sia appunto γ; diremo allora che ~x è una parametrizzazione dell’insieme γ. È evidente che un medesimo insieme γ può avere più di una parametrizzazione. Definizione 3 (curva e curva chiusa) Chiameremo curva in Rn un sottoinsieme γ ⊂ Rn munito di una parametrizzazione ~x = ~x(t) = (x1 (t), . . . , xn (t)) con t ∈ [a, b] ⊆ R. Diremo che γ è una curva chiusa se accade che ~x(a) = ~x(b). Chiameremo l’insieme γ sostegno della curva. Una curva, quindi, deve essere sempre determinata dalla coppia sostegno-parametrizzazione. In accordo alla Definizione 2 vale la Definizione 4 (curva regolare) Diremo che la curva γ, parametrizzata da ~x = ~x(t) con t ∈ [a, b], è regolare se: • ~x è almeno di classe C 1 ([a, b]); • per ogni t ∈ [a, b] d~x ~v (t) ≡ 6 0. = dt t dx1 dxn x Il vettore ~v = d~ prende il nome di vettore tangente alla curva dt = dt , . . . , dt γ o anche vettore velocità. Il nome è giustificato dal fatto che il sottospazio affine di equazione d~x ~ ξ(τ ) = ~x(t0 ) + τ = ~x(t0 ) + τ~v (t0 ) τ ∈R dt t0 descrive la retta tangente al sostegno della curva nel punto ~x(t0 ). Definizione 5 (curva integrale) Sia γ una curva regolare parametrizzata da ~x : [a, b] → Rn . Diremo che γ è una curva integrale per il campo vettoriale F~ : A ⊇ Rn → Rn se, per ogni t ∈ [a, b], sono verificate le seguenti condizioni: • ~x(t) ∈ A; • ~v (t) = F~ (~x(t)). Le proprietà delle curve integrali sono espresse nel seguente Lemma 1 Se il campo vettoriale F~ = F~ (~x) è di classe C k (A) con k ≥ 1, allora: 1. per ogni punto ~x0 ∈ A passa una ed una sola curva integrale γ(~x0 ; t) del campo 3 ; 2. sul proprio intervallo di definizione, la parametrizzazione di tale curva è di classe C k+1 ; 3 Le ipotesi assunte sono sovrabbondanti: per l’esistenza è necessario che il campo F ~ sia continuo, mentre per l’unicità occorre assumere che esso sia localmente lipschitziano. 4 3. le curve γ(~x0 ; t) sono di classe C 1 rispetto alla variabile ~x0 . Dimostrazione Daremo solo un breve accenno della dimostrazione: 1. Consideriamo la curva integrale γ(~x0 ; t) parametrizzata da ~x = ~x(t) tale che ~x0 = ~x(t0 ); per definizione di curva integrale essa deve soddisfare d~x = F~ (~x(t)) dt t (1.8) ~x(t ) = ~x . 0 0 Quindi si tratta di un tipico problema di Cauchy con dato iniziale (t0 , ~x0 ) ed il Teorema di esistenza ed unicità afferma che in un intorno [t0 − δ1 , t0 + δ2 ] la curva soluzione ~x = ~x(t) esiste ed è unica. In oltre l’intervallo di definizione può essere sempre prolungato ad un intervallo massimale [a, b]. Indicheremo con γ(~x0 ; t) la curva soluzione definita sull’intervallo massimale relativa al dato iniziale ~x0 e parametrizzata nel parametro t. 2. Per ciò che riguarda la regolarita della parametrizzazione ~x = ~x(t) osserviamo che essa deve essere sicuramente continua poiché per ogni t deve esistere la derivata. Osserviamo che date due funzioni f e h rispettivamente di classe C p e C q la funzione composta (f ◦ h) sarà di classe C r con r = min{p, q}. Dalla prima delle (1.8) risulta che se si assume la funzione ~x = ~x(t) di classe C p con p < k allora al fuzione composta che compare a secondo membro sarà di classe C p e poiché questa è la derivata della parametrizzazione ~x = ~x(t) risulta che la parametrizzazione stessa deve essere di classe C p+1 . Possiamo allora iterare il ragionamento fino a ottenere che se la funzione F~ è di classe C k allora la curva soluzione ammetterà una parametrizzazione di classe C k+1 . 3. Il Teorema sulla dipendenza continua dai dati iniziali asserisce che se γ(~x0 ; t) e γ(x~′ 0 ; t) sono due curve soluzione del problema (1.8) parametrizzate rispettivamente da ~x = ~x(t) e x~′ = x~′ (t) con condizioni iniziali x~0 = ~x(t0 ) e x~′ 0 = x~′ (t0 ) allora vale che ||~x(t) − x~′ (t)|| ≤ ||~x0 − ~x′0 || eL(b−a) ∀t ∈ [a, b]; dove L è una opportuna costante. Questo prova che la curva γ(~x0 ; t) è sicuramente continua nel parametro ~x0 . Inoltre è possibile dimostrare che la curva deve essere anche derivabile con continuità rispetto a ~x0 . ◭ Si può consultare [Pagani-Salsa, volume II, cap. 4] per una dimostrazione precisa del precedente Lemma . Il Lemma 1 dice che l’insieme A può essere rappresentato come unione disgiunta di tutte le curve integrali del campo F~ ; questo si esprime dicendo che la famiglia delle curve integrali costituisce una fogliazione di A. 1.2.2 Curve appartenenti ad una superficie Definizione 6 Dato l’insieme di livello ΣC descritto dall’equazione φ(~x) = C, diremo che la curva parametrizzata da ~x = ~x(t) giace su ΣC se il sostegno γ della curva è tutto contenuto in ΣC , ossia se φ(~x(t)) = C ∀ t ∈ [a, b]. 5 Consideriamo la superficie di livello ΣC definita da φ(~x) = C e sia γ una curva regolare appartenente a tale superficie e parametrizzata da ~x = ~x(t) con t ∈ [a, b]; la restrizione della funzione φ sul sostegno della curva fornisce un’applicazione dall’intervallo [a, b] in R definita da [a, b] ∋ t → (φ ◦ ~x)(t) ≡ φ(~x(t)) ∈ R. Poiché la curva γ giace sulla superficie la funzione composta (φ ◦ ~x) assume sempre il valore costante C e quindi, usando la regola di derivazioni per funzioni composte, si ha n 0= X ∂φ dxk d ~ · ~v (φ ◦ ~x) = = ∇φ dt ∂xk dt ∀ t ∈ [a, b]. (1.9) k=1 Dalla (1.9) si deduce che il vettore velocità ~v = ~v (t) è sempre ortogonale al ~ applicato in ~x = ~x(t) e quindi giace nel piano tangente in quel punto vettore ∇φ alla superficie ΣC . Viceversa vale anche la seguente Proposizione 1 Sia φ : Rn ⊇ A → R una funzione regolare in A. Se la curva regolare γ ⊂ A, parametrizzata da ~x = ~x(t), soddisfa all’equazione differenziale n X ∂φ dxk ~ · ~v = 0 = ∇φ ∂xk dt (1.10) k=1 allora γ giace su di una superficie equipotenziale di φ. Dimostrazione Basta osservare che il primo membro della (1.10), se valutato lungo la curva ~x = ~x(t), è la derivata rispetto a t della funzione di una variabile (φ◦~x)(t) = φ(~x(t)). La condizione di annullamento allora equivale a φ(~x(t)) = C con C ∈ R. Ciò mostra che la curva γ deve appartenere ad una superficie equipotenziale di φ. ◭ Abbiamo visto che il vettore velocità di una curva che giace su di una superficie equipotenziale ΣC appartiene al piano tangente alla superficie stessa, questo ci permette di dare una nuova caratterizzazione per il piano tangente. Il piano tangente in un punto a ΣC è l’insieme di tutti i vettori velocità di tutte le possibili curve contenute in ΣC che passano per il punto considerato. Quanto affermato è il contenuto della seguente Proposizione 2 Sia ~x0 un punto appartenente ad una superficie regolare ΣC definita da φ(~x) = C; se ~v è un vettore applicato in ~x0 ed appartenete al piano tangente a ΣC in ~x0 , allora esiste una curva appartenete alla superficie, passante per ~x0 e che in ~x0 possiede un vettore velocita uguale a ~v . Dimostrazione Consideriamo il seguente campo vettoriale F~ (~x) = ~v − ~ x) ~v · ∇φ(~ ~ x)||2 ||∇φ(~ 6 ! ~ x). ∇φ(~ In ogni punto della superficie il campo F~ è ortogonale al campo gradiente (e quindi giace nel piano tangente), infatti ! ~ x) ~ v · ∇φ(~ ~ x) = ~v · ∇φ(~ ~ x) − ~ x)||2 = 0. F~ (~x) · ∇φ(~ ||∇φ(~ ~ x)||2 ||∇φ(~ ~ x0 ) = 0. Poiché il campo F~ è Inoltre F~ (~x0 ) = ~v poiché, per ipotesi, ~v · ∇φ(~ continuo (in virtù del fatto che φ è, per ipotesi, almeno C 1 e quindi il campo gradiente è continuo), esso ammetterà una curva integrale ~x = ~x(t) tale che ~x(0) = ~x0 . Allora, in base alla Definizione 5 si ha che: • la curva ha in ~x0 velocità pari a d~x = F~ (~x0 ) = ~v ; dt t=0 • valutando la derivata di (φ ◦ ~x) lungo la curva d(φ ◦ ~x) ~ x(t)) · d~x = ∇φ(~ ~ x(t)) · F~ (~x(t)) = 0. = ∇φ(~ dt dt t t In particolare si ottiene che l’espressione φ(~x(t)) assume un valore costante lungo la curva e poiché, per ipotesi, φ(~x0 ) = C il valore di questa costante risulta essere appunto C. Questo prova che la curva integrale ~x = ~x(t) appartiene alla superficie equipotenziale ΣC . ◭ 1.2.3 Differenziazione lungo una curva Sia φ : Rn ⊇ A → R una funzione C 1 (A) e sia γ una curva regolare contenuta in A e parametrizzata da ~x = ~x(t) con t ∈ [a, b]. La restrizione della funzione φ alla curva γ fornisce un’applicazione da [a, b] in R. Indicando con dφ il differenziale di questa applicazione 4 si ottiene che ! n n X X ∂φ ∂φ dxk dt = dxk (1.11) dφ = ∂xk dt ∂xk k=1 k=1 k dove dxk = dx dt dt è il differenziale della funzione di una variabile xk = xk (t). L’espressione (1.11) fornisce l’incremento infinitesimo della funzione φ quando si compie uno spostamento infinitesimo lungo la curva ~x = ~x(t). La (1.11) può essere scritta nella seguente forma più sintetica ~ · d~x. dφ = ∇φ (1.12) Il vettore d~x = (dx1 , . . . , dxn ) prende il nome di vettore spostamento infinitesimo; esso è un vettore di lunghezza indeterminata (nel senso che rappresenta una quantità infinitesima) ed indica la direzione lungo la quale si compie la “ ” f differenziale di una funzione f : R 7→ R è definito da df = ddt dt; questa relazione dice che l’incremento infinitesimo df della funzione f è proporzionale all’incremento infinitesimo della variabile indipendente t, con coefficiente di proporzionalità dato dalla derivata di f . 4 Il 7 variazione. Se si valuta la variazione infinitesima della funzione φ lungo una qualsiasi curva che giace su di una superficie equipotenziale ΣC si ottiene che dφ = 0 dato che il valore di φ è costante lungo dette curve; questo implica che ~ · d~x = 0. dφ = ∇φ (1.13) Viceversa tutte le curve che soddisfano l’equazione (1.13) devono avere la proprietà che qualunque spostamento infinitesimo lungo esse avviene in direzione ortogonale al gradiente di φ, ossia tali spostamenti sono sempre contenuti nei piani tangenti ad una superficie equipotenziale di φ; inoltre, dato che lungo ogni curva, per definizione vale che d~x = dt ~v , risulta che le equazioni (1.10) e (1.13) sono perfettamente equivalenti ed ammettono come soluzioni tutte le curve che giacciono sulle superfici equipotenziali di φ. Tuttavia, poiché come conseguenza della Proposizione 2 i piani tangenti alle superfici equipotenziali coincidono con gli insiemi di tutti i vettori velocità di tutte le curve contenute sulla superficie stessa, e poiché ~v ∝ d~x, il problema della soluzione dell’equazione (1.13) può essere ricondotto al problema della ricerca di quelle superfici che ammettono in ~ ogni punto piano tangente ortogonale a ∇φ; tali superfici sono appunto tutte quelle descritte da φ(~x) = C al variare di C in R, ossia l’intera famiglia di superfici equipotenziali ΣC . 1.3 1.3.1 Le 1-forme Definizione generale Sia ~g : Rn ⊇ A → Rn un campo vettoriale non singolare (ossia che non si annulla in nessun punto di A) e di classe C 1 (A) 5 . Indicando con d~x = (dx1 , . . . , dxn ) il vettore spostamento infinitesimo possiamo introdurre la seguente Definizione 7 (1-forma) Chiameremo forma differenziale lineare o più brevemente 1-forma associata al campo vettoriale ~g l’espressione formale ω(~x) = ~g (~x) · d~x = n X gk (~x)dxk . (1.14) k=1 1.3.2 1-forme esatte Se il il campo ~g = ~g (~x) è ottenibile come gradiente di una funzione scalare ~ x), diremo che φ è una funzione φ : Rn ⊇ A → R, ossia se vale che ~g (~x) = ∇φ(~ potenziale per il campo ~g; in tal caso il campo vettoriale prende il nome di campo conservativo. Osserviamo, banalmente, che se φ è una funzione potenziale per il campo ~g allora anche la funzione φ′ = φ + c, con c generica costante reale, è una funzione potenziale per ~g ; se un campo vettoriale ammette una funzione potenziale, allora essa è sempre definita a meno di una costante arbitraria. 5 Il campo vettoriale ~g è di classe C 1 (A) se ogni componente gk = gk (~ x) è di classe C 1 (A) ∂gk ossia se gk ammette in A tutte le derivate parziali ∂x (con i = 1, . . . , n) che devono essere, i inoltre, continue. Nel seguito, salvo avviso contrario, supporremo sempre che il generico campo 1 ~g sia C (A) e non singolare. 8 Poiché per ipotesi il campo ~g è di classe C 1 (A), affinché φ possa essere una funzione potenziale per ~g, è necessario almeno che φ sia di classe C 2 (A) 6 . Definizione 8 (1-forma esatta) Sia ω una 1-forma associata al campo ~g ; se φ è una funzione potenziale per il campo ~g diremo che ω è una 1-forma esatta. Dalla Definizione 8 segue che se ω è esatta e se φ è la funzione potenziale per ~g, allora in accordo alla (1.12) possiamo scrivere ~ · d~x = dφ. ω = ~g · d~x = ∇φ Quindi una 1-forma esatta coincide sempre con il differenziale di una funzione scalare φ che sia almeno di classe C 2 . Una condizione necessaria per l’esattezza di una 1-forma è espressa dalla seguente Proposizione 3 Sia ω una 1-forma associata al campo ~g = (g1 , . . . , gn ). Se ω è una forma esatta, allora in A deve valere che ∂gi ∂gk = ∂xk ∂xi ∀ i, k = 1, . . . , n. (1.15) Dimostrazione Le n relazioni che si ottengono dalle (1.15) ponendo i = k sono delle banali identità, quindi supponiamo che i 6= k. poiché per ipotesi ω è esatta, esiste una funzione potenziale φ ∈ C 2 (A) tale che gi = ∂φ ∂xi e gk = ∂φ . ∂xk Poiché φ ∈ C 2 (A), si può applicare il Teorema di Schwarz sull’invertibilità dell’ordine di derivazione e quindi ∂2φ ∂ 2φ ∂gk ∂gi = = = . ∂xk ∂xk ∂xi ∂xi ∂xk ∂xi Ciò prova l’asserto. ◭ Per un fissato n le (1.15) rappresenta un sistema di n(n − 1)/2 equazioni indipendenti, tante quante sono le coppie di indici distinti i 6= k che è possibile ottenere da un insieme di n indici 7 . Un campo vettoriale che soddisfa le (1.15) viene detto irrotazionale; l’enunciato della Proposizione 3 può essere riformulato nel seguente modo; se la 1-forma ω è esatta, allora il campo vettoriale ~g ad essa associato deve essere irrotazionale. Va tenuto presente che in generale non vale l’inverso (ameno di fare alcune ipotesi sul dominio di definizione). Facciamo alcuni esempi: 2 φ (con i, k = φ deve ammettere in A tutte le derivate parziali seconde ∂x∂ ∂x i k 1, . . . , n) che devono essere, inoltre, continue. 7 Più in generale dato un insieme di n oggetti distinti (ad esempio n indici) siamo interessati a contare quanti sottoinsiemi di m ≤ n oggetti distinti si possono ottenere. Abbiamo n scelte per il primo, n − 1 per il secondo e cosı̀ di seguito fino ad avere n − m + 1 scelte per l’ultimo oggetto. Infine, poiché non siamo interessati a contare sottoinsiemi che differiscono solo per la permutazione dei m elementi, dobbiamo dividere il risultato del conteggio per m!. In definitiva n(n−1)...(n−m+1) il numero dei possibili sottoinsiemi è . m! 6 Quindi 9 • In dimensione n = 2 sia ~g(x1 , x2 ) = (g1 , g2 ) un campo vettoriale; le condizioni di irrotazionalità (1.15) si riducono all’unica equazione non banale ∂g1 /∂x2 = ∂g2 /∂x1 . • In dimensione n = 3 sia ~g (x1 , x2 , x3 ) = (g1 , g2 , g3 ) un campo vettoriale; le tre condizioni di irrotazionalità (1.15) non banali possono essere ~ × ~g = 0. sinteticamente riassunte dall’equazione vettoriale rot ~g ≡ ∇ 1.3.3 L’integrale di linea Sia ω una 1-forma associata al campo vettoriale ~g e sia γ una curva regolare contenuta in A e parametrizzata da ~x = ~x(t) con t ∈ [a, b]; possiamo introdurre la seguente Definizione 9 Chiameremo integrale curvilineo di ω lungo γ la seguente espressione: Z b Z ~g (~x(t)) · ~v (t)dt (1.16) ω≡ a γ dove ~v = ~v (t) è il campo di velocità della curva γ associato alla parametrizzazione ~x = ~x(t). Il valore dell’integrale di linea (1.16) non dipende dal tipo di parametrizzazione data alla curva γ ma solo dal verso di percorrenza di tale curva. Supponiamo che t sia una funzione continua e strettamente monotona di un nuovo parametro t′ ∈ [c, d], ossia t = t(t′ ) e sia, inoltre, ~y(t′ ) = ~x(t(t′ )) la nuova parametrizzazione. Vale che d~x dt ′ d~x d~y dt = dt = ~v dt. wdt ~ ′ = ′ dt′ = dt dt dt′ dt Se γ è la curva parametrizzata in t mentre γ ′ quella parametrizzata in t′ vale che Z Z Z Z d γ′ t(d) ~g (~y (t′ )) · w(t ~ ′ )dt′ = ω= c ω, ~g (~x(t)) · ~v (t)dt = ± t(c) γ dove si ha il segno + se t è una funzione strettamente crescente di t′ per cui t(c) = a e t(d) = b (la curva viene percorsa nello stesso verso secondo ambo le parametrizzazioni), mentre si ha il segno − se t è strettamente decrescente per cui t(c) = b e t(d) = a (le due parametrizzazioni si differenziano per il verso di percorrenza della curva). Quando l’integrale di linea H (1.16) viene valutato lungo una curva chiusa γ esso si indica con il simbolo γ ω. Proposizione 4 Sia ω una 1-forma esatta che ammette una funzione potenziale φ. Se γ è una curva parametrizzata da ~x = ~x(t) con t ∈ [a, b] e tale che ~x(a) = x~′ e ~x(b) = x~′′ , allora Z ω = φ(x~′′ ) − φ(x~′ ), γ ossia il valore dell’integrale dipende solo dagli estremi della curva, indipendentemente dalla curva scelta. 10 Dimostrazione Poiché, per ipotesi, il campo ~g è conservativo ed in particolare coincide con il campo gradiente di φ si ha che dφ ~g (~x(t)) · ~v (t) = . dt ~ x(t) Quindi Z γ ω= Z b a dφ b dt = φ(~x(t))|a = φ(x~′′ ) − φ(x~′ ) dt ~x(t) Cio conclude la dimostrazione. ◭ Come ovvia conseguenza della Proposizione appena dimostrata segue che l’integrale di linea di una 1-forma esatta su ogni curva chiusa si annulla identicamente. Si dimostra che vale anche il viceversa, ossia che se l’integrale di linea di una 1-forma si annulla identicamente su tutte le curve chiuse contenute in A, allora la 1-forma è esatta in A; una dimostrazione di questo asserto è data in [Pagani-Salsa, volume II, pg. 47]. 1.3.4 Il fattore integrante Sia ω una 1-forma associata al campo vettoriale ~g ∈ C 1 (A); Definizione 10 (fattore integrante) Se la 1-forma ω(~x) = n X gk (~x)dxk k=1 non è esatta e se esiste una funzione µ : Rn ⊇ A → R tale che: • µ è di classe C 1 (A); • µ(~x) 6= 0 per ogni ~x ∈ A; • la forma ω ′ (~x) = µ(~x)ω(~x) = n X µ(~x)gk (~x)dxk k=1 è esatta; allora diremo che la funzione µ è un fattore integrante per la 1-forma ω. Vediamo a quali condizioni deve obbedire un campo ~g affinché la 1-forma ad esso associato ammetti un fattore integrante. Se µ è un fattore integrante pre la 1-forma ω = ~g · d~x allora µω è una forma esatta e dalla Proposizione 3 segue che il campo µ~g deve essere irrotazionale. Applicando le condizioni di irrotazionalità (1.15) al campo µ~g si ottiene che ∂ (µgi ) = ∂xk ⇓ ∂µ ∂gi + gi = µ ∂xk ∂xk ⇓ ∂gk ∂gi µ = − ∂xk ∂xi ∂ (µgk ) ∂xi µ ∂µ ∂gk + gk ∂xi ∂xi gk ∂µ ∂µ − gi ∂xi ∂xk 11 i, k = 1, · · · , n. (1.17) Le (1.17) rappresentano un sistema di n(n − 1)/2 equazioni differenziali indipendenti che devono essere simultaneamente verificate dal fattore integrante µ. Consideriamo tre indici distinti s, k, i e scriviamo le tre seguenti relazioni ∂gi ∂µ ∂µ ∂gk gs µ = gs gk − − gs gi ∂x ∂x ∂x ∂x k i i k ∂gs ∂µ ∂µ ∂gi gk µ = gk gi − − gk gs ∂xi ∂xs ∂xs ∂xi ∂µ ∂µ ∂gs ∂gk gi µ = gi gs − − gi gk ∂xs ∂xk ∂xk ∂xs che sommate membro a membro, ricordando che µ 6= 0, forniscono ∂gi ∂gs ∂gk ∂gk ∂gi ∂gs + gk + gi =0 gs − − − ∂xk ∂xi ∂xi ∂xs ∂xs ∂xk (1.18) che indicheremo anche con il simbolo D~xsik [~g] = 0 dove D~xsik ha il significato di operatore differenziale sul campo ~g. Le (1.18) rappresentano un insieme di n(n − 1)(n − 2)/6 condizioni indipendenti (cfr. nota 7) per il campo vettoriale ~g, necessarie affinché la 1-forma ad esso associato ammetti un fattore integrante; per tale motivo esse sono chiamate condizioni di completa integrabilità. Osserviamo che se ω è una 1-forma esatta relativa al campo irrotazionale ~g, allora le (1.18) sono banalmente verificate, mentre le (1.17) si riducono a gk ∂µ ∂µ = gi ∂xi ∂xk i 6= k = 1, . . . , n che, in modo ovvio, ammettono come soluzione tutte le funzioni del tipo µ(~x) = c con c costante reale. Lemma 2 Sia ~g un generico campo vettoriali su A e α ∈ C 1 (A) una funzione scalare; allora D~xsik si comporta come un operatore omogeneo di grado 1 rispetto alla moltiplicazione per una funzione scalare. Dimostrazione La dimostrazione si riduce ad un conto diretto; ∂α ∂gi ∂α ∂gk ∂(αgi ) ∂(αgk ) = gs gi + αgs . − − gk − gs ∂xk ∂xi ∂xk ∂xi ∂xk ∂xi Se si sommano tre termini di questo tipo con gli indici messi a rotazione gli addendi contenenti le derivate parziali di α si annullano a vicenda e quindi si ottiene che D~xsik [α~g ] = αD~xsik [~g ] (1.19) Ciò conclude la dimostrazione. ◭ Come immediata conseguenza del Lemma 2 è evidente che se il campo ~g soddisfa le condizioni di completa integrabilità, allora le soddisfa anche ogni campo della 12 forma µ~g. Ha senso scrivere le condizioni (1.18) solo nel caso in cui si ha a che fare con campi vettoriali di dimensione n ≥ 3 (infatti servono almeno tre indici distinti); come vedremo nel Paragrafo 1.3.6, ciò deriva dal fatto che per n = 2 ogni 1-forma ammette sempre un fattore integrante e quindi se vi fossero condizioni tipo le (1.18), esse dovrebbero essere banalmente verificate da ogni campo vettoriale bidimensionale. Nel caso n = 3 le (1.18) si riducono ad un’unica condizione non banale sulle componenti del campo ~g = (g1 , g2 , g3 ) che può essere scritta sinteticamente ~ × ~g ) · ~g = 0. come (∇ Se una 1-forma ammette un fattore integrante allora essa possiede tutta una famiglia di fattori integrante; in altre parole la scelta del fattore integrante per una 1-forma non è univoca. Questo è il contenuto del seguente Teorema 2 Sia ω una 1-forma relativa al campo vettoriale ~g su A e sia µ un fattore integrante per ω. Per definizione di fattore integrante il campo vettoriale µ~g si può esprimere come il gradiente di una funzione potenziale φ. Se Ψ : R → R è una generica funzione continua che ammette come primitiva la funzione ψ, allora µ′ (~x) = Ψ(φ(~x))µ(~x) è un nuovo fattore integrante per ω ed il campo µ′~g ammetterà come funzione potenziale φ′ (~x) = (ψ ◦ φ)(~x) ≡ ψ(φ(~x)). Dimostrazione La 1-forma µω è il differenziale della funzione potenziale φ, ossia µω = dφ. Consideriamo la funzione composta φ′ (~x) = (ψ ◦ φ)(~x) ≡ ψ(φ(~x)) dove la funzione ψ : R → R è definita per ipotesi da Z ψ(ξ) = Ψ(ξ)dξ. Poiché Ψ è continua in R si ha che ψ ∈ C 1 (R) e quindi la funzione composta φ′ = ψ ◦ φ è sicuramente differenziabile. Per la regola di differenziazione delle funzioni composte si ottiene che dφ′ = d(ψ ◦ φ) = dψ ~ (∇φ · d~x) = Ψ(φ)dφ. dφ In definitiva vale che Ψ(φ)µω = Ψ(φ)dφ = dφ′ e ciò mostra che µ′ = Ψ(φ)µ è un nuovo fattore integrante per ω. ◭ 1.3.5 Cambiamento di coordinate Ogni punto di Rn può essere messo in corrispondenza biunivoca con una nupla di numeri reali; stabilire una tale corrispondenza significa definire quello che si chiama un sistema di coordinate. Ovviamente i modi in cui è possibile costruire una sistema di coordinate sono molteplici e può essere interessante studiare le relazioni che intercorrono tra due diversi sistemi di coordinate. In questo paragrafo discuteremo brevemente il comportamento delle 1-forme sotto 13 cambiamenti di coordinate. Consideriamo i due sistemi di coordinate X = {x1 , . . . , xn } ed Y = {y1 , . . . , yn } definiti in un aperto A ⊆ Rn ; chiameremo cambiamento di coordinate ogni funzione Φ : Y → X che sia biunivoca ed almeno di classe C 1 insieme alla sua inversa. In genere rappresenteremo un cambiamento di coordinate nel seguente modo x1 = x1 (y1 , . . . , yn ) .. .. . . xn = xn (y1 , . . . , yn ) o più sinteticamente scrivendo ~x = Φ(~y ). Un campo vettoriale su un sottoinsieme di Rn è un oggetto astratto nel senso che è definito in modo indipendente dalla particolare scelta di coordinate e questo vale ovviamente anche per le 1forme. Supponiamo che ω = ω(x1 , . . . , xn ) sia una 1-forma rappresentata nel sistema di coordinate X mentre Ω = Ω(y1 , . . . , yn ) sia la sua rappresentazione nel sistema di coordinate Y , ossia ω(x1 , . . . , xn ) q Pn g (x k=1 k 1 , . . . , xn )dxk Φ ←→ Ω(y1 , . . . , yn ) q Pn G (y k=1 k 1 , . . . , yn )dyk (1.20) Siamo interessati a determinare la relazione che intercorre tra i campi ~g = ~ = G(y ~ 1 , . . . , yn ) affinché il diagramma (1.20) sia soddisfatto. ~g (x1 , . . . , xn ) e G Poiché se xk = xk (y1 , . . . , yn ), allora dxk = n X ∂xk ∂ys s=1 dys deve valere che ω(Φ(~y )) = = n X k=1 n X gk (Φ(~y ))dxk = n X gk k=1 s=1 n X k=1 = Ω(~y ) ∂xk gk ∂ys dove si è posto Gs (~y ) = ! n X k=1 dys = n X ∂xk s=1 n X ∂ys dys ! Gs (~y)dys s=1 ∂xk gk . ∂ys Φ(~y) (1.21) La (1.21) rappresenta la regola di trasformazione che permette di esprimere lo stesso campo vettoriale in diversi sistemi di coordinate; essa è la nota legge di trasformazione dei vettori cartesiani. ~ lo stesso campo vettoriale espresso rispettivamente nei Lemma 3 Siano ~g e G sistemi di coordinate X ed Y ; se ~g soddisfa le equazioni (1.18) rispetto alle ~ soddisfa le medesime equazioni rispetto alle coordinate coordinate X allora G Y. 14 Dimostrazione Dalla (1.21) si ottiene ∂Gi ∂yk ! n X ∂ ∂xt = gt ∂yk t=1 ∂yi X n n X ∂ 2 xt ∂gt ∂xt gt + . = ∂yk ∂yi ∂yk ∂yi t=1 t=1 Allora, eliminando le derivate seconde in virtù del Teorema di Schwarz, vale che ed osservando che n X ∂Gi ∂gt ∂xt ∂Gk ∂gt ∂xt − = − ∂yk ∂yi ∂yk ∂yi ∂yi ∂yk t=1 n X ∂gt ∂xp ∂gt = ∂yk ∂xp ∂yk p=1 possiamo, infine, scrivere n n X X ∂gt ∂xp ∂xt ∂gt ∂Gk ∂xp ∂xt ∂gp ∂xp ∂xt ∂Gi = − = − − . ∂yk ∂yi ∂xp ∂yk ∂yi ∂yi ∂yk ∂xp ∂xt ∂yk ∂yi t,p=1 t,p=1 Questa relazione esprime la legge di trasformazione di un tensore cartesiano di rango due. Utilizzando l’ultima equazione, la (1.21) ed il fatto che gli indici di sommatoria sono muti si ha ! n n X ∂Gi ∂Gk ∂gp ∂xp ∂xt ∂xm X ∂gt Gs = − − gm ∂yk ∂yi ∂ys t,p=1 ∂xp ∂xt ∂yk ∂yi m=1 n X ∂gp ∂xm ∂xp ∂xt ∂gt − . = gm ∂xp ∂xt ∂ys ∂yk ∂yi m,t,p=1 La precedente relazione è la regola di trasformazione di un tensore cartesiano di rango tre. Utilizzando il fatto che gli indici m, t, p sono muti, si verifica che ~ = Dy~sik [G] n X m,t,p=1 ∂xm ∂xp ∂xt D~xmtp [~g] ∂ys ∂yk ∂yi (1.22) Per ipotesi gli addendi sotto il segno di sommatoria nel secondo membro della (1.22) sono tutti nulli e quindi risulta nullo pure il primo membro; questo conclude la dimostrazione. ◭ Il lemma 3 sostanzialmente asserisce che la completa integrabilità di un campo di vettori è una proprietà indipendente dal particolare sistema di coordinate, ossia è una caratteristica intrinseca del campo vettoriale stesso. D’altra parte anche l’ammettere un fattore integrante è una proprietà intrinseca; per i campi che posseggono un fattore integrante il Lemma 3 può essere dedotto come conseguenza diretta dell’esistenza di un fattore integrante. 15 1.3.6 Condizioni per l’esistenza del fattore integrante Nel Paragrafo 1.3.4 abbiamo dedotto che le equazioni (1.18) sono condizioni necessaria affinché la 1-forma ω associata al un campo vettoriale ~g ammetti un fattore integrante; nel presente paragrafo mostreremo come le (1.18) forniscono anche una condizione sufficiente per l’esistenza del fattore integrante. Come premessa a questo risultato generale dimostreremo che tutte le 1-forme in dimensione n = 2 ammettono sempre un fattore integrante; questo è il contenuto del seguente Lemma 4 Sia ω(x1 , x2 ) = g1 (x1 , x2 )dx1 + g2 (x1 , x2 )dx2 una 1-forma associata al campo vettoriale ~g = (g1 , g2 ) : R2 ⊇ A → R2 , allora la 1-forma ω ammette sempre un fattore integrante µ = µ(x1 , x2 ). Dimostrazione Consideriamo la seguente equazione differenziale ω(x1 , x2 ) = g1 (x1 , x2 )dx1 + g2 (x1 , x2 )dx2 = 0 (1.23) Cerchiamo una curva soluzione della (1.23) parametrizzata da (x1 (t), x2 (t)). Se (v1 (t), v2 (t)) è il campo di velocità associato a tale curva l’equazione (1.23) diviene g1 (x1 (t), x2 (t))v1 (t) + g2 (x1 (t), x2 (t))v2 (t) = 0. Quindi le curve soluzioni della (1.23) hanno in ogni punto vettore velocità ortogonale al campo (g1 , g2 ). Se in un sottoinsieme di R2 si definisce un campo vettoriale non singolare, allora in ogni punto di tale sottoinsieme rimane univocamente determinato il sottospazio unidimensionale ortogonale al campo; quindi, dato il campo (g1 , g2 ), è possibile costruire in modo univoco (a meno dell’inversione del verso di tutti i vettori) un campo di versori continuo (v1 , v2 ) ortogonale a (g1 , g2 ) nel modo seguente: 1 (v1 , v2 ) = p (g2 , −g1 ) (g1 )2 + (g2 )2 (1.24) A meno di tutte le possibili riparametrizzazioni, tutte le curve soluzioni dell’equazione (1.23) sono tutte e sole le curve integrali del campo (1.24). Inoltre dalla (1.24) risulta evidente che il campo (v1 , v2 ) è di classe C 1 (A) come il campo (g1 , g2 ); quindi ci troviamo nelle ipotesi del Lemma 1 che ci assicura che l’insieme delle curve soluzione dell’equazione (1.23) costituisce una fogliazione di A. Sia γ(~x ′ ; t) la generica curva soluzione parametrizzata da (x1 , x2 ) = (x1 (t), x2 (t)) con t ∈ [a, b] e passante per il punto ~x ′ = (x′1 , x′2 ) quando t = t0 . Sia Γ una curva trasversa a tutte le curve soluzione, ossia una curva regolare che interseca tutte le curve soluzione e tale che in nessun punto il suo vettore velocità è parallelo al campo (v1 , v2 ); indichiamo con ~x = (x1 (s), x2 (s)) con s ∈ [c, d] la parametrizzazione della curva Γ. Dal Lemma 1 segue che la generica curva soluzione γ(~x ′ ; t) è di classe C 1 sia rispetto al parametro t che al dato iniziale ~x ′ ; la funzione composta Φ ≡ γ(~x(s); t) tale che Φ : [c, d] × [a, b] → A ⊆ R2 associa in modo biunivoco alla coppia (s′ , t′ ) il punto di coordinate (x1 , x2 ) che la curva γ(~x(s′ ); t′ ), relativa al dato iniziale ~x(s′ ) ∈ Γ, tocca per t = t′ . La funzione Φ risulta di classe C 1 rispetto ad entrambe le variabili s e t è quindi è un cambio di coordinate, differenziabile con continuità, tra le variabili locali 16 (s, t) e le variabili cartesiane (x1 , x2 ) 8 . Nel piano s, t le curve soluzioni γ(~x ′ ; t) diventano le rette s = r con r costante reale. Sia f : [c, d] × [a, b] → R una generica funzione almeno di classe C 1 , tale che f (s, t) = f (s). La funzione f assume valore costante lungo le curve soluzioni; per un cambiamento di variabili si ottiene φ(x1 , x2 ) ≡ f (Φ−1 (x1 , x2 )). (1.25) Supponiamo che fissato s′ , per ogni t valga che f (s′ , t) = f (s′ ) = C; per la (1.25) deve accadere che C = φ(x1 , x2 ) = f (Φ−1 (x1 , x2 )) = f (s′ , t) ∀t ∈ [a, b]. Questo significa che l’insieme dei punti per cui φ(x1 , x2 ) = C è esattamente il sostegno della curva soluzione γ(~x(s′ ); t). Al variare di C tutte le curve soluzione possono essere espresse come superfici equipotenziali della funzione φ che per costruzione è di classe C 1 (A). Segue che il campo (g1 , g2 ) è ortogonale in tutti i punti alle superfici equipotenziali di φ e quindi è parallelo in ogni punto al gradiente di φ, ossia ∂φ ∂φ µ(g1 , g2 ) = , ∂x1 ∂x2 dove µ = µ(x1 , x2 ) è una opportuna funzione di classe C 1 che non si annulla mai in A. Questo equivale a dire che il campo (g1 , g2 ) ammette come fattore integrante µ; ciò conclude la dimostrazione. ◭ Il fattore integrante µ = µ(x1 , x2 ) va determinato risolvendo il sistema di equazioni differenziali (1.17) che per n = 2 si riduce all’unica equazione differenziale del primo ordine ∂µ ∂µ ∂g1 ∂g2 = g1 − − g2 µ ∂x1 ∂x2 ∂x2 ∂x1 che, in virtù del Lemma 4 deve ammettere una soluzione. Siamo ora in grado di dimostrare il seguente Teorema 3 ia ω una 1-forma associata al campo vettoriale ~g : Rn ⊇ A → Rn di classe C 1 (A). Condizione necessaria e sufficiente affinché ω ammetta un fattore integrante è che il campo ~g soddisfi il sistema di equazioni (1.18). Dimostrazione Nel Paragrafo 1.3.4 il sistema di equazioni (1.18) è stato dedotto come condizione necessaria per l’esistenza del fattore integrante di ω; mostriamo come esso rappresenti anche una condizione sufficiente. Supponiamo che la 1-forma ω(x1 , . . . , xn ) = n X gk (x1 , . . . , xn )dxk (1.26) k=1 sia tale che il campo ~g = (g1 , . . . , gn ) soddisfi le relazioni (1.18) che qui riscriviamo ∂gi ∂gs ∂gk ∂gk ∂gi ∂gs gs + gk + gi = 0. − − − ∂xk ∂xi ∂xi ∂xs ∂xs ∂xk 8 Si osservi che l’arbitrarietà nella scelta dell’arco tarsverso Γ e della sua parametrizzazione con s equivale all’arbitrarietà nella scelta di diverse coordinate locali (s, t) nelle quali è possibile esprimere la fogliazione come insieme di rette s = const. 17 Nell’espressione (1.26) manteniamo costanti le variabili x1 , . . . , xn−2 e facciamo variare solo le variabili xn−1 , xn ; in altre parole consideriamo la restrizione della 1-forma ω al generico piano bidimensionale xn−1 , xn . Ristretta su tale iperpiano, la (1.26) diviene ω(λ, xn−1 , xn ) = gn−1 (λ, xn−1 , xn )dxn−1 + gn (λ, xn−1 , xn )dxn (1.27) dove con il parametro λ indichiamo l’insieme delle n − 2 variabili x1 , . . . , xn−2 che manteniamo costanti. La (1.27), per ogni valore del parametro λ, descrive una 1-forma in due dimensioni; allora per il Lemma 4 esistono sempre un fattore integrante µ = µ(λ, xn−1 , xn ) ed una funzione φ = φ(λ, xn−1 , xn ) (ovviamente sia µ che φ devono dipendere dal parametro λ) tali che µ(λ, xn−1 , xn )ω(λ, xn−1 , xn ) = ∂φ ∂φ dxn−1 + dxn . ∂xn−1 ∂xn (1.28) Se ora consideriamo il parametro λ libero di variare otteniamo che µ e φ sono funzioni di tutte le n variabili x1 , . . . , xn ed in particolare si ha che n−2 X ∂φ ∂φ ∂φ dxn−1 + dxn = dφ − dxk . ∂xn−1 ∂xn ∂xk k=1 Inserendo la (1.27) nella (1.28) ed usando la precedente uguaglianza si ottiene # " n−2 X ∂φ 1 dφ − dxk gn−1 dxn−1 + gn dxn = µ ∂xk k=1 dove, ora, gn−1 , gn , µ e φ vanno considerate come funzioni di tutte le n variabili x1 , . . . , xn . Facendo uso dell’ultima espressione possiamo riscrivere la (1.26) nel seguente modo # " n−2 n−2 X X ∂φ 1 ω= gk dxk + dφ − dxk µ ∂xk k=1 da cui µω = k=1 n−2 X k=1 ∂φ µgk − dxk + dφ. ∂xk (1.29) A questo punto è conveniente operare un cambiamento di variabili (x1 , . . . , xn ) → (y1 , . . . , yn ) definito da ( yk = yk (x1 , . . . , xn ) = xk se k = 1, . . . , n − 2, n yn−1 = yn−1 (x1 , . . . , xn ) = φ(x1 , . . . , xn ). In tale modo per gli incrementi infinitesimi si avrà che dyn−1 = dφ mentre dyk = dxk per k = 1, . . . , n − 2, n. Infine ponendo ∂φ k = 1, . . . , n − 2 Gk = µgk − ∂xk la (1.29) assume la forma Ω = µω = n−2 X Gk dyk + dyn−1 . k=1 18 (1.30) La 1-forma Ω espressa dalla (1.30) possiede un addendo in meno rispetto alla 1-forma originaria ω definita dalla (1.26); tuttavia, almeno in apparenza, le funzioni Gk e quindi Ω dovrebbero dipendere da tutte le n variabili y1 , . . . , yn . Inoltre dalla (1.30) risulta evidente che la la 1-forma ω ammette un fattore integrante se e solo se lo ammette anche Ω, infatti siamo passati dalla (1.26) alla (1.30) solo tramite passaggi algebrici. Sempre dalla (1.30) si vede che il ~ = (G1 , . . . , Gn ) si ottiene a partire dal campo vettoriale campo vettoriale G µ~g = (µg1 , . . . , µgn ) tramite il cambio di variabili (x1 , . . . , xn ) → (y1 , . . . , yn ); ~ soddisfa le relazioni questo, in base ai Lemmi 2 e 3, ci assicura che il campo G (1.18) relativamente alle variabili y1 , . . . , yn in quanto, per ipotesi, il campo ~g le soddisfa relativamente alle variabili x1 , . . . , xn . Scriviamo queste condizioni ~ per il campo G: ∂Gi ∂Gs ∂Gk ∂Gk ∂Gi ∂Gs Gs + Gk + Gi = 0. (1.31) − − − ∂yk ∂yi ∂yi ∂ys ∂ys ∂yk Se nella (1.31) poniamo i = n − 1 e k = n, ricordando che in base alla (1.30) deve essere Gn−1 = 1 e Gn = 0, si ottiene che ∂Gs =0 ∂yn ∀ s = 1, . . . , n ossia nessuna componente del campo dipende da yn . Questo significa che Ω è ~ : Rn−1 ⊇ una 1-forma di dimensione n − 1 associata ad un campo vettoriale G n−1 A→R che continua a soddisfare le condizioni (1.18). Con il procedimento usato abbiamo ricondotto il problema iniziale n-dimensionale ad un equivalente problema (n − 1)-dimensionale. Iterando la tecnica n − 2 volte ci si riconduce ad una 1-forma bidimensionale equivalente a quella di partenza; poiché, per quanto dimostrato nel lemma 4, una 1-forma in dimensione 2 ammette sempre un fattore integrante, allora anche la 1-forma di partenza ω deve ammettere un fattore integrante sotto l’unica condizione di dover soddisfare le (1.18). Ciò conclude la dimostrazione. ◭ La dimostrazione del Teorema 3 qui riportata ricalca quella data in [Honig, pg. 75]. 1.4 1.4.1 Le equazioni di Pfaff Il problema di Pfaff Consideriamo su Rn la 1-forma ω relativa al generico campo vettoriale ~g . Definizione 11 (equazione di Pfaff ) Data la 1-forma ω chiameremo equazione di Pfaff o anche espressione pfaffiana la seguente equazione differenziale: ω(~x) = n X gk (~x)dxk = 0. (1.32) k=1 Il problema di Pfaff consiste nella ricerca di quelle curve regolari γ ⊂ A che risolvono l’equazione (1.32), ossia di quelle curve γ parametrizzate da ~x = ~x(t) con t ∈ [a, b] tali che ω(t) = ω(~x(t)) = 0 per ogni valore di t. Data un’equazione di Pfaff chiameremo curva di Pfaff ogni curva soluzione di tale equazione. 19 1.4.2 Interpretazione geometrica Supponiamo che la curva γ ⊂ A con parametrizzazione ~x = ~x(t) con t ∈ [a, b] sia una curva soluzione per l’equazione di Pfaff (1.32), allora deve valere che ! n n X X dxk 0 = ω(~x(t)) = gk (~x(t)) dt = gk (~x(t))vk (t) dt, dt k=1 k=1 ossia ~g (~x(t))·~v (t) = 0 per ogni t ∈ [a, b] dove ~v = ~v (t) è il vettore velocita relativo alla curva γ. In definitiva le curve di Pfaff relative all’equazione (1.32) sono tutte e sole le curve che posseggono in ogni punto un vettore velocità ortogonale al campo di vettori ~g. In effetti l’equazione (1.32), che possiamo riscrivere come ~g · d~x = 0, definisce in ogni punto dell’insieme di definizione A il sottospazio ortogonale al vettore ~g valutato nello stesso punto; tale sottospazio avrà sempre dimensione n − 1 poiché per ipotesi il campo ~g è assunto non singolare. Questo significa anche che l’equazione (1.32) determina in ogni punto di A, n−1 possibili direzioni indipendenti per gli spostamenti infinitesimi d~x. L’equazione di Pfaff esatta Supponiamo che la 1-forma ω che compare nell’equazione di Pfaff (1.32) sia esatta ossia che il campo vettoriale ~g sia il gradiente di una funzione regolare φ; in questo caso diremo che l’equazione di Pfaff è esatta e la (1.32) si riduce a n X ∂φ ~ · ~x = dφ. dxk = ∇φ 0=ω= ∂xk (1.33) k=1 Per quanto discusso nel Paragrafo 1.2.3 le curve di Pfaff relative ad un’equazione di Pfaff esatta sono tutte e sole le curve che giacciono sulle superfici equipotenziali ΣC definite dall’equazione φ(~x) = C; quindi nel caso di equazioni esatte il problema di Pfaff si riduce alla determinazione stessa delle superfici equipoten~ è regolare allora la funzione ziali ΣC . Poiché per ipotesi il campo vettoriale ∇φ φ = φ(~x) non può assumere valore costante su tutto un intorno di A, infatti se ciò accadesse in un tale intorno il gradiente si annullerebbe 9 . Da questo segue che se ~x0 è un punto appartenente alla superficie equipotenziale ΣC in ogni intorno di tale punto esistono punti che non appartengono a ΣC e quindi in ogni intorno (piccolo a piacere) di ~x0 vi sono punti che non possono essere raggiunti da ~x0 percorrendo una curva di Pfaff soluzione dell’equazione esatta (1.33). L’equazione di Pfaff olonoma Consideriamo ora il caso in cui la 1-forma ω che compare nell’espressione pfaffiana (1.32) ammetti un fattore integrante µ; in questo caso diremo che l’equazione di Pfaff è olonoma. Se la curva γ è soluzione dell’equazione ω(~x) = n X gk (~x)dxk = 0 k=1 9 Ciò può essere giustificato ricordando che il gradiente di una funzione di più variabili punta nella direzione di massima crescita per la funzione. 20 e se µ = µ(~x) è una generica funzione di classe C 1 (A) tale da non annullarsi mai in A, allora γ sarà anche soluzione dell’equazione ω ′ (~x) = µ(~x)ω(~x) = µ(~x) n X gk (~x)dxk = 0. k=1 Ora, se µ è un fattore integrante di ω, ciò significa che il campo µ~g è il gradiente di una funzione regolare φ e la precedente equazione si riduce ad una espressione tipo la (1.33). Quindi, in virtù della discussione precedente, la curva γ deve necessariamente appartenere ad una superficie equipotenziale ΣC della funzione φ = φ(~x). Quanto affermato ha un’interpretazione geometrica immediata. Una curva di Pfaff possiede in ogni punto un vettore velocità ortogonale al campo ~g ; se tale campo ammette un fattore integrante significa che esso, a meno di essere opportunamente riscalato in ogni punto, è fondamentalmente un campo ~ gradiente, ossia ~g = µ−1 ∇φ. Ora in ogni punto del dominio lo spazio ortogonale ~ e quindi coincide con i piani tangenti alle a ~g coincide con quello ortogonale a ∇φ superfici equipotenziali definite da φ(~x) = C; quindi i vettori velocità della curva γ apparteranno a tali piani tangenti e la curva stessa dovrà necessariamente giacere su di una superficie equipotenziale. Anche nel caso di equazioni olonome il problema di Pfaff si riduce alla determinazione stessa di tutte le superfici equipotenziali ΣC relative ad una determinata funzione φ. Possiamo dimostrare la seguente Proposizione 5 Consideriamo il generico punto ~x0 ∈ A, allora in ogni intorno piccolo a piacere di ~x0 vi sono punti che non possono essere raggiunti da ~x0 percorrendo una curva soluzione di un’equazione di Pfaff olonoma. Dimostrazione L’asserto è sicuramente vero per le curve soluzioni di un’equazione esatta; la dimostrazione è conclusa osservando che tutte le curve soluzioni di un’equazione olonoma sono anche soluzioni di un’opportuna equazione esatta ottenuta moltiplicando la prima per il fattore integrante. ◭ Un’ottima discussione sul significato e sull’interpretazione geometrica delle equazioni di Pfaff si trova in [Afanassjeva, appendice I ]. 1.4.3 I teoremi di Carathéodory In questo paragrafo caratterizzeremo le equazioni di Pfaff in base al comportamento delle curve soluzione; prima di fare questo introduciamo la Definizione 12 (condizione di irraggiungibilità) Sia ~g un campo di vettori regolare definito nell’aperto A di Rn ; diremo che l’equazione di Pfaff ω(~x) = n X gk (~x)dxk = 0 (1.34) k=1 soddisfa la condizione di irraggiungibilità se, comunque scelto un punto ~x0 ed un suo intorno U ⊂ A piccolo a piacere, vi sono punti appartenenti ad U che non possono essere raggiunti a partire da ~x0 lungo una curva γ soluzione dell’equazione (1.34). 21 Grazie alla Proposizione 5 si è visto che se un’equazione di Pfaff è olonoma, o in particolar modo esatta, allora essa soddisfa la condizione di irraggiungibilità. Con un lavoro di grande rilievo Carathéodory riuscı̀ a dimostrare che la condizione di irraggiungibilità non è solo necessaria affinché una espressione pfaffiana sia olonoma, ma costituisce anche una condizione sufficiente; in questo modo l’irraggiungibilità caratterizza in modo completo le equazioni di Pfaff olonome. Teorema 4 (I Teorema di Carathéodory) Se l’espressione pfaffiana (1.34) soddisfa la condizione di irraggiungibilità, allora essa è olonoma, ossia ammette un fattore integrante. Dimostrazione Sia γ una curva soluzione per l’equazione (1.34) parametrizzata da ~x = ~x(t) con t ∈ [a, b] e siano Pα e Pβ due punti appartenenti a tale curva rispettivamente di coordinate ~xα = ~x(tα ), ~xβ = ~x(tβ ) a ≤ tα < tβ ≤ b. Sia ϕ una seconda curva soluzione per la (1.34) tale da intersecare la curva γ nel punto Pα e che si differenzia da quest’ultima per una quantità infinitesima; parametrizzeremo ϕ nel seguente modo ~ y (t) = ~x(t) + εξ(t) ~ t ∈ [a, b] ~ è dove ε > 0 è un parametro formale che assumeremo piccolo mentre ξ~ = ξ(t) ~ α ) = 0. Indicheremo una parametrizzazione regolare soggetta alla condizione ξ(t con d~x ~ v (t) = dt t d~y ~u(t) = dt t dξ~ ~ = w(t) dt t i campi di velocità relativi alle diverse parametrizzazioni e deve valere che ~u(t) = ~v (t) + εw(t). ~ Poiché per ipotesi sia γ che ϕ sono soluzioni dell’equazione (1.34) si avrà che n X gk (~x(t))vk (t) = 0 (1.35) ~ gk (~x(t) + εξ(t))[v k (t) + εwk (t)] = 0. (1.36) k=1 n X k=1 Espandiamo in serie di Taylor nel parametro ε la componente gk nella (1.36) fino al primo ordine in ε. ~ gk (~x(t) + εξ(t)) = gk (~x(t)) + ε 22 n X ∂gk ξi (t) + o(ε). ∂xi ~x(t) i=0 Inserendo questa espressione nella (1.36), tenendo conto della (1.35) e esplicitando solo i termini del primo ordine in ε si ha n n X X ∂gk gk (~x(t))wk (t) + ε 0=ε ξi (t)vk (t) + o(ε). ∂xi ~x(t) k,i=0 k=1 Dividendo tutto per ε e facendo il limite per ε → 0 otteniamo il risultato esatto n n X X ∂gk ξi (t)vk (t) = 0. (1.37) gk (~x(t))wk (t) + ∂xi ~x(t) k=1 k,i=0 La (1.37) è un’equazione per le componenti della funzione ξ~ e quindi esprime una condizione di dipendenza per una di tale componenti in funzione delle altre. Se si fissano in modo arbitrario le funzioni ξ1 , . . . , ξn−1 (e quindi le derivate w1 , . . . , wn−1 ) la (1.37) da la condizione che la componente ξn deve soddisfare. Per semplificare la notazione rinunceremo ad esplicitare la dipendenza dalle variabili ricordando che il campo ~g è valutato lungo la curva γ e che le funzioni ~x e ξ~ con le loro derivate ~v e w ~ dipendono dal parametro t. Riscriviamo la (1.37) nel seguente modo: ! ! n n−1 n−1 n X X X X ∂gk ∂gk dξn gk wk − (1.38) vk ξn = − vk ξi ; + gn dt ∂xn ∂xi i=1 k=1 k=1 k=1 quest’ultima è un’equazione differenziale lineare del primo ordine per la funzione ξn . Sia λ = λ(t) una generica funzione di classe C 1 (A) e calcoliamo lungo la curva γ la derivata della funzione λgn ξn ; ! n X dλ d dξn ∂gn vk ξn + (λgn ξn ) = λgn +λ gn ξn . (1.39) dt dt ∂xk dt k=1 Possiamo supporre, senza perdere di generalità che lungo la curva γ la componente gk del campo vettoriale non si annulli mai; qualora questo dovesse accadere potremmo sempre ripetere il ragionamento per un’altra componente di ~g, infatti poiché il campo è supposto non singolare, lungo ogni tratto di γ vi è sempre qualche componente di ~g non nulla. Se si impone alla funzione λ di soddisfare la relazione n ∂gn λ X ∂gk dλ vk (1.40) − = dt gn ∂xn ∂xk k=1 il secondo membro della (1.39) coincidere con λ-volte il primo membro della (1.38); quindi se lungo la curva γ la funzione λ soddisfa la condizione (1.40) si ha che ! # "n−1 n n−1 X X X d ∂gk vk ξi . (λgn ξn ) = −λ gk wk + dt ∂xi i=1 k=1 k=1 Integrando la precedente espressione tra tα e t e ricordando che la parametrizzazione ξ~ si annulla per t = tα , vale che ! # Z t "n−1 n n−1 X X X ∂gk t λ λgn ξn |tα = λgn ξn = − gk wk + (1.41) vk ξi dt. ∂xi tα i=1 k=1 k=1 23 Poiché n−1 X d dt gk ξk k=1 ! = n−1 X k=1 n X ∂gk i=1 ∂xi vi ! ξk + n−1 X gk wk k=1 dato che gli indici delle sommatorie sono muti, possiamo riscrivere l’integrale (1.41) nel modo seguente # ! Z t" n n−1 n−1 X ∂gk X d X ∂gi λ λgn ξn = − vk ξi dt. (1.42) − gk ξk + λ dt ∂xi ∂xk tα i=1 k=1 k=1 Tramite un’integrazione per parte si ottiene t ! Z t Z t n−1 n−1 X dλ d X gk ξk − gk ξk dt = λ λ dt tα dt tα k=1 k=1 tα n−1 X gk ξk k=1 ! dt che ricordando il vincolo ξk (tα ) = 0 ed imponendo la condizione (1.40) che la derivata rispetto a t di λ deve soddisfare, diventa ! ! Z t Z t n−1 n n−1 n−1 X X d X λ X ∂gk ∂gn gi ξi dt. λ gk ξk − vk − gk ξk dt = λ ∂xn ∂xk tα gn tα dt i=1 k=1 k=1 k=1 Inserendo quest’ultima espressione nel secondo membro della (1.42) otteniamo Z t( n−1 n n−1 X λ XX ∂gk ∂gn − λgn ξn = −λ gk ξk − gi vk ξi − gn ∂xn ∂xk tα k=1 k=1 i=1 ) n n−1 X X ∂gk ∂gi vk ξi dt − +λ ∂xi ∂xk k=1 i=1 n−1 n n−1 X X XZ t λ ∂gn ∂gk = −λ gk ξk − vk ξi gi − gn ∂xk ∂xn k=1 k=1 i=1 tα ∂gk ∂gi + gn dt. (1.43) − ∂xi ∂xk Osserviamo che è possibile aggiungere nella (1.43), senza variarne il valore, un termine del tipo n n−1 X XZ t λ ∂gi ∂gn (1.44) vk ξi gk − − g ∂xn ∂xi i=1 tα n k=1 infatti esso può essere riscritto nel seguente modo ! n−1 n XZ t λ X ∂gi ∂gn − =0 gk vk ξi − g ∂xn ∂xi i=1 tα n k=1 dove l’annullamento è giustificato dal fatto che lungo la curva di Pfaff γ il termine tra parentesi tonde si annulla identicamente. Sommando la (1.44) alla (1.43), infine otteniamo che lungo la curva γ deve valere ξn = n−1 X k=1 n n−1 Z gk 1 XX t λ ξk − vk ξi D~xink [~g ] dt. gn λgn g n i=1 tα k=1 24 (1.45) Discutiamo l’equazione (1.45); il valore della funzione ξn in tβ non dipende solo dai valori che assumono per tβ le funzioni ξ1 , . . . , ξn−1 (che compaiono nel primo addendo di destra) ma anche dai valori che tali funzioni assumono in tutto l’intervallo tα ≤ t ≤ tβ (dato che esse compaiono sotto il segno di integrale che deve essere valutato tra gli estremi tα e tβ ). Poiché la scelta delle funzioni ξ1 , . . . , ξn−1 è totalmente arbitraria ciò comporta che anche il valore ~ β ) può essere scelto arbitrariamente; infatti comunque si fissino i valori di di ξ(t ξ1 (tβ ), . . . , ξn−1 (tβ ) il valore di ξn (tβ ) dipende da come si definiscono le funzioni ξ1 , . . . , ξn−1 e quindi può essere variato con continuità. Questo comporta che la curva soluzione ϕ può connettere il punto Pα con un generico punto che si trova in un intorno di Pα e questo contraddice la condizione di irraggiungibilità che avevamo assunto valido per ipotesi. Quindi, affinché le ipotesi siano soddisfatte, dobbiamo richiedere che nel membro di destra della (1.45) il termine contenente l’integrale sia identicamente nullo. Ovviamente questo non può essere ottenuto imponendo che siano nulle le funzioni ξ1 , . . . , ξn−1 né, tantomeno, che sia nulla la funzione λ. Quello che ha senso è richiedere che siano verificate le relazioni n X D~xink [~g ] vk = 0 i = 1, . . . , n − 1; (1.46) k=1 Se queste condizioni vengono soddisfatte, il valore di ξn (tβ ) dipenderà solo dagli n − 1 valori ξ1 (tβ ), . . . , ξn−1 (tβ ). Questo limita l’insieme dei possibili valori che ~ β ) e quindi il numero dei punti raggiungibili da Pα tramite può assumere ξ(t una curva soluzione. Le relazioni (1.46) devono valere lungo una qualsiasi curva soluzione dell’equazione di Pfaff e quindi per una arbitraria scelta del campo di velocità ~v = (v1 , . . . , vn ) che sia conforme alla richiesta di ortogonalità con il campo ~g. Questo comporta che in tutto il dominio di definizione dell’equazione di Pfaff, comunque scelti tre diversi indici i, n, k deve valere D~xink [~g ] = 0, questa condizione, in base al Teorema 3, assicura che l’equazione (1.34) sia olonoma. Questo conclude la dimostrazione. ◭ Quindi il I Teorema di Carathéodory da una completa caratterizzazione dell’olonomia nel senso che tutte e sole le equazioni di Pfaff olonome soddisfano la condizione di irraggiungibilità. La dimostrazione appena data è tratta da [Honig, pg. 78], una dimostrazione alternativa, di carattere unicamente geometrico, è data in [Wilson]. Di fondamentale importanza per gli argomenti che saranno trattati nel seguito è il Teorema 5 (II Teorema di Carathéodory) Consideriamo le due seguenti 1-forme ω1 = ω1 (x1 , . . . , xn−1 , τ ) e ω2 = ω2 (y1 , . . . , ym−1 , τ ) entrambe dipendenti dalla una stessa coordinata τ 10 . Supponiamo che ω1 ed ω2 ammettano rispettivamente µ1 e µ2 come fattori integranti ed inoltre supponiamo che la 1-forma ω = ω1 + ω2 ammetta, pur’ essa, un fattore integrante µ; sotto queste 10 Questa condizione equivale a richiedere che tra le n variabili da cui dipende ω e le m 1 da cui dipende ω2 deve sussistere una relazione del tipo τ1 (x1 , . . . , xn ) = τ2 (y1 , . . . , ym ) = τ dove τ1 e τ2 sono funzioni sufficientemente regolari da poter essere invertite rispettivamente in funzione di xn ed ym . 25 condizioni ω, ω1 e ω2 ammettono uno stesso fattore integrante che risulta essere una funzione della sola variabile τ . Dimostrazione Dalla relazione ω(x1 , . . . , xn−1 , y1 , . . . , ym−1 , τ ) = ω1 (x1 , . . . , xn−1 , τ ) + ω(y1 , . . . , ym−1 , τ ) segue che 1 1 1 dφ1 + dφ2 dφ = µ µ1 µ2 dove con ovvio significato si è posto dφ = µω, dφ1 = µ1 ω1 , Quindi deve valere che dφ = dφ2 = µ2 ω2 . µ µ dφ1 + dφ2 . µ1 µ2 (1.47) Le funzioni φ1 e µ1 dipendono dalle variabili (x1 , . . . , xn−1 , τ ), le funzioni φ2 e µ2 dipendono dalle variabili (y1 , . . . , ym−1 , τ ) ed infine le funzioni φ e µ dipendono dalle variabili (x1 , . . . , xn−1 , y1 , . . . , ym−1 , τ ). Le funzioni φ1 e φ2 sono regolari per ipotesi e quindi possono essere usate per indurre il seguente cambiamento di coordinate (x1 , . . . , xn−1 , τ ) (x1 , . . . , xn−2 , φ1 , τ ) −→ (1.48) (y1 , . . . , ym−1 , τ ) (y1 , . . . , ym−2 , φ2 , τ ). Sotto il cambiamento di coordinate (1.48) la funzione φ deve dipendere dalle variabili (x1 , . . . , xn−2 , φ1 , y1 , . . . , ym−2 , φ2 , τ ), ma dall’equazione (1.47) segue che le derivate parziali di φ rispetto a x1 , . . . , xn−2 , y1 , . . . , ym−2 e τ sono tutte nulle, ossia φ dipende solo da φ1 e φ2 e vale che µ ∂φ = , ∂φ1 µ1 ∂φ µ = . ∂φ2 µ2 Poiché φ deve dipendere solo da φ1 e φ2 segue che per soddisfare la (1.47), anche i rapporti µ/µ1 e µ/µ2 devono dipendere solo da φ1 e φ2 . Se µ dipendesse dalle coordinate x1 , . . . , xn−2 , il rapporto µ/µ2 dovrebbe continuare a dipendere da queste coordinate poiché il fattore integrante µ2 al più può dipendere dalle coordinate y1 , . . . , ym−2 e quindi non vi sarebbe modo di eliminare la dipendenza da x1 , . . . , xn−2 ; questo significa che φ è indipendente da x1 , . . . , xn−2 e poiché anche il rapporto µ/µ1 deve essere indipendente da tali variabili segue che anche µ1 non può dipendere da x1 , . . . , xn−2 . Un analogo ragionamento vale anche per il set di variabili y1 , . . . , ym−2 , e alla fine risulta che µ = µ(φ1 , φ2 , τ ), µ1 = µ1 (φ1 , τ ), µ2 = µ2 (φ2 , τ ). Come è evidente le tre funzioni µ, µ1 e µ2 possono ancora dipendere da τ , ma i rapporti µ/µ1 e µ/µ2 non devono dipendere da tale variabile; questa condizione è verificata se µ, µ1 e µ2 ammettono una stessa dipendenza funzionale da τ in 26 modo tale che questa dipendenza possa essere annullata nei rapporti. Quindi si deve avere che µ = T (τ )η(φ1 , φ2 ), µ1 = T (τ )η1 (φ1 ), µ2 = T (τ )η2 (φ2 ), dove la funzione T = T (τ ) è la medesima per i tre fattori integranti. Quindi possiamo scrivere che T (τ )ω = 1 dφ, η(φ1 , φ2 ) T (τ )ω1 = 1 dφ1 , η1 (φ1 ) T (τ )ω2 = 1 dφ2 . η2 (φ2 ) Dalla condizione ω = ω1 + ω2 segue che 1 1 1 dφ = dφ1 + dφ2 η(φ1 , φ2 ) η1 (φ1 ) η2 (φ2 ) e quindi ∂φ 1 1 = , η(φ1 , φ2 ) ∂φ1 η1 (φ1 ) ∂φ 1 1 = . η(φ1 , φ2 ) ∂φ2 η2 (φ2 ) (1.49) Derivando la prima delle (1.49) rispetto a φ2 e la seconda rispetto a φ1 e sottraendo membro a membro si ottiene che ∂ 1 ∂φ 1 ∂φ ∂ − =0 ∂φ2 η ∂φ1 ∂φ1 η ∂φ2 da cui, avendo calcolato le derivata di 1/η si ricava ∂η ∂φ ∂η ∂φ − =0 ∂φ2 ∂φ1 ∂φ1 ∂φ2 (1.50) La (1.52) esprime l’annullamento del determinante jacobiano ∂(η, φ)/∂(φ1 , φ2 ) e questo è sufficiente per affermare che η e φ sono funzionalmente dipendenti, ossia che possiamo considerare η unicamente funzione di φ. Con questa osservazione possiamo scrivere T (τ )ω = 1 dφ, η(φ) T (τ )ω1 = 1 dφ1 , η1 (φ1 ) T (τ )ω2 = 1 dφ2 . η2 (φ2 ) (1.51) Poiché le funzioni η, η1 ed η2 sono sufficientemente regolari per essere integrabili, possiamo porre Z Z Z dφ1 dφ2 dφ , Φ1 (φ1 ) = , Φ2 (φ2 ) = . Φ(φ) = η(φ) η1 (φ1 ) η2 (φ2 ) Avendo definite queste nuove funzioni le (1.52) si possono riscrivere come T (τ )ω = dΦ, T (τ )ω1 = dΦ1 , T (τ )ω2 = dΦ2 (1.52) e questo conclude la dimostrazione. ◭ La precedente dimostrazione è una generalizzazione al caso di n variabili della dimostrazione che si trova in [Wilson]. 27 Capitolo 2 Gli assiomi della termodinamica 2.1 Concetti introduttivi 2.1.1 Sistemi termodinamici Lo studio di un generico fenomeno fisico viene sempre effettuato su di una zona limitata di spazio o su una porzione finita di materia di tutto l’universo. La parte presa in esame prende il nome di sistema mentre tutto ciò che vi è al di fuori di essa viene denominato col termine ambiente esterno. Ogni porzione di un sistema prende il nome di sottosistema. La fisica di un sistema consiste nello studio delle trasformazioni che il sistema subisce a causa delle interazioni con l’ambiente esterno. Un tale studio necessita della definizione di grandezze misurabili, associate al comportamento del sistema; queste quantità vengono generalmente denominate coordinate. La termodinamica si propone di descrivere il comportamento di un sistema da un punto di vista macroscopico ossia riferendosi semplicemente alle caratteristiche globali ed ai comportamenti su larga scala del sistema. La descrizione di un sistema termodinamico richiede la definizione di quelle che chiameremo coordinate macroscopiche o coordinate termodinamiche o più spesso variabili termodinamiche. Sistemi termodinamici diversi saranno descritti da diverse variabili termodinamiche; tuttavia tutte le variabili termodinamiche sono accomunate dalle seguenti caratteristiche di origine sperimentale: • Non implicano ipotesi particolari sulla struttura del materia di cui il sistema è costituito. • Per una descrizione macroscopica completa del sistema è necessario definire un numero finito n, generalmente piccolo 1 , di coordinate. • I valori delle coordinate devono essere misurabili direttamente. 1 L’aggettivo “piccolo è da intendersi rispetto al numero di Avogadro N = 6, 022045 × 1023 che rappresenta il numero caratteristico di gradi di libertà nella descrizione microscopica di un sistema. 28 • Il valore delle coordinate termodinamiche può essere variato in modo continuo e all’occorrenza anche di quantità infinitesime. 2.1.2 L’equilibrio termodinamico Èun dato di fatto che per ogni sistema termodinamico esiste un insieme minimo di variabili i cui valori determinano univocamente lo stato del sistema. Quando le variabili termodinamiche che descrivono il sistema conservano un valore costante fintanto che vengono preservate le stesse condizioni esterne, diremo che il sistema si trova in uno stato di equilibrio termodinamico. Quindi se non si hanno modifiche dell’ambiente esterno uno stato di equilibrio dovrebbe conservarsi indefinitamente. Può accadere che, in seguito ad una variazione delle condizione esterne, il sistema passi da uno stato di equilibrio iniziale, individuato da un determinato valore delle variabili termodinamiche, ad un nuovo stato di equilibrio specificato da valori diversi delle variabili termodinamiche; quando succede questo diremo che il sistema ha subito una trasformazione termodinamica. Durante una trasformazione il sistema si trova in stati di non equilibrio; in questi stati non è più possibile definire le coordinate termodinamiche del sistema 2 . Come conseguenza di tutte le osservazioni fatte possiamo formulare la seguente Ipotesi 1 Ad ogni sistema termodinamico X è associato un insieme minimo di n variabili termodinamiche indipendenti il cui valore fissa in modo univoco gli stati di equilibrio del sistema. Una volta fissate le n variabili indipendenti, ogni stato di equilibrio è in corrispondenza biunivoca con una n-upla di numeri reali ~x = (x1 , . . . , xn ). L’insieme di tutti i possibili stati di equilibrio di X verrà rappresentato da un sottoinsieme A di Rn . Si fa l’ipotesi che A sia un insieme limitato, aperto e connesso 3 . Poiché gli stati di equilibrio di X sono in corrispondenza biunivoca con i punti di A, allora A è isomorfo all’insieme degli stati di equilibrio del sistema; in questo senso col simbolo A indicheremo sia il sottoinsieme di Rn che l’insieme degli stati fisici di equilibrio di X . Il numero n di coordinate indipendenti prende il nome di numero di gradi di libertà e costituisce una caratteristica del particolare sistema considerato. Ovviamente il numero di gradi di libertà del sistema non può cambiare in seguito a trasformazioni termodinamiche. 2.1.3 Variabili intensive e variabili estensive Le variabili termodinamiche si possono dividere in due grandi famiglie: 2 Quando un sistema è in uno stato di non equilibrio molte grandezza termodinamiche non sono neanche più misurabili. La descrizione di uno stato di non equilibrio richiederebbe l’ausilio di un numero di parametri estremamente maggiore rispetto al piccolo numero di coordinate termodinamiche che serve a descrivere gli stati di equilibrio. 3 l’ipotesi che A sia limitato deriva dall’osservazione che oltre certi valori delle coordinate termodinamiche i sistemi reali collassano. La frontiera di A, che indicheremo con ∂A, è costituita dai punti di Rn che corrispondono agli stati in cui il sistema inizia a collassare; poiché questi stati non possono essere di equilibrio (dopo il collasso il sistema potrebbe anche non esistere più) deve succedere che ∂A ∩ A = ∅ e questo significa che A è un insieme aperto. L’ipotesi di connessione equivale ad ammettere che qualsiasi coppia di stati di equilibrio può essere collegata tramite una successione continua di stati di equilibrio intermedi. 29 Variabili intensive. Sono quelle variabili il cui valore non è legato alle dimensioni del sistema né alla quantità di materia di cui il sistema è costituito. Se una variabile intensiva assume lo stesso valore su ogni sottosistema, anche arbitrariamente piccolo, allora si dice che l’intero sistema è omogeneo rispetto alla data variabile. Se si considera un sistema omogeneo come unione di sottosistemi infinitamente piccoli, in linea di principio ha senso attribuire lo stesso valore delle variabili intensive ad ogni punto del sistema 4 . Un sistema termodinamico può essere costituito dall’unione di più sottosistemi omogenei ognuno dei quali possiede un diverso valore della data coordinata intensiva. Variabili estensive. Si tratta di quelle variabili il cui valore dipende dalle dimensioni del sistema. Il valore che tali variabili assumono sull’intero sistema è uguale alla somma dei valori che esse assumono sui diversi sottosistemi di cui il sistema di partenza è costituito; per tale motivo queste variabili prendono il nome anche di variabili additive. Generalmente accade che le variabili intensive caratterizzano lo stato della sostanza che costituisce il sistema, mentre le variabili estensive sono determinate dalla struttura e dalla dimensione del sistema. 2.1.4 Sistemi accoppiati Definizione di accoppiamento Sperimentalmente si osserva che le trasformazioni termodinamiche di un dato sistema possono influire direttamente sullo stato di equilibrio di altri sistemi. Consideriamo i due sistemi termodinamici X e Y i cui stati di equilibrio sono rispettivamente caratterizzati dai valori delle variabili (x1 , . . . , xn ) ∈ AX e (y1 , . . . , ym ) ∈ AY . Se ogni stato di equilibrio del sistema X può convivere con ogni stato di equilibrio del sistema Y diremo che i due sistemi sono completamente isolati, al contrario se lo stato di equilibrio di uno dei due sistemi influisce sullo stato di equilibrio dell’altro, diremo che i due sistemi sono in contatto o, equivalentemente, che sono accoppiati. Possiamo considerare X e Y come due sottosistemi di un unico sistema termodinamico i cui stati di equilibrio sono descritti dalle variabili (x1 , . . . , xn , y1 , . . . , ym ) ∈ AX ∪ AY . Quando i sistemi X e Y sono isolati, ovviamente il vettore (x1 , . . . , xn , y1 , . . . , ym ) può assumere un qualsiasi valore in AX ∪ AY . Si osserva, invece, che quando i sistemi X e Y sono in contatto, lo stato di equilibrio simultaneo dei due sistemi non è più descritto dal valore assunto dalle n + m variabili indipendenti (x1 , . . . , xn , y1 , . . . , ym ), ma la specificazione di alcuni di questi valori determina univocamente anche i rimanenti; in base a questo possiamo formulare la seguente Ipotesi 2 Se i sistemi X e Y sono accoppiati allora, in uno stato di equilibrio simultaneo, l’insieme delle variabili termodinamiche (x1 , . . . , xn , y1 , . . . , ym ) deve 4 Si tratta di una ovvia idealizzazione concettuale, infatti le dimensioni dei sottosistemi non possono essere minori delle dimensioni dei costituenti intimi della materia ed in ogni caso i sottosistemi devono essere sufficientemente grandi per ammettere ancora una descrizione in termini di variabili termodinamiche. 30 soddisfare un sistema di relazioni del tipo f1 (x1 , . . . , xn , y1 , . . . , ym ) .. . fk (x1 , . . . , xn , y1 , . . . , ym ) = 0 .. . = 0 che dà le condizioni di equilibrio per l’accoppiamento. Si assume che le funzioni fi : AX ∪ AY → R, con i = 1, . . . , k, siano regolari in AX ∪ AY . Il numero k viene detto ordine dell’ accoppiamento tra i due sistemi e rappresenta il numero di variabilei che a causa dell’accoppiamento sono divenute dipendenti. Due sistemi completamente isolati sono tra loro in accoppiamento di ordine zero. Molto importanti sono gli accoppiamenti semplici o del primo ordine, ossia i contatti per cui si ha una sola condizione di equilibrio. Un esempio di accoppiamento del primo ordine è dato dall’accoppiamento chimico che si instaura tra due sistemi quando essi si scambiano reciprocamente solo materia; in questo caso se mX ed mY sono le masse dei due sistemi, la condizione di equilibrio sarà definita dall’equazione mX + mY = M , dove M rappresenta la massa totale dei due sistemi che ha un valore costante. Un secondo esempio di accoppiamento del primo ordine è fornito dall’accoppiamento meccanico che si instaura tra due sistemi che esercitano reciprocamente uno sull’altro delle forze di tipo meccaniche. Molto spesso al raggiungimento dell’equilibrio meccanico i due sistemi hanno variato il loro volume (senza che però si abbia variazione del volume totale occupato dai due sistemi); in questo caso se VX ed VY sono i volumi dei due sistemi, la condizione di equilibrio sarà definita dall’equazione VX + VY = V , dove V è il volume totale dei due sistemi. Accoppiamento termico. L’esperienza mostra che due sistemi termodinamici, incapaci di scambiarsi materia e tali da non poter esercitare alcun tipo di forza l’uno sull’altro, possono essere ancora capaci di interagire; ad esempio quando un recipiente contenete del ghiaccio viene posto in contatto con una fiamma, quello che si osserva e che il giaccio fonde. Un tale contatto, che ovviamente non è né di tipo chimico né tantomeno di tipo meccanico, viene chiamato accoppiamento termico. Questa osservazione ci consente di formulare la Ipotesi 3 Esiste un’accoppiamento termodinamico del primo ordine che non è né di tipo chimico né di tipo meccanico, esso prende il nome di accoppiamento termico ed è mediato dallo scambio di una quantità chiamata calore. Tra tutti i possibili accoppiamenti, l’accoppiamento termico è sicuramente quello più rilevante dal punto di vista termodinamico. Per il momento non faremo nessuna ipotesi sulla natura del calore tranne che ritenerlo responsabile dell’accoppiamento termico. Quando due sistemi sono separati da una parete che impedisce l’accoppiamento termico diremo che essi sono termicamente isolati . Le pareti che impediscono il contatto termico vengono dette adiabatiche mentre chiameremo diaterme quelle che lo permettono; ovviamente le pareti diaterme devono essere attraversabili dal calore mentre quelle adiabatiche devono essere impermeabili al passaggio di calore. Tutti i processi che avvengono in un sistema separato dall’ambiente esterno tramite pareti adiabatiche sono detti processi 31 adiabatici. Quando due sistemi termodinamici, che sono unicamente in reciproco contatto termico, raggiungono uno stato di equilibrio, allora essi sono in equilibrio termico. Diremo che un sistema termodinamico è termicamente omogeneo se esso non contiene nessun sottosistema separato tramite pareti adiabatiche. In questo senso un sistema termicamente omogeneo è in contatto termico con ogni suo sottosistema; quando un sistema termicamente omogeneo è in uno stato di equilibrio allora è in equilibrio termico con ogni suo sottosistema. 2.2 2.2.1 La temperatura empirica Il principio zero della termodinamica Siano X e Y due sistemi termicamente omogenei perfettamente isolati tra loro e supponiamo che siano entrambi in contatto termico con un terzo sistema termicamente omogeneo Z; al raggiungimento dell’equilibrio, i sistemi X e Y sono in equilibrio termico con Z. Supponiamo ora di mettere in contatto termico X e Y; quello che sperimentalmente si osserva è che le variabili termodinamiche dei due sistemi non cambiano valore, ossia X e Y sono già in equilibrio termico tra loro. Questa osservazione, di valenza esclusivamente sperimentale, costituisce il contenuto della prima asserzione fondamentale per la formulazione della termodinamica, ossia: Principio 1 (Principio zero della termodinamica) Se i due sistemi termicamente omogenei X e Y sono individualmente in equilibrio termico con un terzo sistema termicamente omogeneo Z, allora i sistemi X e Y sono in equilibrio termico tra loro. Dato un sistema termodinamico X ha senso considerare tutti i possibili stati di equilibrio che esso in teoria può assumere; da questo punto di vista è lo stesso sistema termodinamico che può esistere in uno qualsiasi di questi stati. È possibile avere anche un secondo punto di vista: dato il sistema X consideriamo tante copie virtuali, identiche, del sistema quanti sono i possibili stati di equilibrio raggiungibili da X ; quindi possiamo pensare che ognuna di queste copie possa esistere in uno solo dei possibili stati di equilibrio (ogni copia si deve trovare in uno stato differente). Indicheremo con ℧ l’insieme di tutti i sistemi termodinamici termicamente omogenei in equilibrio, includendo nel conteggio tutte le possibili copie virtuali di ogni dato sistema fisico. Come conseguenza del Principio zero otteniamo che: Proposizione 6 L’equilibrio termico induce una relazione di equivalenza su ℧. Dimostrazione Per definizione di equilibrio termico un sistema X è sicuramente in equilibrio con ogni suo sottosistema e quindi con se stesso (proprietà riflessiva); inoltre se X è in equilibrio con Y, allora banalmente Y sarà in equilibrio con X (proprietà simmetrica). Resta da verificare l’ultima proprietà; supponiamo che X sia in equilibrio con Y che è a sua volta in equilibrio con Z. Per la proprietà simmetrica anche Z è in equilibrio con Y e per il Principio zero X e Z devono essere in equilibrio tra loro (proprietà transitiva). Ciò conclude la dimostrazione. ◭ Quindi l’equilibrio termico produce in modo naturale una partizione dell’insieme 32 ℧ in classi di equivalenza formate da sistemi tutti in equilibrio termico tra loro. Indicheremo le S classi di equivalenza con [℧]r al variare del parametro r; deve T valere che ℧ = r [℧]r e [℧]r [℧]r′ se r 6= r′ . 2.2.2 Il concetto di temperatura Gli insiemi isotermi Consideriamo due sistemi termicamente omogenei X e Y in reciproco equilibrio termico. Supponiamo che il sistema Y sia mantenuto costantemente in uno stato ′ di equilibrio descritto da (y1′ , . . . , ym ). Gli esperimenti mostrano che, in genere, esiste tutta una collezione di stati in cui il sistema X si trova in equilibrio con ′ lo stato (y1′ , . . . , ym ) del sistema Y. Indicheremo con Σ l’insieme di tutti gli ′ stati di equilibrio di X che sono in equilibrio termico con lo stato (y1′ , . . . , ym ). Come ovvia conseguenza del Principio zero tutti gli stati di Σ (intesi come stati di copie virtuali di X ) devono essere in reciproco equilibrio termico. Quindi, gli insiemi costruiti come Σ devono essere totalmente contenuti in un’unica classe di equivalenza in cui ℧ viene ripartito dalla relazione indotta dall’equilibrio termico. Supponiamo che X sia un sistema termodinamico ad n gradi di libertà; considerato come insieme dei punti rappresentativi degli stati di equilibrio, si ha che Σ ⊂ AX ⊂ Rn (ricordiamo che con AX si indica l’insieme di tutti gli stati di equilibrio del sistema X ). Σ prende il nome di insieme isotermo di X . Valgono le seguenti considerazioni: • L’insieme AX è unione disgiunta di insiemi isotermi di X . • Le classi di equivalenza [℧]r in cui ℧ viene ripartito sono unione disgiunta di insiemi isotermi di diversi sistemi fisici. La temperatura empirica Siano X , Y e Z tre sistemi termodinamici, termicamente omogenei ed in reciproco equilibrio termico; siano (x1 , . . . , xn ), (y1 , . . . , ym ) e (z1 , . . . , zs ) i rispettivi valori delle variabili termodinamiche. Poichè per ipotesi il contatto termico è descritto da un accoppiamento semplice, possiamo scrivere le condizioni di equilibrio termico tra le coppie di sistemi X -Z e Y-Z come segue: fX Z (x1 , . . . , xn , z1 , . . . , zs ) = 0 (2.1) fYZ (y1 , . . . , ym , z1 , . . . , zs ) = 0. Dato che le funzioni fX Z e fYZ sono, per ipotesi, regolari in virtù del Teorema di Dini possiamo risolvere le (2.1) in modo da ottenere z1 in funzione delle restanti coordinate, z1 = gX Z (x1 , . . . , xn , z2 , . . . , zs ) e quindi z1 = gYZ (y1 , . . . , ym , z2 , . . . , zs ), gX Z (x1 , . . . , xn , z2 , . . . , zs ) − gYZ (y1 , . . . , ym , z2 , . . . , zs ) = 0. (2.2) L’equazione (2.2) descrive la situazione di equilibrio termico simultaneo tra le coppie di sistemi X -Z e Y-Z, tuttavia tale situazione, in virtù del Principio 33 zero, deve essere esprimibile come condizione di equilibrio tra X e Y e quindi deve essere equivalente alla condizione fX Y (x1 , . . . , xn , y1 , . . . , ym ) = 0. (2.3) Questo è possibile se anche la (2.2) si riduce ad una relazione che involve le sole variabili (x1 , . . . , xn , y1 , . . . , ym ), quindi, la condizione di compatibilità tra la (2.2) e la (2.3) richiede che deve valere gX Z (x1 , . . . , xn , z2 , . . . , zs ) = θX (x1 , . . . , xn )α(z2 , . . . , zs ) + β(z2 , . . . , zs ) gYZ (y1 , . . . , ym , z2 , . . . , zs ) = θY (y1 , . . . , ym )α(z2 , . . . , zs ) + β(z2 , . . . , zs ), dove le funzioni α e β sono le stesse in ambo le equazioni. In virtù della (2.2) si ha θX (x1 , . . . , xn ) = θY (y1 , . . . , ym ). Applicando lo stesso procedimento all’equilibrio tra le coppie X -Y e Z-Y, otteniamo una relazione della forma θX (x1 , . . . , xn ) = θY (y1 , . . . , ym ) = θZ (z1 , . . . , zs ). (2.4) La (2.4) mostra che esiste una funzione per ogni insieme di coordinate che deve assumere lo stesso valore per sistemi che sono reciprocamente in equilibrio termico. Il valore comune θ di queste funzione prende il nome di temperatura empirica o più brevemente di temperatura. Dalla (2.4) segue che tutti i sistemi termicamente omogenei in reciproco equilibrio termico, ossia tutti gli elementi di una stessa classe di equivalenza di ℧, sono identificati da uno stesso valore della temperatura e quindi la temperatura diviene il parametro caratterizzante dell’equilibrio termico. Consideriamo l’ equazione relativa al sistema X θX (x1 , . . . , xn ) = θ; (2.5) la (2.5) prende il nome di equazione di stato per il sistema X . Per un fissato valore di θ l’insieme di n-uple che soddisfano la (2.5) coincide con l’insieme dei punti rappresentativi di tutte le copie virtuali di X in reciproco equilibrio termico e quindi identifica tutti i punti di un insieme isotermico. Poiché la funzione θX è supposta regolare, la (2.5) dice che gli insiemi isotermici sono ipersuperfici n − 1 dimensionali contenute in Rn ; chiameremo tali superfici superfici isotermiche del sistema X e le indicheremo con il simbolo Σθ . Poiché θX è una funzione regolare (e quindi continua), quando viene valutata sull’insieme (aperto e limitato e connesso ) AX essa ha come immagine un intervallo aperto di R. Allora, tramite l’equazione (2.5), si ottiene una corrispondenza biunivoca e continua tra la totalità delle superfici isotermiche e un intervallo aperto di R; questo ci permette di dare un ordinamento all’insieme delle temperature e ciò ci consente di stabilire quale tra due temperature è più grande (o piccola) dell’altra. Un sistema termicamente omogeneo è in contatto termico con tutti i suoi possibili sottosistemi e quando esso è all’equilibrio allora è in equilibrio termico con tutti i suoi sottosistemi, piccoli che essi siano. Da questo segue che ogni sottosistema di un sistema termicamente omogeneo è alla stessa temperatura e quindi, all’equilibrio, in ogni punto di un sistema termicamente omogeneo è possibile misurare la stessa temperatura. In definitiva un sistema termicamente omogeneo è omogeneo rispetto alla variabile termodinamica temperatura. 34 Il termometro Cosı̀ come abbiamo fatto per i sistemi X , Y e Z possiamo pensare di costruire, almeno in linea di principio, la funzione temperatura θK per ogni generico sistema termicamente omogeneo K; ovviamente tutte le funzioni temperatura devono soddisfare una relazione tipo la (2.4) per gli stati di reciproco equilibrio. Tuttavia le funzioni θK possono essere anche estremamente diverse tra loro e certamente può risultare poco pratico dover costruire una infinità di funzioni per assegnare la temperatura dello stato di equilibrio di ogni sistema termodinamico. Vi è un metodo più agevole che si basa sull’assunzione della seguente Ipotesi 4 Esiste un sistema termodinamico T , termicamente omogeneo, che può essere messo in equilibrio termico con ogni stato di ogni sistema termodinamico. Inoltre è nota la funzione temperatura θK di questo sistema. T prende il nome di termometro. Ciò significa che in ogni classe di equivalenza [℧]r di ℧ esiste almeno uno stato di equilibrio del sistema T . Possiamo costruire una funzione temperatura che è universalmente valida per ogni sistema termodinamico. Consideriamo il generico sistema termicamente omogeneo K che si trova in uno stato di equilibrio termico definito dai valori (k1 , . . . , kp ). Supponiamo che questo stato di equilibrio sia nella classe di equivalenza [℧]r assieme allo stato (t1 , . . . , tq ) di T . Definiamo la funzione Θ nel seguente modo Θ(k1 , . . . , kp ) ≡ θT (t1 , . . . , tq ) = θr . In questo modo si ha che Θ : ℧ → R ed inoltre è evidente che Θ([℧]r ) = θr , ossia assume valore costante sulle classi di equivalenza di ℧ (che quindi, possono essere labellate tramite il valore della temperatura). Ovviamente anche la definizione di Θ non è univoca; se h : R → R è una funzione strettamente monotona allora anche Θ′ ≡ h ◦ Θ è un buona funzione temperatura universale. 2.3 2.3.1 Lavoro e calore Il lavoro per i sistemi termodinamici Il lavoro è un concetto puramente meccanico ed è legato allo spostamento di un corpo sotto l’effetto di una forza; ad esempio si dice che un campo di forza f~ compie su di un corpo un lavoro infinitesimo δW = f~ · d~x quando il corpo in esame subisce uno spostamento d~x della sua posizione5 . Se un sistema termodinamico, considerato nel suo insieme, esercita sull’ambiente esterno una forza e se come conseguenza di ciò si ha un qualunque spostamento, allora il lavoro fatto o subito dal sistema prende il nome di lavoro esterno; ad esempio un gas che si espande in un cilindro chiuso da un pistone compie del lavoro esterno sull’ambiente circostante. Il lavoro interno, invece, è quello che una parte del sistema compie sul resto del sistema; ad esempio l’interazione molecolare è causa 5 Osserviamo che abbiamo usato il simbolo δW e non dW poichè il lavoro infinitesimo non è, in generale, un differenziale esatto; il lavoro infinitesimo ha la struttura di una 1-forma. 35 di lavoro interno. Ai fini di una descrizione termodinamica, il lavoro interno compiuto dal sistema non ha rilevanza, ciò che conta è il lavoro prodotto dall’interazione del sistema con l’ambiente esterno o con eventuali altri sistemi. Quando un sistema termodinamico compie del lavoro esterno, i cambiamenti che hanno luogo possono essere descritti in termini della variazione dei valori delle coordinate termodinamiche. D’ora in poi con la parola lavoro intenderemo sempre il lavoro esterno. Se la forza che un sistema termodinamico esercita sull’ambiente circostante è equiversa allo spostamento che ne deriva, diremo che il sistema compie un certo lavoro sull’ambiente esterno e tale lavoro è assunto convenzionalmente positivo; viceversa se lo spostamento ha verso opposto rispetto alla forza che il sistema esercita sull’ambiente diremo che viene compiuto del lavoro sul sistema, e tale lavoro è negativo. 2.3.2 Trasformazioni quasi-statiche Consideriamo un sistema termodinamico X i cui stati di equilibrio sono descritti dalle coordinate (x1 , . . . , xn ) ∈ A ⊂ Rn . Se l’equilibrio viene rotto (ad esempio da una variazione delle condizioni esterne o dall’insorgere di nuovi accoppiamenti tra le diverse parti del sistema stesso) il sistema subirà una trasformazione termodinamica attraversando una successione continua di stati di non equilibrio, finché il processo non si arresterà con il raggiungimento di un nuovo stato di equilibrio. Nel Paragrafo 2.1.2, in virtù dell’Ipotesi 1, abbiamo ammesso che solo gli stati di equilibrio possano essere definiti univocamente dal valore che assumono le n coordinate termodinamiche; rimane da capire cosa accade durante gli stati di non equilibrio. Per semplicità supponiamo che X sia un sistema omogeneo rispetto a tutte le sue variabili estensive; possiamo immaginare che l’intero sistema sia formato da un numero N molto grande di sottosistemi, (i) (i) ognuno dei quali è descritto da n coordinate termodinamiche (x1 , . . . , xn ) con i = 1, . . . , N . Tutti questi sistemi devono essere accoppiati reciprocamente in modo tale che all’equilibrio devono valere le seguenti relazioni (1) (N ) (per le variabili intensive) xk = xk = . . . = xk x = x(1) + . . . + x(N ) k k k (per le variabili estensive). In particolare possiamo scegliere la suddivisione in modo tale che all’equilibrio i sottosistemi siano tutti della stessa dimensione e con una uguale quantità di materia in modo tale che deve valere (1) (N ) (per le variabili intensive) xk = xk = . . . = xk (2.6) xk = x(1) = . . . = x(N ) (per le variabili estensive). k k N Se in seguito ad un qualche fenomeno si ha rottura dell’equilibrio, le variabili termodinamiche dei vari sottosistemi cominceranno a cambiare in maniera indipendente e la differenza di questi valori farà nascere nuovi accoppiamenti in modo tale che la perturbazione si propagherà (con una velocità finita) nei diversi punti del sistema. Inoltre non è da escludere che a causa della rottura dell’equilibrio vi sia anche uno scambio di materia ed una variazione dei volumi dei vari 36 sottosistemi. Quindi lo stato di non equilibrio del sistema dovrebbe essere descritto ad ogni istante da un insieme molto grande di variabili termodinamiche; la descrizione risulta tanto più accurata quanto maggiore è il numero N di sottosistemi presi in considerazione ma cosı̀ facendo aumenta il numero degli nN parametri indipendenti necessari a descrivere il sistema totale. Inoltre il valore di N non può essere preso grande a piacere in quanto la materia ha una struttura intima che è discreta ed i vari sottosistemi devono essere sufficientemente grandi da poter essere considerati ancora sistemi termodinamici. Quindi una tale descrizione degli stati di non equilibrio, sarà sempre approssimata seppure l’approssimazione risulta tanto migliore quanto il valore di N è grande. Se lo stato di equilibrio iniziale del sistema è descritto da un vettore ~x ∈ Rn , alla rottura dell’equilibrio, in ogni istante il sistema sarà descritto da un vetto~ = (~x(1) , . . . , ~x(N ) ) ∈ RnN . Lo spazio iniziale Rn , che chiameremo spazio re X d’equilibrio è quindi un sottospazio dello spazio di trasformazione RnN e viene individuato dalle condizioni (2.6). Quindi, la più generica trasformazione termodinamica può essere rappresentata da una curva in uno spazio di trasformazione nN -dimensionale, che ha il punto iniziale e quello finale che giacenti in un sottospazio di equilibrio n-dimensionale. Possiamo pensare di considerare dei processi che avvengono in modo infinitamente lento; in queste condizioni,ad ogni istante, tutti gli N sottosistemi avranno valori molto prossimi delle variabili termodinamiche ed in questo senso il punto rappresentativo dello stato del sistema sarà, ad ogni istante, infinitamente vicino al sottospazio di equilibrio Rn . Un processo infinitamente lento prende il nome di trasformazione quasi-staticae poiché per un tale processo possiamo confondere tutti gli stati di non equilibrio con stati di equilibrio, esso verrà rappresentato da una curva continua contenuta in Rn . I processi quasi-statici possono avvenire in due modi: si viene a creare un accoppiamento tra diverse parti del sistema che anno valori delle coordinate termodinamiche che differiscono di una quantità infinitesima, in tal caso si parla di processi spontanei; le condizioni esterne subiscono una successione lenta di variazioni infinitesimi, in modo tale che, ad ogni istante, le forze non equilibrate dal sistema hanno un’intensità infinitesima, in tal caso si parla di processi forzati dall’esterno. Ovviamente il processo quasi-statico, ottenuto come limite di una trasformazione estremamente lenta, è solo una idealizzazione teorica, tuttavia essi sono approssimabili arbitrariamente bene. 2.3.3 Forze generalizzate e lavoro termodinamico Fino ad ora abbiamo parlato di forze e di lavoro permutando il significato di queste parole dai relativi concetti meccanici, in questo senso il lavoro compiuto da un sistema termodinamico è sempre associato ad una variazione delle coordinate geometriche del sistema stesso; tuttavia per una trattazione formale può essere utile dare delle definizioni generali. Consideriamo due sistemi termodinamici, indipendentemente in equilibrio, X e Y, definiti reciprocamente dagli insiemi di variabili termodinamiche ~x = (x1 , . . . , xn ) ed ~y = (y1 , . . . , ym ). Supponiamo che in seguito all’accoppiamento i due sistemi evolvano verso l’equilibrio variando solo le coordinate x1 e y1 secondo una relazione funzionale del tipo g(x1 , y1 ) = 0 e mantenendo costanti tutte le altre variabili6 . Per il 6 si tratta di un accoppiamento di ordine n + m − 1 in quanto la condizione di equilibrio è funzione di una sola variabile indipendente. 37 Teorema delle funzioni implicite la condizione di equilibrio può essere riscritta come x1 = h(y1 ) e considerando y1′ = −h(y1 ) come nuova variabile termodinamica per il sistema Y, la condizione di equilibrio si riduce a x1 + y1′ = 0. A questo punto, dimenticando l’apice per la variabile y1′ , otteniamo la relazione per le variazioni infinitesime dx1 + dy1 = 0. Per il raggiungimento dell’equilibrio possono verificarsi tre distinte ipotesi: x1 aumenta mentre y1 diminuisce; y1 aumenta mentre x1 diminuisce; x1 e y1 restano costanti. Ovviamente, nell’ultimo caso, i due sistemi erano in equilibrio anche prima di essere messi in contatto. Consideriamo due generiche funzioni positive fX = fX (~x) e fY = fY (~y ) tali che se dx1 > 0 dy1 < 0 fX > fY fX < fY se dx1 < 0 dy1 > 0 (2.7) fX = fY se dx1 = 0 dy1 = 0; una tale coppia di funzioni prende il nome di forze generalizzate 7 e le variabili x1 ed y1 prendono il nome di coordinate di deformazione. Se interpretiamo fX come la forza che il sistema X applica sul sistema Y ed fY come la forza che il sistema Y applica sul sistema X , la (2.7) assume un ovvio significato: il sistema che applica una forza maggiore sull’altro incrementa la propria variabili a discapito della diminuzione della variabile relativa dell’altro sistema; si ha equilibrio quando le forze si bilanciano. Quindi possiamo pensare che l’equilibrio dei due sistemi si determina per il reciproco effetto di queste forze. Per i processi quasi-statici deve accadere che la differenza delle due forze deve avere un valore infinitesimale. La quantità δWX = fX dx1 rappresenta il lavoro infinitesimo che il sistema X compie sul sistema Y per mezzo della forza generalizzata fX ; analogo significato ha l’espressione δWY = fY dy1 = −fY dx1 . La quantità δW = δWX − δWY = (fX − fY )dx1 da il lavoro infinitesimo totale compiuto all’interno del sistema composto da X e Y; tale quantità è sempre positiva. Discutiamo il caso particolare in cui il sistema Y funge da ambiente esterno per il sistema X e supponiamo che quest’ultimo applichi sull’ambiente esterno un insieme di forze generalizzate f1 = f1 (~x); . . . ; fp = fp (~x) con p ≤ n, tale che la forza fi sia relativa alla variabile termodinamica xi (omettiamo il pedice X nell’espressione delle forze poiché considereremo solo forze applicate dal sistema X sull’esterno). Il lavoro infinitesimo che X compie sull’esterno è dato da δW = p X δWi = p X fi (~x)dxi . (2.8) i=1 i=1 La (2.8) ha la struttura di una 1-forma in Rn relativa ad un campo vettoriale f~ = f~(~x) che eventualmente ha componenti costantemente nulle in relazione a quelle variabili termodinamiche che non subiscono variazioni. Supponiamo che sotto l’effetto di tali forze il sistema X passi dallo stato di equilibrio iniziale 7 Osserviamo che le funzioni f X ed fY sono abbastanza arbitrarie in quanto sono definite a ′ = (ϕ◦f ) e f ′ = (ϕ◦f ) meno di una qualsiasi funzione strettamente crescente ϕ tale che fX X X X sono ancora due forze generalizzate. Questa arbitrarietà permette di operare la scelta più conveniente nelle diverse situazioni pratiche. 38 ~x = (x1 , . . . , xn ) ad uno stato di equilibrio finale ~x pensare che il lavoro totale compiuto sia dato da W = Z ′ = (x′1 , . . . , x′n ); possiamo ′ x ~ δW. ~ x Ovviamente un tale integrale ha senso solo se le variabili termodinamiche, da cui dipende il lavoro infinitesimale δW , sono definite durante tutta la trasformazione; quindi il calcolo del lavoro tramite il precedente integrale ha senso solo per trasformazioni quasi-statiche. Sotto una trasformazione quasi-statica dovuta alle forze generalizzate fi che porta il sistema dallo stato ~x allo stato ~x ′ , viene compiuto un lavoro finito W = Z ~ x ′ δW = ~ x Z ~ x ~ x ′ p X fi (~x)dxi . (2.9) i=1 L’equazione (2.9) è l’integrale di linea di una 1-forma e per quanto visto nel Paragrafo 1.3.3 il valore di W non dipende esclusivamente dagli estremi di integrazione, ossia dagli stati iniziale e finale, ma dipende in modo essenziale dal percorso lungo il quale l’integrale è calcolato. Fisicamente ciò significa che il lavoro che un sistema termodinamico compie quando evolve tra due stati distinti, dipende in modo determinante dal tipo di trasformazione che esso subisce, ossia da tutti gli stati intermedi attraverso i quali esso passa. Ovvia conseguenza di ciò è che in una trasformazione ciclica, che riporta il sistema nello stato di partenza, viene generalmente compiuto un lavoro non nullo. Tuttavia nel caso particolare in cui il campo di forze generalizzate f~ sia conservativo e quindi il lavoro infinitesimale è il differenziale di una funzione scalare ψ, otteniamo che W = Z ~ x ~ x ′ δW = Z ~ x ′ dψ = ψ(~x ′ ) − ψ(~x), ~ x ossia il lavoro dipende solo dagli stati iniziali e finali ed in un ciclo chiuso, il lavoro compiuto da un tale sistema si annulla identicamente. 2.3.4 Il primo principio della termodinamica; il concetto di calore Abbiamo mostrato che l’effetto significativo che si osserva durante un processo di accoppiamento termico tra due sistemi è che i due corpi variano le loro temperature fino a che esse non assumono uno stesso valore; un tale processo può essere interpretato in termini dello scambio di una quantità chiamata calore. Fino ad ora il calore è stato introdotto in maniera operativa nel modo seguente: il calore è l’ente che viene scambiato tra due sistemi in virtù di una differenza di temperatura; il flusso di calore cessa al raggiungimento dell’equilibrio termico. Tuttavia una tale definizione non dice nulla circa l’essenza fisica di tale ente; il discorso che segue mirerà a chiarire quale sia la natura del calore. Purchè l’accoppiamento non sia di tipo termico, le variazioni di stato dell’ambiente circostante possono indurre trasformazioni termodinamiche anche in un sistema adiabatico. Quindi un sistema adiabatico può essere accoppiato all’ambiente esterno in modo da poter produrre del lavoro. Come tipico esempio possiamo considerare un gas contenuto in un recipiente adiabatico provvisto 39 di un pistone scorrevole, manovrabile dall’esterno. Applicando una opportuna forza è possibile comprimere il gas che tuttavia rimane termicamente isolato durante tutta la trasformazione; in questo caso il sistema termodinamico ha compiuto un processo adiabatico per mezzo di un accoppiamento di tipo meccanico con il mondo esterno ed ha compiuto un lavoro W che in generale non è nullo. Innumerevoli esperimenti mostrano che quando un sistema adiabatico X passa da uno stato iniziale ~x ad uno finale ~x ′ secondo una qualsiasi trasformazione adiabatica, allora il lavoro compiuto W (~x → ~x ′ ) ha sempre lo stesso valore. Questa osservazione conduce a pensare che per sistemi adiabatici il lavoro compiuto durante una generica trasformazione adiabatica sia solo funzione delle coordinate termodinamiche dello stato iniziale e di quello finale, indipendentemente dal percorso adiabatico che congiunge i due stati. Quindi in virtù di quanto detto nei paragrafi 1.3.3 e 2.3.3, il lavoro W (~x → ~x ′ ) compiuto da un sistema adiabatico deve essere esprimibile in termini della differenza dei valori assunti da una funzione di stato8 del sistema tra gli stati ~x e ~x ′ ; chiameremo una tale funzione energia interna e la indicheremo con U . quindi per un sistema adiabatico che passa dallo stato ~x allo stato ~x ′ vale che −W (~x → ~x ′ ) = U (~x ′ ) − U (~x) (2.10) dove il segno meno è stato introdotto in modo che quando il sistema compie un lavoro positivo, la sua energia interna diminuisce. Se interpretiamo la quantità U (~x ′ ) − U (~x) come la variazione di energia del sistema, allora la (2.10) esprime un principio di conservazione dell’energia tramite l’uguaglianza del lavoro adiabatico con la variazione di energia. Tuttavia la (2.10) esprime qualcosa in più; essa dice che esiste una funzione delle coordinate termodinamiche tale che la differenza tra due suoi valori rappresenta la variazione di energia del sistema. Quando il sistema compie trasformazioni non adiabatiche le considerazioni fino ad ora fatte non valgono più in quanto il lavoro compiuto non è più funzione solo degli stati iniziale e finale, ma dipende fortemente dalla particolare trasformazione seguita. Il problema da risolvere è quello di riuscire a legare ancora il lavoro compiuto con una funzione di stato del sistema in modo che sia ancora verificato un principio di conservazione dell’energia. La soluzione di un tale problema si può ottenere solo tramite l’introduzione di un’ipotesi; si postula che per i sistemi termodinamici valga il Principio 2 (I Principio della termodinamica) Per ogni sistema termodinamico X esiste una funzione delle sole coordinate termodinamiche del sistema ~x = (x1 , . . . , xn ) che chiamiamo energia interna e che indichiamo con U = U (~x). In un processo in cui il sistema passa da uno stato iniziale ~x ad uno finale ~x ′ la variazione di energia interna deve essere espressa da △U = U (~x ′ ) − U (~x) indipendentemente dal tipo di trasformazione compiuta dal sistema. Inoltre, in un processo adiabatico in cui il sistema compie un lavoro Wad , deve valere che −Wad = △U . Per finire supporremo che U sia una funzione regolare delle variabili termodinamiche del sistema. 8 Una funzione di stato è una funzione il cui valore dipende solo dal valore delle coordinate termodinamiche che descrivono il sistema. 40 L’ultima richiesta probabilmente è solo un’idealizzazione ma permette una notevole semplificazione della matematica. Osserviamo che il I Principio definisce solo la differenza di energia interna e quindi definisce U a meno di una costante additiva priva di qualsiasi significato fondamentale. Resta da capire come sia possibile determinare la funzione U per quei sistemi che non sono adiabaticamente isolati. Supponiamo che il sistema X possa evolvere dallo stato iniziale ~x allo stato finale ~x ′ tramite due distinte trasformazioni, di cui una avviene in condizioni adiabatiche mentre l’altra in condizioni generiche. Sia Wad il lavoro compiuto nella trasformazione adiabatica e W il lavoro compiuto nella trasformazione non adiabatica. In generale vale che Wad 6= W . Poniamo Q = W −Wad dove la funzione di deficit Q prende il nome di calore della trasformazione; poiché nel processo adiabatico deve valere che △U = −Wad e poiché la quantità △U non dipende dalla trasformazione eseguita ma solo dagli stati iniziale e finale, per il generico processo possiamo scrivere Q = W + △U ⇒ △U = Q − W. (2.11) Per qualunque trasformazione che connette gli stessi stati il valore di △U è sempre lo stesso sebbene la natura dell’interazione tra il sistema e l’ambiente circostante differisce per ogni diversa trasformazione; in questo senso le funzioni Q e W son intimamente legate al tipo di interazione che produce la trasformazione nel sistema. Dalla (2.11) segue che in un processo adiabatico deve valere che Q = 0; la condizione di annullamento del calore è quindi sufficiente per determinare la natura adiabatica di una trasformazione. L’equazione (2.11) risponde alle domande rimaste ancora aperte riguardo alla natura fisica dell’ente calore; valgono le seguenti osservazioni: 1. Q e W sono due diverse manifestazioni dell’energia che viene scambiata tra il sistema termodinamico e l’ambiente circostante. 2. △U è una funzione crescente di Q; se Q > 0 diremo che il calore fluisce nel sistema e ciò comporta un aumento dell’energia interna, al contrario quando Q < 0 diremo che il calore defluisce dal sistema e a ciò si accompagna una diminuzione dell’energia interna. 3. △U è una funzione decrescente di W ; se W > 0, ossia se il sistema compie un lavoro positivo sull’ambiente si ha una diminuzione dell’energia interna, al contrario quando W < 0, ossia quando il lavoro è compiuto sul sistema, si ha un aumento dell’energia interna. 4. Q e W non sono in generale funzioni di stato, solo la loro somma è una funzione di stato e quindi non ha senso chiedersi quanto calore o quanto lavoro un sistema possiede in un determinato stato; ogni stato del sistema può essere raggiunto tramite diversi processi ognuno dei quali può involvere diverse quantità di lavoro e calore. Se si interpreta Q e W come forme di energia che vengono scambiate tra il sistema e l’ambiente esterno durante un processo, bisogna pure ammettere che qualsiasi processo che avviene totalmente all’interno del sistema non ne può modificare la sua energia interna. Quindi, come corollario del I Principio segue il 41 Principio 3 (Conservazione dell’energia) In un sistema perfettamente isolato deve valere che △U = 0, ossia l’energia interna è costante, qualsiasi sia il processo che avviene internamente al sistema. Un esempio paradigmatico di sistema perfettamente isolato è l’intero universo. 2.4 2.4.1 L’entropia Processi reversibili ed irreversibili Definiamo il significato di reversibilità di un processo: un processo reversibile è una trasformazione che si svolge in modo tale che alla fine, sia il sistema, sia ciò che localmente lo circonda, possono essere riportati allo stato iniziale, senza produrre alcun cambiamento nel resto dell’universo; durante una tale trasformazione il sistema deve passare da stati infinitamente vicini a stati di equilibrio a causa di successive piccole variazioni delle condizioni esterne. La trasformazione inversa si deve poter ottenere invertendo l’ordine delle variazioni subite dalle condizioni esterne. Una trasformazione che non soddisfa queste condizioni verrà indicata come un processo irreversibile. Dalla definizione segue che una trasformazione reversibile è necessariamente quasi-statica, ma non vale il viceversa. Si osserva che la totalità dei processi spontanei che avvengono in natura sono di tipo irreversibile ed è per questo motivo che le trasformazioni irreversibili vengono anche chiamate trasformazioni reali. Alla base dell’irreversibilità vi sono sempre effetti dissipativi quali attriti tra le parti in movimento del sistema, viscosità dei fluidi contenuti nel sistema, isteresi dei materiali sottoposti a forti stress, etc.; questi effetti dissipativi sono responsabili della trasformazione di parte del lavoro fatto dal sistema in una forma di energia interna che non è più recuperabile semplicemente ripercorrendo il processo nel senso inverso. Consideriamo una trasformazione quasi-statica irreversibile che porta il sistema termodinamico X dallo stato iniziale ~x ad uno stato finale ~x ′ lungo il cammino γ. Per il I Principio deve valere che U (~x ′ ) − U (~x) = Q(γ) − W (γ) dove Q(γ) e W (γ) sono rispettivamente il calore scambiato con l’ambiente esterno ed il lavoro fatto dal sistema durante la trasformazione γ; inoltre su un tratto infinitesimo della trasformazione, se δQ e δW sono le quantità infinitesime di calore e di lavoro che il sistema scambia, deve valere che dU = δQ − δW. (2.12) Dato che la trasformazione considerata è quasi-statica, poiché sono definiti tutti gli stati di equilibrio intermedi, deve valere che Z Q(γ) = δQ γ (2.13) Z δW. W (γ) = γ Supponiamo di forzare il processo quasi-statico inverso lungo il cammino −γ. poiché la trasformazione è irreversibile alla fine del processo inverso l’ambiente 42 esterno non può tornare nello stato originario e quindi devono valere le seguenti disuguaglianze Q(−γ) 6= −Q(γ) (2.14) W (−γ) 6= −W (γ) dove Q(−γ) e W (−γ) sono il calore ed il lavoro che il sistema scambia lungo il cammino inverso −γ. Dalle (2.13) ed (2.14) si ottiene che Z Z δQ δQ = 6 − γ −γ (2.15) Z Z δW 6= − δW. γ −γ In virtù dei risultati ottenuti nel Paragrafo 1.3.3 le (2.15) hanno senso solo se si ammette che né δQ né δW siano 1-forme funzioni delle sole variabili ~x = (x1 , . . . , xn ); tuttavia poiché queste espressioni rappresentano quantità infinitesime che devono variare con continuità durante la trasformazione dobbiamo ammettere che esse dipendono anche da un set di parametri che indicheremo con λ il cui valore varia secondo il senso di percorrenza della trasformazione. Osservando che dalla (2.12) segue che la combinazione δQγ − δWγ non deve dipendere dai parametri λ, possiamo scrivere che δQ(~x, λ) = δQrev (~x) + δΥ(~x, λ) (2.16) δW (~x, λ) = δWrev (~x) + δΥ(~x, λ), dove δQrev e δWrev sono delle 1-forme dipendenti dalle sole variabili termodinamiche ~x e rappresentano, rispettivamente, le quantità infinitesime di calore e e di lavoro che il sistema è capace di ricevere o restituire interamente a seconda che la trasformazione sia diretta o inversa. Il termine infinitesimo δΥ(~x, λ) rappresenta, su ogni tratto infinitesimo della trasformazione, la quantità di lavoro compiuto dal sistema che viene irrimediabilmente trasformata in calore a causa degli effetti dissipativi e che non è più possibile riconvertire in lavoro. I parametri λ sono quindi legati alle cause di dissipazione e pertanto vengono detti parametri di dissipazione; ovviamente nel limite λ → 0 avremo che δΥ → 0 il che equivale ad affermare che se si annullano le cause di dissipazione la trasformazione quasi-statica diviene reversibile. Dato che gli effetti dissipativi sono generalmente legati al comportamento microscopico della materia essi non possono essere interpretati in termini di grandezze termodinamiche, questo giustifica la necessità di introdurre i parametri di dissipazione λ che non dipendono dalle coordinate termodinamiche del sistema e che differenziano i processi reversibili da quelli irreversibili. 2.4.2 Il primo principio in forma differenziale Sia X un sistema termodinamico descritto dalle variabili ~x = (x1 , . . . , xn ); in una trasformazione finita questo sistema scambierà con l’esterno una quantità di calore Q che in virtù del I Principio si può scrivere come Q = W + △U . 43 Consideriamo una trasformazione infinitesima tra due stati di equilibrio infinitamente vicini; poiché U è una funzione di stato dipendente unicamente dalle variabili termodinamiche ~x, la sua variazione infinitesima coincide con il suo differenziale, ossia n X ∂U dU = dxi . (2.17) ∂xi ~ x i=1 Inoltre, in accordo alla (2.16) δW = δWrev (~x) + δΥ(~x, λ) = n X fi (~x)dxi + δΥ(~x, λ) (2.18) i=1 dove, utilizzando la (2.8),si è espresso il lavoro infinitesimo reversibile in termini delle forze generalizzate del sistema. Dalla (2.17) e dalla (2.18) segue che la quantità di calore scambiata è δQ = dU + δW = n X gi (~x)dxi + δΥ(~x, λ) (2.19) i=1 dove si è posto ∂U gi (~x) = + fi (~x). ∂xi x~ La (2.19) esprime il primo primo principio della termodinamica in forma differenziale. Dalle (2.16) segue che δQrev = δQ − δΥ e quindi δQrev = n X gi (~x)dxi ; (2.20) i=1 è evidente che il calore infinitesimo δQrev , scambiato in una trasformazione infinitesima reversibile, ha l’espressione di una 1-forma, anche se in generale non è un differenziale esatto. In un processo adiabatico reversibile la quantità di calore che il sistema scambia deve essere nulla e quindi dalla (2.19) si ottiene che δQrev = n X gi (~x)dxi = 0; (2.21) i=1 quindi un sistema adiabatico evolve reversibilmente in modo tale da soddisfare un’equazione di Pfaff. 2.4.3 Il secondo principio della termodinamica; l’entropia Come conseguenza di un gran numero di esperimenti effettuati sui più vari sistemi termodinamici è opportuno ritenere che i sistemi termodinamici soddisfano il seguente Principio 4 (II Principio della termodinamica; forma debole) In prossimità di ogni stato di equilibrio di un sistema termodinamico esistono stati infinitamente vicini che non possono essere raggiunti tramite un processo adiabatico reversibile. 44 Matematicamente questo equivale ad affermare che in prossimità del generico stato di equilibrio ~x del dato sistema termodinamico X vi sono stati ~x + d~x infinitamente vicini che non possono essere raggiunti tramite una curva soluzione dell’equazione di Pfaff (2.21), che qui riscriviamo δQ = n X gi (~x)dxi = 0. i=1 In questa forma il II Principio della termodinamica ha lo stesso contenuto del Principio 12; per tale motivo il Principio 4, enunciato in questo modo, prende anche il nome di Principio di irraggiungibilità adiabatica. Come conseguenza delle proprietà delle curve di Pfaff è quindi possibile applicare il Teorema di Carathéodory (Teorema 4) alla 1-forma δQrev definita dalla (2.21); ne consegue che l’espressione pfaffiana è olonoma, ossia deve esistere una funzione delle coordinate termodinamiche µ = µ(~x) che è un fattore integrante per δQ: ds = µ δQrev . (2.22) Al primo membro della (2.22) compare il differenziale esatto di una funzione di stato del sistema; tale funzione che indichiamo con s = s(~x) prende il nome di entropia empirica. a questo punto è necessario dare un significato fisico alle funzioni µ ed s; per fare ciò consideriamo due sistemi termicamente omogenei X ed Y e accoppiati termicamente in modo da formare un unico sistema termicamente omogeneo Z. Al raggiungimento dell’equilibrio termico i due sistemi saranno descritti rispettivamente dalle coordinate termodinamiche (x1 , . . . , xn−1 , θ) e (y1 , . . . , ym−1 , θ) dove θ è la temperatura empirica comune ai due sistemi. Poiché in un generico processo la quantità di calore QZ che il sistema composto Z scambia con l’esterno è uguale alla somma dei calori QX e QY che i singoli sistemi X e Y scambiano con l’esterno, possiamo scrivere in seguito ad un processo infinitesimo che δQZ = δQX + δQY ; (2.23) limitiamoci a considerare un processo reversibile in cui δQZ , δQX e δQY sono le quantità reversibili di calore scambiato. Sia i due sistemi X e Y che il sistema composto Z sono soggetti singolarmente al II Principio della termodinamica e come conseguenza di ciò le 1-forme δQX , δQY e δQZ ammettono tutte un fattore integrante. Siamo nelle condizioni per poter applicare il Teorema 5 secondo cui δQX = T (θ)φX (sX )dsX δQX = T (θ)φY (sY )dsY (2.24) δQX = T (θ)φZ (sZ )dsZ , dove le funzioni di stato sX , sY ed sZ , sono le entropie empiriche dei vari sistemi. Introducendo le nuove funzioni Z Z Z SX = φX dsX , SY = φY dsY , SZ = φZ dsZ , 45 le (2.24) diventano δQX δQX δQX = T (θ)dSX = T (θ)dSY (2.25) = T (θ)dSZ , e le funzioni di stato SX , SY ed SZ prendono il nome di entropie metriche o più brevemente entropie. Poiché le considerazioni che abbiamo fatto continuano a valere per una qualsiasi coppia di sistemi termicamente omogenei, possiamo concludere che esiste un fattore integrante universale T = T (θ) relativo alla quantità di calore infinitesima δQ scambiata dal generico sistema termicamente omogeneo, che conduce ad un’equazione di valore universale n δQrev 1 X dS = gi (~x)dxi , = T (θ) T (θ) i=1 (2.26) dove S è appunto l’entropia del sistema. Osserviamo che l’equazione (2.26) fissa solo il differenziale dell’entropia e quindi definisce la funzione di stato S a meno di una costante additiva. La funzione T = T (θ) prende il nome di funzione temperatura assoluta e fissa una scala universale delle temperature che prende il nome di scala delle temperature Kelvin; ovviamente come funzione della temperatura empirica θ la forma funzionale di T dipende dalla scala in cui è misurata θ. Utilizzando la scala Kelvin la (2.26) assume la forma funzionale più semplice, ossia δQrev ; dS = T in questo senso la scala delle temperature Kelvin risulta essere una scala privilegiata rispetto all’infinità di diverse scale possibili di temperatura che è possibile definire. Entropia di sistemi non termicamente omogenei Consideriamo nuovamente i due sistemi termicamente omogenei X ed Y, in contatto termico in modo da formare un unico sistema termicamente omogeneo Z ; dalla (2.23) e dalle (2.25) segue che dSZ = dSX + dSY , da cui tramite una semplice integrazione, ponendo le costanti di integrazione uguali a zero, si ottiene SZ = SX + SY . (2.27) La (2.27) dice che l’entropia di un sistema termicamente omogeneo è la somma delle entropie dei suoi singoli sottosistemi, e quindi l’entropia è una funzione di stato additiva. possiamo usare questa proprietà dell’entropia per definire la funzione entropia di un sistema non termicamente omogeneo. Sia X un sistema termodinamico formato dai sottosistemi termicamente omogenei X1 , . . . , Xp alle rispettivamente alle temperature θ1 , . . . , θp . In oltre sia Ti = T (θi ) con i = 1, . . . , p la temperatura di ogni sottosistema espressa nella scala Kelvin. 46 L’entropia del sistema X viene definita dall’equazione dSX = p X dSXi = i=1 2.4.4 p p X X δQXi δQXi . = T (θ ) Ti i i=1 i=1 Variazione di entropia nei processi reali Le superfici isoentropiche Per il momento ci siamo limitati a considerare processi reversibili che sono i soli processi per cui ha senso scrivere l’equazione (2.26) δQrev = T dS. Consideriamo un sistema termodinamico X descritto dalle coordinate termodinamiche ~x = (x1 , . . . , xn ). Supponiamo che questo sistema subisca un generico processo reversibile ed adiabatico; tale processo sarà descritto da una curva nello spazio delle coordinate termodinamiche che deve soddisfare l’equazione di Pfaff δQrev = 0; tuttavia una tale curva deve essere anche soluzione dell’equazione differenziale dS = 0 il che equivale ad affermare che un processo reversibile ed adiabatico è descritto da una curva nello spazio delle coordinate termodinamiche che giace su una generica superficie definita dall’equazione S(~x) = S con S costante reale. Quindi in tutti i processi che sono reversibili ed adiabatici l’entropia mantiene un valore costante; tali processi vengono detti isoentropici, mentre le superfici ΣS definite dall’equazione S(~x) = S vengono dette superfici isoentropiche. Due generici punti che giacciono su di una stessa superficie isoentropica possono essere collegati tramite una curva soluzione dell’equazione δQrev = 0; questo equivale ad affermare che partendo da un dato stato iniziale tramite trasformazioni reversibili ed adiabatiche si possono raggiungere tutti gli stati possibili per i quali l’entropia assume lo stesso valore. Il II Principio in forma forte La diretta conseguenza del II Principio della termodinamica, enunciato nella forma del Principio 4, è l’esistenza delle superfici isoentropiche da cui si ricava che durante una trasformazione adiabatica reversibile il sistema non varia la sua entropia. Tuttavia, dato in questa forma, il II Principio non da alcuna informazione riguardo ai processi reali. Poiché la termodinamica deve essere capace di dare una descrizione dei fenomeni naturali ciò rende necessario enunciare il II Principio in una forma più generale: Principio 5 (II Principio della termodinamica; forma forte) In prossimità di ogni stato di equilibrio di un sistema termodinamico esistono stati infinitamente vicini che non possono essere raggiunti tramite nessun tipo di processo adiabatico. Discutiamo le implicazioni del II Principio, dato nella forma del Principio 5, sul cambiamento di entropia in un sistema adiabaticamente isolato quando esso compie una trasformazione reale e finita. Supponiamo che il sistema termodinamico X sia adiabaticamente isolato; il generico stato del sistema può viene descritto dalle coordinate termodinamiche ~x = (x1 , . . . , xn ) mentre S = S(~x) è il valore che l’entropia assume in tale stato. Lo stato di un tale sistema può 47 essere anche definito univocamente dal set di nuove variabili (x1 , . . . , xn−1 , S) dove l’entropia è assunta come una delle n variabili indipendenti; osserviamo che in queste nuove variabili le superfici isoentropiche ΣS coincidono con la famiglia di piani definiti dalla condizione S(~x) = S al variare di S in R. Supponiamo che il sistema si trovi nello stato iniziale descritto dalle coordinate (x′1 , . . . , x′n−1 , S ′ ) e che in seguito ad una generica trasformazione adiabatica (reversibile o irreversibile) giunga nello stato finale (x′′1 , . . . , x′′n−1 , S ′′ ). Sia V ⊆ Rn l’insieme di tutti i possibili stati raggiungibili dal sistema a partire dallo stato iniziale (x′1 , . . . , x′n−1 , S ′ ) tramite una generica trasformazione adiabatica; ovviamente se in V vi è uno stato per cui l’entropia vale S, allora V conterrà anche tutta la superficie isoentropica relativa al valore S dell’entropia. Assumeremo, ovviamente, che V sia un insieme limitato. Se si fissano solo le n − 1 coordinate finali x′′1 , . . . , x′′n−1 l’entropia dello stato finale risulta una funzione continua della n-esima variabile, ossia S ′′ = S ′′ (x′′1 , . . . , x′′n−1 , xn ) ≡ S ′′ (xn ). Consideriamo l’intervallo9 reale E definito da E = {xn |(x′′1 , . . . , x′′n−1 , xn ) ∈ V}; ovviamente anche E è un insieme limitato. Sia I ⊂ R il sottoinsieme definito da I = {S ′′ (xn )|xn ∈ E}; I è l’immagine di una funzione continua ristretta ad un intervallo limitato e per questo è esso stesso un intervallo limitato che ammette, quindi, un estremo superiore ed uno inferiore. i) Mostriamo che il valore S ′ che assume l’entropia nello stato iniziale deve appartenere a I. Se tramite una trasformazione adiabatica reversibile si variamo le n− 1 coordinate iniziali x′1 , . . . , x′n−1 fino a portarle ai valori x′′1 , . . . , x′′n−1 , il valore S ′ dell’entropia non cambia poiché una tale trasformazione è necessariamente isoentropica; quindi S ′ ∈ I. ii) A questo punto possiamo dimostrare che S ′ deve necessariamente essere un’estremo dell’insieme I. Supponiamo che S ′ sia un punto interno ad I, allora tramite un processo adiabatico reale infinitesimo è possibile portare il sistema in uno stato finale (x′′1 , . . . , x′′n−1 , S ′′ ) per cui S ′′ può essere arbitrariamente vicino a S ′ . A questo punto tramite una trasformazione isoentropica si possono variare arbitrariamente le restanti n − 1 coordinate (x′′1 , . . . , x′′n−1 ) in modo da raggiungere tutti i possibili stati che si trovano in un intorno arbitrariamente piccolo dello stato iniziale (x′1 , . . . , x′n−1 , S ′ ). Questo tuttavia contraddice il II Principio della termodinamica espresso in forma forte dall’enunciato del Principio 5. Per evitare di violare il II Principio dobbiamo ammettere che S ′ sia un estremo dell’intervallo I, ossia, qualsiasi sia la trasformazione che porta dallo stato iniziale (x′1 , . . . , x′n−1 , S ′ ) a quello finale (x′′1 , . . . , x′′n−1 , S ′′ ), si deve avere che o S ′ ≥ S ′′ oppure S ′ ≤ S ′′ ; lo stato iniziale deve poter raggiungere adiabaticamente o solo stati ad entropia maggiore o solo stati ad entropia minore. iii) Il seguente ragionamento mostrerà che a prescindere dallo stato di partenza, può verificarsi solo una delle due situazioni sopra esposte. Supponiamo che vi siano stati di partenza che possono raggiungere adiabaticamente stati ad entropia maggiore, ed altri che possono raggiungere stati ad entropia minore. Ogni stato che può raggiungere adiabaticamente solo stati ad entropia maggiore, deve a sua volta poter essere raggiunto solo da stati ad entropia minore e viceversa stati che possono raggiungere adiabaticamente solo stati ad entropia minore devono poter essere raggiunti solo da stati che si trovano ad entropia maggiore; 9 L’affermazione che E sia un intervallo segue dall’assunzione che le variabili termodinamiche possono essere variate con continuità; ad esempio si può assumere che la coordinata xn sia una variabile geometrica che è possibile variare con continuità anche in un sistema adiabatico. 48 se cosı̀ non fosse riusciremmo a trovare stati intermedi che connettono adiabaticamente stati con entropie sia maggiori che minori violando, quindi, il II Principio. Consideriamo tutti i possibili stati che possono essere raggiunti tramite una trasformazione adiabatica dallo stato (x′1 , . . . , x′n−1 , S ′ ), e per tutti questi stati valga che S ≥ S ′ , dove S è l’entropia del generico stato raggiunto. Allo stesso modo consideriamo tutti i possibili stati che possono essere raggiunti dallo stato (x′′1 , . . . , x′′n−1 , S ′′ ) tramite una trasformazione adiabatica e supponiamo che per ′′′ ′′′ questi stati valga S ≤ S ′′ . Consideriamo, infine, uno stato (x′′′ 1 , . . . , xn−1 , S ) ′′ ′′′ ′ ′′′ ′′′ ′′′ per cui valga S < S < S ; lo stato (x1 , . . . , xn−1 , S ) deve essere adiabaticamente inaccessibile sia da (x′1 , . . . , x′n−1 , S ′ ) che da (x′′1 , . . . , x′′n−1 , S ′′ ), tuttavia sia (x′1 , . . . , x′n−1 , S ′ ) che (x′′1 , . . . , x′′n−1 , S ′′ ) possono essere connessi adiabati′′′ ′′′ camente da (x′′′ 1 , . . . , xn−1 , S ). Quindi avremmo trovato uno stato che può connettere stati sia ad entropia maggiore che ad entropia minore violando cosı̀ il II Principio. Per evitare una tale contraddizione bisogna scegliere la direzione della disuguaglianza in modo unico per tutte le trasformazioni adiabatiche. iv) Una tale scelta è basata sulla relazione δQrev = T dS; per convenzione si assume che T ≥ 0 e dS ≥ 0 in modo tale che se durante un processo reversibile il calore Q del sistema aumenta, allora il processo sarà accompagnato da un aumento dell’entropia. Come conseguenza delle precedenti considerazioni possiamo enunciare un diretto corollario del II Principio Principio 6 (aumento dell’entropia) In una generica trasformazione adiabatica il valore dell’entropia non può mai diminuire. Il Principio 6 rivela l’importanza che assume l’entropia; la variazione di entropia fornisce una discriminante per i processi che possono avvenire spontaneamente in un sistema adiabaticamente o totalmente isolato. Per tali processi è necessario che l’entropia dello stato finale del sistema sia maggiore di quella dello stato iniziale. Valgono le seguenti considerazioni: • Quando un processo avviene in un sistema completamente isolato esso è incontrollabile dall’esterno e quindi procede in modo inarrestabile e spontaneo. L’entropia di un tale sistema, durante questo processo spontaneo, cresce fino a quando il processo stesso si arresta ed il sistema raggiunge l’equilibrio; a questo punto l’entropia ha raggiunto il suo massimo valore • La condizione dS = 0 è soddisfatta solo dalle trasformazioni adiabatiche e reversibili del sistema. • A causa dell’accoppiamento con l’ambiente esterno, l’entropia del sistema può decrescere; tuttavia l’entropia totale del sistema considerato più tutto l’ambiente esterno non può diminuire dato che l’universo è considerato nella sua totalità un sistema completamente isolato. Ne consegue che l’entropia dell’universo tende ad aumentare. 2.5 2.5.1 I cicli termodinamici La disuguaglianza di Clausius Sia X un sistema termodinamico ad n gradi di libertà e siano ~x e ~x ′ i punti rappresentativi di due stati di equilibrio infinitamente vicini. Supponiamo 49 che il sistema possa andare da ~x a ~x ′ sia in modo reversibile, scambiando con l’ambiente esterno una quantità di calore δQrev , sia in modo irreversibile scambiando, invece, una quantità di calore δQir . Poiché la variazione di energia interna non deve dipendere dalla particolare trasformazione eseguita, deve valere che dU = δQrev − δWrev = δQir − δWir , da cui δQir − δQrev = δWir − δWrev . (2.28) Ovviamente l’ espressione (2.28) deve essere diversa da zero, infatti, nel caso contrario, il cammino reversibile e quello irreversibile dovrebbero coincidere in quanto gli infinitesimi δQ e δW dipendono dalla curva sulla quale sono stimati. L’espressione (2.28) può essere o positiva o negativa; analizziamo le conseguenze: 1. Supponiamo che la (2.28) sia maggiore di zero. Consideriamo la trasformazione ottenuta andando da ~x a ~x ′ lungo il percorso irreversibile e poi riportando il sistema allo stato ~x invertendo il verso della trasformazione reversibile. Se δQrev e δWrev sono il calore infinitesimo ed il lavoro infinitesimo che il sistema scambia nella trasformazione reversibile infinitesima, allora indicheremo con δ Q̄rev = −δQrev e δ W̄rev = −δQrev le relative quantità rispetto alla trasformazione inversa. In base alla (2.28) deve valere che δQir + δ Q̄rev = δWir + δ W̄rev > 0, ossia il sistema assorbe una quantità di calore non nulla e compie lavoro sull’ambiente senza alcun altro cambiamento nell’universo. 2. Supponiamo che la (2.28) sia minore di zero di zero. Con ragionamenti analoghi possiamo scrivere δQir + δ Q̄rev = δWir + δ W̄rev < 0. In questo caso l’ ambiente esterno compie del lavoro sul sistema che in cambio cede una quantità di calore non nulla; nessun altro cambiamento viene prodotto nell’universo. Ci possiamo chiedere quale delle due situazioni sia fisicamente realizzata. Poiché lungo il tratto reversibile vale che δQrev = T dS, se accettiamo la situazione 1. deve valere che T dS < δQir , al contrario se accettiamo la situazione 2. deve accadere che T dS > δQir . Le considerazioni fatte fino ad ora sono del tutto generali e devono continuare a valere se come trasformazione irreversibile scegliamo un processo adiabatico; in questo caso, poiché deve essere δQir = 0, avremo che T dS < 0 nel caso 1. oppure, nel caso 2., T dS > 0. Osserviamo che dS rappresenta la variazione di entropia che il sistema X subisce quando passa dallo stato ~x allo stato ~x ′ ; se accettiamo l’ipotesi 1. dovremmo ammettere che il sistema subisce una diminuzione di entropia quando compie una trasformazione adiabatica irreversibile tra gli stati ~x e ~x ′ e questo contraddice il Principio 6 sull’aumento dell’entropia. In definitiva abbiamo dimostrato che in una trasformazione infinitesima tra due stati vicini δQir < T dS = δQrev (2.29) qualunque sia il processo irreversibile considerato. Dalla (2.29) e dalla (2.28), inoltre, si ottiene che δWir < δWrev . Il risultato appena conseguito è molto 50 importante; se si porta il sistema tra due generici stati tramite una successione di processi infinitesimi reversibili, la variazione di entropia che ne consegue deve essere pareggiata tramite uno scambio di calore tale che dS = δQrev /T su ogni variazione infinitesima. Al contrario, se il processo si svolge in modo irreversibile si avrà un’aumento di entropia che eccede la quantità δQir /T ; questo eccesso di entropia è dovuto a processi che avvengono interamente nell’interno del sistema e che hanno a che fare con la sua struttura microscopica. Per un processo finito ed irreversibile, si può generalizzare l’equazione (2.29) scrivendo Z ~x ′ δQir < S(~x ′ ) − S(~x). (2.30) T ~ x L’equazione (2.30) deve essere usata con cura poiché lascia aperta la questione di quale temperatura T debba essere usata durante la trasformazione del sistema (in un processo che non passa per stati di equilibrio, la temperatura può non essere definibile). In genere l’equazione (2.30) ha senso quando il sistema in esame rimane in contatto termico, durante tutta la trasformazione, con una sorgente di calore 10 S fissa alla temperatura T ; in questo caso il valore di T nella (2.30) è proprio la temperatura della sorgente S. Quando in seguito ad una trasformazione termodinamica lo stato finale del sistema coincide con quello iniziale, diremo che il sistema ha compiuto una trasformazione ciclica o più brevemente un ciclo. I cicli quasi-statici di un sistema ad n gradi di libertà, saranno descritti da curve chiuse in Rn . Dall’equazione (2.29) segue che il sistema compie una trasformazione ciclica deve valere che I I δQ 6 dS = 0 (2.31) T dove il segno di uguaglianza vale solo se la trasformazione è reversibile. La (2.31) è nota come disuguaglianza di Clausius. 2.5.2 Il rendimento di un ciclo Per un generico sistema termodinamico X che compie una trasformazione ciclica, possiamo definire il rendimento del ciclo nel modo seguente η= W Qin dove la quantità Qin rappresenta il calore che è fluito nel sistema durante il ciclo; ovviamente, per convenzione, Qin > 0. In un processo ciclico la variazione di energia interna del sistema deve essere nulla dato che U è una funzione di stato, quindi dal I Principio si ottiene che 0 = Q − W . Q rappresenta la quantità di calore scambiata durante tutto il processo e può essere espressa come somma algebrica tra il calore assorbito Qin e quello ceduto −Qout (con la convenzione sul segno deve essere che Qout > 0 ), ossia Q = Qin − Qout . Possiamo ridefinire il rendimento come segue η= Q Qin − Qout Qout W = = = 1 − . Qin Qin Qin Qin (2.32) 10 Una sorgente di calore è un sistema termodinamico S di massa talmente grande da poter assorbire o cedere calore in quantità illimitate senza che la sua temperatura o il valore delle altre variabili termodinamiche subiscano variazioni apprezzabili. 51 La (2.32) è valida per ogni trasformazione ciclica e dice che il rendimento di un ciclo è sempre minore o alpiù uguale ad uno; η ha valore massimo se Qout = 0 ossia come risultato finale della trasformazione il sistema non deve aver ceduto calore. 2.5.3 Il ciclo di Carnot Di notevole importanza per la termodinamica sono i cicli termici; un ciclo termico è costituito da una successione di due trasformazioni isoterme alternate da due trasformazioni adiabatiche. Le trasformazioni isoterme vengono effettuate mettendo il sistema X in contatto termico con due sorgenti di calore tenute a temperature costanti T1 e T2 ; indicheremo tali sorgenti con i simboli ST1 ed ST2 , rispettivamente. Poiché durante le adiabatiche il sistema non può scambiare calore con l’esterno, si avrà trasferimento di calore solo durante i processi isotermici e quindi il sistema scambierà calore solo con le sorgenti termiche ST1 ed ST2 . Durante un ciclo termico il sistema X non può assorbire calore da entrambe le sorgenti, infatti, sia in seguito all’assorbimento di calore sia durante le adiabatiche il sistema continua ad aumentare la sua entropia (o alpiù l’entropia resta costante durante le adiabatiche se queste sono pure reversibili) e quindi dopo un ciclo si avrebbe un ∆S > 0; questo, tuttavia, non è possibile dato che dopo un ciclo il sistema deve tornare allo stesso stato. Supponiamo che durante il ciclo il sistema compia un lavoro W > 0, allora il sistema deve assorbire un calore Q = Qin + Qout > 0; inoltre sia T1 > T2 . Mostriamo che in questo caso Qin ≡ Q1 è il calore assorbito dalla sorgente ST1 a temperatura più alta, mentre Qout ≡ −Q2 e quello scambiato con la sorgente ST2 a temperatura più bassa. Dall’equazione (3.5) segue che durante le due isoterme deve valere che Qout Qin + 6 ∆Siso Tin Tout dove ∆Siso è la variazione di entropia che si ha durante le isoterme. Ora, se ∆Sad > 0 è la variazione di entropia dovuta ai processi adiabatici, poiché sull’intero ciclo ∆S = ∆Siso + ∆Sad = 0, deve valere che ∆Siso 6 0. Allora la precedente equazione si può scrivere come −Qout Qin 6 . Tin Tout Ora, dato che per ipotesi Qin > −Qout > 0, la precedente disuguaglianza può essere rispettata solo se Tin > Tout , e quindi in definitiva deve essere Tin ≡ T1 e Tout ≡ T2 , come volevasi dimostrare. Quindi un sistema termodinamico che compie un ciclo termico assorbendo calore (Q1 ) dalla sorgente a temperatura più alta (T1 ) e cedendo calore (−Q2 ) alla sorgente a temperatura più bassa (T2 ) compie un lavoro positivo sull’ambiente; inoltre vale Q1 Q2 6 T1 T2 ⇒ T2 Q2 6 . T1 Q1 (2.33) Con analoghi ragionamenti si dimostra anche il viceversa, ossia che se il sistema assorbe calore dalla sorgente a temperatura più bassa per cederne parte a quella a temperatura più alta, allora W < 0. 52 Un ciclo termico che sia pure reversibile prende il nome di ciclo di Carnot. Supponiamo che le due isoterme appartengano a due superfici isoterme definite dalla temperature T1 > T2 mentre le due adiabatiche a due superfici isoentropiche caratterizzate dai valori S1 > S2 dell’entropia. Quando il sistema percorre l’isoterma a temperatura T1 variando la sua entropia da S2 ad S1 il sistema scambia una quantità di calore che in base alla (2.26) è data da (S1 − S2 )T1 = Q1 > 0. Quando invece il sistema passa da entropia S1 ad entropia S2 lungo l’isoterma a temperatura T2 si ha uno scambio di calore pari a (S2 − S1 )T2 = Q2 < 0. Ovviamente durante le adiabatiche non si ha scambio di calore. In base a quanto detto, il rendimento di un ciclo di Carnot è dato da ηCarnot = 1 − (S2 − S1 )T2 T2 Q2 =1− =1− . Q1 (S1 − S2 )T1 T1 (2.34) Come mostra la (2.34), il rendimento per un ciclo di Carnot è indipendente dal particolare sistema che lo compie e dal particolare tipo di trasformazioni che costituiscono il ciclo stesso; il rendimento dipende solo dalle temperature alle quali vengono eseguite le due isoterme; questo è il contenuto del I Teorema di Carnot. Il rendimento in un ciclo di Carnot cresce all’aumentare di T1 (isoterma a temperatura più alta) e decresce all’aumentare di T2 (isoterma a temperatura più bassa); come è evidente esso è sempre minore o uguale ad uno. Supponiamo che un sistema termodinamico compia un ciclo termico tra le sorgenti ST1 ed ST2 con T1 > T2 e compia un lavoro W > 0; allora utilizzando l’equazione (2.33) si ottiene η =1− Q2 T2 61− = ηCarnot Q1 T1 (2.35) ossia il rendimento di un ciclo termico irreversibile è sempre minore del rendimento del ciclo di Carnot che opera tra le stesse temperature; questo è il contenuto del II Teorema di Carnot. 53 Capitolo 3 Termodinamica classica e termodinamica assiomatica 3.1 Gli enunciati classici del II Principio La differenza fondamentale che intercorre tra la termodinamica classica e la termodinamica assiomatica è tutta concentrata nel modo in cui viene enunciato il II Principio. Come abbiamo avuto modo di vedere nei capitoli precedenti, la termodinamica assiomatica fondata da Carathéodory assume come II Principio della termodinamica il Principio di irraggiungibilità adiabatica (in forma forte). Partendo da questo enunciato di natura essenzialmente matematico, Carathéodory ricostruisce la termodinamica usando principalmente le proprietà delle equazioni di Pfaff; l’esistenza stessa della funzione di stato entropia, appare, nell’ottica di Carathéodory, come una inevitabile conseguenza della natura delle equazioni differenziali che stanno alla basa della descrizione del comportamento dei sistemi termodinamici. Al contrario, la termodinamica classica si basa su due enunciati del II Principio che sono di natura per lo più fenomenologico ed ingegneristico; essi sono: Principio 7 (enunciato di Clausius) Non è possibile realizzare una trasformazione il cui unico risultato sia un passaggio di calore da un corpo ad una data temperatura ad un altro che si trova a temperatura più alto. Principio 8 (enunciato di Kelvin-Planck) Non è possibile realizzare una trasformazione il cui unico risultato sia una trasformazione in lavoro di calore tratto da una sorgente a temperatura uniforme. Si dimostra che gli enunciati dei Principi 7 e 8 sono completamente equivalenti; una dimostrazione di ciò si trova in [Zemansky, pg. 166]. 3.2 La teoria del fattore integrante di Clausius Mostreremo in che modo sia possibile dimostrare l’esistenza di una funzione di stato entropia e quindi di un fattore integrante per il δQ partendo dall’enunciato del Principio 7 o equivalentemente del Principio 8. Per fare questo risulta 54 essenziale sfruttare le proprieta dei cicli termici compiuti da un dato sistema termodinamico. Ritroveremo, tramite un approccio completamente diverso, tutti i risultati dei Paragrafi 2.4 e 2.5. Le argomentazioni che seguono sono tratte da [Fermi, cap. 3]. Come prima cosa mostriamo che Proposizione 7 Se il sistema termodinamico X compie un ciclo termico tra le sorgenti Sθ1 e Sθ2 con θ1 > θ2 , facendo un lavoro W > 0 sull’ambiente esterno, allora il sistema assorbe una quantità di calore Q1 > 0 da Sθ1 e cede una quantità di calore −Q2 < 0 a Sθ2 . Inoltre Q1 > Q2 . Dimostrazione Sicuramente il sistema non può assorbire calore dalla sorgente a temperatura più bassa; se cosı̀ fosse, alla fine del ciclo le due sorgenti potrebbero essere messe in contatto termico fino a quando quella a temperatura più alta non cede a quella a temperatura più bassa una quantità di calore pari a quella che è stata assorbita dal sistema. Alla fine del processo sia il sistema che la sorgente Sθ2 avrebbero ripristinato il loro stato originario; in tal modo avremmo realizzato lavoro positivo unicamente sfruttando il calore scambiato con Sθ1 e ciò contraddice il Principio 8. Quindi X cede una quantità di calore −Q2 (con Q2 > 0) a Sθ2 ; in oltre per il I Principio deve valere che Q1 − Q2 = W > 0 da cui Q1 = Q2 + W > Q2 > 0. Ciò conclude la dimostrazione. ◭ Questo risultato ci permette di dimostrare la seguente Proposizione 8 Consideriamo due sistemi termodinamici X ed X e supponiamo che entrambi compiano dei cicli termici tra le sorgenti Sθ1 e Sθ2 con θ1 > θ2 . Se Q1 , Q1 e Q2 , Q2 sono le quantità di calore che i due sistemi scambiano rispettivamente con Sθ1 ed e Sθ2 , allora deve valere che • se X compie un ciclo reversibile (ossia un ciclo di Carnot) Q Q1 > 1; Q2 Q2 (3.1) • se anche X compie un ciclo reversibile Q Q1 = 1. Q2 Q2 (3.2) Dimostrazione Se entrambi i sistemi fanno un lavoro positivo W e W durante il ciclo, deve valere che W = Q1 − Q2 (3.3) W = Q1 − Q2 , (Q1 , Q2 , Q1 , Q2 sono tutte quantità positive). Il rapporto Q1 /Q1 può essere approssimato in modo arbitrariamente preciso da un numero razionale della forma m/m con m, m ∈ N. Supponiamo che il sistema X compia m cicli diretti e X , m cicli al rovescio (per ipotesi X compie dei cicli reversibili). Durante un ciclo a rovescio, il sistema X assorbe una quantità di lavoro −W , cede una quantità di calore −Q1 ad Sθ1 ed assorbe una quantità di calore Q2 da Sθ2 . Il lavoro totale compiuto dai due sistemi durante tutta la trasformazione è W tot = m W − m W, 55 (3.4) mentre le sorgenti Sθ1 ed Sθ2 scambieranno, rispettivamente, una quantità di calore data da Qtot 1 = m Q1 − m Q1 , −Qtot 2 = m Q2 − m Q2 . (3.5) Tramite le relazioni (3.3) ed (3.5) la (3.4) si può riscrivere come W tot = Qtot 1 − tot = m/m segue che Q = 0 e quindi deve valere Qtot . Dalla uguaglianza Q /Q 1 1 1 2 che W tot = −Qtot 2 ; in definitiva, alla fine di tutto il processo non si ha scambio di calore con la sorgente a temperatura più alta mentre il lavoro totale dipende solo dal calore −Qtot 2 scambiato con la sorgente a temperatura più bassa. Poiché tutto il processo è costituito da un numero intero di cicli, alla fine i due sistemi tornano nel loro stato originario; quindi per non violare il Principio 8 deve valere che W tot 6 0 da cui segue che Qtot 2 > 0 ed usando la (3.5) m Q2 6 m Q2 . Quindi deve valere che Q2 Q1 Q1 m Q1 . (3.6) = 6 ⇒ 6 m Q2 Q2 Q1 Q2 Per completare la dimostrazione, supponiamo che anche il sistema X sia reversibile ; questo equivale a scambiare nelle precedenti equazioni il ruolo dei due sistemi e quindi deve valere che Q1 Q1 . > Q2 Q2 Ma poiché entrambi i sistemi sono supposti reversibili, deve continuare a valere anche la (3.6); allora le due disuguaglianze sono compatibili solo se accade che Q1 Q1 = Q2 Q2 e ciò conclude la dimostrazione. ◭ Dalla Proposizione appena dimostrata segue che se si hanno diversi sistemi termodinamici che compiono dei cicli termici tra due sorgenti di calore tenute a temperature θ1 e θ2 , allora tutti i sistemi che compiono cicli reversibili hanno stesso rendimento, mentre quelli che compiono cicli non reversibili avranno dei rendimenti che non possono superare il rendimento ottenuto tramite un ciclo reversibile. Inoltre il rapporto Q1 /Q2 deve avere lo stesso valore per tutti i sistemi termodinamici che compiono cicli di Carnot tra sorgenti tenute alle temperature θ1 e θ2 indipendentemente dalla particolare natura del sistema. L’ultima osservazione ci permette di affermare che nei cicli di Carnot il rapporto Q1 /Q2 è funzione delle sole temperature θ1 e θ2 , ossia Q1 = f (θ1 , θ2 ), Q2 dove f = f (θ1 , θ2 ) è una funzione universale delle due temperature. Proposizione 9 Esiste una funzione universale della temperatura T = T (θ) tale che quando un generico sistema termodinamico compie un ciclo di Carnot tra due sorgenti di calore Sθ1 ed Sθ2 con θ1 > θ2 , allora vale T (θ1 ) Q1 = Q2 T (θ2 ) 56 (3.7) dove Q1 è la quantità di calore assorbita da Sθ1 , mentre −Q2 è la quantità di calore ceduto a Sθ2 . Dimostrazione Siano X ed Y due sistemi termodinamici che compiono dei cicli di Carnot rispettivamente tra le sorgenti Sθ1 , Sθ0 ed Sθ2 , Sθ0 con θ1 > θ2 > θ0 . Supponiamo che, durante un ciclo, X ed Y assorbano, rispettivamente, le quantità di calore Q1 e Q2 da Sθ1 e da Sθ2 , e supponiamo ancora che entrambi i sistemi cedano una quantità di calore −Q0 alla sorgente comune Sθ0 . Sotto queste condizioni possiamo scrivere che Q1 = f (θ1 , θ0 ), Q0 Q2 = f (θ2 , θ0 ). Q0 Dividendo membro a membro queste due uguaglianze si ricava che f (θ1 , θ0 ) Q1 = . Q2 f (θ2 , θ0 ) (3.8) Consideriamo la trasformazione composta ottenuta da un ciclo diretto del sistema X e da un ciclo inverso del sistema Y; anche questo processo composto è un ciclo reversibile poiché è la composizione di due cicli reversibili. Durante il processo complessivo, inoltre, non viene scambiato calore con la sorgente Sθ0 poiché la quantità di calore −Q0 ceduta da X viene assorbita da Y. Durante tutto il ciclo X assorbe una quantità di calore Q1 da Sθ1 , mentre Y cede una quantità di calore −Q2 a Sθ2 . In definitiva quando X ed Y lavorano assieme, compiono un ciclo di Carnot tra le sorgenti Sθ1 ed Sθ2 e quindi deve valere che Q1 = f (θ1 , θ2 ). Q2 (3.9) Dalle equazioni (3.8) ed (3.9) si ottiene che f (θ1 , θ0 ) = f (θ1 , θ2 ). f (θ2 , θ0 ) (3.10) Poiché in tutta la discussione θ0 è una temperatura arbitraria, possiamo mantenerla costante in tutte le equazioni; da ciò segue che possiamo considerare f funzione della sola temperatura θ, ossia Kf (θ, θ0 ) = T (θ), con K costante arbitraria. in questo modo possiamo riscrivere l’equazione (3.8) come Q1 T (θ1 ) = Q2 T (θ2 ) e ciò conclude la dimostrazione. ◭ La forma funzionale della funzione T = T (θ) dipende dalla particolare scala termometrica usata per misurare la temperatura empirica θ; tuttavia poiché la scelta della scala della temperatura è del tutto arbitraria, possiamo definire una nuova scala di temperatura usando T (θ) a l posto di θ. La scala di temperatura cosı̀ definita è la scala Kelvin. In questa scala la (3.7) si scrive T1 Q1 = . Q2 T2 57 Consideriamo un sistema termodinamico X che compie una trasformazione ciclica. Supponiamo che durante il ciclo il sistema scambi calore con un insieme di sorgenti ST1 , . . . , STr tenute rispettivamente alle temperature T1 , . . . , Tr . Siano Q1 , . . . , Qr le quantità di calore che X scambia con le varie sorgenti (ovviamente le Qi saranno positive se rappresentano quantità di calore assorbite dal sistema,altrimenti saranno negative). Vale la seguente Proposizione 10 Quando il sistema X compie un ciclo deve valere che r X Qi i=1 6 0, Ti (3.11) dove il segno di uguaglianza vale se il ciclo è reversibile. Dimostrazione Accanto alle r sorgenti introduciamo la sorgente ST0 mantenuta ad una temperatura T0 arbitraria ed introduciamo anche r sistemi termodinamici M1 , . . . , Mr , l’i-esimo dei quali compie un ciclo di Carnot tra le sorgenti STi ed ST0 . Supponiamo che durante un ciclo il sistema Mi ceda alla sorgente STi una quantità di calore −Qi , cioè una quantità di calore pari, in modulo, al calore che la sorgente STi cede ad X durante un ciclo di quest’ultimo. Secondo la (3.7) il sistema Mi acquista da ST0 una quantità di calore Q0,i pari a Q0,i = T0 Qi . Ti Consideriamo un ciclo composto costituito da un ciclo del sistema X più un ciclo di Carnot di ogni sistema Mi . Alla fine della trasformazione ciascuna delle sorgenti STi avrà compiuto uno scambio di calore nullo; infatti il sistema X acquista una quantità di calore Qi dalla sorgente STi , mentre il sistema Mi cede una quantità di calore −Qi a quest’ultima. D’altra parte i sistemi M1 , . . . , Mr assorbono da ST0 le quantità di calore Q0,1 , . . . , Q0,r , per cui la quantità totale di calore assorbito durante gli r cicli di Carnot deve essere Q0 = r X Q0,i = T0 r X Qi i=1 i=1 Ti . In definitiva, il risultato finale della trasformazione composta è che i sistemi M1 , . . . , Mr e X scambiano complessivamente una quantità di calore Q0 con la sorgente ST0 .Poiché dopo la trasformazione tutti i sistemi tornano allo stato iniziale e poiche si ha, in definitiva, scambio di calore con una sola sorgente tenuta a temperatura costante, per non violare il Principio 8 dobbiamo ammettere che Q0 6 0, ossia r X Qi 6 0. Ti i=1 Se il sistema X compie un ciclo reversibile, esso può essere percorso in senso inverso; in questo caso tutte le Qi cambiano segno ed applicando le considerazioni precedente al ciclo inverso si deve ottenere che r X Qi i=1 Ti 58 > 0. Poiché le due disuguaglianze devono valere contemporaneamente, nel caso di ciclo reversibile vale che r X Qi =0 Ti i=1 e questo conclude la dimostrazione. ◭ È importante considerare il caso in cui il sistema scambi calore con una distribuzione continua di sorgenti. In questo caso la sommatoria che compare nella (3.11) deve essere sostituita da un integrale eseguito sull’intero ciclo. Se δQ è la quantità infinitesima di calore che il sistema scambia con una sorgente a temperatura T , allora vale il Teorema 6 (di Clausius) Quando il sistema X compie una generica trasformazione ciclica deve valere che I δQ 6 0, (3.12) T dove il segno di uguaglianza vale solo se il ciclo è reversibile. Osserviamo che nella (3.12) la temperatura T è quella della sorgente e non del sistema; tuttavia nel caso di trasformazioni reversibili le due temperature coincidono. Poiché la relazione I δQ =0 T vale per qualsiasi ciclo reversibile eseguito dal sistema X , questo, per quanto visto nel Paragrafo 1.3.3 è sufficiente ad affermare che la quantità δQ/T è un differenziale esatto che indicheremo con dS. Quindi la temperatura assoluta T è il fattore integrante per il calore infinitesimo δQ. Preso uno stato di equilibrio di riferimento ~x0 per il sistema X e supponendo che ogni alto stato ~x possa essere connesso a ~x0 tramite un cammino reversibile, possiamo definire la funzione di stato entropia nel modo seguente S(~x) = Z x ~ ~ x0 δQ + S(~x0 ). T È evidente che S è definita a meno di una costante additiva arbitraria. 3.3 Vantaggi di una formulazione assiomatica La teoria del fattore integrante nello schema di Clausius, di cui abbiamo brevemente tracciato le linee nel paragrafo precedente, per quanto rigorosa e generale è senza dubbio di carattere estremamente applicativa. Fintanto che si è interessati alla progettazione di macchine termiche è essenziale poter disporre di principi che siano validi a prescindere dal tipo di sostanza che venga utilizzata; se tuttavia si vuole studiare il comportamento dei sistemi durante le trasformazioni in termini di funzioni di stato e di variazione dei parametri termodinamici, allora è preferibile utilizzare un metodo che sia più strettamente legato all’uso delle coordinate. La strada percorsa da Clausius appare molto distante da 59 quella prospettata da Carathéodory nel suo tentativo di assiomatizzare la termodinamica; in realtà sia l’enunciato del II Principio dato da Clausius che quello dovuto a Kelvin e Planck contengono il Principio di irraggiungibilità adiabatica proposto da Carathéodory. Questo è dimostrato nel seguente Teorema 7 Se vale il Principio 8 allora necessariamente è soddisfatto pure il Principio 5. Dimostrazione Consideriamo un sistema termodinamico X che si trova in uno stato di equilibrio descritto dalle coordinate ~x = (x1 , . . . , xn−1 , U ) dove U è l’energia interna del sistema. In seguito ad una trasformazione adiabatica reversibile infinitesima γ, il sistema raggiungerà un nuovo stato di equilibrio descritto da ~x + d~x = ~x ′ = (x′1 , . . . , x′n−1 , U ′ ). Consideriamo la retta π ∈ Rn ottenuta mantenendo costanti i valori delle coordinate x′1 , . . . , x′n−1 e facendo variare solo la coordinata U . Tutti gli stati che si trovano sulla retta π si differenziano solo per un diverso valore dell’energia interna mentre hanno valori identici per tutte le altre coordinate termodinamiche; questo significa che la retta π descrive trasformazioni in cui il sistema non compie lavoro in quanto non varia nessuna coordinata di deformazione, tuttavia varia l’energia interna U e questo può accadere unicamente tramite scambio di calore con l’ambiente esterno. Sia π+ la semiretta definita da U > U ′ , mentre π− quella definita da U < U ′ . Mostriamo che se vale il Principio 8 allora non vi è nessuna trasformazione adiabatica (reversibile o irreversibile) capace di portare il sistema X in uno stato di π− . Ragioniamo per assurdo e supponiamo che tramite una trasformazione adiabatica β il sistema vada nello stato ~x ′′ ∈ π− . Ora, tramite assorbimento di una quantità di calore Q il sistema viene portato nello stato ~x ′ ed in seguito, tramite la trasformazione γ −1 (ossia l’inversa della trasformazione γ) viene ricondotto allo stato di partenza ~x. Poiché le trasformazioni β e γ −1 sono adiabatiche, il sistema acquista unicamente la quantità di calore Q > 0 passando da ~x ′′ a ~x ′ lungo π; d’altra parte il sistema compie un ciclo e per il I Principio esso compie una quantità di lavoro W = Q > 0. In definitiva il sistema compie del lavoro positivo scambiando unicamente calore con un’unica sorgente e ciò viola il Principio 8. Quindi se si accetta l’enunciato di Kelvin-Planck si deve ammettere che tutti i punti di π− sono adiabaticamente irraggiungibili per quanto vicini allo stato iniziale ~x; ma questo è esattamente l’enunciato del Principio 5 sull’irraggiungibilità. ◭ In un certo senso il Principio di irraggiungibilità, dato in forma forte, può essere considerato come il Principio di Kelvin-Planck ridotto all’essenziale. Non si può accusare Carathéodory di aver formulato la termodinamica partendo da un principio troppo matematico e lontano dal senso fisico; chi accetta gli enunciati classici sta già indirettamente accettando il Principio di irraggiungibilità. Il lavoro di Carathéodory, inoltre, ci mostra che l’esistenza di un fattore integrante per il δQ e quindi la possibilità di considerare le superfici isoentropiche. non sono, in nessun modo, conseguenza delle proprietà dei cicli di Carnot. La possibilità di definire l’entropia come funzione di stato, è una diretta conseguenza della natura delle equazioni di Pfaff che sono alla base della teoria termodinamica. La teoria assiomatica di Carathéodory non è solo formalmente più elegante della teoria classica, ma è anche più profonda; accettando il Principio di KelvinPlanck, in virtù dei due Teoremi di Carathéodory, la teoria di Clausius risulta 60 semplicemente un’ovvia conseguenza. Una analisi critica e profonda della formulazione assiomatica della termodinamica è fornita in [Afanassjeva]. Bisogna dire che il lavoro di Carathéodory è stato soggetto anche a numerose critiche, per tanti l’assiomatizzazione della termodinamica è da ridursi al semplice rango di diletto matematico mentre i meriti di Carathéodory non vanno oltre a quelli di avere dimostrato un “bel teorema sulle equazioni di Pfaff. Una decisa critica nei confronti della termodinamica assiomatica è data in [Truesdell]. A mio modesto parere una buona teoria fisica deve avere tra le altre qualità anche quella dell’eleganza e, indiscutibilmente, la formulazione assiomatica della termodinamica data da Carathéodory non è manchevole né di eleganza formale né di rigore logico; già questo dovrebbe essere sufficiente affinché la termodinamica assiomatica venga almeno ritenuta un interessante punto di vista alternativo rispetto alla più immediata formulazione classica. 61 Bibliografia [Afanassjeva] Afanassjeva T.E. (1996), I fondamenti della Termodinamica, La goliardica Pavese, Pavia. [Fermi] Fermi E. (1972), Termodinamica, 2a ed., Boringhieri, Torino. [Honig] Honig J.M. (1999), Thermodynamics, 2a ed., Academic Press, San Diego-London. [Pagani-Salsa] Pagani C.D., Salsa S. (1995), Analisi Matematica, volumi I e II, Masson, Milano. [Truesdell] Truesdell C. (1984), Rational Thermodynamics, 2a ed., SpringerVerlag, New York. [Wilson] Wilson A.H. (1957), Thermodynamics and Statistical Mechanics, University press, Cambridge. [Zemansky] Zemansky M.W. (1991), Calore e Termodinamica, Zanichelli, Bologna. 62