SEZIONE 2
LE ANTINOMIE DELLA FISICA CLASSICA
Premessa
Si è accennato al fatto che i diversi schemi teorici che caratterizzano FC non raggiungono mai una piena coerenza tra loro; è questo uno dei principali motivi del fatto che l’indagine di “fenomeni di confine” (tra meccanica e
termodinamica, tra termodinamica ed elettromagnetismo, tra elettromagnetismo e meccanica) contribuisce in
maniera decisiva alla “crisi” dell’intero sistema, che si annuncia già alla fine del XIX secolo. Delle motivazioni
fondamentali di questa crisi non si parla quasi mai nella didattica tradizionale (così come quasi mai si fa accenno
alle incoerenze di alcuni assunti di fondo dei diversi schemi teorici). Ne consegue che di FC si dà un’immagine
che è appunto “didattica” ed è ben lontana dalla sua realtà problematica.
Non solo dal punto di vista storico, ma anche dal punto di vista della critica dei fondamenti, è impossibile
pensare a FC come un sistema rigorosamente definito, privo di contraddizioni interne e di delicate tensioni concettuali. Una visione più appropriata farebbe riferimento ad un sistema di teorie che non coesistono pacificamente tra loro e che, nella loro evoluzione – stimolata da importanti scoperte sperimentali –, generano continuamente nuovi problemi da risolvere. In altri termini, la fisica della fine del XIX secolo non costituisce un punto di arrivo in cui le conoscenze precedenti ricevono una sistemazione chiara e definita. Essa va piuttosto vista come un
insieme di diversi programmi di ricerca in competizione tra loro. In quanto segue esporremo le linee salienti di questi programmi, in base all’ipotesi che i nostri studenti, se percepissero anche questa problematica fondamentale, si
formerebbero un’immagine più adeguata della natura della disciplina e della sua rilevanza culturale.
La nostra ricostruzione “storico-critica” di FC è, in un certo senso, propedeutica. Essa intende presentare la
situazione problematica che, all’inizio del XX secolo, darà luogo a quelle radicali trasformazioni dell’assetto concettuale della disciplina, che aprono alla fisica “moderna”. Per questo motivo, la nostra ricostruzione sarà inevitabilmente retrospettiva, ossia ripercorrerà alcuni aspetti salienti dell’immagine classica del mondo fisico alla luce
di quattro “antinomie”, che ci consentiranno di mettere in chiara evidenza i principali problemi che pervadono la
ricerca alla fine del XIX secolo. Le antinomie che prenderemo in considerazione sono le seguenti:
o macroscopico ⇔ microscopico
o continuo ⇔ discreto
o causale ⇔ casuale
o stabile ⇔ instabile
Si tratta di antinomie che tagliano trasversalmente i programmi di ricerca della fisica classica e mostrano come
essi presentino relazioni concettuali non banali. Il nostro obiettivo è quello di analizzarne l’evoluzione nel passaggio alla fisica moderna.
1. L’antinomia macroscopico ⇔ microscopico
1.1. La nascita della distinzione tra macroscopico e microscopico
Ci chiediamo quali forme assume verso la fine del XIX secolo la distinzione tra livello macroscopico e livello microscopico della realtà fisica. Per trovare una risposta adeguata occorre risalire alla metà del secolo, ossia a quando sono formulati i principi e i criteri descrittivi di un nuovo tipo di teoria fisica, che si distacca da tutte quelle
che l’avevano preceduta e che ha preso il nome di “termodinamica”. La termodinamica “pura” o “fenomenologica” è infatti una teoria di sistemi considerati nella loro interezza senza far riferimento alla loro costituzione atomico-molecolare. Occorre tuttavia ammettere implicitamente che tali sistemi abbiano una struttura interna
“nascosta” in grado di ricevere e restituire energia. Questa ammissione deriva appunto dalla necessità di generalizzare il principio di conservazione dell’energia in modo che i cosiddetti processi dissipativi non appaiano in contraddizione con esso. Quella che non si conserva, a causa degli ineliminabili effetti dissipativi presenti in ogni fenomeno reale, è l’energia meccanica “macroscopica”, ossia immediatamente “utilizzabile” per produrre effetti quali
il moto di un sistema, il suo sollevamento ad una certa quota, e via dicendo. Sappiamo anche che i fenomeni elettromagnetici producono effetti dissipativi non appena entrano in gioco correnti elettriche, o la radiazione è assorbita da un corpo, ecc. Inoltre, a causa degli effetti dissipativi, i sistemi meccanici ed elettromagnetici reali – se
non sono continuamente alimentati da fonti esterne di energia – tendono inevitabilmente, in un tempo più o
meno lungo, a raggiungere una situazione di equilibrio e di stasi.
Con la scoperta della prima legge della termodinamica, i fisici si sono rapidamente convinti, intorno alla metà
del XIX secolo, che nei fenomeni reali l’energia meccanica o elettromagnetica non è perduta, ma semplicemente
trasferita a un livello “nascosto” di realtà: appunto la realtà microscopica. La formulazione della prima legge della
termodinamica è andata, storicamente, di pari passo con l’affermazione dell’idea che la temperatura di un corpo
non fosse l’effetto della presenza al suo interno di una sostanza (il cosiddetto fluido calorico), bensì fosse
l’espressione a livello macroscopico di una “forma di movimento” riguardante la costituzione atomicomolecolare del corpo, ossia fosse la manifestazione dell’energia immagazzinata a livello microscopico. Il termine
“macroscopico” acquista dunque in termodinamica un significato ben definito: si dice “macroscopico” un sistema per il quale abbia senso definire una temperatura. Non avrebbe senso, per esempio, parlare della temperatura
di un pendolo, considerato semplicemente dal punto di vista meccanico.
Tuttavia, il pregio della termodinamica “pura” sta nel fatto che essa può procedere e giungere a previsioni efficaci senza indagare sulla “forma di movimento” che si verifica a livello microscopico. La prima legge della termodinamica vale per tutti i sistemi macroscopici e stabilisce l’esistenza di un’energia interna, ossia una funzione
dello stato macroscopico del sistema che non può essere creata né distrutta, ma solo scambiata. In generale,
l’energia interna di un sistema è legata alla sua temperatura: l’energia meccanica o elettromagnetica apparentemente perduta nei processi dissipativi si ritrova sotto forma di riscaldamento complessivo dell’intero sistema.
Ma la scoperta della termodinamica non si è limitata all’introduzione della prima legge e alla definizione di
grandezze che rappresentano le due forme principali di trasferimento di energia: il lavoro e il calore (che andava
quindi ridefinito come grandezza fisica di “scambio”). Infatti l’evidenza sperimentale ha messo in risalto un’altra
caratteristica fondamentale dei processi dissipativi: essi sono di fatto irreversibili. Questo fatto è stato espresso nella forma seguente: l’energia meccanica o elettromagnetica iniziale, una volta dissipata, ossia distribuita tra gli innumerevoli gradi di libertà microscopici, non è più recuperabile nella forma macroscopica organizzata. Il famoso
mulinello di Joule produce un riscaldamento dell’acqua e l’energia meccanica iniziale si trasforma in energia interna dell’intero sistema. Occorre dunque spiegarsi perché non sia possibile “recuperare” questa energia e restituirla al congegno meccanico rotante.
Stiamo evidentemente parlando della seconda legge della termodinamica. E stiamo parlando di una seconda
grandezza che definisce lo stato termodinamico di un sistema fisico, l’entropia. A differenza dell’energia,
l’entropia non si conserva, ma cresce fino a che non raggiunge un valore massimo che individua lo stato di equilibrio finale. I processi dissipativi producono entropia. E non esiste un processo che abbia come unico risultato finale la diminuzione dell’entropia di un sistema fisico.
Ma c’è un’altra considerazione da fare. Se l’energia totale del sistema è in ultima analisi energia dei suoi costituenti microscopici e se tale energia si conserva, allora dobbiamo concludere che, al livello microscopico, non possono verificarsi processi dissipativi. Il mondo macroscopico è un mondo ideale, dove non ci sono attriti o urti di tipo
“anelastico”. Di questo mondo non possiamo fare altro che costruire modelli basati su sistemi meccanici o elettrodinamici ideali, prendendo a prestito i concetti che le nostre conoscenze ci hanno messo a disposizione. Alla
realtà dissipativa e irreversibile dei normali processi fisici a cui assistiamo nella nostra vita quotidiana, si contrappone l’idealità e la reversibilità dei processi, ipotetici, che si svolgono nel mondo microscopico. Il tentativo di
creare un collegamento tra questi due livelli di realtà si è concretizzato nella costruzione di modelli cineticoatomistici dei sistemi macroscopici osservati e nell’introduzione di leggi di carattere essenzialmente statistico.
1.2 Il “demone” di Maxwell
Fig. 2 - Il demone è in grado di “vedere” le singole molecole: per lui esiste solo energia cinetica di traslazione. Egli
non vede dissipazione e non è in grado di distinguere tra passato e futuro. Selezionando le singole molecole in base al
loro stato di moto, può, senza compiere lavoro, allontanare a piacere il sistema dalla situazione iniziale d’equilibrio
termico.
La necessità di una distinzione tra livello macroscopico e livello microscopico è “percepita” dal solito Maxwell in
una forma a dire il vero piuttosto insolita, ma molto efficace dal punto di vista concettuale. Nel 1867, egli inventa
un famoso esperimento mentale: quello che introduce il cosiddetto “demone” (fig. 2).1 Il “demone di Maxwell” è
dunque un essere ipotetico in grado di prendere decisioni e che ha la straordinaria capacità di “vedere” le singole
molecole di un gas e di “selezionarle” in base al loro stato di moto. Ci possiamo chiedere quali siano stati gli elementi che hanno contribuito alla creazione di un simile “personaggio”. Dobbiamo allora partire proprio dalla
formulazione di Kelvin del secondo principio della termodinamica (1851):
È impossibile impiegare un agente materiale inanimato per ottenere effetto meccanico utilizzabile da una qualsiasi porzione di materia raffreddandola fino a una temperatura più bassa del più freddo degli oggetti che la circondano.
Importante è il commento che Kelvin fa seguire al proprio enunciato:
Il corpo animale non agisce come una macchina termica. Non si può arrivare a comprendere il modo in cui effetti meccanici sono prodotti nel corpo animale senza ulteriori esperimenti e osservazioni. Quale che sia la natura di questo
modo, la coscienza insegna a ogni individuo che egli è, in qualche misura, soggetto alla direzione della sua volontà.
Sembra quindi che le creature animate abbiano il potere di applicare immediatamente a certe particelle in moto nei
loro corpi forze tramite le quali il moto di queste particelle sono dirette a produrre gli effetti meccanici desiderati.
Crediamo sia abbastanza evidente che le osservazioni di Kelvin influenzino Maxwell. Questi, nel suo trattato
di termodinamica Theory of Heat, scritto nel 1871, dà una propria versione della seconda legge: «È impossibile creare una differenza di temperatura tra due parti di un sistema isolato, inizialmente all’equilibrio termico, senza
spendere lavoro». Questa formulazione della seconda legge fornisce un accesso diretto al suo “esperimento mentale” del demone ordinatore. Infatti, poco dopo, Maxwell aggiunge il seguente commento:
Supponendo che un corpo contenga energia sotto forma di calore, quali sono le condizioni per estrarre dal corpo la
sua energia, in tutto o in parte? Se il calore d’un corpo consiste nel moto delle sue parti, e se fossimo capaci di distinguere queste parti e guidare e controllare il loro modo mediante un qualsiasi tipo di meccanismo, allora allestendo il
nostro apparato in modo da controllare ciascuna parte in moto del corpo, noi potremmo, con un adatta catena di
meccanismi, trasferire l’energia delle parti semoventi del corpo riscaldato ad ogni altro corpo nella forma di moto ordinario. Il corpo riscaldato sarebbe così reso perfettamente freddo, e tutta la sua energia termica sarebbe convertita
nel moto visibile di qualche altro corpo. Ora, questa supposizione implica una contraddizione diretta con la seconda
legge della termodinamica, pur essendo compatibile con la prima legge. La seconda legge è quindi equivalente alla
negazione della nostra capacità di eseguire l'operazione appena descritta, sia con una catena di meccanismi, sia con
ogni altro metodo finora scoperto. Pertanto, se il calore consiste nel moto delle parti del corpo, tali parti devono essere così piccole e impalpabili che noi non possiamo in alcun modo trattenerle e fermarle.
Un secondo elemento, che era ignoto a Kelvin nel 1851, riguarda il modello cinetico elaborato pochi anni prima dallo stesso Maxwell. Tale modello implica infatti che, anche all’equilibrio, il numero di molecole con una data energia cinetica segua una funzione di distribuzione attorno a un valore medio. In altre parole, il semplice fatto
che le molecole non hanno la stessa energia cinetica e che la temperatura è un concetto essenzialmente macroscopico
(una molecola non ha temperatura) crea le condizioni di una possibile violazione della II legge. Ne segue che la II
legge vale solo perché il moto delle molecole è incontrollabile, ossia perché non esistono esseri intelligenti o congegni così piccoli e sensibili da poter osservare e selezionare le singole molecole in base al loro stato di moto. In un
lavoro successivo a quello citato (precisamente nella voce “Diffusione” scritta per l’Enciclopedia Britannica),
Maxwell chiarisce il senso delle proprie osservazioni:
Ne segue che il concetto di dissipazione dell’energia dipende dall'estensione delle nostre conoscenze. L’energia utilizzabile è energia che possiamo dirigere dove vogliamo. L’energia dissipata è energia che non possiamo trattenere e dirigere a piacimento, appunto come la confusa agitazione delle molecole che chiamiamo “calore”. Ora, il disordine,
come il termine correlato ordine, non è una proprietà delle cose materiali in se stesse, ma una proprietà che dipende
dalla mente che le percepisce. Un blocco di appunti non appare confuso - ammesso che sia scritto in buona calligrafia - a un analfabeta, o al suo possessore che lo capisce fino in fondo, mentre appare inestricabilmente confuso a ogni
altra persona che sa leggere. L’idea di energia dissipata non avrebbe senso sia per un essere che non potesse usare per
il proprio tornaconto alcuna energia della natura, sia per un essere che potesse seguire il moto di ciascuna molecola e
controllarlo al momento giusto. È solo per un essere di livello intermedio, che può controllare alcune forme di energia – mentre altre forme sfuggono alla sua presa – che l'energia appare passare inevitabilmente dallo stato utilizzabile
allo stato dissipato.
È questa la prima formulazione chiara di una tendenza nell’interpretazione della seconda legge – tendenza che
ha avuto decisivi sviluppi nel nostro secolo e rimane attuale – che vede la seconda legge come il risultato dei limiti delle nostre possibilità di conoscenza e controllo dello stato dinamico effettivo del sistema considerato. Si tratta, in
breve, di un’interpretazione soggettivistica della seconda legge della termodinamica. Per Maxwell la seconda legge de1
È ormai consuetudine raffigurare il “demone” come un diavoletto. In realtà, Maxwell si richiamava al termine greco daimon, che fa appunto riferimento alla capacità umana di prendere libere decisioni consapevoli.
riva solo dall'evento contingente che la nostra scala di operazione e percezione non è di gran lunga superiore a quella molecolare. Per fortuna non siamo nemmeno così grossolani da non poter controllare alcuna forma di energia:
solo una forma dell'energia dei sistemi materiali è incontrollabile da parte dell'uomo ed è quella che è normalmente,
anche se impropriamente, chiamata “calore”. Tra l’altro, l’allusione al concetto di “ordine” e “confusione” (o
“disordine”) è una delle prime nella storia della fisica: Maxwell individua quindi anche con chiarezza il carattere
soggettivo e relativo dei concetti di ordine e disordine. Dunque, con l’esperimento del demone, Maxwell ci vuole
comunicare che la seconda legge non è una legge assoluta, ma è solo il risultato della nostra particolare scala di operazione e percezione.2 Maxwell non si pone affatto il problema della tendenza spontanea di un sistema lontano
dall’equilibrio a raggiungere la situazione di equilibrio e della possibile giustificazione “meccanica” di questo
comportamento.
Il dibattito sul demone di Maxwell non si è ancora esaurito e prosegue in anni recenti dopo la connessione
dell’entropia con l’informazione, coinvolgendo problemi di computabilità, compressibilità algoritmica, teoria della misurazione, stocasticità, ecc. In ogni caso, dire che tale essere (o dispositivo) non può esistere, equivale allora
ad ammettere che esiste un livello di realtà, quello microscopico, cui si può accedere solo al costo di produrre un
aumento di entropia: si tratta di un’estensione del concetto di irreversibilità che, in meccanica quantistica coinvolgerà anche lo stesso processo di misurazione.
1.3. Modelli macroscopici e modelli microscopici
Da queste ultime osservazioni si possono trarre alcune conclusioni sui criteri di distinzione tra livello macroscopico e livello microscopico che la fisica classica (FC) giunge a stabilire nella seconda metà del XIX secolo. In
primo luogo, c’è ovviamente un criterio basato sulle dimensioni: i costituenti elementari del mondo microscopico
sono estremamente piccoli. In secondo luogo, le interazioni tra questi costituenti devono essere conservative. Tuttavia, i modelli microscopici di FC possono utilizzare solo concetti e modelli già introdotti per schematizzare sistemi macroscopici. Per esempio, le molecole o gli atomi di un gas sono come palle da biliardo perfettamente elastiche o come sistemi solari in miniatura. Dal punto di vista delle proprietà fisiche, a parte il carattere ideale dei
modelli, non è formulabile, in fisica classica, alcun criterio assoluto di distinzione tra modelli di oggetti microscopici e modelli ideali di oggetti macroscopici considerati come sistemi meccanici o elettrodinamici (e non termodinamici). In particolare, nel passaggio dai modelli macroscopici ai modelli microscopici, non c’è alcun cambiamento delle leggi fisiche fondamentali che descrivono il comportamento degli oggetti cui si riferiscono i modelli
stessi. I modelli meccanici della costituzione molecolare della materia sono a maggior ragione modelli meccanici (o
elettromeccanici) ideali.
Questo aspetto, può, da un certo punto di vista, costituire un vantaggio per la nostra immaginazione. Possiamo continuare a farci un’immagine mentale della forma e configurazione di un atomo o di una molecola. Le
schematizzazioni classiche, per esempio il concetto di “punto materiale”, non costituiscono un ostacolo insuperabile da questo punto di vista. Il problema nasce semmai dall’esigenza di andare ancora più in profondità nella
ricerca delle proprietà della materia. Se ci interessa capire le proprietà del ferro, non possiamo concepire i suoi
atomi come minuscole sfere di ferro. Dobbiamo trovare altri costituenti elementari con proprietà tali da spiegare
le caratteristiche degli atomi di ferro. Alcuni fisici della fine del XIX erano contrari all’ipotesi atomistica anche
per questo motivo. Secondo loro, non era corretto attribuire agli atomi le stesse proprietà degli oggetti macroscopici (per esempio, l’elasticità) che la teoria atomica avrebbe dovuto spiegare a livello più elementare. La vicenda dei modelli atomici nasce proprio da questa esigenza: disponendo di “particelle” ancora più elementari si poteva contare sul loro numero e sulla loro configurazione per spiegare le proprietà degli atomi e delle molecole di
una sostanza per poi risalire alle sue proprietà macroscopiche. Il punto è che questo processo poteva essere senza limiti: possiamo pensare che l’elettrone abbia esso stesso una struttura interna (o comunque dimensioni finite).
D’altra parte un elettrone non può essere puntiforme dato che le leggi dell’elettrostatica (essendo la sua carica finita) porterebbero immediatamente a concludere che la sua energia elettrostatica dovrebbe essere infinita. FC
non dispone di alcun criterio per fermare questa sorta di regresso all’infinito.
È significativo che Dirac, nel primo capitolo del suo trattato I principi della meccanica quantistica metta in rilievo
proprio questo aspetto. Citiamo direttamente dal testo (p. 4).
La necessità di abbandonare le idee classiche quando si voglia render conto della struttura intima della materia sorge
non solo da fatti stabiliti sperimentalmente, ma anche da questioni filosofiche. Infatti, in una spiegazione classica, la
materia sarebbe immaginata come costituita da un gran numero di piccole parti e, avendo postulato le loro leggi di
comportamento, si dovrebbero dedurre le leggi della materia nel suo complesso. Tuttavia ciò non completerebbe la
spiegazione, dato che la questione della struttura e stabilità delle parti costituenti non sarebbe stata affatto affrontata.
2
Normalmente facciamo riferimento alla dissipazione dell’energia come trasferimento a gradi di libertà “nascosti”. Già tale osservazione
contiene un elemento antropomorfico: “nascosti” rispetto a chi? Un demone non si accorgerebbe della dissipazione, se fosse abbastanza
piccolo da vedere tutti i gradi di libertà nascosti? E allora l’entropia per lui non esisterebbe?
Per affrontare una simile questione si renderebbe necessario postulare che ciascuna di tali parti sia a sua volta costituita di parti più piccole, che ne possano spiegare il comportamento. Tale procedimento, com’è ovvio, non ha fine;
cosicché per questa via non si può arrivare a comprendere la struttura intima della materia. Finché i concetti di grande
e piccolo rimangono puramente relativi, non c’è possibilità di spiegare il grande mediante il piccolo. È quindi necessario modificare le idee classiche in maniera da dare un significato assoluto al concetto di dimensione.
Ora, questa distinzione assoluta sarebbe stata individuata di lì a poco appunto con la scoperta della costante
di Planck. Se l’azione fisica coinvolta in un processo elementare è confrontabile col valore di tale costante, il
comportamento cinematico e dinamico di un oggetto microscopico risulta essere molto diverso da quello degli
oggetti macroscopici ordinari. Si crea così un salto di qualità (tuttora piuttosto problematico) tra le leggi del
mondo macroscopico e le leggi del mondo microscopico. L’aspetto più sconcertante di tale evoluzione è che essa
comporta un cambiamento profondo delle nostre forme di rappresentazione e immaginazione degli enti e dei
processi fisici elementari. Questi non solo non assomigliano più a nessuno degli oggetti che incontriamo nel
mondo macroscopico, ma non assomigliano più nemmeno a quegli enti e quei processi astratti che la fisica classica aveva adottato nella costruzione di modelli riguardanti la struttura ultima della materia.
Com’è noto, dal valore della costante h è possibile risalire alle dimensioni degli atomi e di tutti i loro costituenti elementari, giungendo a determinare le loro “lunghezze” caratteristiche, che sono determinabili teoricamente e verificabili sperimentalmente. L’invarianza di scala delle leggi fisiche, che rendeva impossibile una netta
distinzione tra il mondo macroscopico e il mondo microscopico, è ora superata dall’esistenza stessa della quanto
d’azione.
2. L’antinomia continuo ⇔ discreto
2.1. Materia discreta e materia continua
Abbiamo parlato in precedenza dei modelli matematici con i quali la meccanica classica schematizza i corpi o sistemi materiali. D’importanza essenziale per il discorso che seguirà è numero di gradi di libertà che caratterizza il
sistema in questione. Come sappiamo, tale numero è finito per sistemi composti da punti o corpi rigidi che interagiscono tra loro e sono o meno soggetti a vincoli di varia natura. I modelli di questi sistemi sono dunque discreti, perché il loro stato è individuato da un insieme numerabile (finito o infinito) di parametri. Tra questi modelli vi
è quello di gas perfetto. Le singole molecole del gas sono infatti concepite come corpi relativamente semplici
(con pochi gradi di libertà), anche se una mole di gas ha un numero di gradi di libertà dell’ordine del numero di
Avogadro N.
Un vero salto qualitativo si verifica col passaggio alla meccanica dei mezzi continui (per esempio, fluidi, mezzi elastici, ecc.). Nei modelli utilizzati in questo settore della meccanica, occorre conoscere lo stato di ogni “elemento
materiale”, di coordinate x, y, z, nella zona di spazio occupata dal sistema. Questo vuol dire che lo stato meccanico del mezzo è rappresentato da una funzione continua delle tre coordinate e del tempo. Ad un sistema così concepito non si può che assegnare un’infinità non numerabile di gradi di libertà. Come abbiamo già detto, le proprietà
del sistema sono rappresentate da grandezze che variano con continuità (si pensi ad esempio alla velocità di un
fluido), che abbiamo chiamato grandezze “di campo”. Ne conseguono cambiamenti nella rappresentazione matematica della cinematica e della dinamica di tali sistemi e i conseguenti adattamenti simbolici (basti pensare
all’uso di equazioni differenziali alle derivate parziali) che rendono difficile l’introduzione dei loro modelli
nell’insegnamento scolastico. Va per altro detto che molti di sistemi fisici, come ad esempio un gas, possono essere trattati sia come fluidi continui (per es. in acustica), sia come sistemi discreti (per es. in teoria cinetica).
Un tipico sistema continuo, descritto da funzioni continue definite nell’intero spazio, è il campo elettromagnetico. Si
è detto che nell’800 il campo elettromagnetico era considerato una proprietà di un sistema materiale, non ben definito (certamente imponderabile), chiamato “etere”. Anche l’etere era considerato un sistema materiale continuo
(e quindi non composto da atomi). Sembra dunque che nella fisica classica normalmente presentata nei manuali
sistemi discreti e sistemi continui possano coesistere in maniera del tutto “pacifica”. Guardando invece alla fisica
classica nella sua concreta realtà storica si scopre che le cose non stanno così.
Nella seconda metà dell’Ottocento, cominciò a palesarsi in maniera sempre più aperta e vivace una reazione
generalizzata contro le concezioni atomistiche. I modelli basati sull’interazione di minuscole sfere dure, ma elastiche, o di semplici punti materiali concepiti come centri di forza, cessarono per vari motivi di apparire fecondi, dal
momento che sembrò che sollevassero più problemi di quanti ne risolvevano. Alcuni scienziati cominciarono a
coltivare la speranza di trovare un modello di materia unificante per l’intera fisica in base al quale l’unica realtà
fisica oggettivamente esistente fosse appunto il cosiddetto “etere onnipervasivo”. Concependo infatti l’etere come un fluido perfetto, si poteva immaginare che esso assumesse particolari configurazioni di moto “locale”, in
particolare configurazioni di moto vorticoso, che, come gli anelli di fumo, avevano una forma anulare (erano
chiusi su se stessi) e che erano teoricamente dotati di una straordinaria stabilità. Senza entrare nei dettagli della
teoria del cosiddetto “atomo vortice”, rileviamo soltanto il fatto che, per alcuni, il rapporto tra etere e materia
andava capovolto: non era l’etere ad essere fatto di materia, bensì la materia era fatta da configurazioni locali di
moto dell’etere. Occorre tener conto, per altro, che in quegli anni non si aveva ancora un’idea chiara della natura
della carica elettrica: anch’essa poteva essere concepita più come un effetto che come la causa dell’esistenza di un
campo elettrico con una certa configurazione. Dunque la prima forma in cui si manifestò l’antinomia discretocontinuo fu la contrapposizione tra sostenitori della natura atomistica della materia e sostenitori del suo carattere
continuo (ossia suddivisibile all’infinito).
L’opposizione all’atomismo cominciò verso la fine del secolo ad avvalersi anche di argomentazioni epistemologiche, in un clima filosofico positivistico che tendeva a limitare il campo d’interesse della fisica ai fenomeni direttamente osservabili. Il dibattito pro e contro l’atomismo acquistò quindi dimensioni sempre più ampie dando
luogo a un grande sviluppo del dibattito epistemologico, che avrebbe avuto profonde conseguenze sulla cultura
scientifica del XX secolo. All’interno della comunità dei fisici in senso stretto, questo dibattito si concluse, come
sappiamo, intorno alla fine del secolo, quando si riconobbe apertamente che le esperienze di J.J. Thomson (1897)
dimostravano l’esistenza degli elettroni e che le esperienze del fisico francese Perrin (1904-07) sul moto browniano dimostravano definitivamente l’esistenza degli atomi. La comunità dei fisici del XX secolo si sarebbe caratterizzata in maniera decisiva per il suo orientamento verso la dimensione microscopica della materia (la sua
struttura interna) che dà luogo appunto a nuove ricerche teoriche e sperimentali sui modelli atomici, sulle proprietà termiche, elettriche e magnetiche dei materiali, sui fenomeni di ottica fisica e sui fenomeni riguardanti la radioattività.
2.2. Continuo e discreto nei sistemi oscillanti: la corda vibrante
Un’altra forma che aveva già preso (addirittura nel ‘700) l’antinomia di cui stiamo parlando riguarda particolari
sistemi oscillanti ed ha un carattere più legato alle caratteristiche matematiche della descrizione del comportamento meccanico di determinati sistemi. Il caso più noto è più discusso è quello della corda vibrante, mirabilmente
trattato da d’Alembert.
Consideriamo una corda elastica, tesa lungo l’asse z, e assumiamo che essa possa oscillare solo in direzione
trasversale (ossia, per esempio, lungo l’asse x). Possiamo allora rappresentare la configurazione istantanea di moto del sistema con lo “spostamento” istantaneo x(z, t) di ogni suo elemento dalla posizione di equilibrio (fig. 1).
x
x(z, t)
z
Fig. 1
La conoscenza della funzione x(z, t) equivale quindi alla conoscenza della configurazione di moto dell’intero
sistema: fissato l’istante t, abbiamo la forma della corda in quell’istante; fissato il punto z, abbiamo la variazione
temporale della posizione dell’elemento di corda individuato dal valore della suddetta coordinata.
La corda deve essere supposta tesa con una tensione elastica T0 e con una densità lineare pari a ρ0. Se la corda
avesse una lunghezza indefinita, formando quindi un sistema aperto, una perturbazione anche locale del suo stato di equilibrio meccanico (che comporta la cessione alla corda di una certa quantità di energia) darebbe luogo,
come in ogni mezzo elastico, a onde progressive che si propagherebbero lungo l’asse z. Del resto, la corda elastica è
un sistema storicamente “illustre”, poiché ha portato alla prima formulazione esplicita dell’equazione delle onde da
parte di d’Alembert. Nel caso specifico tale equazione sarebbe espressa dalla
∂2x(z, t)/∂t2 = (T0/ρ0)∂2x(z, t)/∂z2
Da questa equazione risulta che la velocità di propagazione v dell’onda dipende soltanto dalle caratteristiche fisiche della corda; infatti
v = (T0/ρ0)-1/2.3
Consideriamo ora il caso in cui la corda abbia lunghezza finita L. Siamo allora in presenza di un sistema confinato. Ciò comporta che il sistema diventa sede di oscillazioni globali che assumono quelle particolari forme cui, forse impropriamente, si dà il nome di onde stazionarie. In ogni forma d’onda stazionaria tutti gli elementi della corda
3
È una caratteristica essenziale di qualsiasi moto ondulatorio il fatto che la velocità di propagazione non dipende dalla quantità d’impulso o
d’energia che è fornita al mezzo dalla perturbazione iniziale, ma dipende solo dalle caratteristiche dinamiche del mezzo in cui l’onda si
propaga. Si può altresì verificare che tale velocità dipenda invece dalla frequenza dell’onda che si propaga, ossia che il mezzo sia, come si
dice normalmente, dispersivo.
(in pratica i suoi “punti”) oscillano con la stessa frequenza e con la stessa fase. L’espressione generale di un’onda
stazionaria è allora la seguente:
x(z, t) = A(z)cos(ωt + ϕ)
La corda assume quindi una configurazione spaziale istantanea descritta dalla funzione A(z) che rappresenta punto per punto ampiezza massima dell’onda stazionaria.
Ora, è noto che le onde stazionarie possibili formano un insieme discreto caratterizzato da tutti i valori della
frequenza “spaziale” k = 2π/λ, che sono i multipli interi di una frequenza spaziale fondamentale k1 = L/2, e da
tutti i valori della frequenza temporale ω = 2π/T, che sono i multipli interi della frequenza temporale fondamentale ω1 = (ρ0/T0)-1/2k1. Si ha quindi che le lunghezze d’onda delle onde stazionarie sono
λ1 = 2L, λ2 = (1/2)λ1, λ3 = (1/3)λ1 ....,
e che le frequenze di oscillazione sono:
ν1 = v/λ1, ν2 = 2ν1, ν3 = 3ν1 ....
Si dice che le frequenze ν2, ν3, ecc., costituiscono la seconda, terza, ecc. armonica della frequenza più bassa ν1.
La forma generale di una singola onda stazionaria (di una singola armonica) sarà quindi:
xj(z, t) = Ajsen(jk1z)cos(jω1t + ϕj)
In generale il moto della corda sarà costituito da una sovrapposizione di varie armoniche:
x(z, t) = Σ jAjcos(jω1t + ϕj)sen(jk1z)
con j che, in linea di principio varia da 1 a ∞. I valori di j diversi da 0 in una data sovrapposizione individuano le
frequenze “attivate” e le loro rispettive ampiezze: in pratica, lo “spettro” del dato stato di moto. Si tratta, evidentemente, di uno spettro discreto. Questo risultato ha una validità del tutto generale: un mezzo elastico continuo,
se è “confinato” da particolari condizioni al contorno, dà luogo ad un insieme discreto d’oscillazioni. Questa
proprietà meccanica dei sistemi elastici, negli anni in cui si andava dando un formalismo coerente alla nuova
meccanica quantistica, illuse alcuni fisici che vi videro la possibilità di comprendere il mistero della quantizzazione degli stati di un sistema fisico (come l’elettrone dell’atomo di Bohr) confinato da forze attrattive.
2.3. Atomi e campi
La capacità degli atomi della materia ordinaria di emettere e assorbire radiazione assume una nuova fisionomia
problematica nel momento in cui si afferma la teoria elettromagnetica della luce. Entrano infatti in gioco le interazioni tra campo elettromagnetico e atomi materiali, ossia interazioni tra un sistema continuo e sistemi discreti.
Come è noto, i problemi dell’interazione radiazione-materia sono all’origine di altri problemi fondamentali che
porteranno alla formulazione delle prime ipotesi quantistiche. Abbiamo visto come la teoria cinetica dei gas riusciva almeno in parte a dar conto di alcuni aspetti essenziali del comportamento termodinamico di un gas. Nonostante le polemiche epistemologiche che tale programma sollevava verso la fine del secolo, i risultati interessanti non mancarono e, in particolare, il principio di Boltzmann, che collegava entropia e probabilità sarebbe stato presto considerato una delle più grandi scoperte teoriche del XIX secolo. Tuttavia, dal punto di vista della interazione radiazione-materia, il modelli “a palle da biliardo” usato da Maxwell e Boltzmann era sicuramente
troppo semplice. Maxwell stesso cominciò a ragionare sulla convivenza del modello cinetico-molecolare con le
scoperte sulla natura della radiazione.
Tra le acquisizioni più importanti dell’approccio cinetico-statistico vi era il cosiddetto principio di equipartizione
dell’energia. Tale principio afferma che l’energia totale di un sistema, per il quale abbia senso definire uno stato di
equilibrio termico, deve in media, all’equilibrio, ripartirsi equamente tra i gradi di libertà del sistema stesso. Se, per
esempio, il nostro sistema è una certa quantità di gas, ogni atomo del gas (che ha n gradi di libertà) avrà in media
un’energia pari a ½nkT, dove k è la costante di Boltzmann e T la temperatura del gas. Ora, questo principio portava a previsioni confrontabili con l’esperienza. Queste previsioni riguardavano direttamente i valori misurabili
dei calori specifici dei gas. Infatti, se
ε = (n/2)kT,
allora l’energia interna di una mole di gas è
U = (n/2)NkT = (n/2)RT
Dato che il calore specifico a volume costante cV è per definizione
cV = (dU/dT)V,
si ha che, se una mole del gas in questione pesa M grammi,
cV = nR/2M
Analogamente, sapendo che il calore specifico a pressione costante cP è legato a cV dalla semplice relazione
cP – cV = R/M,
si ha che
γ = cP/cV = (n + 2)/n
Si ricava così facilmente il valore del rapporto γ tra il calore specifico a pressione costante e il calore specifico a
volume costante del gas in questione; si vede subito che tale valore, per un dato gas, dipende direttamente dal
numero di gradi di libertà delle sue molecole.
Il numero n, per essere in accordo con i dati sperimentali, doveva essere relativamente piccolo. Per esempio,
per i valori n = 3 (gas monoatomico formato da atomi modellizzati come punto materiali) o n = 5 (modello di
molecola come corpo rigido con un asse di simmetria), le previsioni presentavano un buon accordo con i dati
sperimentali. Ma i modelli suddetti non prendevano affatto in considerazione l’evidenza sperimentale che mostrava come un gas – e quindi le sue molecole – era in grado di emettere e assorbire uno “spettro di righe” di radiazione di diverse frequenze. Fu Maxwell stesso il primo a mettere in risalto tale incongruenza e a dedurne che i
modelli usati in teoria cinetica non potevano essere considerati “verosimili”. Restando ancora all’interno di una
visione puramente meccanica sia delle molecole sia delle “onde eteree”, l’emissione e l’assorbimento della radiazione non poteva che essere attribuito a “vibrazioni” interne delle singole molecole. Queste dovevano pertanto
essere corpi elastici capaci di vibrare con un numero indefinito di frequenze proprie. E la meccanica impone che
ad ogni “modo” di vibrazione deve essere attribuito un grado di libertà. Il numero n doveva allora essere molto
grande, se non addirittura infinito. Ma ciò era in netto contrasto con l’intera termodinamica del gas stesso. Possiamo vedere il problema nel modo seguente, ricollegandoci a quanto esposto nel paragrafo precedente. Possiamo, infatti, immaginare che il sistema-modello “corda vibrante” non sia molto diverso dal sistema “molecola elastica”. Ecco perché, nel processo che porta allo stato di equilibrio termico per il gas, tutta l’energia di traslazione
(ed eventualmente di rotazione) di ogni molecola dovrebbe finire per trasformarsi in energia associata all’infinità
numerabile delle vibrazioni proprie di un simile sistema.
In realtà, l’interazione tra radiazione e materia metteva i fisici di fronte ad una sua conseguenza implicita che
appariva ancora più problematica. Come si è detto, gli spettri di emissione e di assorbimento di un gas sono formati da un insieme discreto di numerosissime frequenze. Questo fatto dimostra non solo che gli atomi compiono numerosissime vibrazioni interne con frequenze corrispondenti a quelle degli spettri suddetti, ma anche che le
molecole del gas, emettendo e assorbendo radiazione, scambiano energia col campo elettromagnetico. E il campo elettromagnetico è un continuo fisico: ha un numero infinito di gradi di libertà. Riportiamo direttamente le significative osservazioni che Maxwell riporta nel saggio “The kinetic theory of gases” (1877):
Le molecole pertanto sono in grado, come sottolinea Boltzmann, di scambiare energia con l’etere. Ma non possiamo
costringere l’etere a fare i comodi della teoria, al punto di pretendere che esso prenda dalle molecole l’energia di vibrazione e la restituisca loro in forma di energia di traslazione. L’etere non può in alcun modo interferire con il rapporto tra questi due tipi di energia … L’etere non può fare altro che prendersi la parte di energia che gli spetta secondo il numero dei propri gradi di libertà.
È legittimo allora chiedersi: come è possibile applicare il principio di equipartizione ad un sistema fatto di un
insieme di particelle di materia e di un campo elettromagnetico che scambiano energia tra di loro? Con uno
sguardo retrospettivo, ci rendiamo subito conto che questa era la sostanza del problema che Planck avrebbe incontrato allo scadere del secolo. Non c’è bisogno di ricordare che la sua ipotesi “rivoluzionaria” avrebbe poi finito per risolvere con un colpo solo – grazie all’introduzione della costante h – l’intero problema della termodinamica di un sistema in equilibrio con il campo elettromagnetico. La fisica classica era quindi del tutto incapace di
affrontare e risolvere il problema della coesistenza e dell’interazione reciproca tra atomi e campi. Vale la pena citare il modo in cui Einstein, con la sua caratteristica semplicità e disinvoltura, illustra questa situazione nelle prime righe del primo della serie di formidabili articoli pubblicati nel 1905, quello sui “quanti di luce”. Scrive Einstein:
Esiste una differenza formale di natura essenziale tra le rappresentazioni teoriche che i fisici hanno tracciato riguardo
ai gas e agli altri corpi ponderabili e la teoria di Maxwell dei processi elettromagnetici nel cosiddetto spazio vuoto.
Mentre si suppone che lo stato di un corpo sia completamente determinato dalle posizioni e velocità di un numero
finito, anche se molto grande, di atomi ed elettroni, per definire lo stato elettromagnetico nello spazio si usano funzioni spaziali continue, sicché un numero finito di variabili non può essere considerato sufficiente per definire tale
stato. [Ne deriva che] l’energia di un corpo ponderabile non può essere suddivisa in un numero arbitrario di parti
piccole a piacere, mentre l’energia di un fascio di luce emesso da una sorgente, secondo la teoria di Maxwell (o, in
generale, secondo una qualsiasi teoria ondulatoria) si distribuisce in modo continuo in un volume sempre crescente.
Sappiamo dove va a parare questa premessa: la teoria dei quanti di luce (ossia della natura corpuscolare della radiazione) è l’ipotesi euristica che tende a sanare l’antinomia così chiaramente illustrata.
2.4 Il principio di continuità dell’azione fisica
Per concludere il discorso sull’antinomia continuo-discreto, dobbiamo aggiungere alle osservazioni fatte finora,
che hanno riguardato soprattutto la natura e la descrizione degli enti fondamentali della realtà fisica, un’altra, che
deriva dalle conoscenze acquisite nel XX secolo, più che dalla consapevolezza dei fisici dell’epoca. Questi fisici,
davano infatti per scontata un’altra caratteristica essenziale del modo classico di guardare ai fenomeni fisici. Essi
erano infatti convinti che le grandezze che corrispondono alle proprietà fisiche di un qualsiasi sistema dovessero
comunque variare con continuità. Per esempio, anche un processo apparentemente brusco come l’urto tra due atomi, era in realtà un processo concepibile come un processo continuo, dovuto alla natura elastica degli atomi stessi. In generale, il principio di continuità delle variazioni delle grandezze fisiche implica di fatto che lo stato di un
qualsiasi sistema può subire variazioni piccole quanto si vuole in seguito a “perturbazioni” esterne piccole quanto
si vuole. In altri termini, l’azione fisica che un sistema può esercitare o subire può essere piccola quanto si vuole. Ed essa avrà
un effetto piccolo quanto si vuole.
Questa constatazione è un presupposto della concezione classica del processo di misura. Anche se il risultato di
una misura deriva sempre da un’interazione con uno strumento di misura, l’effetto dello strumento sul valore
della grandezza misurata può essere reso trascurabile o può essere calcolato e previsto con precisione in linea di
principio arbitraria. Il fatto che il “dato” numerico rilevato da uno strumento è sempre affetto da un’incertezza statistica (ossia è di fatto costituito da un intervallo tra due numeri) non ha niente a che fare con la teoria o con il
modello del sistema misurato, bensì dipende esclusivamente dal sommarsi di piccole interazioni casuali che producono ciascuna il loro piccolo inestimabile effetto. È allora evidente che, se il suddetto principio di continuità
cessasse di valere e la più piccola azione fisica non potesse esse inferire ad un dato “quanto” elementare di grandezza finita, saremo costretti, almeno per quanto riguarda il mondo microscopico, a ripensare profondamente il
concetto stesso di misurazione delle grandezze di un sistema.
3. L’antinomia causale ⇔ casuale
3.1. Forze e cause
La nozione di “causa” ha una lunga storia. Quando si parla della “nuova” fisica, originata dalla rivoluzione scientifica del XVII secolo, si pone anche l’accento sulla differenza del nuovo modo di definire le cause dei fenomeni
rispetto alla cosiddetta “fisica” aristotelica. Se proprio vogliamo ricordare come la pensava Aristotele, dobbiamo
fare riferimento al fatto che il filosofo ateniese individuava quattro tipi di cause: la causa “materiale”, la causa
“formale”, la causa “efficiente” e la causa “finale”.4 I criteri di definizione stessa della causalità rientravano quindi in una particolare visione del mondo.
Con la nascita della nuova fisica, il discorso sulla causalità si articola in modo diverso, essendo legato a una visione del mondo tendenzialmente meccanicista, dominata dalla ricerca di relazioni quantitative. Una volta affermato il principio di inerzia, i fenomeni meccanici primari che richiedono una “causa” sono le variazioni dello stato di moto, ossia le accelerazioni. È così che sono inizialmente concepiti vari tipi di spinta, pressione o urto; poi
con l’affermazione della dottrina newtoniana, ogni azione fisica responsabile di una variazione di moto deve essere riconducibile a qualche forma di forza. Si stabilisce così un legame di reciprocità tra effetto e causa: la fisica si
occupa di effetti specifici determinati da cause specifiche. L’ideale di conoscenza che si afferma in quegli anni
tende appunto a ricondurre ogni fenomeno fisico ad una forma di movimento, siano essi macroscopici o microscopici. Queste variazioni chiamano direttamente in causa le forze che le producono: le forze diventano gli enti
fisici che rappresentano le cause agenti nel mondo materiale.5
Tuttavia, il quadro complessivo non è così semplice e si presta a molteplici interrogativi. Potremmo ad esempio chiederci “perché Marte percorre un’orbita ellittica?”. Una risposta immediata potrebbe essere: perché Marte
è soggetto alla forza gravitazionale del Sole e l’andamento di questa forza è tale che, date certe condizioni iniziali, i
corpi che la subiscono devono percorrere orbite ellittiche. Ma allora qual è la causa della natura ellittica dell’orbita
di Marte? La legge della forza, o le particolari condizioni iniziali?
Prima di riflettere su questa domanda, affrontiamo en passant un altro problema. La relazione tra forza e accelerazione è espressa dal secondo principio della dinamica. Tuttavia, prima o poi, dobbiamo parlare anche del terzo principio. Questo principio, nonostante il suo nome, ci dice che è impossibile distinguere tra corpi che “agi4
Ricordiamo il significato di questa classificazione riferendoci alla caduta di un grave: la causa materiale è ovviamente costituita dalla sostanza intrinsecamente “pesante” del grave stesso, la causa formale è quella che assegna al grave il proprio moto “naturale”, ossia il moto
verticale verso il basso, la causa efficiente entra in gioco solo quando il grave subisce un’azione “violenta” (per esempio viene lanciato con
una fionda), che produce un “disturbo” del suo moto naturale, la causa finale è la tendenza a raggiungere il “luogo naturale”, il centro della
Terra, il che equivarrebbe a raggiungere il massimo grado di “perfezione” nell’ordine delle cose dell’universo.
5
Non farebbe male ricordare che Newton non la pensava così: per lui le forze rappresentavano solo le “leggi” in base alle quali le vere
“cause”, a noi ignote, agivano. La spiegazione in termini di “forza” era quindi per lui solo una spiegazione “formale” e non una spiegazione “causale”.
scono” e corpi che “reagiscono”: nel momento stesso in cui un corpo subisce una forza, ne esercita una uguale e
contraria. La Terra accelera per l’azione del Sole e il Sole accelera per l’azione della Terra. L’unico criterio di distinzione sta nella differenza tra le masse: l’accelerazione del Sole è trascurabile. Ma questo non ci esime dal dover riconoscere che la forza è sempre una forma di interazione tra almeno due sistemi e la distinzione tra sistema
agente e sistema reagente deve far riferimento alle condizioni in cui si produce l’interazione osservata. Il concetto
newtoniano di forza e i principi a questo collegati non sono altro che una schematizzazione delle forme
d’interazione tra i corpi.6
Inoltre c’è la questione delle cosiddette “forze apparenti”: se il treno in cui viaggiamo frena bruscamente, il
bicchiere sul tavolino cade e comincia a rotolare, ossia accelera. Qual è la forza che causa tale accelerazione? Possiamo attribuire il ruolo di causa ad una presunta “forza d’inerzia”? E poi il “principio d’interazione” vale anche
per le forze apparenti? Facciamo ruotare un sasso legato ad una corda. Quale forza tende la corda? La forza centripeta che noi esercitiamo o la forza centrifuga esercitata dal sasso? E qual è la causa della forza centrifuga?
Sembrerebbe che essa sia l’accelerazione stessa del sasso.7 Ma non avevamo detto che le accelerazioni sono sempre effetto di una forza? Pensiamoci un po’ su. Possiamo, per esempio, dire che, dopo aver lanciato le “bolas” argentine, la corda che collega le due masse si tende a causa della rotazione del sistema? Ma allora, quali sono le
cause e quali gli effetti? Perché non si possono considerare le forze “apparenti” come cause in senso proprio?
Se procediamo in questi (forse inutili) discorsi, ci possiamo anche porre il problema se la causa della forza
gravitazionale sia la massa gravitazionale e la causa della forza elettrostatica sia la carica elettrica. Proseguendo su
questa strada, dobbiamo ammettere che il moto di una carica elettrica sia la “causa” di una forza magnetica. Del
resto, alla fine del XIX secolo si discuteva accanitamente sulla questione se le cariche erano le cause del campo o
il campo era la causa delle cariche.
Torniamo allora all’esempio di Marte. Nel momento in cui sappiamo che il suo moto è conforme ad una legge nota, siamo completamente soddisfatti, anche se la legge in sé non ci dice quali sono le cause e quali gli effetti.
La nostra spiegazione sembra basarsi sempre di più su cause “formali” in senso aristotelico, piuttosto che su cause “efficienti” (ogni moto è “naturale” in base alla “forma” delle leggi che lo regolano). Ma supponiamo di scoprire, con osservazioni accurate, che l’orbita di Marte non è perfettamente ellittica. È a questo punto che il moto
di Marte ci appare “innaturale” ed è a questo punto che cominciamo di nuovo a cercare una spiegazione, ossia
una causa “perturbante”. Finalmente, riusciamo a scoprire che la distanza tra Marte e Giove non è poi così grande e che Giove ha una massa notevole. Scopriamo quindi che è l’azione di Giove che “sposta” Marte dalla sua
orbita “naturale”. L’azione gravitazionale di Giove è dunque la “causa” delle anomalie nell’orbita di Marte. Tuttavia, se avessimo preso in considerazione la presenza di Giove fin dall’inizio e avessimo trattato l’intero sistema
Sole-Marte-Giove scrivendo le opportune equazioni differenziali del moto del sistema, di nuovo l’orbita anomala
di Marte sarebbe rientrata nell’ordine naturale delle cose (ammesso e non concesso che saremmo stati in grado di
risolvere il suddetto sistema di equazioni differenziali).
Occorre allora concludere che l’affermazione che tutte le variazioni di velocità sono causate da forze (o campi)
può portare a seri equivoci: nel migliore dei casi, si riduce a un problema puramente terminologico. Nelle formulazioni più mature della meccanica, sappiamo che la descrizione del moto “naturale” di un sistema è ricavabile
dalla semplice conoscenza della cosiddetta “hamiltoniana” del sistema stesso. Si potrebbe affermare che
l’hamiltoniana del sistema racchiude in sé tutte le cause, ma sarebbe solo un modo di dire. In realtà la forma del
movimento del sistema, ossia la soluzione del problema dinamico, dipenderebbe essenzialmente dalle condizioni
iniziali. E qual è la causa di quelle particolari condizioni iniziali?
C’è poi un’altra complicazione. Sappiamo che un qualsiasi problema meccanico può essere risolto applicando
un ben noto principio variazionale: il principio di “minima azione”. C’è una stretta analogia tra l’applicazione di
questo principio in meccanica e l’applicazione del cosiddetto “principio di Fermat” in ottica geometrica. Così
come la luce sceglie il percorso che richiede un tempo minimo, il moto di un sistema meccanico sceglie il percorso che richiede un’azione minima. Esistono allora anche le cause “finali”? Indagini accurate su questo punto
hanno dimostrato che non è propriamente così, ma non possiamo dilungarci su di esse.
Infine, è opportuno ricordare altre due forme di causalità che entrano in gioco se estendiamo il discorso anche alla termodinamica. La prima è direttamente connessa al principio di conservazione dell’energia. Possiamo
concepire il trasferimento d’energia da un corpo ad un altro come un’azione causale. Un corpo subisce una variazione di stato proprio a causa dell’energia ricevuta da un altro corpo. In casi come questi occorre essere sicuri di
poter stabilire una relazione temporale del tipo antecedente ⇒ conseguente, ossia saper distinguere il “prima” dal
In ogni caso, si potrebbe sempre dire che l’interazione tra due corpi è la causa delle rispettive accelerazioni.
Si può chiamare in causa la rotazione rispetto alle stesse fisse, come fece a suo tempo il fisico-filosofo Ernst Mach quando contestava le
deduzioni circa l’esistenza di uno spazio “assoluto” che Newton aveva ricavato dalla famosa esperienza del “secchio rotante”. Ma non mi
sembra che questo espediente, per quanto brillantemente concepito, cambi molto la sostanza della questione.
6
7
“dopo”. Anche perché, da questo punto di vista, sembra valere l’antico detto causa aequat effectum, visto che
l’energia “perduta” dal primo corpo è “acquistata” dal secondo. Questa distinzione chiama quindi direttamente in
causa la seconda legge della termodinamica, poiché sappiamo bene che una descrizione effettuata puramente in
termini energetici non sarebbe in grado di distinguere tra ciò che viene “prima” e ciò che viene “dopo”.
È appunto la seconda legge della termodinamica che sembra chiamare in causa una forma di causalità che ci
ricorda ancora una volta la causa “finale” di tipo aristotelico. Sappiamo che tutti i sistemi fisici macroscopici tendono “naturalmente” a raggiungere una situazione di “equilibrio”. Tale tendenza è rappresentata dalla seconda
legge della termodinamica che, nella sua formulazione più generale, afferma che l’entropia di un sistema isolato
tende a raggiungere un valore massimo. In questo senso oggi si suole dire che lo stato finale d’equilibrio è un “attrattore” per gli stati iniziali del sistema. È come se il sistema “sapesse” fin dall’inizio verso quale stato dirigersi. Di qui
la tentazione di trovare una spiegazione “causale” della seconda legge.
3.2. Il determinismo classico
Tornando agli schemi esplicativi della fisica classica, possiamo in generale dire che la rappresentazione meccanica, a parte il problema delle cause del moto, si basa sull’assunto che, una volta note le forze d’interazione del sistema (ovvero una volta nota la sua hamiltoniana) e una volta note le condizioni iniziali, possiamo prevedere esattamente la sua evoluzione spazio-temporale. Si dice, in questo senso, che la fisica classica è strutturalmente deterministica. Questa caratteristica strutturale della fisica classica deriva appunto dallo schema matematico tipico di cui
essa si serve per risolvere un problema fisico. In linea generale, infatti, lo scopo della ricerca può essere considerato raggiunto quando si riesce a scrivere il sistema d’equazioni differenziali dalla cui soluzione si ricava
l’andamento del fenomeno da spiegare. Del resto, i matematici sanno che un’equazione differenziale (esclusi casi
“patologici”) ammette sempre una e una sola soluzione, anche se talvolta è difficile trovarla.
Questo aspetto essenziale della struttura matematica della rappresentazione classica dei fenomeni incarna appunto l’ideale deterministico: note le condizioni iniziali, l’andamento del fenomeno può essere previsto esattamente in ogni istante passato e futuro. È piuttosto nota la dichiarazione di Laplace, che traccia una specie di manifesto della visione determinista del mondo:8
Dobbiamo dunque considerare lo stato presente dell’universo come l’effetto del suo stato anteriore e come la causa
del suo stato futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la
posizione rispettiva degli enti che la compongono, se per di più fosse abbastanza profonda per sottomettere questi
dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai suoi occhi.
Il determinismo è una visione generale della causalità che è resa possibile dalla particolare forma che assume
la descrizione matematica del comportamento di un sistema fisico. Esso vale per modelli del sistema che si traducono in un sistema di equazioni differenziali ben definite. Purtroppo (o per fortuna) l’obiettivo indicato da Laplace non può essere raggiunto, se non in casi molto particolari. E questo almeno per due motivi: il primo di carattere strutturale (ossia legato alla natura delle stesse equazioni differenziali che costituiscono il modello), il secondo dovuto ai nuovi risultati che lo sviluppo della ricerca teorica in fisica avrebbe prodotto nella seconda metà
del XIX secolo. Sul motivo di carattere strutturale torneremo in seguito, quando parleremo dell’antinomia “stabile ⇔ instabile”. Ci soffermiamo ora sul motivo legato agli sviluppi della teoria cinetica dei gas.
3.3. La scoperta della funzione di distribuzione delle velocità molecolari e l’avvento della casualità
Come si è visto nella sezione precedente, Maxwell, nel perseguire il programma della scuola inglese di trovare
una “teoria dinamica” di tutti i fenomeni fisici (questi devono essere riconducibili a “materia in movimento”),
aveva proposto uno sviluppo delle ipotesi già avanzate da Clausius sulla natura dei movimenti molecolari che
dovevano spiegare il comportamento macroscopico di un gas, passando a quello che lui stesso definisce “metodo statistico”. Per completezza, occorre ricordare che la forma più generale della funzione di distribuzione,
generalizzabili anche a sistemi di particelle interagenti con forze, è quella cosiddetta “di Maxwell-Boltzmann”
che si riferisce in generale all’energia totale E di un singolo elemento del sistema e introduce la temperatura
assoluta T e la “costante di Boltzmann k:
fMB(E) = Cexp(E/kT)
Il modello costruito da Maxwell introduce dunque un elemento di casualità intrinseca nel comportamento delle
molecole, elemento che è implicito nelle assunzioni probabilistiche utilizzate. Perdono per esempio ogni rilevanza le correlazioni tra i moti di molecole diverse, che si creano inevitabilmente dopo ogni urto. D’altra parte, è assai poco probabile che una molecola, dopo aver urtato un’altra molecola, la incontri di nuovo. Perché ciò avvenga occorrerebbe un tempo superiore alla stessa età dell’universo. Ipotesi come quelle introdotte da Maxwell definiscono la natura del cosiddetto «disordine molecolare».
8
P. S. Laplace, Essai philosophique sur les probabilités, 1825
In conclusione, con la teoria cinetica dei gas, la probabilità entra in maniera prepotente nella fisica del XIX secolo. E con essa vi entra anche la casualità. La logica ci insegna infatti che non si possono ottenere conclusioni
probabilistiche da una teoria che non contiene ipotesi probabilistiche. La distribuzione di Maxwell-Boltzmann è
appunto il risultato della casualità del moto delle molecole: infatti, qualsiasi correlazione tra i moti molecolari creerebbe una “deviazione sistematica” da tale distribuzione che ne renderebbe vano il potere esplicativo. Il modello
cinetico non può quindi essere un modello deterministico: per ottenere la legge di distribuzione di MaxwellBoltzmann bisogna infatti ammettere che le molecole di un gas si muovono in modo sostanzialmente casuale.
Maxwell e Boltzmann sono a ragione considerati i primi fisici meccanicisti non deterministi.
3.3. Il problema dell’irreversibilità
Torniamo al nostro modello meccanico del gas perfetto. Esso è costituito da un sistema meccanico con un
numero di gradi di libertà dell’ordine di N (numero di Avogadro). Lo stato istantaneo del sistema potrà essere
concepito come rappresentato da un punto nello spazio delle fasi a 2N dimensioni. Consideriamo allora uno stato
iniziale A che, a livello macroscopico, corrisponde a uno stato di non equilibrio termodinamico del gas (ossia che dà
luogo a una funzione di distribuzione f0(E) dell’energia molecolare diversa da quella di Maxwell-Boltzmann
fMB(E)). Le equazioni della meccanica, se fossero considerate rigorosamente valide, ci assicurerebbero che, in linea di principio, ogni stato successivo del sistema è prevedibile con assoluta precisione. Siamo cioè di fronte a un
sistema deterministico.
La termodinamica c’insegna che il gas, dal punto di vista macroscopico, deve necessariamente evolvere verso
uno stato d’equilibrio termodinamico, ossia che la funzione di distribuzione f0(E) iniziale deve evolvere verso la
fMB(E) e lì rimanere. In altri termini, se vogliamo costruire un “buon” modello cinetico, dobbiamo essere sicuri
che, dopo un tempo ragionevole, il nostro sistema meccanico raggiunga uno stato meccanico microscopico B cui
corrisponde la fMB(E).
Per dimostrare la validità di questo schema occorre superare una difficoltà intrinseca: di per sé le equazioni
della meccanica sono reversibili, nel senso che se cambiamo di segno la variabile temporale, ossia facciamo evolvere uno stato all’indietro nel tempo, otteniamo comunque una evoluzione possibile per il sistema. Se, nell’intervallo
di tempo τ, un che evolve dallo stato A(x0, v0) allo stato B(xτ, vτ), evolve anche necessariamente dallo stato B′(xτ,
– vτ) allo stato A′(x0, – v0). Dato che la funzione di distribuzione dipende dal quadrato delle velocità, se allo stato
A(x0, v0) corrisponde la funzione di distribuzione f0(E), allora anche allo stato A′(x0, – v0) corrisponde la stessa
funzione di distribuzione. Analogamente, la stessa funzione di distribuzione, che supponiamo essere la fMB(E),
risulta sia dallo stato B(xτ, vτ), sia dallo stato B′(xτ, – vτ). Ne segue che per ogni processo “naturale” che procede
da uno stato A di non equilibrio a uno stato B di equilibrio, ne esiste un altro che procede da uno stato B′ di equilibrio verso uno stato A′ di non equilibrio. Ciò è dovuto in definitiva alla perfetta reversibilità temporale delle equazioni che regolano l’evoluzione di un sistema meccanico. Un modello meccanico microscopico, che presenta
una reversibilità strutturale, non può spiegare l’irreversibilità che caratterizza i processi macroscopici.
Una risposta, invero assai problematica, a questo problema fu data da Ludwig Boltmann col suo famoso
principio la cui forma matematica è l’unico simbolo inciso sulla lapide della sulla tomba viennese:
S = klnW
Il ragionamento di Boltzmann si basa sul fatto che, una volta accertato che lo stato di equilibrio è descritto
dalla funzione di distribuzione delle velocità molecolari, detta appunto di Maxwell-Boltzmann, si può dimostrare
che gli stati microscopici corrispondenti a tale funzione di distribuzione sono di gran lunga più numerosi di quelli
che non vi corrispondono. Se tutti gli stati microscopici sono equiprobabili, la probabilità che il sistema “occupi”
uno stato di equilibrio è di gran lunga più grande della probabilità che il sistema si trovi lontano dall’equilibrio. Ne
segue che, il sistema, lasciato a se stesso, evolve passando quasi sempre per stati di equilibrio. Gli stati A, A′, B,
B′, di cui si è parlato in precedenza sono stati del tutto eccezionali, che il sistema non occuperà spontaneamente
praticamente mai. Questa situazione può essere alterata solo da un intervento esterno, al livello macroscopico,
che pone deliberatamente il sistema in uno stato lontano dall’equilibrio.
Quindi, anche se non è possibile dimostrare che partendo da uno stato di non equilibrio si arriverà necessariamente a uno stato di equilibrio: tuttavia, si è praticamente certi che il sistema, lasciato a se stesso si troverà quasi sempre in uno stato di equilibrio. Sembrerebbe dunque possibile conciliare il determinismo classico con la seconda legge della termodinamica. Ma, a ben guardare, questa affermazione è comunque discutibile. Infatti, per
giustificare la distribuzione di Maxwell-Boltzmann occorre introdurre alcune ipotesi sul carattere intrinsecamente
casuale del moto delle molecole che non si conciliano affatto con l’ideale deterministico.
La relazione tra causalità e irreversibilità può essere analizzata da un altro punto di vista introducendo il concetto di “memoria”. La visione deterministica implica infatti una capacità infinita di memoria (come si fa a “registrare” sennò il valore di un numero reale?), che consente al sistema di ricordare per sempre le proprie condizioni
iniziali, le ipotesi introdotte da Maxwell e da Boltzmann per ricavare la loro funzione di distribuzione impongono
una continua perdita di memoria, dato che esse equivalgono ad affermare che ciascuna molecola, dopo ogni urto,
dimentica del tutto il suo stato di moto precedente. Ciò implica anche che il cosiddetto “demone di Maxwell”
non può essere sostituito da un moderno computer, dal momento che, per operare come il demone, esso dovrebbe continuare a immagazzinare informazioni sullo stato delle singole molecole. Inevitabilmente la sua capacità di memoria si esaurirebbe e il fatto stesso di cancellare i dati immagazzinati fino a quel momento produrrebbe
un aumento di entropia almeno pari alla diminuzione prodotta durante le operazioni precedenti.
Come abbiamo detto, se esiste una relazione causa-effetto, appare scontato che la causa deve precedere
l’effetto, ossia deve essere possibile distinguere tra un prima e un dopo. Questa distinzione riguarda solo apparentemente la grandezza fisica “tempo”. È vero piuttosto che in fisica il tempo deve avere caratteristiche di omogeneità: una semplice variazione del tempo non può di per sé produrre effetti fisici e due istanti possono essere considerati successivi se e solo se tra di essi è accaduto qualcosa. Ora, questo principio generale ha il suo correlato teorico nel principio di conservazione dell’energia: si può dimostrare formalmente che tale principio deriva
dall’invarianza delle proprietà di un qualsiasi sistema rispetto a una semplice traslazione del parametro temporale.
Il principio di causalità presuppone dunque che un effetto che abbia luogo “ora” può dipendere solo da ciò
che è già accaduto e non da ciò che deve ancora accadere. Supponiamo ora che sia un effetto fisico sia una causa
fisica siano rappresentati dalle evoluzioni temporali di determinate grandezze, ossia siano rappresentati da funzioni del tempo E = E(t) e C = C(t). Per quanto detto in precedenza, l’effetto E(t) non può che dipendere
dall’evoluzione anteriore al tempo t della causa C(t). In genere una causa non produce il suo effetto “all’istante”:
all’effetto E(t) in un certo istante può contribuire l’intera evoluzione anteriore della causa, ossia l’andamento
dell’intera funzione C(t) in tutti gli istanti t’ < t. Non solo, ma è plausibile che l’influenza della causa sull’effetto
qui e ora diminuisca al crescere della “distanza” temporale t – t’. In altri termini, come accade in generale,
l’effetto qui e ora tende a “dimenticare” l’entità della causa a mano a mano che si va indietro nel tempo. Anche
questa è una buona interpretazione dell’irreversibilità dei processi a cui assistiamo nella vita di tutti i giorni. In
effetti, quando il sistema giunge in uno stato di equilibrio, ha completamente “dimenticato” il modo in cui ci è
arrivato e, soprattutto, il suo stato iniziale.
Qualcosa del genere, ma assai più difficile da comprendere, avviene in meccanica quantistica, laddove il risultato della misurazione del valore una grandezza caratteristica del sistema non è in generale prevedibile. La conoscenza completa dello stato iniziale del sistema consente in genere di stabilire solo una distribuzione di probabilità
per i valori della grandezza soggetta alla misurazione. Nel momento stesso in cui interagisce con l’apparato di misura, che è necessariamente un sistema macroscopico, il sistema “precipita” nello stato corrispondente al valore
misurato della grandezza in questione. Nel compiere questa “transizione”, il sistema “dimentica” completamente
il suo stato iniziale. Da questo punto di vista, il processo di misura in meccanica quantistica appare un processo
strutturalmente irreversibile.
4. L’antinomia stabile ⇔ instabile
4.1. L’instabilità dinamica
Molti fenomeni appaiono casuali, pur essendo soltanto imprevedibili. La loro apparente causalità dipende infatti da
quella particolare proprietà di un sistema fisico che ha preso il nome di “instabilità dinamica”. La scoperta di
questa proprietà è avvenuta nella seconda metà dell’Ottocento allorché alcuni illustri fisici matematici hanno affrontato sistematicamente lo studio di sistemi meccanici i cui modelli erano dinamicamente “complessi” nel senso che ora chiariremo. Abbiamo visto che un sistema può essere definito “complesso” quando i corpi interagenti
di cui esso è composto – e quindi il numero dei suoi gradi di libertà – è molto grande. La complessità dinamica
riguarda invece sistemi che possono avere un numero relativamente piccolo di gradi di libertà, ma le cui interazioni dinamiche si traducono in sistemi di equazioni differenziali con determinate caratteristiche matematiche,
ossia equazioni differenziali non lineari. La conseguenza principale di queste caratteristiche matematiche è l’impossibilità pratica di risolvere tali equazioni con metodi puramente analitici e quindi di rendere esplicita la legge del
moto del sistema come insieme di funzioni del tempo delle singole coordinate di configurazione. I metodi di soluzione, se ci sono, portano a risultati approssimati, ossia a funzioni tali da allontanarsi dalla descrizione del moto
effettivo del sistema dopo intervalli di tempo relativamente brevi. Il comportamento cinematico del sistema diviene pertanto essenzialmente imprevedibile. Nello stesso tempo, i modelli dinamici di tali sistemi presentano la caratteristica nota come “dipendenza sensibile dalle condizioni iniziali”, nel senso che condizioni iniziali che differiscono
tra loro anche di pochissimo portano ad evoluzioni temporali del tutto differenti. Questa caratteristica prende il
nome di “instabilità dinamica” e rende ancor meno prevedibile il comportamento del sistema.
Lo scienziato che meglio studiò questo tipo d’instabilità fu il matematico francese Henri Poincaré; nel suo
saggio Il caso, che riassumeva anni di riflessione sull’argomento, egli faceva le seguenti considerazioni.9
Per trovare una migliore definizione del caso, è necessario che esaminiamo alcuni di quei fatti che si è concordi a
considerare come fortuiti, e ai quali pare che si possa applicare il calcolo delle probabilità; cercheremo in seguito di
riconoscere quali sono le loro caratteristiche comuni. Sceglieremo come primo esempio quello dell’equilibrio instabile. Se un cono poggia sul proprio vertice, sappiamo bene che esso finirà col cadere, ma non sappiamo da quale parte:
ci sembra che solo il caso possa deciderlo. Se il cono fosse perfettamente simmetrico, se il suo asse fosse perfettamente verticale, se non fosse soggetto ad alcuna altra forza oltre alla gravità, esso non cadrebbe affatto. Ma il minimo
difetto di simmetria lo farà pendere leggermente da una parte o dall’altra, e non appena si troverà a pendere, seppure
di pochissimo, cadrà immediatamente da quella parte. E se anche la simmetria fosse perfetta, basterà una lievissima
vibrazione, un refolo d’aria a farlo inclinare di pochi secondi d’arco, il che sarà sufficiente a determinare non solo la
sua caduta, ma anche la direzione di quest’ultima, che sarà quella dell’inclinazione iniziale. Una causa minima, che ci
sfugge, determina un effetto considerevole, del quale non possiamo non accorgerci: diciamo allora che questo effetto
è dovuto al caso. Se conoscessimo con esattezza le leggi della natura e lo stato dell’universo all’istante iniziale potremmo prevedere quale sarà lo stato di questo stesso universo ad un istante successivo. Ma quand’anche le leggi naturali non avessero per noi più segreti, potremo conoscere lo stato iniziale soltanto approssimativamente. Se ciò ci permette di conoscere lo stato successivo con la stessa approssimazione, non abbiamo bisogno d’altro, e diremo che il fenomeno è stato previsto, che esistono leggi che lo governano. Ma non sempre è così: può succedere che piccole differenze nelle condizioni iniziali generino differenze grandissime nei fenomeni finali; un piccolo errore a proposito
delle prime genererebbe allora un errore enorme a proposito di questi ultimi. La previsione diventa impossibile; siamo di fronte a un fenomeno fortuito.
Sfruttando l’analogia con una situazione di equilibrio instabile, Poincaré ci fornisce una illustrazione intuitiva
dell’evoluzione di un sistema dinamicamente instabile, ossia tale da avere proprietà della dipendenza sensibile dalle
condizioni iniziali. Egli interpreta in modo tipicamente “classico” la natura di un processo casuale: il caso è teoricamente escluso dalla natura stessa delle leggi del moto, ossia il modello dinamico del sistema è comunque un
modello deterministico. Siamo quindi di fronte a una causalità epistemica, che dipende dalla nostra incapacità di conoscere completamente le condizioni iniziali del sistema e di tener conto di tutte le perturbazioni cui esso è soggetto
nel corso della sua evoluzione. In realtà, noi dichiariamo che un fenomeno è intrinsecamente casuale, quando esso dà esiti imprevedibili anche se le condizioni iniziali e le perturbazioni esterne sono perfettamente note e controllate.
Abbiamo accennato al fatto che l’ideale di spiegazione deterministica dei fenomeni si basa sulla possibilità di
prevedere esattamente il loro andamento. In questo modo di vedere, il modello ideale di un sistema fisico è quello
che consente di stabilirne con esattezza l’evoluzione nello spazio e nel tempo in base alle interazioni interne ed
esterne. In altri termini, una volta identificate le variabili dinamiche q1, q2, q3 … , il modello del sistema può essere
costruito in modo tale da poter scrivere un sistema di equazioni differenziali del tipo:
dq1/dt = f(q1, q2, q3, …, a, b, c…)
dq2/dt = f(q1, q2, q3, …, a, b, c…)
dq3/dt = f(q1, q2, q3, …, a, b, c…)
….
(dove a, b, c… sono i parametri che caratterizzano il sistema e le sue interazioni). Un modello di tal genere, capace
evidentemente di determinare l’evoluzione temporale del sistema (note le condizioni iniziali) è oggi comunemente
chiamato sistema dinamico. Molti modelli della fisica classica erano costituiti da sistemi dinamici di questo tipo. Il
teorema di esistenza e unicità della soluzione di un sistema di equazioni differenziali ci assicura che (note le condizioni iniziali) un sistema dinamico ha un’evoluzione esattamente definita. Ne segue che un sistema dinamico non
può in linea di principio avere un’evoluzione di tipo casuale, ossia tale che condizioni iniziali identiche diano luogo a
evoluzioni diverse tra loro.
Tuttavia, in fisica classica, può accadere (e accade in realtà molto spesso) che le equazioni differenziali che descrivono la dinamica del sistema siano, come si è detto, non lineari.10 Sono, ad esempio, non lineari le stesse equazioni della teoria gravitazionale di Newton. È possibile di trovarne la soluzione, almeno finché i corpi che si attraggono sono solo due. Tuttavia, basta affrontare il ben noto “problema dei tre corpi” (ossia, per esempio, cercare di studiare l’evoluzione del sistema Sole-Terra-Luna) per accorgersi che le equazioni del sistema sono risolubili con metodi analitici solo utilizzando metodi di approssimazione, come ad esempio quelli indicati dalla “teoria
delle perturbazioni”. Quando le condizioni che permettono l’applicazione di simili metodi non valgono più, ci si
può trovare di fronte a quella situazione, indicata da Poincaré, in cui il sistema dinamico presenta una “dipendenza sensibile dalle condizioni iniziali”. In casi come questi, una piccolissima differenza nelle condizioni iniziali pro9
10
H. Poincaré, “Il caso”, in Geometria e Caso (a cura di C. Bartocci), Boringhieri, Torino, 1995, p. 107.
Un’equazione differenziale si dice “lineare” solo se i termini, in cui compaiono la variabile e le sue derivate, sono tutti di primo grado.
duce evoluzioni del sistema molto diverse fra loro: il comportamento del sistema risulta di fatto imprevedibile.
Siamo in quella situazione cui Poincaré attribuiva un carattere di casualità. Si tratta però di una casualità “epistemica” e non intrinseca, dal momento che dipende in maniera essenziale da un difetto della nostra conoscenza. In sé
e per sé il sistema continua ad essere rigorosamente deterministico.
In generale un sistema dinamico non lineare non è “calcolabile” con procedure analitiche (ossia non è integrabile con procedure di calcolo eseguibili con una matita su un foglio di carta). Per questo motivo, la fisica classica
ha sempre cercato di evitare il più possibile di affrontare modelli di sistemi fisici che dessero luogo a equazioni
differenziali non lineari, o, comunque, ha cercato di rendere lineari i modelli da studiare. A parte i teoremi generali elaborati da Poincaré, lo studio di questi sistemi non poteva quindi fare grandi passi avanti in assenza di procedure per la loro soluzione. Solo in tempi recenti, quando è stato possibile trattare sistemi di equazioni non lineari
per via numerica, ossia usando il computer, si è potuto studiare approfonditamente sistemi non lineari e le loro
caratteristiche di instabilità dinamica. È nata in questo modo la fisica del caos deterministico. La locuzione scelta per
indicare questo settore della fisica è di per sé significativa. Come si è detto, il sistema evolve in maniera tipicamente deterministica: la sua l’imprevedibilità non deriva da alcunché di casuale, ma nasce piuttosto dal fatto che
non è possibile in alcun caso conoscere e controllare le sue condizioni iniziali con completa esattezza.
È dunque l’incertezza inevitabilmente associata alla nostra conoscenza del valore di ogni grandezza fisica fa sì
che i sistemi dinamici come quelli descritti siano soggetti a un’evoluzione che, pur essendo in teoria esattamente
determinata, è in pratica imprevedibile. A questo punto, è forse utile una considerazione sul rapporto tra modellizzazione matematica e realtà fisica. Il fatto è che noi attribuiamo spontaneamente ai valori di una qualsiasi grandezza fisica la possibilità di coincidere con un qualsiasi numero reale, almeno all’interno di un certo intervallo.
Nulla esclude quindi che tali valori corrispondano a numeri irrazionali. Ma che significa conoscere con esattezza
un numero irrazionale?
4.2. L’instabilità strutturale
La questione dell’instabilità dinamica era, come abbiamo visto, nota ai fisici matematici della fine del XIX secolo.
Alcuni fisici matematici e/o teorici conoscevano anche un altro tipo d’instabilità, certamente connesso al precedente, ma con conseguenze ancora più gravi per l’ideale di una descrizione classica completa e non contraddittoria del mondo fisico. Come abbiamo detto parlando della distinzione tra macroscopico e microscopico, la distinzione tra i due “livelli” di descrizione è, dal punto di vista dei modelli esplicativi della fisica classica, puramente
relativa. Un atomo poteva essere considerato un sistema solare “in miniatura” e la descrizione teorica dei suoi
movimenti interni non poteva che usare gli stessi concetti matematici. Ne consegue che la stabilità dell’atomo
(concepito come sistema di più corpi legati da forze elettrodinamiche), così come quella del sistema solare, poteva produrre problemi analoghi a quelli che abbiamo appena illustrato.
Il problema della stabilità degli atomi era stato, del resto, già messo in evidenza da Maxwell alcuni anni prima,
nella conclusione di una sua famosa conferenza tenuta nel 1870 durante il convegno annuale della British Association for Advancement od Science. Il suo punto di vista era leggermente diverso, poiché partiva dalla constatazione della stabilità strutturale degli atomi e giungeva alla conclusione che, proprio per questo motivo, essi non potevano essere
trattati con gli stessi metodi matematici normalmente usati nello studio dei sistemi macroscopici. Diceva Maxwell:11
[…] Le dimensioni della nostra Terra e il suo tempo di rotazione, anche se notevolmente costanti secondo i nostri attuali metodi di misura, non sono tali in virtù di una necessità fisica. La Terra potrebbe contrarsi per raffreddamento, o potrebbe essere dilatata da uno strato di meteoriti, o la sua velocità di rivoluzione potrebbe essere lentamente rallentata, eppure essa continuerebbe ad essere un pianeta come prima. Ma se la massa o il periodo di vibrazione di una molecola, per esempio d’idrogeno, fossero minimamente alterati, essa non sarebbe più una molecola
d’idrogeno. Allora, se volessimo avere a disposizione unità naturali di lunghezza, di tempo o di massa assolutamente
invariabili, dovremmo cercarle non nelle dimensioni, o nel moto, o nella massa del nostro pianeta, ma nella lunghezza
d’onda, nel periodo di vibrazione e nella massa assoluta di queste molecole indistruttibili, inalterabili e perfettamente
identiche tra loro.”12
Dunque, la straordinaria stabilità strutturale e regolarità di comportamento degli atomi e delle molecole avevano per Maxwell un che di sovrannaturale. Ovviamente, la ricerca fisica non si sarebbe fermata a questa constatazione. Come abbiamo detto, la scoperta dell’elettrone segna l’inizio della ricerca sui modelli che potessero rappresentare adeguatamente un atomo in quanto sistema costituito da più particelle cariche, positive e negative.
Non ci dilungheremo sulla storia di questi modelli e sulla transizione dal primo modello “a panettone” formulato
11
J. C. Maxwell, “Presidential Addressto the mathematical and physical sections of the British Association for the Advancement of Science, Liverpool 1870, in Scientific Papers, Vol. 2, pp. 215-229.
12
Ossia a credere in un intervento “trascendente”.
dallo stesso J.J.Thomson al modello “nucleare” di Rutherford. Entrambi questi modelli facevano riferimento a
sistemi di particelle cariche in interazione reciproca, il che imponeva che il loro comportamento doveva basarsi
sulle equazioni dell’elettromagnetismo, combinate con quelle della meccanica.
Ora, proprio questa base teorica, l’unica che la fisica classica era in grado di offrire, era in sé totalmente inadeguata a raggiungere gli scopi che si proponeva di ottenere. Questo perché la configurazione qualsiasi sistema di
particelle cariche è strutturalmente instabile, il che contraddice tutta l’evidenza sperimentale (sottolineata da Maxwell) relativa alle proprietà degli atomi e delle molecole. Prendiamo, per esempio, il comportamento risultante
dall’interazione con la radiazione. Un elemento chimico, portato allo stato gassoso e illuminato dalla luce solare,
presenta sempre un “proprio” spettro d’assorbimento. Analogamente il vapore di un elemento chimico surriscaldato emette serie definite di righe spettrali che sono come le “impronte digitali” di quell’elemento. Questo avviene sia che l’elemento si trovi sulla Terra, sia che si trovi sul Sole o su una stella lontana. Possiamo addirittura ionizzare l’atomo dell’elemento strappandogli uno o due elettroni: sappiamo che prima o poi l’atomo ritornerà alla
sua configurazione originale. Quando diciamo che gli atomi e le molecole devono per forza essere strutture stabili, intendiamo dire nient’altro che questo. Ora, è possibile che un sistema elettromeccanico qualsivoglia presenti
queste caratteristiche di stabilità?
Nel problema della struttura atomica, la differenza sostanziale tra mondo macroscopico e mondo microscopico e tra continuo e discreto si presenta in una forma decisamente drammatica. Un sistema classico composto di
corpi interagenti assume una configurazione che dipende dalle condizioni iniziali. Per intenderci, l’orbita della
Luna, o dei satelliti di Giove, non è obbligata. Se dallo spazio esterno al sistema solare provenisse un altro satellite,
e se questo satellite entrasse nell’orbita di Giove, si produrrebbe un cataclisma di proporzioni inimmaginabili e
l’intero sistema o si sfascerebbe o assumerebbe una nuova configurazione. Tutto ciò non vale per i sistemi atomici. Gli atomi possono essere sottoposti a perturbazioni violentissime, ma in brevissimo tempo essi ritornano
esattamente alla configurazione originale. La stabilità strutturale degli atomi è, dal punto di vista della fisica classica, semplicemente inconcepibile. Pensiamo, per esempio, alla molecola dell’acqua. L’acqua è acqua solo se gli
atomi di idrogeno e l’atomo di ossigeno si dispongono in modo tale da formare un angolo esattamente definito.
Sappiamo che, se facciamo una miscela di idrogeno e ossigeno nelle proporzioni giuste, avviene una violenta reazione chimica e si formano molecole di acqua tutte uguali tra loro.
Possiamo quindi concludere che lo schema esplicativo della fisica classica, proprio per le sue caratteristiche
strutturali, non può spiegare proprietà essenziali della materia che ci circonda. Le caratteristiche di stabilità delle
molecole e degli atomi e l’estrema regolarità del loro comportamento sono proprietà estranee alle capacità di
spiegazione della fisica classica. La fisica classica è, insomma, incapace di spiegare le caratteristiche essenziali dei
corpi materiali. Queste caratteristiche possono essere comprese solo con la meccanica quantistica.