16
I percorsi della fisica
In questo capitolo si pone in prospettiva storica lo sviluppo delle varie parti della fisica utilizzando l’antinomia tra scienza e tecnologia come strumento per fare
luce sulle relazioni tra conquiste concettuali e impieghi
concreti. Si coglie l’occasione per riassumere in modo
discorsivo le principali conquiste della ricerca recente
sul tessuto della materia e dell’universo.
Un’altra antinomia parallelamente sviluppata in questo capitolo è quella tra scienza e filosofia. Non si intravede oggi la possibilità di affrontare, con i soli metodi
tradizionali della scienza, fondamentali questioni riguardanti origine e futuro dell’Universo, significato e
ruolo della civiltà umana. Si chiede aiuto a principi di
natura filosofica e si danno nuove interpretazioni alla visione dei pensatori che ponevano l’uomo al centro del
creato.
16.1 Il percorso della meccanica
La meccanica prende il nome da un vocabolo greco che
significa sia “macchina” sia “artificio tecnico”. È certo
però che la meccanica come disciplina vede la luce con le
prime manifestazioni delle abilità intellettuali e manuali
dell’uomo. Un modo per presentare la storia di questo
complesso edificio culturale, che ha accompagnato
l’intero sviluppo della civiltà umana, è quello di commentare le relazioni tra gli aspetti teorici e quelli pratici.
Le tecnologie legate alla rivoluzione agricola (falci,
rulli, macine) si svilupparono circa 10 000 anni fa; più o
meno nella stessa epoca, la costruzione di armi e strumenti da lancio e da percussione portò al perfezionamento delle tecniche di lavorazione di pietre e poi di metalli.
Prima nella Grecia classica, e successivamente nel Mediterraneo ellenistico e romano, la capacità di costruire edi-
fici e navi e di produrre utensili da guerra e agricoli raggiunse un livello di maturità destinato a rimanere sostanzialmente ineguagliato fino alle soglie dell’era moderna.
Ma nell’antichità classica la meccanica non è considerata
“scienza”, bensì artigianato, un’attività pratica governata da regole empiriche.
Prima nell’ambito delle scuole dei saggi delle colonie
greche d’Asia Minore e poi in quello delle grandi scuole
filosofiche ateniesi e della Magna Grecia, la civiltà greca
inizia a interrogarsi sul problema del mondo, cercando di
spiegare nascita e struttura dell’universo con la forza del
pensiero. Una simile attività speculativa era certo presente in epoche preistoriche e nelle civiltà precedenti, e correttamente i pensatori greci reinterpretano i miti come
rappresentazione di una realtà non immediatamente percepibile; ma è nel passaggio tra “medioevo” ellenico e
periodo classico che questa attività speculativa diventa
ricerca razionale; si fondano sistemi filosofici completi in
cui si affronta il problema del “funzionamento” della Natura e in particolare quello del moto degli oggetti. Sulla
base di concatenazioni logiche e di osservazioni si cercano convincenti rapporti causa-effetto.
Queste due strade parallele conducono da una parte
all’invenzione e al raffinamento di strumenti (mulini, ingranaggi, pompe), dall’altra a sofisticati modelli geometrici per la descrizione dei moti celesti e terrestri. Nella
Grecia antica, come in alcune culture del nostro tempo, la
separazione tra filosofia/scienza da un lato e tecnologia/pratica dall’altro era in parte connessa a un’esaltazio-ne
delle attività intellettuali a scapito di quelle manuali, ma
non fu sempre netta. La più insigne eccezione è Archimede da Siracusa (III secolo a.C.) matematico eccelso, fisico e naturalista ma anche il più celebrato ingegnere militare dell’antichità.
Una sintesi tra teoria e pratica si realizza alle soglie
del Rinascimento, quando appaiono strumenti per rappre-
352 Capitolo 16
sentare la realtà e per calcolare. Nascono apparecchi che
Epoca Storica
meccanica
(pratica)
filosofia naturale
(teoretica)
Grecia Classica
utensileria
(agricola e da
guerra)
statica
(architettura
militare e civile)
terrestre
celeste
Periodo
Ellenistico
geometria
del moto
strumenti
strumenti per
rappresentare
Medio Evo
strumenti per
calcolare
Rinascimento
esperimento
Seicento
Settecento
meccanica
applicata
teorie fisiche
(meccanicistiche)
Ottocento
M E C C A N I C A
consentono di effettuare rapidamente calcoli per il rilevamento di posizioni sulla superficie terrestre, o sulla
volta celeste, e di risolvere problemi di orientamento e di
costruzioni. Si stabilisce un nuovo clima filosofico in cui,
a differenza del Medioevo, una persona non vale solo per
l’anima o la mente, ma anche per la destrezza fisica. Il
Cortegiano del Castiglione è assetato di ogni forma di
sapere, ma sa affrontare guerre e duelli cavallereschi. Tra
Rinascimento e Seicento prendono poi forma le “sensate
esperienze”, non più come osservazioni della Natura, ma
I percorsi della fisica 353
come interventi che provocano il fenomeno e lo leggono
tramite strumenti “amplificatori dei sensi”. È in questo
periodo che nasce la metodologia della scienza moderna.
La tecnologia, nella forma di meccanica applicata, si arricchisce di paradigmi matematici e di procedure sperimentali mirate. Per la soluzione teorica di problemi di fisica vengono fondate nuove discipline matematiche: teoria delle equazioni in campo complesso, geometria analitica, calcolo integro-differenziale e calcolo matriciale.
Newton non solo dà alla meccanica una struttura coerente, ma è tra i più illustri matematici dei secoli XVII e
XVIII; fondatore, con Leibniz, del calcolo infinitesimale,
Newton ha anche dato contributi alla geometria (curve
piane del terzo ordine) e all’algebra.
L’operazione di sintesi tra teoria e pratica e la sistemazione di questioni controverse continua nell’Illuminismo settecentesco e porta, agli albori dell’Ottocento, al
trionfo della meccanica. Lo sviluppo tecnico si basa sempre più spesso sulla capacità di impostare e risolvere modelli teorici. Si ha l’impressione di avere a disposizione
tutto ciò che è necessario per descrivere in modo logicamente coerente il mondo e fare predizioni rigorose. Si
consuma in questo tempo un divorzio con la filosofia: i
primi successi della meccanica avevano creato ottimismo
sulle “magnifiche sorti e progressive”, ossia su un futuro
rischiarato da conoscenze sempre più approfondite e da
scoperte utili. Si intuisce però che la capacità di predizione della scienza meccanica, in apparenza inesauribile,
implica un mondo dove tutto è fissato da leggi che non
lasciano margini di incertezza. Ne nasce una visione pessimistica di un uomo non più libero e si gettano le basi di
una perdurante incomunicabilità tra scienza e pensiero filosofico. Ancora oggi è viva la tendenza della filosofia e
di talune discipline che si occupano di fenomeni sociali e
biologici ad appropriarsi indebitamente dei principali paradigmi delle meccaniche (classica e quantistica). Tali
paradigmi, usati al di fuori dal loro contesto d’origine, finiscono per assumere significati spesso completamente
differenti, che lo scienziato non può giustificare o, addirittura, arrivare a comprendere.
L’evoluzione della scienza all’inizio del Novecento
porta rapidamente a incrinare le fondamenta della meccanica, precedentemente considerate inattaccabili. Si comprende che la meccanica classica descrive solo una parte
della realtà: come la geometria, è uno schema concettuale
utilissimo per descrivere fenomeni macroscopici, ma che
é incapace di afferrarne la natura più profonda. È infatti a
un livello diverso da quello formale della meccanica di
Newton che va collocata la ricerca sulle interazioni fondamentali (gravitazionale, debole, elettromagnetica, nu-
cleare) che costituiscono il tessuto su cui l’intero universo è costruito.
16.2 Il percorso della termodinamica
La termodinamica, come oggi la intendiamo, si è andata
formando nell’Ottocento. Tuttavia, le sue radici empiriche e concettuali sono antichissime, essendo connesse
con lo sviluppo della capacità di produrre e usare il fuoco(☯). Nelle più antiche civilizzazioni a noi note ebbero
un ruolo importante composti “eutettici” quali bronzi, ceramiche e vetri, che hanno in comune il poter essere fusi
o rammolliti anche su di un fuoco a legna o in semplici
fornaci. Nell’ambito di credenze magiche, nei miti e nel
pensiero filosofico il fuoco ha spesso avuto un ruolo speciale, quale “elemento” degno di studio e meditazione.
Nei secoli attorno all’era volgare, una migliore padronanza della combustione, evoluta sino alla produzione
della polvere da sparo, diede un lento avvio all’uso del
calore per generare movimento, uso che porterà poi alle
macchine termiche. Durante tutto il Medioevo, la “scienza del calore” evolve lentamente: da una parte si ha la filosofia naturale, con osservazione di fenomeni atmosferici, dall’altra si ha l’alchimia, con il suo empirismo magico. Ambedue contribuiscono allo sviluppo della termometria. Dalla fine del Medioevo e per tutto il Rinascimento si costruiranno termometri per misurare il “contenuto di calore” dei corpi, non essendo ancora chiara la
distinzione tra temperatura e calore.
Gli usi pratici della combustione e gli studi di alchimisti e naturalisti sembrano avere in comune solo i concetti empirici di “caldo” e “freddo”. È con le ricerche sui
gas, sviluppatesi dall’inizio del Seicento, che si comincia
a collegare, mediante un modello meccanico che già adombra la teoria atomica della materia, la nascente chimica, la tecnica delle macchine, la termometria. Tuttavia
il legame tra applicazioni tecniche e approcci scientifici è
quanto mai esile perché non si possiede ancora una teoria
coerente del calore.
Nel Settecento si comincia a definire cosa si debba intendere, concettualmente e sperimentalmente, per quantità di calore; partendo dai concetti di calore e temperatura,
(☯) La leggenda greca di Prometeo vuole che il fuoco sia un
dono divino all’umanità. Tuttavia, questo mito nel Prometeo
Incatenato di Eschilo diventa una affascinante sintesi della storia della civilizzazione. Il Titano, incatenato da trenta millenni,
un tempo che non sembra oggi citato a caso, ricorda di avere
introdotto ciò che ha consentito all’umanità di abbandonare la
vita selvaggia delle caverne: religione, leggi, tecniche (navigazione, medicina, etc.) e arte della profezia.
354 Capitolo 16
Lavoisier fonda la chimica; è il secolo della Rivoluzione
Industriale, avviata proprio da una applicazio-
355 Capitolo 16
Epoca Storica
fuoco
4000 a.C.
500 d.C.
metallurgia
polvere da sparo
(combustioni per
generare movimento)
filosofia naturale
Medio Evo
fenomeni atmosferici
alchimia
chimica
Rinascimento
leggi dei gas
Seicento
macchine a vapore
termometria
teorie cinetiche
elementari
calorimetria
Ottocento
macchine termiche
teoria del calore
primo principio
teorie cinetiche
secondo principio
meccanica statistica
Novecento
termodinamica
tecnica
formalizzazione della
termodinamica degli
stati di equilibrio
termodinamica
di non-equilibrio
(processi irreversibili)
T E R M O D I N A M I C A
ne tecnica del calore (la macchina a vapore). Dalla pratica vengono gli stimoli per un’analisi del bilancio energetico dei metodi noti per ricavare lavoro mediante macchine termiche. Si rimane però lontani da uno schema concettuale universalmente accettato: le interpretazioni oscillano tra una teoria cinetica elementare e una teoria del ca-
lore come fluido continuo, ponderabile o no. Questo travaglio fa maturare l’esigenza di una teoria generale delle
macchine: di quanto fosse forte il bisogno di un principio
unificante e intensa la ricerca dello stesso fa fede il fatto
che nella sua opera sulla natura della scoperta scientifica
Thomas Kuhn (The structure of the scientific revolutions,
356 Capitolo 16
1962) elenca in quest’epoca ben dodici “scopritori” del
principio di conservazione dell’energia. Il dibattito sulla
possibilità del moto perpetuo svolge un ruolo fondamentale come punto di incontro tra un problema filosofico
(conservazione assoluta di una entità che verrà chiamata
energia) e tecnico (massimo rendimento nella produzione
di lavoro mediante calore).
La sistemazione teorica del problema delle macchine
termiche viene finalmente avviata nei primi decenni
dell’Ottocento quando si enunciano il primo e il secondo
principio della termodinamica. È subito chiaro che con
questi strumenti non si spiegano solo le macchine termiche, ma anche le reazioni chimiche, i cambiamenti di stato e persino la propagazione del suono nell’aria.
Nella seconda metà del XIX secolo la neonata termodinamica si sviluppa rapidamente. Viene approfondito il
concetto di energia termica e di calore come energia in
transito. Le teorie cinetiche della materia, mediante l’introduzione della meccanica statistica, portano a una interpretazione probabilistica del secondo principio in cui
l’irreversibilità del trasferimento spontaneo di calore è
legata al “gran numero” di particelle del sistema. La termodinamica viene vista come il risultato di una media su
un numero enorme di eventi microscopici, non rilevabili
né rilevanti, se considerati singolarmente, che porta a una
drastica riduzione del numero di grandezze necessarie per
definire lo “stato” di un sistema. Con questo approccio
concettuale, se da una parte la tecnologia del calore si inserisce finalmente nel paradigma energetico, dall’altra si
aprono nuove interpretazioni legate alla duplice natura
del sistema termodinamico: vi è l’aspetto microscopico,
governato da leggi “meccaniche” (reversibili e deterministiche) e l’aspetto macroscopico, probabilistico e irreversibile, dove le grandezze sono sottoposte a leggi che non
hanno parallelo in meccanica.
La formalizzazione della termodinamica a cui si giunge a cavallo tra XIX e XX secolo è solo in apparenza logica e “completa”, tanto da assumere una struttura matematica assiomatica: i primi due principi vengono riformulati in un modo molto generale, applicabile a situazioni
diversissime, e la stessa termometria è posta su basi non
più empiriche. Un ruolo importante è svolto dal concetto
di funzione di stato, grandezza fisica che ha un valore
indipendente dalla storia passata del sistema e dipendente solo dalla sua condizione del momento. Il concetto
presenta analogie formali con quello dell’energia potenziale meccanica, che è funzione solo delle coordinate del
sistema.
I successivi sviluppi mettono però in evidenza due
punti fondamentalmente irrisolti:
1.
2.
il formalismo della termodinamica classica vale solo
per “stati di equilibrio”: durante una qualunque trasformazione che non sia infinitesima si è lontani da
tali stati e le grandezze termodinamiche non sono più
definibili a rigore, poiché non si conoscono i microstati del sistema sui quali applicare il procedimento
di media;
non vi è una comprensione chiara della irreversibilità, peraltro evidente a livello macroscopico, non essendo l’interpretazione probabilistica del tutto soddisfacente.
Il primo punto porta alla termodinamica di non-equilibrio, in cui si sviluppano metodi per studiare sistemi assoggettati a trasformazioni non reversibili e in condizioni
di non-equilibrio. Si sono avuti risultati notevoli, di particolare interesse anche per le scienze biologiche e le
scienze chimiche, ma una sistemazione definitiva sembra
ancora lontana.
Il secondo punto è uno dei grandi temi concettuali del
dibattito scientifico contemporaneo. Sebbene si accetti
che l’evoluzione spontanea di un qualunque sistema avvenga nella direzione degli stati più probabili, non è chiaro quale sia il significato logico e fisico di questa affermazione; potrebbe essere di fatto una tautologia mascherata dalla sottigliezza di ipotesi fisiche e procedure matematiche che la traducono in relazioni formali. Perciò,
anche se la termodinamica è strumento applicabile con
enorme successo ai campi più disparati, dalle macchine ai
sistemi biologici, dalla radiazione ai buchi neri, dalla meteorologia all’evoluzione, dall’economia alla teoria dei
giochi, ci sembra ancora celare la sua natura più recondita, ma anche più inquietante, legata alla “freccia del tempo” e alla irripetibilità di ogni attimo che stiamo vivendo.
16.3 Il percorso
dell’elettromagnetismo
L’elettromagnetismo, così come è inteso oggi, rappresenta una sintesi, in forma di teoria completa, di osservazioni, fatte in epoche diverse e con metodi diversi, che mai
avrebbero lasciato presagire un destino unitario.
L’aspetto comune a tali osservazioni è che, fino a epoche
relativamente recenti (XVI-XVIII secolo), esse venivano
considerate non molto significative nella comprensione e
nella descrizione fisica del mondo. Nello sviluppo storico di questa branca della scienza possiamo distinguere tre
357 Capitolo 16
Epoca Storica
specchi
ambra
1000 a.C.
visione, ombre,
raggi
500 d.C.
teorie
geometriche
della visione
Medio Evo
Rinascimento
magnetite
lenti
occhiali
bussola
elettricità
per strofinio
prospettiva
sistemi ottici
fenomeni ottici
Seicento
(diffrazione,
interferenza,
dispersione)
teorie
corpuscolari
dei raggi
Settecento
(microscopi,
cannocchiali)
magnetismo
geomagnetismo
teorie
corpuscolari
dei raggi
teorie complesse
della luce
teoria del fluido
magnetico
obiettivo
acromatico
(microscopi
composti)
cannocchiali)
Ottocento
bottiglia di Leyda
conduzione
legge di Coulomb
pila voltaica
teorie dinamiche
dell’etere
legge di Ohm
effetti magnetici
delle correnti
elettrodinamica
correnti indotte
teoria delle
masse
magnetiche
teoria delle
correnti atomiche
elettromagneti
corrente di
spostamento
onde
elettromagnetiche
(elettrotecnica)
teoria del campo
elettromagnetico
E L E T T R O M A G N E T I S M O
358 Capitolo 16
classi di fenomeni (ottici, elettrici e magnetici) che la teoria di Maxwell riesce, nell’Ottocento, a descrivere in modo unitario. Nel Capitolo 11 si è cercato di dare l’idea di
come la strada di questa sintesi, pur breve nel tempo, sia
stata aspra e complicata.
L’ottica nasce in un’epoca indefinita, molto tempo
prima dell’era volgare, mostrando un duplice aspetto:
quello che potremmo definire strumentale e tecnologico
(specchi, lenti) e quello teorico e filosofico, legato al senso della vista e al suo significato nei confronti della percezione del mondo. Per molti secoli ci sono artigiani, che
producono lenti e specchi, da un lato, e filosofi o matematici, dall’altro, che disquisiscono di ombre, di cammini
dei raggi luminosi (facendo nascere l’ottica geometrica),
e di teorie della visione. Ci si chiede se gli occhi emettano “bastoncelli” che colpiscono gli oggetti e tornano poi
indietro attraverso la pupilla (funzionando cioè come gli
attuali radar e sonar) oppure se siano gli oggetti stessi
che producono i corpuscoli che raggiungono gli occhi.
Qualunque sia il meccanismo, si conclude però che comprenderlo non aiuta la “vera” conoscenza del mondo,
poiché la fallacia del senso della vista è universalmente
riconosciuta e le illusioni ottiche dimostrano l’inaffidabilità delle conoscenze desunte dalla sola vista. Così, mentre si producono lenti rudimentali (Alto Medioevo) e occhiali (Basso Medioevo), chi studia il “sistema del mondo” non presta attenzione ai risultati che gli artigiani ottengono usando i principi della geometria euclidea.
Simile a quello dell’ottica è lo sviluppo iniziale del
magnetismo. Nell’antica Grecia è conosciuta la proprietà
della magnetite (un ossido di ferro bivalente e trivalente)
di attirare limatura e pezzetti di ferro. Tuttavia per lungo
tempo questa osservazione stimola solo fantasie magiche
e teorie animistiche del mondo, che prendono vigore a
seguito dell’introduzione, durante il Medioevo, delle
prime bussole provenienti dall’oriente. Analoga è la storia dell’elettricità, vocabolo che deriva dal nome greco
dell’ambra (una resina fossile). Tutto appartiene al regno
delle curiosità, e non serve per la descrizione del mondo.
Solo l’ottica “tecnica” ha, fino a tutto il Medioevo, un
qualche impatto sulla vita quotidiana.
La situazione cambia nel Rinascimento: l’ottica geometrica svolge un ruolo cruciale nelle arti figurative (prospettiva), la qualità degli strumenti ottici migliora, si
compiono importanti osservazioni sperimentali: oltre alla
riflessione e alla rifrazione, già sostanzialmente note, si
cominciano a studiare fenomeni che più avanti verranno
indicati come dispersione e diffrazione. Queste scoperte
portano a controversie (per esempio, teoria corpuscolare
della luce contro teoria ondulatoria) che movimentano fi-
nalmente il campo della “scienza dell’ottica”.
Più o meno contemporaneamente si incominciano a
definire, grazie allo sviluppo delle bussole, i concetti di
inclinazione e declinazione magnetica. All’inizio del
1600 viene pubblicato il De magnete di William Gilbert,
il quale riassume moltissime osservazioni e avanza ipotesi sul magnetismo, che oggi possono apparire fantasiose,
ma che hanno il merito di avviare un dibattito. Si conducono i primi esperimenti di elettrostatica e si introduce, in
forma confusa, il concetto di conduzione elettrica tramite
un “fluido” non identificato. Ma la descrizione fisica (o
filosofica) del mondo non sembra aver bisogno di questi
nuovi esperimenti. Le macchine elettrostatiche con le loro scintille, l’ago della bussola, i cannocchiali interessano
pochissimi specialisti mentre per il pubblico delle persone colte o curiose sono poco più che “divertissements”.
Anche in questo caso è l’incontro tra teoria ed esperimento che avvia lo sviluppo della scienza. La capacità
di Galileo di perfezionare il cannocchiale e di mescolare
teorie matematiche con “sensate esperienze” porta l’ottica nell’ambito della scienza. Si studiano teorie e si progettano strumenti conformi a tali teorie sia per vedere il
mondo sia per capirlo meglio. La vista non è più un senso
fallace (o, per lo meno, non più degli altri sensi), ma è
anzi talmente affidabile che Galileo, scoprendo i satelliti
di Giove grazie al suo cannocchiale, li battezzerà pianeti
“medicei”: nessuno avrebbe osato dedicare ai potentissimi signori di Firenze una scoperta che potesse avere anche la minima ombra di illusorietà!
L’ottica nel Seicento diviene una scienza, e le controversie sulla natura della luce non sono più dispute oziose,
ma tentativi di spiegare fenomeni finalmente ritenuti degni di essere interpretati. Tra il Seicento e il Settecento,
mentre Newton e Huygens spiegano la luce come corpuscoli luminiferi o come onda, gli strumenti ottici raggiungono prestazioni di ottimo livello nonostante le difficoltà
associate alla dispersione della luce. Sulla fine del Settecento si inventano gli obiettivi acromatici e i microscopi
composti, destinati a svolgere fino ai nostri giorni un ruolo importantissimo in molte branche della scienza.
Anche per l’elettricità e il magnetismo le innovazioni
cruciali dal punto di vista sperimentale avvengono a cavallo tra Seicento e Settecento. L’uso della bilancia di
torsione consente di ricavare espressioni quantitative per
le forze elettriche e magnetiche. Nasce la teoria delle
“masse magnetiche” e delle “cariche elettriche” newtoniane; infatti in entrambi i casi si osservano forze che variano in maniera inversamente proporzionale al quadrato
della distanza tra gli oggetti interagenti, confermando in
qualche modo un’interpretazione meccanica del mondo.
I percorsi della fisica 359
Nel Settecento gli apparati elettrici compaiono nel laboratorio di quasi ogni “fisico” e di molti “biologi”. Molte
osservazioni vengono organicamente inquadrate dalla
teoria del “fluido elettrico” di Benjamin Franklin, che
introduce la convenzione sui nomi delle cariche elettriche, distinte in positive (+) e negative (−).
Alla fine del Settecento gli studi di Galvani, sulla elettricità animale, e di Volta, sulla pila, utilizzano apparati sperimentali a volte sorprendentemente precisi e sensibili. La scuola italiana fornisce importantissimi contributi sperimentali e strumentali, ma il quadro interpretativo
generale rimane sempre quello di Newton, che nella sua
Ottica aveva offerto un esempio di come modelli meccanici potessero interpretare anche osservazioni di tipo fisiologico. Le esperienze decisive di Oersted sull’influenza delle correnti elettriche sull’ago di una bussola e
quelle successive di Faraday (correnti indotte dalle variazioni del campo magnetico) nel terzo decennio dell’Ottocento sono l’atto di nascita dell’elettromagnetismo, sul
quale gli sviluppi matematici di Ampère, fondatore
dell’elettrodinamica, e di Gauss stimolano un ampio dibattito entro una ormai fiorente comunità scientifica.
Spetta a Maxwell, qualche decennio più tardi, scrivere le
equazioni che codificano l’elettromagnetismo come branca della scienza che unifica i fenomeni elettrici e magnetici e mostrano come la luce altro non sia che un’onda elettromagnetica. Maxwell seguendo la teoria della luce di
Newton, pensa però ancora che un etere elastico sia
l’indispensabile supporto del fenomeno luminoso.
Nonostante questa successione di tappe concettualmente ben correlate, lo sviluppo ottocentesco dell’elettromagnetismo non è privo di contrasti. Si assiste, da una
parte, alla meccanizzazione dei fenomeni elettrici e magnetici: l’introduzione del concetto di potenziale (analogo al potenziale gravitazionale newtoniano) da parte di
Poisson e l’elettrodinamica di Ampère costituiscono tutto
sommato un’interpretazione newtoniana dei fenomeni elettrici e magnetici. Dall’altra, gli approcci di Oersted e
Faraday preludono alle teorie dei campi e sono da collegarsi a quel movimento di “elettrizzazione della meccanica” già presente in opere più antiche (già Gilbert nel suo
De Magnete pensa al magnetismo come a un fluido primario che permea tutto l’universo). Una conseguenza del
lavoro di Maxwell è però la fine delle teorie meccaniche
dell’etere, fluido impalpabile e imponderabile che, permeando l’universo, è il supporto meccanico per la propagazione degli effetti ottici, elettrici e magnetici. Con la
pubblicazione nel 1873 del Treatise on Electricity and
Magnetism (Trattato su elettricità e magnetismo) di Maxwell l’elettromagnetismo diventa una teoria scientifica
che interpreta disparati fenomeni e offre nuovi e fondamentali strumenti per lo studio della Natura.
Può sembrare strano che in questa storia dell’elettromagnetismo non si sia ancora parlato di macchine elettriche, soprattutto per noi che usiamo l’energia elettrica nella maggior parte delle nostre “macchine”. Siamo in presenza di un caso, anomalo rispetto a quello di meccanica
e termodinamica, in cui le scoperte teoriche sembrano
avvenire senza lo stimolo di applicazioni pratiche, che
seguono con rispettabile ritardo temporale. Non ci si rende conto subito delle potenzialità di sfruttamento tecnologico dell’elettromagnetismo, e soprattutto della facilità
di produzione, trasmissione e conversione dell’energia
elettrica. A Michael Faraday che annuncia, nel 1831, la
scoperta della legge d’induzione magnetica, un giornalista domanda che uso abbia la sua invenzione, sentendosi
rispondere “Non si chiede che uso abbia un bambino appena nato”.
Eppure proprio la scoperta dell’induzione elettromagnetica è l’elemento capace di spalancare la strada alla
produzione di elettricità su larga scala. Ma società e mercati occidentali, impegnati nella Rivoluzione Industriale,
non sembrano richiedere tali innovazioni. Si deve attendere circa mezzo secolo per assistere all’avvio della diffusione dell’energia elettrica, diffusione completata nel
Novecento da un ingresso delle applicazioni elettrotecniche nella vita quotidiana così massiccio da rendere le
tecnologie elettriche essenziali per il modo di vivere contemporaneo.
Per buona parte dell’Ottocento l’applicazione elettrica
principale è il telegrafo via filo, introdotto fin dal 1837
da Samuel F. B. Morse, che aveva tratto ispirazione dalle scoperte di Ampère. Antonio Pacinotti descrive la sua
dinamo (l’anello di Pacinotti) nel 1859, ma motori e generatori cominciano a diffondersi industrialmente solo
vent’anni più tardi: la prima centrale elettrica lombarda
(S. Radegonda in Milano) è del 1883. Un efficiente motore asincrono (motore a campo rotante funzionante in
corrente alternata) è costruito nel 1888 da Galileo Ferraris e, indipendentemente, da Nikola Tesla. Thomas
Alva Edison nel 1879 mostra con il bulbo elettrico
(lampada a filamento di bambù sotto vuoto) un modo efficiente per ottenere l’illuminazione elettrica. I primi esperimenti di radiotrasmissione (“telegrafia senza fili”)
sono compiuti da Guglielmo Marconi del 1895.
Si deve osservare, in questa breve storia, come l’Italia
del secondo Ottocento, marginale dal punto di vita economico e politico sugli scenari europei e coloniali, non
sia affatto provinciale nel settore dell’innovazione tecnologica.
360 Capitolo 16
16.4 I percorsi della fisica moderna
La fondazione, concentrata in pochi decenni, dell’intera
teoria dell’elettromagnetismo è il segno più evidente di
una brusca accelerazione dello sviluppo della fisica
nell’Ottocento. All’inizio del Novecento, con un ritmo
ancora più incalzante di scoperte sperimentali e teorie,
vengono posti in discussione e ridefiniti i principi generali della fisica. Ci si rende conto di entrare in una nuova
era e si comincia a parlare di fisica classica in opposizione a fisica moderna: Albert Einstein (1879-1955) fa da
elemento separatore, sia idealmente sia temporalmente,
tra queste due fisiche: può essere ugualmente considerato
l’erede di Newton e Maxwell e uno dei fondatori della fisica moderna. È però sbagliato affermare che all’inizio
del Novecento la fisica classica perda dignità e valore: si
diventa solo consapevoli dei limiti di alcuni suoi principi,
ritenuti per lungo tempo assoluti. Uno scopo di questa sezione è spiegare come questo cambio di prospettiva sia
avvenuto, come abbia assorbito i risultati della fisica
classica e come ci abbia trasmesso, assieme ad alcuni
problemi irrisolti, una certa fiducia nelle nostre capacità
di studiare i misteri della Natura.
16.4.1 Einstein e lo spazio-tempo
Fondamento concettuale della legge F = ma è il principio
di relatività classica, o galileiana, che nelle parole di
Newton suona così : “I moti di corpi compresi in un dato
spazio rimangono tra di loro gli stessi sia che lo spazio
sia fermo, sia che si muova uniformemente in linea retta”. In pratica, la velocità di un oggetto appare a un osservatore in moto come somma algebrica della velocità
propria e della velocità dell’oggetto in un comune sistema di riferimento. Se l’osservatore è in moto uniforme
nel sistema di riferimento, nel sistema “fisso” e in quello
mobile le accelerazioni, e quindi le forze, saranno sempre
le stesse.
La situazione è diversa per una carica elettrica in un
campo magnetico, perché in questo caso la forza sulla carica dipende dalla velocità. A differenza dell’equazione
di Newton, le equazioni di Maxwell non mantengono la
stessa forma quando si passa da un sistema di riferimento
a un altro in moto rettilineo uniforme rispetto al primo. Si
potrebbe allora intravedere la possibilità di individuare
un qualche sistema di riferimento in cui la forza sulla carica assume uno speciale valore. Ma nel 1887 l’esperimento di Michelson e Morley dimostra che la velocità
della luce è la stessa quando si propaga nella direzione
del moto attorno al Sole e in direzione opposta; come se
ciascun raggio portasse con sé il proprio “etere” personale in cui, si pensava, la luce si propaga. La storia di come
Lorentz ed Einstein lavorarono per risolvere il dissidio
tra impostazione di Newton e impostazione di Maxwell,
sempre più evidente sul finire dello scorso secolo, è stata
già raccontata nel Capitolo 11. Va qui sottolineato che la
soluzione oggi accettata, proposta da Einstein, ha avuto
una grande fortuna perché la sua relatività introduce postulati di natura fondamentale che consentono, con argomenti eleganti e in apparenza semplici, di dedurre le equazioni volute. Einstein ipotizza che la velocità della luce sia la stessa per ogni osservatore, che valga il principio
di equivalenza tra i riferimenti galileiani (o principio di
relatività) e valgano principi di conservazione, come
quello della quantità di moto e del momento della quantità di moto, che si possono collegare a proprietà intuitive
di uniformità e isotropia dello spazio. Ma per ottenere
questo bisogna rinunciare alla richiesta che tempi, distanze e masse abbiano un significato “assoluto” cioè indipendente dalla scelta del sistema di riferimento. Va reso
atto a Newton di aver capito che la sua meccanica richiedeva che tempo e spazio fossero assoluti e che su questo
punto non si dovevano fare questioni. Infatti così Newton
proclama nei suoi Philosophiae naturalis principia mathematica (1686): “Lo spazio assoluto, nella sua propria
natura, senza relazione ad alcunché di esterno, resta
sempre uguale e immoto. Il tempo assoluto, vero e matematico, di per se stesso e per la sua stessa natura,
scorre uniformemente senza relazione ad alcunché di esterno”. Nel 1905 sembra a Einstein che sia arrivato il
momento di enunciare nuovi postulati: lo fa con meno enfasi di Newton, ma con altrettanta decisione.
16.4.2 Le regole della meccanica quantistica
La teoria della relatività di Einstein potrebbe essere vista
come una precisazione di concetti di fisica classica, capaci di porre su basi non più contrastanti meccanica ed elettromagnetismo. A cavallo tra Ottocento e Novecento una
serie di esperimenti rivelano però fenomeni che fisica
classica e relatività non possono interpretare. Tutti questi
esperimenti indicano che alcune grandezze fisiche possono assumere solo una serie discreta di valori. L’unità minima di cui può variare una grandezza viene chiamata
quanto e da qui si sviluppa la teoria della meccanica
quantistica.
I percorsi della fisica 361
Lo spettro di emissione del corpo nero e
l’effetto fotoelettrico
Ogni oggetto emette continuamente radiazione elettromagnetica e assorbe la radiazione emessa dall’ambiente
circostante. La termodinamica descrive il bilancio energetico tra radiazione emessa e assorbita quando il corpo è
in equilibrio con l’ambiente. Una conseguenza è che se
l’ambiente è una cavità chiusa a temperatura T la radiazione in questa cavità, detta corpo nero, deve dipendere
solo da T e non dalla materia di cui è costituita. Applicando i principi della termodinamica e dell’elettromagnetismo alla radiazione in equilibrio con i dipoli elettrici
oscillanti, di cui si immagina siano costituite le pareti della cavità, è possibile calcolare lo spettro di emissione del
corpo nero, cioè la distribuzione della energia nella cavità in funzione della frequenza ν della radiazione. La densità di energia E(ν) rilevata sperimentalmente non si trova però in accordo con quella così calcolata.
Nel 1899 Max Planck avanzò l’ipotesi che per ogni
possibile frequenza di radiazione ν, l’energia presente
potesse assumere solo valori che sono multipli interi della
frequenza moltiplicata una costante, h, che fu chiamata
costante di Planck. Con questa ipotesi ad hoc Planck ottenne la distribuzione sperimentale della radiazione del
corpo nero.
Se per Planck i quanti di luce sono un’ipotesi di lavoro, per Einstein sono una realtà direttamente misurabile
mediante l’effetto fotoelettrico (vedi Capitolo 15): l’energia hν e la quantità di moto h/λ di un fotone intervengono nelle formule che descrivono gli urti proprio come intervengono energia e quantità di moto delle particelle materiali. I fotoni non sono un artificio, ma una proprietà
fondamentale del campo elettromagnetico.
Nuclei ed elettroni
Nel 1910 Ernst Rutherford trovò che la carica positiva
degli atomi è concentrata in un nucleo atomico con diametro di ~10−15 m, cioè centomila volte inferiore ai tipici
diametri atomici. L’esistenza di un centro di attrazione
“puntiforme” suggerisce di usare le stesse equazioni che
regolano il moto dei pianeti attorno al Sole per descrivere
il moto dell’elettrone attorno al nucleo (modello planetario dell’atomo). Un successo di questo modello è quello
di predire correttamente l’ordine di grandezza del potenziale di ionizzazione dell’idrogeno (13.6 V). Tuttavia,
mentre non vi è una legge della meccanica che impedisca
al pianeta di stare indefinitamente sulla sua orbita,
l’elettrone è una carica che dovrebbe emettere energia elettromagnetica quando accelerata e dovrebbe perciò precipitare sul nucleo in un tempo brevissimo (≈10−8 s). Altrettanto strano è il fatto che gli atomi assorbono ed emettono radiazione elettromagnetica solo ad alcune frequenze mentre classicamente ci si aspetterebbe che l’energia
scambiata possa variare in modo continuo.
Negli anni Venti si avanzano ipotesi per superare
queste difficoltà: Niels Bohr richiede che il momento angolare dell’elettrone assuma solo valori multipli interi di
h/2π (regola di quantizzazione) mentre Louis de Broglie
associa una lunghezza d’onda
λ=
h
mv
a una particella con quantità di moto mv. Come indicato
nel Capitolo 15, in ambedue i casi si riesce a rendere conto quantitativamente della natura discreta dello spettro di
emissione dell’idrogeno.
Il dualismo onda-corpuscolo
e il principio di indeterminazione
L’idea di Einstein di trattare la luce come costituita da
corpuscoli (i fotoni), quella di Louis de Broglie di pensare all’elettrone come un’onda e altre regole empiriche di
quantizzazione sono organizzate, sul finire degli anni
Venti, nella teoria della meccanica quantistica, che combina due entità, particelle e campi, che la fisica classica
teneva ben separate. Per la fisica classica la particella si
trova in un punto mentre il campo è una regione dello
spazio; per la meccanica quantistica tutto è costituito da
entità indivisibili, come le particelle, ma che vengono descritte da equazioni di campo le quali assomigliano alle
equazioni per le onde. Per la meccanica quantistica non è
corretto dire che l’elettrone si trova in un certo punto
dell’asse x con una certa velocità vx; tutto quello che possiamo dire è che l’elettrone è descritto da una funzione
d’onda che è la somma (al limite infinita) di onde semplici, a ciascuna delle quali corrisponde una “velocità”
v=
h
me λ
dove λ è la lunghezza d’onda di de Broglie. Perché l’elettrone sia in un intorno di un punto (per esempio x = 0 a
t = 0) occorre che la sua funzione d’onda si annulli quan-
362 Capitolo 16
do la coordinata x è al di fuori di questo intorno. Un’onda
semplice oscilla fino all’infinito e non gode di questa
proprietà. La somma di tante funzioni “coseno” con lunghezze d’onda differenti ha un valore elevato per x = 0 e
quasi nullo lontano da x = 0 in quanto i segni di tali funzioni sono sia positivi sia negativi e la loro somma è, in
genere, molto piccola. Ma questo vuole dire che
l’elettrone che si trova nell’intorno di un punto deve avere lunghezze d’onda diverse, cioè molte velocità. Per conoscere precisamente la posizione di un elettrone bisogna
perciò rinunciare a conoscere precisamente la sua velocità; viceversa, se l’elettrone è descritto da un’onda semplice (ossia da una sinusoide), esso ha una velocità perfettamente definita, ma è distribuito su tutto lo spazio.
Di solito si riesce a conoscere con una certa incertezza ∆x la posizione di una particella di massa m e con una
incertezza m∆vx la sua quantità di moto. Il principio di
indeterminazione di Heisenberg discende proprio dalla
natura “di onda” di ogni particella e stabilisce il seguente
legame tra queste due incertezze:
∆x m∆vx ≥
h
4π
Il ragionamento può essere ripetuto per la coordinata
tempo e l’energia della particella vista come un’onda,
E = hν. Se la particella si trova in una certa posizione al
tempo t = 0 la sua energia è completamente indeterminata, le incertezze sul tempo e sull’energia sono tra loro
collegate da una relazione analoga a quella “posizionequantità di moto”:
∆t∆E ≥
h
4π
16.2
La grandezza fondamentale è anche qui la costante di
Planck h che ha le dimensioni di [energia] × [tempo]. Il
suo “piccolo” valore (≈10−34 J⋅s) rende poco evidenti gli
effetti quantistici sulle scale “macroscopiche” dell’esperienza ordinaria. Per esempio, secondo la meccanica
quantistica, l’incertezza sulla posizione del centro di
massa di un insetto con m = 10−6 kg e v = (1 ± 0.01) m/s
è di solo ~5(10−27) m . Quando gli effetti del principio di
indeterminazione sono trascurabili, come in questo caso,
le predizioni della meccanica quantistica sono praticamente coincidenti con quelle della meccanica classica.
Come in maniera forse un po’ troppo semplicistica si
può dire che la relatività di Einstein permette di studiare
“oggetti molto veloci”, così si può dire che la meccanica
quantistica è una specie di ricetta che consente di applica-
re concetti della fisica classica, come energia e quantità
di moto, anche al mondo del “molto piccolo”. È in questo
senso che la fisica moderna può essere considerata una
generalizzazione della fisica classica.
16.5 La fisica finirà?
Si racconta che Alessandro Magno giunto all’Indo pianse
perché si rese conto che il grande fiume segnava la fine
della sua stupefacente campagna di conquista dell’Oriente. Per analogia, lo sviluppo della fisica può essere pensato come la conquista di un territorio compreso tra scale di
tempo e di spazio sempre più estese. Si è iniziato scoprendo le leggi di quella parte dell’universo che cade sotto l’osservazione visiva diretta, da stelle distanti migliaia
di anni luce a corpuscoli submillimetrici. Con stru-menti
che estendono i nostri sensi si sono poi scoperte galassie
lontane miliardi d’anni luce, gli atomi, e le particelle che
lo costituiscono. Ora, però, si trova che le scale delle osservazioni, tanto nel tempo quanto nello spazio, hanno
limiti naturali, inavvicinabili nel prevedibile futuro, ma al
di là dei quali non è logico estendere le leggi valide per le
scale di spazio e tempo oggi accessibili. Attraverso questo metaforico “Indo” si riesce per ora solo a spingere la
navicella della fantasia.
Democrito di Abdera, filosofo greco del V secolo
a.C., fece in un certo senso ciò che molti fisici hanno poi
ripetuto innumerevoli volte: modificare una teoria per tenere conto di osservazioni sperimentali. La teoria è quella
di Parmenide ed esprime l’esigenza logica che esista una
sola entità, immutabile, mai creata e senza fine, conoscibile solo mediante il pensiero. Noi però vediamo che tutto è in mutamento: perciò Democrito ipotizza che il mondo percepito dai sensi sia costituito da “atomi”, letteralmente “particelle indivisibili”, immutabili ed eterne per
definizione, che costituiscono l’essenza dell’universo. I
cambiamenti sono dovuti al combinarsi in modi differenti
dei diversi tipi di atomi.
La storia della fisica può essere anche vista come la
ricerca di questo oggetto primordiale indivisibile da cui
tutto scaturisce. Si è cercato questo oggetto, ma si sono
finora trovate interazioni, cioè forze.
1.
La forza di gravità è debole ma onnipresente; i suoi
effetti si manifestano quando si ha l’azione combinata di un gran numero di atomi. La gravità lega le stelle in galassie, mantiene il Sole intero, la sua famiglia
di pianeti nelle loro orbite, gli oceani al loro posto. È
I percorsi della fisica 363
2.
3.
4.
l’interazione di gran lunga predominante su distanze
cosmiche, fino alla dimensione dell’Uni-verso
(~1026 m).
Quando si arriva a corpi con dimensioni dell’ordine
del chilometro, la forza principale diventa la forza
elettromagnetica: è ciò che fa crescere un albero,
esplodere un vulcano e che detta le leggi con cui avvengono le reazioni chimiche. La teoria di Maxwell
rispetta, fin dalla nascita, i principi della relatività di
Einstein. Il campo di Maxwell ha dovuto essere poi
quantizzato, ma questa operazione, in genere, non fa
male neppure agli studenti che la devono spiegare
durante un esame. La chimica è una disciplina “chiusa” nel senso che non vi è più niente di fondamentale
da scoprire nel legame chimico, anche se può essere
molto complesso affrontare dai principi primi persino la descrizione di molecole semplici.
A distanze dell’ordine di 10−15 m la forza elettromagnetica cede all’interazione forte. È la forza che
mantiene i protoni e neutroni dentro il nucleo atomico e tiene assieme i quark che formano neutroni e
protoni.
Su distanze ancora più piccole, dell’ordine di
10−19 m, dominano le interazioni deboli che provocano la disintegrazione spontanea di talune particelle
e nuclei. Queste distanze segnano all’incirca il limite
che i più potenti acceleratori d’oggi riescono a studiare: alle energie di 2(1012) eV (elettronvolt) si
hanno le particelle W e Z che sono cento milioni di
volte più piccole dell’atomo.
Sulle scale di distanze a cui dominano le interazioni deboli, forti ed elettromagnetiche la meccanica quantistica
regna incontrastata. Negli ultimi vent’anni si è affermato
un punto di vista che coglie un aspetto unitario di queste
tre interazioni: tutte si realizzano mediante lo scambio di
quanti di energia chiamati fotoni per l’elettromagnetismo,
gluoni per l’interazione forte e bosoni vettoriali intermedi
per l’interazione debole. Si pensa oggi che queste tre forze siano una manifestazione di un’unica interazione che
dovrebbe manifestarsi a distanze dell’ordine di 10−31 m,
cioè mille miliardi di volte minori della più piccola particella conosciuta. Queste distanze non sono accessibili
all’osservazione diretta, ma vi è fiducia di arrivare a provare indirettamente le ipotesi sulla forza unica.
I problemi nascono alle distanze ancora minori, dove
la stessa scala delle distanze sembra finire. Dal punto di
vista intuitivo, più riduciamo le dimensioni di una “scatola” in cui confiniamo una particella, più la sua frequenza
e quindi la sua energia e massa aumentano, fino a creare
un minuscolo buco nero. Infatti alla distanza di
Planck(☯) di circa 10−35 m torna a dominare la gravità.
Ai fisici piacerebbe applicare anche in questo caso la regola di quantizzazione che sembra funzionare così bene
con le altre interazioni. Ma la ricetta per quantizzare il
campo gravitazionale non è stata ancora trovata. La difficoltà nasce dal fatto che la gravità è indissolubilmente legata alla geometria dello spazio, il che comporta problemi formali che sembrano al momento insormontabili. Alcuni fisici cercano di ridefinire il problema ispirandosi a
risultati delle geometrie moderne. Altri capovolgono la
questione e ipotizzano che il costituente fondamentale
dell’universo sia una superstringa, un oggetto “grande”
come la distanza di Planck, così chiamato perché in esso
è “raggomitolato” uno spazio a sei dimensioni, che si aggiungono alle tre dimensioni dello spazio ordinario. Infatti, solo con nove dimensioni sembra sia possibile sviluppare un modello che abbia senso fisico. Dalla superstringa dovrebbero discendere in modo naturale tutte le proprietà delle interazioni note, gravità compresa.
La conclusione è che la fisica si trova a un punto cruciale della sua evoluzione; se riesce a unificare tutte le
forze note, “scopre” un’entità primordiale che sta alla base di tutto quanto vi è nell’universo e oltre la quale sembra difficile spingersi. Molti credono che l’unificazione
avverrà presto e che questo risultato rappresenterà il successo più grande della meccanica quantistica, cioè di una
“ricetta” che finora non ci ha ancora deluso. In tal caso la
fisica diventerebbe una disciplina chiusa, come la chimica. Altri credono che il procedimento sarà lungo e che
forse non potremo mai scoprire “l’atomo di Parmenide”.
Ma forse la questione sulla fine della fisica va proposta in
(☯) L’energia potenziale di un punto materiale di massa dm
a una distanza r da un punto materiale di massa M è −GMdm/r.
Imponendo che dmc2 sia al più la metà di questa energia cambiata di segno, si trova il cosiddetto raggio di Schwarzschild,
RS, ossia il raggio di un buco nero di massa M:
RS = 2GM / c2
In una regione di dimensioni dell'ordine di RS, per la 16.2 le
fluttuazioni di energia ∆E sono dell'ordine di
∆E ≈ hc / 2 RS
Imponendo Mc2 =∆E, RS diventa uguale alla distanza di
Planck, dove le oscillazioni di energia del vuoto quantico sono
così intense da creare buchi neri virtuali:
RS ≈
Gh
c3
≈ 10 −35 m = distanza di Planck
364 Capitolo 16
termini ancora differenti, che tengano conto del ruolo
dell’uomo.
16.5.1 Un volo di fantasia
Dal “Big Bang” in poi, la storia del nostro Universo è
stata determinata dai valori di poche costanti fisiche quali
carica e massa dell’elettrone, velocità della luce. Se, per
esempio, la costante della legge di gravitazione G fosse
stata anche di poco superiore al valore oggi noto, si sarebbero formate stelle più calde delle attuali, che si sarebbero consumate prima che su un pianeta come il nostro potessero realizzarsi le condizioni necessarie alla vita. Se G fosse stata inferiore, l’idrogeno primordiale non
si sarebbe mai compresso al punto da avviare le reazioni
di formazione dei nuclei pesanti, e vi sarebbero scuri
ammassi di gas al posto di stelle luminose. In pratica,
l’Universo è quello che è proprio perché noi esistiamo. È
questo un enunciato del principio antropico (per taluni
punto di partenza irrinunciabile, per altri affermazione totalmente priva di significato scientifico) che ricolloca
l’uomo al centro di un universo la cui finalità sembrerebbe proprio essere quella di consentire la vita biologica.
Quando notiamo ammirati che nella realizzazione di
un organismo, o una sua parte, la Natura sembra aver
compiuto una catena di scelte geniali e lungimiranti, invochiamo di solito l’evoluzione, ossia un processo di selezione tra individui differenti che conduce via via a migliori funzionalità (Charles Robert Darwin). Qualcuno,
come Edward R. Harrison (un cosmologo della Università del Massachusetts) combina evoluzione e principio antropico immaginando che sia possibile controllare le fluttuazioni di vuoto alla distanza di Planck in modo da generare un universo con le costanti fisiche volute. Ogni universo nasce e muore, ma potrebbe riprodursi qualora
realizzasse una vita intelligente capace di intervenire sulle “fluttuazioni di vuoto” che avvengono alle distanze di
Planck. L’universo figlio vivrebbe in un spazio diverso
da quello del genitore, e incomunicabile con questo; tale
universo sarebbe un ramo morto se la scelta delle costanti
fosse sbagliata; sarebbe un ramo fecondo se la scelta delle costanti fisiche fosse a sua volta compatibile con lo
sviluppo di forme di vita intelligenti. Si immagina che
l’insieme degli universi occupi un “iperspazio” in cui ogni universo sia come un foglio di una grande risma di
carta.
Se in tutto questo c’è qualcosa di profetico, la “fine”
della fisica significa solamente l’esaurimento della rivoluzione copernicana, una corrente di pensiero che ha tolto
all’uomo il suo posto privilegiato al centro del creato per
relegarlo in un punto, neppure molto centrale, di una galassia con miliardi di stelle posta in un universo con miliardi di galassie. Ma con la forza del pensiero ormai abbracciamo quasi del tutto questo universo. Arriviamo ora
a chiederci se l’Universo sia una gabbia invalicabile o se
uscire da questa gabbia sia il nostro destino e la nostra
missione o il risultato di un fantastico intreccio di caso e
necessità.
16.5.2 Civiltà ed evoluzione
La specie umana ha un’età di circa duecentomila anni e la
sua affermazione è stata preceduta, o accompagnata, da
vari tentativi (per esempio, l’uomo di Neandertal) che
non sembrano aver lasciato traccia sul nostro patrimonio
genetico. Nonostante questo, noi sembriamo ben inseriti
nel percorso evoluzionistico della biologia terrestre. Tuttavia, da almeno diecimila anni, da quando si crede abbiano avuto inizio le civiltà, lo sviluppo evoluzionistico
della specie umana si è praticamente arrestato. Si potrebbe dire che abbiamo iniziato a modificare l’ambiente per
evitare di modificare noi stessi.
La nascita della civiltà, ossia del “vivere in città”,
sembra legata all’affermarsi di una agricoltura e una pastorizia in grado di produrre più del necessario per sopravvivere. Nella breve storia delle civiltà umane oggi
note vi sono stati frequenti e dolorosi cambi delle strutture sociali e produttive, accompagnati da guerre e cataclismi naturali, che hanno avuto l’effetto di mantenere sempre elevatissimo il ritmo evolutivo delle civilizzazioni.
Sembra si stia oggi consolidando sull’intero pianeta
un modello di civiltà che non sembra aver l’equivalente
nel passato, né in termini di estensione geografica, né nella capacità di modificare l’ambiente. Le domande sul futuro di questa civiltà e del nostro ecosistema sembrano
molto più impellenti, per la nostra sorte di individui, di
quelle su origine e destino degli universi.
16.6 L’organizzazione della ricerca
La professione del fisico e i suoi legami con tecnica e società hanno subìto in questo secolo importanti cambiamenti. Innanzitutto, il formalismo della fisica diventa così
complesso che dilettanti geniali hanno oggi poche probabilità di dare contributi paragonabili a quelli di Thomas
Young (1773-1829, ottica e meccanica) e di Julius R. von
I percorsi della fisica 365
Mayer (1814-1878, termodinamica), entrambi medici
professionisti e fisici dilettanti. Anche l’attività sperimentale non è più un hobby dell’aristocrazia, come nel Settecento e, in parte, nell’Ottocento. Dopo la Seconda Guerra
Mondiale quasi tutti gli stati formano o ampliano agenzie
di ricerca senza fini bellici (in Italia: INFN, CNR,
ENEA) che contribuiscono a creare rapidamente una ampia classe di ricercatori pubblici e docenti universitari perennemente assetati di finanziamenti. La funzione di
promozione e divulgazione dei club elitari, spesso raccolti attorno alle storiche Accademie e Società Scientifiche,
si esaurisce. Le riviste scientifiche a diffusione internazionale si moltiplicano in modo impressionante e il costo
del mantenimento della biblioteca diventa un problema
anche per gli istituti più ricchi e dedicati a tematiche specialistiche.
La grande espansione e democratizzazione della ricerca degli ultimi decenni è stata resa possibile dai costanti guadagni di produttività del mondo occidentale e
dagli elevati tassi di sviluppo delle nazioni emergenti.
Mentre i fattori sociali e politici di questi fenomeni sono
variegati, l’elemento tecnologico è comune a tutto il
mondo: nella prima metà del Novecento fisica, chimica e
ingegneria si alleano per tradurre in beni e servizi le
grandi scoperte scientifiche. Poi, nel clima di ottimismo
generato dalla fine della Seconda Guerra Mondiale e dai
successi dei maggiori settori industriali (aerei, dispositivi
elettronici, materie plastiche, antibiotici), si instaura una
bonaria competizione tra Stati, competizione che conta
tra le sue motivazioni anche l’orgoglio e il prestigio nazionale. Paradossalmente, questo massiccio intervento
pubblico ha come effetto quello di indebolire il legame
tra ricerca e società: si tendono a creare iperspecializzazioni e si hanno difficoltà di comunicazione persino tra
settori affini, occupati spesso in un controllo geloso del
proprio “territorio”.
La ricaduta tecnologica diretta (introiti per brevetti)
della ricerca pubblica è modestissima, soprattutto in Europa, nonostante il denaro pubblico non trascuri affatto i
settori con le più grandi potenzialità applicative. Ma la
resa scientifica è nel complesso proporzionata allo sforzo
economico. Il resoconto dei lavori viene pubblicato dai
giornali scientifici, quasi esclusivamente in lingua inglese, diventando un patrimonio a cui tutti possono accedere. Il controllo sulla qualità dei lavori è svolto da “arbitri”
(referees) scelti dagli editori tra i migliori esperti del settore. Il sistema di comunicazione è aperto, libero ed efficiente; il lavoro dei referees è per lo più onesto e, quel
che più conta, il sistema funziona. Il maggiore stimolo
del ricercatore è proprio la competizione con i colleghi
dello stesso campo per trovare spazio sui giornali più
prestigiosi. Non solo vi è una “hit-parade” ufficiale delle
riviste e degli autori di maggior successo, ma le classifiche di questa “hit-parade” giocano un ruolo sempre più
importante nella assegnazione di finanziamenti, nuovi
posti e promozioni.
Si assiste a una esplosione delle conoscenze scientifiche umane che, secondo uno studio, oggi raddoppiano in
media ogni sette anni. L’offerta di conoscenza supera di
gran lunga la capacità di sfruttamento da parte della tecnologia e di utilizzo da parte del sistema produttivo. Per
quello che riguarda la fisica, tra gli anni Quaranta e Ottanta viene svolto un lavoro enorme, e spesso poco glorioso, per sistemare molti campi (per esempio, la scienza
dei materiali). Vengono inoltre risolti grandi problemi riguardanti l’astrofisica e le interazioni fondamentali.
Sembra però che la maggior parte dei fisici sia intenta a
digerire e articolare meccanica quantistica e relatività;
molti fisici avvertono un’atmosfera di relativa stasi e si
dedicano ad altro, alle scienze biologiche in particolare.
La situazione sociale e scientifica cambia a metà degli
anni Novanta. L’ottimismo postbellico lascia il posto a
inquietudini per il futuro e alla sensazione che le società
postindustriali non siano più in grado di mantenere certe
aree di privilegio. In particolare, sembra in via di lenta
estinzione la classe “sacerdotale” della ricerca pubblica,
quella almeno senza doveri e con privilegi garantiti. Nella ricerca pubblica i posti di lavoro permanenti sono offerti sempre più di rado e le fonti tradizionali di finanziamento (Governo e sue agenzie) tendono a ridursi, tanto in Europa quanto negli Stati Uniti.
Le risorse complessivamente dedicate alla ricerca però sono in crescita perché in parte vengono amministrate
da organismi transnazionali (come l’Unione Europea), o
vanno a grossi laboratori internazionali (come il CERN) e
a “centri di eccellenza”. Si cerca così di razionalizzare
gradualmente il finanziamento del progresso scientifico,
riconoscendo che questa impresa riguarda l’intera umanità, e non il prestigio di un singolo paese.
Benché nominalmente in clima di libero mercato, Stati singoli e comunità di Stati attuano politiche protezionistiche verso settori strategici mediante contributi a fondo
perduto alla ricerca industriale e allo sviluppo tecnologico. Inoltre, in settori con elevati livelli di competitività,
quale quello elettronico, è tipico investire una grossa parte dei ricavi, dell’ordine del 10%, in ricerca e sviluppo.
Queste sfide competitive impiegano una popolazione crescente di ricercatori che, a differenza del passato, hanno
ridottissima libertà di iniziativa e poche motivazioni, e
ancor meno possibilità, di dedicarsi a progetti difficili ma
366 Capitolo 16
gloriosi.
In questo clima in apparenza poco propizio, la fisica
sta dando segni di rinnovata vitalità: nuovi esperimenti
mettono in dubbio il senso del valore limite invalicabile
della velocità della luce e indagano i significati reconditi
delle regole della meccanica quantistica. Ci si pongono in
termini matematici e operativi questioni dal sapore filosofico. Cosa è il vuoto, il tempo, lo spazio, la materia? Cosa
è l’equilibrio? Il tempo ha un inizio e una fine o è circolare? Che mondo c’è in un punto piccolo ai limiti di ciò
che è immaginabile? Come può l’estremamente piccolo
determinare la struttura dell’Universo? Come è nato
l’Universo e come evolverà? Come si possono descrivere
in un solo modo tutte le forze oggi conosciute? Come si
può scegliere tra teorie contrastanti quando la via sperimentale sembra impraticabile?