48=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! !"#$%&'&() È più importante il viaggio, non la meta del viaggio Vincenzo Pappalardo "(#*,!0!#'-""(#2!0!*(#*"(00!*(# 9.1 La crisi del meccanicismo La concezione del mondo che fu trasformata dalle scoperte della fisica moderna era stata costruita sulla base del modello meccanicistico newtoniano dell'universo che costituiva la struttura portante della fisica classica. Si trattava in effetti di una fondazione veramente formidabile, che sorreggeva graniticamente tutta la scienza e che per quasi tre secoli offrì una solida base alla filosofia naturale. Lo scenario dell'universo newtoniano nel quale avevano luogo tutti i fenomeni fisici era lo spazio tridimensionale della geometria euclidea classica: uno spazio assoluto sempre immobile e immutabile. Secondo le parole di Newton: “Lo spazio assoluto, per sua stessa natura senza relazione ad alcunché di esterno, rimane sempre uguale e immobile”. Tutti i mutamenti che si verificano nel mondo fisico erano descritti in funzione di una dimensione separata, chiamata tempo, anch'essa assoluta che non aveva alcun legame con il mondo materiale e che fluiva uniformemente dal passato al futuro, attraverso il presente. Sempre secondo le parole di Newton: “Il tempo assoluto, vero, matematico, in sé e per sua natura senza relazione ad alcunché di esterno, scorre uniformemente”. Gli elementi del mondo newtoniano che si muovevano in questo spazio e in questo tempo assoluti erano le particelle materiali. Nelle equazioni matematiche queste venivano trattate come punti materiali e Newton le considerava oggetti piccoli, solidi e indistruttibili dei quali era costituita tutta la materia. Questo modello era del tutto simile a quello degli atomisti greci. Tutti e due erano basati sulla distinzione tra pieno e vuoto, tra materia e spazio, e in entrambi i modelli le particelle rimanevano sempre identiche a se stesse in massa e forma; perciò la materia era sempre conservata ed essenzialmente inerte. La differenza importante che c'e tra l'atomismo di Democrito e quello di Newton è che quest’ultimo contiene una precisa descrizione della forza che agisce tra le particelle materiali: si tratta di una forza molto semplice, che dipende solo dalle masse e dalla reciproca distanza tra le particelle. Secondo Newton, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 484! questa forza, cioè la forza di gravità, era strettamente connessa ai corpi sui quali agiva e la sua azione si manifestava istantaneamente a qualsiasi distanza. Sebbene quest'ultima fosse un'ipotesi abbastanza singolare, non fu indagata ulteriormente. Si riteneva che le particelle e le forze che agivano tra esse fossero state create da Dio, e che quindi non si potessero sottoporre a ulteriori analisi. Nella meccanica di Newton, tutti gli eventi fisici sono ridotti al moto di punti materiali nello spazio, moto causato dalla loro reciproca attrazione, cioè dalla forza di gravità. Per esprimere in una forma matematica precisa l'effetto di questa forza su un punto materiale, Newton dovette inventare concetti e tecniche matematiche completamente nuovi, i concetti e le tecniche del calcolo differenziale. Questo fu un successo intellettuale talmente straordinario da spingere Einstein ad affermare che esso è “forse il più grande progresso nel pensiero che un singolo individuo sia mai stato capace di compiere“. Le equazioni di Newton relative al moto dei corpi sono la base della meccanica classica; esse furono considerate le leggi immutabili secondo le quali si muovono i punti materiali e si pensava quindi che potessero spiegare tutti i mutamenti osservati nel mondo fisico. Secondo Newton, all'inizio Dio creò le particelle materiali, le forze che agiscono tra esse e le leggi fondamentali del moto. In questo modo tutto l'universo fu posto in movimento e da allora ha continuato a funzionare, come una macchina, governato da leggi immutabili. La concezione meccanicistica della natura è quindi in stretto rapporto con un determinismo rigoroso. La gigantesca macchina cosmica era considerata completamente causale e determinata. Tutto ciò che avveniva aveva una causa definita e dava luogo a un effetto definito e, in linea di principio, si sarebbe potuto prevedere con assoluta certezza il futuro di una parte qualsiasi del sistema se si fosse conosciuto in un qualsiasi istante il suo stato in tutti i suoi particolari. La base filosofica di questo determinismo rigoroso era la fondamentale divisione tra l'Io e il mondo introdotta da Cartesio. Come conseguenza di questa divisione, si riteneva che il mondo potesse essere descritto oggettivamente, cioè senza tener mai conto dell'osservatore umano e tale descrizione oggettiva del mondo divenne l'ideale di tutta la scienza. Nel Settecento e nell'Ottocento si assiste a un enorme successo della meccanica newtoniana. Newton stesso applicò la sua teoria al moto dei pianeti e riuscì a spiegare le caratteristiche fondamentali del sistema solare. Tuttavia il suo modello planetario era estremamente semplificato, vi era trascurata, per esempio, l'influenza gravitazionale tra i pianeti, cosicché ne risultavano alcune irregolarità che Newton non riusciva a spiegare. Egli risolse questo problema supponendo che Dio fosse sempre presente nell'universo per correggere tali irregolarità. Il grande matematico Laplace si propose l'ambizioso compito di affinare e perfezionare i calcoli di Newton al fine di offrire una soluzione completa dell'enorme problema di meccanica presentato dal sistema solare e portare la teoria a coincidere così strettamente con l'osservazione che le equazioni empiriche non avrebbero più dovuto trovare posto nelle tavole astronomiche, arrivando così alla conclusione che le leggi del moto formulate da Newton assicuravano la stabilità del sistema solare e trattò l'universo come una macchina capace di autoregolarsi perfettamente. Incoraggiati dal brillante successo della meccanica newtoniana in astronomia, i fisici la applicarono anche al moto continuo dei fluidi e alle vibrazioni dei corpi elastici, e ancora una volta essa servì allo scopo. Infine, anche la teoria del calore fu ridotta alla meccanica quando 485! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! si capì che il calore è l'energia associata a un complicato moto di agitazione delle molecole. Lo straordinario successo della meccanica di Newton fece nascere nei fisici dell'inizio dell'Ottocento la convinzione che l'universo fosse in realtà un enorme sistema meccanico che funzionava secondo le leggi del moto di Newton. Queste leggi furono viste come le leggi fondamentali della natura e la meccanica di Newton venne considerata la teoria definitiva dei fenomeni naturali e generalmente considerata nel XIX secolo epistème, sapere certo, costituito da proposizioni vere, indubitabili e definitive, sia che si ritenga, come lo stesso Newton, che i suoi principi siano “proposizioni ricavate per induzione dai fenomeni”, sia che li si consideri, come Kant, proposizioni di cui “è chiara la [...] necessità, e pertanto la loro origine a priori”. Sulla base di questa dominante convinzione, la meccanica viene posta a fondamento sicuro dell'indagine scientifica del mondo. Si pensa, infatti, che se essa è epistème, se ci dà un'immagine vera della realtà fisica, allora tutti i fenomeni fisici devono essere descritti e spiegati in termini meccanici. Il programma meccanicistico era riuscito a conseguire significativi risultati, rafforzando la convinzione che la meccanica classica era il fondamento sicuro non solo della fisica ma anche delle scienze naturali e che la via del completo disvelamento della natura era ormai definitivamente imboccata. Einstein ha dato una vivida ed efficace descrizione dell'atmosfera in cui si svolgeva la ricerca scientifica del XIX secolo: “In materia di principi predominava una rigidezza dogmatica; in origine (se origine vi fu) Dio creò le leggi del moto di Newton insieme con le masse e le forze necessarie. Questo è tutto; ogni altra cosa risulta deduttivamente attraverso lo sviluppo di metodi matematici appropriati. Ciò che il secolo XIX riuscì a fare basandosi solo su questo […] non poteva non suscitare l’ammirazione di ogni persona intelligente. […] Però, ciò che faceva più impressione non era tanto la costruzione della meccanica come scienza a sé, o la soluzione di problemi complicati, quanto le conquiste della meccanica in campi che apparentemente non avevano nulla a che fare con essa [...]. Questi risultati confermavano che la meccanica costituiva [...] la base della fisica [...]. Non dobbiamo quindi stupirci se tutti, o quasi tutti, i fisici del secolo scorso videro nella meccanica classica la base sicura e definitiva di tutta la fisica, e anzi, addirittura di tutte le scienze naturali”. La crisi della fisica ha inizio quando il programma di ricerca meccanicistico esaurita la sua capacità progressiva, si imbatte in difficoltà che sembrano insuperabili e che portano ad abbandonare l'idea della meccanica come base unitaria della fisica, nonché a ripensare in generale la natura e lo status epistemologico delle teorie scientifiche. Questa presa di coscienza non si verificò improvvisamente, ma fu avviata da avvenimenti che erano già iniziati nel diciannovesimo secolo e che prepararono la strada alle rivoluzioni scientifiche del XX secolo. Il primo di questi avvenimenti fu la scoperta dell’elettromagnetismo che non poteva essere descritto adeguatamente dal modello meccanicistico, e comportavano l'esistenza di un nuovo tipo di forza. Il passo importante fu compiuto da Faraday e da Maxwell, i quali, invece di interpretare l'interazione tra una carica positiva e una negativa dicendo semplicemente che le due cariche si attraggono tra loro come avviene per due masse nella meccanica newtoniana, trovarono più appropriato dire che ogni carica crea nello spazio circostante un campo, cioè una perturbazione o una condizione tale che un'altra carica, se presente avverte una forza. Era un mutamento profondissimo della concezione della realtà fisica da parte dell'uomo. Nella visione newtoniana, le /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 486! forze erano rigidamente connesse ai corpi su quali agivano. Ora il concetto di forza veniva sostituito da quello, molto più sottile, di campo, il quale aveva una sua propria realtà e poteva essere studiato senza alcun riferimento ai corpi materiali. Il punto più alto raggiunto da questa teoria (l’elettromagnetismo) fu la comprensione del fatto che la luce non è altro che un campo elettromagnetico rapidamente alternante e che si sposta nello spazio sotto forma di onda. Quanto al secondo di questi avvenimenti, la termodinamica, progressi molto brillanti erano stati compiuti interpretando temperatura, quantità di calore, pressione di un gas all'interno della teoria cinetica della materia, ossia come effetti globali del moto caotico delle miriadi di particelle materiali che costituiscono i gas (e in generale i corpi). La meccanica statistica aveva permesso, mediante considerazioni probabilistiche ingegnose e complesse, di definire le grandezze termodinamiche come somme o medie di grandezze strettamente meccaniche riguardanti il moto di tali particelle, e di ricavare anche le fondamentali leggi della termodinamica. Una difficoltà notevole era tuttavia costituita dal secondo principio della termodinamica, che introduceva l’irreversibilità dei fenomeni di cui non riusciva a ottenere la spiegazione utilizzando leggi e principi della meccanica che sono tutti reversibili (ossia, che permettono di determinare lo stato futuro di un sistema, ma anche il suo stato passato). Alla fine di molti sforzi teorici e complessi calcoli matematici una via d’uscita fu trovata e possiamo esprimerla, molto sommariamente, così: lo stato finale cui tende il processo non è assolutamente irreversibile, ma soltanto quello di massima probabilità; la reversibilità non è teoricamente impossibile, ma ha una probabilità talmente bassa che può essere praticamente escluso il suo verificarsi. La riduzione della termodinamica alla meccanica era in tal modo ottenuta, ma a un prezzo notevole, ossia l'introduzione del punto di vista probabilistico nella scienza fisica, che intaccava il rigoroso determinismo della fisica tradizionale, vera colonna portante del meccanicismo (le leggi naturali non ammettono eccezioni, e se i risultati previsti non si verificano, è solo perchè le condizioni di applicazione della legge non erano adeguatamente realizzate). Notiamo che l’ingresso del punto di vista probabilistico precede la nascita della fisica quantistica, che introdurrà un probabilismo di tipo diverso e più radicale rispetto a quello della termodinamica classica, un probabilismo come legge di natura. In definitiva, le due nuove branche della fisica ottocentesca, ossia l'elettromagnetismo e la termodinamica, risultarono alla fine irriducibili a sottocapitoli della meccanica. Nonostante questi mutamenti che aprivano nuovi orizzonti, la meccanica newtoniana mantenne inizialmente la sua posizione come fondamento di tutta la fisica. Maxwell stesso cercò di dare una spiegazione meccanicistica ai propri risultati interpretando il campo come stati di tensione meccanica in un mezzo molto leggero, chiamato etere, che riempiva tutto lo spazio, e le onde elettromagnetiche come onde elastiche di questo etere. Tuttavia, Maxwell fece uso contemporaneamente di diverse interpretazioni meccaniche della sua teoria e manifestamente non ne prese alcuna in seria considerazione. Egli doveva aver compreso intuitivamente, anche se non lo espresse in maniera del tutto esplicita, che le entità fondamentali della sua teoria erano i campi e non i modelli meccanici. Fu Einstein a riconoscere chiaramente questo fatto cinquant'anni dopo, quando dichiarò che non esisteva alcun etere e che i campi elettromagnetici erano vere e proprie entità fisiche, che potevano spostarsi attraverso lo spazio vuoto e non potevano essere spiegate meccanicamente. 487! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! All'inizio del Novecento, dunque, i fisici disponevano di due teorie valide, capaci di spiegare fenomeni differenti: la meccanica di Newton e l'elettrodinamica di Maxwell; di conseguenza, il modello newtoniano non costituiva più la base di tutta la fisica. 9.2 Riflessioni critiche sul meccanicismo Questi fatti si erano prodotti negli ultimi tre decenni dell'Ottocento e avevano incrinato la fede nel meccanicismo non tanto presso il pubblico e la maggior parte degli scienziati, quanto presso alcuni spiriti più attenti. Con l’abbandono dell’interpretazione meccanicistica dei fenomeni, perdeva terreno l’idea di una gerarchia delle scienze, e in conformità alla concezione fenomenistica della scienza, nello studio della natura non può esserci altra verità all’infuori di ciò che si percepisce con i sensi, per cui, i veri oggetti della fisica sono i colori, i suoni, le temperature, i moti, le pressioni, ecc. Scopo della fisica è quindi quello di associare opportunamente, e in modi quanto più possibili molteplici, tali dati elementari. Nasce così l’idea di una fisica fenomenologia da contrapporre a quella meccanica, che da un lato, è vero che comporta una restrizione del campo operativo, dall’altro però rappresentava un soffio vivificante, che liberava la fisica dall’idea di sostanza, e dalla faticosa e deviante pretesa di interpretare meccanicamente i fenomeni, a cui soggiacevano ancora grandi spiriti, come quello di Maxwell. Protagonisti di questa riflessione critica furono Mach, Duhem e Poincarè. Ernst Mach (1838-1916), in un primo tempo, è stato un convinto meccanicista: “l’intera fisica non è altro che meccanica applicata”. L’affermazione secondo cui la materia è costituita di atomi, anche se risulta un’ipotesi, è convinto di doverla accettare tante sono le prove, sia pure indirette, che la convalidano; ammette però che esistano due specie ben distinte di atomi, quelli corporei costituenti i corpi, e quelli eterei costituenti l’etere: fra i primi agisce una forza attrattiva regolata dalla legge della gravitazione, fra i secondi invece una forza repulsiva e, poiché ogni atomo corporeo è circondato da vari atomi eterei, la forza repulsiva di questi ultimi sarà ciò che impedisce ai primi di congiungersi fra loro. Scopo della scienza è di stabilire il maggior numero possibile di leggi sperimentali, che il ricercatore dovrà poi ricondurre a pochi principi generali. Anche se in taluni casi questi principi sono soltanto ipotetici, risulterà in ultima istanza possibile, date due ipotesi antitetiche avanzate per spiegare il medesimo fenomeno, scoprire qualche esperimento cruciale capace di escludere definitivamente l’una a favore dell’altra. Però ben presto Mach comincia a respingere i postulati generali del meccanicismo, ed in particolare le critiche vengono rivolte ad Helmholtz, lo scienziato dell’epoca che aveva dato maggiori contributi alla spiegazione fisica di parecchi fenomeni sensitivi (in particolare del suono). Helmholtz viene accusato di non limitarsi ad avanzare ipotesi per la spiegazione dei fenomeni, ma di voler elevare le teorie scientifiche a criterio supremo per distinguere i fenomeni veri da quelli illusori, senza tenere conto che esse mutano da un periodo all’altro, onde il presunto criterio risulterebbe sempre qualcosa di provvisorio. In realtà il meccanicismo di Helmholtz ci impedisce di guardare all’esperienza in tutta la sua ricchezza, ci allontana dai fatti concreti, sostituisce ad essi dei presupposti speculativo-metafisici. Quello di Mach è, se vogliamo, un atteggiamento che presenta qualche analogia con lo stato d’animo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 488! diffusosi prima tra i romantici nei confronti della scienza illuministica. Con una differenza radicale però, e cioè che Mach non intende collocarsi al di fuori del grande filone della scienza moderna, ma soltanto rimuovere gli ostacoli metafisici che ne impediscono lo sviluppo. Non intende, in particolare, rinunciare all’uso della matematica, ma anzi avvalersi largamente e sistematicamente per misurare i fenomeni e per determinare direttamente le relazioni che intercorrono tra essi, senza presumere di poterle ricavare da una realtà, inafferrabile ai sensi, che costituirebbe la vera base dell’esperienza. Non fa perciò ricorso a nessun genere di intuizione sovrasensibile, che dovrebbe porci immediatamente a contatto col cuore della realtà, come pensavano i romantici, ma si sforza di potenziare la nostra osservazione, liberandola dalle categorie predeterminate in cui siamo soliti rinchiuderla per una malintesa fedeltà alla tradizione scientifica. Mach non ha certo difficoltà a riconoscere che, nel Seicento e Settecento, il meccanicismo fornì utilissimi strumenti per correlare i fatti; nega però che possa ancora assolvere un’analoga funzione. L’utilità, che esso indubbiamente rivelò in passato, dipende in realtà, come dimostra un’attenta analisi storica, dal fatto che le stesse nozioni generali cui il meccanicismo faceva ricorso erano inconsapevolmente ricavate dall’osservazione; la pretesa che le medesime nozioni risultino perennemente valide, equivale all’affermazione, del tutto ingiustificata, che l’esperienza non potrà in alcun modo subire arricchimenti tali da suggerirci nuove categorie, diverse da quelle costituitesi in una fase antecedente della ricerca. L’interesse di Mach per la storia della scienza trova proprio qui le sue radici, deriva cioè dalla capacità, insita in tale storia, di mettere a nudo l’effettiva origine empirica delle nozioni che siamo soliti accogliere come evidenti, assolute, immodificabili, e di farci quindi comprendere che abbiamo pieno diritto di modificarle, correggerle, e anche abbandonarle. Così interpretata, essa diventa quindi una nuova potentissima arma contro il meccanicismo; ci dimostra che nessuna teoria scientifica, per quanto affermata e rispettabile come la meccanica, è autorizzata a farci chiudere gli occhi di fronte a ciò che concretamente osserviamo; che nessun dogma può venir invocato per nascondere o soffocare la ricchezza dei dati empirici. È evidente il legame tra la polemica machiana contro il meccanicismo e quella di Comte contro la metafisica, per cui a buon ragione Mach può essere considerato un positivista. Non va però dimenticata una notevole differenza: mentre per Comte il puro e semplice avvento della scienza segnava, in qualsiasi campo, la fine della metafisica, per Mach invece il periodo metafisico è sempre presente, nascondendosi nelle pieghe stesse delle più accredidate teorie scientifiche. La stessa meccanica classica galileianonewtoniana, è carica di presupposti metafisici, e se all’inizio essi non erano in grado di arrecarle nessun danno, oggi invece sono pericolosissimi potendo frenare e distorcere lo sviluppo di tutta la scienza. Di qui la necessità di snidarli, di combatterli, di eliminarli con il più coraggioso spirito critico. L’istanza antimetafisica comtiana si trasforma così in istanza metodologica interna alla scienza, diventando così uno degli sbocchi più accettabili e fecondi dell’indirizzo positivistico. Mach, che aveva una rilevante competenza nel campo delle scienze fisiche, è uno dei filosofi che meglio comprendono certe radicali trasformazioni teoriche del sapere scientifico dell'epoca. Nella Meccanica nel suo sviluppo storico-critico (1883) egli dà anzi un importante contributo a tale trasformazione demolendo la fede dogmatica nella meccanica quale fondamento ultimo e definitivo della fisica, compiendo un esame rigoroso e completo dei concetti che stanno alla base della meccanica e che si erano consolidati nel corso dei secoli, che gli consente di portare una luce veramente nuova 489! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sui fondamenti e sul valore scientifico del maestoso edificio, aprendo definitivamente la via a una nuova fase critica dell’intera fisica. E da non trascurare, la storicizzazione delle pretese verità universali della scienza, delineando una concezione non più assoluta ma funzionale (cioè relativa a determinati presupposti e contesti) della legge scientifica. Con molta, e molto moderna, lucidità egli assegna al sapere il compito non già di cogliere improbabili (e comunque meta-empiriche) essenze naturali, bensì di comprendere le strutture e i comportamenti dei dati fenomenici. In questa opera affronta uno dei problemi più interessanti sia dal punto di vista storico sia da quello filosofico: lo svolgimento dei principi della dinamica in Galileo, Huygens e Newton. Secondo Mach essi sono sostanzialmente quattro: 1) generalizzazione del concetto di forza; 2) enunciazione del concetto di massa; 3) formulazione precisa e generale del parallelogramma delle forze; 4) enunciazione del principio dell’uguaglianza di azione e reazione. I due punti sui quali si accentra in particolare la sua critica sono il concetto di massa e il principio di azione e reazione. Mach dimostra facilmente che la definizione newtoniana della massa di un corpo come “la sua quantità di materia misurata dal prodotto del suo volume per la densità” contiene un manifesto circolo vizioso, dato che la densità non è altro che il rapporto tra la massa e il volume. In realtà il concetto di massa proviene, secondo Mach, da un fatto empiricamente accertabile: l’esistenza nei corpi di “una particolare caratteristica che determina accelerazione”. Ne segue che il confronto tra le masse di due corpi dovrà venire eseguito confrontando l’accelerazione che il primo comunica al secondo con quella (inversa) che il secondo comunica al primo quando essi agiscono un o sull’altro; e ciò dimostra l’inscindibile legame che connette tale concetto con il principio di azione e reazione, sicchè Mach può concludere che i due “dipendono l’uno dall’altro, cioè l’uno suppone l’altro”, e precisando ancora meglio, il principio di azione e reazione “è incomprensibile se non si possiede un concetto corretto della massa; ma una volta che questo concetto sia stato formulato in base a esperienze dinamiche, esso è inutile”. Oggi tutti gli epistemologi concordano sull’impeccabilità di questa analisi. In modo analogo Mach dimostra che il primo e il secondo principio della dinamica sono già contenuti “nella definizione della forza, secondo la quale senza forza non si verifica accelerazione, e quindi si verifica quiete o moto rettilineo uniforme”. Pericolosissima risulta, secondo Mach, l’interpretazione dei principi della dinamica quali verità assolute, in primo luogo perché nasconde gli effettivi loro legami con i fatti, in secondo luogo perché li trasforma in dogmi intoccabili: “La ricerca storica sullo svolgimento avuto da una scienza è indispensabile, se non si vuole che i principi che essa abbraccia degenerino a poco a poco in un sistema di prescrizioni capite solo a metà, o addirittura in un sistema di dogmi. L’indagine storica non soltanto fa comprendere meglio lo stato attuale della scienza, ma, mostrando come essa sia in parte convenzionale e accidentale, apre la strada al nuovo”. Alla meccanica, primogenita fra le scienze fisiche moderne, non compete alcun privilegio intrinseco, ma soltanto un valore storico contingente e perciò storicamente modificabile: “Lasciamoci condurre per mano dalla storia. La storia ha fatto tutto, la storia può cambiare tutto”. Di altre nozioni - lo spazio, il tempo, il movimento - Mach dà una nuova versione in chiave empiristica, che eserciterà una notevole influenza su Einstein. Per Newton le nozioni di spazio, tempo e moto assoluti traevano origine sia da ragioni fisiche (giustificare il principio di inerzia e l'esistenza privilegiata di osservatori inerziali), sia da ragioni metafisiche (giustificare la presenza e l’azione di Dio nello spazio e nel tempo). Leibniz si era opposto a questa visione, essendo sostenitore di una “concezione /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 48:! relazionale” che interpretava spazio e tempo solo in relazione agli oggetti fisici, ma lo spazio assoluto di Newton, infinito, tridimensionale, omogeneo, indivisibile, immutabile, vuoto che non offriva alcuna resistenza ai corpi che in esso si muovevano o restavano a riposo divenne lo spazio accettato della fisica newtoniana e della cosmologia. D'altra parte, gli effettivi progressi della meccanica tra il Settecento e l’Ottocento furono scarsamente influenzati dalla nozione di spazio assoluto e tempo assoluto. Mach non solo respinge come inutili e metafisici i concetti newtoniani di tempo, spazio e movimento assoluti, ma cerca di porre in luce l’incontestabile contenuto empirico effettivamente implicato da ogni nostra nozione al riguardo. “Dire che una cosa A muta con il tempo significa semplicemente dire che gli stati di A dipendono da quelli di un’altra cosa B. le oscillazioni di un pendolo avvengono nel tempo, in quanto la sua escursione dipende dalla posizione della terra. Dato però che non è necessario prendere in questa considerazione questa dipendenza, e possiamo riferire il tempo a qualsiasi altra cosa i cui stati naturali dipendano dalla posizione della terra, si crea l’impressione errata che tutte queste cose siano inessenziali”. È indubbiamente vero che noi possiamo riferire le oscillazioni del pendolo ai nostri stati psichici anziché a corpi esterni, onde scopriremo “che a ciascuna posizione del pendolo corrispondono nostre sensazioni e pensieri diversi … Ma non dobbiamo dimenticare che tutte le cose sono in dipendenza reciproca e che noi stessi, con i nostri pensieri, siamo solo una parte della natura”. In altre parole, la rappresentazione del tempo proviene da qualcosa di empirico, dalla constatazione della reciproca dipendenza di tutte le cose (ivi inclusi le nostre sensazioni e i nostri pensieri); voler parlare di un tempo in sé, che prescinda da tale dipendenza, è quindi semplicemente illusorio, è il frutto di un’arbitraria ipostatizzazione. Ne segue che un moto potrà dirsi uniforme “solo in rapporto ad un altro. Il problema se un moto sia uniforme in sé è privo di significato”. E ancora la critica di Mach si incentra soprattutto sui fatti che secondo Newton fornivano solide basi alle nozioni di spazio e moto assoluto: “Consideriamo ora i fatti sui quali Newton ha creduto di fondare solidamente la distinzione tra moto assoluto e moto relativo. Se la Terra si muove con moto rotatorio assoluto attorno al suo asse, forze centrifughe si manifestano su di essa, il globo terrestre si appiattisce, il piano del pendolo di Foucault ruota, ecc. Tutti questi fenomeni scompaiono se la Terra è in quiete, e se i corpi celesti si muovono intorno ad essa di moto assoluto, in modo che si verifichi ugualmente una rotazione relativa. Rispondo che le cose stanno così solo se si accetta fin dall'inizio l'idea di uno spazio assoluto. Se invece si resta sul terreno dei fatti, non si conosce altro che spazi e moti relativi”. Impostato così il problema, è chiaro che Mach dovrà affermare che anche la quiete è relativa, ed inoltre che è relativa la stessa nozione di forza: ogni volta che noi constatiamo l’esistenza di corpi che si muovono con velocità diverse, noi possiamo parlare di forze, rispettivamente collegabili alla massa di ciascuno di tali corpi. Ma non vi è motivo di non collegarle anche ai corpi in quiete, dato che è privo di significato parlare di quiete assoluta. Noi non potremmo più introdurre il concetto di forza, solo se tutti i corpi fossero in quiete, e cioè se l’esperienza non ci facesse constatare che di fatto esistono copri i quali si muovono con velocità diverse. Il punto fondamentale, e anche quello di partenza per tutte le considerazioni fatte, di Mach è quindi l’esclusione dall'ambito della riflessione tutto quanto non può essere riportato alla diretta esperienza empirica. Bisogna rinunciare "a rispondere a domande riconosciute prive di senso" e il "senso" manca dove non è possibile mostrare i dati sensibili che potrebbero 49<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! confermare una determinata asserzione. Là dove i sensi non possono giungere non v'è per Mach, propriamente parlando, nulla. In definitiva, secondo Mach, il tempo, lo spazio e il moto assoluti sono soltanto “puri enti ideali, non conoscibili sperimentalmente”. Anche l'interpretazione data da Newton all'esperienza del secchio rotante, per dimostrare l’esistenza di moti assoluti, è quindi criticabile: “L'esperimento newtoniano del secchio d'acqua rotante semplicemente ci dà informazioni sul fatto che la rotazione relativa dell'acqua rispetto alle pareti del secchio non produce forze centrifughe percepibili, ma che tali forze sono prodotte dal suo moto relativo alla massa della Terra e agli altri corpi celesti. Non ci insegna nulla di più. Nessuno può dire quale sarebbe l'esito dell’esperimento se le pareti del secchio diventassero sempre più massicce, fino a uno spessore di qualche miglio”. La sottigliezza e il rigore di queste argomentazioni sono indiscutibili e dimostrarono a tutti, anche a quelli meno persuasi, la necessità di riflettere criticamente sulla dinamica newtoniana, non più accettabile ormai come qualcosa di acquisito una volta per sempre. E con ciò apersero la via alla rivoluzione einsteiniana. Tra le molte conclusioni che si possono trarre dalle critiche della meccanica newtoniana, due sono particolarmente significative. La prima è che risulta sfatata in maniera definitiva l’idea, largamente diffusa nel Settecento, che i principi della dinamica rappresentassero delle verità assolute e evidenti, non bisognose di conferma empirica, ma anzi capaci di garantire a priori la validità delle leggi scientifiche particolari, dimostrabili entro il quadro della meccanica. La seconda è che la meccanica deve rinunciare alla posizione privilegiata di cui godeva rispetto alle altre scienze, cosicchè non si potrà più fare ricorso ad essa, come molti speravano, per realizzare, sia pure in linea ideale, l’unificazione del sapere scientifico. Tale posizione privilegiata era dovuta, secondo Mach, unicamente al fatto che la meccanica venne studiata con metodo scientifico prima delle altre discipline, ma “la conoscenza più antica in ordine di tempo non deve necessariamente restare il fondamento dell’intelligibilità di ciò che si è scoperto più tardi”. Pertanto, l’evidenza di una legge o di una nozione scientifica non proviene da una presunta capacità, insita in essa, di svelarci una realtà più profonda di quella spettante al mondo empirico; tale evidenza proviene solo dall’abitudine, cosicchè può accadere che una nozione venga pacificamente accolta come evidente in un’epoca mentre in altre apparire quasi inaccettabile. Il vero compito dello scienziato non potrà quindi essere quello di trascendere i fenomeni per scoprire al di sotto di essi qualcosa di più essenziale, ma semplicemente quello di astrarre dal variopinto mondo dell’esperienza alcune semplici relazioni che colleghino un certo gruppo di fenomeni ad un altro: “Nella ricerca scientifica importa solo la conoscenza della connessione dei fenomeni”. Stando così le cose, quale potrà essere il criterio di base a cui lo scienziato attribuirà maggiore importanza a certe connessioni rispetto a certe altre? In conformità al principio dell'economicità della conoscenza (Occam) Mach aggiunge che le connessioni più importanti sono quelle più semplici, più rapide e più controllabili. La formulazione delle connessioni in esame risulterà senza dubbio opera dell’uomo, e perciò avrà un carattere sostanzialmente convenzionale, magari avvalendosi del linguaggio matematico per la sua ben nota esattezza e rigore; ma l’oggetto in esame di cui si vuole formulare una legge, sarà sempre una connessione empirica, cioè qualcosa che può venire confermata o smentita dall’osservazione dei fatti. Il lavoro dello scienziato non può né limitarsi alla pura descrizione dell’esperienza, che è comunque /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 49;! sempre incompleta, né aver di mira l’illusoria ricerca di principi forniti di una validità logica, indipendente dall’esperienza; consiste invece nella formulazione di nessi che l’esperienza è in grado di confermare o smentire parzialmente e che nel contempo si estendono al di là delle esperienze già eseguite: “Le idee sono tanto più scientifiche quanto più esteso è il dominio in cui hanno validità e più ricco è il modo con cui completano l’esperienza. Nella ricerca si procede secondo il principio di continuità, che solo può offrire una concezione utile ed economica dell’esperienza”. Mach non ritiene fra loro incompatibili il carattere convenzionale delle leggi scientifiche e l’origine empirica della loro validità. Così non ritiene che il parlare di economicità delle nostre concezioni della natura significhi riconoscere implicitamente che esse sono qualcosa di meramente soggettivo. È vero che siamo noi a qualificare una connessione fra fenomeni con i caratteri di semplicità, rigore e larga applicabilità, ma è pur vero che spetta all’esperienza e ad essa sola di provarci se effettivamente una data connessione gode oppure no di tali caratteri. Parlare di economicità di un sistema di leggi non significa relegare tale sistema al campo dell’utile, e quindi negargli ogni valore conoscitivo; significa invece fare riferimento alla sua capacità essenzialmente conoscitiva, di fornirci una visione unitaria del mondo fenomenico. In sostanza, il progresso della scienza conduce alla restrizione, cioè alla determinazione e precisione crescente, delle nostre attese del futuro. Certamente questa determinazione e precisione non può ottenersi se non astraendo, semplificando, schematizzando i fatti fisici e costruendo elementi ideali che, come tali, non si trovano mai in natura, come sono, ad esempio, i moti uniformi e uniformemente accelerati, le correnti termiche ed elettriche stazionarie, le correnti di intensità uniformemente crescente e decrescente: “Una proposizione scientifica non ha mai altro significato che quello ipotetico [...]”. Pertanto, concetti, leggi e teorie non hanno una portata ontologica di tipo metafisico, ma soltanto un valore “economico”, come utili strumenti per organizzare le nostre percezioni sensibili e operare previsioni. In tal senso sono convenzionali e rivedibili, e possono essere abbandonati e mutati, e perciò non è possibile parlare di verità della conoscenza scientifica, e l’idea che la meccanica sia la vera rappresentazione del mondo fisico e costituisce la base, il fondamento della fisica, è un’idea che resta definitivamente assegnata alla sua natura di semplice pregiudizio. In quest’ordine di considerazioni si inquadrano due tesi fondamentali di Mach: 1) il suo antiatomismo; 2) la sua affermazione del carattere funzionale (non casuale) delle leggi scientifiche. La ragione dell’avversione alla concezione atomistica dei fisici meccanicisti a lui contemporanei è dovuta al fatto che, secondo tali scienziati, l’atomo costituirebbe la vera realtà della natura, realtà non afferrabile dall’osservazione ma dotata ciò malgrado delle proprietà comunemente attribuite ai corpi effettivamente osservati, e capace, sulla base di queste proprietà, di darci la ragione ultima dei fenomeni. Così inteso, l’atomo è un ente di ragione, non di fatto; è un postulato metafisico, non un oggetto di ricerca fisica. La sua accettazione non potrà che disturbare le nostre libere indagini sull’esperienza; introdurrà nella fisica qualcosa di dogmatico, che non potrà non essere di impedimento al suo sviluppo. Ma anche per quanto riguarda i corpi empirici (che pure sembrerebbero oggetto di esperienza sensibile) bisogna evitare pericolosi fraintendimenti, derivanti da presupposti realistici e fattualistici che Mach combatte con ancor maggior radicalità. Considerati con rigore, i corpi empirici non esistono come tali, non hanno alcuna consistenza di tipo sostanzialistico. Ciò che esiste è solo una serie di sensazioni semplici, irriducibili, tra loro intimamente congiunte in una sorta di flusso 49=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! continuo. Spesso anche Mach preferisce chiamare queste sensazioni "elementi", per cercare di non dare una connotazione soggettivo-psicologica al suo pensiero. La sua tesi principale è, in ogni caso, che: "non sono i corpi che generano le sensazioni, ma sono i complessi di sensazioni che formano i corpi … Le sensazioni non sono i simboli delle cose. Piuttosto è la cosa un simbolo mentale per un complesso di sensazioni relativamente stabili". E ancora: "Non le cose, ma i colori, i suoni, le pressioni, gli spazi, i tempi (ciò che noi ordinariamente chiamiamo sensazioni), sono i veri elementi dell'universo". E quindi, in linea con la sua posizione antiatomistica, gli atomi di data forma e velocità, che noi pensiamo come veri costituenti dei corpi, non sono altro che immagini che noi deriviamo dalla nostra effettiva esperienza, dagli elementi, attraverso un procedimento intellettuale, astrattivo e, in fin dei conti, ipotetico. Non bisogna peraltro interpretare queste tesi come ritorno puro e semplice a un vecchio sensismo fenomenistico di tipo berkeleyano (esse est percipi: l’essere è l’essere percepito). Nell'Analisi delle sensazioni (1886) lo stesso Mach, pur non tacendo la sua simpatia per Berkeley (e per Hume), respinge esplicitamente un avvicinamento delle sue posizioni a quelle del filosofo irlandese. In effetti egli considera la realtà come qualcosa di più complesso che la mera risultante di un insieme di sensazioni: "devo osservare che neppure per me il mondo è una semplice somma di sensazioni. Io parlo piuttosto, espressamente, di relazioni funzionali degli elementi". Analogo è il motivo per cui Mach si oppose alla pretesa che la scienza debba cercare le cause dei fenomeni. Nel concetto di causa è sempre implicito un carattere di necessità che dovrebbe determinare in un certo modo, ad esclusione di altri, la produzione dell’effetto. Orbene, l’esperienza non ci pone mai in grado di constatare questa necessità, per cui, parlando di causa, noi siamo spinti a trascendere il mondo dei fatti osservati. Se vogliamo realmente limitarci a ciò che l’esperienza ci insegna, dovremo semplicemente parlare di nessi funzionali, applicando alla fisica il concetto di funzione, rivelatosi da tempo fondamentale in tutta la matematica. Questo ci permetterà, fra l’altro, di enunciare in forma rigorosa anche dei tipi di connessione fra fenomeni che non rientrano nei soliti schemi casuali (gli unici usati dalla fisica meccanicistica). È fuori dubbio che la concezione così delineata basata sul più schietto fenomenismo e sul principio di economia, porta non di rado Mach ad affermazioni che sembrano improntate a un manifesto soggettivismo. Così per esempio quando egli afferma, a proposito dell’ottica geometrica, che “nella natura non esiste la legge di rifrazione, ma esistono solo molti casi di questo fenomeno. La legge di rifrazione è un metodo di ricostruzione concisa, riassuntiva, fatta a nostro uso, e inoltre unicamente relativa all’aspetto geometrico del fenomeno”. Non dobbiamo però dimenticare che con queste affermazioni Mach ha soprattutto di mira un intento polemico, vuole sfatare l’opinione che la legge in esame sia una relazione necessaria che obbliga i raggi a comportarsi in un certo modo anziché in un altro, se di fatto i casi concreti del fenomeno non rientrassero nella legge anzidetta, lo scienziato dovrebbe modificare la legge, non già negare i dati osservativi. Qualunque legge scientifica è modellata su ciò che noi abbiamo osservato in passato, e potrà sempre venire corretta in base a ciò che osserveremo in futuro; è solo la metafisica che pretende di sottrarsi al costante controllo dell’esperienza. Lo sforzo machiano è di sottolineare il contenuto non meramente psicosoggettivo dei fenomeni costituenti il mondo. D'altronde anche la sensazione in sé e per sé tende in Mach a sganciarsi da un troppo immediato riferimento all'io, al soggetto. La sua oggettività è garantita dall'oggettività delle sue matrici fisiologiche e /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 494! dall'elaborazione scientifica cui è sottoposta. In effetti, uno degli aspetti più significativi del pensiero machiano è proprio il tentativo di autonomizzare i fenomeni, e la riflessione su di essi, dalla soggettività. Non può, egli scrive, interpretare correttamente il mondo chi "non è in grado di abbandonare l'idea dell'io considerato come una realtà che sta alla base di tutto". La modernità del pensiero machiano sta, tra l'altro, proprio in questa sua concezione di un mondo senza "base", senza fondamento; cioè un mondo dove semplicemente avvengono certi fenomeni che si tratta di spiegare nel modo più immediato e sobrio possibile, attraverso l'uso di quelle osservazioni empirico-sensoriali e di quelle misurazioni fisico-matematiche che saranno di lì a poco privilegiate dai neopositivisti. Un altro aspetto del pensiero di Mach sul quale occorre richiamare l'attenzione è l'efficacia con cui si è saputo sbarazzare di tutta una serie di categorie e principi gnoseologici (la sostanza, l'accidente, lo stesso assetto categoriale kantiano) che apparivano non più attuali. Per quanto riguarda la realtà del soggetto umano, Mach non riserva ad essa alcun trattamento privilegiato. Così come le 'cose' sono solo insiemi di sensazioni (o di "elementi"), anche l'io deve essere privato di qualsiasi particolare consistenza ontologica. Esso è composto degli stessi "elementi" che si ritrovano sia nelle 'cose' che negli altri soggetti: ciò consente, fra l'altro, di garantire la relazione io-mondo nonché la comunicazione intersoggettiva. Certo, "non si può considerare esaurito l'io quando, in modo del tutto provvisorio, si dice che consiste in una connessione peculiare degli elementi". Occorre, in effetti, approfondire la natura di questa connessione, sollecitare "psicologi, fisiologi e psichiatri" ad un'analisi più sistematica di questo ente. Ma fondamentalmente Mach ribadisce il suo rifiuto di considerare l'io come qualcosa di 'consistente', di 'oggettivo', di 'sostanziale'. L'io, per lui, è solo un complesso di "ricordi, disposizioni, sentimenti"; esso è "così poco persistente in assoluto, come i corpi". Non può non colpire il fatto che questa radicale demitizzazione dell'io avvenga negli stessi anni in cui tanti esponenti della cultura europea d'avanguardia, da Nietzsche a Freud, andavano anch'essi 'de-costruendo' in più modi la soggettività umana. Per completare l’indagine sul pensiero di Mach, ci resta da trattare il problema dell’unità del sapere scientifico. Già sappiamo che lo scienziato meccanicista riteneva di poter trovare nella meccanica il fondamento dell’unità delle scienze, in quanto tutte le leggi scientifiche dovrebbero risultare, se indagate nelle loro ultime cause, completamente riducibili a leggi meccaniche. Mach respinge per principio tale riduzione, ma non per questo condanna il programma di unificare le scienze; ritiene però che esso vada attuato attraverso la delineazione di una nuova fisica rigorosamente aderente ai fenomeni e non avente più la pretesa di trascenderli, facendo appello agli atomi o ad altre entità inosservabili, sottostanti all’esperienza. Tale fisica avrebbe dovuto contenere come propria parte la meccanica, senza però ridursi ad essa. Egli ritenne di scorgere nella termodinamica il nucleo della nuova scienza unitaria; i principi della termodinamica, seppur legati a quelli della meccanica, posseggono infatti una generalità molto maggiore e rivelano una maggiore aderenza all’esperienza, in particolare il secondo principio che introduce la nozione di irreversibilità estranea alla meccanica. Fu il trionfale successo dell’atomistica a rivelare i limiti della fisica fenomenistica, che pretendeva di ridurre l’oggetto della scienza ad una rapsodia di percezioni, di fare della scienza il frutto delle impressioni che gli oggetti lasciano sui sensi, e non invece un libero processo costruttivo della nostra attività teoretica, implicante vaste possibilità di 495! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! previsioni (il puro fenomenismo non ne chiarisce in alcun modo l’origine) a partire da determinate strutture rappresentative, da coordinazioni logiche e concettuali. Comunque, i due punti fondamentali della dottrina di Mach: l’interpretazione dei concetti come segni, e quella delle leggi scientifiche come strumenti di previsione, costituiscono i due cardini della fase critica della fisica che la teoria della relatività e la meccanica quantistica porteranno a compimento. Su una linea in larga parte convergente con quella di Mach, al quale esplicitamente si richiama, si muove l'analisi critica della natura delle teorie fisiche, e quindi anche della meccanica di Newton, sviluppata da Pierre Duhem (1861-1916). Le tesi più originali di Duhem, esposte nell’opera La theorie physique (1906), sono essenzialmente due. La prima tesi: se le teorie fisiche avessero per oggetto la spiegazione delle leggi sperimentali, la fisica teorica non sarebbe a giudizio di Duhem una scienza autonoma, ma una scienza subordinata alla metafisica. Secondo lui, infatti, è facile scoprire, al di sotto di ogni presunta spiegazione fisica, una postulazione metafisica sulla costituzione della materia. Proprio per poter difendere l'autonomia della fisica nei confronti della metafisica, si dovrà dunque ammettere che una teoria fisica non è una spiegazione, ma soltanto “un sistema di proposizioni matematiche, dedotte da un ristretto numero di principi, che hanno lo scopo di rappresentare nel modo più semplice, più completo e più esatto, un insieme di leggi sperimentali”. Non è difficile comprendere l'importanza di questa sostituzione della funzione del “rappresentare” a quella dello “spiegare”. Vale la pena riferire alcune considerazioni con cui egli illustra tale importanza: “Così, una teoria vera non dà una spiegazione delle apparenze fisiche conforme alla realtà; essa rappresenta in modo soddisfacente un insieme di leggi sperimentali; una teoria falsa non è un tentativo di spiegazione fondato su presupposizioni contrarie alla realtà, ma un insieme di proposizioni che non concordano con le leggi sperimentali”. Ma quale potrà essere l'utilità di una teoria fisica, se escludiamo che essa possa “spiegare le apparenze fisiche conforme alla realtà”? In primo luogo sarà quella di realizzare un'economia intellettuale; già la sostituzione di una legge sperimentale ai fatti concreti ci procura una siffatta economia, ma un'economia ancora maggiore sarà procurata dalla concentrazione di più leggi sperimentali in una teoria. In secondo luogo l'utilità di una teoria fisica risiederà nel fatto che tale teoria è anche una classificazione delle leggi sperimentali, cioè una ripartizione di esse su diversi piani, uno subordinato all'altro. E Duhem, giunto a questa concezione positivista e pragmatica della natura, era completamente d'accordo con Mach nel proclamare che la teoria fisica è innanzitutto una 'economia di pensiero'. Per lui tutte le ipotesi basate su immagini sono transitorie e instabili; solo le relazioni di natura algebrica che le teorie-sonda hanno individuato tra i fenomeni possono durare imperturbabili. La seconda tesi di Duhem riguarda la portata del metodo sperimentale, cioè del metodo che la scienza moderna considera come lo strumento privilegiato per la dimostrazione dei propri risultati. Le critiche che formula a proposito di tale metodo possono essere riassunte in questi sei punti. 1. Che cosa è esattamente un'esperienza di fisica? Un'analisi sottilissima conduce Duhem a fornire una risposta assai sorprendente, ma di cui è difficile negare la fondatezza: “Un esperimento di fisica non consiste soltanto nell'osservazione di un fenomeno, ma anche nella sua interpretazione teorica”. E come se ciò non bastasse, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 496! Duhem ne ricava poi il seguente corollario: “La sola interpretazione teorica dei fenomeni rende possibile l'uso degli strumenti”. 2. Il metodo sperimentale applicato nella fisica fa corrispondere ai fatti osservati una e una sola legge? La risposta è decisamente negativa: ad uno stesso insieme di fatti si può far corrispondere un'infinità di formule diverse, di leggi fisiche distinte; ciascuna legge, per essere accettata, dovrà far corrispondere a ogni fatto non già il simbolo del fatto, ma uno qualunque dei simboli—in numero infinito—in grado di rappresentare quel fatto. Se ne ricava che: “Ogni legge fisica è una legge approssimativa, e di conseguenza per il logico rigoroso essa non può essere né vera, né falsa. Ogni altra legge rappresentante le stesse esperienze con la medesima approssimazione può aspirare, tanto quanto la prima, al titolo di legge vera o, più esattamente, di legge accettabile”. 3. Un esperimento di fisica non può mai condannare un'ipotesi isolata, ma soltanto tutto un insieme teorico. Duhem sottolinea la novità di questa tesi in questi termini: “Si pensa comunemente che ogni ipotesi di cui la fisica fa uso possa essere presa isolatamente e sottoposta al controllo dell'esperienza, poi, quando prove svariate e molteplici ne hanno constatato il valore, può essere collocata in modo definitivo nel sistema della fisica. In realtà non è così. La fisica non è una macchina che si lasci smontare; non si può verificare ogni pezzo isolatamente e attendere, per ripararlo, che la solidità ne sia stata minuziosamente controllata. La scienza fisica è un sistema che bisogna prendere nella sua interezza, è un organismo di cui non si può far funzionare una parte senza che quelle più lontane entrino in gioco, le une di più, le altre di meno, ma tutte in qualche misura”. 4. Questo punto riguarda la critica del cosiddetto experimentum crucis: “Supponente che esistano soltanto due ipotesi, e cercate condizioni sperimentali tali che l'una annunci la produzione di un fenomeno e l'altra la produzione di un fenomeno completamente diverso; realizzate le condizioni e osservate cosa succede. A seconda che osserviate il primo dei fenomeni previsti o il secondo, condannerete la seconda ipotesi o la prima”. Ebbene, un procedimento del genere, mentre è perfettamente lecito in matematica, non lo è in fisica: “Tra due teoremi di geometria tra loro contraddittori non c'è posto per un terzo giudizio: se l'uno è falso, l'altro è necessariamente vero. Due ipotesi di fisica costituiscono mai un dilemma altrettanto rigoroso? Oseremo mai affermare che non è immaginabile nessun'altra ipotesi?” 5. Il quinto punto consiste nella critica della pretesa di poter dimostrare direttamente, mediante l'induzione, le ipotesi a partire dalle quali le teorie fisiche svolgono le loro conclusioni. L'autorità dello scienziato a cui può venire fatta risalire tale pretesa è Newton, e la conclusione che Duhem ne trae è che il metodo newtoniano di dimostrare una a una le ipotesi delle teorie fisiche è assolutamente chimerico: “Il solo controllo sperimentale della teoria fisica che non sia illogico consiste nel confrontare l'intero sistema della teoria fisica con tutto l'insieme delle leggi sperimentali e nel valutare se il secondo insieme è rappresentato dal primo in modo soddisfacente”. 6. Il sesto punto consiste nella risposta al quesito: ma quale sarà allora il metodo che il fisico dovrà seguire per la scelta delle ipotesi da portare alla base delle sue teorie? Certamente una scelta non gli può venire suggerita dalla logica, che si limita a prescrivergli di evitare le contraddizioni. Né le ipotesi possono essere dedotte da assiomi forniti dalla conoscenza comune. La risposta di Duhem al quesito è 497! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sconcertante nella sua semplicità: “Il fisico non sceglie le ipotesi sulle quali fondare una teoria”; tali ipotesi non sono infatti “il prodotto di un'ideazione improvvisa”, ma sono “il risultato di una progressiva evoluzione”. Di qui l'importanza del metodo storico nell'esposizione della fisica: “Soltanto la storia della scienza può salvaguardare il fisico dalle folli ambizioni del dogmatismo, come anche dalle disperazioni del pirronismo. Descrivendo la lunga serie degli errori ed esitazioni che hanno preceduto la scoperta di ogni principio, essa lo mette in guardia contro le false evidenze; ricordandogli le vicissitudini delle scuole cosmologiche [filosofiche], facendo riemergere dall'oblio dove giacciono le dottrine che un tempo trionfarono, essa lo costringe a ricordare che i sistemi più seducenti altro non sono che rappresentazioni provvisorie e non già spiegazioni definitive. Illustrandogli la tradizione continua secondo cui la scienza di ogni epoca si è nutrita con i sistemi dei secoli passati e con cui è piena della fisica dell'avvenire, citandogli le profezie formulate dalla teoria e realizzate dall'esperienza, essa crea e rafforza in lui la convinzione che la teoria fisica non è un sistema puramente artificiale, oggi utile e domani non più, che essa è vieppiù una classificazione naturale, un riflesso sempre più chiaro della realtà con cui il metodo sperimentale non saprebbe confrontarsi”. Ciò che le singole teorie fisiche non sono in grado di fornirci, ciò che il metodo sperimentale è impotente a farci conseguire, ci viene invece suggerito da un attento e approfondito studio dello sviluppo storico della fisica. Duhem fu fisico teorico di indiscutibile valore, e si occupò soprattutto di termodinamica, dedicandosi all’edificazione di una termodinamica generale capace di unificare i fenomeni meccanici, che aborriva, termici, elettrici e magnetici, chimici. I suoi sforzi in questa direzione culminarono nell’opera Traité d’énergétique générale (1911). Convinto fautore della scuola dell'energetica, Duhem, però, non seppe rendersi conto dell'autentico peso scientifico della rinascita della teoria atomica all'inizio del XX secolo, né riuscì a intuire i prodigiosi sviluppi cui essa avrebbe dato luogo nel giro di pochi decenni. È chiaro che dall'inizio del XX secolo le ricerche epistemologiche hanno compiuto notevolissimi progressi, ora sviluppando e approfondendo le tesi di Duhem, ora invece respingendole o comunque apportandovi sostanziali modifiche. Una cosa sembra in ogni caso sicura: che le sottili e stimolanti analisi duhemiane dimostrano, al di là di ogni dubbio, che l'esigenza di accrescere la nostra consapevolezza intorno alla struttura della fisica e ai metodi da essa praticati non è soltanto il frutto di una discutibile curiosità di certi filosofi, ma si radica nel lavoro stesso degli scienziati, o per lo meno di quelli, fra essi, più provvisti di spirito critico, più attenti all'autentico significato del progresso scientifico. Anche l'analisi critica delle teorie fisiche sviluppata da Henri Poincarè (18541912) approda a un depotenziamento della concezione epistemica della scienza. Per lui nessuna forma di sapere è in grado di farci conoscere la vera natura delle cose, neppure la scienza: “quello che essa può cogliere non sono le cose stesse, come credono gli ingenui dogmatici, bensì soltanto i rapporti tra le cose; all'infuori di questi rapporti non vi è alcuna realtà conoscibile”. Perciò, i concetti delle teorie scientifiche sono: “semplici immagini, sostituite agli oggetti reali che la natura ci nasconderà eternamente”; le teorie “hanno un senso semplicemente metaforico”; la scienza, in quanto ci fa conoscere i rapporti fra gli oggetti, è un sistema di relazioni, “sopra tutto una classificazione, una maniera di avvicinare i fatti che le apparenze separano”: come tale è sì oggettiva, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 498! perchè esprime relazioni che sono comuni a tutti gli esseri pensanti, ma non è vera, poiché una classificazione “non può esser vera ma comoda”. Allo sviluppo di questa fase critica portò un ulteriore contributo Hertz, autore dei Principi di meccanica (1894) che costituiscono una prima revisione critica della meccanica classica. Accettando la teoria di Mach dei concetti come segni, Hertz modifica conseguentemente il concetto della descrizione come compito della scienza: “Noi ci formiamo immagini o simboli degli oggetti esterni; e la forma che diamo ad essi è tale che le conseguenze logicamente necessarie delle immagini sono invariabilmente le immagini delle conseguenze necessarie degli oggetti corrispondenti”. Questa corrispondenza, non tra simboli e cose, ma tra le relazioni tra i simboli e le relazioni tra le cose, rende possibile la previsione degli eventi che è lo scopo fondamentale della nostra conoscenza della natura. Essa basta inoltre a garantire la validità di tale conoscenza; e, aggiunge Hertz: “noi non abbiamo mezzo di conoscere se i nostri concetti delle cose si accordano con le cose stesse anche sotto qualche altro aspetto che non sia questo fondamentale”. Ma Hertz vede pure che da questo punto di vista i principi della scienza non sono imposti alla scienza stessa dalla loro evidenza ma sono scelti in vista di render possibile l'organizzazione deduttiva della scienza stessa. “Variando la scelta delle proposizioni che noi assumiamo come fondamentali, possiamo dare varie rappresentazioni dei principi della meccanica. Possiamo così ottenere varie immagini delle cose; e possiamo mettere a prova queste immagini e paragonarle l'una con l'altra sulla base della loro permissibilità, correttezza e appropriatezza”. Hertz stesso si avvalse di questa libertà, certamente non arbitraria, di scegliere i principi di una scienza ricostruendo la meccanica sulla base delle nozioni di tempo, spazio e massa e mettendo in secondo piano il concetto di forza. Il riconoscimento della natura convenzionale, per quanto non arbitrario, dei principi della scienza è uno dei risultati dello sviluppo della metodologia scientifica moderna. Il declino del programma di ricerca meccanicistico e la discussione critica sullo status epistemologico delle teorie scientifiche non rappresentano ancora il momento culminante della crisi che investe la fisica classica. Infatti, benché la meccanica di Newton non venga più posta a fondamento della fisica, non è tuttavia messa in discussione la validità dei suoi principi; a sua volta, la critica sviluppata da Mach, Duhem e Poincarè della pretesa che le teorie scientifiche siano sistemi di proposizioni vere non segna la fine della convinzione dominante secondo cui la teoria di Newton è episteme. Il profondo mutamento della situazione scientifico-epistemologica si ha invece con le due grandi rivoluzioni scientifiche del novecento, la teoria della relatività di Einstein e la meccanica quantistica, che mettono in discussione lo stesso nucleo fondamentale della rappresentazione classica del mondo fisico, modificando le leggi della meccanica newtoniana e indicandone i limiti di validità. 9.3 La nuova metafisica della natura Se da una parte l'opera dei filosofi-scienziati conducevano la scienza e in particolare la fisica verso quella svolta critica che doveva accentuarsi nel terzo decennio del XX secolo, dall’altra parte non sono mancati, anche da parte di scienziati, i tentativi di utilizzare la scienza per una metafisica della natura. 499! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Il chimico Wilhelm Ostwald (1853- 1932), che fu il fondatore della chimica fisica, è il sostenitore dell'energetismo (tra i suoi scritti: L'energia e le sue trasformazioni, 1888; La crisi del materialismo scientifico, 1895; Fondamenti della scienza dello spirito, 1909; La moderna filosofia della natura, 1914), teoria che pose come punto di partenza di una nuova filosofia monistica. Ostwald rileva che nuovi settori dell’indagine fisica, quali l’elettromagnetismo, non possono essere interpretati in base alla meccanica. Ciò non significa soltanto il fallimento del meccanicismo sul piano scientifico, ma anche il superamento della concezione materialistica del mondo che si fonda sul meccanicismo. Non è infatti la materia ma l’energia il substrato di tutti i fenomeni. Noi non percepiamo direttamente coi sensi una sostanza materiale ma soltanto degli effetti energetici. Anche l’impenetrabilità, che sembra costituire l’attributo fondamentale della materia, è una semplice qualità sensoriale che è percepita quando vi è una differenza di energia cinetica fra un oggetto ed il nostro organismo. La materia non è quindi che un puro costrutto mentale e tutti i suoi aspetti possono essere risolti in energia: la massa non è che la capacità dell’energia cinetica, l’occupare spazio è energia di volume, la gravità non è che una particolare energia di posizione. In tal modo la materia non è altro che un “gruppo spazialmente ordinato di diverse energie”. Ostwald sostiene inoltre che il principio di conservazione dell’energia è la base del principio di casualità, poiché ogni successione di causa ed effetto non è che una trasformazione di una forma di energia in un'altra. Il secondo principio della termodinamica esprime poi in modo assoluto la fatale irreversibilità dei fenomeni naturali e vani sono i tentativi dei meccanicisti di ammettere una loro possibile reversibilità Accettando l'idea fondamentale di Mach, Ostwald ritiene che la scienza non abbia altro compito se non quello di prevedere gli avvenimenti futuri. Lo strumento di questa previsione è il concetto, che riassume e conserva i caratteri generali e costanti dell'esperienza passata e consente così di anticipare quella futura. Ma i concetti scientifici sono il più delle volte concetti composti, che risultano da una scelta e da una combinazione di elementi attinti dall'esperienza; sicché il compito della scienza si può definire come quello di: “consentire di porre concetti arbitrari che, nelle condizioni previste, possono trasformarsi in concetti sperimentali”. Questa concezione suppone naturalmente che ci sia un certo determinismo negli eventi naturali, che questi eventi si concatenino causalmente; ma poiché non conosciamo nella sua totalità la catena causale, l'affermazione che tutto è determinato e l'affermazione opposta, che c'e nel mondo qualcosa di non determinato e che lascia campo al libero arbitrio dell'uomo, portano in pratica allo stesso risultato; possiamo e dobbiamo comportarci, in rapporto al mondo, come se esso fosse solo parzialmente determinato. Queste idee coincidono sostanzialmente con quelle di Mach. Ostwald deriva poi da Comte il principio di una classificazione delle scienze ordinate, secondo il grado di astrazione che esse realizzano, in tre gruppi: 1) Scienze formali, come la matematica, la geometria e la teoria del movimento. 2) Scienze fisiche, come la meccanica, la fisica, la chimica. 3) Scienze biologiche. Il concetto più generale delle scienze formali è quello di coordinazione o di funzione; mentre il concetto che domina sia le scienze fisiche sia le scienze biologiche è quello di energia. E difatti gli esseri viventi possono procurarsi l'energia libera di cui hanno bisogno per garantire la persistenza della vita solo dalla irradiazione solare. L'energia libera è difatti quella che si sottrae alla degradazione dell'energia, prevista dal secondo principio della termodinamica, ed essa sola è il fondamento della vita. Da ciò /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 49:! deriva la necessità di amministrarla economicamente; e a questa economia dell'energia libera serve l'organismo vivente, come servono i processi psichici della sensazione, del pensiero e dell'azione, e l'organizzazione sociale. Da questo principio Ostwald deduce anche la giustificazione della tendenza politico-sociale verso l'uguaglianza degli uomini. La stessa scoperta del principio dell'energia non ha altro significato che quello di economizzare una certa quantità di energia per tutte le generazioni future. Difatti quel principio, mostrando che l'energia libera (in base al secondo principio della termodinamica) non può che diminuire, comunica agli uomini l'esigenza e i mezzi di risparmiarla quanto più è possibile. Non una metafisica scientifica, ma una interpretazione metafisica della scienza è presentata da Emile Meyerson (1859-1933), in libri sorretti da una vastissima cultura scientifica e filosofica: Identità e realtà, 1908; La deduzione relativistica, 1925; La spiegazione nelle scienze, 1927; Il cammino del pensiero, 1931. Secondo Meyerson, scienza e filosofia hanno lo stesso punto di partenza, cioè il mondo della percezione e lo stesso punto di arrivo, cioè l'acosmismo (il mondo non ha una realtà effettiva, s'identifica nell'unica realtà di Dio) e adoperano lo stesso meccanismo fondamentale della ragione. Su questo meccanismo vertono soprattutto le analisi di Meyerson. La sua tesi fondamentale è che solo l'identità dell'essere con se stesso, quale fu concepita da Parmenide, è perfettamente omogenea con la ragione e trasparente ad essa; e che perciò ogni spiegazione razionale è una identificazione del diverso e consiste nel ricondurre all'identità e all'immutabilità la molteplicità e il mutamento che sono dati nell’esperienza. Meyerson cerca di mostrare, con l'utilizzazione di un vastissimo materiale scientifico, che tale è in primo luogo il procedimento che di fatto la ragione adopera sia nel senso comune, sia nella scienza, sia nella filosofia; e in secondo luogo che tale deve essere, in linea di diritto, non essendoci altro criterio o misura di intelligibilità. Il concetto di cosa, di cui sia il senso comune sia la scienza hanno bisogno, è un caso d'identificazione del diverso sensibile. Il concetto di causa è l'altro caso fondamentale: giacché ogni spiegazione causale tende, secondo Meyerson, a identificare, al limite, l'effetto con la causa. Spiegare causalmente un fenomeno significa dimostrare che in qualche modo esso preesiste nella sua causa e cioè che v'è sostanzialmente identità tra causa ed effetto. Nel rendere più facilmente possibile l'identificazione, consiste la superiorità esplicativa dell’ipotesi meccanica, e delle teorie quantitative rispetto a quelle qualitative della natura. Il relativismo di Einstein, conducendo a risolvere la realtà fisica nello spazio porta molto più in là dello stesso meccanismo il processo d'identificazione. Allo stesso processo sono dovuti i principi fondamentali della fisica: quello d'inerzia e quelli di conservazione della materia e dell'energia. Questi principi difatti non sono ammessi sulla base della loro verifica sperimentale, che è solo imperfetta o parziale, ma perchè sono espressioni del principio di causalità come identità delle cose nel tempo. Tuttavia in questo processo d'identificazione la scienza incontra ostacoli o punti di arresto che costituiscono veri e propri irrazionali. La riduzione dei fenomeni nello schema dell'identificazione, implicando la negazione del tempo, porta a considerare i fenomeni come reversibili; e tale infatti li considera la meccanica razionale. Ma il secondo principio della termodinamica impedisce di ammettere questa reversibilità. Il calore non passerà mai naturalmente da un corpo meno caldo a un corpo più caldo e ciò stabilisce un ordine irreversibile dei fenomeni naturali. Ora il principio di Clausius è, a 4:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! differenza degli altri principi della fisica, fondato esclusivamente su fatti dell'esperienza; di qui la sua mancanza di plausibilità e il tentativo che è sempre stato fatto di negarlo sostanzialmente e di ristabilire la reversibilità e l'identità dei fenomeni. Ma questo tentativo è impossibile per la presenza di quegli irrazionali che la scienza incontra ad ogni passo. Uno di essi è la sensazione nella sua natura di dato ultimo e irriducibile. Altri sono l'azione reciproca dei corpi, gli stati iniziali da cui partono i sistemi di energia, la dimensione assoluta delle molecole, ecc. Lo schema d'identificazione è proprio della scienza perchè è proprio della ragione umana: la filosofia stessa non può che seguirlo. La sola differenza tra scienza e filosofia è che la filosofia tenta di raggiungere di colpo e in misura completa quell'identità che la scienza realizza solo parzialmente e provvisoriamente. La filosofia in altri termini non può riconoscere quegli irrazionali a cui la scienza si adatta: tale riconoscimento sarebbe per essa un suicidio. Ma l'unità della scienza e della filosofia è sostanziale e profonda. I filosofi devono tener conto non dei risultati della scienza, ma dei suoi procedimenti e del suo atteggiamento nei confronti del mondo esterno; e gli scienziati non possono non fare della metafisica appena si elevano ad una concezione generale. L'unità della scienza e della filosofia è l'unità stessa della ragione come procedimento o schema d'identificazione. La dottrina di Meyerson si può considerare, più che un contributo alla nuova metodologia, la critica o la riduzione all'assurdo della vecchia metodologia fondata sulla spiegazione causale, intesa come spiegazione razionale, dei fenomeni. In realtà la scienza contemporanea è contrassegnata dall'abbandono di questo ideale di spiegazione e dal ricorso all'esigenza della semplice descrizione dei fenomeni quale fu affacciata da Newton e dalla scienza settecentesca; e poi dal ricorso all'esigenza della previsione che già abbiamo visto prevalere nelle concezioni di Mach e Hertz e che soppianterà definitivamente le altre negli sviluppi più moderni della scienza stessa. 9.4 Lo studio degli inosservabili e la crisi dell’intuizione in fisica Per comprendere le ragioni più profonde dell'adesione generalizzata al meccanicismo nelle scienze bisogna tener conto del fatto che esso offriva una base all'intuizione. I punti materiali e le onde della meccanica erano una sorta di immagine idealizzata del granello di sabbia o delle onde che si producono in uno stagno in cui cade un sasso e non era difficile immaginare che, all'interno dei corpi, ci fossero entità di questo tipo molto minuscole, ma dotate delle medesime proprietà. A partire dagli ultimi decenni dell'Ottocento, invece, la fisica in particolare, ma anche altre scienze, diventano sempre più scienze dell'inosservabile e la cosa è diventata del tutto generale nel Novecento. La transizione dall’osservazione del macroscopico al microscopico è di importanza fondamentale perché cambia profondamente il modo di interrogare la natura e la sua comprensione. La fisica fino al termine dell'Ottocento studiava sostanzialmente fenomeni dell'ordine di grandezza dell'esperienza ordinaria o, come si dice talvolta, "macroscopici". Per comprendere e spiegare le loro proprietà si introducevano concetti limite idealizzati e si postulavano anche costituenti "microscopici" di questi corpi, costituenti tuttavia che non erano dotati di proprietà diverse e il cui compito era esclusivamente quello di dar ragione dei fenomeni /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:;! macroscopici studiati. Possiamo dire che questo era il mondo di oggetti della fisica classica. Nella fisica moderna invece (che possiamo fare iniziare col Novecento, ma i cui prodromi si verificano a fine Ottocento), sono gli enti microscopici stessi l'oggetto di studio, ciò di cui si cerca di stabilire proprietà e leggi. Tutto questo mondo microscopico non è osservabile nel senso tradizionale di essere accessibile alla percezione sensibile (specialmente alla vista) e può esser considerato tale solo se si riconosce come osservazione anche l'osservazione strumentale, la quale però coinvolge sempre più l'accettazione di intere parti di teorie fisiche. Né vale obiettare che anche per trattare degli inosservabili dobbiamo in ultima istanza affidarci a quanto si può direttamente osservare dentro gli strumenti, poiché la sostanza del problema è un'altra: prima si postulava il componente inosservabile come ipotesi per spiegare il comportamento dei corpi osservabili, ora invece il comportamento dei corpi osservabili (per esempio degli strumenti di osservazione e misura) viene utilizzato per scoprire le proprietà dei componenti inosservabili. Quanto detto non vale soltanto riguardo all'infinitamente piccolo, ma anche riguardo all'infinitamente grande, ossia a ciò che è lontanissimo nello spazio e nel tempo (per esempio, negli studi di astrofisica e di cosmologia). È chiaro che tutto questo è possibile grazie a un cospicuo lavoro di tipo teorico. Tutte queste conoscenze sono possibili se non si ritiene che unica fonte legittima di conoscenza sono le percezioni sensibili, ossia se si accorda all'intelletto una capacità di conseguire vera conoscenza, anche quando non è più direttamente assistito dall'esperienza sensibile. I positivisti, che erano propugnatori di un empirismo radicale, non riuscivano ad ammettere un simile contributo dell'intelletto e pertanto si trovarono completamente spiazzati quando la scienza incominciò a dover sempre più rinunciare a quello che possiamo chiamare il requisito della visualizzabilità dei suoi oggetti, e la posizione di Mach è proprio la migliore conferma di questo fatto. Avendo ridotto la conoscenza autentica al puro contenuto delle percezioni sensibili e avendo ridotto i prodotti dell'intelletto (concetti, leggi, teorie) a semplici espedienti economici per ordinare e prevedere in certa misura le nostre percezioni, egli fu costretto a negare l'esistenza fisica degli inosservabili e, per quanto stupefacente ciò possa apparire a noi (che consideriamo atomi, molecole e particelle come costituenti normali del mondo fisico), egli non credette all'esistenza delle molecole e degli atomi pur essendo morto nel 1916 (ossia dopo la rivoluzione relativistica e quantistica). Le crisi del meccanicismo descritte in precedenza possono infatti esser considerate, in sostanza, proprio come "crisi della visualizzabilità" degli enti della fisica, nel momento in cui essi appaiono come degli inosservabili che si tenta di comprendere mediante modelli intuitivi. Di fronte alle difficoltà emerse nella costruzione di tali modelli si aprono sostanzialmente due strade: l'una consiste nel riconoscere che l'intelletto è in grado di farci conoscere anche al di là di quanto è intuitivamente modellabile, e allora si rimane in una concezione realista della scienza (ossia si ritiene che la scienza ci faccia conoscere qualcosa della realtà); oppure si ritiene che là dove non arriva la diretta percezione sensibile non c'è conoscenza, e allora si cade nell'antirealismo. L'empirismo radicale corrisponde a questa seconda scelta, ma è il caso di sottolineare che, essendo la scienza naturale contemporanea quasi per intero una scienza dell'inosservabile, questa opzione implica che si tolga la caratteristica di conoscenza alla scienza, ossia a quella forma di sapere a cui la fisica classica aveva attribuito quasi il monopolio della conoscenza. 4:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! All’alba del Novecento si apre un nuovo universo di idee. Le avanguardie artistiche inaugurano la rivoluzione modernista. Nascono l’architettura funzionale e il design industriale come risposta alla civiltà delle macchine. Letteratura e teatro disgregano relativisticamente il personaggio-uomo. La pittura rifiuta le immagini della percezione ottica, per indagare la realtà mentale delle cose. La musica abbandona la tonalità. Tutto l’universo ottocentesco è rimesso in discussione. Cambiano i costumi, i modi di pensare , i criteri etici, mentre compaiono esperienze inedite che domineranno il secolo, come la psicanalisi e il cinema. Per la scienza si chiude un’epoca che durava dalla rivoluzione newtoniana. La teoria della relatività di Einstein e la meccanica quantistica, che mettono in discussione lo stesso nucleo fondamentale della rappresentazione classica del mondo fisico, modificano le leggi della meccanica newtoniana indicandone i limiti di validità. Sull’opera di Einstein e sulla meccanica quantistica sarà avviato anche un dibattito filosofico estremamente impegnato, che vede intervenire molti nomi di spicco della prima metà del Novecento, da Bergson a Cassirer, da Carnap e Reichenbach a Meyerson e Whitehead fino a Popper. In tutti questi filosofi, e le correnti che incarnano, occupa un posto centrale la riflessione sul significato e i fondamenti dell’esperienza e sulla validità della scienza. I problemi posti dalla nuova fisica, oltre a suscitare l’interesse dei filosofi, costringono i fisici, come Einstein, Bohr e Heisenberg, a interessarsi delle implicazioni filosofiche delle loro teorie. Si pensi ai nuovi concetti di spazio e tempo, al dibattito su casualità e leggi probabilistiche, o ancora alle discussioni sul concetto di “complementarietà”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:4! !"#$%&'&()*! Tutto è relativo. Prendi un ultracentenario che rompe uno specchio: sarà ben lieto di sapere che ha ancora sette anni di disgrazie Einstein "(#,!.%"/1!%&-#,-"()!.!0)!*(# LA TEORIA DELLA RELATIVITA’ RISTRETTA 10.1 Il percorso verso la teoria della relatività ristretta Verso la fine del XIX secolo la maggior parte degli studiosi era convinta che le leggi fondamentali della fisica fossero state ormai scoperte: “In fisica non c’è nulla di nuovo da scoprire ormai” dichiarava Lord Kelvin nel 1900. Le equazioni della meccanica newtoniana spiegavano con successo il moto degli oggetti sulla Terra e nei cieli. L'interpretazione teorica dei principali aspetti fisici del mondo macroscopico era poi completata dalle equazioni di Maxwell, che avevano riunito in un'unica teoria i fenomeni elettrici e magnetici, e avevano consentito di riconoscere la natura elettromagnetica della luce. In Maxwell, Einstein vedeva un teorico che si era liberato dai pregiudizi dominanti, si era fatto condurre dalle melodie matematiche in territori sconosciuti e aveva trovato un’armonia basata sulla bellezza e la semplicità della teoria dei campi. Per tutta la vita Einstein fu affascinato dalle teorie dei campi, e descrisse lo sviluppo del concetto in questi termini: “Un nuovo concetto, l’invenzione più importante dal tempo di Newton in poi, s’introduce nella fisica e cioè il concetto di campo. Occorreva una potente immaginazione scientifica per discernere che nella descrizione dei fenomeni elettrici non sono né le cariche, né le particelle che costituiscono l’essenziale, bensì lo spazio interposto fra cariche e particelle. Il concetto di campo si dimostra fertilissimo e conduce alla formulazione delle equazioni di Maxwell, descriventi la struttura del campo elettromagnetico”. Però, nelle fondamenta della fisica classica avevano cominciato ad aprirsi delle crepe, come è stato ampiamente discusso nel capitolo precedente e, in particolare, i due gruppi di equazioni, quelle di Maxwell e di Newton, cominciavano a mostrare delle 4:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! fondamentali contraddizioni. In primo luogo, nella meccanica newtoniana ogni mutua azione si manifesta istantaneamente, qualunque sia la distanza fra i corpi interagenti, mentre le forze elettromagnetiche descritte dalle equazioni di Maxwell si propagano con una velocità finita, corrispondente a quella della luce. Proprio per questo, si comprese ben presto la necessità di elaborare una teoria che riunisse sotto una stessa logica i principi della meccanica e dell'elettromagnetismo. In secondo luogo, gli scienziati, per quanto si sforzassero, non riuscivano a trovare nessuna prova del moto della Terra attraverso l’ipotetico etere, introdotto da Maxwell, per spiegare la propagazione delle onde elettromagnetiche nel vuoto. Per ultimo, lo studio della radiazione, di come la luce e le altre onde elettromagnetiche vengono emesse dai corpi fisici, sollevò un altro problema e cioè strane cose accadevano al confine dove la teoria newtoniana, che descriveva la meccanica delle particelle discrete, interagivano con la teoria dei campi, che descriveva tutti i fenomeni elettromagnetici. I tempi erano ormai maturi per accogliere nella storia delle scienze le due teorie che hanno segnato la nascita della fisica moderna, la relatività einsteiniana e la meccanica quantistica, che infransero tutti i più importanti elementi della concezione newtoniana del mondo: la nozione di spazio e di tempo assoluti e quella di particelle solide elementari, la natura strettamente causale dei fenomeni fisici e l’ideale di una descrizione oggettiva della natura. Queste teorie sono diventate la base della scienza della natura che, al di là delle loro applicazioni tecnologiche che hanno consentito all’uomo di raggiungere livelli tecnologici inaspettati, hanno influenzato profondamente la concezione che l’uomo ha dell’universo e del proprio rapporto con esso. La vita e l’opera di Einstein rifletterono tale sconvolgimento non solo in ambito scientifico ma anche nell’ambito delle certezze sociali e degli assoluti morali all’inizio del XX secolo. Einstein aveva l’esuberanza necessaria per rimuovere gli strati di conoscenze acquisite che nascondevano le crepe aperte nelle fondamenta della fisica, e la sua immaginazione visiva gli consentiva di compiere i salti concettuali che erano fuori della portata di pensatori più tradizionali. Il nonconformismo era nell’aria, Picasso, Joyce, Freud, Stravinskij, Schonberg e altri stavano infrangendo i vincoli tradizionali nell’arte, nella letteratura, nella musica ed in altri ambiti dell’attività intellettuale umana. La storia della relatività comincia nel 1632, allorché Galileo formulò il principio che le leggi del moto e della meccanica sono identiche in tutti i sistemi di riferimento che si muovono a velocità costante. Per cui all’interno di una nave che si muove a velocità costante, tutti i fenomeni che in essa avvengono, come la caduta di un sasso, il propagarsi delle onde all’interno di un catino pieno d’acqua o il propagarsi delle onde sonore, sono gli stessi e con le stesse modalità se la nave fosse ferma. In sostanza, dall’analisi di questi fenomeni non siamo in grado di stabilire se la nave è ferma o è in moto rettilineo uniforme. Tutto ciò portava ad una domanda per Einstein: la luce si comporta nelle stesso modo? Newton aveva concepito la luce come un flusso di particelle emesse dai corpi, ossia aveva attribuito alla luce una natura corpuscolare. Ma ai tempi di Einstein la maggior parte degli scienziati aderiva, invece, alla teoria ondulatoria proposta da Huygens, confermata da parecchi esperimenti. Maxwell aveva contribuito a consacrare la teoria ondulatoria quando aveva ipotizzato con successo una connessione tra luce, elettricità e magnetismo. Era così pervenuto a delle equazioni che descrivono il comportamento dei campi elettrici e magnetici, e che quando venivano combinate predicevano l’esistenza di onde elettromagnetiche. Maxwell aveva scoperto /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:6! che le onde elettromagnetiche dovevano propagarsi ad una ben determinata velocità, circa 300.000 km/s, che era proprio la velocità con cui si propagava la luce, per cui la luce era proprio un’onda elettromagnetica. Tutto ciò sollevava alcuni grandi interrogativi: qual era il mezzo che consentiva la propagazione di queste onde? E la loro velocità di 300.000 km/s era una velocità relativa a che cosa? Parve che la risposta dovesse essere che le onde luminose si propagassero attraverso un mezzo, chiamato etere, e che la loro velocità era relativa all’etere. In sostanza, l’etere era per le onde luminose qualcosa di simile a ciò che l’aria era per le onde sonore, e l’idea dell’esistenza di questo mezzo universale penetrante ovunque, così da riempire ogni spazio all’interno e all’esterno dei corpi materiali era saldamente radicata nella fisica fino alla fine del XIX secolo. Ma, nonostante il successo delle leggi sull’elettromagnetismo di Maxwell, i fisici rimasero nell’impossibilità di descrivere le proprietà di questo misterioso mezzo universale con gli stessi termini usati nella descrizione dei mezzi naturali più comuni, come i gas, i solidi, i liquidi, e qualsiasi tentativo effettuato in questo senso portò a risultati gravemente contraddittori. Infatti, l’etere, doveva avere molte proprietà sconcertanti. Poiché la luce proveniente dalle stelle lontane è in grado di raggiungere la Terra, l’etere doveva pervadere l’intero universo conosciuto e doveva essere così impalpabile da non avere nessun effetto né sui pianeti e né su ciò che è presente su di essi. Eppure, doveva essere abbastanza rigido da consentire a un’onda di propagarsi vibrando attraverso di esso a una velocità costante. Infatti, il fenomeno della polarizzazione della luce dimostrò, al di là di ogni dubbio, che ci troviamo di fronte a vibrazioni trasversali nelle quali il mezzo è sottoposto a un movimento oscillatorio perpendicolare alla direzione di propagazione. Tuttavia le vibrazioni trasversali possono esistere solo nei solidi, i quali, diversamente dai liquidi e dai gas, hanno una propria forma ben definita: il leggerissimo etere dovrebbe essere un solido, ma se così fosse, se cioè l’etere riempisse tutto lo spazio che ci circonda, come potremmo correre e camminare, come potrebbero i pianeti muoversi attorno al Sole per miliardi di anni senza incontrare alcuna resistenza? E’ davvero sorprendente che i grandi fisici del XIX secolo non siano arrivati a pensare che se l’etere fosse esistito avrebbe dovuto possedere proprietà del tutto diverse da quelle degli altri corpi a noi familiari. Tutto questo condusse alla grande caccia all’etere. Se la luce era davvero un’onda che si propagava attraverso l’etere, si sarebbero dovute vedere le onde procedere a una velocità maggiore quando ci si muoveva attraverso l’etere verso la sorgente luminosa. Gli scienziati escogitarono ogni sorta di ingegnosi dispositivi e di esperimenti per rilevare tali differenze. L’esperimento più famoso fu progettato e condotto nel 1887 dal fisico americano Albert Abraham Michelson (1852-1931; Premio Nobel) e dal suo assistente Edward Williams Morley (1838- 1923), con il quale volevano dimostrare l’effetto del movimento della Terra nello spazio sulla velocità della luce misurata alla superficie terrestre. Infatti, la Terra si muove nello spazio intorno al Sole alla velocità di 30 km/s, dovrebbe, quindi, esistere una sorta di vento dovuto all’etere cosmico sulla superficie terrestre o addirittura attraverso anche la sua massa. Michelson e Morley si proposero, allora, di misurare il tempo impiegato dalla luce per percorrere il suo cammino prestabilito in due casi: nel caso in cui essa si propagava nella direzione in cui si prevedeva avvenisse lo spostamento e nel caso in cui la propagazione fosse perpendicolare a tale direzione. La disposizione sperimentale è illustrata in figura. 4:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Il tutto fu montato su una piattaforma di marmo galleggiante in una vasca contenente del mercurio, ciò allo scopo di poter agevolmente rotare il sistema attorno al suo asse senza troppe scosse. Un fascio di luce emesso dalla lampada S veniva fatto incidere su uno specchio semiriflettente O posto al centro della piattaforma: circa la metà della luce incidente veniva riflessa sullo specchio B, mentre l’altra metà, subìta una rifrazione nella lastra O, veniva riflessa dallo specchio A, posto alla stessa distanza di B dal centro della piattaforma. Il raggio riflesso dallo specchio B, dopo aver attraversato O, veniva raccolto in C da un cannocchiale, mentre quello riflesso da A, attraversando O, subiva un’altra riflessione per essere raccolto anch’esso in C. Se non soffiasse il vento d’etere questi due raggi giungerebbero in fase al cannocchiale e darebbero luogo ad un fenomeno d’interferenza costruttiva, rinforzando notevolmente l’intensità luminosa e producendo la massima illuminazione nel campo visivo del cannocchiale; se, invece, il vento soffiasse, per esempio, da sinistra a destra, il raggio che si propaga nella direzione opposta giungerebbe al cannocchiale in ritardo rispetto a quello che si propaga nella stessa direzione e si dovrebbe osservare almeno una parziale interferenza distruttiva. I risultati furono negativi. Come mai? Era possibile che l’etere fosse trascinato completamente dalla Terra nel suo movimento? La ripetizione dell’esperimento su un pallone ad alta quota escluse tale possibilità, ed i fisici non riuscirono a trovare né una soluzione né il minimo indizio che li conducesse sulla giusta via. Tra il 1892 e 1904, il fisico olandese Hendrik Lorentz (1853-1928) elaborava una teoria elettrodinamica dei corpi carichi in moto. In questa teoria si trovava la prima articolata proposta di spiegazione del fallimento dell'esperimento di Michelson e Morley. Secondo Lorentz, che credeva nell'etere, il vento d'etere (ossia il movimento rispetto all'etere in quiete assoluta), oltre a modificare la velocità della luce, aveva anche altre conseguenze di rilievo. Egli partì dalla teoria che rappresentava i corpi materiali come composti da particelle dotate di cariche opposte e tenute insieme dalle forze elettromagnetiche. Se queste forze sono propagate dall'etere, e quindi dipendono dal vento d'etere (come d'altronde la propagazione della luce), allora la forma dei corpi deve dipendere dal loro stato di moto rispetto all'etere. In base ad alcune assunzioni abbastanza ragionevoli sulle forze elettromagnetiche, egli dimostra come il vento d'etere doveva produrre un accorciamento dei corpi lungo la direzione del vento. Questo accorciamento, già predetto qualitativamente da Francis Fitzgerald (1851-1901) nel 1889, alterava i tempi di percorso della luce entro l'apparato di Michelson e Morley in modo da nascondere completamente l'effetto cercato. L'etere possedeva dunque una proprietà straordinaria, quella di rendersi completamente inosservabile. Nel corso delle sue ricerche, Lorentz dimostrò come il vento d'etere doveva anche alterare il ritmo degli orologi, e in realtà di qualunque sistema fisico dove /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:8! operano interazioni elettromagnetiche, ivi inclusi i sistemi biologici. Se dunque spirava il vento d'etere, le misure convenzionali di spazio e tempo risultavano sistematicamente alterate ed erronee, in modo tale da simulare una realtà fisica in cui l'etere appariva sempre immobile e la velocità della luce era ancora la stessa in tutte le direzioni. Questo risultato di Lorentz va sotto il nome di Principio degli stati corrispondenti. In sostanza, esso continua ad asserire l'esistenza dell'etere e di un sistema di riferimento privilegiato ancorato all'etere anche se non rilevabile attraverso esperimenti di natura elettromagnetica. Il principio degli stati corrispondenti è, quindi, idealmente in contrasto con il principio di relatività galileiano, che non ammette sistemi privilegiati (come lo è, del resto, la visione newtoniana dello spazio e del ternpo assoluti), ma in pratica si conforma a esso in quanto nega la possibilità concreta di osservare il sistema privilegiato. Il mondo reale è unico e dovrebbe essere sempre possibile stabilire una forma di traduzione tra le misure effettuate da osservatori diversi attraverso le trasformazioni di Galileo. Tuttavia, nella teoria elettrodinamica di Lorentz il moto dell’etere induceva, per quanto detto, distorsioni nell'apparato di misura, per cui le trasformazioni di Galileo andavano corrette. Da questa analisi Lorentz dedusse delle nuove trasformazioni che tengono conto del moto rispetto all'etere. Queste trasformazioni furono ampiamente studiate da Poincarè e da lui chiamate Trasformazioni di Lorentz. La teoria di Lorentz, in particolare se unita ai contributi formali e concettuali a essa dati da Poincare tra il 1898 e il 1905, contiene molti degli elementi essenziali della relatività einsteniana. Troppo spesso, però, la mente umana è condizionata dal pensiero tradizionale e toccò al genio di Albert Einstein (1879-1955; Premio Nobel) di gettare dalla finestra il vecchio e superato etere e di sostituirlo col concetto più vasto di campo elettromagnetico, al quale egli attribuì una realtà fisica identica a quella di ogni altro corpo materiale. Non solo, ma Einstein risolse questo ed altri problemi apparentemente contraddittori ed in contrasto con le leggi della fisica classica. Nel 1905, a 26 anni, pubblicò sulla rivista scientifica tedesca Annalen der Physick, tre articoli che scossero e sconvolsero l’ambiente scientifico di tutto il mondo, e che si innalzano all’inizio del Novecento come imponenti monumenti intellettuali, piramidi della civiltà moderna. Questi tre articoli riguardavano tre vastissimi campi della fisica: il calore, l’elettricità e la luce. Uno di questi, conteneva la teoria particolareggiata del moto browniano e fu di fondamentale importanza per l’interpretazione meccanica dei fenomeni termici. Un altro interpretava l’effetto fotoelettrico sulla base della teoria dei quanti, a quei tempi appena sviluppata, ed introduceva il concetto di pacchetti di energia o fotoni. Il terzo, il più importante per gli sviluppi della fisica, recava il seguente titolo: Sull’elettrodinamica dei corpi in movimento, ed era dedicato ai paradossi nati dagli studi sulla misura della velocità della luce. Esso costituì il primo atto ufficiale della teoria della relatività, ed una delle più profonde e sconvolgenti rivoluzioni nel mondo della fisica e del pensiero umano. 4:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 10.2 I postulati della relatività ristretta Ma se non esiste un etere che riempia tutto l’Universo, non ci può essere un moto assoluto, poiché non ha senso un movimento riferito al nulla. Così, affermò Einstein, si può parlare solo di moti di un corpo materiale rispetto ad un altro o di un sistema di riferimento rispetto ad un altro sistema di riferimento. Se è, dunque, vero che non esiste un etere cosmico a garanzia dell’esistenza di un riferimento universale per qualsiasi movimento nello spazio, non potrà neppure esistere alcun dispositivo sperimentale capace di rivelare tali moti; ogni affermazione riguardante movimenti di questo tipo deve essere bandita perché priva di significato fisico. Non deve, perciò, meravigliare affatto che Michelson e Morley, misurando la velocità della luce nelle diverse direzioni del loro laboratorio, non abbiano potuto capire se il loro laboratorio e la stessa Terra si muovessero o meno nello spazio. Pertanto, senza guardare fuori dalla Terra, è impossibile rilevare alcuna forma di movimento nello spazio dall’osservazione di fenomeni elettromagnetici, come lo è parimenti dall’osservazione di quelli meccanici. Alcune teorie scientifiche dipendono in modo essenziale dall’induzione, ed Einstein apprezzava in maniera notevole le osservazioni sperimentali delle quali si serviva per individuare certi punti fissi sui quali costruire una teoria. Altre dipendono prevalentemente dalla deduzione, e in un articolo del 1919 intitolato Induzione e deduzione in fisica, Einstein descriveva la propria preferenza per tale procedimento: “L’immagine più semplice che ci si può fare della creazione di una scienza empirica è quella di un procedimento che segue un metodo induttivo. I singoli fatti vengono selezionati e raggruppati in modo da rendere evidenti le leggi che li connettono … Tuttavia, i grandi progressi nella conoscenza scientifica soltanto in misura modesta si sono prodotti in questo modo … I progressi veramente grandi nella nostra comprensione della natura si sono determinati in un modo quasi diametralmente opposto all’induzione. La conoscenza intuitiva degli elementi essenziali di un vasto complesso di fatti porta lo scienziato a postulare in via ipotetica una o più leggi fondamentali. Da queste leggi, egli deduce le sue conclusioni”. Popper rimase profondamente colpito dal carattere fortemente immaginativo, addirittura speculativo, non giustificato razionalmente né prodotto a rigore da alcuna osservazione o esperimento isolato, della teoria della relatività, fondata in effetti non su un’ulteriore generalizzazione empirica, ma su un rovesciamento e una sostituzione di quadri concettuali. All’inizio del 1905 Einstein aveva cominciato a fare affidamento sulla deduzione più che sull’induzione nel suo tentativo di spiegare l’elettrodinamica: “A poco a poco incominciai a disperare della possibilità di scoprire le vere leggi attraverso tentativi basati su fatti noti. Quanto più a lungo e disperatamente provavo, tanto più mi convincevo che solo la scoperta di un principio formale universale avrebbe potuto portarci a risultati sicuri”. Ora che Einstein aveva deciso di costruire la sua teoria procedendo per deduzione, dall’alto verso il basso, ossia deducendola da postulati generali, bisognava fare una scelta: quali postulati assumere come assunti fondamentali di principio per la teoria? I postulati che Einstein assunse come base per la sua Teoria della relatività speciale o ristretta, valida nel caso di sistemi in moto rettilineo uniforme l’uno rispetto all’altro, che spazzò via tutte le contraddizioni alle quali conduceva il modo di ragionare della fisica classica, sono i seguenti: /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4::! PRIMO POSTULATO Principio della relatività: Le leggi della fisica sono le stesse in tutti i sistemi di riferimento inerziali SECONDO POSTULATO Costanza della velocità della luce: La velocità della luce è la stessa in tutti i sistemi di riferimento inerziali, indipendentemente dal moto della sorgente rispetto all’osservatore. Il primo enunciato rappresenta l’estensione del principio di relatività anche ai fenomeni elettromagnetici, ed include tutte le leggi della fisica e quindi va oltre il principio di relatività galileiano che riguarda solo le leggi della meccanica. Il secondo postulato è coerente con il primo: le equazioni di Maxwell non potrebbero avere la stessa forma in tutti i sistemi inerziali se la velocità della luce non fosse una costante universale. Inoltre, se la costanza della velocità della luce non dipende dallo stato di moto del corpo che la emette, l’introduzione di un etere necessario per la sua propagazione è superflua. Alla luce della relatività ristretta, le premesse dell’esperimento di Michelson e Morley si rivelarono errate. La possibilità di misurare la velocità della Terra rispetto ad un sistema di riferimento privilegiato è negata dal primo postulato. Coerentemente, il secondo postulato esclude che il moto della Terra abbia influenza sulla velocità della luce e conseguentemente sulla figura d’interferenza osservata nell’esperimento. 10.3 L’unione dello spazio e del tempo Però, il postulato della luce sembrava incompatibile con il principio di relatività: immaginiamo che un raggio di luce venga inviato da un faro lungo la banchina di una linea ferroviaria. Un uomo fermo sulla banchina che misurasse la velocità del raggio mentre gli sfreccia accanto troverebbe che essa è di 300.000 km/s. Ma ora immaginiamo che il raggio di luce venga inviato da un faro di un treno che viaggi a 3000 km/s. Ci aspetteremmo che l’uomo misuri per il raggio di luce una velocità di 303.000 km/s, ossia una velocità superiore a quella precedente. Questo risultato, però, è in contrasto con il principio di relatività; infatti, proprio nel rispetto di tale principio, come per ogni altra legge generale della natura, la legge di propagazione della luce nel vuoto deve essere uguale tanto per il vagone ferroviario assunto come sistema di riferimento inerziale, quanto per la banchina, intesa anch’essa come sistema di riferimento inerziale. In altre parole, le equazioni di Maxwell, che determinano la velocità con la quale la luce si propaga, dovrebbero operare nello stesso modo nel vagone in movimento come sulla banchina. Non dovrebbe esistere nessun esperimento, compresa la misurazione della velocità della luce, che consenta di distinguere quale sistema di riferimento inerziale sia in quiete e quale sia in moto con velocità costante. 5<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Era una conclusione strana. L’uomo fermo sulla banchina dovrebbe vedere quel raggio sfrecciarle accanto esattamente con la stessa velocità, sia che provenga dal treno in movimento sia dal faro fermo sulla banchina. In generale, la velocità della luce dovrebbe essere invariante qualunque sia il moto relativo tra l’uomo e la sorgente, anche se la velocità relativa dell’uomo rispetto al treno varierebbe, a seconda che stesse correndo verso di esso o in direzione opposta. Tutto ciò rendeva, secondo Einstein, i due postulati apparentemente incompatibili. Combinando il postulato della luce con il principio di relatività, ne derivava che un osservatore, misurando la velocità della luce, troverebbe lo stesso valore sia che la sorgente si muovesse verso di lui o in direzione opposta, sia che lui si muovesse verso la sorgente o in direzione opposta, sia che si muovessero entrambi o nessuno dei due. La velocità della luce sarebbe la stessa qualunque fosse il moto sia dell’osservatore sia della sorgente. Come superare l’apparente incompatibilità? Einstein, attraverso uno dei più eleganti ed audaci balzi di immaginazione della storia della fisica e della scienza in generale, si accorse che bisognava modificare drasticamente le idee sullo spazio e sul tempo che da secoli erano considerati due enti del tutto indipendenti e che nei suoi Principia il grande Newton così scriveva: ! ! Lo spazio assoluto, per sua natura, resta sempre tale e invariabile senza alcuna relazione con l’esterno; Il tempo assoluto, vero e matematico, per sua natura scorre allo stesso modo, senza alcuna relazione con l’esterno. Come la definizione dello spazio data da Newton implicava l’esistenza di un sistema di riferimento assoluto per i movimenti che in esso avevano luogo, la definizione del tempo implicava l’esistenza di un sistema assoluto per la misura del tempo, come quello che si potrebbe avere disponendo in diversi punti dell’Universo un gran numero di orologi sincronizzati. La prova sperimentale della costanza della velocità della luce, così come fece crollare la teoria dell’esistenza di uno spazio assoluto, provocò anche un crollo inaspettato del sistema universale di riferimento del tempo. Più precisamente, l’intuizione decisiva era che due eventi i quali sembrano essere simultanei a un osservatore non appariranno tali a un altro osservatore che si muove rapidamente. E non c’è modo di dire che uno degli osservatori ha realmente ragione. In altre parole non c’è modo di dire che i due eventi sono veramente simultanei. Einstein spiegò questo concetto servendosi di uno dei suoi famosi esperimenti mentali che potremmo così descrivere: due fasci di luce emessi da una sorgente posta al centro del vagone raggiungono le due estremità. All’osservatore O’, che si trova sul vagone (a), i due eventi appaiono simultanei. Per l’osservatore O, a terra (b), la coda del vagone è colpita dalla luce prima della testa: infatti, mentre la luce viaggia alla stessa velocità in entrambe le direzioni, l’estremità posteriore del vagone va incontro al fronte d’onda luminoso e quella anteriore se ne allontana. Il principio di relatività afferma che non c’è modo di stabilire che l’osservatore O a terra è in quiete e l’osservatore O’ sul treno è in moto, ma può /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5<;! solamente stabilire che essi sono in moto relativo l’uno rispetto all’altro. Quindi, non c’è alcun modo che consenta di affermare che due eventi sono in assoluto simultanei. Perveniamo così al seguente importante risultato: due eventi simultanei verificatesi in due punti diversi di un sistema non appariranno tali se osservati da un altro sistema in moto rispetto ad esso. Si giunge, così, alla considerazione che lo spazio è, almeno parzialmente, intercambiabile col tempo, per cui una semplice distanza spaziale di due eventi in un sistema conduce ad una certa differenza di tempo tra loro quando vengono osservati da un altro sistema in movimento. Per esempio, consideriamo un viaggiatore seduto al tavolino di un vagone ristorante di un treno in corsa: dapprima mangia la minestra (evento A), poi la carne (evento B), poi il dolce (evento C). Questi eventi si verificano tutti nello stesso luogo (tavolino), ma in istanti successivi. Per un osservatore solidale a terra il viaggiatore consuma la minestra, la carne, il dolce a distanze diverse, ossia in luoghi diversi. Questa conclusione, apparentemente insignificante, ci porta alla seguente importante formulazione: eventi che si verificano per un sistema nello stesso luogo, ma in istanti successivi, si verificano in luoghi diversi per un sistema in movimento rispetto al primo. Se ora sostituiamo la parola “luogo” con la parola “istante” e viceversa, l’enunciato precedente diventerà: eventi contemporanei accaduti in luoghi diversi per un sistema, si verificano in istanti successivi quando vengono osservati da un sistema in movimento rispetto al primo. Einstein aveva compreso che non esiste la “simultaneità assoluta”, cioè non esiste un insieme di eventi nell’Universo che siano tutti esistenti “adesso”. Il nostro “adesso” esiste solo qui. L’insieme degli eventi dell’Universo non si può descrivere correttamente come una successione di presenti. In definitiva: Il concetto di simultaneità di due eventi è relativo, cioè dipende da chi osserva gli eventi. È un’idea semplice, ma anche radicale e foriera di profondi sconvolgimenti concettuali non solo scientifici ma anche filosofici. Significa che non esiste un tempo assoluto. Al contrario, tutti i sistemi di riferimento in moto hanno un proprio tempo relativo. Il concetto di tempo assoluto, ossia di un tempo che esiste in realtà e scorre in modo indipendente da qualsiasi osservazione, metteva a disagio lo stesso Newton che osservava: “Il tempo assoluto non è un oggetto di percezione” e per uscire dall’impasse non poteva che fare affidamento sulla presenza di Dio: “…dura sempre ed è presente ovunque, ed esistendo sempre e ovunque, fonda la durata e lo spazio”. Secondo Mach la nozione newtoniana di tempo assoluto era “inutile concetto metafisico” che “non può essere commisurato all’esperienza”. Anche Poincarè rilevò la debolezza del concetto newtoniano di tempo assoluto affermando che: “Non soltanto non abbiamo alcuna intuizione diretta dell’eguaglianza di due intervalli di tempo, non ne abbiamo neppure della simultaneità di due eventi che si verificano in luoghi diversi”. A quanto sembra, sia Mach che Poincarè, fornirono una base alla grande svolta di Einstein. Ma questi trasse ispirazione ancora maggiore dallo scetticismo di Hume nei confronti dei costrutti mentali separati dalle osservazioni puramente fattuali. La presa d’atto di un tempo relativo comportava il rovesciamento anche dell’altro concetto newtoniano, ossia quello di spazio assoluto. Einstein dimostrava che se il tempo è relativo, lo sono anche lo spazio e la distanza: “Se la persona che si trova 5<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sul vagone percorre in un’unità di tempo, misurata dal treno, l’intervallo w, non è detto che questo intervallo, misurato dalla banchina, risulti anch’esso uguale a w”. Einstein spiegava questo punto suggerendo di immaginare un’asta rigida che abbia una certa lunghezza se misurata quando è in quiete rispetto all’osservatore. Ora si immagini che l’asta sia in movimento. Quanto è lunga? Un modo per stabilirlo è quello di muoversi insieme all’asta, alla medesima velocità, e di mettervi sopra un regolo di misura. Ma quanto risulterebbe lunga l’asta se venisse misurata da qualcuno che non fosse in moto insieme ad essa? In tal caso, un modo per misurare l’asta in movimento sarebbe di determinare, in base a orologi stazionari sincronizzati, l’esatta ubicazione di ciascuna delle estremità dell’asta in uno specifico istante, per poi utilizzare un regolo stazionario per misurare la distanza tra questi due punti. Einstein dimostrava che questi metodi portano a risultati differenti. Perché? Perché i due orologi stazionari sono stati sincronizzati da un osservatore in quiete. Ma che accadrebbe se un osservatore che si muove con la stessa velocità dell’asta tentasse di sincronizzare gli orologi? Li sincronizzerebbe in modo diverso, perché avrebbe una differente percezione della simultaneità. Come scriveva Einstein: “osservatori in moto insieme con l’asta troverebbero allora che i due orologi non sono sincronizzati, laddove osservatori nel sistema stazionario dichiarerebbero che essi lo sono”. Questo fenomeno è noto come contrazione delle lunghezze. Un’altra conseguenza della relatività ristretta è che una persona ferma sul marciapiede vedrà il tempo scorrere più lentamente su un treno he gli passa accanto a gran velocità. Immaginiamo che sul treno ci sia un orologio formato da uno specchio sul pavimento e uno sul soffitto e da un raggio di luce che rimbalza dall’uno all’altro. Dal punto di vista di un passeggero sul treno, la luce viaggia verticalmente dal basso verso l’alto e viceversa. Ma dal punto di vista di una persona ferma sul marciapiede, sembra che la luce parta dal basso ma muovendosi in diagonale per raggiungere lo specchio sul soffitto, che nel frattempo si è spostato in avanti di un piccolissimo tratto, e poi sia riflessa verso il basso sempre in diagonale per raggiungere lo specchio sul pavimento, che a sua volta si è spostato di un piccolissimo tratto in avanti. Per entrambi gli osservatori la velocità della luce è la stessa, grazie al secondo postulato, ma la persona sul marciapiede vede la distanza che la luce deve percorrere più lunga di quanto non appaia al passeggero sul treno. Quindi, dal punto di vista della persona sulla banchina, il tempo scorre più lentamente nel treno in corsa. Questo punto può essere illustrato in un altro modo ricorrendo alla nave di Galileo. Immaginiamo un raggio di luce inviato dalla cima dell’albero verso la coperta della nave. Per un osservatore che si trovi sulla nave, il raggio di luce percorrerà esattamente la lunghezza dell’albero. Ma per un osservatore a terra il raggio di luce percorrerà la lunghezza dell’albero aumentata della distanza che la nave ha percorso in avanti nel tempo che la luce ha impiegato per andare dalla cima al piede dell’albero. Per entrambi gli osservatori la velocità della luce è la stessa, ma per quello a terra, la luce ha percorso un tratto più lungo prima di raggiungere la base dell’albero. In altre parole, il /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5<4! medesimo evento è durato più a lungo se visto da una persona a terra che se visto da una persona sulla nave. Che cosa accade quando il treno si avvicina alla velocità della luce rispetto all’osservatore sul marciapiede? Ci vorrebbe un tempo quasi infinito perché un raggio di luce sia riflesso dal pavimento al soffitto in movimento e poi di nuovo verso il pavimento in moto. Quindi il tempo sul treno sarebbe quasi fermo dal punto di vista di un osservatore sul marciapiede. Come tutti i fenomeni relativistici, la dilatazione del tempo è simmetrica rispetto a due sistemi mobili l’uno rispetto all’altro, ossia se all’osservatore A appare in ritardo l’orologio dell’osservatore B, altrettanto potrà dire l’osservatore B per l’orologio di A. Questo fenomeno è chiamato dilatazione del tempo. In definitiva: CONTRAZIONE DELLE LUNGHEZZE DILATAZIONE DEL TEMPO Un oggetto in moto diventa più corto Gli orologi in moto battono il tempo più lentamente Il fenomeno della contrazione delle lunghezze e della dilatazione dei tempi formalmente possono essere espressi nel seguente modo: CONTRAZIONE DELLE LUNGHEZZE DILATAZIONE DEI TEMPI L = L0/γ ∆t = γ∆t0 L0 è la lunghezza propria (la lunghezza dell'oggetto osservato nel suo sistema di riferimento) L è la lunghezza misurata dall'osservatore in movimento ∆t0 è l’intervallo di tempo proprio (l’intervallo di tempo osservato nel suo sistema di riferimento) ∆t è l’intervallo di tempo misurato dall'osservatore in movimento γ è il fattore di Lorentz (sempre maggiore di 1) u è la velocità relativa tra l'osservatore e l'oggetto c è la velocità della luce. Queste trasformazioni, come abbiamo già detto, furono ricavate da Lorentz subito dopo la pubblicazione dei risultati dell’esperimento di Michelson-Morley e furono considerate dal loro stesso autore e dagli altri fisici dell’epoca più che altro un divertente esercizio matematico. Ci volle Einstein per comprendere che le trasformazioni di Lorentz corrispondono effettivamente alla realtà delle cose e che era necessaria una drastica modifica dei vecchi concetti intuitivi a proposito dello spazio, del tempo e del movimento. Un’altra notevole conseguenza della meccanica relativistica è che la massa m0 di una particella in movimento non rimane costante, come in meccanica classica, ma aumenta con la velocità secondo la formula: La massa di una particella in movimento non rimane costante: m = γ⋅m0 Nel caso limite u = c, la massa m diventa infinita, cioè ci sarà una resistenza infinitamente grande ad ulteriori accelerazioni. 5<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Questo fatto mette in evidenza un altro aspetto della teoria della relatività: Nessun corpo materiale può raggiungere una velocità superiore alla velocità della luce Infatti, a causa dell’aumento di m (resistenza inerziale) con l’aumento della velocità, l’energia che sarebbe necessario fornire ad un corpo materiale per accelerarlo sino a farlo muovere alla velocità della luce diventa infinita. Una delle spiegazioni più chiare sulla teoria della relatività la ritroviamo nelle parole dello stesso Einstein: “La teoria della relatività può essere delineata in poche parole. In contrasto con il fatto, noto fin dai tempi antichi, che il movimento è percepibile soltanto come movimento relativo, la fisica si basava sulla nozione di movimento assoluto. Lo studio delle onde luminose aveva preso il posto che un singolo stato di movimento, quello dell’etere luminifero, fosse distinto da tutti gli altri. Tutti i moti dei corpi erano considerati relativi all’etere luminifero che era l’incarnazione della quiete assoluta. Ma dopo che i tentativi di rivelare lo stato di moto privilegiato di questo ipotetico etere mediante gli esperimenti erano falliti, parve che il problema dovesse essere riformulato. Questo è quanto fece la teoria della relatività. Essa assunse che non vi siano stati fisici di moto privilegiati e si chiese quali conseguenze si potessero trarre da ciò”. L’idea di Einstein era che si debbano scartare i concetti che “non hanno legame con l’esperienza” come quelli di simultaneità assoluta, di velocità assoluta, di tempo e spazio assoluti. Questo non significa che “tutto è relativo”, nel senso che tutto è soggettivo, ma significa piuttosto che “tutto dipende” dal moto dell’osservatore”. Ma c’è una unione di spazio e tempo, il cosiddetto spaziotempo, la cui misura rimane invariante in tutti i riferimenti inerziali. Per rendersi conto basta chiedersi quale distanza percorrerebbe un raggio di luce in un dato periodo di tempo, ebbene la distanza sarebbe data dal prodotto della velocità della luce per l’intervallo di tempo durante il quale essa si è propagata. Se fossimo su un marciapiede e osservassimo il percorso del raggio in un treno in corsa, il tempo trascorso ci apparirebbe più breve (il tempo sembra scorrere più lentamente sul treno in moto), e la distanza apparirebbe minore (le distanze appaiono contratte sul treno in moto). Ma c’è una relazione tra le grandezze, ossia tra le misure di spazio e di tempo, che rimane invariante, qualunque sia il nostro sistema di riferimento inerziale. Hermann Minkowski (1864–1909), ex insegnante di Einstein al Politecnico di Zurigo, decise di conferire una struttura matematica formale alla teoria della relatività. La sua impostazione era la seguente: “Vi sono in realtà quattro dimensioni: tre sono quelle che chiamiamo i tre piani dello spazio; la quarta è il tempo … Le concezioni dello spazio e del tempo che intendo presentarvi hanno le loro radici nella fisica sperimentale, e qui sta la loro forza. Sono concezioni drastiche: d’ora innanzi lo spazio in sé e il tempo in sé sono condannati a dissolversi in nulla più che ombre, e solo una specie di congiunzione dei due conserverà una realtà indipendente”. Minkowski convertì tutti gli eventi (un evento è qualcosa che accade in un particolare punto nello spazio e in un particolare tempo) in coordinate matematiche in quattro dimensioni, con il tempo come quarta dimensione. Ciò permetteva che si verificassero trasformazioni, ma le relazioni matematiche tra gli eventi rimanevano invarianti. La scelta delle coordinate è arbitraria: si possono usare ogni volta un insieme qualsiasi di tre coordinate spaziali ben definite e una qualsiasi misura di tempo. Nella /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5<6! relatività non c'è alcuna distinzione reale fra le coordinate spaziali e la coordinata temporale, così come non c'è alcuna reale differenza fra due coordinate spaziali quali si vogliano. È spesso utile pensare le quattro coordinate di un evento come se ne specificassero la posizione in uno spazio quadridimensionale, lo spaziotempo. Einstein, avventurandosi in un ambito del tutto inesplorato, unificò la misurazione dello spazio e quella del tempo per generare una nuova grandezza invariante, una combinazione identica per tutti, un continuo quadridimensionale, lo spaziotempo. L’unità di misura fondamentale dell’universo non è né il metro né il secondo, bensì una loro particolare combinazione. Perciò, nella teoria della relatività non si può parlare dello spazio senza parlare del tempo e viceversa. Né lo spazio né il tempo hanno l’assolutezza che veniva loro attribuita dalla meccanica newtoniana, per cui due osservatori in moto reciproco non potranno mai essere d’accordo sulla distanza tra due punti o sul tempo trascorso tra due eventi. Infine, abbandonando lo spazio assoluto, come scenario immutabile dei fenomeni fisici, e il tempo assoluto, essi diventano soltanto elementi del linguaggio che un particolare osservatore usa per descrivere i fenomeni del proprio punto di vista. 10.4 I paradossi e le verifiche sperimentali della relatività ristretta Se il tempo, in certe condizioni di moto, scorre più lentamente, anche qualsiasi altro processo temporale, sia esso biologico, chimico, atomico, ecc., considerato nelle stesse condizioni cinematiche, dovrebbe presentare lo stesso fenomeno relativistico, per cui il fenomeno della dilatazione dei tempi, così come quello della contrazione delle lunghezze, conducono ad una serie di paradossi. Cominciamo con il più noto, il paradosso dei gemelli. Se Romolo rimane sulla Terra mentre Remo parte su un’astronave che percorre lunghe distanze a una velocità prossima a quella della luce, quando questo ritorna sarà più giovane di Romolo. Ma poiché il moto è relativo, Remo potrebbe pensare che sia suo fratello gemello Romolo sulla Terra a viaggiare alla velocità prossima a quella della luce, e quando si incontrano si aspetterebbe di vedere che sia Romolo a essere invecchiato poco. Sembra che siamo di fronte a un paradosso. Naturalmente no. I due punti di vista sarebbero entrambi corretti solo se i due gemelli si trovassero sempre nelle stesse condizioni di moto. In realtà, mentre Romolo, per tutto il tempo di volo del gemello, non è soggetto a una forza risultante in quanto si trova in quiete in un sistema di riferimento inerziale (la Terra può essere considerata approssimativamente tale), Remo, per poter tornare al punto di partenza, deve necessariamente fermarsi, invertire la rotta e ripartire: il suo moto è soggetto, cioè, ad accelerazioni, quindi a forze. Il problema, perciò, non è simmetrico e, per trattarlo in maniera corretta, tenendo conto delle fasi di accelerazione dell'astronave, è necessario ricorrere alla teoria della relatività generale (che tratteremo più avanti). Comunque il risultato che si ottiene, tendo conto degli 5<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! effetti della relatività generale, dà ragione a Romolo: è il gemello che ha viaggiato a essere rimasto sorprendentemente più giovane. Esaminiamo ora, sempre in termini paradossali, una conseguenza concettuale del fenomeno della contrazione delle lunghezze. Supponiamo di avere un'automobile lunga 3 m e di possedere un garage, lungo anch'esso 3 m, munito di due porte automatiche, in grado di aprirsi quando la macchina si avvicina e di chiudersi appena essa oltrepassa l'apertura. Immaginiamo che la macchina, guidata dall'osservatore O' (sistema dell'automobile), entri nel garage a una velocità che si avvicina a quella della luce. Per un osservatore O all'interno del locale (sistema del garage) l'automobile si contrae, diventando lunga per esempio 2,5 m, e per qualche istante si trova entro il garage con entrambe le porte perfettamente chiuse (fig. a). Dal punto di vista dell'osservatore O', è invece il garage che si è contratto diventando lungo 2,5 m. Per l'incosciente automobilista il veicolo sporge pericolosamente da entrambe le estremità e, per fortuna, tutte e due le porte rimangono contemporaneamente aperte (fig. b). L'aspetto straordinario di questo paradosso è che entrambi gli osservatori hanno ragione. Per la persona ferma nel garage la circostanza "macchina in garage" e la circostanza "porte chiuse" si verificano contemporaneamente; per l'autista invece no. Come si sa, d'altra parte, la simultaneità è un concetto relativo. Dopo tutto questo parlare di tempo e distanze come grandezze relative che dipendono dal moto dell’osservatore, nasce spontanea la domanda: quale osservatore ha ragione? L’orologio di quale osservatore (Romolo o Remo) segna il tempo reale trascorso? Qual è la lunghezza reale del garage e della macchina? Chi ha la corretta nozione di simultaneità? Secondo la teoria della relatività ristretta, tutti i sistemi di riferimento inerziali sono ugualmente validi. Non si tratta di stabilire se le lunghezze si contraggono realmente e se il tempo rallenta effettivamente. Tutto quanto sappiamo è che osservatori in differenti stati di moto otterranno misure diverse delle grandezze. Da un punto di vista relativistico, non esiste un'unica realtà, ma soltanto delle realtà individuali associate ai singoli osservatori, ognuna dedotta ed elaborata sulla base dei postulati einsteiniani. E così come la teoria della relatività ristretta ci ha liberato dall’etere, afferma anche che non c’è nessun sistema di riferimento definito in quiete che sia privilegiato rispetto a qualsiasi altro. A questo punto è doveroso indicare qualche verifica sperimentale a supporto della teoria della relatività ristretta, per sgombrare il campo dall’idea che tale teoria sia lontana dalla realtà fisica e sia solo il frutto di una mente fantasiosa. La prima verifica, con orologi e persone concretamente viaggianti, del diverso comportamento degli orologi in moto relativo, è stata fatta nel 1971 da J.C. Hafele e R.E. Keating. Utilizzando orologi atomici al cesio, portati in volo intorno al mondo a bordo di un aereo e confrontati con uguali orologi a terra i due ricercatori americani riuscirono a fornire una diretta dimostrazione sperimentale del fenomeno della dilatazione del tempo. Lo stesso risultato è stato anche confermato, con precisione maggiore, dai voli nello spazio di alcuni satelliti militari americani, aventi a bordo sofisticati orologi atomici. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5<8! I raggi cosmici sono costituiti da particelle di elevata energia, soprattutto protoni, che dallo spazio arrivano sulla Terra e, urtando contro i nuclei degli atomi presenti negli strati superiori dell'atmosfera, danno origine a numerose altre particelle più leggere, come i mesoni, una particella instabile che si disintegra in altre particelle spontaneamente dopo un intervallo di tempo che, in media, se misurato in un sistema in cui la particella è a riposo, è pari a 2,2·10-6 s. Questa durata rappresenta una proprietà caratteristica del muone, la cosiddetta vita media, e può essere utilizzata come una specie di orologio che misura l'esistenza della particella. Poiché dalla creazione fino al decadimento, anche viaggiando alla velocità della luce, i mesoni potrebbero percorrere una distanza media non più grande di circa 660 m, ben pochi riuscirebbero ad arrivare sulla Terra. Invece si osserva che essi investono il nostro pianeta in gran numero. La ragione è che queste particelle, prodotte nell'alta atmosfera con velocità prossime alla velocità della luce, vivono, nel sistema di riferimento della Terra, un tempo più lungo di 2,2·10-6 s. L'orologio dei muoni scorre infatti più lentamente per tutti gli osservatori terrestri che vedono le particelle in movimento. Conseguentemente queste possono percorrere distanze maggiori, tanto da attraversare tutto lo spessore dell'atmosfera. Fu il fisico italiano Bruno Rossi (1905-1993) il primo a verificare sperimentalmente che la vita media dei muoni, come previsto dalla teoria della relatività, aumenta all'aumentare della loro velocità. 10.5 L’equazione più famosa della fisica “Mi è venuta in mente anche un’ulteriore conseguenza dell’articolo sull’elettrodinamica. E cioè che il principio di relatività, insieme alle equazioni di Maxwell, richiede che la massa sia una misura diretta dell’energia contenuta in un corpo. La luce trasferisce massa”. Con queste parole, contenute nell’articolo del 1905 L’inerzia di un corpo dipende dal suo contenuto di energia?, Einstein sviluppò una nuova e meravigliosa idea: i concetti di spazio e di tempo sono talmente fondamentali per la descrizione dei fenomeni naturali che una loro modificazione comporta una trasformazione dell’intero schema teorico di cui ci serviamo per rappresentare la natura. La principale conseguenza di tale trasformazione è che la massa non è altro che una forma di energia. Negando il concetto di etere cosmico e restituendo allo spazio interstellare le sue vecchie caratteristiche di spazio vuoto, Einstein dovette preoccuparsi di mantenere la realtà fisica delle onde luminose e dei campi elettromagnetici in generale. Se l’etere non esiste, che cosa circonda le cariche elettriche e i magneti e che cosa si propaga nel vuoto trasportando fino a noi la luce del Sole e delle stelle? Ciò potrebbe accadere solo se si pensa al campo elettromagnetico come a un mezzo materiale anche se con proprietà del tutto diverse dalle comuni sostanze. In fisica l’aggettivo “materiale” è equivalente a “ponderabile”, cioè è riferito a qualcosa dotato di peso o massa. Così le cariche elettriche e i magneti devono essere circondati da qualche sostanza ponderabile, relativamente molto densa nelle loro vicinanze e addirittura evanescente a distanze a grandi distanze. " CONCEZIONE PRE-EINSTENIANA: l’etere è uniformemente distribuito nello spazio e i campi elettrici e magnetici sono considerati come l’effetto della sua deformazione 5<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! " CONCEZIONE POST-EINSTENIANA: il nuovo materiale “etereo” esiste solo in presenza di forze elettriche o magnetiche e non rappresenta il “trascinatore” di queste forze quanto le forze materializzate stesse. Ancora una volta, Einstein deduceva una teoria da principi e postulati, non cercando di spiegare i dati empirici che i fisici sperimentali impegnati nello studio dei raggi catodici avevano cominciato a raccogliere in merito alla relazione tra massa e velocità delle particelle. Coniugando la teoria di Maxwell con la teoria della relatività, iniziò con un esperimento mentale. Calcolò cioè le proprietà di due impulsi di luce emessi in direzioni opposte da un copro in quiete. Quindi calcolò le proprietà di questi impulsi di luce quando vengono osservati da un sistema di riferimento in moto. Di qui pervenne alle equazioni che descrivono la relazione tra velocità e massa. Il risultato era un’elegante conclusione: massa ed energia sono manifestazioni diverse della medesima entità, come lo spazio e il tempo (spaziotempo) o il campo elettrico e il campo magnetico (campo elettromagnetico). C’è una fondamentale intercambiabilità tra esse. In altre parole: la massa di un corpo è una misura del suo contenuto di energia. La formula di cui si servì per descrivere questa relazione era a sua volta sorprendentemente semplice, tale da diventare l’equazione più famosa della scienza: EQUIVALENZA MASSA – ENERGIA E = mc2 Questa legge assicura alla imponderabile energia radiante della fisica classica una corrispondenza con la ordinaria materia ponderabile, e tale relazione tra massa ed energia può essere estesa a tutti gli altri tipi di energia. Così, i campi generati da conduttori carichi e da magneti diventano una realtà fisica ponderabile, anche se la massa del campo elettrico generato da una sfera di rame di un metro di diametro caricata al potenziale elettrico di 1000 V pesa circa 2· 10-22 grammi e l’energia termica possiede una massa ponderabile per cui un litro d’acqua alla temperatura di 100 °C pesa 10-20 grammi di più della stessa quantità di acqua fredda. Viceversa, 1 grammo di materia possiede un potenziale contenuto di materia pari a 9·1013 J. In altri termini, l’energia contenuta nella massa di qualche grammo di materia soddisferebbe gran parte della domanda giornaliera di elettricità della città di New York. L’equivalenza massa-energia può essere verificata in modo quantitativo nei decadimenti radioattivi, nella fissione e fusione nucleare, ed in tanti altri fenomeni riguardanti le particelle elementari. Per esempio, nella fissione di un nucleo di uranio si creano molti frammenti più leggeri, dotati di elevata energia cinetica, la cui massa totale, però, è minore della massa del nucleo di partenza. L’energia corrispondente alla perdita di massa è esattamente uguale all’energia cinetica totale dei frammenti. Così come la reazione di fusione deuterio-trizio produce un atomo di elio /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5<:! più leggero dei reagenti e la mancanza di massa la ritroviamo sotto forma di eccesso di energia. È possibile osservare anche la materializzazione dell’energia: un fotone γ, particella priva di massa e di energia E=hf, può trasformarsi in una coppia di particelle composta da un elettrone (e-) e un positrone (e+ antiparticella dell’elettrone = stesse proprietà dell’elettrone ma con carica positiva): γ=e-+e+ In questo modo la teoria della relatività ha avuto una profonda influenza sulla nostra idea di materia, obbligandoci a modificare in modo sostanziale il concetto di particella. Nella fisica classica, la massa di un corpo era sempre stata associata a una sostanza materiale indistruttibile della quale si pensava fossero fatte tutte le cose. La teoria della relatività ha mostrato che la massa non ha nulla a che fare con una qualsiasi sostanza, ma è una forma di energia. Quest'ultima, poi, è una quantità dinamica associata ad attività o a processi. Il fatto che la massa di una particella sia equivalente a una certa quantità di energia significa che la particella non può più essere considerata un oggetto statico, ma va intesa come una configurazione dinamica, un processo coinvolgente quell'energia che si manifesta come massa della particella stessa. Poiché massa ed energia sono intercambiabili, i due principi classici di conservazione di queste due grandezze (conservazione della massa e dell’energia), non valgono più separatamente. Come la massa può essere distrutta e trasformata in energia, così l’energia può essere distrutta e trasformata in massa. In definitiva basta un unico principio di conservazione: PRINCIPIO DI CONSERVAZIONE DELLA MASSA-ENERGIA La somma complessiva di tutte le energie e di tutte le masse dell’universo deve rimanere inalterata nel tempo. Ma nemmeno Einstein poteva prevedere, nonostante la sua fervida immaginazione, quali conseguenze avrebbe comportato l’utilizzo della sua famosa equazione qualche decennio più tardi, e cioè la costruzione della bomba atomica, il suo sganciamento su Hiroshima e Nagasaki e l’inizio della guerra fredda tra USA e URSS. 5;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! LA TEORIA DELLA RELATIVITA’ GENERALE 10.6 Equivalenza tra gravità ed accelerazione Il 26 aprile 1914, nell’ultimo capoverso di un suo articolo, Sul principio di relatività, viene formulata la seguente domanda: “La teoria della relatività ristretta delineata fin qui è essenzialmente completa o rappresenta solo il primo passo di uno sviluppo destinato ad andare oltre?”. Dopo aver formulato la teoria della relatività ristretta nel 1905, Einstein si era reso conto che era incompleta almeno sotto alcuni aspetti. In primo luogo, postulava che nessuna interazione fisica potesse propagarsi a una velocità superiore a quella della luce, e ciò era in contrasto con la teoria della gravitazione di Newton, la quale concepiva la gravità come una forza che agisce istantaneamente tra corpi distanti. In secondo luogo, valeva solo per moti con velocità costante e quindi non valeva per quelli accelerati. Infine, non includeva la teoria della gravitazione di Newton. La relatività generale, presentata nella sua forma definitiva il 4 novembre 1916 all'Accademia Prussiana, generalizza le teorie di Einstein, nel senso che estende le leggi della relatività ristretta, valide solo per i sistemi in moto relativo rettilineo uniforme, anche ai sistemi non inerziali. Come la relatività galileiana è un caso particolare della relatività ristretta, quest'ultima rappresenta un caso particolare della relatività generale. Il primo passo concettuale verso la generalizzazione della sua teoria della relatività ristretta che lo spinse verso una teoria della gravitazione avvenne alla fine del 1907: “Ero seduto su una sedia all’ufficio brevetti di Berna quando d’improvviso mi balenò in mente un pensiero. Se una persona è in caduta libera, non avverte il proprio peso (…) Infatti, per un osservatore che cada liberamente dal tetto di una casa, non esiste, almeno nelle vicinanza, alcun campo gavitazionale. In effetti, se l’osservatore lascia cadere dei corpi, questi permangono in uno stato di quiete o di moto uniforme rispetto a lui, indipendentemente dalla loro particolare natura chimica o fisica (in questo genere di considerazioni, ovviamente si trascura la resistenza dell’aria). L’osservatore di conseguenza ha il diritto di interpretare il proprio stato come uno stato di quiete. Grazie a questa idea, quella singolarissima legge sperimentale secondo cui, in un campo gravitazionale, tutti i corpi cadono con la stessa accelerazione, veniva improvvisamente ad acquisire un significato fisico profondo. Precisamente, se vi fosse anche un solo oggetto che cadesse nel campo gravitazionale in modo diverso da tutti gli altri, allora, grazie ad esso, un osservatore potrebbe accorgersi di trovarsi in un campo gravitazionale e di stare cadendo in esso. Se però un oggetto del genere non esiste, come si è mostrato sperimentalmente con grande precisione, allora l’osservatore non dispone di elementi oggettivi che gli consentano di stabilire che si trova in caduta libera in un campo gravitazionale- piuttosto ha il diritto di considerare il proprio stato come uno stato di quiete e il proprio spazio ambiente come libero da campi, almeno per quanto riguarda la gravitazione. L’indipendenza dell’accelerazione di caduta dalla natura dei corpi, ben nota sperimentalmente, è pertanto un solido argomento in favore dell’estensione del postulato di relatività a sistemi di coordinate in moto non uniforme l’uno relativamente all’altro”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;;! La logica concettuale della relatività generale è fondamentalmente espressa dal cosiddetto principio di equivalenza. Per illustrare questo principio cominciamo con la constatazione che, come aveva osservato Newton, poiché la massa inerziale (costante di proporzionalità fra la forza applicata e accelerazione impressa a un corpo) e la massa gravitazionale (proprietà posseduta dai corpi dalla quale traggono origine le forze gravitazionali) sono uguali, sebbene le due grandezze siano definite in modo diverso, tutti i corpi, in un campo gravitazionale uniforme, cadono con la stessa accelerazione. Perciò, in un laboratorio collocato all'interno di un campo gravitazionale uniforme, il comportamento degli oggetti materiali è identico al comportamento degli stessi oggetti quando si trovano, in assenza di gravità, in un laboratorio sottoposto a un'accelerazione costante. In un dato punto dello spazio, la gravità e un'opportuna accelerazione del riferimento producono dunque effetti del tutto equivalenti. Questa equivalenza tra massa inerziale e massa gravitazionale ovviamente era qualcosa di più di una semplice coincidenza, ma nessuno ne aveva spiegato esaurientemente la ragione. Insoddisfatto di una situazione in cui c’erano due spiegazioni per quello che sembrava un unico fenomeno, Einstein cercò di approfondire la questione servendosi di uno fra i più famosi esperimenti mentali einsteiniani (gedankenexperiment). Consideriamo un osservatore dentro un ascensore fermo rispetto alla Terra. Ogni corpo, indipendentemente dalla sua natura, è soggetto alla stessa accelerazione di gravità g. Supponiamo che, a causa della rottura del cavo di sostegno, l'ascensore precipiti in caduta libera. Durante il volo lo sperimentatore constata che tutti i corpi, e lui stesso, galleggiano privi di peso. Trasportato da un'astronave, immaginiamo poi il nostro ascensore localizzato nello spazio lontano da qualsiasi corpo materiale. Anche in questo caso lo sperimentatore non avverte il peso degli oggetti, né la reazione del pavimento dell'ascensore sotto i suoi piedi. Egli non riesce a distinguere questa situazione da quella precedente, nel senso che nessuna esperienza fatta all'interno dell'ascensore gli permette di capire se sarà destinato a precipitare al suolo o a galleggiare eternamente nello spazio. Se, infine, l'ascensore, spinto dai motori dell'astronave, si muove verso l'alto con un'accelerazione pari, in modulo, all'accelerazione gravitazionale che si avverte sulla superficie della Terra, l'osservatore stima di trovarsi nelle stesse condizioni all’interno dell’ascensore fermo rispetto alla Terra. È l'ascensore che sta accelerando nello spazio, o è un effetto gravitazionale? Nessuna esperienza eseguita dentro l'ascensore può avvalorare una delle due alternative a scapito dell'altra. Possiamo dunque 5;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! affermare che, con un opportuno riferimento accelerato, è possibile eliminare o simulare un campo gravitazionale reale. In sostanza, gli effetti locali della gravità e dell’accelerazione sono equivalenti. Perciò enunciamo il principio di equivalenza come segue: PRINCIPIO DI EQUIVALENZA Un campo gravitazione omogeneo è completamente equivalente ad un sistema di riferimento uniformemente accelerato. In altri termini, usando le parole dello stesso Einstein: “Gli effetti che ascriviamo alla gravità e gli effetti che ascriviamo all’accelerazione sono entrambi prodotti da un’identica struttura (campo inerzio-gravitazionale)”. Questo principio divenne la base del suo tentativo di generalizzare la teoria della relatività in modo che includesse anche i moti in sistemi non inerziali, cioè accelerati. Ma questa analogia tra i fenomeni meccanici che si registrano all'interno di una nave spaziale accelerata e nel campo gravitazionale prodotto dalla massa della Terra è puramente casuale o ha una più profonda connessione con la natura delle forze gravitazionali? Einstein era sicuro che si trattasse piuttosto della seconda ipotesi e si domandò come si sarebbe comportato un raggio di luce entro una cabina accelerata. In sostanza, i punti chiave del ragionamento di Einstein che lo portarono a tale conclusione furono: 1. la gravità è equivalente all'accelerazione; 2. la caduta libera può essere definita come uno stato con accelerazione nulla; 3. un osservatore in caduta libera è equivalente a un osservatore in moto uniforme (in assenza di campo gravitazionale), cosicché non deve essere in grado di stabilire che sta cadendo; 4. la gravità deve esercitare sulla radiazione lo stesso effetto che esercita sulla massa (altrimenti l'osservatore potrebbe sfruttare ingegnosamente la luce per stabilire che sta cadendo); ciò significa che la luce segue una traiettoria curva in presenza di gravità. Supponiamo che un riflettore sia appeso alla parete della cabina e invii un fascio di luce attraverso il locale. Per osservare il passaggio del fascio disponiamo sul percorso un gran numero di lastre di vetro fluorescente tra di loro equidistanti. Se la cabina non è accelerata i punti nei quali il fascio di luce attraverserà le lastre di vetro saranno allineati e sarà pressoché impossibile stabilire se il razzo sia fermo oppure si stia movendo rispetto alle stelle fisse. La situazione sarà invece molto diversa nel caso in cui la cabina si muova con accelerazione uniforme a. Il tempo necessario perché la luce raggiunga la prima, la seconda, la terza... lastra di vetro aumenterà infatti in progressione aritmetica 1, 2, 3,... mentre lo spostamento del razzo uniformemente accelerato aumenta in progressione geometrica 1, 4, 9,... Le /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;4! tracce che il fascio di luce lascerà dunque sulle lastre fluorescenti formeranno una parabola, cioè la stessa linea che è la traiettoria di un sasso lanciato orizzontalmente. Se l'equivalenza tra l'accelerazione e la gravità si estende ai fenomeni elettromagnetici i raggi luminosi devono dunque venire deviati dal campo gravitazionale. A causa della elevata velocità della luce, la deviazione nel campo gravitazionale terrestre di un raggio luminoso è troppo piccola per essere osservata (5·10-12 cm). Secondo Einstein ci si deve aspettare una deflessione notevole dei raggi luminosi in prossimità del Sole (5·10-6 radianti, cioè dell’ordine di 1 secondo angolare). Per verificare sperimentalmente quest’affermazione, il famoso astronomo inglese Sir Arthur Eddington (1882-1944), nel 1919 in concomitanza di un’eclisse solare, organizzò una spedizione scientifica in Africa per studiare effettivamente se la luce stellare, in prossimità del Sole, veniva deviata. Ebbene, i risultati confermarono in pieno le previsioni di Einstein. Se il principio di equivalenza non riguarda solo i fenomeni meccanici, ma tutti i fenomeni fisici, allora il principio di relatività può essere esteso a tutti i sistemi, compresi quelli non inerziali, per cui: PRINCIPIO DI RELATIVITA’ GENERALE Le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento. Ossia: se non c’è modo di differenziare i sistemi di riferimento in moto, allora in ognuno di essi le leggi della fisica devono funzionare esattamente nello stesso modo. Con la relatività generale Einstein superò il primo postulato della relatività ristretta in quanto i sistemi di riferimento inerziali perdono il loro ruolo privilegiato e tutti i sistemi assumono pari dignità. Infine, poiché l’universo fisico descritto da un riferimento accelerato è equivalente a un universo soggetto a un campo gravitazionale, la teoria della relatività generale è al tempo stesso una teoria della gravitazione. 10.7 La gravitazione e la curvatura dello spaziotempo Il principio di equivalenza ha una conseguenza veramente inaspettata: nella logica relativistica non c'è più bisogno di una forza gravitazionale. La gravità diventa una proprietà geometrica dello spaziotempo. La presenza di un oggetto dotato di massa modifica le proprietà geometriche dello spazio quadridimensionale, nel senso che tende a incurvarlo. Reciprocamente, una curvatura del cronotopo (spaziotempo) einsteiniano sta a indicare la presenza di un campo la cui sorgente è la massa. Poiché nella relatività generale la massa rappresenta una forma di energia, le proprietà geometriche dello spaziotempo sono determinate, oltre che dalla materia ordinaria, dalla densità di energia dell'universo; ogni forma di energia, come per esempio la radiazione, produce cioè un campo gravitazionale, che si manifesta come una curvatura del cronotopo. Poiché l’intera struttura dello spaziotempo dipende dalla distribuzione di materia nell’universo, ciò significa che il tempo, inseparabile dallo spazio, scorre con ritmi differenti in punti diversi dell’universo, e che il concetto di spazio vuoto perde di 5;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! significato. Tale curvatura influenza sempre la dinamica degli oggetti: ogni qualvolta un corpo penetra in un campo gravitazionale, si muove come una particella libera lungo la traiettoria più breve possibile, che chiamiamo con il termine matematico di curva geodetica o semplicemente geodetica dello spaziotempo. Mentre in uno spazio euclideo le traiettorie descritte da corpi non soggetti a forze sono linee rette, in uno spazio curvo, per esempio sopra una superficie sferica, le geodetiche sono archi di circonferenze massime, cioè archi contenuti sui piani che passano per il centro della sfera . La meccanica newtoniana concepisce uno spazio piano entro il quale i corpi interagiscono mediante forze attrattive di natura gravitazionale. Nella relatività einsteniana, invece, se consideriamo due masse puntiformi, nessuna delle due esercita forze sull'altra. Entrambe, però, incurvano lo spazio e, se possono muoversi, seguono due linee geodetiche: in pratica, le stesse traiettorie previste dalle forze gravitazionali della meccanica classica. Poiché durante il moto, come si nota anche nella figura, la distanza fra le due masse tende a decrescere, si ha l'impressione che agisca una forza attrattiva. Questa invece non esiste: le traiettorie descritte dipendono solamente dalla curvatura dello spaziotempo provocata dalle masse. Come afferma un grande esperto delle teorie relativistiche, lo scienziato americano John A. Wheeler (1911): "la materia dice allo spazio come incurvarsi e lo spazio dice alla materia come muoversi". Consideriamo un foglio di gomma abbastanza esteso che possa essere deformato da una causa esterna. Quando la superficie del foglio è perfettamente piana, essa può simulare lo spazio in assenza di gravità. Se ora poniamo in un punto del foglio un oggetto materiale, questo provoca una depressione più o meno profonda e il foglio diventa incurvato. La superficie deformata del foglio è una rappresentazione degli effetti gravitazionali. Essi sono più intensi dove la curvatura è più accentuata; diminuiscono dove il foglio, lontano dall'oggetto deformante, tende ad assumere una configurazione piana. Supponiamo di lanciare nell'universo einsteiniano, idealmente rappresentato dalla superficie incurvata, alcune sferette con diversa velocità iniziale. Come rappresentato dalle linee tracciate in rosso, le sferette rotolano descrivendo delle traiettorie simili a quelle seguite dai satelliti intorno alla Terra o dai pianeti intorno al Sole. Nota la distribuzione delle masse, la geometria dello spaziotempo può essere determinata mediante procedimenti matematici molto complessi basati sulle cosiddette equazioni di campo della gravitazione, che rappresentano la base teorica fondamentale della relatività generale. Le loro soluzioni possono essere utilizzate per dedurre un modello cosmico capace di svelare una larga parte della storia dell’universo. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;6! 10.8 La geometria non euclidea L’estensione della teoria della relatività speciale con l’inclusione della gravità non avvenne in maniera semplice e diretta, soprattutto per il fatto che l’inclusione della gravità richiedeva ulteriori strumenti matematici di cui Einstein non disponeva ancora. Ma soprattutto, integrare la gravità nella teoria della relatività richiedeva il sacrificio di un concetto che sembrava inattaccabile. La relatività speciale si fonda sulla premessa che lo spazio sia piano, niente più che una scenografia dove si svolge l’azione, identificata dalle coordinate spaziali; ed in più, su questo piano valgono le regole della geometria euclidea. E invece non lo è. L’intuizione fondamentale e geniale di Einstein fu che lo spazio non può essere relegato sullo sfondo, ma è un’entità in continuo mutamento, dinamica e attiva come la materia e l’energia che si muovono al suo interno. Non solo, ma questo spazio, insieme al tempo, interagiscono con la materia e l’energia modificandosi a vicenda. A questo punto, assodato che la presenza di massa o energia modifica lo spaziotempo, si rendeva necessaria una nuova forma di geometria, in quanto il percorso più breve attraverso una regione dello spazio che sia incurvata dalla gravità potrebbe avere un aspetto del tutto diverso dalle linee rette della geometria euclidea. Fino ad allora, il successo scientifico di Einstein si era basato sull’eccezionale capacità di individuare i principi fisici fondamentali ed aveva lasciato ad altri il compito di trovare le espressioni matematiche migliori di tali principi, come aveva fatto Minkowski nel caso della relatività ristretta. Ma intorno al 1912 Einstein si era convinto che la matematica poteva essere un potente strumento per scoprire, e non soltanto descrivere, le leggi di natura. La matematica era il copione della natura. Come afferma il fisico James Hartle: “L’idea centrale della relatività generale è che la gravità derivi dalla curvatura dello spaziotempo. La gravità è geometria”. La geometria euclidea descrive le superfici piane, ma non vale sulle superfici curve. J. C. Friedrich Gauss (1777-1855) e altri avevano elaborato differenti tipi di geometria che erano in grado di descrivere la superficie delle sfere e altre superfici curve. Bernhard Riemann (1826-1866) si spinse ancora più in là, escogitando un modo per descrivere una superficie in qualunque maniera cambiasse la sua geometria, anche se variava da sferica a piana a iperbolica passando da un punto a quello contiguo. Andò anche oltre la considerazione della curvatura di superfici semplicemente bidimensionali e, estendendo i risultati di Gauss, esplorò i vari modi in cui la matematica poteva descrivere la curvatura dello spazio tridimensionale e perfino di quello quadridimensionale. Possiamo immaginare una linea curva o una superficie curva, ma è difficile farci un’idea dell’aspetto che avrebbe uno spazio tridimensionale curvo, per non parlare di uno quadridimensionale curvo. Ma se vogliamo estendere il concetto di curvatura in un numero diverso di dimensioni, ciò comporta l’uso del concetto di metrica, che specifica come calcolare la distanza tra due punti nello spazio curvo. Su una superficie piana note le coordinate x e y di due punti, è facile calcolare la loro distanza, basta utilizzare il teorema di Pitagora. Ma per calcolare la distanza tra due punti situati su una superficie curva, Riemann utilizzò quello che si chiama tensore. Nella geometria euclidea per descrivere un vettore abbiamo bisogno più di un unico elemento, come la direzione o l’intensità. Nella geometria non euclidea, dove lo spazio è curvo, occorre qualcosa di più generale, ossia di un oggetto con più componenti, ossia 5;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! di un tensore. Basti pensare che per lo spazio quadridimensionale, ossia per lo spaziotempo, il tensore metrico richiede dieci componenti indipendenti. Riemann contribuì a elaborare questo concetto di tensore metrico, indicato con g e avente sedici componenti di cui dieci indipendenti, che potevano essere usate per definire e descrivere una distanza in uno spaziotempo quadridimensionale curvo. L’aspetto utile di questo tensore è che è generalmente covariante, ed era una proprietà importante per Einstein nel suo tentativo di generalizzare la teoria della relatività. Significava che le relazioni tra le componenti rimanevano immutate anche quando c’erano variazioni o rotazioni arbitrarie nel sistema di coordinate spaziotemporali. In altre parole, l’informazione codificata in questi tensori poteva subire una varietà di trasformazioni associate a un cambiamento del sistema di riferimento, ma le leggi fondamentali che governavano la relazione reciproca tra le componenti rimanevano le stesse. µν Lo scopo di Einstein nella costruzione della teoria della relatività generale era di trovare le equazioni matematiche che descrivono due processi complementari: ! quello in cui un campo gravitazionale agisce sulla materia, dicendole come muoversi; ! quello in cui la materia, a sua volta, genera i campi gravitazionali nello spaziotempo, dicendogli come incurvarsi. La sua sorprendente intuizione fu che la gravità poteva essere definita come la curvatura dello spaziotempo, ossia una proprietà geometrica dello spaziotempo, e quindi, come tale, poteva essere rappresentata da un tensore metrico. Qualunque equazione del campo gravitazionale escogitasse, avrebbe dovuto soddisfare i seguenti requisiti fisici: 1. Avrebbe dovuto ridursi alla teoria newtoniana nel caso particolare di campi gravitazionali deboli e statici; 2. Avrebbe dovuto salvaguardare le leggi della fisica classica, in primo luogo la conservazione dell’energia e della quantità di moto; 3. Avrebbe dovuto soddisfare il principio di equivalenza, ossia che le osservazioni compiute da un osservatore in moto uniformemente accelerato sarebbero equivalenti a quelle compiute da un osservatore in quiete in un campo gravitazionale confrontabile. Le equazioni di campo della gravitazione, che riuscì a formulare nel 1915, hanno la seguente forma: EQUAZIONI DI CAMPO DELLA GRAVITAZIONE R µν − 1 gµνR = 8πTµν ⇒ Gµν = 8πTµν 2 G = tensore di Einstein; R = tensore di Ricci; g = tensore metrico; R = scalare di Ricci (traccia del tensore di Ricci). µν µν " µν Il primo membro dell’equazione condensa in sé tutta l’informazione sul modo in cui la geometria dello spaziotempo è deformata e incurvata dalla massa e dall’energia; /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! " 5;8! Il secondo membro descrive il movimento della materia (massa ed energia) nel campo gravitazionale. L’interazione tra i due membri mostra come massa ed energia curvano lo spaziotempo e come, a sua volta, questa curvatura influenza i moti di massa ed energia. Nelle parole del fisico Brian Green cogliamo l’essenza di questi concetti contenuti nelle equazioni di campo: “Spazio e tempo diventano attori nell’evoluzione del cosmo, e assumono per così dire vita propria. La materia presente qui causa una distorsione dello spazio lì, la quale a sua volta muove la materia laggiù, il che provoca un’ulteriore distorsione dello spazio, e così via. La relatività generale è, in sostanza, la coreografia della danza cosmica che vede quali protagonisti spazio, tempo, materia ed energia”. All'età di trentasei anni, Einstein aveva prodotto una delle più fantasiose e spettacolari revisioni dei nostri concetti sull'universo che la storia ricordi. La teoria della relatività generale non era soltanto l'interpretazione di alcuni dati sperimentali o la scoperta di un insieme di leggi più precise. Era un modo interamente nuovo di considerare la realtà. Newton aveva lasciato in eredita ad Einstein un universo in cui il tempo aveva un'esistenza assoluta e scorreva ticchettando indipendentemente dai corpi e dagli osservatori, e in cui anche lo spazio aveva un'esistenza assoluta. La gravità si pensava fosse una forza che le masse esercitavano l'una sull'altra attraverso lo spazio vuoto in un modo piuttosto misterioso. All'interno di questa cornice i corpi obbedivano a leggi meccaniche che si erano dimostrate straordinariamente precise, diremmo quasi perfette, nello spiegare ogni cosa, dalle orbite dei pianeti alla diffusione dei gas, fino ai moti convulsi delle molecole e alla propagazione delle onde sonore (ma non della luce). Con la teoria della relatività ristretta Einstein aveva mostrato che spazio e tempo non avevano esistenze indipendenti, ma costituivano la struttura unica dello spaziotempo. Ora, con la versione generale della teoria, la struttura dello spaziotempo divenne qualcosa di più di un semplice contenitore di corpi ed eventi: un’entità dotata di una propria dinamica, che era determinata dal moto dei corpi al suo interno, e a sua volta contribuiva a determinare tale moto. Il curvarsi e incresparsi della struttura dello spaziotempo spiegava la gravità, la sua equivalenza all'accelerazione e, a detta di Einstein, giustificava la relatività generale di tutte le forme di moto. Secondo Paul Dirac, uno dei pioniere della meccanica quantistica, la relatività generale era: “probabilmente la massima scoperta scientifica mai fatta”. Un altro dei giganti della fisica del XX secolo, Max Born, la definì: “la più grande impresa del pensiero umano per la conoscenza della natura, la più ammirevole commistione di acume filosofico, d'intuito fisico, e di abilità matematica”. 10.9 L’immagine del mondo di Einstein Da Aristotele a Cartesio, cioè per due millenni, l’idea democritea di uno spazio come entità diversa, separata dalle cose, non era mai stata accettata come ragionevole. Per Aristotele, come per Cartesio, le cose sono estese, ma l’estensione è una proprietà delle cose: non esiste estensione senza una cosa estesa. Se fra due cose non c’è nulla, ragionava Aristotele, come fa ad esserci lo spazio? L’idea di uno spazio vuoto nel quale si muovono gli atomi, posto alla base dell’immagine del mondo di Democrito, in bilico tra “l’Essere” e il “Non Essere”, non brillava certo in chiarezza. 5;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Newton era tornato all’idea di Democrito secondo cui i corpi si muovono nello spazio di moto rettilineo uniforme fino a quando le loro traiettorie non vengono curvate dall’azione di una forza. Newton aveva faticato non poco a superare la resistenza alla sua idea di resuscitare la concezione democritea dello spazio. Solo l’efficacia straordinaria delle sue equazioni, la loro capacità di predizione, aveva finito per tacitare le critiche. Ma di cosa è fatto questo spazio contenitore del mondo? Che cos’è lo spazio? Per Newton era il sensorium dei. Ma la spiegazione non sembrava per niente convincente, e i dubbi dei filosofi sulla ragionevolezza della nozione newtoniana di spazio persistevano, e Einstein, conoscitore della filosofia, ne era consapevole. Einstein raccoglie dunque non uno, ma due problemi. Primo: come descrivere il campo gravitazionale? Secondo: che cos’è lo spazio di Newton? E le risposte sono: le equazioni del campo gravitazionale; lo spazio di Newton è il campo gravitazionale. Quindi, il mondo è fatto solo di particelle e campi, e nient’altro. In questa immagine del mondo non c’è posto per lo spazio come ingrediente addizionale. A differenza dello spazio di Newton, che è piatto e fisso e non è influenzato dalla presenza dei corpi, il campo gravitazionale è incurvato dalla massa e dall’energia e, a sua volta, influenza il moto della materia (massa e energia). Lo spazio (o meglio lo spaziotempo), ossia il campo gravitazionale, non è più qualcosa di diverso dalla materia. E’ una delle componenti “materiali” del mondo, insieme al campo elettromagnetico. È un’entità reale che ondula e s’incurva, e costringe i pianeti a ruotare intorno al Sole o al tempo di fermarsi in un buco nero. Lo spaziotempo di Einstein, però, non è curvo nel senso che si curva dentro un altro spazio più grande. E’ curvo nel senso che la sua geometria intrinseca, cioè la rete delle distanze fra i suoi punti, non è la stessa di uno spazio piano. In sintesi è uno spazio in cui non vale il teorema di Pitagora. 10.10 Le principali verifiche sperimentali della relatività generale " LA PRECESSIONE DELL’ORBITA DI MERCURIO Fra i primi fatti sperimentali che hanno trovato spiegazione grazie alla teoria della relatività generale, e che pertanto rappresentano una conferma della teoria, sono le anomalie, da tempo riscontrate, nel moto di alcuni pianeti rispetto alle orbite previste dalle leggi newtoniane. Ci riferiamo, in particolare, all'inspiegabile lenta rotazione, fra una rivoluzione e la successiva, dell'asse dell'orbita del pianeta Mercurio. Nel 1860 il matematico francese Urbain Le Verrier (1811-1877), per giustificare la misteriosa traiettoria descritta /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;:! dal pianeta più vicino al Sole, ipotizzò la presenza di un altro pianeta che ne perturbava le orbite. Nonostante le molte ricerche astronomiche, il presunto pianeta, già battezzato Vulcano, non fu mai trovato. Il comportamento di Mercurio appariva strano a causa dell'impossibilità di calcolare con sufficiente precisione le sue orbite in base alla meccanica newtoniana. Solo dopo aver applicato la fisica relativistica ogni anomalia scomparve definitivamente. " LA DEFLESSIONE DEI RAGGI LUMINOSI PER EFFETTO GRAVITAZIONALE Una notevole conseguenza del principio di equivalenza riguarda la propagazione della luce. Einstein indicò il Sole come sorgente di un campo gravitazionale sufficientemente intenso da produrre effetti osservabili sulle traiettorie dei raggi di luce che, emessi da stelle lontane, passano nelle sue vicinanze. A causa dell'interazione della luce con la massa solare, la posizione apparente di una sorgente emittente deve discostarsi dalla sua posizione reale. La verifica sperimentale di questo effetto è ostacolata dal fatto che, in condizioni normali, non si riesce a osservare la direzione dei raggi che passano vicino alla superficie solare, perché essi vengono mascherati dall'intensa luminosità del Sole. L'unica soluzione è quella di osservare la luce di una stella, di cui sia nota la posizione nella volta celeste, quando questa luce sfiora il Sole durante un'eclisse totale. Mediante le attuali tecnologie fotografiche e radiointerferometriche è infatti possibile confrontare, durante la fase di oscurità provocata da un'eclisse solare, la posizione di alcune stelle lontane visibili dietro al Sole con la posizione che le stesse stelle hanno quando il Sole non si trova allineato con esse. La prima verifica sperimentale degli effetti gravitazionali del Sole sui raggi luminosi provenienti dalle stelle fu effettuata nel 1919. La Royal Astronomical Society organizzò appositamente una spedizione, proposta e diretta dall'astrofisico inglese Arthur Eddington, durante un'eclisse totale perfettamente visibile dall'isola di Principe, isolotto portoghese situato al largo delle coste occidentali dell'Africa. Ancora una volta i fatti dettero ragione a Einstein. Un'altra probabile conferma della deflessione della luce è rappresentata dalla scoperta delle cosiddette lenti gravitazionali. Consideriamo un massiccio oggetto celeste, per esempio una galassia G relativamente vicina alla Terra: poiché la sua massa incurva la traiettoria dei raggi che passano nelle sue vicinanze, essa si comporta come una normale lente di vetro che mette a fuoco o distorce un oggetto. L'effetto, analogo alla deviazione rilevata da Eddington dei raggi luminosi da parte del Sole, è osservato con corpi celesti di natura tuttora misteriosa: i quasar. Scoperti intorno agli 5=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! anni Ottanta, questi oggetti sono in grado di emettere segnali sia radio sia luminosi con eccezionale intensità. Alcuni quasar, osservati con potenti telescopi, appaiono sdoppiati e le due immagini presentano esattamente le stesse caratteristiche e le stesse proprietà astrofisiche. Ciò viene interpretato ipotizzando che fra il quasar e la Terra esista qualche massiccio oggetto galattico che si comporta come una lente gravitazionale. Un altro esempio è la cosiddetta “croce di Einstein”. Le quattro macchie luminose esterne sono interpretate come immagini dello stesso quasar prodotte, per effetto della deflessione gravitazionale della luce, da una galassia visibile al centro. Se la galassia fosse perfettamente simmetrica, l’immagine del quasar assume la forma di anello. " LO SPOSTAMENTO DELLE RIGHE SPETTRALI NEI CAMPI GRAVITAZIONALI In base alle teorie relativistiche, quando una radiazione elettromagnetica, per esempio la luce, si allontana da un campo gravitazionale, specie se questo è sufficientemente intenso, consuma, come un razzo che si allontana dalla Terra, parte della sua energia. Poiché la radiazione deve continuare a muoversi alla velocità c delle onde elettromagnetiche, la sua perdita di energia si manifesta attraverso una diminuzione di frequenza, o, il che è lo stesso, con un aumento della lunghezza d'onda. La variazione di frequenza può essere messa in evidenza misurando, mediante tecniche spettroscopiche, il cosiddetto redshift (spostamento verso il rosso) delle righe spettrali della radiazione quando si allontana dalla sorgente gravitazionale che la emette. Questo spostamento verso il rosso viene detto “gravitazionale” per distinguerlo da quello “cosmologico” dovuto al moto di espansione dell'universo. In prima approssimazione la variazione di frequenza è tanto maggiore quanto più grande è la massa del corpo che emette la radiazione e quanto più piccole sono le sue dimensioni. " IL RALLENTAMENTO DEL RITMO DEGLI OROLOGI La frequenza della luce, come vedremo nella meccanica quantistica, è determinata da certi parametri energetici che caratterizzano gli atomi che la emettono. Essa può essere pensata con una frequenza propria di vibrazione degli atomi e, da questo punto di vista, scandisce il ritmo degli orologi atomici. Poiché la gravità perturba i costituenti della materia responsabili dell’emissione luminosa, ci si aspetta che gli orologi marcino con ritmi diversi a seconda dell'intensità del campo in cui sono immersi. Precisamente, più intenso è il campo, più lenti, stando alle previsioni relativistiche, devono essere gli orologi. Per esempio, la teoria prevede che un orologio posto sul Sole accumuli rispetto a un identico orologio situato sulla Terra, un ritardo di un minuto all'anno. Su una stella di neutroni, la cui densità può assumere valori dell'ordine di 1015 g/cm3, il ritardo in un anno sarebbe di alcuni giorni. Inversamente, a grandi altezze dalla superficie terrestre, il tempo dovrebbe scorrere più velocemente che a bassa quota, dove la gravità è più intensa. Una delle prime verifiche di questa suggestiva previsione è stata fatta dall’Istituto Elettrotecnico Galileo Ferraris di Torino in collaborazione con il Laboratorio Cosmologico del C.N.R., confrontando due orologi atomici identici, uno a Torino e l'altro a Plateau Rosa. Come rilevato dopo una lunga osservazione, il secondo orologio aveva un ritmo più veloce del primo di circa 30 miliardesimi di secondo al giorno. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5=;! Numerosi altri esperimenti, effettuati sia in altri laboratori, sia soprattutto su satelliti artificiali, hanno confermato, in perfetto accordo con la logica relativistica, queste lievi differenze temporali. " LA PROBABILE ESISTENZA DELLE ONDE GRAVITAZIONALI Un altro fenomeno previsto dalla relatività generale, attualmente ancora al limite della credibilità a causa di molteplici effetti perturbativi che ne ostacolano la verifica sperimentale, è l'esistenza di onde gravitazionali provenienti da remote sorgenti dello spazio cosmico. Come le cariche elettriche accelerate emettono onde elettromagnetiche, anche una massa accelerata deve irraggiare, secondo la teoria einsteiniana, onde gravitazionali che si propagano nello spaziotempo con la velocità della luce. In molti laboratori sono in corso diversi esperimenti per tentare di captare i segnali di qualche macroscopica increspatura generata da un violento e rapido spostamento di materia nel tessuto geometrico dello spaziotempo. Per molti aspetti la gravità resta ancora un argomento ricco di misteri, anche se molti, dai tempi di Newton, sono stati risolti. I Principia della meccanica newtoniana conservano comunque, anche dopo l'avvento della relatività generale, una loro validità ogni qualvolta gli effetti gravitazionali non sono molto intensi, cioè quando il cronotopo relativistico tende a diventare piano. Nell'ambito del sistema solare, per esempio, il modello newtoniano riesce con sufficiente approssimazione a calcolare il moto dei pianeti e gli effetti gravitazionali locali. Quando, invece, gli oggetti stellari sono molto densi, o dotati di massa molto grande, i fenomeni gravitazionali sono così intensi e talvolta così catastrofici che solo le più alte leggi della relatività generale riescono a fornire un valido mezzo teorico per comprenderli. La teoria prevede la possibilità che si verifichi una situazione veramente incredibile, rappresentata da un limite critico del potenziale gravitazionale per cui ogni dimensione si annulla, ogni orologio si ferma e la velocità della luce tende a zero. Un oggetto enormemente denso che raggiunge queste condizioni prende il nome di buco nero. Si tratta di un aspirapolvere cosmico che ingoia tutto e che diventa invisibile perché luce e materia non riescono a uscire da esso. Secondo i fisici, la presenza di un simile "vampiro" si manifesta attraverso le intense forze gravitazionali che si estrinsecano sugli oggetti che vengono a trovarsi nelle sue vicinanze. Esistono forti indizi della probabile esistenza di buchi neri all'interno di molte galassie. 10.11 L’universo di Einstein La cosmologia è lo studio dell’universo nel suo insieme, dalle sue dimensioni e della sua forma, della sua storia e del suo destino, dall’inizio alla fine del tempo. Prima che Einstein avanzasse la sua teoria della relatività generale, l’universo era concepito 5==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! come un’isola di materia fluttuante in uno spazio infinito. E lo spazio era solo un ente di ragione, ossia il non-essere considerato come possibilità di pervenire ad essere, se mai una qualche materia giungesse un giorno ad occuparlo. Spazio infinito, perché, se lo si considerasse finito, bisognerebbe chiedersi che cosa ci sarebbe al di là di codesto spazio. Però l’universo doveva essere finito, poiché altrimenti, anche la materia dell’universo sarebbe infinita e, di conseguenza, infinita sarebbe pure la forza gravitazionale, in sintonia con la legge della gravitazione universale. Con la relatività generale i costituenti del cosmo, materia ed energia, o meglio la loro somma, dettano la forma, la curvatura complessiva, dell’universo stesso, per cui con le equazioni di campo della teoria della relatività generale, Einstein gettò le basi dello studio della natura dell’universo, divenendo così il principale fondatore della cosmologia moderna. È possibile, infatti, formulare una descrizione relativistica dell’universo che si accorda con le attuali osservazioni astronomiche, e che è in grado da un lato di fare previsioni sull’evoluzione futura dell’universo, dall’altro di ricostruire la sua storia passata ed, eventualmente, di darci delle informazioni sul processo di nascita dell’universo stesso. Ad aiutare Einstein in questa impresa, almeno nelle prime fasi, fu Karl Schwarzschild (1873-1916), che intraprese il tentativo di applicare la teoria di Einstein ai corpi nello spazio. I primi calcoli di Schwarzschild si concentravano sulla curvatura dello spaziotempo all'esterno di una stella sferica non rotante e su che cosa sarebbe accaduto all'interno della stella. In entrambi i casi sembrava possibile, anzi inevitabile, qualcosa di singolare. Se tutta la massa di una stella (o di un qualsiasi corpo) veniva compressa in una regione di spazio sufficientemente piccola, definita da quello che divenne noto come raggio di Schwarzschild, tutti i calcoli sembravano perdere di senso. Al centro lo spaziotempo si sarebbe incurvato su se stesso in misura infinita. Nel caso del nostro Sole, accadrebbe se tutta la sua massa fosse compressa entro un raggio di meno di tre chilometri. Nel caso della Terra, accadrebbe se tutta la sua massa fosse concentrata entro un raggio di poco meno di un centimetro. Che cosa significherebbe? Nei casi descritti, nulla che si trovasse entro il raggio di Schwarzschild potrebbe sfuggire all'attrazione gravitazionale, neppure la luce o una qualsiasi altra forma di radiazione. Anche il tempo parteciperebbe della curvatura dilatandosi fino ad arrestarsi. In altre parole, un viaggiatore che si avvicinasse al raggio di Schwarzschild sembrerebbe, a chi lo osservasse dall'esterno, irrigidirsi fino a un arresto totale. Come gli scienziati avrebbero scoperto dopo la morte di Einstein, la strana teoria di Schwarzschild era corretta. Le stelle potevano subire il collasso e generare tale fenomeno, e in realtà lo facevano spesso. Wheeler chiamò quegli oggetti buchi neri, e da allora essi sono diventati una branca della cosmologia. Dyson afferma: “Sono gli unici luoghi dell'universo in cui la teoria della relatività di Einstein mostra tutta la sua potenza e il suo splendore. Qui, e in nessun altro posto, lo spazio e il tempo perdono la loro individualità e si fondono in una struttura quadridimensionale fortemente incurvata, delineata con precisione dalle equazioni di Einstein”. Nel 1917 Einstein pubblica una nuova idea sull’universo nell’articolo Considerazioni cosmologiche sulla teoria della relatività generale, idea che a prima vista sembrava folle: lo spazio non ha bordi perché la gravità lo fa incurvare su sé stesso. In questo modo l’universo è finito ma privo di contorni. Le masse presenti nell'universo fanno incurvare lo spazio e, su scala cosmica, fanno in modo che lo spazio (anzi, l’intera struttura quadridimensionale dello spaziotempo) si curvi completamente richiudendosi 5=4! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! su se stesso. Il sistema è chiuso e finito, ma non ha un confine né un margine. Un tale sistema viene descritto senza difficoltà in termini matematici dalle geometrie non euclidee. In un simile universo curvo, un raggio di luce che comincia a propagarsi in una qualsiasi direzione potrebbe percorrere quella che sembra una linea retta eppure curvare tornando al punto di partenza. Questa concezione del cosmo che Einstein dedusse dalla teoria della relatività generale era elegante e magica. Ma sembrava esserci una difficoltà, un difetto cui si doveva porre rimedio o che si doveva trovare il modo di eludere. La sua teoria indicava che l'universo non sarebbe rimasto statico, ma avrebbe dovuto espandersi o contrarsi. Secondo le sue equazioni di campo, un universo statico era impossibile perchè le forze gravitazionali avrebbero raggrumato insieme tutta la materia. Ciò non si accordava con quello che, a parere della maggior parte degli astronomi suggerivano le osservazioni. Per quanto si sapeva, l'universo era formato soltanto dalla nostra galassia, la Via Lattea, e sembrava piuttosto stabile e statico. Einstein, credendo ciecamente in un universo statico, nonostante le implicazioni delle sue equazioni che dimostravano il contrario, ossia un universo in evoluzione dinamica, apportò quella che definì una “leggera modifica” alla sua teoria. Per impedire alla materia dell'universo di implodere, introdusse una forza repulsiva, una piccola aggiunta alle sue equazioni della relatività generale per controbilanciare la gravità nell'ordine complessivo. Nelle sue equazioni rivedute, questa modifica era indicata con la lettera greca lambda λ che veniva moltiplicata per il tensore metrico g in un modo che produceva un universo stabile e statico. Einstein chiamò il termine aggiunto “costante cosmologica”, ma la sua introduzione non aveva alcuna reale motivazione fisica. µν Nel 1929 l’astronomo Edwin Hubble (1889-1953) scoprì che in realtà l'universo si stava espandendo, esattamente come previsto nei modelli di universo elaborati da Alexander Friedmann (1888-1925) e Georges Lemaitre (1894-1966) a partire dalle equazioni originali di campo, ed Einstein, venuto a conoscenza della scoperta, avrebbe definito la sua costante cosmologica il suo “più grosso sbaglio”. ù Ma come possiamo raffigurarci questa espansione alla luce della relatività generale, con le sue implicazioni relative all’interazione della curvatura spaziotempo ed il contenuto di massa ed energia? Immaginiamo di gonfiare un palloncino sul quale abbiamo disegnato dei punti. Una volta gonfiato, qualunque punto scegliamo sul palloncino, noteremo che tutti gli altri punti si sono allontanati da esso. Questo esperimento aiuta a mettere a fuoco due aspetti essenziali per capire l’espansione dell’universo. La superficie del pallone rappresenta lo spaziotempo e i punti sono le galassie. Quando si gonfia il pallone, la sua area superficiale aumenta, esattamente come fa lo spaziotempo durante l’espansione dell’universo. Non esiste alcuna posizione speciale, ciò che si osserva da ciascuna galassia è uguale a ciò che si vede da qualunque altra; ogni cosa 5=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sembra allontanarsi da voi, in qualunque luogo vi troviate, e quanto più essa è lontana tanto più velocemente si allontana. Il limite dell’analogia è che il pallone ha un dentro e un fuori, mentre per l’universo non esistono dentro e fuori, lo spaziotempo, cioè la superficie del pallone, è tutto ciò che esiste. Inoltre, la forma complessiva dell’universo, almeno per quanto riguarda la parte finora osservata, non è curva come la superficie del pallone, ma piana. Comunque oggi, in base all'evidenza che l'espansione dell'universo sta accelerando, la costante cosmologica è stata ripresa in considerazione come un concetto utile, se non necessario. Le equazioni di Einstein ci forniscono le modalità dell’espansione dello spaziotempo, specificando in dettaglio in che modo sia controllata dalla materia e dall’energia esistenti nello spaziotempo stesso, per cui se riusciamo a scrivere la storia dell’espansione dell’universo, possiamo ricostruire la sua composizione in ogni dato momento. La relatività generale raggruppa i contenuti dell'universo in tre categorie distinte, in funzione della loro influenza sull'evoluzione dello spaziotempo. In primo luogo abbiamo la materia, che include sia la materia normale sia quella oscura, della quale non sappiamo ancora la natura, ossia ogni tipo di materia che mostri interazioni gravitazionali normali. Tutto ciò che ricade in questa categoria, inoltre, non deve propagarsi a velocità prossime a quella della luce e la maggior parte della sua energia deve essere sotto forma di massa, non di moto. La seconda categoria è costituita dall'energia radiante e comprende tutte le lunghezze d'onda della luce, ma anche le particelle che si propagano ad altissima velocità, infatti, simili particelle si comportano più come energia radiante che come materia. L'ultima categoria è costituita dall'energia oscura, una strana forma di energia sconosciuta ed invisibile all’osservazione, che costituisce oltre il 70% di ciò che è contenuto nell’universo. Ognuno di questi tre tipi fondamentali, materia, radiazione ed energia oscura, ha un impatto differente sulla storia dell'espansione dell'universo. Tale espansione è iniziata per motivi ancora sconosciuti (big bang), ma le equazioni di Einstein descrivono esattamente come si svolge in risposta al contenuto del cosmo. Sia la materia sia l'energia radiante fanno sì che lo spaziotempo si incurvi e si contragga, cosicché contribuiscono a frenare l'espansione cosmica. La radiazione, a cui è associata una pressione, è un poco più efficace in questa azione di frenamento, ma il meccanismo di base è lo stesso in entrambi i casi. La materia e la radiazione dell’universo sono soggette all’attrazione gravitazionale di tutto il resto della materia e della radiazione. Via via che l'universo si espande, la distanza tra gli aggregati di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5=6! materia, come le galassie, aumenta, ma l'azione della gravità è opposta e tende ad avvicinare nuovamente questi oggetti. Ne risulta un rallentamento dell'espansione dello spazio. L'energia oscura è il pezzo che non combacia. Essa non rallenta l’espansione dell'universo, ma anzi le dà ulteriore impulso e la fa accelerare. Nelle equazioni di Einstein, una sostanza in grado di produrre una simile dilatazione dello spaziotempo deve avere una pressione negativa. Tuttavia immaginare una sostanza cosmica dotata di pressione negativa non è banale: la materia nell'universo ha una pressione essenzialmente nulla e la radiazione è associata a una pressione positiva; pertanto, quale che sia la natura dell'energia oscura, deve essere radicalmente diversa da ogni sostanza nota. Il destino ultimo di un universo che contenga solo materia è determinato dalla quantità di quest'ultima. Se la sua densità è inferiore a un valore critico, dalla soluzione delle equazioni di campo si ricava che lo spazio tridimensionale deve avere una curvatura costante ma negativa, detta iperbolica (si pensi alla forma di una sella da cavallo) e in questo caso l'espansione dell'universo continuerà per sempre, rallentando all’infinito, a una velocità che diventerà sempre più bassa a causa dell'effetto di frenamento della materia, ma che non si annullerà mai, finché lo spaziotempo non sarà completamente vuoto e piatto. Se la densità è invece superiore al valore critico allora lo spazio tridimensionale deve avere una curvatura costante e positiva (come quella di una sfera) e ciò produrrà un epilogo drammatico: l'autoattrazione gravitazionale della materia comporterà una decelerazione dell’espansione fino a fermarla. Lo spaziotempo cesserà di dilatarsi e inizierà invece a contrarsi a velocità sempre più elevata, fino a che l'universo imploderà nel processo opposto al Big Bang, e cioè il Big Crunch. Il caso limite in cui la densità è esattamente quella critica corrisponde ad una curvatura spaziale nulla e, ancora, ad un’espansione che continua all’infinito. La scoperta di una nuova componente, rappresentata dall'energia oscura, nel bilancio energetico del cosmo non ci permette più di prevedere il futuro dell'universo sulla base del suo contenuto, almeno finché non avremo determinato esattamente che cos'è l'energia oscura. Se è realmente una costante cosmologica, ossia il termine che rappresenta la densità d’energia del vuoto il cui valore rimane costante nel tempo, l'universo continuerà ad accelerare la propria espansione, fino a diventare un vuoto freddo e immobile, privo anche delle strutture più semplici. Se invece non lo è, tutto diventa possibile. L'energia oscura potrebbe subire un decadimento, riducendo la propria influenza fino a lasciare il sopravvento alla materia, oppure potrebbe rafforzarsi e infine distruggere violentemente ogni oggetto nell’universo: una catastrofe che è stata battezzata Big Rip (dall’inglese: grande strappo). 5=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Gli sforzi attuali degli astronomi ed astrofisici sono dunque concentrati nel cercare di misurare, con metodi diretti ed indiretti, il valore della densità d'energia totale dell’universo. Le più recenti misure sembrano indicare che la curvatura spaziale è pressoché nulla e che la densità totale di energia è molto vicina a quella critica, e che però, stranamente, l'universo attuale sta accelerando la sua fase di espansione, a testimoniare il fatto che l’universo attualmente non è dominato dalla materia, bensì da qualche sostanza di tipo esotico, che ci ricorda la quintessenza della filosofia aristotelica, che potrebbe trovare spiegazione nell’energia oscura. 10.12 La teoria unificata dei campi L'opera di Einstein si tradusse praticamente nella geometrizzazione di una vasta parte della fisica: il tempo divenne un parente stretto delle tre coordinate spaziali e le forze di gravità vennero attribuite alla curvatura di questo universo quadridimensionale. Ma le forze elettriche e magnetiche erano ancor fuori dal dominio della geometria e Einstein, che pure era già arrivato tanto lontano, concentrò tutte le sue energie per imbrigliare anche il campo elettromagnetico. Quale delle proprietà geometriche dello spazio a quattro dimensioni ancora sconosciuta avrebbe potuto spiegare le interazioni elettriche e magnetiche? Lo stesso Einstein e molti altri cointeressati, tra i quali il famoso matematico tedesco Hermann Weyl (1885-1955), fecero del loro meglio per dare al campo elettromagnetico un'interpretazione puramente geometrica, ma il campo elettromagnetico rifiutò di farsi geometrizzare. Per circa 40 anni, fino alla morte, avvenuta nel 1955, Einstein lavorò attorno alla cosiddetta teoria unificata dei campi, una teoria, cioè, che avrebbe dovuto unificare su una comune base geometrica il campo elettromagnetico e quello gravitazionale: “Una mente che aneli all’unificazione della teoria non può essere paga del fatto che debbano esistere due campi i quali, per loro natura, siano indipendenti tra loro. Si cerca una teoria del campo, unificata sotto il profilo matematico, in cui il campo gravitazionale e il campo elettromagnetico siano interpretati solo come componenti o manifestazioni diverse di uno stesso campo uniforme”. Però, la teoria unitaria dei campi che Einstein cercava aveva un significato differente da quello si ha oggi. Egli richiedeva a questa teoria di essere rigorosamente causale, e si aspettava che le particelle della fisica scaturissero come soluzioni particolari delle equazioni del campo, e che i postulati quantistici risultassero come conseguenza delle equazioni generali del campo. Ma col passare degli anni si capiva che tale lavoro era senza speranza: ogni tanto Einstein tornava alla ribalta con un nuovo gruppo di formule destinate, secondo lui, a risolvere finalmente il groviglio della teoria unificata dei campi e le prime pagine del New York Times e di altri giornali di tutto il mondo erano invase da complicate espressioni tensoriali. Ma prima o poi le nuove formule si rivelavano inadatte alla loro funzione e tutto tornava nell'ombra fino alla successiva rivelazione. I fisici teorici, vecchi e giovani, persero, a poco a poco, la fiducia nella possibilità di dare al campo elettromagnetico un assetto puramente geometrico. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5=8! Oggi è ampiamente riconosciuto che l’unificazione delle quattro forze fondamentali (gravitazionale, elettromagnetica, nucleare forte, nucleare debole) rappresenta uno dei compiti più importanti della fisica, forse il più importante di tutti. E chissà se un giorno il sogno di Einstein di geometrizzare la fisica non possa avverarsi attraverso la costruzione di una teoria che contempli come elemento veramente reale della natura soltanto la geometria e che consideri tutti gli altri oggetti fisici osservati, come le particelle, i campi, l'energia e via dicendo, semplicemente quali diverse manifestazioni dell'unica realtà fisica soggiacente, cioè la geometria. La geometria, quindi, intesa non come categoria, ovvero schema di pensiero per rendere intelligibile la realtà, ma la realtà stessa. Tutto questo comporterebbe una evidente economia di concetti se i campi e le particelle non risultassero oggetti estranei, vaganti nell'arena spazio-temporale, ma fossero invece in qualche modo strutturati a partire da puro spazio. Ossia il continuo metrico potrebbe essere un mezzo magico il quale ripiegato qui in un dato modo rappresenta un campo gravitazionale, ondulato là in un altro modo descrive un campo elettromagnetico e ritorto localmente descrive una perdurante concentrazione di energia di massa. In altri termini, la fisica è fondamentalmente una questione di geometria pura. Infine, se Einstein ritornasse improvvisamente attraverso qualche magica distorsione spaziotemporale, sarebbe senz’altro incuriosito dal ritorno in auge della sua ripudiata costante cosmologica, ora utilizzata per spiegare l’espansione accelerata dell’universo, sarebbe affascinato dalle moderne teorie fisiche, come la teoria delle stringhe o la gravità quantistica a loop, tutti tentativi di unire la meccanica quantistica con la relatività generale. E sarebbe sicuramente soddisfatto nel vedere come la fisica stia tentando, come aveva fatto lui, di giungere a una visione coerente dell’universo, che spieghi la natura dal livello subatomico a quello dell’intero cosmo. “Alla luce delle conoscenze conseguite, ciò che si è felicemente raggiunto appare quasi ovvio a qualsiasi studente intelligente… Ma gli anni di ansioso cercare nell’oscurità, la tesa aspettativa, l’alternarsi di fiducia e stanchezza fino all’erompere finale verso la verità, questo può capirlo solo chi lo ha vissuto di persona”. 10.13 Conclusioni Vi sono momenti storici in cui una convergenza di forze causa un mutamento della prospettiva dell’umanità. Accadde per l’arte, la filosofia e la scienza all’inizio del Rinascimento, e di nuovo al principio dell’Illuminismo. Ora, all’inizio del XX secolo, il modernismo nasceva grazie alla rottura dei vecchi vincoli e al crollo delle vecchie verità grazie alle opere di Einstein, Picasso, Matisse, Stravinskj, Schonberg, Joyce, Eliot, Proust, Freud, Diaghilev, Wittgenstein, e tanti altri innovatori che sembravano spezzare i legami del pensiero classico. Einstein fu fonte di ispirazione per molti artisti e pensatori moderni, anche quando questi non lo comprendevano. Proust scrisse ad un amico: “Come mi piacerebbe parlarti di Einstein. Non capisco una sola parola delle sue teorie … sembra che abbiamo modi analoghi di deformare il tempo”. Un momento culminante della rivoluzione modernista si ebbe nel 1922, l’anno in cui fu annunciato il premio Nobel di Einstein. L’Ulisse di Joyce fu pubblicato in quello stesso anno, così come La terra desolata di Eliot. In maggio ci fu una cena di mezzanotte all’Hotel Majestic di Parigi per l’esordio di Renard, composto da Stravinskij ed eseguito dai Ballets Russes 5=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! di Diaghilev. Stravinskij e Diaghilev erano entrambi presenti, così come Picasso, Joyce e Proust, e tutti stavano distruggendo le certezze letterarie, artistiche e musicali del XX secolo con la stessa determinazione con cui Einstein stava rivoluzionando la fisica. Per quasi trecento anni, l’universo meccanico di Newton, basato su leggi e certezze assolute, con la sua fede nelle cause e negli effetti, nell’ordine e perfino nel dovere, aveva costituito il fondamento psicologico dell’Illuminismo e dell’ordine sociale. Ora si affermava, con la teoria della relatività, una concezione dell’universo in cui spazio e tempo dipendevano dai sistemi di riferimento. L’apparente rifiuto delle certezze, un abbandono della fede nell’assoluto, pareva ad alcuni eretico, e la relatività venne associata ad un nuovo relativismo nei campi della morale, dell’arte e della politica, più sulla spinta dei fraintendimenti dei profani che sulla base del pensiero di Einstein. Ha scritto Paul Johnson nella sua vasta opera sul XX secolo, Modern Times: “Esso costituì un coltello che contribuì a liberare la società dai suoi ormeggi tradizionali”. Quali che fossero le cause del nuovo relativismo e modernismo, il distacco del mondo dai suoi ormeggi classici avrebbe presto prodotto echi e reazioni inquietanti. E in nessun altro luogo quel clima fu più problematico che nella Germania degli anni ’20. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5=:! !"#$%&'&())! La ricerca della verità è più preziosa del suo possesso Einstein "(#,!.%"/1!%&-#6/(&)!0)!*(# 11.1 Introduzione Uno dei metodi da sempre adottati nelle sintesi di particolari periodi della storia del sapere umano è quello che procede attraverso descrizioni complessive, e cioè immagini efficaci che rendano immediatamente riconoscibili e classificabili movimenti e situazioni anche complessi. Questo è avvenuto soprattutto per quel che riguarda le epoche passate: il XVII secolo è passato alla storia come l'età della modernità, il XVIII come quella dei Lumi, il XIX come quella delle macchine e dell’industrializzazione mondiale. Se volessimo applicare tale metodo anche al XX secolo, scopriremmo di trovarci in un notevole imbarazzo: mai come nel '900 le direzioni di sviluppo della nostra civiltà e del pensiero sono apparse difficili da individuare, labili, contraddittorie, evolute secondo percorsi estremamente accidentati e tortuosi. Il compito sarebbe più facile e interessante se ci si limitasse ad un'analisi condotta attraverso l'individuazione di alcune parole chiave, intese come guide per posare lo sguardo sulla realtà. Una di queste parole da usare come lente di ingrandimento, soprattutto per esplorare il campo dello sviluppo della fisica, e, più in generale, della filosofia e della scienza, potrebbe essere senz’altro il termine "crisi". La storia della fisica e del pensiero scientifico e filosofico contemporaneo è infatti segnata, già a partire dalla fine del XIX secolo, come abbiamo già visto, dalla progressiva presa di coscienza di un lento ma inesorabile dileguarsi delle certezze, dei fondamenti teorici e pratici del sapere. Una alla volta, tutte le categorie del pensare e dell'agire scientifico e filosofico, idee e concetti ritenuti immutabili come il Tempo, lo Spazio, il rapporto tra Causa ed Effetto, sono stati messi alla prova. Una delle prime verità venute a galla in questa ricerca di nuove fondamenta del sapere non è stata affatto confortante, anzi, ha rappresentato la conferma di una dolorosa intuizione: il nostro secolo è caratterizzato dalla scoperta del fatto che la scienza non è onnisciente, 54<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! che la sua pretesa di conoscere il mondo senza errori è soltanto un mito, o al più una confortante ipotesi di lavoro. L'epoca contemporanea ha dovuto rinunciare al sogno della fisica classica di conoscere il mondo in maniera completa a partire dalle componenti minime ed elementari, quello che potremmo chiamare il "sogno di Cartesio". Gli sviluppi della scienza hanno prodotto inoltre un lento ma inesorabile smascheramento della nostra più fondata certezza: l'immagine di un mondo deterministico, un mondo, cioè, sui cui eventi e fenomeni è sempre possibile operare previsioni da cui far derivare leggi assolute. Insomma, il sogno galileiano è svanito, è sfumata la possibilità di prevedere l'evoluzione futura di ciascun fenomeno a partire dalla conoscenza della legge che lo regola e a vedere il mondo come un insieme di fenomeni semplici, le cui spiegazioni si trovano nella riduzione della varietà e della molteplicità delle variabili in gioco entro schemi generali e assoluti. Il sapere ereditato dall'età moderna, per poter sopravvivere, deve mettere in discussione, uno dopo l'altro, tutti i suoi fondamenti, abbandonare il bisogno di ritrovare confermati i propri schemi mentali, le proprie strutture teoriche attraverso forme di comunicazione con la natura, nella convinzione che la natura possa rispondere all’interrogazione sperimentale; interrogarsi proprio sulla legittimità e utilità del ricercare leggi nella natura. In conclusione, nel XX secolo è divenuto sempre più evidente il limite interno al sistema creato dalla scienza moderna: questo gioco a due giocatori, osservatore e fenomeno, più che liberare e svelare i segreti della natura, in realtà ha negato la capacità di agire liberamente, di mettere in luce una molteplicità di aspetti spesso irriducibili alle teorie dell'uomo, se non a costo di incongruenze. L'esperimento immaginato come adeguamento della realtà ad una teoria, tipico di Galileo, lontano dall'essere un dialogo rappresenta in questi termini piuttosto il tentativo di chiudere l'universo multiforme entro un'angusta gabbia concettuale. Quindi, l'unità che la scienza contemporanea ricerca e scopre sempre più non ha la forma di un elemento fondamentale o di una sostanza, né atomo né formula generale. Non sarebbe più plausibile allora accettare il fatto che non è poi così logico, così prevedibile ed evidente il gioco fra uomo e natura, la quale, dal canto suo, non vuole comunicare con l'uomo, né farsi comprendere, ma semplicemente si mostra, nella propria incoerenza, instabilità, caoticità? Oltre che un problema di metodologia interna alla scienza, questa serie di interrogativi sembra aprire il campo ad un'analisi filosofica ben più profonda: fino a che punto si può andare avanti immaginando che le eventuali difficoltà di comprensione di alcuni fenomeni dipendano soltanto da un grado di minore completezza delle nostre informazioni sulla loro struttura? 11.2 Crisi del riduzionismo Con la scoperta che il mondo lasciato in eredità da Keplero, Galileo, Newton, fatto di sfere fredde e movimenti perpetui, ha ceduto il posto ad un universo in continua espansione, dai fenomeni irreversibili, è nata, come abbiamo visto, l'esigenza di una nuova scienza, capace di risolvere o quantomeno tentare di chiarire le proprie contraddizioni con mezzi e concetti nuovi. Essa si è trovata anzitutto ad affrontare una situazione assolutamente inedita, quella cioè di non essere più in grado di formulare domande facili alla natura, di comprenderne le risposte, di elaborare schemi concettuali /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 54;! rigidi per spiegarla. E questo diventa ancora più evidente nel caso della meccanica quantistica. La posizione della scienza contemporanea è evidentemente delle più scomode: in primo luogo deve adattarsi ad operare su una realtà difficilmente riconducibile ai vecchi modelli e strumenti di controllo; ma più di ogni altra cosa deve trovare una collocazione nuova agli strumenti classici del suo pensiero: le coppie soggetto/oggetto, causa/effetto, realtà/organizzazione. Deve insomma costruirsi una nuova filosofia. Ricordiamo, infatti, che la scienza classica e quella dell'età moderna si erano basate sull'assunto dell'obiettività della natura, sul fatto che l'universo fosse costituito da oggetti isolati, governati nei loro fenomeni da leggi oggettivamente valide. Fare esperienza di un fenomeno significava ricostruire in laboratorio un contesto in cui ogni suo aspetto venisse ricondotto ai dati essenziali, semplificato, o per meglio dire, purificato dalle possibili interferenze e perturbazioni. Sistemi isolati ed esperimenti puri: con questa chiave di lettura, la scienza determinava la realtà isolandola e scomponendola nelle sue parti elementari, con un approccio che definiremmo, ovviamente, riduzionista. Ma bastò svoltare il secolo XIX per accorgersi del carattere puramente illusorio di tanta oggettività: le nuove teorie fisiche, in particolare la relatività generale di Einstein e la meccanica quantistica, destarono l'attenzione sull'esistenza di componenti sempre più piccole della materia, su fenomeni di interazione dalla natura ambigua. La crisi del riduzionismo ebbe quindi origine dall'elaborazione di una nuova concezione dell'atomo, divenuto un oggetto strano, apparentemente incoerente, incerto nella natura delle sue componenti, corpuscoli o onde, sfuggente nei suoi movimenti interni di elettroni e protoni, e in ultima analisi, indefinibile. La risposta a questa crisi avvenne con un passaggio fondamentale, filosofico ed epistemologico, della scienza del nostro tempo: il passaggio dal concetto di struttura a quello di sistema, dall'idea di costituzione a quella di organizzazione. Si cominciano a vedere sotto una luce diversa tutti gli oggetti chiave della fisica, atomi e molecole, e a interpretarli come parti costituenti di sistemi. Ma cos'e un sistema? È un insieme di unità in reciproca interazione, è cioè un Tutto che funziona nella sua globalità solo in virtù delle caratteristiche delle singole componenti in relazione fra loro. Il sistema è una totalità organizzata, composta di elementi solidali che possono essere definiti soltanto gli uni in rapporto agli altri, in funzione della loro collaborazione alla totalità. In questo senso, il crollo dell'immagine del mondo tipica della scienza moderna, quella di Newton e Galileo, si rivela inevitabile. Né la descrizione né tantomeno la spiegazione dei fenomeni di un sistema fisico possono essere più affrontate agendo al livello delle singole parti, isolandole come oggetti reali: dal momento che le caratteristiche fondamentali di un sistema sono la sua organizzazione, le sue relazioni interne ed esterne, nello stesso istante in cui lo scienziato frammenta il sistema nei suoi presunti componenti minimi, elementari e oggettivati, si preclude la possibilità di comprensione dei fenomeni, poiché l'organizzazione non può essere catturata dalla scomposizione. È in questa direzione che la teoria dei sistemi, vera scienza della complessità, analizzando i rapporti fra le parti e il tutto, ha tentato di reagire al riduzionismo. Una prima risposta sembrava offerta dall'olismo, una teoria che potremmo sintetizzare nell'affermazione secondo cui il Tutto è più importante della somma delle parti. Analizziamola nel dettaglio. Una comprensione di tipo olistico di un fenomeno tende a 54=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! far ricoprire un ruolo assoluto al sistema, un'importanza esclusiva all'interazione fra le sue parti: la descrizione di un fenomeno diventa, in chiave olistica, la descrizione di uno dei possibili stati di un sistema globale, mentre la conoscenza delle singole componenti ricopre, presa di per sé, un ruolo di importanza secondaria rispetto alla ricostruzione dell'organizzazione totale. Questo tipo di approccio si presta a contraddizioni molto forti, difficili da chiarire. L'olismo preso letteralmente, presuppone infatti un riduzionismo alla rovescia: mentre i discorsi riduzionistici negano che sia possibile la ricostruzione di un fenomeno complesso a prescindere dalla scomposizione analitica delle sue parti, i discorsi funzionalisti o olisti si rifiutano di considerare l'opportunità della scomposizione. Entrambi i metodi pretendono di offrire una chiave di accesso semplice ed esclusiva alla lettura del reale, e non colgono così la caratteristica peculiare di ogni organizzazione, la sua inevitabile complessità. 11.3 Il crollo della visione classica del mondo Ci accingiamo ora a percorrere l'affascinante cammino che ha portato, nel primo quarto del XX secolo, all'elaborazione di quella rivoluzione scientifica rappresentata dalla meccanica quantistica, lo schema concettuale che, assieme alla teoria della relatività, ha mutato radicalmente le concezioni della fisica classica e che sta alla base di tutta la moderna visione del mondo. In primo luogo, essa distrugge la tradizionale nozione di causalità, nel senso che le previsioni quantistiche non garantiscono certezze, ma, a differenza della meccanica newtoniana, descrivono solo in maniera probabilistica le modalità con cui accadono gli eventi. Ogni nozione, ogni conoscenza delle "cose" presenta certi limiti di natura intrinseca: quando ne possediamo una parte, esiste qualche altra parte che ci sfugge. Infine, termini come "particella", "stato", "traiettoria", "misura" mutano il loro significato originario. Raramente la nascita di una nuova teoria è stata altrettanto travagliata, ha richiesto così rilevanti sforzi da parte di alcune delle più brillanti menti di tutti i tempi e, pur avendo registrato un successo sul piano predittivo ineguagliato da ogni altro schema teorico nella storia della scienza, ha suscitato un così vivace e appassionante dibattito e controversie così accese circa il suo vero significato. Questi fatti non risulteranno sorprendenti allorché avremo penetrato almeno in parte i segreti del microcosmo che il nuovo schema concettuale ci andrà svelando. Questi segreti, le incredibili prodezze di cui scopriremo capaci i sistemi microscopici, risultano di fatto così innovativi e rivoluzionari rispetto alle concezioni classiche elaborate sulla base della nostra esperienza con i sistemi macroscopici, che risulta quasi naturale che l'elaborazione della nuova teoria sia stata tanto sofferta e che tuttora il dibattito sulle sue implicazioni concettuali e filosofiche risulti notevolmente acceso. Le origini della meccanica quantistica vanno ricercate proprio nella fondamentale incapacità degli schemi concettuali classici di rendere conto di alcuni basilari fenomeni fisici. L’assetto che alla fine dell’Ottocento aveva raggiunto la fisica classica, e cioè la meccanica, la termodinamica e l’elettromagnetismo, sembrava definitivo; rimanevano da sciogliere certe incongruenze, ma si pensava fossero dovute a limiti tecnologici e problemi di calcolo, non certo a carenze concettuali delle teorie. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 544! Il quadro concettuale verso la fine del XIX secolo era: va riconosciuta una esistenza reale sia ai corpuscoli materiali discreti che ai campi continui. Questi enti fisici evolvono in modo preciso nello spazio sotto l'influenza delle loro mutue interazioni codificate dalle equazioni della meccanica e dell'elettromagnetismo le quali dovrebbero consentire, almeno in linea di principio, la comprensione di tutti i processi del mondo fisico. È facile immaginare la crisi che conseguì all'identificazione di alcuni semplici processi fisici che risultavano assolutamente incomprensibili secondo le teorie ora menzionate e che resistevano ad ogni tentativo di ricondurli all'interno della visione classica del mondo. Passiamo ad analizzarne alcuni. " " Le righe spettrali: gli atomi possono emettere onde elettromagnetiche ma solo in impulsi di frequenze discrete molto specifiche, le righe spettrali. Le frequenze che si osservano non hanno alcuna base dal punto di vista della teoria classica. " La dipendenza dalla temperatura del colore degli oggetti: è esperienza comune che molti corpi, quali ad esempio una sbarra di ferro, cambiano colore al variare della loro temperatura. Il processo in esame coinvolge effetti termodinamici i quali comportano un aumento dell'agitazione termica dei costituenti del corpo materiale in oggetto. Questi costituenti sono, come ben noto, particelle elettricamente cariche, e le leggi dell'elettromagnetismo implicano che cariche in moto non uniforme emettano radiazioni elettromagnetiche, che, se opportune condizioni sono verificate, ci appaiono come luce. Quindi, anche se i processi in gioco risultano alquanto complessi essi, in accordo con la discussione precedente, rientrano tutti nell’ambito tipico della fisica classica e pertanto dovrebbe risultare perfettamente possibile renderne conto all'interno di questo schema concettuale. Purtroppo, questa speranza si rivelò infondata. Malgrado gli sforzi assidui della comunità scientifica non risultò in alcun modo possibile spiegare un processo tanto comune quanto quello ora descritto in termini delle leggi della meccanica e dell'elettromagnetismo classici. Questo restò un mistero irrisolto fino a quando Max Planck non avanzò un'ipotesi assolutamente rivoluzionaria che sconvolse tutte le idee classiche circa la luce, o, per essere più precisi, circa le radiazioni elettromagnetiche. Gli atomi e le loro proprietà: Alla fine del XIX secolo e agli inizi del XX, una serie di interessanti ricerche, le più rilevanti delle quali erano state condotte da Rutherford, avevano condotto a un modello dell'atomo molto simile a quello che oggi tutti utilizziamo. Un atomo veniva concepito come un sistema planetario in miniatura con un nucleo, carico positivamente, nel quale è concentrata quasi tutta la massa dell'atomo stesso. Attorno al nucleo, vari elettroni carichi negativamente e il cui numero è tale da neutralizzare la carica positiva del nucleo, ruotano come i pianeti attorno al Sole. L'attrazione che, secondo la legge di Coulomb, si esercita tra cariche di segno opposto fa sì che ogni elettrone venga attratto dal nucleo e sostituisce l'attrazione gravitazionale tra Sole e pianeti. Risulterà perciò ancora una volta 545! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! alquanto sorprendente che questa analogia abbastanza naturale tra la struttura atomica e quella di un sistema planetario risulti assolutamente insostenibile all'interno dello schema classico per i seguenti motivi: a) La costanza delle proprietà degli atomi - Viene naturale chiedersi come è possibile che tutti gli atomi di uno stesso elemento, per esempio l'ossigeno, esibiscano assolutamente le stesse proprietà fisiche comunque essi siano stati prodotti, e come possono queste proprietà persistere, immutabili, anche allorché i sistemi in questione sono sottoposti a processi notevolmente invasivi quali la fusione, l’evaporazione e, successivamente, vengono riportati alle condizioni iniziali? Un fatto analogo risulta del tutto impossibile per un sistema classico quale un sistema planetario. Infatti le orbite dei pianeti, soprattutto in un sistema a molti corpi, dipendono in modo assolutamente critico dalle condizioni iniziali. Interazioni sia pure di piccolissima entità con altri sistemi determinano cambiamenti rilevanti nell'evoluzione e alterano la struttura di un sistema siffatto. Quindi, fissato il nucleo di un atomo e il corrispondente numero degli elettroni che ruotano attorno ad esso, le effettive proprietà fisiche e chimiche del sistema risultante dovrebbero mostrare una enorme variabilità. Si avrebbero così tanti atomi con un nucleo uguale a quello dell'ossigeno, atomi che corrisponderebbero ai diversi modi in cui il nucleo, per così dire, ha catturato i suoi elettroni all'atto della sua formazione. Ma tutta la fenomenologia fisica e chimica mostra che le proprietà di un elemento atomico risultano assolutamente identiche, indipendentemente dalle condizioni di preparazione e dalle trasformazioni che può aver subito. b) Un altro fatto fondamentale genera un insanabile conflitto tra la stabilità degli atomi e il modello planetario all'interno dell'edificio concettuale della fisica classica. Secondo le equazioni della dinamica classica un sistema di cariche elettriche può stare in equilibrio solo se le cariche sono in moto. Il fatto che l'atomo abbia una estensione limitata comporta che le cariche in esso presenti devono muoversi su orbite circolari o ellittiche (a somiglianza del caso dei pianeti) e quindi possiedono un'accelerazione. Ma, secondo le ben confermate leggi dell'elettromagnetismo (le equazioni di Maxwell), una carica accelerata emette inevitabilmente onde elettromagnetiche, cioè irraggia. Irraggiando essa perde energia e quindi la sua orbita si restringe portando la particella a cadere, in tempi brevissimi, sul nucleo. Un calcolo esplicito porta a concludere che ogni atomo dovrebbe avere una vita estremamente effimera, cioè che esso potrebbe manifestare proprietà costanti solo per periodi estremamente brevi (frazioni di secondo), il che contraddice tutta fenomenologia di siffatti sistemi. Iniziò così quella crisi che, grazie al lavoro di un gruppo assolutamente eccezionale di geni come Planck, Einstein, Bohr, Schrodinger, Heisenberg e tanti altri, scardinò alle fondamenta la visione classica del mondo, catapultando così il Novecento all’interno di una rivoluzione non solo scientifica, ma anche culturale, che ancora oggi è in atto. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 546! 11.4 L’inizio della fisica moderna: la scoperta dell’elettrone L’idea di Democrito della natura discreta della materia, ossia dell’esistenza di particelle non scomponibili, si concretizzò verso la fine del XIX secolo, quando i fisici rivolsero la loro attenzione al passaggio dell'elettricità nei gas. Da molti decenni era risaputo che i gas, i quali in condizioni ordinarie sono ottimi isolanti elettrici, possono innescarsi per effetto di alte tensioni elettriche. Sir Williams Crookes (1832–1919) dimostrò che il passaggio dell'elettricità in un gas poteva aver luogo assai più facilmente a pressioni ben inferiori alla pressione atmosferica. I tubi di Crookes emanavano una tenue luminosità, il cui colore dipendeva dalla natura del gas. Crookes notò, inoltre, che avvicinando un magnete al tubo il fascio luminoso deviava dalla sua traiettoria allo stesso modo di una corrente elettrica o di uno sciame di particelle cariche negativamente. Pressoché contemporaneamente, il francese Jean Perrin (1870–1942) scoprì che una lastra metallica interposta sul cammino del fascio si elettrizzava acquistando una carica negativa. Tutte queste indagini sembravano indicare il passaggio di particelle di carica negativa attraverso un gas rarefatto, allo stesso modo in cui gli ioni di Faraday attraversavano i liquidi nel processo dell'elettrolisi. La differenza essenziale era naturalmente che, mentre nell'elettrolisi gli ioni dovevano farsi strada lentamente attraverso le molecole strettamente compresse del liquido e raggiungevano sempre, prima o poi, l'elettrodo opposto, i raggi catodici, come furono chiamati, procedevano nei gas rarefatti in linea retta colpendo ogni ostacolo posto sul loro cammino. L'incarico di dimostrare che i raggi catodici erano fasci di particelle fu assegnato a Joseph J. Thomson (1856–1940; Premio Nobel) che dirigeva il famoso Laboratorio Cavendish, uno dei maggiori centri di ricerca dell'epoca. Thomson, supponendo che i raggi catodici fossero particelle veloci, decise di misurarne la massa e la carica elettrica. Mediante la famosa esperienza, Thomson riuscì a determinare il rapporto e/m tra la carica elettrica e la massa (il cui valore, oggi accettato, è e/m = 1,759·1011 C/kg) di queste particelle. Anche se non fu il primo a osservare i raggi catodici, la scoperta dell'elettrone è generalmente attribuita a Thomson. Il suo merito, oltre ad aver eseguito accurate misure dei parametri fisici di questa particella, è quello di avere considerato l'elettrone come un costituente dell'atomo. Nella sua relazione On the existence oJ smaller than atoms, presentata nel 1899 al Congresso di Fisica di Dover, definì i corpuscoli provenienti dal catodo: "un nuovo stato della materia corrispondente ad una entità subatomica di un edificio (l’atomo) sicuramente molto complesso". Secondo Thomson, un atomo era costituito da una sfera di materiale ponderabile carica positivamente nella quale erano sparpagliati casualmente gli elettroni. Il suo, come si suol dire, era un "modello statico", cioè gli elettroni erano ritenuti in quiete all'interno dell'atomo in certe posizioni di equilibrio determinate dall'uguaglianza tra le forze di repulsione elettrostatica fra gli elettroni tutti carichi negativamente e le forze di attrazione elettrostatica fra gli stessi 547! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! elettroni ed il centro dell'atomo carico positivamente. La conferma sperimentale che l'elettrone era effettivamente una frazione dell'atomo si ebbe con la misura della sua carica e, che permise, noto il valore del rapporto e/m, di calcolarne la massa. La prima misura diretta del valore di e, anche se piuttosto grossolana, fu fatta da John S.E. Townsend (1868-1957), brillante studente di Thomson. Solo con la più raffinata tecnologia dell'esperienza di Robert Millikan (1868-1953; Premio Nobel), la carica dell'elettrone (oggi nota col valore e=1,602⋅10-19 C) fu determinata con maggiore precisione. Il valore di e, combinato con quello di e/m, fornisce per la massa dell’elettrone il valore m=9,11·10-31 kg, ed essendo circa 1800 volte minore della massa dell'atomo più piccolo (idrogeno), il valore trovato dimostra che l'elettrone è solo una piccola parte dell'atomo. Un buon numero delle più importanti scoperte avvenute verso la fine del XIX secolo, e che ebbero la funzione di trasformare rapidamente la fisica dalla sua forma classica a quella moderna, furono del tutto casuali. Il 10 novembre 1895 il fisico tedesco Konrad Rontgen (1845–1923), mentre eseguiva alcuni esperimenti sui raggi catodici con un tubo di Crookes, notò che uno schermo fluorescente posto per caso nei pressi del tavolo diventava intensamente luminoso quando la corrente elettrica attraversava il tubo. Rontgen coprì il tubo con un pezzo di carta nera, ma la fluorescenza sullo schermo non scomparve, mentre un foglio sottile di metallo la eliminava completamente. Esisteva, quindi, una nuova radiazione, che chiamò raggi X, emessa dal tubo che poteva facilmente attraversare materiali opachi alla radiazione visibile. L'emissione dei raggi X è oggi interpretata come il risultato dell'urto degli elettroni veloci, che costituiscono i raggi catodici, sul bersaglio posto sulla loro traiettoria, al quale essi cedono la loro energia cinetica sotto forma di onde elettromagnetiche di piccola lunghezza d'onda. I raggi X si manifestano come un miscuglio con uno spettro continuo di lunghezze d'onda, chiamato radiazione di Bremsstrahlung (Bremse=freno, Strahlung=radiazione). Poiché i raggi X non venivano deflessi in un campo elettrico e magnetico, non potevano trattarsi di particelle cariche, per cui Rontgen aveva supposto sin dall’inizio che essi fossero vibrazioni simili alla luce ordinaria; ma se questa supposizione fosse stata esatta, i raggi X avrebbero dovuto subire il fenomeno della diffrazione, che Rontgen non aveva osservato, dato che i consueti metodi ottici non lo permettevano. Dodici anni dopo la sua scoperta, Rontgen fu invitato dal giovane fisico teorico Max von Laue (1879–1960) ad esaminare alcuni fotogrammi. A prima vista Rontgen s'accorse che si trattava proprio di ciò che egli aveva cercato invano per anni, cioè delle bellissime figure di diffrazione prodotte da raggi X passando attraverso un cristallo, il quale, presentando una struttura cristallina nella quale i raggruppamenti atomici sono regolarmente disposti a distanza dell’ordine di 10-10 m, fu utilizzato come reticolo di diffrazione. Si stabilì così che i raggi X hanno una natura ondulatoria. Successivamente si scoprì che, oltre alla radiazione continua di Bremsstrahlung, i raggi X contenevano anche delle sequenze di righe nette simili a quelle degli spettri ottici e prodotte da processi di transizioni di elettroni all'interno degli atomi. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 548! 11.5 La radiazione di corpo nero e l’ipotesi di Planck Tutti i tentativi di spiegare lo spettro d’irraggiamento di un corpo al variare della sua temperatura in termini delle teorie classiche erano miseramente falliti. Max Planck (1858-1947; Premio Nobel) mostrò che una soluzione del problema poteva ottenersi ammettendo che gli scambi di energia tra radiazione e materia avvenissero non in modo continuo, come implicato dal modello classico secondo il quale, per esempio, il campo elettrico associato a un’onda investendo una particella carica la fa oscillare cedendole così energia, ma che un campo potesse scambiare energia con la materia solo in quantità fisse, ossia per “quanti” discreti. L'ipotesi di Planck, che rappresenta certamente una delle tappe decisive nello sviluppo della moderna concezione scientifica, non ottenne immediatamente il consenso che meritava, proprio a causa della difficoltà di accettare la rottura che tale ipotesi introduceva nella continuità dei fenomeni naturali, allora universalmente accettata, e che rappresentava un ostacolo insormontabile per la concezione causale del mondo insita nella fisica classica. Ma l’ipotesi dei quanti, all'inizio del secolo, sembrava un'ipotesi irragionevole soprattutto in relazione al fatto che riproponeva in definitiva, i corpuscoli di luce di Newton, e cioè la ricomparsa antistorica di una teoria considerata ormai superata e screditata. Questa ipotesi apparve allo stesso Planck come un artificio matematico, una costruzione astratta che non comportava direttamente la necessità di un mutamento profondo nella concezione della realtà. Planck si vide, in un certo senso, costretto ad introdurre l’ipotesi allorché si rese conto che non esistevano altre vie per dare una base teorica ai fenomeni dell'irraggiamento. Vediamo ora come, partendo dal problema dell'irraggiamento del corpo nero (definito come un corpo in grado di assorbire tutte le radiazioni elettromagnetiche che lo investono, siano esse infrarosse, visibili, ultraviolette o X), Planck arrivò a formulare l'ipotesi dei quanti di energia. La teoria classica del corpo nero, basata sui principi della termodinamica e sulle leggi dell’elettromagnetismo, non era in grado di riprodurre la distribuzione spettrale della radiazione emessa. Infatti Sir James Jeans (1877-1946), attraverso un esperimento ideale, arrivò a dei risultati alquanto paradossali ed in contrasto con le leggi della fisica allora conosciute. Immaginiamo un oggetto che abbia una certa temperatura ben definita, con la radiazione elettromagnetica in equilibrio con le particelle. Jeans aveva calcolato che tutta l'energia sarebbe stata assorbita dal campo senza limite. In questa situazione è implicita un'assurdità fisica (la catastrofe dell'ultravioletto: l'energia continua ad essere assorbita dal campo, a frequenze sempre maggiori, senza fine), mentre in realtà la natura si comporta con maggiore prudenza. Alle basse frequenze di oscillazione del campo, l'energia è come aveva predetto Jeans, ma all'estremo superiore, dove aveva predetto la catastrofe, l'osservazione reale mostrò che la distribuzione dell'energia non 549! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! aumenta senza limite, scendendo invece a zero all'aumentare delle frequenze. Il massimo valore dell'energia si ha a una frequenza (ossia colore) molto specifica per una temperatura data. La curva blu rappresenta la distribuzione spettrale della radiazione di corpo nero, come è ottenuta sperimentalmente a una data temperatura; quella verde mostra l’andamento della distribuzione previsto in base alla teoria classica. L’andamento previsto dalla teoria classica ha una conseguenza assurda: l’energia totale irraggiata, e quindi l’energia contenuta nel corpo nero, dovrebbe essere infinita. Il 14 dicembre del 1900 Planck presentò all'Accademia delle Scienze una comunicazione con la quale propose, per la radianza spettrale R(f, T) del corpo nero in funzione della frequenza e della temperatura assoluta, l'espressione: RADIANZA SPETTRALE DEL CORPO NERO R(f, T) = 2π c2 hf 3 ⋅ e hf kB T −1 dove h è la costante di Planck, destinata a ricoprire un ruolo fondamentale nella fisica quantistica. La formula di Planck riproduceva lo spettro di emissione del corpo nero correttamente per tutte le frequenze. A Planck fu presto chiaro che la sua formula, ricavata empiricamente dai risultati sperimentali, senza però offrire nessuna giustificazione reale per la sua proposta, aveva come fondamento teorico un'assunzione del tutto nuova, riguardante la modalità di scambio dell'energia fra materia e radiazione. Secondo la teoria di Maxwell, ogni carica elettrica oscillante emette energia sotto forma di onde elettromagnetiche. Perciò ogni corpo irraggia a causa delle oscillazioni delle cariche elettriche distribuite negli atomi che lo costituiscono. Nella fisica classica, ognuno di questi microscopici oscillatori scambia energia con continuità, in misura tanto maggiore quanto più ampia è l'oscillazione e indipendentemente dalla sua frequenza. La distribuzione spettrale di Planck, invece, può essere dedotta matematicamente purché si supponga che ogni oscillatore emetta o assorba energia solo per quantità discrete. Si deve ipotizzare, cioè, che ciascun oscillatore modifichi il suo contenuto energetico scambiando "pacchetti" di energia di valore fissato, secondo la seguente condizione: CONDIZIONE DI QUANTIZZAZIONE DI PLANCK Una carica elettrica oscillante può scambiare energia con la radiazione elettromagnetica solo per quantità discrete ∆E, legate alla frequenza f di oscillazione da: !! ! !! Pertanto, poiché ogni variazione di energia si manifesta solo per salti, l'energia En posseduta da un oscillatore di frequenza f deve essere un multiplo intero del valore minimo h f: En = nhf con n = 1,2,3,… /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 54:! L'energia viene a essere, dunque, una grandezza fisica quantizzata, che può assumere solo valori discreti. A ciascun possibile valore En dell'energia di un oscillatore è associato un diverso stato quantico, contrassegnato dal numero quantico n: quando l'oscillatore cede un quanto di energia ∆E , compie una transizione dallo stato quantico n-esimo allo stato quantico (n - 1)-esimo e la sua energia diventa En-1 = (n - 1)⋅h f Planck, che era un uomo prudente e conservatore, nonostante la sua scoperta, si rifiutò di credere che l’energia elettromagnetica potesse esistere ed essere scambiata solo in piccole unità. A far sì che la radiazione saltasse fuori in quanti discreti, pensava, doveva piuttosto essere qualcosa legato al modo in cui gli oggetti materiali emettono energia. Negli anni seguenti, Planck combattè strenuamente, senza riuscirci, per trovare una spiegazione accettabile del fatto che l’energia dovesse emergere così, a piccole quantità. 11.6 La realtà dei quanti: l’effetto fotoelettrico e l’effetto Compton L'introduzione del concetto di "atomicità" nel regno dell'energia, che inizialmente sembrava imposta solo dalla necessità di risolvere un’inconsistenza nella descrizione teorica dell'irraggiamento del corpo nero si rivelò presto una delle teorie fondamentali per interpretare numerosi fenomeni, per i quali la fisica prequantistica non riusciva a fornire una valida spiegazione. Solo cinque anni dopo la prima ipotesi di Planck, il quanto venne riconosciuto, per merito di Einstein, come un’entità fisica reale. Nel primo dei tre famosi articoli pubblicati nel 1905, Einstein introdusse i quanti di luce, o fotoni, per sviluppare su basi quantistiche l'interazione fra la radiazione e la materia. Mentre Planck aveva quantizzato solo l'energia associata alla radiazione uscente dal corpo nero, per Einstein la discontinuità insita nella dottrina dei quanti divenne un concetto fondamentale, generalizzato a qualsiasi tipo di radiazione. Questa ipotesi, fra le altre conseguenze, permise di interpretare le leggi sperimentali dell'effetto fotoelettrico. Nel 1887 Hertz aveva casualmente scoperto che, illuminando una placca metallica di zinco con una radiazione ultravioletta, il metallo si caricava elettricamente. Solo dopo che gli elettroni furono riconosciuti, grazie alle misure di Thomson nel 1897, come componenti elementari della materia, si capì che il fenomeno, chiamato poi effetto fotoelettrico, era dovuto all'emissione di elettroni provocata nel metallo da radiazioni elettromagnetiche di frequenza sufficientemente elevata (raggi X, raggi ultravioletti e talvolta anche radiazioni luminose). Però l’effetto fotoelettrico mostrava delle strane proprietà che non potevano essere spiegate con la teoria elettromagnetica classica. Infatti, è ragionevole aspettarsi che se l’energia della luce incidente è poca, il fenomeno non avvenga, e invece avvenga in presenza di energia sufficiente. Invece ciò che succede è che il fenomeno dipende dalla frequenza, ossia avviene solo se la frequenza della luce è alta. Allora Einstein, ammettendo che la radiazione elettromagnetica fosse formata da pacchetti di energia, i 55<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! quanti del campo elettromagnetico, successivamente chiamati fotoni, che dipendono appunto dalla frequenza, giunse alla seguente conclusione: QUANTIZZAZIONE DELLA LUCE Ogni radiazione elettromagnetica, come la luce, può essere considerata, indipendentemente dalla sorgente, come una corrente di quanti (fotoni), ciascuno dei quali possiede l’energia: E = hf In questo modo il fenomeno dell’effetto fotoelettrico aveva la sua spiegazione. Immaginando che la luce arrivi in maniera granulare, in grani di energia, un elettrone viene sbalzato fuori dal suo atomo se il singolo grano che lo colpisce ha molta energia (frequenza elevata) e non se ci sono tanti grani, ma di bassa energia (bassa frequenza). Ossia luce molto intensa (energia elevata) ma costituita da fotoni di bassa energia (bassa frequenza), non fa avvenire il fenomeno; mentre, anche un singolo fotone, purchè abbia l’energia giusta (alta frequenza), può far avvenire il fenomeno. In definitiva, l’effetto fotoelettrico è regolato dalle seguenti leggi: 1. Per un data frequenza della luce incidente, l’energia dei fotoelettroni emessi non cambia, mentre il loro numero aumenta in modo direttamente proporzionale all’intensità luminosa. 2. Al variare della frequenza f della luce incidente, dalle frequenze minori alle maggiori, non avviene emissione di elettroni finché non si raggiunge una certa frequenza di soglia f0, dipendente dal metallo. Per frequenze maggiori l’energia dei fotoelettroni aumenta in modo direttamente proporzionale alla differenza tra la frequenza usata e la frequenza di soglia: 1 me v2max = h(f − f0 ) 2 La seconda legge può essere considerata come la prima equazione della teoria quantistica dell’interazione fra radiazione e materia. Se un quanto di luce colpisce, interagendo con un elettrone, la superficie di un metallo, esso cede tutta la sua energia a quell'elettrone. Una maggiore intensità di luce incidente corrisponde ad un maggiore numero di quanti di luce della stessa frequenza e quindi libera un maggior numero di elettroni della stessa energia cinetica. La situazione è diversa quando invece aumenta la frequenza della luce incidente. Ogni quanto di luce cede ora all'elettrone una maggiore quantità d'energia e questo sarà espulso con una maggiore energia cinetica dal metallo. Nell'attraversare la superficie del metallo, l'elettrone perde una certa frazione dell'energia conferitagli dal quanto di luce, e tale quantità dipende dalla natura del metallo ed è nota col nome di "lavoro di estrazione W'. L'energia del fotoelettrone emesso è data dalla seguente relazione: E=hf-W. In questo modo Einstein, in un sol colpo, spiegò agevolmente le leggi dell'effetto fotoelettrico e diede un vigoroso impulso all'idea originale di Planck sui pacchetti d'energia radiante. Secondo la teoria classica della diffusione, quando un'onda elettromagnetica interagisce con una particella carica, la radiazione diffusa, qualunque sia la sua direzione, deve avere la stessa lunghezza d'onda e , quindi la stessa frequenza della radiazione incidente. Come invece mise in evidenza Arthur Compton (1892-1962; /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 55;! Premio Nobel) nel 1922, la radiazione diffusa presenta una frequenza che dipende dall'angolo di diffusione ed è comunque minore di quella incidente. Questo fenomeno, noto come effetto Compton, rappresenta una delle più importanti prove sperimentali della validità dell'interpretazione quantistica della radiazione elettromagnetica, nonché una conferma delle leggi di conservazione dell'energia e della quantità di moto a livello microscopico. Consideriamo una radiazione monocromatica, per esempio un fascio di raggi X, che attraversi una sottilissima lamina di grafite. Compton dimostrò che il processo di diffusione può essere spiegato assumendo che i fotoni della radiazione incidente interagiscano ciascuno con uno degli elettroni atomici della grafite. Poiché questi sono legati molto debolmente, possono essere considerati praticamente liberi e l'interazione fotone-elettrone può essere descritta come una specie di urto perfettamente elastico fra due palle da biliardo. Come si osserva sperimentalmente, la maggior parte della radiazione diffusa dalla lamina presenta una frequenza minore di quella del fascio incidente e quindi una lunghezza d'onda maggiore. Lo spostamento della lunghezza d'onda è una conseguenza della conservazione dell'energia e della quantità di moto nell'urto. Se l'energia del fotone incidente è sufficientemente elevata, il quanto di energia non viene completamente assorbito come accade nell'effetto fotoelettrico, bensì, dopo aver espulso l'elettrone, mantiene una parte della sua energia e della sua quantità di moto, continuando a propagarsi come radiazione di lunghezza d'onda maggiore. Consideriamo un singolo fotone della radiazione incidente, di lunghezza d'onda λ, che urta una particella libera di massa mo, inizialmente ferma. Se λ' è la lunghezza d'onda del fotone diffuso, tenendo conto della conservazione dell'energia e della quantità di moto espresse in forma relativistica otteniamo che la variazione ∆λ=λ’-λ della lunghezza d'onda dipende dall'angolo di diffusione del fotone, cioè dall'angolo formato dalla direzione di incidenza e la direzione lungo la quale il fotone emerge dopo l'urto, nella forma seguente: SPOSTAMENTO COMPTON DELLA LUNGHEZZA D’ONDA Indicando con φ l’angolo di diffusione del fotone, la variazione della sua lunghezza d’onda è: ∆λ = h ⋅ (1 − cos ϕ) m0c 11.7 I primi modelli di atomo L’esistenza degli atomi era stata argomento di intenso dibattito scientifico e filosofico durante tutto il XIX secolo. Ma la loro realtà era stata accertata al di là di ogni ragionevole dubbio dalle numerose prove scientifiche, tra le quali due decisive: la 55=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! spiegazione di Einstein del moto browniano e la scoperta di Rutherford della trasformazione radioattiva degli elementi. Le conoscenze acquisite con lo studio dei raggi catodici e le osservazioni condotte sull'elettrolisi, l'effetto fotoelettrico, i raggi X, la radioattività, ecc., nonché le proprietà degli spettri ottici di emissione e di assorbimento dei gas, avevano indotto i fisici a considerare l'atomo come un sistema complesso dotato di una struttura interna. Era quindi naturale cercare di elaborare un modello di atomo che potesse interpretare i fatti sperimentali della fisica atomica. Logicamente, ogni rappresentazione modellistica doveva tener conto di due fatti: ogni elemento di materia in condizioni normali è elettricamente neutro, quindi un atomo deve possedere una carica positiva uguale a quella negativa dei suoi elettroni; 2. la massa atomica è molto più grande di quella elettronica, per cui la carica positiva deve essere associata alla quasi totalità della massa dell'atomo. 1. Sulla base di queste considerazioni si presentò dapprima il problema di stabilire il numero degli elettroni esistenti negli atomi degli elementi chimici conosciuti e di vedere poi come le cariche, equamente bilanciate, erano distribuite nell'edificio atomico. Nei primi anni del secolo XX furono ideati vari modelli che, pur riuscendo a interpretare qualche risultato sperimentale, erano incompleti e approssimati, soprattutto perchè fondati solo sulla cosiddetta fisica classica. Un tentativo di dare un'immagine concreta alla struttura atomica fu fatto da Thomson nel 1902. L'atomo veniva raffigurato come una sfera materiale di raggio ≈1010m, nella quale la carica positiva era distribuita uniformemente, mentre gli elettroni, in numero tale da equilibrare la carica positiva dell'elemento considerato, erano disseminati all’interno della materia. Gli elettroni rimanevano in uno stato di equilibrio, in quanto erano soggetti sia a una forza elettrostatica attrattiva verso il centro dell'atomo, centro di simmetria della carica positiva, sia alle mutue forze di repulsione, anch'esse di natura elettrostatica, agenti fra le cariche negative. Thomson immaginava questi elettroni atomici disposti in un modo caratteristico in una serie di anelli concentrici. E sosteneva che erano il diverso numero e la diversa distribuzione degli elettroni negli atomi d’oro e di piombo, per esempio, a distinguere i metalli l’uno dall’altro. Poiché tutta la massa di un atomo di Thomson era dovuta agli elettroni che conteneva, ciò significava che ce n’erano migliaia anche negli atomi più leggeri. Secondo il modello di Thomson, quando la materia acquista energia, gli atomi vengono eccitati e gli elettroni cominciano a vibrare come tanti oscillatori, emettendo onde elettromagnetiche di frequenza corrispondente alla frequenza di oscillazione. Attraverso complicati calcoli basati solo sulla meccanica classica, Thomson e i suoi allievi riuscirono a ricavare, anche se in modo approssimato, alcune frequenze delle righe spettrali emesse dagli atomi energeticamente eccitati. Ernest Rutherford (1871–1937; Premio Nobel) non era troppo convinto del modello atomico di Thomson ed elaborò il cosiddetto modello planetario degli elettroni o modello dell’atomo nucleare. L'esperimento che contribuì alla nascita del modello nucleare dell'atomo consisteva nel bombardare una lamina sottile di metallo con particelle α (alfa), che non sono altro che fasci di ioni di elio carichi positivamente ed emessi ad altissima energia (≈107 m/s) da atomi instabili e capaci di attraversare sottili strati di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 554! materia. Durante l’interazione con le particelle cariche dell'atomo, le particelle alfa devono essere deviate dalla loro traiettoria originaria e la conseguente diffusione del fascio deve fornire informazioni sulla distribuzione delle cariche elettriche all'interno degli atomi. Il risultato degli esperimenti fu che la diffusione delle particelle alfa attraverso le lamine metalliche era considerevole e, sebbene un gran numero di particelle del fascio incidente mantenesse la propria direzione originaria, almeno altrettante venivano deflesse di molti gradi ed alcune erano addirittura riflesse all'indietro. Questo risultato non si adattava molto al modello atomico di Thomson, secondo il quale le masse e le cariche elettriche erano distribuite quasi uniformemente in tutto l'atomo. L'unica spiegazione accettabile era che l’atomo fosse un sistema quasi del tutto vuoto, con una parte impenetrabile, molto piccola rispetto alle dimensioni atomiche, nella quale era concentrata la carica positiva e quasi totalità della massa di un atomo. Al di fuori di questo nucleo, la maggior parte del volume dell’atomo doveva costituire lo spazio in cui orbitavano gli elettroni ed essere pertanto quasi privo di materia. Per controllare se una tale ipotesi giustificasse esattamente i risultati sperimentali ottenuti, sarebbe stato necessario trattare il fenomeno secondo le leggi della meccanica classica e ricavare una formula che esprimesse la deflessione subita dalle particelle che passano a varie distanze dal centro di repulsione. La formula è la seguente: 2 ze2 dΩ ⋅ dN = nN 2 mv ϑ sin4 2 ed è in perfetto accordo con le curve di diffusione osservate sperimentalmente. In questo modo nacque un quadro del tutto nuovo dell’atomo, con un nucleo centrale piccolissimo ma dotato di una certa massa e fortemente carico, che Rutherford chiamò nucleo atomico, ed uno sciame di elettroni ruotanti attorno ad esso per attrazione coulombiana. In seguito alcuni collaboratori di Rutherford, tra cui Hans W. Geiger (1882–1945), scoprirono che la carica positiva di un nucleo atomico, è uguale al numero di posizione, o numero atomico, dell'elemento in esame nel Sistema Periodico degli Elementi. Era nato l'attuale quadro della struttura di un atomo. 555! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 11.8 L’atomo di Bohr e l’origine della meccanica quantistica Un atomo con elettroni stazionari disposti intorno ad un nucleo positivo sarebbe instabile, perché gli elettroni con la loro carica negativa sarebbero irresistibilmente attratti verso il nucleo. E anche se si muovessero intorno al nucleo, come i pianeti intorno al Sole, l’atomo ugualmente sarebbe destinato al collasso. Newton aveva mostrato che qualunque corpo in moto circolare subisce un’accelerazione, e Maxwell che tale corpo, se è una particella carica come l’elettrone, emette continuamente energia sotto forma di radiazione elettromagnetica. Pertanto, Niels Bohr (1885-1962; Premio Nobel), la prima difficoltà che dovette superare era che, se fosse stata vera la teoria di Rutherford, gli atomi sarebbero potuti esistere solo per una piccolissima frazione di secondo, cosa che in realtà non avveniva. Si può facilmente dimostrare che gli elettroni atomici si muoverebbero su traiettorie a spirale terminando la loro corsa nel nucleo in un tempo dell'ordine di 10-8 sec. Mentre altri avevano interpretato questi problemi di instabilità come prove schiaccianti contro l’atomo nucleare di Rutherford, per Bohr essi erano sintomi delle limitazioni della fisica classica che ne prediceva il collasso. Dal momento che la fisica di Newton e Maxwell era stata applicata in modo impeccabile e prediceva che gli elettroni precipitassero nel nucleo, Bohr ammise che la questione della stabilità dell’atomo doveva perciò essere trattata da un punto di vista diverso. Comprendeva infatti che per salvare l’atomo di Rutherford era necessario un mutamento radicale, e si rivolse al quanto introdotto da Planck nella sua equazione e usato da Einstein per spiegare l’effetto fotoelettrico. Bohr pensò che se l'energia radiante poteva esistere solo in certe quantità minime o in multipli di queste quantità, perché non fare la stessa ipotesi sull’energia meccanica degli elettroni ruotanti attorno al nucleo? In questo caso il moto degli elettroni nello stato fondamentale di un atomo corrisponderebbe a queste minime quantità d'energia, mentre gli stati eccitati corrisponderebbero ad un maggior numero di questi quanti di energia meccanica. Se il moto degli elettroni atomici e la luce emessa da questi vengono entrambi quantizzati, allora la transizione di un elettrone da un livello quantico più elevato ad uno più basso all'interno di un atomo provoca l'emissione di un quanto di luce di energia E=hf uguale alla differenza di energia tra i due livelli, tale da garantire la conservazione dell’energia totale; inversamente, se l'energia hf di un quanto di luce incidente è uguale alla differenza di energia tra lo stato fondamentale ed uno stato eccitato, il quanto sarà assorbito da un elettrone, il quale subirà una transizione dal livello più basso ad uno più alto: hfij = Ei − E j Da questi scambi energetici tra la materia e la radiazione possiamo ricavare un’importante conclusione: se un quanto di luce di energia di energia hf32 può essere emesso quando un elettrone passa da uno stato di energia E3 a uno di energia E2 e se la transizione dallo stato di energia E2 a quello di energia E1 provoca l’emissione di un quanto di luce di energia hf21, si dovrebbe osservare, almeno in alcuni casi, anche un /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 556! quanto di luce di energia hf32+hf21 = h(f32+f21), cioè una transizione diretta dallo stato E3 allo stato E1. Analogamente l’emissione di un quanto di luce di energia hf31 e di uno di energia hf32 indica la possibilità di emissione di un quanto di energia hf31–hf32 = h(f31f32). In sostanza si può affermare che: PRINCIPIO DI COMBINAZIONE DI RYDBERG Se in uno spettro compaiono due righe di emissione aventi certe frequenze, nello stesso spettro devono comparire anche le righe corrispondenti alla somma delle due frequenze ed alla loro differenza. Questo principio fu scoperto empiricamente dallo spettroscopista tedesco Johannes R. Rydberg (1854-1919) molto tempo prima della nascita della teoria dei quanti. Per spiegare la stabilità dell’atomo e il fatto che l’elettrone, pur soggetto ad accelerazione centripeta nel suo moto rotatorio intorno al nucleo, non irraggi energia, Bohr confinò gli elettroni su orbite speciali in cui non potevano emettere con continuità radiazioni né cadere a spirale nel nucleo, e così quantizzò le orbite elettroniche, ossia gli elettroni, di tutte le orbite permesse dalla fisica classica poteva occuparne soltanto alcune, i cosiddetti stati stazionari. Bohr arrivò così a formulare i seguenti due postulati: POSTULATI PER LA QUANTIZZAZIONE DELLE ORBITE E DELL’ENERGIA 1. Un elettrone può descrivere intorno al nucleo solo una successione discreta di orbite, nel senso che non tutte le orbite sono permesse. 2. Quando un elettrone percorre una data orbita non irraggia energia: il contenuto energetico dell’atomo varia solo per effetto di una transizione da un’orbita a un’altra. Tutti i fatti descritti non lasciavano alcun dubbio sulla correttezza dell'idea formulata da Bohr sulla quantizzazione dell'energia meccanica ma restavano da scoprire le regole di tale quantizzazione, in particolare occorreva stabilire un criterio per determinare le orbite accessibili all’elettrone, in modo da ottenere una descrizione dello spettro atomico consistente con la serie di J. J. Balmer (1825-1898), il quale, elaborando una notevole mole di dati sperimentali raccolti da un gran numero di spettroscopista, riuscì per primo a trovare una relazione tra la successione delle lunghezze d’onda delle righe, situate nella regione del visibile, emesse dall’atomo di idrogeno: 1 1 1 = R ⋅ 2 − 2 λ n 2 dove n è un numero positivo maggiore di 2 e R è la costante di Rydberg. Bohr risolse il problema quantizzando il momento angolare dell’elettrone secondo la seguente condizione: CONDIZIONE DI QUANTIZZAZIONE DEL MOMENTO ANGOLARE Il modulo L del momento angolare dell’elettrone rispetto al nucleo è un multiplo intero della costante h di Planck, divisa per 2π: L =n h 2π con n = 1,2,3,…2 557! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! In questo modo i valori dell’energia per gli stati stazionari permessi, ossia le orbite sulle quali l’elettrone è libero di muoversi senza irradiare energia, sono dati da: En = − mee4 2 8ε0h ⋅ 1 n2 con n = 1,2,3,… e tali valori sono quantizzati e inversamente proporzionali al quadrato del numero quantico n. I valori En dell’energia sono chiamati livelli di energia. Quello più basso, che si ottiene per n=1, rappresenta il cosiddetto livello fondamentale e il corrispondente stato quantico è lo stato fondamentale. Si dicono stati eccitati quelli con numero quantico n>1 e livelli eccitati i corrispondenti valori di energia. Per l’atomo d’idrogeno il livello fondamentale corrisponde a E1 = -13,6 eV, per cui le energie degli stati eccitati si possono ricavare mediante la relazione: En = E1 n2 Dopo questi risultati si capì anche che la formula di Balmer doveva essere considerata un caso particolare di una formula più generale: 1 1 1 = R⋅ 2 − 2 λ n n' dove n’ è un numero intero. Da questa unica relazione si ottengono tutte le serie spettroscopiche: per n’ = 1 e n = 2,3,4,… serie di Lyman nell’ultravioletto per n’ = 2 e n = 3,4,5,… serie di Balmer nel visibile per n’ = 3 e n = 4,5,6,… serie di Paschen nell’infrarosso per n’ = 4 e n = 5,6,7,… serie di Brackett nell’infrarosso e così via per le atre serie situate nell’infrarosso più lontano. Nonostante i limiti della teoria legati soprattutto all'introduzione di ipotesi ad hoc e all'uso non perfettamente coerente di idee quantistiche in un contesto classico, il modello di Bohr, per la sua relativa semplicità, deve essere considerato un geniale contributo scientifico di importanza storica, nonché un'incomparabile sorgente di ispirazione per ricerche teoriche e sperimentali successive. L’atomo quantistico, disse Rutherford, fu “un trionfo della mente sulla materia”. L’atomo di Bohr, però, incontrava difficoltà nel spiegare sistemi atomici con più di un elettrone e la cosiddetta struttura fine, ossia lo sdoppiamento delle righe. Infatti, se si osserva la materia eccitata mediante un spettroscopio dotato di un alto potere risolutivo, in grado cioè di separare componenti cromatiche la cui lunghezza d'onda differisce anche solo di pochi angstrom, alcune righe mostrano una configurazione a /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 558! multipletti. Per esempio, la riga gialla emessa dal sodio è costituita da un doppietto le cui componenti hanno lunghezze d'onda separate di circa 6 angstrom. Arnold Sommerfeld (1868-1951) risolse il problema modificando il modello atomico di Bohr. Per semplificare il suo modello, Bohr aveva imposto agli elettroni di muoversi intorno al nucleo soltanto su orbite circolari. Sommerfeld decise di lasciar cadere questa restrizione, permettendo agli elettroni di muoversi su orbite ellittiche. Sapeva infatti che, da un punto di vista matematico, le circonferenze erano soltanto una particolare classe di ellissi, e che pertanto le orbite elettroniche circolari non erano che un sottoinsieme di tutte le possibili orbite ellittiche quantizzate. Il numero quantico n nel modello di Bohr specificava uno stato stazionario, un’orbita elettronica circolare permessa, e il corrispondente livello energetico. Il valore di n determinava anche il raggio di una data orbita circolare. Viceversa, per definire la forma di un’ellisse sono necessari due numeri, perciò Sommerfeld introdusse l, il numero quantico orbitale, per quantizzare la forma di un’orbita ellittica. Di tutte le forme possibili per un’orbita ellittica, l determinava quelle che erano permesse per un dato valore di n. Nel modello modificato di Sommerfeld, il numero quantico principale n determinava i valori che l poteva assumere: se n=1 allora l=1; n=2, l=1 e 2; n=3, l=1,2,3 e così via. Per un dato n, l è uguale a ogni numero intero da 1 fino a n compreso. Quando n=l l’orbita è sempre circolare. Viceversa se l<n, l’orbita è ellittica. Per esempio, quando n=1 e l=1, l’orbita è circolare con un raggio r (raggio di Bohr). Quando n=2 e l=1, l’orbita è ellittica; ma per n=2 e l=2 si ha un’orbita circolare con un raggio 4r. Perciò quando l’atomo di idrogeno è nello stato quantico n=2, il suo unico elettrone può trovarsi sia nell’orbita l=1 sia nell’orbita l=2. Nello stato n=3, l’elettrone può occupare una qualunque delle tre orbite: n=3 e l=1, ellittica; n=3, l=2, ellittica; n=3, l=3, circolare. Mentre nel modello di Bohr n=3 corrispondeva a un’unica orbita circolare, nell’atomo quantistico modificato di Sommerfeld c’erano tre orbite permesse. Questi ulteriori stati stazionari potevano spiegare la suddivisione delle righe spettrali della serie di Balmer. Per giustificare lo sdoppiamento delle righe spettrali, Sommerfeld fece ricorso alla teoria della relatività: un elettrone su un’orbita ellittica quando si avvicina al nucleo acquista velocità e la sua massa aumenta. Questo aumento relativistico della massa dà origine a una piccolissima variazione dell’energia. Gli stati n=2, le due orbite l=1 e l=2, hanno energie differenti perché l=1 è ellittica e l=2 è circolare. Questa modesta differenza di energia produce due livelli energetici che a loro volta danno luogo a due righe spettrali dove il modello di Bohr ne prevedeva una sola. Sommerfeld riuscì a spiegare anche l’effetto Zeeman, secondo il quale in un campo magnetico una singola riga spettrale si scinde in un certo numero di righe distinte, e che una volta annullato il campo magnetico la scissione scompare. La soluzione di Sommerfeld era ingegnosa. Nell’atomo di Bohr-Sommerfeld le orbite erano circolari o ellittiche e giacenti in un piano. Sommerfeld si rese conto che l’orientazione di un’orbita era la soluzione per spiegare l’effetto Zeeman. In un campo magnetico un elettrone può scegliere tra un maggior numero di orbite permesse orientate in varie direzioni rispetto al campo, e Sommerfeld introdusse quello che chiamò numero 559! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! quantico magnetico m, per quantizzare l’orientazione di tali orbite. Per un dato numero quantico principale n, m può avere solo valori compresi tra –n ed n. Se n=2, m=-2,1,0,1,2. L’orientazione delle orbite elettroniche, o quantizzazione spaziale, fu confermata sperimentalmente nel 1921. Essa rendeva disponibili ulteriori stati energetici, ora contrassegnati dai tre numeri quantici n,l,m, che un elettrone poteva occupare in presenza di un campo magnetico esterno, e che conducevano all’effetto Zeeman. Per diversi anni il modello atomico di Bohr-Sommerfeld rappresentò lo schema fondamentale per interpretare i fatti sperimentali della fisica atomica. Tuttavia, nonostante i brillanti successi, aveva lasciato spazio a molte perplessità. Da una lettera di Rutherford leggiamo: "Caro dottor Bohr ... Le sue idee sull'origine dello spettro dell'idrogeno sono molto ingegnose e sembrano funzionare bene; ma la mescolanza delle idee di Planck con la vecchia meccanica consente molto difficilmente di fondarsi un'idea fisica della base di tutto il discorso ... Come fa un elettrone a decidere con quale frequenza deve vibrare quando passa da uno stato stazionario all'altro? Sembra che si debba supporre che l'elettrone sappia in partenza dove andrà a finire". L'introduzione dei postulati di quantizzazione sembrava in effetti del tutto arbitraria. Era difficile riuscire a giustificare concettualmente il mancato irraggiamento degli elettroni atomici, obbligati a ruotare solo lungo alcune particolari orbite. Ci si rese conto ben presto che non era corretto estendere al mondo atomico le leggi del mondo macroscopico: gli atomi, gli elettroni, i quanti di energia e le altre entità microscopiche non potevano essere trattati come gli oggetti osservati nella realtà di ogni giorno. Come la meccanica relativistica, nata dalla revisione di alcuni concetti riguardanti lo spazio e il tempo, contiene la meccanica classica, così, da una sistematica revisione del modello di Bohr, si sperava di costruire una nuova meccanica che potesse dare risultati conformi all'esperienza nelle applicazioni ai domini microscopici e, nello stesso tempo, tendesse alla fisica classica per quei fenomeni nei quali le discontinuità quantistiche diventano trascurabili. In questo consiste il: PRINCIPIO DI CORRISPONDENZA Le previsioni della meccanica quantistica devono concordare con quelle della meccanica classica man mano che il sistema quantistico si ingrandisce verso dimensioni macroscopiche. Quando, cioè, la meccanica quantistica è applicata al mondo macroscopico, essa deve essere in grado di riprodurre le leggi classiche. La via per arrivare a formulare una nuova fisica atomica iniziò verso il 1924 con due diverse teorie elaborate quasi contemporaneamente: la meccanica ondulatoria di Schrodinger e la meccanica delle matrici sviluppata da Heisenberg. 11.9 Dualità onda-corpuscolo nella materia Come abbiamo visto precedentemente, per risolvere le difficoltà incontrate nei riguardi dell'effetto fotoelettrico, all'inizio del 1900 si rese necessario attribuire alla radiazione elettromagnetica proprietà corpuscolari, introducendo i cosiddetti quanti o fotoni. Questa nuova concezione, proposta da Einstein, fu per molti un vero shock. I fenomeni di interferenza e diffrazione della luce erano infatti manifestazioni in- /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 55:! confutabili di una natura ondulatoria. D'altra parte, oltre all'effetto fotoelettrico, anche altre esperienze, come la diffusione Compton della luce da parte di elettroni liberi, davano fondamento all'ipotesi corpuscolare. Si doveva quindi ammettere che la dualità onda-corpuscolo fosse insita nella natura della luce. Ma le sorprese dovevano ancora arrivare. I due contraddittori aspetti della radiazione elettromagnetica non si erano mai manifestati nella meccanica dei corpi materiali: un elemento di materia, per quanto piccolo, era sempre e soltanto un'entità materiale, cioè un corpuscolo. Nel 1924 Louise de Broglie (1892-1987; Premio Nobel) avanzò, nella sua tesi di laurea, un'ipotesi che portò ulteriore sconcerto nel mondo della fisica classica. Partendo dal presupposto che la dualità onda-corpuscolo dovesse riflettere una legge generale della natura, egli pensò di estendere questa proprietà alle particelle. Se le radiazioni luminose, che presentano così palesemente un aspetto ondulatorio, possono talvolta comportarsi come particelle, perché un elettrone o un protone, che sono evidentemente dei corpuscoli, non dovrebbero comportarsi in determinate circostanze come delle onde? Per il fotone il modulo p della quantità di moto è legato alla frequenza f e alla lunghezza d'onda mediante le relazioni: p=hf/c=h/λ e quindi λ=h/p. De Broglie ammise che la lunghezza d'onda associata a una particella materiale dipendesse dalla quantità di moto nella stessa forma. Essendo in tal caso p=mv, egli mise così in relazione, tramite la costante h di Planck, due grandezze caratteristiche dei corpuscoli materiali (la massa e la velocità) con una grandezza peculiare delle onde (la lunghezza d'onda): LUNGHEZZA D'ONDA DI DE BROGLIE La lunghezza d'onda di un corpuscolo materiale di massa m e velocità v è espressa da: λ= h h = mv p Dal momento che λ è inversamente proporzionale a p, agli oggetti macroscopici corrispondono lunghezze d'onda che sono praticamente nulle e che, quindi, non generano alcun effetto osservabile. Invece, elettroni e altre particelle subatomiche hanno lunghezze d'onda di de Broglie relativamente grandi (rispetto alle dimensioni degli atomi) che ne determinano i comportamenti fisici. Combinando l’ipotesi di Planck con l’equivalenza di Einstein si ottiene che: hf = E = mc2 così, secondo la proposta di de Broglie, la dicotomia fra particelle e campi, che era stata un elemento importante della teoria classica, non è rispettata dalla natura. Di fatto, qualsiasi cosa oscilli con una qualche frequenza, può presentarsi solo in unità discrete di massa m=hf/c2. In qualche modo, la natura riesce a costruire un mondo consistente in cui particelle e oscillazioni di campo sono la stessa cosa. O, piuttosto, il mondo è formato da una entità più sottile e ancora nascosta all’osservazione, di cui le particelle e le onde riescono a dare immagini appropriate solo in parte. La proposta di de Broglie: 56<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! a) ingloba la relazione di Planck per i fotoni E = hf; b) permette di giustificare la condizione di quantizzazione di Bohr per l'atomo di idrogeno. Per quanto riguarda il punto (a), basta ricordare che la quantità di moto p di un fotone è legata alla sua energia E dalla relazione p = E/c e che lunghezza d'onda e frequenza sono inversamente proporzionali λ = c/f. In relazione al punto (b), se un elettrone descrive indisturbato una certa orbita, a esso deve essere associata un'onda stazionaria, cioè un'onda che permanga invariata fino a che l'elettrone non cambia stato di moto. Ma, come è mostrato in figura, un'onda stazionaria lungo l'orbita dell'elettrone si deve «richiudere su sé stessa»: ciò significa che la lunghezza dell'orbita non può avere un valore arbitrario, ma deve essere un multiplo della lunghezza d'onda λ associata all'elettrone. In questo modo de Broglie riesce a spiegare l’esatta collocazione delle orbite nell’atomo quantistico di Bohr. Un elettrone può infatti occupare soltanto quelle orbite in cui può trovare posto un numero intero di lunghezze d’onda della sua onda stazionaria. Se considerato come un’onda stazionaria intorno al nucleo invece che come una particella in orbita, un elettrone non è soggetto ad accelerazione e quindi ad alcuna perdita continua di radiazione che lo obblighi a cadere sul nucleo producendo il collasso dell’atomo. Se indichiamo con rn il raggio dell'orbita, che deve avere lunghezza nλ, questa affermazione può essere scritta nella forma: 2πrn = nλ Introducendo l’ipotesi di de Broglie λ = h/p nella formula precedente e ponendo p=mv, si ottiene allora: 2πmvrn = nh Poiché per definizione il momento angolare di una particella su un’orbita circolare è L=mvrn, l’espressione precedente diventa: L =n h 2π che è proprio la condizione di quantizzazione di Bohr per un'orbita circolare dell'atomo di idrogeno. Bohr per impedire all’atomo di Rutherford di subire il collasso era stato costretto ad imporre una condizione per la quale non aveva dato nessuna giustificazione: un elettrone in un’orbita stazionaria intorno al nucleo non emette radiazione. L’idea di de Broglie di trattare gli elettroni come onde stazionarie segnava un radicale allontanamento dalla concezione degli elettroni come particelle in orbita intorno ad un nucleo atomico. Quindi, secondo il modello di de Broglie, è la natura ondulatoria dell'elettrone a determinare le proprietà degli atomi e, in particolare, la quantizzazione della loro energia. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 56;! Gli esperimenti di Compton avevano dimostrato che Einstein aveva ragione a ritenere che la luce avesse una natura anche corpuscolare. Ora de Broglie stava suggerendo lo stesso tipo di fusione, il dualismo onda-particella, anche per la materia. Ma ciò era veramente possibile? De Broglie aveva immediatamente compreso che se la materia ha proprietà ondulatorie, un fascio di elettroni dovrebbe “sparpagliarsi” come un raggio di luce, ossia subire il fenomeno della diffrazione. La prima verifica delle proprietà ondulatorie delle particelle fu effettuata nel 1927 da Clinton Davisson (1881-1958; Premio Nobel) e Lester Germer (1896-1971; Premio Nobel) con un esperimento di diffusione. I due fisici americani osservarono che un fascio di elettroni, interagendo con un cristallo di nichel, produceva una figura di diffrazione. Facendo variare l'energia degli elettroni incidenti, le posizioni dei massimi e dei minimi di diffrazione si spostavano e, in tutti i casi, le lunghezze d'onda misurate erano in accordo con la formula di de Broglie. Nello stesso anno George P. Thomson (18921975; Premio Nobel), figlio di J. J. Thomson, lo scopritore della natura corpuscolare degli elettroni, dimostrava la natura ondulatoria degli elettroni, facendo passare un fascio di raggi catodici attraverso pellicole estremamente sottili di oro e di argento produsse, impressionandole su lastre fotografiche, figure di diffrazione identiche a quelle che si sarebbero ottenute con i raggi X. Intorno al 1930, Otto Stern (1888-1969), ripetendo gli esperimenti di diffrazione con atomi di sodio, dimostrò che anche corpuscoli più complessi come gli atomi presentano proprietà ondulatorie: le onde di de Broglie diventarono un'indiscutibile realtà fisica, sebbene nessuno capisse perfettamente che cosa fossero. Nel 1931, Max Knoll (1897-1969) ed Ernst Ruska (1906-1988; Premio Nobel), servendosi della natura ondulatoria dell’elettrone, inventano il microscopio elettronico. Nessuna particella più piccola di circa mezza lunghezza d’onda della luce bianca può assorbire o riflettere le onde luminose in modo da risultare visibile con un microscopio ordinario. Viceversa le onde elettroniche, con lunghezze d’onda oltre 100.000 volte minori di quella della luce, sono in grado di rendere visibili tali particelle. 11.10 Nascita della meccanica quantistica La fisica atomica offriva un gran numero di risultati sperimentali ancora da interpretare e certe manifestazioni della natura a livello microscopico sembravano contraddirne altre e nessuno, fino a questo momento, aveva idea delle correlazioni che potevano sussistere. Per superare i problemi che affliggevano la fisica atomica era necessario porre fine alle ipotesi ad hoc introdotte ogni qualvolta gli esperimenti fornivano dati in conflitto con la teoria esistente. Un simile modo di procedere poteva soltanto nascondere i problemi senza mai condurre alla loro soluzione. Il metodo da 56=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! seguire doveva essere quello utilizzato da Einstein che lo aveva portato ad elaborare la teoria della relatività, ossia stabilire i principi fisici e filosofici prima di passare a sviluppare le minuzie matematiche formali necessarie per tenere insieme il complesso edificio teorico. Per un quarto di secolo, gli sviluppi della fisica quantistica - dalla legge della radiazione di corpo nero di Planck al quanto di luce di Einstein, dall’atomo quantistico di Bohr-Sommerfeld al dualismo onda-particella per la materia di de Broglie – erano stati il prodotto di un matrimonio infelice tra concetti quantistici e fisica classica. I fisici dovevano liberarsi di cercare di far rientrare concetti quantistici nella cornice rassicurante e familiare della fisica classica. Ciò che occorreva era una nuova teoria, una nuova meccanica del mondo quantistico, appunto la meccanica quantistica. Il primo a farlo fu Werner Heisenberg (1902-1976; Premio Nobel), quando adottò in modo pragmatico il credo positivista secondo il quale la scienza doveva basarsi su fatti osservabili, e tentò di costruire una teoria basata esclusivamente sulle grandezze osservabili. Infatti l’idea di Heisenberg era quella di separare ciò che era osservabile da ciò che non lo era. L’orbita di un elettrone intorno al nucleo di un atomo di idrogeno non era osservabile, per cui l’idea di elettroni in orbita doveva essere abbandonata, così come qualunque tentativo di visualizzare ciò che accadeva all’interno di un atomo. Pertanto Heisenberg, nel suo tentativo di costruzione di una teoria coerente ed unitaria, decise di ignorare tutto ciò che era inosservabile e concentrando l’attenzione soltanto su quelle grandezze che potevano essere misurate in laboratorio, come le frequenze e le intensità delle righe spettrali associate con la luce emessa o assorbita quando un elettrone salta da un livello energetico ad un altro. In qualsiasi calcolo erano ammissibili soltanto relazioni tra grandezze osservabili, ossia quelle che potevano essere misurate in via di principio: “Si è compiuto il tentativo di ottenere i fondamenti per una meccanica della teoria dei quanti basata esclusivamente su relazioni tra quantità che in linea di principio sono osservabili”. L’osservabilità era il promettente principio di questa nuova meccanica. Era necessario smettere di cercare di rendere conto del comportamento degli elettroni in modo diretto ed esprimere invece ciò che si voleva conoscere in funzione di ciò che si poteva osservare. Heisenberg aveva conferito lo status di postulato all’osservabilità di tutte le grandezze che comparivano nelle sue equazioni, e alla definitiva sostituzione del concetto delle traiettorie orbitali in quanto non osservabili. Nella ricerca di una nuova meccanica per il mondo quantizzato dell’atomo, Heisenberg si concentrò sulle frequenze e le intensità relative delle righe spettrali prodotte quando un elettrone saltava in modo istantaneo da un livello energetico ad un altro. La scelta era obbligata: erano gli unici dati disponibili su ciò che accadeva all’interno di un atomo. A dispetto delle immagini evocate da tutti i discorsi sui salti e i balzi quantici, un elettrone, quando si spostava tra i livelli energetici, non saltava nello spazio come quando si colpisce una pallina, semplicemente era in un posto e un istante dopo spuntava fuori in un altro, senza essere stato in nessun punto intermedio. Heisenberg ammise che tutte le osservabili, o qualunque altra cosa collegata con esse, fossero associate con il mistero del salto quantico di un elettrone tra due livelli energetici. Il consolante sistema solare in miniatura in cui ogni elettrone orbitava intorno ad un sole nucleare era perduto per sempre. Heisenberg escogitò un metodo contabile per seguire le tracce di tutti i possibili salti elettronici, o transizioni, che potevano verificarsi tra i differenti livelli energetici dell’idrogeno. Il sistema che riuscì a concepire per registrare ogni grandezza osservabile, associata con una coppia unica di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 564! livelli energetici, fu il ricorso ad una tabella (una matrice in termini matematici) che conteneva l’intero insieme delle frequenze possibili per le righe spettrali che potevano teoricamente essere emesse da un elettrone quando saltava tra due differenti livelli energetici. La teoria così costruita esclusivamente con osservabili sembrava riprodurre ogni evidenza sperimentale, ma sembrava funzionare soltanto con l’aiuto di una strano tipo di moltiplicazione in cui ! ! ! ! ! ! !, ossia per le tabelle costruite non valeva la commutatività tipica dei numeri. Qual era il significato della misteriosa regola della moltiplicazione? Max Born (1882-1970; Premio Nobel) si rese conto che Heisenberg si era imbattuto nel prodotto di matrici, per le quali non sempre vale la proprietà della commutatività. A questo punto Born trovò rapidamente una formula matriciale che connetteva la posizione q e la quantità di moto p: pq-qp=(ih/2̟)I dove I è la matrice unitaria necessaria per scrivere il secondo membro dell’equazione sotto forma di una matrice. Sulla base di questa equazione fondamentale, mediante i metodi della matematica delle matrici, la cosiddetta meccanica delle matrici, fu costruita la prima formulazione coerente dell’intera meccanica quantistica. Mentre Heisenberg, Born e Jordan si erano concentrati sullo sviluppo della teoria, Pauli aveva applicato con successo la meccanica delle matrici nella riproduzione dello spettro delle righe dell’atomo d’idrogeno, nonché nella spiegazione dell’effetto Stark, ossia l’influsso di un campo elettrico esterno sullo spettro. Pauli aveva fornito la prima convalida concreta della nuova meccanica quantistica. Le originali idee di de Broglie sulla natura ondulatoria della materia acquistarono un soddisfacente formalismo matematico nel 1926 per opera del viennese Erwin Schrodinger (1887-1961; Premio Nobel). La fisica di un’onda, qualunque essa sia, è sempre descritta da un’equazione. Non ci possono essere onde senza un’equazione d’onda. Quindi Schrodinger decise di trovare l’equazione mancante per le onde materiali di de Broglie. Schrodinger sapeva esattamente da dove partire e che cosa doveva fare. De Broglie aveva messo alla prova la sua idea del dualismo onda-particella riproducendo le orbite elettroniche permesse nell’atomo di Bohr come quelle in cui poteva trovare posto soltanto un numero intero di lunghezza d’onda dell’onda elettronica stazionaria. Schrodinger sapeva che la sfuggente equazione d’onda che cercava avrebbe dovuto riprodurre il modello tridimensionale dell’atomo d’idrogeno con onde stazionarie anch’esse tridimensionali. L’atomo d’idrogeno sarebbe stato il banco di prova dell’equazione d’onda che doveva trovare. Dopo mesi di lavoro Schrodinger arrivò a formulare l’equazione che descriveva le onde di materia, molto simile a quella che descrive la propagazione delle onde meccaniche o elettromagnetiche: EQUAZIONE D’ONDA DI SCHRODINGER Tale equazione era stata costruita utilizzando la formula dell’onda-particella di de Broglie, che connetteva la lunghezza d’onda associata a una particella con la sua quantità di moto, oltre ad equazioni ben fondate della fisica classica. Ma prima dovette 565! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dimostrare che era l’equazione d’onda giusta. Una volta applicata all’atomo d’idrogeno, avrebbe generato i valori corretti per i livelli energetici? Schrodinger constatò che la sua equazione d’onda riproduceva effettivamente la serie di livelli energetici dell’atomo di idrogeno di Bohr-Sommerfeld. Più complicata delle onde stazionarie unidimensionali di de Broglie che si inserivano nelle orbite circolari, la teoria di Schrodinger generava gli analoghi tridimensionali di quelle onde, gli orbitali elettronici. Le energie associate a questi ultimi erano anch’esse generate come parte integrante delle soluzioni accettabili dell’equazione d’onda di Schrodinger. Bandite per sempre erano le condizioni artificiose richieste dall’atomo quantistico di Bohr-Sommerfeld. Tutte le ipotesi ad hoc finora introdotte nell’atomo quantistico per dar conto delle sue evidenze sperimentali, adesso scaturivano in modo naturale dall’interno della struttura della nuova meccanica di Schrodinger, la meccanica ondulatoria. Anche il misterioso salto quantico di un elettrone tra le orbite sembrava venisse sostituito dalle transizioni graduali e continue da un’onda elettronica stazionaria tridimensionale permessa a un’altra. L’articolo intitolato Quantizzazione come problema agli autovalori (1926) presentava la versione di Schrodinger della meccanica quantistica e la sua applicazione all’atomo di idrogeno. In netto contrasto con la fredda e austera meccanica delle matrici, che metteva al bando anche il minimo accenno di visualizzabilità, Schrodinger offriva un’alternativa familiare e rassicurante che, rispetto alla formulazione altamente astratta di Heisenberg, prometteva di spiegare il mondo dei quanti in termini più vicini alla fisica classica. In luogo delle matrici, Schrodinger portava equazioni differenziali, che erano parte essenziale del bagaglio matematico di un fisico. La meccanica delle matrici offriva salti quantici e discontinuità e nulla da raffigurarsi mentalmente quando si cercava di farsi un’idea dei meccanismi interni dell’atomo. Per Schrodinger, invece, non c’erano salti quantici tra i differenti livelli energetici di un atomo, ma solo transizioni graduali, continue, da un’onda stazionaria a un’altra. Schrodingerer era convinto che una particella non fosse una minuscola palla da biliardo, bensì un pacchetto compatto di onde che creava l’illusione di un oggetto discreto. Tutto, essenzialmente, si riduceva a onde. In sintesi, era convinto che la meccanica ondulatoria consentisse il ripristino di un’immagine classica, intuitiva, della realtà fisica, caratterizzata da continuità, causalità e determinismo. Però, tutte queste convinzioni non discendevano direttamente dalla sua equazione. E poi c’era una domanda alla quale non si era in grado di dare una risposta: se la fisica doveva tornare a essere completamente continua, com’era possibile spiegare l’effetto fotoelettrico e la diffusione Compton, che rappresentavano due conferme sperimentali dirette dell’asserzione che la luce consiste di pacchetti discreti e identificabili? All’inizio del 1925 non c’era ancora una meccanica quantistica, una teoria che rappresentasse per la fisica atomica ciò che la meccanica newtoniana aveva rappresentato per la fisica classica. Un anno dopo c’erano due teorie in competizione, che erano profondamente diverse tra loro, ma che entrambe fornivano le stesse soluzioni quando venivano applicate ai medesimi problemi. Qual era, ammesso che ve ne fosse una, la connessione tra meccanica delle matrici e meccanica ondulatoria? Fu lo stesso Schrodinger a trovare la connessione. Le due teorie che sembravano così diverse per forma e contenuto, l’una impiegando equazioni d’onda e l’altra algebra matriciale, l’una descrivendo onde e l’altra particelle, erano matematicamente equivalenti. I vantaggi di disporre di due formalismi quantomeccanici diversi divennero presto evidenti. La meccanica ondulatoria di Schrodinger forniva la via più facile alla /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 566! soluzione della maggior parte dei problemi con cui i fisici avevano a che fare. Ma per altri, come quelli che coinvolgevano lo spin, era l’impostazione matriciale a risultare più efficace. Dato che ogni possibile disputa su quale delle due teorie fosse corretta era stata soffocata ancor prima che potesse iniziare, l’attenzione si spostò dal formalismo matematico all’interpretazione fisica. Le due teorie potevano anche essere tecnicamente equivalenti, ma la natura della realtà fisica che stava oltre la matematica era del tutto diversa: le onde e le continuità di Schrodinger contro le particelle e la discontinuità di Heisenberg. Ciascuno dei due era convinto che la sua teoria cogliesse la vera natura della realtà fisica. Non potevano avere entrambi ragione. 11.11 Il significato fisico della funzione d’onda Schrodinger sapeva fin dal primo momento che c’era un problema connesso con la sua versione della meccanica quantistica. Secondo le leggi di Newton, se si conosce la posizione di un elettrone a un certo istante insieme alla sua velocità, è possibile in teoria determinare esattamente dove esso si troverà in un istante successivo. Un’onda, a differenza di una particella, non è localizzata in un singolo punto, ma è una peturbazione che trasferisce energia attraverso un mezzo. Tutte le onde, quali che siano le loro dimensioni e la loro forma, possono essere descritte da un’equazione che ne rappresenta il moto matematicamente, proprio come fanno le equazioni di Newton per una particella. La soluzione dell’equazione di Schrodinger, nota come funzione d'onda e indicata con la lettera ψ, contiene tutte le informazioni circa l'evoluzione dell'ondaparticella nello spazio e nel tempo, ossia dalla cui conoscenza è possibile ricavare lo stato della particella. Ma c’era una domanda cui Schrodinger trovava difficile rispondere: che cos’era a compiere l’oscillazione? Nel caso delle onde sonore, per esempio, sono le molecole d’aria o il campo elettromagnetico nel caso delle onde elettromagnetiche. Schrodinger credeva che le onde di materia fossero altrettanto reali quanto qualsiasi di queste onde. Ma qual era il mezzo attraverso il quale si propagava un’onda elettronica? La domanda equivaleva a chiedersi qual era, in termini di obiettive entità sperimentali, il significato fisico della funzione d'onda. Schrodinger alla fine propose che la funzione d’onda, per esempio, di un elettrone fosse intimamente connessa alla distribuzione a forma di nube della sua carica elettrica mentre si muoveva attraverso lo spazio. Ma la funzione d’onda era inosservabile, era qualcosa che non poteva essere misurato direttamente perché espressa da un punto di vista matematico da un numero complesso. Ma il quadrato di un numero complesso è un numero reale che è associato con qualcosa che può effettivamente essere misurato in laboratorio. Schrodinger riteneva che il quadrato della funzione d’onda di un elettrone fosse una misura della densità di carica spalmata nella posizione x al tempo t. Nel contesto della sua interpretazione della funzione d’onda, Schrodinger introdusse il concetto di pacchetto d’onde per rappresentare l’elettrone, mettendo nel contempo in discussione l’idea stessa dell’esistenza delle particelle. La sua tesi era che un elettrone sembrasse soltanto 567! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! un’entità corpuscolare, ma non fosse realmente una particella. Schrodinger credeva che l’elettrone corpuscolare fosse un’illusione. In realtà c’erano soltanto onde. Qualunque manifestazione di un elettrone corpuscolare era dovuta a un gruppo di onde materiali che venivano fatte sovrapporre in un pacchetto d’onde. Un elettrone in moto non sarebbe nient’altro che un pacchetto d’onde in movimento. Un pacchetto d’onde per avere l’aspetto di una particella doveva essere formato da un insieme di onde di differenti lunghezze d’onda che interferivano tra loro in modo da annullarsi reciprocamente al di fuori del pacchetto d’onde. Ma presto tale interpretazione andò incontro a difficoltà in quanto fisicamente insostenibili. In primo luogo, la rappresentazione dell’elettrone come pacchetto d’onde cominciò ad andare in crisi quando si scoprì che le onde costituenti si sarebbero disperse nello spazio in misura tale che avrebbero dovuto propagarsi più velocemente della luce per poter essere connesse con la rivelazione di un elettrone corpuscolare in un esperimento. In secondo luogo, quando furono compiuti dei tentativi di applicare l’equazione d’onda all’elio ed altri atomi, la concezione della realtà di Schrodinger che sottostava alla sua matematica si dissolse in uno spazio multidimensionale astratto che era impossibile visualizzare. Le onde che occupavano questi spazi astratti non potevano essere le onde fisiche reali che, nelle speranze di Schrodinger, avrebbero ripristinato la continuità ed eliminato il salto quantico. L’interpretazione di Schrodinger non poteva neppure rendere conto dell’effetto fotoelettrico e Compton. C’erano interrogativi senza risposta: come poteva un pacchetto d’onde possedere carica elettrica? La meccanica ondulatoria poteva incorporare lo spin quantistico? Se la funzione d’onda di Schrodinger non rappresentava onde reali nello spazio tridimensionale quotidiano, di che onde si trattava? Fu Born a fornire la risposta. Convinto che le particelle non potessero essere semplicemente abolite, Born trovò un modo per collegarle con le onde mediante la probabilità, nel contesto di una nuova interpretazione della funzione d’onda. Mentre Schrodinger rinunciava all’esistenza delle particelle, Born, nel tentativo di salvarle, proponeva un’interpretazione della funzione d’onda che metteva in discussione un principio fondamentale della fisica classica: il determinismo. Nella meccanica classica lo stato di un sistema, in linea di principio, è completamente determinato in ogni istante, grazie alle leggi di Newton, se si specificano posizione e velocità ad un dato istante. La meccanica quantistica sostituisce questa immagine concreta dello stato di un sistema fisico con un oggetto matematico, che abbiamo chiamato funzione d’onda o vettore di stato, che non ha analogo fisico e non è essa stessa qualcosa di osservabile, ma esiste un procedimento matematico, a partire dall’equazione di Schrodinger, per estrarre dalla funzione d’onda informazioni sulle quantità osservabili. Ma la differenza sostanziale tra la meccanica quantistica e quella classica è che la funzione d’onda /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 568! fornisce solo una probabilità sulle grandezze osservabili, cioè si possono dedurre solo le probabilità che la particella si trovi in una determinata regione dello spazio e che abbia una certa velocità. Bohr, nella sua interpretazione della meccanica quantistica (interpretazione di Copenaghen), che tratteremo nel capitolo 13, sosterrà addirittura che, finchè non viene effettuata un’osservazione o una misurazione, un oggetto microscopico come un elettrone non esiste da nessuna parte. Tra una misurazione e la successiva esso non ha alcun tipo di esistenza al di fuori delle possibilità astratte della funzione d’onda. Soltanto quando viene compiuta un’osservazione o misurazione la funzione d’onda subisce il collasso mentre uno dei possibili stati dell’elettrone diventa lo stato effettivo e la probabilità di tutte le altre possibilità diventa nulla. È molto importante notare che la probabilità di cui stiamo parlando è molto diversa da quella che si incontra in altri campi della fisica. Per esempio, in sistemi (come i gas) che contengono un gran numero di particelle è impossibile sia conoscere le proprietà di tutte le componenti del sistema, sia calcolarne l'evoluzione. In tale contesto si deve introdurre una probabilità da ignoranza: non sapendo fare di meglio, ci limitiamo a calcolare, per esempio, la probabilità che, presa una molecola, essa abbia una certa velocità. Ciò non toglie che, almeno in linea di principio, possedendo più informazioni e capacità di calcolo rispetto a quelle che abbiamo, la soluzione esatta del problema sarebbe possibile. La probabilità quantistica rappresentava, invece, una caratteristica intrinseca della realtà atomica. Il fatto che fosse impossibile predire quando un singolo atomo in un campione radioattivo sarebbe decaduto, non era dovuto ad una mancanza di conoscenza ma era conseguenza della natura probabilistica delle leggi quantistiche che governano il decadimento radioattivo. Secondo Born, se si tenta di rivelare sperimentalmente in un certo istante t la posizione (x, y, z) di un corpuscolo, la probabilità di trovare l'oggetto microscopico in una piccola regione di volume ∆V contenente il punto (x, y, z) e in un piccolo intervallo di tempo ∆t centrato intorno a t è proporzionale a: DENSITA’ DI PROBABILITA’ 2 ψ ∆V∆t Il quadrato del modulo della funzione d'onda, chiamato densità di probabilità (a indicare la probabilità per unità di volume e per unità di tempo) possiede così un significato fisico reale: 1. La densità di probabilità non dice dove un fotone è in un dato istante, ma semplicemente dove è probabile che sia. 2. La funzione d’onda rappresenta non come il sistema è, ma ciò che sappiamo del sistema. 3. Uno stato descrive la condizione di un sistema fisico. In generale, l’ampiezza di uno stato dà la probabilità dei vari possibili risultati di un’osservazione. Per alcuni stati c’è un solo risultato possibile relativamente ad una data osservazione; ossia lo stato non viene alterato dalla misura e misure ripetute daranno ogni volta lo stesso risultato, e si chiamano stati stazionari o autostati. Le probabilità calcolate a partire dalla ψ(x, y, z, t) sono le informazioni più dettagliate che in via di principio è possibile avere sul sistema fisico quantistico in 569! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! esame. Non è che la meccanica quantistica sia inadeguata a predire l’esatta posizione o la velocità della particella in un dato istante, è che una particella quantistica semplicemente non possiede un insieme completo di attributi fisici con valori ben precisi. In sintesi, questa interpretazione probabilistica di ψ è il principale strumento per creare il legame tra le formule della fisica quantistica e l’osservazione nell’esperimento. Tutti i risultati sperimentali sono in accordo con questa visione probabilistica cosicché, alla luce delle conoscenze odierne, dobbiamo rinunciare al determinismo che era tipico della fisica classica: in generale, non possiamo più pretendere di prevedere in dettaglio l'evoluzione di un sistema fisico, ossia la sua traiettoria, o il risultato di una misura sperimentale. Dobbiamo «accontentarci» di calcolare con quale probabilità avranno luogo le possibili evoluzioni di uno stesso stato fisico, oppure con quali probabilità, eseguendo un esperimento, otterremo uno dei risultati possibili piuttosto che un altro. Questa funzione d’onda formalizza il fatto misterioso che sta alla base della meccanica quantistica, la cosiddetta dualità onda-corpuscolo, ossia che tutte le particelle si comportano come onde, e tutte le onde come particelle (la differenza tra una particella e un’onda è che la prima è localizzata in un punto specifico, mentre la seconda si estende in una certa regione spaziale). Dunque se si vuole descrivere una particella, che è localizzata, con qualcosa che si comporta come un’onda non localizzata, si fa per l’appunto ricorso alla funzione d’onda, che descrive non tanto la particella quanto piuttosto la probabilità di trovarla in una data posizione a un dato istante. Se la funzione, e dunque la probabilità di trovare la particella, è diversa da zero in molti punti diversi, allora la particella si comporta come se fosse in molti punti diversi allo stesso tempo. Se è la funzione d’onda ciò di cui le leggi della fisica quantistica determinano il comportamento, allora l’equazione di Schrodinger ci dice che data la funzione d’onda di una particella in certo istante, in linea di principio permette di calcolare, in modo totalmente deterministico, la funzione d’onda in qualunque istante successivo. Praticamente è come per le leggi di Newton che consentono di determinare la traiettoria di un corpo, o le equazioni di Maxwell, che ci dicono come evolvono nel tempo le onde elettromagnetiche. La differenza sostanziale, però, è che in meccanica quantistica la grandezza che evolve nel tempo in maniera deterministica non è direttamente osservabile, ma è piuttosto un’insieme di probabilità di ottenere certi risultati facendo delle misure, come trovare, per esempio, la particella in una certa posizione a un dato istante. Infatti, nell’esperimento della doppia fenditura, che analizzeremo in seguito, si parla di sovrapposizione delle due funzioni d’onda che si ottengono quando è aperta ognuna delle due fenditure singolarmente, ma in questo caso non stiamo considerando un’onda materiale, bensì, una assai astratta onda di probabilità. PRINCIPIO DI SOVRAPPOSIZIONE Se un sistema fisico ammette due ampiezze di probabilità ψa e ψb che descrivono due stati del sistema, allora lo stesso sistema può essere descritto anche dall’ampiezza ψ somma delle ampiezze ψa e ψb: ψ = ψa + ψb Si dice che il sistema fisico è descritto da una sovrapposizione di stati. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 56:! Se ψa e ψb descrivono, rispettivamente, il caso in cui il fotone passa per la fenditura A e quello in cui esso passa per la fenditura B, ψ descrive una situazione in cui la fenditura attraverso cui il fotone, o qualsiasi altra particella, passa non è definita. Dal punto di vista classico questa descrizione non ha significato, mentre dal punto di vista delle onde di probabilità è del tutto coerente. Tutto ciò che è possibile calcolare è la probabilità che un fotone passi attraverso una determinata fenditura. Infatti, prepariamo una successione di fotoni, tutti descritti dall’ampiezza di probabilità ψ, e posizioniamo vicino alle fenditure degli appositi rivelatori di fotoni, vedremo che certe volte un fotone è segnalato dal rivelatore in A, altre dal rivelatore in B, ma non sarà possibile sapere in anticipo da quale fenditura passerà un determinato fotone. L’unica cosa che possiamo dire sul fotone è che esso si trova in una sovrapposizione di entrambe le possibilità. Dopo che il fotone è stato segnalato in A o in B, non è più descritto da ψ ma, a seconda di dove è passato, da ψa o ψb. Quindi la misura ha solo due possibili risultati e quando avviene una delle due, lo stato quantistico collassa in ψa o ψb, e l’altro stato sarà escluso. In generale una particella, prima della misura, si trova in una sovrapposizione di tutti i diversi risultati che possiamo ottenere in un esperimento. La misura ci darà uno dei possibili risultati dell’esperimento escludendo tutti gli altri possibili prima della misura. Un ulteriore esperimento che dà origine a una sovrapposizione di diversi stati di posizione è l’effetto tunnel, in base al quale una particella, senza alcuna azione esterna, riesce a creare una specie di canale per attraversare una barriera di potenziale, che possiamo immaginare come una parete di un certo spessore. In generale, per una particella soggetta a un campo di forze, una barriera di potenziale è una regione in cui l'energia potenziale associata al campo supera l'energia totale della particella, per cui essa, secondo la fisica classica, sarebbe destinata a rimanere confinata all'interno del campo. Secondo la meccanica quantistica, invece, una particella può superare la barriera-ostacolo e talvolta è possibile trovarla in una regione dello spazio classicamente inaccessibile. Il problema di una particella confinata da una barriera di potenziale può essere affrontato applicando il formalismo generale dell'equazione di Schrodinger. Se la barriera ha larghezza e altezza finite, si trova che la funzione d'onda che risolve l'equazione non si annulla sulla barriera, ma si prolunga al suo esterno. Poiché il modulo quadro della funzione d'onda rappresenta la densità di probabilità di localizzare il corpuscolo materiale in un determinato punto, se la funzione d'onda è non nulla all'esterno vuol dire che c'è una probabilità, per quanto piccola, di trovare il corpuscolo oltre la barriera. Ancora una volta il processo ha prodotto una sovrapposizione di stati spazialmente lontani. 57<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! L'effetto tunnel gioca un ruolo estremamente importante in alcuni fondamentali processi nucleari quali la disintegrazione radioattiva, nonché in numerose e notevoli applicazioni tecnologiche, fra cui il microscopio a scansione a effetto tunnel (STM), capace di produrre immagini di superfici con una risoluzione confrontabile con le dimensioni di un singolo atomo, e nella realizzazione dei chips per microprocessori. E come cambia, con la meccanica ondulatoria, la descrizione degli stati stazionari atomici? Abbandonato il concetto classico di traiettoria, gli stati stazionari non sono più pensati come orbite circolari percorse da un elettrone puntiforme, ma sono caratterizzati da funzioni d'onda che definiscono, tramite il loro modulo quadro, la densità di probabilità di trovare l'elettrone in un determinato punto intorno al nucleo. A ogni stato stazionario è dunque assegnata una distribuzione di probabilità, chiamata orbitale. Questo può essere visualizzato mediante una "nuvola", più densa nei punti dove è più facile trovare l'elettrone, più rarefatta dove l'elettrone si trova con minore probabilità. In figura è rappresentato il primo orbitale dell'atomo di idrogeno, corrispondente allo stato fondamentale: la distribuzione di probabilità ha simmetria sferica, con un massimo a una distanza dal nucleo uguale al raggio della prima orbita di Bohr. Per quanto riguarda lo stato fondamentale dell'atomo di idrogeno, la soluzione stazionaria dell'equazione di Schrodinger indica dunque che il raggio di Bohr, non più inteso come la distanza fissa dal nucleo alla quale si muove l'elettrone, mantiene comunque un significato. Con la meccanica ondulatoria la descrizione dell'atomo che Bohr aveva proposto, senza riuscire a dame una spiegazione plausibile al di là dell'accordo con l'esperienza, diventa più logica e organica, conservando una sua validità. Certo, non è facile farsi una ragione di questa incertezza implicita nella natura. In fondo, la spesso citata frase di Einstein, "Non credo che Dio giochi a dadi con l'universo", sicuramente esprime il disagio per avere introdotto nella scienza una teoria i cui concetti sono piuttosto lontani dalla nostra vita quotidiana. Il fatto che gli esiti delle misure su sistemi quantistici risultano casuali, possiamo asserire che, ove si assuma valida e completa la descrizione quantistica dei sistemi fisici, le probabilità quantistiche risultano, nel linguaggio della filosofia della scienza, non epistemiche, il che significa che non possono essere attribuite ad ignoranza, ad una mancanza di informazione sul sistema che, se fosse disponibile, ci consentirebbe di trasformare le asserzioni probabilistiche in asserzioni certe. Di fatto, la domanda se i processi microscopici debbano considerarsi fondamentalmente stocastici oppure se risulti possibile, con l’aggiunta di ulteriori specificazioni nella descrizione degli stati del sistema, completare la teoria in senso deterministico, è stata sollevata fin dagli inizi del vivace dibattito sulle implicazioni della meccanica quantistica. Cerchiamo di rendere chiaro il significato di questa irriducibile aleatorietà dei processi microscopici confrontando il caso in esame con altri possibili, cioè con processi probabilistici nei quali tuttavia le probabilità risultano epistemiche, vale a dire possono ritenersi dovute alla nostra ignoranza dello stato reale /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 57;! del sistema fisico in esame. Questa analisi risulta particolarmente opportuna in un momento quale l'attuale in cui la grande novità è rappresentata dalla scoperta del caos deterministico. Cominciamo con un banale esempio. Noi tutti sappiamo che risulta, di fatto, impossibile prevedere l'esito del lancio di una moneta non truccata. Pertanto, per descrivere un siffatto processo si ricorre alla teoria della probabilità che ci dice che i due possibili esiti, testa o croce, si presentano in modo casuale ed hanno uguali probabilità di verificarsi. Proviamo ad interrogarci sul tipo di aleatorietà implicato nel processo, ponendoci dal punto di vista della meccanica classica. E' ovvio a tutti che se si assume questa prospettiva le probabilità coinvolte nel processo risultano epistemiche, vale a dire sono dovute all'ignoranza delle precise condizioni iniziali e di tutte le condizioni al contorno del processo. In altre parole, se si assume che la caduta della moneta è governata dalle leggi classiche, allora si può asserire che se conoscessimo con precisione assoluta la rotazione che viene impressa inizialmente alla moneta, la precisa distribuzione delle molecole dell'aria che essa urterà nella sua caduta, la struttura dettagliata della superficie su cui cadrà e così via, potremmo, in linea di principio, prevedere con certezza se il lancio avrà come esito "testa" o "croce". Ecco un esempio di processo che alla luce della teoria che si suppone lo descriva correttamente, richiede, in un certo senso solo per ragioni accidentali, vale a dire perchè risulta praticamente impossibile tenere conto di tutti gli elementi che ne determinano l'esito (che, di fatto, risulta perfettamente determinato), una descrizione probabilistica. La situazione ora illustrata e la conseguente posizione nei confronti della struttura probabilistica della descrizione del processo rispecchia perfettamente la posizione meccanicistica del grande matematico francese Pierre Simon de Laplace che nel Settecento affermò che, note le posizioni e le velocità di tutte le particelle dell'universo, sarebbe stato possibile prevederne l'evoluzione futura per l'eternità. Egli nel 1776 scriveva: “Lo stato attuale del sistema della natura consegue evidentemente da quello che esso era all'istante precedente e se noi immaginassimo un'intelligenza che ad un istante dato comprendesse tutte le relazioni fra le entità di questo universo, esso potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del passato o del futuro.... Ma l'ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme coll'imperfezione dell'analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande maggioranza dei fenomeni. Vi sono quindi cose che per noi sono incerte, cose più o meno probabili, e noi cerchiamo di rimediare all'impossibilità di conoscerle determinando i loro diversi gradi di verosimiglianza. Accade così che alla debolezza della mente umana si debba una delle più fini e ingegnose fra le teorie matematiche, la scienza del caso o della probabilità”. Credo che risulti difficile trovare una più limpida enunciazione di una concezione che configura l'apparire delle probabilità nella descrizione dei processi fisici come accidentale, non fondamentale e, in principio, eludibile. Ma anche la meccanica ha subìto un'evoluzione profonda che ha comportato, in tempi recenti, alcune modifiche di estrema rilevanza concettuale alla posizione ora enunciata. Di fatto, è risultato possibile identificare molti processi in cui si presenta quella che viene spesso riferita come "l'estrema sensibilità alle condizioni iniziali" che comporta l'emergere del cosiddetto "caos deterministico" e della complessità. Tecnicamente si denotano come caotici quei moti estremamente complicati che manifestano un'amplificazione incredibilmente rapida degli errori e che pertanto, a 57=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dispetto del supposto determinismo perfetto che li regola, rendono praticamente impossibili accurate previsioni a lungo termine. Di fatto questa posizione odierna era già stata prefigurata dal grande matematico Poincarè agli inizi del XX secolo, il quale, molto appropriatamente, ha introdotto una distinzione concettualmente rilevante tra l'imprevedibilità che emerge dalla estrema complicazione dei fattori che entrano in gioco e la estrema sensibilità, anche per sistemi relativamente semplici, alle condizioni iniziali. Nel 1903 egli scriveva: “Una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l'effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell'universo all'istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto, che è governato da leggi. Ma non sempre è così; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile e si ha un fenomeno fortuito”. Quale lezione si può trarre da questo? Che la previsione diviene impossibile e si ha un fenomeno fortuito. Di fatto risulta relativamente facile dimostrare che esistono sistemi deterministici con una tale sensibilità alle condizioni iniziali che la previsione del loro comportamento anche dopo tempi brevi richiederebbe una tale massa di informazioni, proprio perchè le imprecisioni iniziali si amplificano esponenzialmente, che non potrebbero venire immagazzinate neppure in un computer che utilizzasse come chips tutte le particelle dell'universo e potesse immagazzinare un bit in ogni chip. La conclusione è che ci si è resi conto che non sono rare le situazioni in cui risulta di fatto impossibile prevedere il comportamento di un sistema per un periodo di tempo anche ragionevolmente breve. Ho voluto addentrarmi in questa affascinante tematica soprattutto per consentire al lettore di cogliere correttamente la differenza tra probabilità epistemiche e nonepistemiche. Questa differenza ha rilevanza concettuale, non pratica. Il fatto che se anche tutto l'universo diventasse un calcolatore esso non risulterebbe abbastanza potente da permetterci di immagazzinare le informazioni necessarie a prevedere per più di qualche minuto l'evoluzione di un semplice sistema, non toglie nulla al fatto che secondo lo schema teorico che si è assunto soggiacere alla dinamica del processo, la necessità di ricorrere ad una descrizione probabilistica deriva dall'ignoranza circa le precise condizioni iniziali. Al contrario, nello schema quantomeccanico, non è il fatto che, per esempio, un’osservabile (velocità o posizione) non sia mai determinabile con precisione assoluta o che la dinamica potrebbe essere del tipo che amplifica esponenzialmente gli errori, a imporre che ci si debba accontentare di previsioni probabilistiche circa gli esiti dei processi di misura. L'aleatorietà degli esiti è incorporata nella struttura stessa del formalismo che, se assunto come completo, non consente neppure di pensare che, in generale, gli esiti siano, anche se in un modo a noi sconosciuto, predeterminati. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 574! 11.12 La natura delle onde quantistiche Già Einstein, nel caso dei fotoni, parlava di onde fantasma. Supponiamo che una sorgente piccolissima emetta onde di luce; queste naturalmente, partendo dalla sorgente, si diffonderanno nello spazio in tutte le direzioni, con simmetria sferica. L'intensità della luce può, però, essere così bassa che viene emesso solo un fotone ogni tanto. Ciò significa che se installiamo da qualche parte un rivelatore, questo registrerà un fotone molto raramente. Così, mentre l'onda si diffonde in tutto lo spazio, il fotone è misurato solo in un punto singolo. Che cosa succede al resto dell'onda? Che senso ha parlare di onda? Continuerà a diffondersi senza che esista un fotone? Come già accennato, nel caso della fisica quantistica dobbiamo parlare di onde di probabilità, e non di onde tridimensionali reali come le onde sonore. Se un fotone viene emesso dalla sorgente, questo corrisponde a un'onda di probabilità sferica, la cui intensità in una certa posizione indica la probabilità di trovare la particella in quel punto e in un dato istante. Con l'aumento della distanza dalla sorgente, questa sfera diventa sempre più grande, e quindi la sua intensità diminuisce in ogni punto. La probabilità calcolata su tutta la sfera deve essere pari a P=1, perchè la particella deve trovarsi in qualche punto della sfera stessa: non può certo scomparire. Che cosa succede quando rileviamo la particella in un determinato punto, cioè quando il rivelatore scatta? Se la particella viene rilevata in un certo punto, non può certo essere un un altro punto. Quindi, dal momento in cui il rivelatore scatta, la probabilità deve subito diventare zero in tutto il resto della sfera. Come fece notare Einstein, in caso di distanze molto grandi siamo di fronte a un potenziale problema. Nel momento in cui il fotone viene rilevato in una certa posizione, in qualsiasi altro punto l'onda sferica scomparirà senza alcun ritardo, in modo assolutamente istantaneo. È chiaro che questo aspetto attirò le critiche di Einstein, il quale con la teoria della relatività aveva scoperto che niente può superare la velocità della luce. Qui però sembra che l'informazione “il fotone è stato rilevato” si possa effettivamente propagare a qualsiasi velocità, visto che l'onda scompare subito in tutto lo spazio. Vediamo quindi che l'immagine così ingenua e realistica di un'onda che si diffonde concretamente nello spazio provoca forti difficoltà concettuali. L'unica possibilità di evitare questo problema consiste, allora, nel non vedere l'onda di probabilità come un'onda vera e propria che si diffonde realmente nello spazio, ma come un semplice strumento utile a calcolare la probabilità che un fotone sia rilevato in un determinato punto e in un dato istante. La meccanica quantistica, demolendo i concetti classici di oggetti solidi e di leggi rigorosamente deterministiche della natura, fa sì che a livello subatomico, gli oggetti materiali solidi della fisica classica si dissolvono in configurazioni di onde di probabilità e queste configurazioni in definitiva non rappresentano probabilità di cose, ma piuttosto probabilità di interconnessioni. Un'attenta analisi del processo di osservazione in fisica atomica ha mostrato che le particelle subatomiche non hanno significato come entità isolate, ma possono essere comprese soltanto come interconnessioni tra la fase di preparazione di un esperimento e le successive misurazioni. Quindi è meglio considerare l'onda di probabilità solo un aiuto per la comprensione, con cui in qualche 575! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! modo possiamo crearci delle immagini mentali. Per essere precisi, possiamo parlare solo di risultati dell'osservazione, come lo scatto del rivelatore, e delle loro probabilità. Questo vale anche nel caso di particelle dotate di massa, perché anche in questo caso parliamo di un'onda di probabilità, l'onda di materia di de Broglie. Abbiamo trovato così un’interpretazione secondo la quale non si parla più di onde che si diffondono nello spazio, e neanche di particelle che seguono una certa traiettoria, ma solo dei singoli fenomeni che vengono effettivamente osservati. Ciò significa che non potremmo spiegare alcun altro fenomeno che non sia comunque spiegabile con l’interpretazione probabilistica. 11.13 Il principio di indeterminazione di Heisenberg Nel 1927, anno della scoperta del principio d’indeterminazione da parte di Heisenberg, l’incertezza non era certo sconosciuta alla fisica. Ai risultati sperimentali manca sempre qualcosa per essere pienamente d’accordo con le previsioni teoriche. Nel continuo avanti e indietro tra esperimento e teoria, è l’incertezza a indicare allo scienziato come procedere. Gli esperimenti indagano dettagli sempre più minuti e le teorie subiscono modifiche e revisioni. L’incertezza, o dir si voglia, la discrepanza tra teoria ed esperimento sono gli arnesi del mestiere di ogni disciplina che voglia definirsi scientifica. Heisenberg, quindi, non introdusse l’incertezza nella scienza, ma ne modificò, e in maniera profonda, la natura stessa e il significato. L’incertezza era sempre sembrata un avversario conquistabile. A partire da Copernico, Galileo e Keplero, e poi con Newton, la scienza moderna si è sviluppata con il ragionamento logico a dati e fatti verificabili. Le teorie, espresse nel linguaggio rigoroso della matematica, avevano lo scopo di essere analitiche e precise. Offrivano un sistema, una struttura, una spiegazione approfondita che avrebbe rimpiazzato il mistero e il caso con la ragione e la causa. Nell’universo scientifico, nulla accade a meno che qualcosa non lo faccia accadere. La spontaneità, il fenomeno senza causa, non trovava spazio in questo sistema. I fenomeni della natura, si pensava, possono essere straordinariamente complicati, ma alla fine la scienza deve rivelare l’ordine e la prevedibilità. I fatti sono fatti, le leggi sono leggi. Non possono esistere eccezioni. Per un paio di secol il sogno di Laplace sembrò realizzarsi. Questa visione classica, che scaturiva dalle scienze fisiche, nell’Ottocento divenne il modello predominante per le scienze di ogni genere. È per questo motivo che il principio di Heisenberg si dimostrò così sconvolgente. Metteva in luce un’insospettata debolezza nell’edificio della scienza, in quella struttura, la predicibilità di un fenomeno a partire dalle cause, che appariva stabile e sicura. Heisenberg non mise in discussione la perfettibilità delle leggi di natura. Fu invece nei fatti stessi della natura che trovò alcune strane e preoccupanti difficoltà. Il principio di incertezza riguardava l’azione scientifica più elementare: come acquisiamo la conoscenza del mondo, quel genere di conoscenza che possiamo sottoporre a un esame scientifico minuzioso? Il punto essenziale, in sostanza, era che i fatti non sono semplici dati oggettivi come si supponeva. Nella visione classica del mondo naturale come grande macchina, si era dato per scontato che fosse possibile definire con precisione illimitata tutte le parti funzionanti della macchina e comprendere esattamente tutte le loro interconnessioni. Per poter sperare di comprendere l’universo, si doveva innanzitutto presumere di poter scoprire, un pezzo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 576! alla volta, quali sono e che funzione hanno tutte le parti che compongono questa grande macchina che è l’universo. Heisenberg, invece, affermava che non sempre possiamo scoprire quel che vogliamo sapere, che anche la nostra capacità di descrivere il mondo naturale è limitata. Se non possiamo descriverlo come desideriamo, come possiamo sperare di scoprire le leggi con il ragionamento? L’invenzione della camera a nebbia sembrava aver fornito ai fisici uno strumento per osservare le traiettorie delle particelle emesse dalle sostanze radioattive. Ma la meccanica quantistica non ammetteva l’esistenza di traiettorie delle particelle, e ciò sembrava un problema insormontabile. Ma, secondo Heisenberg, doveva essere possibile stabilire una connessione tra ciò che si osservava nella camera a nebbia e la teoria quantistica. Ricordando una frase di Einstein “è la teoria a decidere che cosa possiamo osservare”, Heisenberg cominciò a concentrarsi sull’esatta natura della traccia lasciata dall’elettrone in una camera a nebbia, arrivando alla conclusione che in realtà si trattava solamente di una serie di punti, discreti e mal definiti, attraverso i quali l’elettrone era passato. Anzi, la camera a nebbia mostrava solo una serie di minuscole gocce d’acqua più grandi dell’elettrone e nessuna traiettoria continua, ininterrotta. Allora la domanda cruciale a cui bisognava dare una risposta era: la meccanica quantistica è in grado di rappresentare il fatto che un elettrone si trova approssimativamente in un punto dato e che si sposta approssimativamente a una velocità data? La meccanica quantistica, a quanto pareva, poneva delle restrizioni su ciò che si poteva conoscere e osservare. Ma in che modo la teoria decideva che cosa si poteva o non si poteva osservare? La risposta fu il principio di indeterminazione. Ogni grandezza fisica deve essere suscettibile di una definizione operativa, nel senso che deve essere sempre possibile, mediante un'osservazione o un'esperienza, misurarne il valore. Nella fisica classica si supponeva che la misura di una grandezza potesse essere eseguita con precisione sempre maggiore, a condizione di utilizzare un dispositivo sempre più qualificato e una tecnica sempre più razionale. In realtà ciò non è esatto: misurare significa sempre perturbare il sistema e quindi anche le grandezze che lo caratterizzano. Immaginiamo di voler stabilire la posizione di un oggetto in movimento. Per far ciò dobbiamo vederlo; dobbiamo, cioè, per esempio, far arrivare sul corpo un fascio di luce. Fra l'oggetto e lo strumento di misura si verifica dunque uno scambio energetico, un'interazione che tende a modificare qualche grandezza dinamica dell'oggetto. Da questo discende in modo inequivocabile che "conoscere" significa "misurare" e "misurare" significa "perturbare". Logicamente, l'andamento del processo perturbativo dipende, oltre che dai metodi di osservazione, anche e soprattutto dal tipo di sistema che si vuole studiare. Per esempio, facendo arrivare un fascetto luminoso su una palla da biliardo in movimento, possiamo studiare il suo moto senza che esso sia influenzato dalle grandezze, quantità di moto, energia, ecc., associate alla radiazione. Queste sono infatti trascurabili rispetto ai valori delle corrispondenti grandezze fisiche che caratterizzano l'oggetto. Non è lo stesso con un elettrone che, per 577! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! le ridotte dimensioni del corpuscolo, alcune sue grandezze dinamiche verranno sensibilmente perturbate e i mutamenti introdotti non potranno più essere trascurati. Partendo da queste premesse, Heisenberg introdusse un principio secondo il quale affermò l'impossibilità di valutare simultaneamente in modo rigoroso e senza alcun limite la posizione e la quantità di moto di un oggetto, oppure l'istante di tempo in cui un sistema si trova in un particolare stato e la corrispondente energia del sistema. La posizione e la quantità di moto, così come il tempo e l'energia, sono coppie di parametri usualmente indicati come grandezze coniugate. Questa indeterminazione era il prezzo imposto dalla natura per la conoscenza esatta di una delle due grandezze coniugate. Si può guardare il mondo con l’occhio x o con l’occhio p, ma se si aprono entrambi gli occhi si ha una visione confusa. Per la completa descrizione meccanica, in senso classico, di un sistema, le grandezze coniugate devono essere sempre note simultaneamente. La meccanica quantistica introduce invece, con il seguente enunciato, un'indeterminazione intrinseca in tali coppie di grandezze, o meglio, una correlazione fra le incertezze con cui i loro valori possono essere determinati: PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG Ogni qualvolta vogliamo determinare simultaneamente la posizione x di un corpuscolo lungo una data direzione e la sua quantità di moto px lungo la stessa direzione, le incertezze ∆x e ∆px delle due grandezze sono legate dalla relazione: ∆x ⋅ ∆px ≥ ! Similmente, se misuriamo l'energia E di un corpuscolo mentre esso si trova in un determinato stato, impiegando un intervallo di tempo ∆t per compiere tale osservazione, l'incertezza ∆E sul valore dell'energia è tale che: ∆E ⋅ ∆t ≥ ! L'indeterminazione ∆px sulla quantità di moto risulta dunque tanto maggiore quanto più esatta è la misura della posizione e viceversa. Per rendere minima la perturbazione sul moto dell'elettrone, potremmo utilizzare una radiazione di lunghezza d'onda molto grande; in tal caso, però, non saremmo più in grado di rivelare con esattezza la posizione della particella. Al limite, se potessimo conoscere perfettamente la quantità di moto di una particella, essendo ∆px=0 avremmo ∆x=∞, e la posizione sarebbe perciò totalmente indeterminata, cioè la particella può essere trovata con eguale probabilità ovunque. Così come se la maggior parte delle particelle reali ha una massa a riposo e quindi energia e un’esistenza di lungo periodo, le particelle virtuali che non hanno energia iniziale possono solo per brevi periodi “prendendo in prestito” l’energia di cui hanno bisogno per la loro massa a riposo sotto forma di fluttuazioni quantistiche. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 578! In definitiva: " In generale, quanto più si cerca di migliorare la precisione della misura di una delle due grandezze coniugate, tanto più aumenta l'imprecisione della conoscenza dell'altra. " L’indeterminazione nella conoscenza contemporanea dell’energia e del tempo, della velocità e della posizione, non significa che la conoscenza dello stato fisico del sistema è indeterminata, ossia dovuta a tecniche di misura insufficienti, ma che l’indeterminazione è insita nello stato fisico del sistema. Per la profonda coerenza della teoria quantistica, le relazioni di Heisenberg sono valide per ogni fenomeno che avviene in natura e quindi anche per il moto di un oggetto macroscopico. Solo che in questo caso l'indeterminazione quantistica è così piccola che appare trascurabile di fronte all'incertezza che deriva dagli errori sperimentali delle misure. Il principio di Heisenberg è una diretta conseguenza dell'ambiguo dualismo onda-corpuscolo che caratterizza gli oggetti del mondo microscopico. Infatti una particella quantistica si trova "contemporaneamente" in ogni punto dell'onda a essa associata; è distribuita, cioè, con differente probabilità locale, in tutto lo spazio in cui l'onda è presente. D'altra parte la particella possiede una ben determinata velocità solo quando questa grandezza è misurata; prima della misura la velocità può assumere potenzialmente tutto un insieme di valori. Tutte queste considerazioni ci inducono a rivedere il concetto di "oggetto fisico". Seguendo il suggerimento di Born, conviene considerare come autentiche proprietà del reale solo quelle entità che siano degli osservabili, cioè le grandezze che possono essere sottoposte a un'operazione di misura. L'acuta osservazione di Born, che a prima vista sembra ovvia, rappresenta invece uno dei capisaldi della nuova meccanica. Spesso infatti, nella fisica prequantistica, venivano utilizzati alcuni concetti "intuitivi" ed "evidenti" che in realtà non si potevano in alcun modo valutare operativamente: per esempio il concetto di "traiettoria" o "orbita" di un elettrone, o quello ancora più comune di "raggio luminoso che si propaga in linea retta". Concettualmente la traiettoria di una particella rappresenta certo qualcosa che esiste; si tratta però di un'esistenza che si concretizza, ossia diventa oggettiva, solo quando è misurata. Ma il presupposto necessario per definire una traiettoria è conoscere in un certo istante l'esatta posizione della particella e la sua precisa velocità, e la possibilità di ottenere operativamente queste informazioni è esclusa dal principio di indeterminazione. Anche il classico concetto di raggio non può in alcun modo rappresentare una realtà fisica osservabile. Benché si possa stabilire sia l'istante in cui un fotone luminoso viene emesso, sia quello in cui esso viene assorbito da un atomo, è concettualmente impossibile osservare sperimentalmente il fotone mentre si propaga in linea retta con la velocità della luce. Osservarlo significa infatti interagire con il fotone, tramite un processo di diffusione o di assorbimento. Dopo l'osservazione il fotone o è deviato o è addirittura scomparso: nel campo atomico si deve rinunciare al tradizionale concetto di traiettoria, inteso come linea matematica. Grazie alla sua profonda analisi critica Heisenberg ha potuto concludere che esiste un limite invalicabile alla precisione con cui possono misurarsi coppie di variabili incompatibili. L'esistenza di questo limite, sempre qualora si accetti la teoria come vera, non è dovuta a difficoltà pratiche ma ha un carattere fondamentale: essa è una diretta ed inevitabile conseguenza della peculiare duplice natura corpuscolare ed ondulatoria di tutti i processi fisici. Si potrebbe dire che l'analisi di Heisenberg rappresenta, 579! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! nell'ambito della nuova teoria, l’analogo dell'analisi di Einstein nel caso della teoria della relatività. Einstein, partendo dall'ipotesi che la luce si propagasse con velocità finita, ha riconsiderato in questa prospettiva come due osservatori potessero sincronizzare i loro orologi, giungendo così alle rivoluzionarie innovazioni della teoria della relatività. Heisenberg, partendo dall'ipotesi che ogni processo ha una duplice natura ondulatoria e corpuscolare, riconsidera in questa prospettiva la possibilità di determinare i valori di due specifiche grandezze, ed è condotto alla conclusione che esiste un limite concettuale alla precisione con cui possono essere conosciute entrambe. Non stupirà che le conclusioni di Heisenberg abbiano gettato ulteriore scompiglio nella comunità scientifica e abbiano immediatamente destato l'interesse più vivo di tutti i brillanti pensatori che erano attivamente impegnati a chiarire il senso dei formalismi che erano stati elaborati da poco ma che, per la loro carica rivoluzionaria, non erano ancora stati pienamente compresi. 11.14 La scoperta della casualità: esperimento delle due fenditure Per mettere in evidenza la doppia natura della luce e della materia, nel senso che la luce, che di solito immaginiamo come un'onda, mostra anche proprietà corpuscolari e le particelle materiali, d'altro canto, sono caratterizzate anche da proprietà ondulatorie, consideriamo il classico esperimento di Young: illuminando con luce monocromatica due strette fenditure e raccogliendo su uno schermo la luce trasmessa, si osserva una figura composta da frange luminose e frange oscure. Attraversando una doppia fenditura, un fascio di elettroni aventi tutti la stessa lunghezza d'onda di de Broglie (cioè monocromatici) produce una figura di interferenza con le stesse caratteristiche. Consideriamo indifferentemente una sorgente monocromatica di fotoni o di elettroni che, regolata opportunamente, emetta una sola particella alla volta. Dall'altra parte delle fenditure, a grande distanza, collochiamo uno schermo che ci permetta di rilevare il numero e la posizione delle particelle che incidono su di esso. Se aspettiamo un tempo sufficientemente lungo, le particelle, arrivando sullo schermo una alla volta dopo aver interagito singolarmente con le fenditure, si addensano su alcune strisce, producendo la stessa distribuzione interferenziale che si formerebbe se l'esperimento fosse svolto con la radiazione luminosa nelle condizioni ordinarie. Ripetendo l'esperimento dopo aver chiuso una delle due fenditure, in modo da essere sicuri che il fotone o l'elettrone passino attraverso l'altra, la figura interferenziale scompare. Sullo schermo si osserva solo una piccola macchia luminosa allineata con l'asse della fenditura rimasta aperta. La stessa cosa accade se apriamo la prima fenditura e chiudiamo la seconda. In meccanica quantistica una /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 57:! particella è come un’onda ed un’onda come una particella. Sia gli elettroni che la luce esibiscono effetti d’interferenza, ma quando vengono osservati, si manifestano come dei quanti, ciascuno in un sol luogo. Quale conclusione possiamo trarre da questa esperienza? Poiché il processo interferenziale è provocato da una successione di singoli fotoni o elettroni che arrivano uno alla volta sulle fenditure, dobbiamo pensare che il carattere ondulatorio sia una proprietà insita nella particella. In un certo senso ciascuna particella interagisce simultaneamente con entrambe le fenditure, che in tal modo, per il principio di Huygens, si comportano come due sorgenti coerenti di onde. Per l'esperimento della doppia fenditura di Young si presenta ora il problema di conciliare l'idea che la luce sia composta da singole particelle, i fotoni, con la spiegazione della formazione delle bande come figure di interferenza delle onde passate attraverso le due fenditure, cioè come possiamo interpretare la figura di interferenza, cioè le bande chiare e scure, da un punto di vista corpuscolare ? Evidentemente i punti scuri sono quelli in cui non arrivano particelle, mentre in quelli chiari ne arrivano molte. Quindi le bande chiare e scure significano semplicemente che si alternano punti in cui arrivano molte particelle e punti in cui ne arrivano poche, o nessuna. Ci possiamo porre due domande, che portano a considerazioni interessanti: che strada percorre una singola particella prima di arrivare sullo schermo? Cosa fa sì che una singola particella arrivi in un determinato punto? Certo, sappiamo che le particelle non possono arrivare nei punti in cui ci sono le bande scure, ma perchè una certa particella arriva proprio nella banda chiara in cui la troviamo, e non in un'altra? Vedremo che entrambe le domande sollevano vari problemi molto profondi, legati in ultima analisi anche a importanti questioni filosofiche. E alla fine sarà inevitabile invocare un cambiamento radicale nella nostra visione del mondo fisico. Resta solo da vedere come. Per prima cosa chiediamoci quale traiettoria percorre una determinata particella. Attraversa la prima fenditura o la seconda? Se manteniamo la concezione corpuscolare, tendiamo agevolmente a supporre che il fotone passi da una e una sola delle due fenditure. Supponiamo che passi dalla fenditura superiore. Naturalmente raggiungerà poi lo schermo di osservazione in un determinato punto. L'aspetto interessante però è questo: il fatto che la fenditura inferiore sia aperta o chiusa fa una grande differenza. In particolare, se è aperta solo una fenditura la particella può arrivare ovunque sullo schermo. Se però anche la seconda fenditura è aperta, ci sono punti, corrispondenti alle bande scure, in cui una particella non può assolutamente arrivare. La domanda fondamentale allora è questa: come fa la particella che passa dalla fenditura superiore a sapere se la seconda fenditura è aperta o no? La particella infatti deve sapere, al più tardi quando arriva allo schermo, se la seconda fenditura è aperta o no, visto che nel primo caso deve evitare di cadere nelle zone scure. Einstein sosteneva che per ogni singola particella si potesse determinare con esattezza da quale delle due fenditure era passata, cioè il dilemma precedente viene in questo modo espresso compiutamente: da un lato sappiamo da quale fenditura è passata ogni singola particella, dall’altro vediamo la figura d’interferenza. Tuttavia, coma ha dimostrato Bohr: non è possibile conoscere la traiettoria delle singole particelle e contemporaneamente osservare anche la figura d’interferenza. Se si ottiene un’informazione sulla traiettoria, la figura d’interferenza sparisce; viceversa, se l’esperimento è eseguito in modo tale da non registrare l’informazione sulla traiettoria, si ripresenta la figura d’interferenza. Questa alternativa tra informazioni sulla traiettoria 58<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! e figura di interferenza è un fatto fisico fondamentale: non è possibile ottenere le due cose contemporaneamente. Ora ci dobbiamo chiedere perché un determinato fotone arriva in un determinato punto dello schermo di osservazione, cioè arrivi in una certa banda e non in un’altra? E anche all’interno di una banda chiara, perché una determinata particella di luce si trova proprio in un certo punto della banda e non in un altro? La fisica quantistica riesce a calcolare con precisione quante particelle arriveranno in un certo punto, ma è impossibile prevedere dove arriverà precisamente una determinata particella. Anzi, se facciamo passare una sola particella, possiamo calcolare solo la probabilità di trovarla in una certa zona dello schermo. Le zone scure sono quelle in cui è molto improbabile trovare una particella, quelle chiare sono le zone in cui la probabilità è alta. La fisica non dice altro: l’effettivo comportamento di una singola particella è lasciato al caso. La casualità, ora, entra nella fisica con un ruolo fondamentale e inedito. Ma fino a che punto? In fisica classica quando si parla di evento casuale non s’intende dire che è impossibile trovare una causa ben definita per un certo fenomeno, ma semplicemente che non si conoscono tutti gli elementi per descriverlo in maniera compiuta. Potrebbe essere così anche in fisica quantistica? Potrebbe esistere una spiegazione più profonda che definisce con la massima precisione anche il comportamento della singola particella? Se esistesse una spiegazione di questo tipo, anche nella fisica quantistica il caso sarebbe puramente soggettivo, dovuto alla nostra inconsapevolezza. Se però così non fosse, ci troveremmo di fronte a qualcosa di assolutamente nuovo. Ciò significherebbe che nella meccanica quantistica il singolo avvenimento non è descrivibile, nemmeno in linea di principio, e quindi la particella non saprebbe perché arriva in un determinato punto dello schermo. Un’alternativa è quella di ipotizzare l’esistenza di proprietà, a noi sconosciute, che determinano precisamente la traiettoria di ogni particella e il suo punto d’arrivo sullo schermo. Questa ipotesi, detta delle variabili nascoste, ha abbastanza seguito presso alcuni fisici, che hanno tentato anche di elaborare teorie fisiche che la prevedessero. Esistono, però, altri motivi per supporre che il singolo avvenimento sia oggettivamente casuale, cioè che non abbia una spiegazione nascosta. Questo aspetto è legato all’informazione, che nella fisica quantistica riveste un ruolo del tutto nuovo rispetto alla fisica classica. Di quante informazioni abbiamo bisogno per descrivere il comportamento di un fotone, o di una particella? In altre parole, che rapporto c’è tra la quantità di informazioni relative a un sistema e la grandezza del sistema stesso? È evidente che un oggetto piccolo, come una particella, richiede meno informazioni rispetto ad un oggetto grande per la sua descrizione. Ma questo che cosa significa per il nostro esperimento della doppia fenditura? Significa che il quanto di luce che attraversa la doppia fenditura può portare pochissime informazioni. Con queste informazioni possiamo sapere o da quale fenditura passa la particella o se è presente una figura di interferenza, e la scelta tra le alternative dipende dal modo in cui si imposta l’esperimento. In entrambi i casi, però, la singola particella non può fornire anche ulteriori informazioni sul punto dello schermo in cui arriverà. Quindi questo evento deve avvenire in modo puramente casuale. In base a questi ragionamenti, nella fisica quantistica il caso si presenta non perché siamo incapaci di scoprire la causa del singolo avvenimento, ma semplicemente perché l’avvenimento non ha alcuna causa, dato che la particella non può portare informazioni sul punto dello schermo in cui arriverà. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 58;! Grazie alla nuova visione della fisica quantistica come scienza dell’informazione, ossia come scienza di ciò che in linea di principio si può sapere, il caso è una componente molto naturale, nonché necessaria ed inevitabile, della quale non se ne può fare a meno. Einstein, quando volle esprimere il suo disappunto per il nuovo ruolo della casualità nella fisica quantistica affermò: “Dio non gioca a dadi” e Bohr, fautore della nuova fisica, rispose di smettere di dare ordini al Signore. Da questa fondamentale esperienza deduciamo che: " la dualità onda - corpuscolo rappresenta un aspetto universale; come la luce, così anche gli oggetti materiali, elettroni, protoni, neutroni, nuclei..., tutti dotati di massa, presentano potenzialmente una doppia natura. " Non è possibile osservare la figura di diffrazione della contemporaneamente conoscere la traiettoria della particella. " Nella fisica quantistica il caso non è soggettivo, cioè non dipende dalle nostre scarse conoscenze, ma è oggettivo, insito nella natura e nei comportamenti delle cose. doppia fenditura e Gli elettroni manifestano proprietà ondulatorie finché si concede ad essi la possibilità di farlo. Quando, invece, si cerca di rivelare il loro percorso, nel caso specifico di stabilire da quale fenditura siano passati, essi assumono il loro più consono aspetto corpuscolare. Allo stesso modo la luce si comporta, a seconda delle condizioni sotto cui è osservata, come un'onda o come un flusso di fotoni. Circostanza fondamentale è che in nessun fenomeno è necessario far intervenire simultaneamente l'aspetto corpuscolare e quello ondulatorio. Ogni esperienza capace di rivelare una particella da un punto di vista corpuscolare esclude la possibilità di evidenziare il suo aspetto ondulatorio, così come l’osservazione della particella provoca inevitabilmente un disturbo così rilevante tale da escludere la possibilità di ottenere la figura di diffrazione. È bene sottolineare che, a livello microscopico, le nostre osservazioni sono sempre indirette, mediate cioè da procedure sperimentali appositamente progettate per indagare particolari fenomeni. La "realtà" del mondo microscopico sta, in definitiva, nelle interazioni che possiamo stabilire con esso, cioè nei risultati dei nostri esperimenti. Questi esperimenti ci rivelano che il modello di onda e il modello di particella (costruzioni concettuali che ci siamo formati osservando il mondo macroscopico: il primo è adeguato per descrivere determinati risultati, il secondo per descriverne altri), la traiettoria e la figura di diffrazione, sono complementari. Praticamente, se uno sperimentatore vuole valutare la posizione di un elettrone, nessuna legge quantistica gli vieta di ottenere una risposta ben precisa. Poiché con un'opportuna apparecchiatura l'elettrone può essere localizzato in un punto dello spazio, egli conclude che l'elettrone è una particella. Se invece vuole valutare la lunghezza d'onda dell'elettrone, utilizzando un diverso dispositivo sperimentale può trovare anche in questo caso una risposta. Ciò lo induce a concludere che l'elettrone non è una particella, bensì un'onda. Lo stesso ragionamento può essere fatto per la traiettoria e la figura di diffrazione. Forse, l'errore che si commette nell'interpretare la filosofia quantistica è quello di supporre che il fotone, l'elettrone, ecc. abbiano una forma reale, che abbiano, cioè, l'aspetto che il mondo macroscopico assegna a un'onda o a un corpuscolo. Soprattutto nei riguardi di certi particolari fenomeni, sarebbe meglio considerare queste entità microscopiche come intrinsecamente indefinite fino all'istante in cui, per effetto di un intervento strumentale, vengono evidenziate o come onde o come corpuscoli. 58=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 11.15 Il principio di complementarità Con riferimento alla discussione precedente si può capire lo sconcerto prodotto dal nuovo formalismo che richieda di integrare, nella medesima immagine, aspetti fisici inconciliabili tra loro, quali tipicamente quelli corpuscolari e quelli ondulatori. Riflettendo su questi oscuri aspetti degli schemi teorici che andavano affermandosi Bohr fece un'osservazione di grande rilevanza. Egli sottolineò che i procedimenti sperimentali necessari per mettere in evidenza gli aspetti corpuscolari e gli aspetti ondulatori dei processi fisici risultano, di fatto, impossibili da realizzare simultaneamente. Ogni possibile apparecchio concepito per informarci sulla posizione (con precisione arbitraria), necessariamente non ci informa con altrettanta precisione sulla velocità e, in modo perfettamente analogo, ogni situazione sperimentale nella quale si mettano in evidenza gli aspetti corpuscolari del processo non consente al tempo stesso di metterne in evidenza gli aspetti ondulatori. Per apprezzare pienamente questo fatto conviene rifarsi all'esperimento di interferenza da due fenditure analizzato in precedenza. In un esperimento siffatto, dice Bohr, il formarsi della figura di interferenza sullo schermo mette in evidenza che tra le fenditure e lo schermo gli aspetti ondulatori del processo giocano un ruolo importante. D'altra parte, come sottolineato più volte, la rivelazione sullo schermo pone in evidenza gli aspetti corpuscolari del processo. I due aspetti contraddittori non emergono mai, per cosi dire, assieme. E, appropriatamente, Bohr segnala che qualsiasi tentativo di evidenziare, oltre agli aspetti ondulatori, anche quelli corpuscolari al passaggio attraverso le fenditure (per esempio chiedendosi, tipica questione corpuscolare, attraverso quale fenditura la particella è passata) inevitabilmente distrugge la figura di interferenza e quindi risulta impossibile avere accesso, nello stesso esperimento ad entrambi gli aspetti "complementari". In questa prospettiva chiedersi se la luce sia un’onda o una particella è privo di senso. Nella meccanica quantistica non c’è modo di sapere che cosa la luce sia in realtà. L’unica domanda che è lecito farsi è: la luce si comporta come una particella o come un’onda? La risposta è che talvolta si comporta come una particella, altre volte come un’onda, e questo lo stabilisce l’esperimento scelto. Mentre Heisenberg attribuiva all’atto della misurazione l’origine della perturbazione che precludeva una simultanea misura precisa di una delle grandezze coniugate, Bohr assegnava un ruolo cruciale all’atto della scelta di quale esperimento eseguire. Bohr conveniva che vi fosse una perturbazione fisica, ma che venisse prodotta dall’atto di osservare i fenomeni nel mondo quantistico, ossia l’osservatore per effettuare la misurazione dovesse scegliere una faccia del dualismo onda-particella. L’osservazione di Bohr ha un notevole rilievo ed egli si entusiasmò a tal punto di questa idea da proporla quasi come un paradigma di assoluta generalità valido anche al di fuori dell'ambito dei processi microscopici. L’idea è che la natura sia estremamente ricca di sfaccettature e misteriosa. A noi è concesso cogliere vari aspetti di questa complessa realtà, ma non è dato di coglierli simultaneamente. Anzi, i procedimenti necessari per avere accesso ad una delle molteplici facce del reale risultano incompatibili con quelli per avere accesso ad altri aspetti complementari dei precedenti. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 584! Bohr si spinse tanto avanti da ritenere valida questa idea anche in riferimento a fenomeni profondamente diversi, per esempio ai procedimenti per accertare se microrganismi o singole cellule risultassero viventi o inerti, asserendo che ogni procedimento mirato ad evidenziare che una cellula è viva, inevitabilmente la uccide. La complementarità fu assunta da Bohr come principio: non è possibile soddisfare entrambe le condizioni (onda e corpuscolo, traiettoria e figura d’interferenza) contemporaneamente e nello stesso esperimento. Per essere ancora più precisi: finché da qualche parte, in qualsiasi luogo dell’universo, sono disponibili informazioni sulla traiettoria della particella, la grandezza complementare, cioè la figura d’interferenza, non può essere definita. Tale principio fu esposto per la prima volta nel 1927, e rappresenta uno dei punti fondamentali della meccanica quantistica: PRINCIPIO DI COMPLEMENTARITÀ Se un esperimento permette di osservare un aspetto di un fenomeno fisico, esso impedisce al tempo stesso di osservare l'aspetto complementare dello stesso fenomeno. Nella logica di Bohr i concetti di corpuscolo e di onda, e di qualsiasi coppia di grandezze fisiche complementari, non sono incompatibili; per cogliere appieno alcuni aspetti del mondo microscopico occorrono entrambe le descrizioni, che singolarmente si escludono, ma che insieme si completano. La complementarietà per Bohr non era soltanto pura teoria o un principio, ma la struttura concettuale ancora mancante necessaria per descrivere la strana natura del mondo quantistico, e quindi lo strumento per superare il carattere paradossale del dualismo onda-particella. la complementarietà evitava in modo semplice e chiaro le difficoltà che derivavano dalla necessità di utilizzare due disparate rappresentazioni classiche, onde e particelle, per descrivere un mondo non classico. Sia le particelle che le onde erano, secondo Bohr, indispensabili per una descrizione completa della realtà quantistica, ma entrambe le descrizioni erano di per sé solo parzialmente vere. I fotoni dipingevano un quadro di luce, le onde un altro. Ma i due dipinti erano esposti l’uno accanto all’altro. L’osservatore ne poteva guardare soltanto uno in ogni dato istante. Nessun esperimento potrebbe mai mostrare una particella e un’onda nello stesso momento, simultaneamente. Mi sembrano opportuni alcuni commenti. Non v'e alcun dubbio che l’osservazione circa l'impossibilità anche solo di immaginare esperimenti ideali nei quali si possano mettere in evidenza quegli aspetti del reale che risultano a prima vista contraddittori, ha una grande rilevanza concettuale. Le osservazioni più significative circa la filosofia che sta sotto l'idea di complementarità sono state espresse da Bell: “Bohr elaborò una filosofia di quello che sta dietro le ricette della teoria. Anziché essere disturbato dall'ambiguità di principio, egli sembra trovarci ragioni di soddisfazione. Egli sembra gioire della contraddizione, per esempio tra "onda" e "particella" che emerge in ogni tentativo di superare una posizione pragmatica nei confronti della teoria.... Non allo scopo di risolvere queste contraddizioni e ambiguità, ma nel tentativo di farcele accettare egli formulò una filosofia, che chiamò "complementarità". Pensava che la "complementarità" fosse importante non solo per la fisica, ma per tutta la conoscenza umana. Il suo immenso prestigio ha portato quasi tutti i testi di meccanica quantistica a menzionare la complementarietà, ma di solito in poche righe. Nasce quasi il sospetto che gli autori non capiscano abbastanza la filosofia di Bohr per 585! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! trovarla utile. Einstein stesso incontrò grandi difficoltà nel cogliere con chiarezza il senso di Bohr. Quale speranza resta allora per tutti noi? Io posso dire molto poco circa la complementarietà, ma una cosa la voglio dire. Mi sembra che Bohr usi questo termine nel senso opposto a quello usuale. Consideriamo per esempio un elefante. Dal davanti esso ci appare come una testa, il tronco, e due gambe. Dal dietro esso è un sedere, una coda e due gambe. Dai lati appare diverso e dall'alto e dal basso ancora diverso. Queste varie visioni parziali risultano complementari nel senso usuale del termine. Si completano una con l'altra, risultano mutuamente consistenti, e tutte assieme sono incluse nel concetto unificante di elefante. Ho l’impressione che assumere che Bohr usasse il termine complementare in questo senso usuale sarebbe stato considerato da lui stesso come un non avere colto il punto e avere banalizzato il suo pensiero. Lui sembra piuttosto insistere sul fatto che, nelle nostre analisi, si debbano usare elementi che si contraddicono l'un l'altro, che non si sommano o non derivano da un tutto. Con l'espressione complementarietà egli intendeva, mi pare, l'opposto: contraddittorietà. Sembra che Bohr amasse aforismi del tipo: l'opposto di una profonda verità rappresenta anch'esso una profonda verità; la verità e la chiarezza sono complementari. Forse egli trovava una particolare soddisfazione nell'usare una parola familiare a tutti attribuendogli un significato opposto a quello usuale. La concezione basata sulla complementarietà è una di quelle che io chiamerei le visioni romantiche del mondo ispirate dalla teoria quantistica”. Il principio di complementarità portò a utilizzare un linguaggio tutto particolare per descrivere il mondo atomico. Non tutta la logica della meccanica quantistica fu pienamente condivisa dai grandi fisici del tempo. La ricerca scientifica ci costringe a prendere in considerazione l'aleatorietà dei processi fisici, l'indeterminismo, l'impossibilità di eseguire simultaneamente procedimenti di misura che risultano perfettamente legittimi nel contesto classico, e che rappresentano sfide affascinanti che vanno affrontate. Si deve trovare una via d’uscita. Secondo Bell questa via d'uscita dovrà essere "non romantica" nel senso che richiederà lavoro matematico da parte di fisici teorici più che interpretazioni di tipo filosofico, ma è anche vero che il cambiamento del punto di vista sulla natura introdotto dalla nuova fisica quantistica rispetto a quella classica ci costringe a interrogarci sulla vera realtà della natura, ammesso che esista, anche da un punto di vista filosofico, ed obbliga i filosofi a confrontarsi con temi assolutamente nuovi per i quali è richiesta una conoscenza approfondita per poterli compenetrare appieno. 11.16 La meccanica quantistica dell’atomo L'equazione di Schrodinger, a parte gli effetti relativistici, fornisce la più ampia descrizione del comportamento di una particella quantistica. Per quanto riguarda in particolare l'atomo di idrogeno, l'equazione permette di determinare non solo la forma degli orbitali, ma anche il valore dei corrispondenti livelli di energia. Possiamo dire che l'equazione di Schrodinger svolge nella fisica quantistica la stessa funzione che la seconda legge di Newton svolge nella fisica classica. Uno dei risultati fondamentali della meccanica ondulatoria è rappresentato dal fatto che, essendo l'atomo di idrogeno un sistema tridimensionale, per descrivere gli stati stazionari del suo elettrone sono necessari tre numeri quantici, ciascuno associato a una particolare grandezza fisica e che può assumere un certo insieme di valori: /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 586! SIMBOLO NOME ASSOCIATO A VALORI AMMESSI n numero quantico principale energia 1,2,3,... l numero quantico orbitale ml numero quantico magnetico modulo del momento angolare direzione del momento angolare 0, 1,2,... n - 1 -l... -2, - 1, 0, 1,2, ...l Il primo numero quantico è quello introdotto da Bohr: chiamato numero quantico principale, fornisce i livelli di energia En. Se si trascurano piccole interazioni magnetiche all'interno dell'atomo, l'equazione di Schrodinger prevede che le energie permesse abbiano esattamente la stessa espressione ottenuta da Bohr: En = E1/n2 dove E1 = -13,6 eV è l’energia dello stato fondamentale e n = 1,2,3,… Qualsiasi sistema atomico possiede un momento angolare, che, al pari dell’energia e della quantità di moto, si conserva. Con questa espressione si intende asserire che esiste un asse privilegiato attorno al quale il sistema ruota come una trottola. Ricordando che Bohr formulò le sue regole di quantizzazione precisando che un elettrone, nel suo moto attorno al nucleo non può possedere arbitrari valori del momento angolare, ma solo alcuni precisi valori, per cui solo alcune precise orbite risultano accessibili all'elettrone, e gli stati dell'atomo risultano quantizzati, risulta che una caratteristica del momento angolare consiste nel proprio fatto che esso risulta quantizzato, sia per quanto concerne la sua grandezza L sia per le orientazioni che può assumere nello spazio. Questo equivale, nell'analogia con un sistema classico, ad asserire che, per esempio, una trottola non può ruotare con un'arbitraria velocità angolare attorno al suo asse, ma solo con quelle che corrispondono ai valori tipici della quantizzazione. Di fatto la rotazione spaziale può dare origine, secondo lo schema quantistico, a n possibili valori di L, individuati dal numero quantico orbitale l, che è un numero intero variabile fra zero e n-l. La soluzione dell'equazione di Schrodinger per L ci dà l’espressione: L = ℏ l(l + 1) Non basta, oltre alla sua grandezza, anche l'orientazione del momento angolare rispetto ad una direzione prefissata risulta quantizzata: sarebbe come se nel caso classico si asserisse che una trottola non può ruotare in modo che il suo asse formi un angolo arbitrario con la verticale ma che quest'angolo può assumere solo alcuni valori fissati. Per questo, dal punto di vista quantistico, il momento angolare è descritto da due soli parametri: il modulo L e la componente Lz lungo una direzione z fissata. Per un dato numero quantico orbitale l, i valori permessi per Lz sono: L z = ml ℏ dove il numero quantico magnetico m, può assumere tutti i valori interi compresi fra -l e l, incluso lo zero. 587! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Ancora una volta non possiamo non stupirci: la descrizione quantistica del processo a noi familiare di una trottola classica che, via via che rallenta, aumenta l'angolo che il suo asse forma colla verticale fino ad adagiarsi al suolo, comporta che la trottola, di fatto, procede in modo che il suo asse faccia dei salti discontinui, per esempio dal valore m=l ai valori l -1, l - 2 e cosi via fino ad assumere il valore m=0. Le sole 5 possibili orientazioni rispetto all’asse verticale di un momento angolare nel caso l=2, sono rappresentate in figura. Se consideriamo l'atomo di idrogeno nel suo stato fondamentale n=1, il numero quantico orbitale deve essere l=0 e il numero quantico magnetico ml=0: il momento angolare è pertanto nullo (L=0 e Lz=0). Lo stato eccitato n=2 può avere sia l=0, sia l=1. Nel primo caso ml può assumere solo il valore zero; nel secondo sono possibili i tre valori ml=-1, 0, 1. Per n=2 si individuano dunque quattro configurazioni che si distinguono almeno per un numero quantico. Avendo lo stesso numero quantico principale, queste sono caratterizzate dalla stessa energia, ma rappresentano quattro stati di moto differenti, cui corrispondono altrettante funzioni d'onda distinte L'insieme dei tre numeri quantici (n,l,m) individua infatti una particolare funzione d'onda, risultante dall'equazione di Schrodinger. A ciascuna terna corrisponde quindi una diversa distribuzione dell'elettrone nello spazio. La quantizzazione spaziale, legata al numero quantico magnetico, ci permette di comprendere alcuni fatti sperimentali, che nell'ambito del modello di Bohr rimanevano senza spiegazione. Se poniamo un atomo di idrogeno in un campo magnetico esterno, osserviamo che le righe spettrali si scindono in un certo numero di componenti molto vicine fra loro. Questa suddivisione, chiamata effetto Zeeman, dimostra sperimentalmente come l'energia di uno stato dell'atomo, in presenza di un campo magnetico, non dipenda solo dal numero quantico n, ma anche dal valore assunto dal numero quantico ml. Tale dipendenza si può spiegare attribuendo all'elettrone un momento magnetico µ che, risultando proporzionale al momento angolare l, può assumere 2l + 1 orientazioni rispetto alla direzione z del campo magnetico applicato. Per completare la descrizione degli stati atomici, oltre ai tre numeri quantici esaminati, che derivano dalla teoria originale di Schrodinger, è necessario introdurne un quarto: il numero quantico di spin. Se si osservano infatti le righe spettrali emesse dagli atomi con uno spettroscopio ad alta risoluzione, si nota che esse si suddividono in più righe separate da alcuni angstrom. Questa struttura fine non può essere in nessun modo spiegata con i soli primi tre numeri quantici. Per interpretare i risultati sperimentali, nel 1925 Wolfgang Pauli (1900-1958; Premio Nobel) ipotizzò l'esistenza di un ulteriore numero quantico ms, che a differenza /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 588! degli altri tre poteva assumere soltanto due valori: 1/2 e -1/2. Era questa bivalenza che spiegava il motivo per cui in un guscio chiuso il numero degli elettroni era pari a 2n2 e raddoppiava, quindi, il numero degli stati elettronici. Dove prima c’era un singolo stato di energia con un insieme unico di tre numeri quantici n,l,m, ora c’erano due stati di energia: n,l,m,A ed n,l,m,B. Questi stati aggiuntivi spiegavano l’enigmatica suddivisione delle righe spettrali nell’effetto Zeeman anomalo. Poi il quarto numero quantico “a due valori” portò Pauli al principio di esclusione, secondo il quale due elettroni in un atomo non possono mai avere lo stesso insieme di quattro numeri quantici. Era il principio di esclusione che governava l’occupazione dei gusci elettronici nel nuovo modello atomico di Bohr e impediva che gli elementi si ammassassero tutti nel livello fondamentale. Il principio forniva la spiegazione fondamentale della disposizione degli elementi nella tavola periodica. Pertanto, le proprietà chimiche di un elemento, in questo modo, non sono determinate dal numero totale degli elettroni presenti nel suo atomo, ma soltanto dalla distribuzione dei suoi elettroni di valenza. Se tutti gli elettroni in un atomo occupassero il livello energetico più basso, tutti gli elementi avrebbero le medesime proprietà chimiche. Perché fossero necessari quattro numeri, e non tre, per specificare la posizione degli elettroni in un atomo era un mistero. Si era ammesso fin dal tempo delle originarie ricerche di Bohr e Sommerfeld che un elettrone atomico in moto orbitale intorno ad un nucleo si muovesse in tre dimensioni e quindi richiedesse tre numeri quantici per la sua descrizione. Qual era la base fisica del quarto numero quantico di Pauli? Nel 1925 Samuel Goudsmit (1902-1978; Premio Nobel) e George Uhlenbeck (1900-1988; Premio Nobel) compresero che la proprietà della bivalenza proposta da Pauli non era un altro numero quantico. A differenza dei tre esistenti n,l,m che specificavano rispettivamente il momento angolare dell’elettrone nella sua orbita, la forma di tale orbita e la sua orientazione spaziale, la bivalenza era una proprietà intrinseca dell’elettrone, e quindi i due giovani fisici suggerirono che tutti gli elettroni fossero dotati di un momento angolare intrinseco, lo spin S, oltre al momento angolare orbitale L. In questo modo lo spin risolveva alcuni dei problemi che ancora affliggevano la teoria della struttura atomica e al tempo stesso forniva una limpida giustificazione fisica del principio di esclusione. Certo la scelta del nome spin (giro vorticoso in inglese) non fu proprio felice dal momento che il nome evoca immagini di oggetti in rotazione, mentre lo spin dell’elettrone è un concetto puramente quantistico. La grandezza fisica spin è considerata la più quantomeccanica di tutte le quantità fisiche. Che cos'è lo spin? Essenzialmente, è una misura della rotazione di una particella, ed indica il fatto che alcune particelle elementari, pur essendo puntiformi, si comportano come microscopiche trottole. Lo spin è il momento angolare intrinseco associato alle particelle, che diversamente dagli oggetti rotanti della meccanica classica, che derivano il loro momento angolare dalla rotazione delle parti costituenti, lo spin non è associato con alcuna massa interna. Lo spin risulta del tutto e per tutto analogo al momento angolare a parte alcune significative differenze. Innanzi tutto esso può assumere più valori che non il momento angolare. La formula che esprime la sua grandezza risulta formalmente uguale alla precedente: S = ! s(s + 1) 589! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Tuttavia nel caso dello spin l'analogo della quantità l che indicheremo come s può assumere, oltre al valori 0,1,2, ... anche valori semi-interi positivi, vale a dire s=1/2, 3/2, 5/2 ... e così via. Un'altra importante differenza deriva dal fatto che il valore assoluto dello spin è una caratteristica invariabile e caratteristica di ogni particella come la sua massa o la sua carica. In altre parole, mentre un elettrone può ruotare attorno al nucleo in modo da avere uno qualsiasi dei valori permessi per il suo momento angolare L, esso "ruota su sé stesso" solo in un modo preciso che corrisponde a una proprietà specifica e immutabile di questo tipo di particelle ed è solo la direzione dell'asse di tale spin che può variare, e questo fatto è in forte contrasto con la situazione di un oggetto macroscopico, come una palla da tennis, che può assumere rotazioni di quantità diverse, a seconda di come viene colpita! Di fatto tutti gli elettroni, i protoni e i neutroni, hanno invariabilmente s=½ , il che vuole dire che la grandezza del loro momento di spin risulta: S = ! s(s + 1) = 3 ! 2 e implica che gli elettroni possono orientarsi rispetto a una direzione qualsiasi solo in due modi corrispondenti a proiezioni eguali a + ! /2 e - ! /2 rispettivamente. Diremo quindi che una particella di questo tipo può avere solo lo spin in su o in giù lungo la direzione considerata. Questa quantità di momento angolare non sarebbe consentita per un oggetto formato esclusivamente da un certo numero di particelle orbitanti nessuna delle quali fosse dotata di spin; essa può presentarsi solo perchè lo spin è una proprietà intrinseca della particella stessa, ossia perchè non deriva dal moto orbitale delle sue parti attorno a qualche centro. Poiché la grandezza dello spin è 3 ! , mentre le sue 2 proiezioni risultano avere i valori + ½ e – ½ , lo spin non si allinea mai perfettamente con alcuna direzione fisicamente prefissata. Pertanto, come il momento angolare orbitale, S è spazialmente quantizzato e la sua componente z è: Sz = ms ! = ± 1 ! 2 Una particella con spin semintero, ossia multiplo di ! /2, si dice fermione, e presenta una curiosa bizzarria nella descrizione quantomeccanica: dopo una rotazione completa di 360° il suo vettore di stato non torna uguale a sé stesso ma assume il segno meno! Molte particelle naturali sono di fatto fermioni, come i componenti dell’atomo: elettroni, protoni e neutroni. Le particelle con spin intero, ossia multiplo pari di ! /2, si chiamano bosoni, come i fotoni. Dopo una rotazione di 360° un vettore di stato di un bosone torna a sé stesso, non al suo negativo. In un primo momento fu ipotizzato che il momento angolare di spin fosse associato alla rotazione dell'elettrone su sé stesso. Tuttavia, se l'elettrone non può essere pensato come un oggetto localizzato, tanto meno è ammissibile immaginarlo in rotazione. Lo spin deve piuttosto essere considerato come una proprietà intrinseca dell'elettrone che si manifesta come un momento angolare. Risulta rilevante anche il fatto che ad ogni momento angolare risulti sempre associato un momento magnetico. Questo vuole dire che le minuscole trottole di cui ci stiamo interessando si comportano, dal punto di vista delle loro interazioni con un /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 58:! campo magnetico, come dei minuscoli aghi magnetici. Inoltre, in un atomo si hanno in generale diversi momenti angolari dovuti ai moti orbitali degli elettroni e ai loro stati di spin ed essi si combinano sommandosi come vettori, secondo la regola del parallelogramma. 11.17 Il principio di esclusione di Pauli Il modello di Bohr non è in grado di descrivere gli atomi complessi formati da più elettroni, in quanto non tiene conto delle reciproche interazioni elettroniche. Applicando la teoria quantistica a questi atomi, si trova che gli stati dei singoli elettroni possono essere descritti dagli stessi numeri quantici n, l, ml, ms utilizzati per l'atomo di idrogeno, con la differenza che i valori dei corrispondenti livelli energetici dipendono, oltre che dal numero quantico principale n, anche dal numero quantico orbitale l. Gli altri numeri quantici influiscono debolmente sul valore dell'energia associata a un dato stato elettronico e, in prima approssimazione, nel calcolo dei livelli possono essere trascurati. Fissato n, l'energia è crescente all'aumentare di l e, fissato l, è crescente con n; non necessariamente, però, i livelli con un dato n hanno energia minore di tutti i livelli corrispondenti a n + 1. Per esempio, come si può vedere dalla figura, il livello con n=3 e l=2 ha energia maggiore di quello con n=4 e l=0. Stabiliti i numeri quantici che individuano i possibili stati elettronici, nonché la forma delle corrispondenti funzioni d'onda e il valore dell'energia associata a ciascuno stato, un fondamentale principio dovuto a Pauli fissa il criterio con cui gli elettroni sono distribuiti negli stati permessi: PRINCIPIO DI ESCLUSIONE DI PAULI In un atomo non possono mai trovarsi due elettroni aventi la stessa quaterna di numeri quantici. Così se, per esempio, due elettroni di un atomo hanno i primi tre numeri quantici n, l, ml uguali, il quarto numero quantico ms dell'uno deve essere opposto a quello dell'altro, in modo che i due spin siano, come si usa dire, antiparalleli. La terna di numeri quantici n, l, ml descrive completamente la forma della "nuvola elettronica", cioè individua un ben preciso orbitale. Possiamo pertanto enunciare il principio di esclusione anche dicendo che: ogni orbitale può essere occupato al massimo da due elettroni, con diverso numero quantico di spin. Questo principio non solo permette di interpretare in modo naturale la struttura del sistema periodico degli elementi, ma rappresenta la chiave per capire una numerosa serie di fenomeni sperimentali, dalla fisica atomica a quella nucleare. 59<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Si dice che gli orbitali caratterizzati dallo stesso numero quantico principale n appartengono allo stesso guscio, o anche allo stesso strato. Talvolta è anche usata una notazione secondo la quale lo strato con n = 1 è indicato con la lettera K e gli strati corrispondenti ai numeri successivi con L, M, N, O, ecc. Per un dato strato, l'insieme degli orbitali caratterizzati dallo stesso numero quantico l (e differenziati dal diverso valore del numero quantico ml) costituisce un sottostrato. Poiché, come abbiamo detto, i livelli di energia degli elettroni atomici dipendono pressoché soltanto dai due numeri quantici n e l, tutti gli stati elettronici appartenenti a un determinato sottostrato hanno la stessa energia. Una notazione spesso utilizzata in spettroscopia fa corrispondere a ogni valore di l una lettera dell'alfabeto. Così lo strato K, caratterizzato da n = 1 (e, necessariamente, l = 0), viene detto strato 1s, il sottostrato con n = 3 ed l=2 è indicato come 3d, ecc.: Numero quantico orbitale l 0 1 2 3 4 5 Notazione spettroscopica s p d f g h … … l = 0 ml = 0 Poiché lo strato K contiene un solo orbitale (n=1, l=0, ml=0), esso può ospitare al massimo 2 elettroni. Lo strato L, invece, è ml = 1 formato da 4 orbitali, i cui numeri quantici sono specificati nello n = 2 l = 1 ml = 0 schema che segue: ml = −1 Gli elettroni che può contenere sono, pertanto, non più di 8. In modo analogo si vede che lo strato M contiene al massimo 18 elettroni, e così via. In generale, l'n-esimo strato, cioè quello con numero quantico principale n, può ospitare 2 n2 elettroni. All'interno di uno strato, il numero massimo di elettroni che può essere contenuto in uno specifico sottostrato è indicato nella seguente tabella: Sottostrato s p d f g h … Numero massimo di elettroni 2 6 10 14 18 22 … In condizioni normali: ogni elettrone tende a occupare, fra gli stati disponibili, quello di minima energia. Tenendo conto di questa regola, cerchiamo ora di "costruire" un atomo con numero atomico Z, contenente cioè Z elettroni, partendo dal nucleo e inserendo negli orbitali un elettrone alla volta. In figura è rappresentata la configurazione dello stato fondamentale del carbonio (Z=6), che in notazione spettroscopica può essere indicata come 1s22s22p2. Possiamo osservare che nell'atomo di carbonio i due elettroni del sottostrato 2p non sono disposti nello stesso orbitale con spin antiparalleli, ma in orbitali diversi con spin paralleli. Questa è una regola generale (con qualche eccezione), che assicura all'edificio atomico una condizione di minima energia complessiva. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 59;! 11.18 La meccanica quantistica relativistica La meccanica ondulatoria era stata formulata da Schrodinger per il moto non relativistico, ed i fisici si dibattevano nel tentativo di estenderla anche alle particelle relativistiche, in modo da unificare le due grandi teorie, quella della relatività e quella dei quanti. Inoltre l'equazione delle onde di Schrodinger considerava l'elettrone come un punto e tutti i tentativi di applicarla all’elettrone che ruotasse su se stesso e si comportava come un magnete elementare, furono infruttuosi. Nel suo famoso articolo, pubblicato nel 1930, Paul Dirac (1902-1984; Premio Nobel) formulò una nuova equazione, la più bella della fisica, insieme a quella di Einstien E=mc2. Tale equazione soddisfaceva a tutte le condizioni relativistiche, è applicabile ad elettroni di qualunque velocità e, nello stesso tempo, porta alla conclusione che l'elettrone deve comportarsi come una piccola trottola rotante magnetizzata. Pur essendo veramente geniale come concezione, l'equazione di Dirac portò, immediatamente, ad una seria complicazione, proprio perché riusciva ad unificare in modo tanto limpido la teoria dei quanti e quella della relatività. La complicazione nacque per il fatto che la meccanica quantistica relativistica ammetteva la possibilità matematica dell'esistenza di due mondi, una simmetria tra il nostro mondo, fatto di materia, ed uno strano mondo, fatto di antimateria. La simmetria tra materia e antimateria implica che per ogni particella esista un’antiparticella con massa uguale e carica opposta. Se l'energia a disposizione è sufficiente, possono crearsi coppie di particelle e antiparticelle, che a loro volta si ritrasformano in energia pura nel processo inverso di annichilazione. Questi processi di creazione e di annichilazione delle particelle erano stati previsti dalla teoria di Dirac prima che fossero effettivamente scoperti in natura. La creazione di particelle materiali da energia pura è certamente l'effetto più spettacolare della teoria della relatività. Prima della fisica relativistica delle particelle, i costituenti della materia erano sempre stati considerati o come unità elementari indistruttibili e immutabili, oppure come oggetti composti che potevano essere suddivisi nelle loro parti costituenti; e la domanda fondamentale che ci si poneva era se fosse possibile continuare a dividere la materia, o se infine si sarebbe giunti alle minime unità indivisibili. Dopo la scoperta di Dirac, tutto il problema della divisibilità della materia apparve in una nuova luce. Quando due particelle si urtano con energie elevate, di solito esse si frantumano in parti, ma queste parti non sono più piccole delle particelle originarie. Sono ancora particelle dello stesso tipo, e sono prodotte a spese dell'energia di moto (energia cinetica) coinvolta nel processo d'urto. L'intero problema della divisibilità della materia è quindi risolto in maniera inaspettata. L'unico modo per dividere ulteriormente le particelle subatomiche è quello di farle interagire tra loro in processi d'urto ad alta energia. Così facendo possiamo dividere la materia, ma non otteniamo mai pezzi più piccoli, proprio perchè creiamo le particelle a spese dell'energia coinvolta nel processo. Questo stato di cose è destinato a rimanere paradossale fino a quando continuiamo ad assumere un punto di vista statico secondo cui la materia è formata da mattoni elementari. Solo quando si assume un punto di vista dinamico, relativistico, il paradosso scompare. Le particelle sono viste allora come configurazioni dinamiche, o 59=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! processi, che coinvolgono una certa quantità di energia, la quale si presenta a noi come la loro massa. In un processo d'urto, l'energia delle due particelle che entrano in collisione viene ridistribuita secondo una nuova configurazione, e se è stata aggiunta una quantità sufficiente di energia cinetica, la nuova configurazione può comprendere particelle ulteriori. La maggior parte delle particelle create in questi urti vivono solo per un intervallo di tempo estremamente breve, molto meno di un milionesimo di secondo, dopo il quale si disintegrano nuovamente in protoni, neutroni ed elettroni. Nonostante la loro vita estremamente breve, non solo è possibile rivelare l'esistenza di queste particelle e misurarne le proprietà, ma addirittura si può fare in modo che lascino delle tracce, prodotte nelle cosiddette camere a bolle, che possono essere fotografate. Nell'anno 1931, il fisico americano Carl Andersson (19051991; Premio Nobel) studiò le tracce prodotte in una camera a nebbia dagli elettroni ad alta energia degli sciami cosmici. Per misurare la velocità di questi elettroni, circondò la camera a nebbia con un intenso campo magnetico e, con sua grande sorpresa, le fotografie eseguite mostrarono che circa la metà degli elettroni era deviata in una direzione per la presenza del campo magnetico, e l'altra metà in direzione opposta: cioè il 50% erano elettroni negativi e il 50% elettroni positivi, chiamati positroni, entrambi con la stessa massa. Gli esperimenti eseguiti sui positroni confermarono la teoria di Dirac, che rappresenta uno degli esempi più sbalorditivi di anticipazione della realtà. Una coppia di un elettrone positivo ed uno negativo veniva prodotta dalla collisione di un quanto di luce ad alta energia (raggi γ o raggi cosmici) contro un nucleo atomico e la probabilità di un evento di questo tipo coincideva esattamente con i valori calcolati sulla base della teoria di Dirac. Si osservò, inoltre, che i positroni entrando in collisione con gli ordinari elettroni si annichilano liberando come fotoni di energia molto elevata l'energia equivalente alla loro massa (e++e=2 fotoni γ) e, anche in questo caso, tutto avviene secondo le previsione teoriche. Dopo la scoperta degli elettroni positivi, i fisici sognavano la possibilità di scoprire i protoni negativi, i quali avrebbero dovuto trovarsi con i normali protoni nella stessa relazione esistente tra gli elettroni positivi e quelli negativi. Però, dal momento che i protoni sono circa 2000 volte più pesanti degli elettroni, la loro produzione avrebbe richiesto energie dell'ordine del miliardo di elettronvolt. Questo fatto diede il via ad un gran numero di ambiziosi progetti di costruzione di acceleratori di particelle in grado di fornire una siffatta quantità d'energia ai proiettili nucleari e, negli Stati Uniti, furono gettate le fondamenta di due superacceleratori: un bevatrone al Laboratorio per le Radiazioni dell'Università di Berkeley ed un cosmotrone al Laboratorio Nazionale Brookhaven. La gara fu vinta dai fisici della costa occidentale, e Emilio Segrè (1905-1889; Premio Nobel) ed altri, nell'ottobre 1955, annunciarono l'avvenuta scoperta di protoni negativi. La conferma dell'esistenza dei protoni negativi rappresenta un eccellente esempio di verifica sperimentale di una previsione teorica anche se, al tempo in cui fu enunciata, tale teoria poteva apparire poco convincente. Alla fine del 1956 fu scoperto anche /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 594! l'antineutrone; poiché però, in questo caso, la carica elettrica è assente, la differenza tra neutroni ed antineutroni può essere osservata solo dalla loro mutua tendenza ad annichilarsi. Dopo la conferma della possibilità di elettroni, protoni e neutroni di esistere in certi antistati, si può pensare seriamente ad un'antimateria formata da queste particelle. Tutte le proprietà chimiche e fisiche dell'antimateria dovrebbero essere identiche a quella della materia ordinaria ed il solo modo per rendersi conto della loro differenza è attraverso i processi di annichilazione. La possibilità di esistenza dell'antimateria propone pesanti problemi all'astronomia ed alla cosmologia. La materia dell'Universo è tutta dello stesso tipo o esistono agglomerati di materia ed antimateria sparsi irregolarmente nell'infinità dello spazio? 11.19 La statistica dei quanti La teoria quantistica del movimento presenta una grave contraddizione con la teoria cinetica. Infatti, se gli elettroni in moto all'interno dell'atomo possono avere solo certi valori discreti dell'energia cinetica, lo stesso discorso dovrebbe valere per le molecole di un gas mobili all'interno di un recipiente chiuso. Cioè, considerando la distribuzione energetica delle molecole di un gas, non si può più supporre che esse abbiano un valore qualsiasi dell'energia, come si faceva nella trattazione classica della teoria di Boltzmann, Maxwell, Gibbs ed altri; ma dovrebbero, invece, esservi dei livelli quantistici ben definiti e determinati dalle dimensioni del recipiente: nessun valore dell'energia intermedio a due qualsiasi di questi livelli dovrebbe essere possibile. La situazione è resa più complessa dal fatto che alcune particelle, come gli elettroni, seguono il principio di Pauli, mentre altre particelle non lo seguono. Queste considerazioni portarono alla formulazione di due diversi tipi di statistica: la statistica di Fermi-Dirac, applicabile alle particelle che seguono il principio di Pauli, e la statistica di Bose-Einstein, applicabile alle particelle che non lo seguono. Ciò che si può dire di entrambe le statistiche è che esse non differiscono dalla statistica classica nelle applicazioni ai fenomeni della nostra vita quotidiana, mentre ci si aspettano notevoli scostamenti solo quando esse siano applicate allo studio di certi fenomeni come il gas di elettroni nei metalli e nelle cosiddette "stelle bianche nane", dove vale la statistica di Fermi - Dirac, mentre nei gas ordinari a temperatura molto vicina allo zero assoluto prevale quella di Bose - Einstein. 595! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 11.20 campi L’immagine del mondo della meccanica quantistica: la teoria dei La concezione meccanicistica classica del mondo era basata sull'idea di particelle solide e indistruttibili che si muovono nel vuoto. La fisica moderna ha prodotto un cambiamento radicale di questa immagine, giungendo non solo a una nozione completamente nuova di particella, ma trasformando anche profondamente il concetto classico di vuoto. Questa trasformazione, che si realizzò nelle cosiddette teorie dei campi, ebbe inizio con l'idea einsteiniana di associare il campo gravitazionale alla geometria dello spazio, e divenne ancora più profonda quando la teoria dei quanti e la teoria della relatività furono unite per descrivere i campi di forza delle particelle subatomiche. In queste teorie quantistiche dei campi, la distinzione tra le particelle e lo spazio che le circonda diviene sempre più sfumata e il vuoto è concepito come una entità dinamica di importanza fondamentale. Il concetto di campo venne introdotto nel XIX secolo da Faraday e da Maxwell nella loro descrizione delle forze tra cariche elettriche e correnti. Un campo elettrico è una condizione, nello spazio attorno a un corpo carico, che può produrre una forza su una qualsiasi altra carica posta in quello spazio. I campi elettrici sono quindi creati da corpi carichi e i loro effetti possono essere risentiti solo da altri corpi carichi. I campi magnetici sono prodotti da cariche in moto, cioè da correnti elettriche, e le forze magnetiche da essi generate possono essere risentite da altre cariche in moto. Nell'elettrodinamica classica, cioè nella teoria costruita da Faraday e da Maxwell, i campi sono entità fisiche primarie che possono essere studiate senza fare alcun riferimento a corpi materiali. I campi elettrici e magnetici variabili possono propagarsi attraverso lo spazio sotto forma di onde radio, di onde luminose, o di altri tipi di radiazione elettromagnetica. La teoria della relatività ha reso molto più elegante la struttura dell'elettrodinamica unificando i concetti di carica e di corrente da una parte, di campo elettrico e di campo magnetico dall'altra. Dato che ogni moto è relativo, ogni carica può apparire anche come corrente, in un sistema di riferimento in cui essa si muove rispetto all'osservatore, e di conseguenza il suo campo elettrico può anche manifestarsi come campo magnetico. Nella formulazione relativistica dell'elettrodinamica, i due campi sono così unificati in un unico campo elettromagnetico. Il concetto di campo è stato associato non solo alla forza elettromagnetica, ma anche all'altra forza fondamentale presente su larga scala nell'universo, la forza di gravità. I campi gravitazionali sono creati e risentiti da tutte le masse, e le forze che ne derivano sono sempre attrattive, a differenza dei campi elettromagnetici che sono risentiti solo dai corpi carichi e danno luogo a forze sia attrattive che repulsive. La teoria dei campi adatta per il campo gravitazionale è la teoria generale della relatività; in essa l'influenza di una massa sullo spazio circostante ha una portata più vasta di quanto non lo sia la corrispondente influenza di un corpo carico in elettrodinamica. Anche qui lo spazio attorno all'oggetto è condizionato in modo tale che un altro oggetto può risentire una forza, ma questa volta il condizionamento modifica la geometria, e quindi la struttura stessa dello spazio. Materia e spazio vuoto, il pieno e il vuoto, furono i due concetti, fondamentalmente distinti, sui quali si basò l'atomismo di Democrito e di Newton. Nella relatività generale, questi due concetti non possono più rimanere separati. Ovunque è presente una massa, sarà presente anche un campo gravitazionale, e questo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 596! campo si manifesterà come una curvatura dello spazio che circonda quella massa. Non dobbiamo pensare, tuttavia, che il campo riempia lo spazio e lo incurvi. Il campo e lo spazio non possono essere distinti: il campo è lo spazio curvo. Nella relatività generale, il campo gravitazionale e la struttura, o geometria, dello spazio sono identici. Essi sono rappresentati nelle equazioni del campo di Einstein dalla medesima grandezza matematica. Nella teoria di Einstein, quindi, la materia non può essere separata dal suo campo di gravità, e il campo di gravita non può essere separato dallo spazio curvo. Materia e spazio sono pertanto visti come parti inseparabili e interdipendenti di un tutto unico. Gli oggetti materiali non solo determinano la struttura dello spazio circostante, ma a loro volta sono influenzati in modo sostanziale dall'ambiente. Secondo il fisico e filosofo Mach, l'inerzia di un oggetto materiale, ossia la resistenza che oppone ad essere accelerato, non è una proprietà intrinseca alla materia, ma una misura della sua interazione con tutto il resto dell'universo. Nella concezione di Mach, la materia possiede inerzia solo perchè esiste altra materia nell'universo. Quindi la fisica moderna ci mostra di nuovo, e questa volta a un livello macroscopico, che gli oggetti materiali non sono entità distinte, ma sono legati in maniera inseparabile al loro ambiente; e che le loro proprietà possono essere comprese solo nei termini della loro interazione con il resto del mondo. L'unità fondamentale del cosmo si manifesta, perciò, non solo nel mondo dell'infinitamente piccolo ma anche nel mondo dell'infinitamente grande. L'unità e il rapporto reciproco tra un oggetto materiale e il suo ambiente, che è evidente su scala macroscopica nella teoria generale della relatività, appare in una forma ancora più sorprendente a livello subatomico. Qui, le idee della teoria classica del campo si combinano con quelle della meccanica quantistica per descrivere le interazioni tra particelle subatomiche. Una combinazione di questo tipo non è stata finora possibile per l’interazione gravitazionale a causa della complicata forma matematica della teoria della relatività di Einstein; ma l'altra teoria classica del campo, l’elettrodinamica, è stata fusa con la meccanica quantistica in una teoria chiamata elettrodinamica quantistica che descrive tutte le interazioni elettromagnetiche tra particelle subatomiche. Questa teoria incorpora sia la teoria quantistica sia quella relativistica. Essa fu il primo modello quantistico-relativistico della fisica modera ed è, a tutt'oggi, quello meglio riuscito. La caratteristica nuova e sorprendente dell'elettrodinamica quantistica deriva dalla combinazione di due concetti: quello di campo elettromagnetico e quello di fotoni intesi come manifestazione corpuscolare delle onde elettromagnetiche. Poiché i fotoni sono anche onde elettromagnetiche, e poiché queste onde sono campi variabili, i fotoni devono essere manifestazioni dei campi elettromagnetici. Di qui il concetto di campo quantistico, cioè di un campo che può assumere la forma di quanti, o particelle. Il campo quantistico è un concetto completamente nuovo che è stato esteso ed applicato alla descrizione di tutte le particelle subatomiche e delle loro interazioni, facendo corrispondere a ciascun tipo di particella un diverso tipo di campo. In queste teorie quantistiche dei campi, il contrasto della teoria classica tra le particelle solide e lo spazio circostante è completamente superato. Il campo quantistico è visto come l’entità fisica fondamentale: un mezzo continuo presente ovunque nello spazio. Le particelle sono soltanto condensazioni locali del campo, concentrazioni di energia che vanno e vengono e di conseguenza perdono il loro carattere individuale e si dissolvono nel campo soggiacente ad esse. Così si esprimono Einstein e Weyl: “Noi possiamo perciò considerare la materia come costituita dalle regioni dello spazio nelle quali il campo è estremamente intenso... In questo nuovo tipo di fisica non c'è luogo insieme per campo e materia poichè il campo è la sola realtà”. “Secondo questa teoria [la teoria della 597! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! materia come campo] una particella elementare, per esempio un elettrone, è soltanto una piccola regione del campo elettrico in cui l'intensità assume valori estremamente alti, a indicare che una porzione relativamente enorme dell'energia del campo è concentrata in un piccolissimo spazio. Tale nodo di energia, che non è affatto nettamente distinto dal resto del campo, si propaga attraverso lo spazio vuoto come un'onda sulla superficie di un lago; non vi è nulla che possa considerarsi come un'unica e stessa sostanza di cui l'elettrone consista in ogni istante”. In definitiva, il mondo, secondo la meccanica quantistica, non è fatto di campi e particelle, ma di uno stesso tipo di oggetto, il campo quantistico. Non più particelle che si muovono nello spazio al passare del tempo, ma campi quantistici in cui eventi elementari esistono nello spaziotempo. La concezione delle cose e dei fenomeni fisici come manifestazioni effimere di una entità fondamentale soggiacente non è solo un elemento di fondo della teoria dei campi, ma anche un elemento basilare della concezione orientale del mondo. Come Einstein, i mistici orientali considerano questa entità soggiacente come la sola realtà: tutte le sue manifestazioni fenomeniche sono viste come transitorie e illusorie. Col concetto di campo quantistico, la fisica moderna ha trovato una risposta inattesa alla vecchia domanda se la materia è costituita da atomi indivisibili o da un continuum soggiacente ad essa. Il campo è un continuum che è presente dappertutto nello spazio e tuttavia nel suo aspetto corpuscolare ha una struttura discontinua, granulare. I due concetti apparentemente contraddittori sono quindi unificati e interpretati semplicemente come differenti aspetti della stessa realtà. Come succede sempre in una teoria relativistica, l'unificazione dei due concetti opposti avviene in modo dinamico: i due aspetti della materia si trasformano perennemente l'uno nell'altro. La fusione di questi concetti opposti in un tutto unico è stata espressa in un sutra buddhista: “La forma è vuoto, e il vuoto è in realtà forma. Il vuoto non è diverso dalla forma, la forma non è diversa dal vuoto. Ciò che è forma quello è vuoto, ciò che è vuoto quello è forma”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 598! !"#$%&'&()*! Non insegno mai nulla ai miei allievi. Cerco solo di metterli in condizione di poter imparare. Einstein !&)-,4,-)(1!%&!#-#*%&0-+/-&1-# 2!"%0%2!*7-#'-""(#)-%,!(#'-""(# ,-"()!.!)(3! 12.1 Le radici filosofiche di Einstein Le letture di Einstein furono rivolte soprattutto a quei libri che indagavano sull’interazione tra scienza e filosofia, in particolare i seguenti testi furono fondamentali nella formazione di una propria filosofia della scienza: Trattato sulla natura umana di Hume, L’analisi delle sensazioni e La meccanica nel suo sviluppo storico-critico di Mach, l’Etica di Spinoza e La scienza e l’ipotesi di Poincarè. Il più influente tra questi era stato Hume, che poneva come presupposto alla propria filosofia lo scetticismo su qualsiasi conoscenza distinta da ciò che poteva essere percepito direttamente dai sensi. Perfino le evidenti leggi della causalità erano sospette ai suoi occhi, semplici abitudini della mente; una palla che ne colpiva un’altra poteva comportarsi nel modo predetto dalle leggi di Newton innumerevoli volte, eppure, a rigore, ciò non costituiva una ragione per credere che si sarebbe comportata nello stesso modo la volta successiva. Einstein osservò: “Hume vide chiaramente che alcuni concetti, come ad esempio quello di casualità, non si possono dedurre con metodi logici dai dati dell’esperienza”. Hume aveva applicato il suo rigore scettico al concetto di tempo, per cui non aveva senso parlare del tempo come se avesse un’esistenza assoluta, indipendente dagli oggetti osservabili i cui movimenti ci permettevano di definirlo: “Dal succedersi delle idee e impressioni ci formiamo l’idea di tempo, la quale, senza di esse, non fa mai la sua apparizione nella mente”. Questo concetto che non esista nulla di simile al tempo assoluto avrebbe trovato un’eco nella teoria della relatività di Einstein. Anche Kant occupò la scena della filosofia di Einstein con un’idea che doveva costituire un progresso rispetto ad Hume, e cioè che alcune verità rientrano in una 599! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! categoria di conoscenza assolutamente certa che è radicata nella ragione stessa. In altre parole, Kant distingueva tra due tipi di verità: le proposizioni analitiche, che discendono dalla logica e dalla ragione stessa, piuttosto che dall’osservazione del mondo; le proposizioni sintetiche che sono basate sull’esperienza e sulle osservazioni. Le proposizioni sintetiche potrebbero subire modifiche ad opera di nuovi dati empirici, ma non così le proposizioni analitiche, nella cui categoria rientra la geometria e il principio di casualità, che sono tipi di conoscenza a priori che non devono essere preventivamente ricavati dai dati sensoriali. Da principio Einstein trovò meraviglioso che certe verità potessero essere scoperte mediante la sola ragione. Ma presto cominciò a mettere in discussione la rigida distinzione tra verità analitiche e sintetiche: “Io sono convinto … che questa distinzione sia erronea”. Una proposizione che sembra puramente analitica, come la somma degli angoli di un triangolo è pari a 180°, poteva rivelarsi falsa in una geomeria non euclidea o in uno spazio curvo. L’empirismo di Hume fu spinto un passo più avanti dalla filosofia di Mach, la cui essenza è contenuta nelle parole dello stesso Einstein: “I concetti hanno senso soltanto se possiamo indicare gli oggetti a cui si riferiscono e le regole mediante le quali sono riferiti a questi oggetti”. In altri termini, perché un concetto abbia senso ne occorre una definizione operativa, che descriva come si osserverebbe il concetto in termini di operazioni. Questa idea avrebbe dato i suoi frutti quando Einstein discusse su quale osservazione avrebbe dato significato al concetto che due eventi si verificano contemporaneamente. L’applicazione di questo punto di vista ai concetti newtoniani di tempo assoluto e spazio assoluto comportò l’impossibilità di definire tali concetti in termini di osservazioni che fosse possibile compiere. Pertanto, secondo Mach, essi erano privi di significato: “una cosa puramente ideale che non può trovare riscontro nell’esperienza”. Anche Poincarè rilevò la debolezza del concetto newtoniano di tempo assoluto affermando, in La scienza e l’ipotesi, che: “Non esiste un tempo assoluto; dire che due intervalli di tempo hanno la stessa durata è un’asserzione di per sé priva di significato, che può acquisirne uno solo in base a una convenzione (…) Non soltanto non abbiamo alcuna intuizione diretta dell’eguaglianza di due intervalli di tempo, non ne abbiamo neppure della simultaneità di due eventi che si verificano in luoghi diversi”. A quanto sembra, sia Mach che Poincarè, fornirono una base alla grande svolta di Einstein. L’ultimo eroe intellettuale era Spinoza, la cui influenza su Einstein fu principalmente religiosa. Einstein fece proprio il suo concetto di un Dio amorfo che si riflette nella bellezza che incute riverenza, nella razionalità e nell’unità delle leggi di natura. Inoltre, Einstein trasse da Spinoza la fede nel determinismo, e cioè l’idea che le leggi di natura, una volta che fossimo in grado di sondarle, stabiliscono cause ed effetti immutabili, e che Dio non giochi a dadi consentendo a qualsiasi evento di essere casuale o indeterminato. 12.2 Il significato filosofico del pensiero di Einstein Non è facile parlare del pensiero filosofico di Einstein, dal momento che ci troviamo di fronte a una specie di antinomia. Da un lato infatti tutti sono disposti a riconoscere che dopo Einstein la filosofia non è più quella che era prima di Einstein; /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 59:! eppure egli non è stato un filosofo nel senso tecnico del termine, né ha avuto un pensiero filosofico sistematico e univoco, tanto è vero che il pensiero filosofico di Einstein è stato interpretato in modi diversi, da alcuni come sostenitore di una filosofia empiristica, in quanto la teoria della relatività dimostra che le più profonde categorie del pensiero umano sono effettivamente legate all’esperienza, da altri, per come ha trattato i problemi dello spazio, del tempo e della materia, come sostenitore di una filosofia platonica. Einstein come Platone dunque? Non certo nel senso che egli sia un platonico, ossia che ammetta delle forme immutabili nel mondo materiale, forme che l'uomo dovrebbe contemplare intuitivamente; ma nel senso che egli rinnova il tipo di problemi trattati dialetticamente da Platone. Purtroppo vi è un diffuso equivoco che è quello di intendere il rapporto fra Platone ed Einstein nel significato proposto da Eddington, secondo cui Einstein sarebbe platonico perché le sue teorie mostrerebbero l'assoluta libertà della mente d'imporre i suoi schemi al mondo fisico. Tuttavia vi è grande differenza tra la posizione di Einstein e quella di Eddington nel modo d'intendere il convenzionalismo. Infatti Eddington crede che la necessità dell'esperimento venga a cadere e ritiene che la teoreticità delle strutture fisiche riposi su una pura scelta formale. Ma allora definire Einstein platonico nel significato di Eddington significa sbagliare due volte, sia perché si attribuisce ad Einstein una forma di convenzionalismo che in realtà egli non condivideva (ritenendo che una convenzione scientifica necessitasse sempre di conferma sperimentale), sia perché si fraintende anche quello che diceva Platone. Invece il parallelo si deve svolgere ad un altro livello: Platone nel Timeo ha affermato che per quanto la scienza possa portare avanti la spiegazione dei fatti come conseguenza di una legge razionale, permane sempre una necessità, un dato puro, di cui la scienza deve tener conto. “La mente persuade la necessità”, vuol dire proprio che attraverso l'analisi del dato è possibile razionalizzarlo, ma vuol dire anche che la spiegazione lascia sempre dietro di sé un residuo che non è ancora chiarito. Ebbene, Einstein ha riassunto nella nostra cultura tutti i temi di una grande tradizione matematica e li ha portati alle loro conseguenze filosofiche ed operative, senza ritenere però che la realtà si esaurisse in essi. Egli può dunque essere considerato il Platone moderno proprio perché ha tenuto sempre presente come il grande filosofo ateniese l'esistenza di una realtà da spiegare, non costruita dalla mente ma da essa conoscibile. In questo senso la sua opera ha un'importanza insostituibile ed inesauribile; essa è il più grande edificio creato dalla scienza moderna, ed anche il più vero. Comunque, al di là delle considerazioni che si possono fare sulla catalogazione del pensiero di Einstein, egli fu filosofo almeno per due ragioni: primo perché ha distrutto molte concezioni ritenute valide in sé (ad esempio quella tradizionale di simultaneità e di distanza, quella di spazio assoluto, quella di forze gravitazionali) con la semplice analisi logica di concetti in certi casi, con la capacità di ideare esperienze mentali o con l'uso di teorie matematiche nuove in altri, ma ha sempre ricostruito in forma nuova quello che ha distrutto; così i nuovi concetti di spazio-tempo, di campo, di inerzia e di materia sono entrati a far parte del patrimonio teorico dei fisici moderni. E le sue grandi idee direttrici, l'unità fra spazio e geometria, fra spazio e materia, la semplicità delle leggi invarianti, sono diventate patrimonio di tutta la cultura, anche di quella filosofica. Secondo, in quanto non ammise mai che la ricerca scientifica e la riflessione generale sulla natura potessero svilupparsi secondo direzioni o programmi divergenti, e sostenne, in varie occasioni, il valore oggettivo della conoscenza umana. 5:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Respinse, costantemente, l'opinione che gli epistemologi avessero il dovere di indicare alla scienza le strade da seguire o le norme cui ubbidire, così come criticò l'atteggiamento di quegli scienziati che si mostravano scettici o indifferenti di fronte ai quesiti generali che la ricerca scientifica suggeriva come produttrice di cultura. Ciò spiega come mai egli abbia insistito, per decenni, nella polemica contro le interpretazioni filosofiche dominanti della meccanica quantica, e come abbia colto molte occasioni per mettere in luce l'esigenza di un rapporto positivo tra ricerca scientifica e concezioni filosofiche. In età matura seppe descrivere questo atteggiamento affermando che i rapporti tra scienza e filosofia dovevano essere analizzati con cura e con interesse, poiché una teoria della conoscenza priva di correlazioni con l'impresa scientifica era semplicemente uno “schema vuoto”, mentre la scienza priva di considerazioni epistemologiche era “primitiva e informe”. Ma la necessità di rapporti fecondi non doveva in alcun modo trasformarsi nell'accettazione, da parte dello scienziato, di rigidi canoni metodologici: le condizioni della ricerca scientifica erano solamente dettate dall'esperienza e dall'elaborazione concettuale per via matematica. Pertanto, osservava Einstein, il vero scienziato appariva “all’epistemologo sistematico come una specie di opportunista senza scrupoli”, in quanto agiva scegliendo liberamente una posizione filosofica che poteva variare sull'intero spettro degli atteggiamenti possibili: realista, quando voleva descrivere il mondo indipendentemente dagli atti della percezione oppure idealista, quando sosteneva che le teorie non erano logicamente deducibili dai dati empirici, oppure positivista, quando collocava i criteri di giustificazione degli apparati teorici nella possibilità di dare una rappresentazione logica delle relazioni tra le esperienze sensoriali. Dopo questa ampia premessa, è lecito affermare che oggi non è più possibile fare una seria ontologia o una seria filosofia della natura se non si tiene presente la fisica teorica; il grande merito di Einstein è stato proprio quello di aver posto su basi nuove il rapporto fra fisica e filosofia. Einstein ha un atteggiamento realistico, come la maggior parte degli scienziati. Egli pensa che la scienza ci fa comprendere il mondo, la realtà. Ciò non significa che Einstein non si rendesse conto dell'esistenza di problemi filosofici molto grossi quando si parla di realtà. Egli ragionava da scienziato, convinto di avere di fronte a sé una realtà che deve essere elaborata attraverso i concetti scientifici. A questo proposito scrive una frase che ha un valore filosofico molto grande: “La cosa più incomprensibile dell'universo è la sua comprensibilità”. Egli tuttavia non si comporta da filosofo speculativo, il quale si preoccuperebbe di ragionare sulla comprensibilità dell'universo, sui perché di questa comprensibilità, sulle sue implicazioni, ma da filosofo scienziato, e dà inizio a una generazione di filosofi-scienziati, che, pur rendendosi conto che esiste il problema della comprensibilità dell’universo, si applica a esaminare i mezzi che abbiamo a nostra disposizione per conoscerlo, cercando di renderli sempre più efficaci. Questi strumenti sono sostanzialmente due. Uno è lo strumento dell'osservazione sensibile, e su questo possiamo dire che Einstein è certamente influenzato da Mach, per il quale i dati importanti erano quelli sensoriali; così per Einstein un concetto che non si possa a un certo punto riferire a dei dati, a delle impressioni sensoriali, deve essere respinto dalla scienza; in questo senso, Einstein è stato considerato uno dei padri del neopositivismo. Accanto a quelle che Galileo avrebbe chiamato “sensate esperienze”, Einstein introduce però dimostrazioni ed elaborazioni di carattere altamente matematico, ed in questo si distacca decisamente da Mach: è vero che l'oggetto della /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:;! scienza è la coordinazione delle esperienze umane e la loro riduzione ad un sistema logico coerente, ma i principi di questo sistema non possono essere ricavati totalmente dall’esperienza, dice Einstein; mentre per Mach quei principi sono sostanzialmente deducibili dall'esperienza. A questo proposito, Einstein dichiara di non credere nell'induzione matematica; di non credere cioè che i concetti matematici siano ricavabili dall'induzione empirica, ma che invece le formule ed i concetti matematici hanno nella fisica un valore a posteriori. In sostanza questi concetti sono libere invenzioni della mente umana, ed in questo senso Eddington ha potuto affermare che Einstein è un platonico. Però, bisogna dire che tali concetti non hanno valore conoscitivo se non possono essere messi al vaglio dell'esperienza proprio attraverso l’analisi operativa dei concetti fisici. Esistono molte dichiarazioni di Einstein stesso a questo proposito, tra cui: “Noi dobbiamo sempre essere pronti a modificare le nostre cognizioni fisiche per poter considerare i fatti in modo sempre più perfetto”. “Le teorie fisiche non sono che invenzioni dell'uomo, nel senso che non sono verità assolute a priori (qui è antikantiano) ma sono sempre modificabili”. (Non derivano dall'esperienza, ma sono modificabili per risultare in grado di aderire all'esperienza). Ci accorgiamo che Einstein tende, da un lato, a difendere il realismo dello scienziato, il quale è ben convinto che esiste una realtà da conoscere e che occorrono duri sforzi per conoscerla almeno in parte, mentre d'altro canto pensa che questa realtà non sia metafisicamente al di là della nostra conoscenza. Anche se la maggior parte delle opere di Einstein fu scritta prima che il neopositivismo si sviluppasse completamente, bisogna riconoscere che tutti i problemi della più moderna epistemologia posti in luce da tale indirizzo sono già presenti nelle opere einsteiniane. Tra questi troviamo, per esempio, il rapporto tra i principi e le conseguenze delle teorie fisiche, il rapporto tra teoria ed osservabili, la rilevanza della geometria per la fisica, ed altri. Certo manca il rigore dell'analisi di Carnap o di Reichenbach, che analizzeremo in seguito, e così pure i termini del linguaggio filosofico non sono precisi come quelli usati da questi filosofi della scienza, ma quello che interessa è che un fisico di enorme notorietà come Einstein, dovendo trattare della sua specialità in senso generale, si sia posto da solo nella direzione dell'epistemologia moderna. Si può aggiungere che Einstein riuscì ad evitare due grossi errori, il secondo dei quali sarà presente in parecchi neopositivisti. Infatti per un lato egli reagisce come i migliori neopositivisti con un profondo impegno metodologico all'ondata di irrazionalismo e di sfiducia nella scienza che le nuove teorie della fisica facevano sorgere presso i meno preparati; per l'altro lato si tiene lontano dal metodologismo fine a se stesso, pur nella consapevolezza critica che lo studio della fisica contribuisce a svuotare di senso molti falsi problemi. In definitiva Einstein non credeva all'intuizione priva di ogni controllo ma riteneva che il fine della fisica fosse la costruzione di un modo nuovo di vedere il mondo, ossia la ricerca di una moderna immagine del cosmo. Come egli stesso più volte ripete, uno dei compiti essenziali della filosofia è quello di riflettere sopra la storia della fisica e sulla sua funzione attuale. La filosofia ci può chiarire cos'è il metodo scientifico, senza sostituirsi ad esso, e ci permette di conservare la coscienza del collegamento esistente fra le teorie fisiche e il mondo quotidiano che ci circonda. Non solo: essa ci deve rendere consapevoli dello stato di strumento delle costruzioni scientifiche, che non sono delle verità immutabili ma possono essere sostituite e modificate nel corso del tempo. Certo, l'edificio della scienza fisica non può più essere ritenuto un'unità coerente nel senso ingenuo del meccanicismo; esso risulta però un'unità complessa e strutturata, 5:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! della quale è sempre possibile recuperare il senso profondo. La ricerca di questo senso, che è poi la ricerca di una visione del mondo radicata nella scienza, è presente in Einstein soprattutto nel momento della relatività generale e delle teorie del campo unificato. Stabilito così questo canone del realismo, che potremmo chiamare realismo critico di Einstein, non nel senso kantiano del termine, possiamo parlare di un altro carattere fondamentale della scienza, che per Einstein è la semplicità. Tutti gli studiosi del pensiero di Einstein sottolineano l'importanza da lui attribuita alla semplicità. C'è una citazione di Einstein in cui si dice: “Le nostre esperienze ci permettono finora di sentirci sicuri che nella natura si realizza l'ideale della semplicità matematica”. Einstein pensa alla semplicità come a un criterio che ci permette di cogliere l'oggetto, la natura stessa, perché la natura è semplice e questa semplicità della natura è anche una dimostrazione della sua razionalità, e la semplicità della natura deve riflettersi in una semplicità delle leggi scientifiche, a questo punto potremmo anche discutere se qui lavori più da scienziato o più da filosofo, e sarebbe proprio questa semplicità a portare Einstein a enunciare il principio della relatività ristretta e quello della relatività generale. A questo proposito è interessante un confronto tra la formula della gravitazione proposta da Newton e quella di Einstein. Newton scelse la sua legge tra tutte le altre leggi possibili per il successo delle previsioni che essa permetteva. Al contrario, la legge della gravitazione di Einstein fu trovata cercando per lo spaziotempo la legge più semplice. In altri termini, non è il successo che ci fa scegliere la legge di gravitazione di Einstein; ma Einstein arriva ad essa sulla base del criterio di semplicità, cioè proprio perché è convinto che la semplicità sia in grado di riflettere la razionalità della natura in modo diretto. Mirare al semplice, però, non vuol dire semplificare; infatti, semplificare vorrebbe dire trascurare certe differenze dichiarandole irrilevanti, e come è noto questo tipo di semplificazione, che era presente nel sapere comune e in tutta la fisica pregalileiana, non lo è nella scienza moderna. La fisica aristotelica in fondo era molto semplice: distingueva i corpi in due categorie, quelli pesanti che vanno verso il basso e quelli leggeri che vanno verso l'alto. La descrizione che Aristotele faceva dei fenomeni naturali era molto semplice, ma non si trattava di semplicità bensì di semplificazione, ciò che significa trascurare certe caratteristiche profonde esistenti in natura, e procedere come se esse non esistessero. In questo modo, si fanno discorsi che sarebbero condannati da Einstein, il quale ha cercato sempre la semplicità e non la semplificazione. Tutta l'opera di Einstein è permeata da questo acume critico, che di fatto gli viene riconosciuto da tutti, e pur coltivando opinioni di stampo razionalista e realista concernenti la conoscibilità del mondo e l'esistenza di quest'ultimo indipendentemente dalla coscienza, e pur facendo spesso leva su tali opinioni nelle discussioni sullo stato della teoria dei quanti, sia stato flessibile rispetto alle idee possibili in seno ad una filosofia personale, e abbia piuttosto nutrito un profondo rispetto per le tortuosità attraverso le quali la ragione deve passare per costruire un sapere oggettivo. Egli stesso, parlando della relatività nel 1917, scrisse: “Condurrò il lettore lungo la strada che io stesso ho percorso, una strada piuttosto aspra e tortuosa, perché altrimenti non posso sperare che egli prenda molto interesse al risultato della fine del viaggio”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:4! 12.3 Il significato filosofico della relatività L’influenza esercitata dal pensiero di Einstein non può essere completamente recepita se si tiene presente solo la trasformazione portata nella fisica dalle sue idee; per capirla a fondo bisogna infatti considerare anche il suo profondo significato filosofico. Il significato filosofico della teoria della relatività è stato oggetto di opinioni contrastanti, anche se, ed è indubitabile, i principi di tale teoria, per il loro carattere filosofico ontologico, vale a dire che sono relativi all’oggetto della conoscenza scientifica indipendentemente dai suoi rapporti con l’osservatore, hanno modificato profondamente la filosofia moderna alterando radicalmente la concezione filosofica dello spazio e del tempo e della loro relazione con la materia. Fra le tante interpretazioni, tutte interessanti e che hanno contribuito a rendere tale teoria una delle massime espressioni dell’intelletto umano, quella di Hans Reichenbach (1891-1953), filosofo della scienza tedesco, ci sembra la più feconda e che è alla base delle idee attuali. Infatti ricordiamo che già in un lucido saggio del 1921 sullo stato delle discussioni filosofiche sulla relatività metteva in luce come il principale compito epistemologico davanti all’opera di Einstein fosse quello di formulare le conseguenze filosofiche della teoria e ritenerle come parte permanente della conoscenza filosofica. L’analisi della rivoluzione einsteiniana permetteva a Reichenbach di concludere che il significato filosofico più profondo da essa dato è che non esistevano concetti a priori, per cui veniva superata la concezione kantiana che faceva dello spazio e del tempo delle forme a priori dell’intuizione. Ma adesso riportiamo le considerazioni di Reichenbach sulla portata filosofica della teoria della relatività di Einstein tratte dal libro Albert Einstein: Filosofo-scienziato (1949). Mentre molti scrittori hanno sottolineato le implicazioni filosofiche della teoria e hanno perfino tentato d’interpretarla come una specie di sistema filosofico, altri hanno negato l'esistenza di tali implicazioni e hanno sostenuto l'opinione secondo cui la teoria di Einstein è semplicemente una teoria fisica, e ritengono che le idee filosofiche si costruiscano con mezzi diversi dai metodi dello scienziato, e siano indipendenti dai risultati della fisica. Ora, è ben vero che la cosiddetta filosofia della relatività rappresenta in gran parte il risultato di travisamenti della teoria, piuttosto che del suo contenuto fisico. I filosofi che considerano saggezza estrema il ritenere ogni cosa relativa, sbagliano se credono che la teoria di Einstein costituisca una prova di una così eccessiva generalizzazione; e il loro errore è ancor più grave se trasferiscono questa relatività al campo dell'etica, pretendendo che la teoria di Einstein implichi un relativismo dei diritti e dei doveri dell'uomo. La teoria della relatività si limita al campo della conoscenza. Se le concezioni morali variano con le classi sociali e la struttura della civiltà, questo è un fatto che non si può dedurre dalla teoria di Einstein; il parallelismo fra la relatività dell'etica e quella dello spazio e del tempo è soltanto un'analogia superficiale, che confonde le differenze logiche essenziali fra il campo della volontà e quello della conoscenza. È ben comprensibile, allora, che chi era abituato alla precisione dei metodi fisico-matematici desiderasse separare la fisica da queste efflorescenze della speculazione filosofica. Eppure, sarebbe un altro errore credere che la teoria di Einstein non sia una teoria filosofica, soprattutto per le conseguenze radicali per la teoria della conoscenza: ci costringe a prendere in esame certe concezioni tradizionali che hanno avuto una parte importante nella storia della filosofia, e dà una soluzione a certe questioni, vecchie come 5:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! la storia della filosofia, che prima non ammettevano nessuna risposta. Il tentativo di Platone di risolvere i problemi della geometria con una teoria delle idee; il tentativo di Kant di spiegare la natura dello spazio e del tempo con una intuizione pura e con una filosofia trascendentale, sono altrettante soluzioni agli stessi interrogativi a cui la teoria di Einstein ha dato poi una risposta differente. Se sono filosofiche le dottrine di Platone e di Kant, anche la teoria della relatività di Einstein ha importanza filosofica, e non semplicemente fisica. I problemi di cui essa tratta non sono di carattere secondario, ma d'importanza primaria per la filosofia; e questo risulta evidentissimo dalla posizione centrale che questi problemi occupano nei sistemi di Platone e di Kant. Questi sistemi diventano insostenibili, se si mette la risposta di Einstein al posto di quelle date agli stessi problemi dai loro autori; le loro basi sono scosse, se i concetti di spazio e di tempo non possono più considerarsi rivelati da una visione del mondo delle idee, o generati dalla ragion pura, come l’apriorismo filosofico pretendeva di aver stabilito. L'analisi della conoscenza è sempre stata la questione fondamentale della filosofia; e se la conoscenza è soggetta a revisione in un campo così fondamentale come quello dello spazio e del tempo, le conseguenze di questa critica non possono non interessare tutta la filosofia. Sostenere l'importanza filosofica della teoria di Einstein non significa però fare di Einstein un filosofo; o, per lo meno, non significa che Einstein sia soprattutto un filosofo. Gli interessi principali di Einstein sono tutti nell’ambito della fisica. Ma egli capì che certi problemi fisici non potevano essere risolti se prima delle soluzioni non si fosse fatta un’analisi logica dei concetti fondamentali di spazio e di tempo, e capì anche che questa analisi, a sua volta, presupponeva una rielaborazione filosofica di certe concezioni tradizionali della conoscenza. Il fisico che voleva capire l'esperimento di Michelson doveva orientarsi verso una filosofia in cui il significato di un'affermazione fosse riducibile alla sua verificabilità, cioè doveva adottare la teoria della verificabilità del significato, se voleva sfuggire a un intrico di questioni ambigue e di complicazioni gratuite. È questo orientamento positivistico, o per meglio dire empiristico, che doveva determinare la posizione filosofica di Einstein. Ma a lui non era necessario svilupparla oltre certi limiti: gli era sufficiente ricollegarsi alla linea di pensiero caratterizzata, nella generazione di fisici che lo aveva preceduto, da nomi come Kirchhoff, Hertz, Mach; e portare alle estreme conseguenze un indirizzo filosofico individuato, ai suoi inizi, da principi come quello dell'induzione di Occam, o quello della identità degli indiscernibili di Leibniz. Einstein si è riferito a questa concezione del significato in molte sue osservazioni, sebbene non abbia mai sentito la necessità di addentrarsi in una discussione sui principi fondamentali di essa, o in un'analisi del suo significato filosofico. Nei suoi scritti non si può certo trovare l'esposizione e l'approfondimento di una teoria filosofica. Di fatto, la filosofia di Einstein non è tanto un sistema filosofico quanto un atteggiamento filosofico; tranne qualche osservazione fatta incidentalmente, egli ha lasciato che fossero altri a dire quale filosofia corrisponda alle sue equazioni, cosicché è rimasto, per così dire, un filosofo implicito. Questa è la sua forza e la sua debolezza a un tempo: la sua forza, perché ha reso tanto più concreta la sua fisica, la sua debolezza, perché ha lasciato la sua teoria esposta ai travisamenti e alle interpretazioni sbagliate. Il fatto che la fondazione di una nuova fisica preceda una nuova filosofia della fisica sembra costituire una legge generale. L'analisi filosofica diventa più facile quando si applica a scopi concreti, quando è condotta nell'ambito di una ricerca intesa a un'interpretazione dei dati dell’osservazione. I risultati filosofici di questo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:6! procedimento si raggiungono spesso in uno stadio successivo; essi sono il frutto della riflessione sui metodi impiegati nella soluzione dei problemi concreti. Ma quelli che costruiscono la nuova fisica di solito non hanno tempo, o non considerano loro compito, illustrare ed elaborare la filosofia implicita nelle loro costruzioni. Non sono soltanto i limiti delle capacità umane a richiedere una divisione del lavoro fra il fisico e il filosofo. La scoperta di relazioni generali che si prestino a una verifica empirica richiede una mentalità differente da quella del filosofo, i cui metodi hanno un carattere analitico e critico, più che ipotetico-deduttivo. Il fisico che persegue nuove scoperte non deve essere troppo critico; negli stadi iniziali deve basarsi su ipotesi di lavoro, e troverà la sua strada soltanto se sarà sorretto da determinate convinzioni che servano di guida alle sue ipotesi. Ma un credo non è una filosofia. Il filosofo della scienza non ha molto interesse per i procedimenti del pensiero che portano alle scoperte scientifiche; egli persegue una analisi logica della teoria già completa, ivi comprese le relazioni che stabiliscono la sua validità. Cioè, non si interessa al contesto della scoperta, ma al contesto della sua giustificazione. Il filosofo non ha nulla da obiettare alle convinzioni di un fisico, quando non si presentano sotto forma di filosofia. Egli sa che una convinzione personale si giustifica come strumento di ricerca di una teoria fisica; e, anzi, non è altro che una forma primitiva di ipotesi, destinata eventualmente a essere sostituita dalla teoria già elaborata, e soggetta in ultima istanza alle stesse verifiche empiriche a cui è soggetta la teoria. La filosofia della fisica, d'altra parte, non nasce da un credo, ma dall'analisi. Per essa, le convinzioni del fisico appartengono alla psicologia della scoperta; essa tenta di chiarire il significato delle teorie fisiche indipendentemente dal modo in cui esse sono interpretate dai loro autori, e s'interessa delle sole relazioni logiche. Da questo punto di vista, è sorprendente vedere fino a che punto l'analisi logica della relatività coincida con l'interpretazione originaria del suo autore, quale si può ricostruire dalle scarse osservazioni contenute nelle pubblicazioni di Einstein. Contrariamente a ciò che avvenne per certi sviluppi della meccanica quantistica, lo schema logico della teoria della relatività conserva una straordinaria corrispondenza al programma che ne regolò la scoperta. Questa chiarezza filosofica distingue Einstein da molti fisici, l'opera dei quali diede vita a una filosofia diversa dall'interpretazione data dall'autore. Dopo questa ampia premessa possiamo passare ad analizzare i risultati filosofici della teoria di Einstein, che include implicitamente più filosofia di quanta ne sia contenuta in molti sistemi filosofici. La base logica della teoria della relatività è la scoperta che molte affermazioni, la cui verità o falsità si riteneva dimostrabile, non sono che semplici definizioni convenzionali. Questa formulazione sembra enunciare una scoperta tecnica poco importante, e non mette in evidenza le conseguenze implicite, di enorme importanza, che costituiscono il significato filosofico della teoria. Nondimeno essa è una formulazione completa della parte logica della teoria. Consideriamo, ad esempio, il problema della geometria. Che l'unità di misura sia una questione convenzionale, è cosa nota, ma il fatto che anche il confronto delle distanze sia una questione convenzionale è noto soltanto all'esperto della relatività. Lo stesso discorso si può fare per il tempo: il fatto che la simultaneità degli eventi che si producono in luoghi distanti fosse una questione convenzionale non era noto, prima che Einstein fondasse la sua teoria della relatività ristretta su questa scoperta logica. 5:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Nelle esposizioni della teoria della relatività, l'uso di definizioni convenzionali diverse viene spesso esemplificato col riferirlo a osservatori diversi. Questo modo di presentare le cose ha dato origine alla concezione erronea che la relatività delle misurazioni spazio-temporali sia legata alla soggettività dell'osservatore, che l'individualità del mondo della percezione sensoriale sia l'origine della relatività sostenuta da Einstein. Tale interpretazione protagorea della relatività di Einstein è completamente sbagliata. Il carattere convenzionale del concetto di simultaneità, per esempio, non ha nulla a che vedere con le variazioni prospettiche relative a diversi osservatori collocati in diversi sistemi di riferimento. Coordinare diverse definizioni di simultaneità a osservatori diversi serve semplicemente a semplificare l'esposizione delle relazioni logiche. Parlare di diversi osservatori è solo un espediente per esprimere la pluralità dei sistemi convenzionali. In un'esposizione logica della teoria della relatività l'osservatore potrebbe essere completamente eliminato. Le definizioni sono arbitrarie; e in conseguenza del carattere convenzionale dei concetti fondamentali si ha che, al cambiare delle loro definizioni, nascono vari sistemi di descrizione. Ma questi sistemi sono equivalenti l'uno all'altro, ed è possibile passare da ciascun sistema a un altro con un'opportuna trasformazione. In tal modo il carattere convenzionale dei concetti fondamentali conduce a una pluralità di descrizioni equivalenti. Tutte queste descrizioni rappresentano linguaggi diversi che esprimono la stessa cosa: possiamo dire, quindi, che descrizioni equivalenti esprimono lo stesso contenuto fisico. La teoria delle descrizioni equivalenti si può anche applicare ad altri campi della fisica; ma il caso dello spazio e del tempo è diventato il modello di questa teoria. La parola "relatività" dovrebbe essere interpretata nel senso di "relativo a un certo sistema di definizioni convenzionali". Che la relatività implichi la pluralità, deriva dal fatto che la variazione delle definizioni porta alla pluralità delle descrizioni equivalenti. Ma noi vediamo che questa pluralità implicita non è una pluralità di punti di vista differenti, o di sistemi di contenuto contraddittorio; è soltanto una pluralità di linguaggi equivalenti, e pertanto di forme di espressione che non si contraddicono le une con le altre, ma hanno lo stesso contenuto. La relatività non significa un abbandono della verità; significa soltanto che la verità può essere formulata in modi diversi. Le due proposizioni “la stanza è lunga 4 metri" e "la stanza è lunga 400 centimetri" sono descrizioni equivalenti; esse affermano la stessa cosa. Il fatto che la semplice verità così enunciata possa essere formulata in questi due modi non elimina il concetto di verità, ma dimostra semplicemente che il numero che caratterizza una lunghezza è relativo all'unità di misura. Tutte le relatività della teoria di Einstein sono di questo tipo. Per esempio, la trasformazione di Lorentz ricollega descrizioni diverse di relazioni spaziotemporali fra di loro equivalenti nello stesso senso in cui lo sono una lunghezza di 4 metri e una lunghezza di 400 centimetri. Una certa confusione è nata dalle considerazioni che si riferiscono alla proprietà di semplicità. Un sistema descrittivo può essere più semplice di un altro ; ma ciò non lo rende "più vero" dell'altro. Soltanto nell'ambito di considerazioni induttive la semplicità può essere un criterio di verità; per esempio, la curva più semplice fra i dati dell'osservazione rappresentati in un diagramma si considera "più vera", cioè più probabile, di altre curve che colleghino gli stessi dati. Questa semplicità induttiva, però, si riferisce a descrizioni non equivalenti, e non riguarda la teoria della relatività in cui si confrontano soltanto descrizioni equivalenti. La semplicità delle descrizioni usate nella /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:8! teoria di Einstein è quindi sempre una semplicità descrittiva. Per esempio, il fatto che la geometria non euclidea spesso fornisca una descrizione dello spazio fisico più semplice di quella della geometria euclidea non rende "più vera" la descrizione non euclidea. Di un'altra confusione è responsabile la teoria del convenzionalismo, che risale a Poincarè. Secondo questa teoria, la geometria ha un carattere convenzionale, e non si può attribuire alcun significato empirico a una proposizione sulla geometria dello spazio fisico. Ora è vero che lo spazio fisico può essere descritto sia da una geometria euclidea che da una geometria non euclidea; ma dire che una proposizione sulla struttura geometrica dello spazio fisico sia priva di senso sarebbe interpretare male questa relatività della geometria. La scelta di una geometria è arbitraria soltanto finché non si fissa una definizione di congruenza. Quando questa definizione è data, stabilire quale geometria valga per uno spazio fisico diventa una questione empirica. Invece di parlare di convenzionalismo, quindi, noi parleremo della relatività della geometria. La geometria è relativa esattamente nello stesso senso degli altri concetti relativi. L'essenza della teoria della relatività sta nel fatto che anche i concetti fondamentali di spazio e tempo sono considerati dello stesso tipo. La relatività della geometria deriva dalla possibilità di rappresentare l'una sull'altra geometrie diverse, con una corrispondenza biunivoca . Per alcuni sistemi geometrici, però, la rappresentazione non sarà continua dappertutto, e in certi punti o linee si manifesteranno delle singolarità. Per esempio, una sfera non può essere proiettata su un piano senza una singolarità in almeno un punto; nelle solite proiezioni, il polo nord della sfera corrisponde all'infinito del piano. Questa particolarità comporta certe limitazioni per la relatività della geometria. Supponiamo che in una descrizione geometrica, fondata ad esempio su uno spazio sferico, si abbia una causalità normale per tutti gli avvenimenti fisici; allora una trasformazione in certe altre geometrie, inclusa la geometria euclidea, porterà a violazioni del principio di causalità, ad anomalie causali. Un segnale luminoso che andasse da un punto A ad un punto B attraverso il polo nord, in un tempo finito, sarebbe rappresentato, in un'interpretazione euclidea di questo spazio, come se si movesse da A in una certa direzione verso l'infinito e ritornasse dalla parte opposta verso B, passando così attraverso una distanza infinita in un tempo finito. Anomalie causali ancora più complicate risultano da altre trasformazioni. Se il principio della causalità normale, cioè una diffusione continua dalla causa all'effetto in un tempo finito, o azione per contatto, è posto come condizione preliminare necessaria per la descrizione della natura, certi mondi non possono essere interpretati con certe geometrie. Può darsi benissimo che la geometria così esclusa debba essere la geometria euclidea; se l'ipotesi di Einstein di un universo chiuso è corretta, una descrizione euclidea dell'universo dovrebbe essere esclusa per tutti coloro che ammettono una causalità normale. È questo fatto che rappresenta la confutazione più forte della concezione kantiana dello spazio. La relatività della geometria è stata usata dai neokantiani come una porta di servizio per introdurre l'apriorismo della geometria euclidea nella teoria di Einstein: se è sempre possibile scegliere una geometria euclidea per la descrizione dell'universo, i kantiani affermano che si dovrebbe sempre usare questa descrizione, perchè la geometria euclidea, per un kantiano, è la sola che possa essere rappresentata visivamente. Abbiamo visto che questa regola può condurre a violazioni del principio di causalità; e poiché la causalità, per un kantiano, è anch'essa un principio a priori come la geometria euclidea, la sua regola può costringere il kantiano ad una 5:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! contraddizione profonda. Non c'è difesa per il kantiano, se le proposizioni della geometria del mondo fisico sono formulate in un modo completo, comprensivo di tutte le loro implicazioni fisiche; poiché in questo modo le proposizioni sono verificabili empiricamente e derivano la loro verità dalla natura del mondo fisico. Sebbene noi ora possediamo, con la teoria di Einstein, una formulazione completa della relatività dello spazio e del tempo, non dobbiamo dimenticare che questo è il risultato di un lungo sviluppo storico. In particolare Leibniz, applicando il suo principio dell'identità degli indiscernibili al problema del moto, arrivò alla relatività del moto su basi logiche e andò tanto oltre da riconoscere la relazione fra ordine causale e ordine temporale. Questa concezione della relatività fu in seguito sviluppata da Mach, il cui contributo alla discussione consiste essenzialmente nell'importantissima idea che una relatività del moto rotatorio implichi una estensione del relativismo al concetto di forma inerziale. Einstein ha sempre riconosciuto in Mach un precursore della sua teoria. Un'altra linea di sviluppo, che ha trovato anch'essa il suo completamento nella teoria di Einstein, è data dalla storia della geometria. La scoperta di geometrie non euclidee da parte di Gauss, Bolyai e Lobacevskij, fu associata all'idea che la geometria fisica potesse essere non euclidea. Ma l'uomo a cui dobbiamo la chiarificazione filosofica del problema della geometria è Helmholtz. Egli vide che la geometria fisica dipendeva dalla definizione di congruenza per mezzo dei corpi solidi, e arrivò così a una chiara definizione della natura della geometria fisica, superiore per profondità logica al convenzionalismo di Poincarè. Non è colpa di Helmholtz se non riuscì a dissuadere i filosofi contemporanei da un apriorismo kantiano sullo spazio e sul tempo. Le sue vedute filosofiche erano conosciute solo in un piccolo gruppo di esperti. Quando, con la teoria di Einstein, l'interesse pubblico si rivolse a questi problemi, i filosofi incominciarono ad abbandonare l'apriorismo kantiano. Sebbene esista un'evoluzione storica dei concetti di spazio e di moto, questa linea di sviluppo non trova il suo analogo per il concetto di tempo. Il primo a parlare di una relatività della misura del tempo, cioè di quello che si chiama lo scorrere uniforme del tempo, fu Mach. Tuttavia, l'idea einsteiniana di una relatività della simultaneità non ha precursori. Forse questa scoperta non avrebbe potuto esser fatta prima del perfezionamento dei metodi sperimentali della fisica. La relatività della simultaneità di Einstein è strettamente associata all'ipotesi che la luce sia il segnale più rapido; idea che non poteva essere concepita prima del risultato negativo di esperienze come quella di Michelson. Fu la combinazione della relatività del tempo e del moto che rese così efficace la teoria di Einstein e portò a risultati ben superiori a quelli ottenuti dalle teorie precedenti. La scoperta della teoria della relatività particolare, a cui nessuno dei precursori di Einstein aveva mai pensato, divenne così la chiave di una teoria generale dello spazio e del tempo, che comprese tutte le idee di Leibniz, Gauss, Riemann, Helmholtz e Mach, e aggiunse ad esse alcune scoperte fondamentali che non potevano essere anticipate in uno stadio anteriore. In particolare mi riferisco alla concezione di Einstein secondo cui la geometria dello spazio fisico è una funzione della distribuzione delle masse, idea completamente nuova nella storia della geometria. Tutte le considerazioni precedenti mostrano che l'evoluzione delle idee filosofiche sono guidate dall'evoluzione delle teorie fisiche. La filosofia dello spazio e del tempo non è opera del filosofo che sta nella sua torre d'avorio. È stata costruita da uomini che tentarono di combinare i dati delle osservazioni con l'analisi matematica . La grande sintesi delle varie linee di sviluppo, che dobbiamo ad Einstein, è una testimonianza del fatto che la /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5::! filosofia della scienza ha assunto una funzione che i sistemi filosofici non potevano assolvere. La questione di ciò che siano lo spazio e il tempo ha sempre affascinato gli autori dei sistemi filosofici. Platone la risolse inventando un mondo di realtà "più elevate", il mondo delle idee, che comprende lo spazio e il tempo fra i suoi oggetti ideali e rivela le loro relazioni al matematico capace di compiere lo sforzo necessario a vederle. Per Spinoza lo spazio era un attributo di Dio. Kant, a sua volta, negò la realtà dello spazio e del tempo e considerò queste due categorie concettuali come forme di rappresentazione visiva, cioè come costruzioni della mente umana per mezzo delle quali l'osservatore umano combina le sue percezioni in modo da collegarle in un sistema ordinato. La soluzione che noi possiamo dare al problema sulla base della teoria di Einstein è assai differente dalle soluzioni di questi filosofi. La teoria della relatività mostra che lo spazio e il tempo non sono né oggetti ideali, né forme ordinatrici necessarie alla mente umana. Esse costituiscono un sistema di relazioni che esprime certe caratteristiche generali degli oggetti fisici, e pertanto sono capaci di descrivere il mondo fisico. Cerchiamo di render chiaro questo fatto. È ben vero che, come tutti i concetti, lo spazio e il tempo sono invenzioni della mente umana. Ma non tutte le invenzioni della mente umana sono adatte a descrivere il mondo fisico. Con quest'ultima frase intendiamo dire che i concetti si riferiscono a certi oggetti e li differenziano dagli altri. Per esempio, il concetto di "centauro " è vuoto, mentre il concetto di "orso" si riferisce a certi oggetti fisici e li distingue dagli altri. Il concetto di "cosa", d'altra parte, sebbene non sia vuoto, è tanto generale che non stabilisce differenze tra gli oggetti. I nostri esempi riguardano predicati semplici, ma la stessa distinzione si applica a predicati più complessi. La relazione "telepatia" è vuota, mentre la relazione "padre" non lo è. Se noi diciamo che predicati semplici e non vuoti, come "orso", descrivono oggetti reali dobbiamo anche dire che predicati non vuoti e più complessi, come “padre”, descrivono relazioni reali. È in questo senso che la teoria della relatività sostiene la realtà dello spazio e del tempo. Questi sistemi concettuali descrivono relazioni che valgono fra oggetti fisici, cioè corpi solidi, raggi luminosi e orologi. Inoltre queste relazioni formulano leggi fisiche di grande generalità, determinando alcune caratteristiche fondamentali del mondo fisico. Lo spazio e il tempo hanno tanta realtà quanta ne hanno, ad esempio, la relazione "padre" e le forze newtoniane di attrazione. La considerazione seguente può costituire un'ulteriore spiegazione del perché la geometria descriva la realtà fisica. Finché si conosceva una sola geometria, la geometria euclidea, il fatto che questa geometria potesse essere usata per una descrizione del mondo fisico rappresentava un problema per il filosofo; e la filosofia di Kant deve essere intesa come un tentativo di spiegare perché un sistema strutturale derivato dalla mente umana potesse dar conto delle relazioni osservate. Con la scoperta di una pluralità di geometrie, la situazione cambiò completamente. La mente umana si dimostrò capace di inventare ogni tipo di sistema geometrico, e la questione di quale fosse il sistema adatto a descrivere la realtà fisica si trasformò in una questione empirica, cioè la sua soluzione fu lasciata in definitiva ai dati dell'esperienza. Ma, se le proposizioni sulla geometria del mondo fisico sono empiriche, la geometria descrive una proprietà del mondo fisico nello stesso senso in cui, ad esempio, la temperatura o il peso descrivono certe proprietà degli oggetti fisici. Quando parliamo della realtà dello spazio fisico, intendiamo appunto questo. 6<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! L'importanza che hanno i raggi luminosi nella teoria della relatività deriva dal fatto che la luce è il segnale più rapido, cioè rappresenta la forma più rapida di catena causale. Si può dimostrare che il concetto di catena causale è il concetto fondamentale su cui si erige la struttura dello spazio e del tempo. L'ordine spazio-temporale deve essere quindi considerato come l'espressione dell'ordine causale del mondo fisico. La stretta connessione fra spazio e tempo da una parte, e causalità dall'altra, è forse la caratteristica più pronunciata della teoria di Einstein, sebbene questa caratteristica non sia sempre stata riconosciuta nel suo profondo significato. L'ordine temporale, l'ordine del prima e del dopo, è riducibile all'ordine causale; la causa è sempre anteriore all'effetto, e questa relazione non può essere invertita. Che la teoria di Einstein ammetta un'inversione dell'ordine temporale per certi eventi, risultato ben noto per la relatività della simultaneità, è semplicemente una conseguenza di questo fatto fondamentale. Poiché la velocità della trasmissione causale è limitata, esistono eventi di natura tale che nessuno di essi può essere causa o effetto dell'altro. Per eventi di questa natura un ordine temporale non è definito, e ciascuno di essi può essere considerato anteriore o posteriore all'altro. In definitiva, anche l'ordine spaziale è riducibile a ordine causale; un punto spaziale B è considerato più vicino ad A di un punto spaziale C, se un segnale luminoso diretto, cioè una catena causale rapidissima, passa da A a C attraverso B. La connessione fra ordine temporale e causale porta alla questione della direzione del tempo. La relazione fra causa ed effetto è una relazione asimmetrica; se P è la causa di Q, allora Q non è la causa di P. Questo fatto fondamentale è essenziale per l'ordine temporale, perché riduce il tempo a una relazione seriale. Per relazione seriale intendiamo una relazione che ordina i suoi elementi in una disposizione lineare; tale relazione è sempre asimmetrica e transitiva. Il tempo della teoria di Einstein ha queste proprietà; ed è necessario che le abbia, perché altrimenti non si potrebbe usare per la costruzione di un ordine seriale. Tuttavia ciò che chiamiamo direzione del tempo deve essere distinta dal carattere asimmetrico dei concetti "prima" e "dopo". Una relazione può essere asimmetrica e transitiva senza distinguere una direzione da quella opposta. Per esempio, i punti di una linea retta sono ordinati mediante una relazione seriale che possiamo esprimere con le parole "prima" e "dopo". Se A è prima di B, allora B non è prima di A, e se A è prima di B e B è prima di C, allora A è prima di C. Ma quale direzione della linea dobbiamo chiamare "prima" e quale "dopo", non è indicato dalla natura della linea; questa definizione si può dare soltanto compiendo una scelta arbitraria, per esempio indicando una direzione e chiamandola direzione del "prima". In altre parole le relazioni "prima" e "dopo" sono strutturalmente indistinguibili, e quindi intercambiabili; dire che il punto A viene prima del punto B, o dire che viene dopo, dipende da una definizione arbitraria. Il problema della relazione temporale è di vedere se sia unidirezionale. La relazione "prima di" che usiamo nella vita comune è strutturalmente diversa dalla relazione "dopo di". Il fisico formula questa direzione come irreversibilità del tempo: il tempo scorre in una sola direzione, e il flusso del tempo non può essere invertito. Vediamo quindi che, nel linguaggio della teoria delle relazioni, la questione della irreversibilità del tempo è espressa non dalla questione se il tempo sia una relazione asimmetrica, ma dalla questione se sia una relazione unidirezionale. Per la teoria della relatività, il tempo è certamente una relazione asimmetrica, perché altrimenti la relazione temporale non stabilirebbe un ordine seriale; ma non è unidirezionale. In altri /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6<;! termini l'irreversibilità del tempo non trova un'espressione nella teoria della relatività. Non dobbiamo però concludere che questa sia l'ultima parola che il fisico può dire sul tempo. Possiamo dire soltanto che, per quanto riguarda la teoria della relatività, non dobbiamo dare una distinzione qualitativa fra le due direzioni del tempo, fra il "prima" e il "dopo". Una teoria fisica può ben fare astrazione da certe proprietà del mondo fisico; ma ciò non significa che queste proprietà non esistano. L'irreversibilità del tempo, finora, è stata trattata soltanto in termodinamica, dove è concepita come qualcosa di carattere essenzialmente statistico, non applicabile ai processi elementari. Questa concezione non è soddisfacente, soprattutto se si considera che ha portato a certi paradossi. Ma la fisica quantistica, finora, non offre soluzioni migliori. Qualche spiraglio sulla direzionalità del tempo, se non addirittura su una sua possibile assenza, può venire da una teoria che unifichi relatività e meccanica quantistica (teoria delle stringhe o gravità quantistica a loop: capitolo 18). È sorprendente constatare che la trattazione fisico-matematica del concetto di tempo, formulata nella teoria di Einstein, ha condotto a una chiarificazione che l'analisi filosofica non avrebbe potuto ottenere. Per il filosofo, certi concetti come ordine temporale e simultaneità erano nozioni primitive, inaccessibili a un'analisi più dettagliata. Ma la pretesa che un dato concetto non ammetta di essere analizzato spesso nasce semplicemente dall'incapacità di comprenderne il significato. Con la riduzione del concetto di tempo a quello di causalità e la generalizzazione dell'ordine temporale a una relatività della simultaneità, Einstein non ha soltanto cambiato le nostre concezioni del tempo, egli ha anche chiarito il significato del concetto classico di tempo che aveva preceduto le sue scoperte. In altri termini, noi ora conosciamo il significato del tempo assoluto meglio di qualsiasi fautore della concezione classica del tempo. La simultaneità assoluta varrebbe in un mondo in cui non esistesse un limite massimo alla velocità dei segnali, cioè a una trasmissione causale. Un mondo di questo tipo è immaginabile tanto quanto il mondo di Einstein. Dire a quale tipo appartenga il nostro mondo è una questione empirica: l'esperienza ha deciso a favore della concezione di Einstein. Come nel caso della geometria, la mente umana è capace di costruire varie forme di schemi temporali; la questione dello schema più adatto al mondo fisico, cioè più vero, può essere risolta soltanto riferendosi ai dati dell'osservazione. Il contributo della mente umana al problema del tempo non può essere un ordine temporale ben definito, ma una pluralità di possibili ordini temporali, e la scelta di un ordine temporale che possa considerarsi reale è lasciata all'osservazione empirica. Il tempo è l'ordine delle catene causali; questo è il risultato più alto delle scoperte di Einstein. Il solo filosofo che anticipò questo risultato fu Leibniz; anche se, naturalmente, ai suoi tempi sarebbe stato impossibile concepire una relatività della simultaneità. E Leibniz era tanto un matematico quanto un filosofo. La soluzione del problema del tempo e dello spazio pare sia riservata ai filosofi che, come Leibniz, sono matematici, o ai matematici che come Einstein, sono filosofi. Dal tempo di Kant, la storia della filosofia presenta una frattura sempre più grande fra i sistemi filosofici e la filosofia della scienza. Il sistema di Kant fu costruito con l'intenzione di provare che la conoscenza è il risultato di due componenti, quella dell'intelletto e quella dell'osservazione; e si considerò che la componente intellettuale fosse data dalle leggi della ragion pura, concependola come un elemento sintetico differente dalle operazioni puramente analitiche della logica. Il concetto di sintetico a priori definisce la posizione kantiana; una parte della conoscenza è sintetica a priori, 6<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! cioè vi sono proposizioni non vuote, assolutamente necessarie. Fra questi principi della conoscenza Kant include le leggi della geometria euclidea, del tempo assoluto, della causalità e della conservazione della massa. I suoi seguaci, nel diciannovesimo secolo, ripresero questa concezione, apportandole molte varianti. Lo sviluppo della scienza, d'altra parte, ci ha allontanati dalla metafisica kantiana. La verità dei principi che Kant considera sintetici a priori fu riconosciuta discutibile, altri principi, in contraddizione con essi, furono sviluppati e usati per la costruzione della conoscenza. Questi nuovi principi non furono proposti come verità assoluta, ma come tentativi di trovare una descrizione nella natura che si adattasse ai dati materiali dell'osservazione. Fra la pluralità dei sistemi possibili, quello che corrispondesse alla realtà fisica poteva essere individuato soltanto dall'osservazione e dall'esperienza. In altri termini i principi sintetici della conoscenza, che Kant aveva considerato a priori, furono riconosciuti come principi a posteriori, verificabili soltanto con l'esperienza e validi nel senso ristretto di ipotesi empiriche. È in questo processo di dissoluzione del sintetico a priori che noi dobbiamo porre la teoria della relatività, se vogliamo giudicarla dal punto di vista della storia della filosofia. Una linea di sviluppo che incominciò con l'invenzione delle geometrie non euclidee, 20 anni dopo la morte di Kant, si svolge ininterrottamente fino alla teoria di Einstein dello spazio e del tempo. Le leggi della geometria, considerate per 2000 anni come leggi della ragione, furono riconosciute come leggi empiriche, che si adattano al mondo circostante all'uomo con una precisione estremamente elevata, ma che debbono essere abbandonate per le dimensioni astronomiche. L'apparente autoevidenza di queste leggi, che le faceva apparire come presupposti inoppugnabili di ogni conoscenza, risultò essere un frutto dell'abitudine; attraverso la loro adattabilità a tutte le esperienze della vita quotidiana, queste leggi avevano acquistato un grado di sicurezza erroneamente interpretato come certezza assoluta. Helmholtz fu il primo a sostenere l'idea che, se esseri umani vivessero in un mondo non euclideo, essi sarebbero capaci di sviluppare una forma di rappresentazione visiva mediante la quale sarebbero portati a considerare necessarie e di per sé evidenti le leggi della geometria non euclidea, nello stesso modo in cui le leggi della geometria euclidea appaiono evidenti a noi. Trasferendo quest'immagine alla concezione einsteiniana del tempo, potremmo dire che, se vi fossero esseri umani a cui le esperienze quotidiane rendessero apprezzabili gli effetti della velocità finita della luce, essi si abituerebbero alla relatività della simultaneità e considererebbero le regole della trasformazione di Lorentz necessarie e di per sé evidenti, proprio come noi consideriamo di per sé evidenti le regole classiche del moto e della simultaneità. Ciò che i filosofi avevano considerato come leggi della ragione si sono dimostrate essere un adattamento alle leggi fisiche dell'ambiente circostante; e vi è ragione di credere che, in un ambiente diverso, un adattamento corrispondente avrebbe portato l'uomo ad avere un'altra formazione mentale. Il processo di dissoluzione del sintetico a priori è una delle caratteristiche più importanti della filosofia del nostro tempo. Noi non commetteremo l'errore di considerare come un fallimento delle capacità umane il fatto che certi concetti, ritenuti assolutamente veri, si siano dimostrati di validità limitata e, in certi campi della conoscenza, debbano essere abbandonati. Al contrario, il fatto che noi siamo in grado di superare queste concezioni e di sostituirle con altre migliori rivela capacità inaspettate della mente umana, e una versatilità enormemente superiore al dogmatismo d'una /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6<4! ragion pura che detta le sue leggi allo scienziato. Kant si illuse di possedere una prova dell'asserzione che i principi sintetici a priori fossero verità necessarie; per lui questi principi erano condizioni necessarie della conoscenza. Egli trascurò il fatto che una tale prova può dimostrare la verità dei principi solo se si ammette che il sistema costruito da questi stessi principi consenta sempre di arrivare alla conoscenza. Lo sviluppo della teoria di Einstein dimostra appunto che la conoscenza, entro lo schema dei principi kantiani, non è possibile. Per un kantiano, tale risultato può significare soltanto un fallimento della scienza. Ma per fortuna Einstein non era un kantiano e, invece di abbandonare i suoi tentativi di costruire la conoscenza, cercò il modo di cambiare i cosiddetti principi a priori. Con la sua capacità di usare relazioni spazio-temporali essenzialmente diverse dallo schema tradizionale della conoscenza, Einstein ha aperto la strada a una filosofia superiore alla filosofia del sintetico a priori. La relatività di Einstein appartiene quindi alla filosofia dell'empirismo. E l'empirismo di Einstein non è quello di Bacone, il quale credeva che tutte le leggi della natura si potessero trovare con semplici generalizzazioni induttive. L'empirismo di Einstein è quello del fisico teorico moderno, l'empirismo della costruzione matematica, concepita in modo da connettere i risultati dell'osservazione per mezzo di operazioni deduttive, e da permetterci di prevedere nuovi risultati dell'osservazione. La fisica matematica resta sempre empiristica, finché fonda sulla percezione dei sensi il criterio ultimo di verità. L'enorme sviluppo del metodo deduttivo, in tale fisica, si può spiegare benissimo in funzione delle operazioni analitiche. Oltre alle operazioni deduttive, la fisica delle ipotesi matematiche comporta, naturalmente, un elemento induttivo; ma anche il principio dell'induzione, l'ostacolo di gran lunga più difficile a un empirismo radicale, si può oggi giustificare senza bisogno di credere in un sintetico a priori. Il metodo della scienza moderna si può completamente spiegare nei termini di un empirismo che riconosce soltanto la percezione dei sensi e i principi analitici della logica come sorgenti di conoscenza. Nonostante il suo enorme edificio matematico, la teoria di Einstein dello spazio e del tempo è un trionfo di tale empirismo radicale, in un campo che è sempre stato considerato riservato alle scoperte della ragion pura. Il processo di dissoluzione del sintetico a priori continua. All'abbandono dello spazio e del tempo assoluto la fisica quantistica ha aggiunto quello della causalità; inoltre, essa ha abbandonato il concetto classico di sostanza materiale e ha mostrato che i costituenti della materia, le particelle atomiche, non possiedono la natura non ambigua dei corpi solidi del mondo macroscopico. Se intendiamo per metafisica la fede in principi che non siano analitici, ma che ciononostante derivino la loro validità dalla sola ragione, la scienza moderna è antimetafisica. Essa ha rifiutato di riconoscere l'autorità del filosofo che pretende di conoscere la verità attraverso l'intuizione, col penetrare, cioè, in un mondo delle idee, o nella natura della ragione, o nei principi dell'essere, o in qualsiasi altro modo che trascenda l'empirico. Anche per i filosofi, la via della verità non può essere diversa. Il cammino dei filosofi è indicato da quello degli scienziati: tutto ciò che il filosofo può fare è analizzare i risultati della scienza, trovarne il significato e definirne i limiti di validità. La teoria della conoscenza è un'analisi della scienza. Si è detto prima che Einstein è un filosofo implicito. Questo significa che il compito del filosofo è di esplicitare le implicazioni filosofiche della teoria di Einstein. Non dobbiamo dimenticare che le implicazioni deducibili dalla teoria della relatività sono di enorme portata, e dobbiamo renderci conto che solo una fisica eminentemente filosofica può prestarsi a tali deduzioni. Non capita molto spesso che ci si trovi di fronte 6<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! a sistemi fisici di tale importanza filosofica; in questo senso, l'unico predecessore di Einstein fu Newton. È un privilegio del XX secolo annoverare un fisico la cui opera assurge alla stessa grandezza di quella dell'uomo che ha determinato la filosofia dello spazio e del tempo per due secoli. Se i fisici presentano filosofie implicite di tale eccellenza, è un piacere essere filosofi. La fama imperitura della filosofia della fisica moderna andrà giustamente all'uomo che costruì la fisica, più che a coloro i quali si sforzarono di trarne le conseguenze e di collocarle nella storia della filosofia. Molti hanno contribuito alla filosofia della teoria di Einstein, ma vi è un solo Einstein. 12.4 Discussioni filosofiche scientifiche sulla teoria della relatività Come mai una teoria scientifica che pure ha ottenuto numerose conferme sperimentali e fa ormai parte integrante del corpo della scienza fisica ha potuto essere interpretata così variamente? La risposta sta nel fatto che essa toccava i problemi dello spazio e del tempo sui quali, nella filosofia occidentale, il dibattito era stato estremamente vario e vivo. Anzi, lo spazio ed il tempo erano temi tradizionalmente riservati ai filosofi o addirittura ai metafisici. Orbene, il fatto che Einstein partendo da riflessioni fisiche sullo spazio e sul tempo arrivasse a parlare dell'oggetto materiale nelle sue varie manifestazioni di massa, energia, velocità, potè far credere alla tradizione ontologistica della filosofia che fosse prossima la possibilità di un discorso completo sul mondo fisico, fuori dal quadro del meccanicismo tradizionale. A partire dal 1910 fino ad oggi, non c’è stato un grande pensatore o filosofo che non abbia cercato di capire quali siano state le direttrici del pensiero di Einstein e la loro rilevanza per la filosofia, ciascuno servendosi delle categorie proprie della loro filosofia. Poichè queste interpretazioni sono molto numerose e complesse, cercheremo di dare un'idea del loro significato raggruppandole, in maniera schematica, in tre momenti principali: il primo, che va dal 1920 al 1930 circa, è quello in cui compaiono le critiche fondamentali neokantiane, machiane ed empiriocriticiste, oltre a quelle di Whitehead, Schlick e Bergson. II secondo momento, che si può far giungere fino al 1950, è quello in cui si sviluppano le critiche dei quantisti, dell'operazionismo di Bridgman e delle tendenze neopositiviste. Il terzo momento riguarda gli orientamenti attuali della discussione sulla teoria della relatività. Non verranno prese in considerazione le critiche dei marxisti russi in quanto non hanno relazione di sorta e controparte con gli studi di critica scientifica e filosofica nell'Europa occidentale e perché l'interesse che muove i filosofi sovietici nei confronti delle teorie di Einstein è essenzialmente ideologico. Le critiche del primo gruppo sono tutte dei tentativi di porre in relazione il pensiero di Einstein con i problemi e le prospettive di una particolare filosofia, e cercano di sottolineare come la teoria della relatività abbia confermato il kantismo. A differenza di queste dopo il 1930, quando cioè si sviluppano le critiche del materialismo dialettico e dei fondatori della meccanica quantistica, vediamo che non si tratta più di imporre certe categorie filosofiche per spiegare il significato della relatività, ma piuttosto si tratta di mostrarne i limiti e i difetti da certi punti di vista, in particolare da quello del valore conoscitivo delle teorie. Sono cioè critiche a prevalente carattere metodologico. In fondo, mentre nel periodo 1920-30 si tenta di spiegare filosoficamente la teoria della relatività, dopo il 1930 le critiche sono volte alla valutazione della portata conoscitiva di questa teoria. Infine gli studi apparsi intorno al 1960 svolgono quasi tutti un solo tema, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6<6! che d'altronde è il più importante nel pensiero di Einstein, ossia quello dei rapporti fra geometria e fisica. Percorrendo le critiche alla teoria della relatività, troveremo come fatti rilevanti l'opposizione permanente fra interpretazione operativa ed ontologica della teoria, il ricorrente tentativo di far passare lo spazio-tempo o come una mera costruzione del soggetto conoscente o come una sostanza entro la quale si svolgono gli eventi. Davanti alla teoria della relatività risultarono insufficienti i vari convenzionalismi usciti dalla crisi del positivismo, i quali non potevano ammettere che la teoria di Einstein avesse una portata reale di trasformazione dei concetti. Le due tesi estreme del totale ontologismo e del totale convenzionalismo escono battute net corso del dibattito, forse perchè non possiedono gli strumenti sufficienti a capire l'origine storica delle idee di Einstein e la loro possibilità di realizzazione. Infatti nel pensiero di Einstein è presente tutta una tradizione, sorta nella Germania del XIX secolo, di geometrizzazione dellafisica, e che risale a Riemann ed a Helmholtz. Questa tradizione non si pone il problema della differenza fra ontologismo e convenzionalismo, poiché ritiene di identificare la massima obiettività possibile della fisica con la più chiara ed euristicamente perfetta forma geometrica. Ecco perché le spiegazioni estreme spesso sono fallite nel giudicare la teoria della relatività, non contemplavano la possibilità di una tradizione di questo tipo. Avranno allora ragione le critiche spiritualistiche? Certamente no dal punto di vista metodologico, perchè insistono troppo sulla libera creatività della mente umana. Le critiche più penetranti sono invece quelle che distinguono tra teoria della relatività generale e speciale salvando la seconda e non impegnandosi sul valore conoscitivo della prima. Infatti tali critiche sono quelle che meglio servono agli scienziati impegnati nella ricerca. Ugualmente interessanti sono le critiche che prendono le mosse dal rapporto tra fisica e geometria non già per affermate che il legame posto da Einstein fra le due discipline sia quello più giusto, ma per far capire che l'importante della teoria della relatività è la direzione di ricerca, il tipo di indagine indicata, ossia la tradizione scientifica in essa presente. Adesso andiamo ad esaminare nello specifico le varie interpretazioni ed orientamenti intorno alla teoria della relatività secondo lo schema prima indicato. Cominciamo con le interpretazioni convezionalistiche, machiane, kantiane, spiritualistiche e neopositivistiche nel periodo 1918-30. I filosofi seguaci di Hans Vaihinger (1852-1933), filosofo tedesco, vengono di solito chiamati filosofi del « come se ». Secondo questa filosofia, che si presenta come un movimento convenzionalista fondato su una particolare lettura di Kant, le teorie scientifiche non hanno valore ontologico, ossia non riflettono in alcun modo delle strutture reali. Esse sono delle costruzioni deduttive ma ipotetiche, il cui valore è quello di un perfezionamento concettuale e astratto di realtà fittizie già presenti nella psiche. L'iniziatore del movimento, Vaihinger, non si interessò direttamente della teoria della relatività, ma alcuni suoi allievi, come Oskar Kraus (1872-1942) e Friedrich Lipsius (1873-1934), si incaricarono di svolgere le critiche del come se alle teorie einsteiniane. Questi filosofi tendono a distinguere fra le ipotesi scientifiche ed i concetti fittizi, altrimenti detti “fantasie”. Il termine va preso in senso vaihingeriano come un equivalente di strutture mentali non corrispondenti alla realtà, ma valide solo entro un sistema finzionale. L'utilità della “fantasia” è di stimolare una razionalizzazione della realtà, altrimenti troppo complessa e multiforme. Ipotesi e fantasia sono diverse tra loro perché ogni ipotesi cerca di essere un'espressione adeguata di qualche realtà non ancora 6<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! conosciuta, mentre la fantasia viene portata avanti con la coscienza che essa è una maniera soggettiva e pittorica la cui coincidenza con la realtà è, dall'inizio, esclusa e che non può essere successivamente verificata come noi pensiamo poter fare con l’ipotesi. In base a questi presupposti, i filosofi del «come se» tracciano una distinzione tra ipotesi einsteiniane e fantasie, tendendo a identificare queste ultime con gli esperimenti ideali di cui Einstein fa uso nella teoria della relatività speciale e generale. Si può obiettare ai critici del “come se” che, o essi dimostrano che le asserzioni di Einstein sono empiricamente false, o rinunciano a criticarle considerandole soltanto ipotesi o meglio fantasie. Infatti nella teoria della relatività non si fa uso di fantasie fine a se stesse, bensì di ipotesi che acquistano valore di verità dopo una lunga catena di deduzioni che le collegano alle osservabili. Oltre a queste distinzioni generali sulla teoria della relatività, in particolare Kraus afferma che Einstein non può criticare ii concetto di simultaneità analizzando gli effetti di un dato fenomeno fisico in più sistemi di riferimento in moto relativo uniforme, perchè il concetto di simultaneità è un a priori dell'esperienza. Si nota qui lo scopo della critica dei filosofi del «come se», che è quello di ridurre la teoria della relatività non già ad una disamina dei concetti di spazio, tempo, materia ecc., ma dei metodi di misurazione dello spazio, tempo, materia ecc. Se questo fosse vero, avrebbero buon gioco quei filosofi nel dire che qualunque costruzione della fisica è in fondo un insieme di ipotesi e di fantasie senza valore conoscitivo. Se si deve muovere una obiezione a questi interpreti della relatività è proprio quella di non aver indagato più a fondo sul valore strumentale delle fantasie. Se avessero fatto ciò, avrebbero probabilmente raggiunto la conclusione che alcune fantasie possono servire a superare un presupposto concetto a priori. Si può poi discutere l'affermazione di Kraus secondo cui la teoria della relatività parlerebbe non del concetto di simultaneità ma delle misure di esso. Dicendo che la teoria della relatività dà soltanto conferme empiriche e non concettuali dei propri presupposti Kraus deve parlare di questi mezzi empirici di misura e non può quindi dimostrare che non esistono conferme dirette della teoria della relatività; può al massimo criticare questo uso degli strumenti di misura. Inoltre Kraus si trova qui in una posizione prekantiana, pur volendo usare nella sua critica alcuni concetti kantiani; Kant infatti aveva già richiesto che i principi a priori dovessero essere dimostrati come condizioni necessarie all'esperienza. Kraus prende invece una evidenza logica tradizionale, qual è quella di simultaneità valida ovunque, e vuole farne un a priori di valore universale inattingibile all’esperienza, il che rappresenta una arbitraria presupposizione. Un secondo gruppo di critiche è quello influenzato da Mach il quale, tra l’altro, benchè Einstein stesso si fosse richiamato a lui nella spiegazione dei fondamenti teorici della relatività, si era dichiarato contrario alla teoria della relatività. Tra i seguaci di Mach, Joseph Petzold (1862-1929), ha considerato la teoria della relatività come una teoria fenomenistica del moto, ossia una teoria che si sforza di essere più vicina ai dati immediatamente sensoriali quanto non lo sia la dinamica newtoniana. Petzold afferma che il più grande contributo filosofico dato da Einstein è stato quello di fondare la meccanica non su assiomi ma su coincidenze di eventi; cioè su qualche realtà direttamente accessibile all'esperienza. Einstein, considerando come osservabili solo le coincidenze tra eventi fisici e relazioni metriche come invarianti matematiche astratte, avrebbe contribuito, da un punto di vista machiano, ad eliminare molta metafisica contenuta negli schemi della meccanica classica. Einstein ha avuto il merito di rivedere i fondamenti della meccanica e di superarne le forme tradizionali costruendo una fisica /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6<8! capace di trascurare la nozione animistica di forza e fornendo gli strumenti adatti ad una eliminazione dell'elemento antropomorfico della fisica in favore di una posizione più apertamente convenzionalistica. Notiamo i meriti della critica di Petzold: egli anticipa Whitehead nel sottolineare l'importanza del concetto di “evento” come costituente fondamentale della nuova fisica di Einstein. Applica poi alla teoria della relatività delle convenienti indagini epistemologiche sottolineando la raffinatezza della teoria ed il suo distacco da ogni forma di presupposizione aprioristica. Per far questo egli è spinto a sottolineare il carattere convenzionale della teoria e non riesce a mettere abbastanza a fuoco la sua portata ontologica. Si entra in una prospettiva diversa quando si parla della interpretazione kantiana di Einstein, perchè questa interpretazione tocca la teoria della relatività proprio in uno dei suoi punti principali ossia quello del rapporto fra spazio e tempo, che è anche uno dei problemi centrali del criticismo. È bene tenere distinte, quando si parla di interpretazione kantiana delta teoria della relatività, due posizioni diverse tra loro per impostazione: quella di Cassirer, secondo cui la teoria einsteiniana completa e perfeziona il pensiero di Kant, e quella degli altri kantiani (Ilse, Schneider, Edwald Sellien e Leonore Ripke-Kuhn) per i quali nella teoria della relatività non si tratta di concetti ma solo di misure (osserviamo la somiglianza di questa posizione con quella dei filosofi del «come se» che tendevano a svalutare la portata conoscitiva della relatività). Prima di esaminare le due posizioni, vediamo quali sono i problemi principali avanzati dalla teoria della relatività alla filosofia di Kant. In primo luogo vi e quello che vogliamo chiamare il problema dell'a priori: la relatività è resa possibile da un insieme di giudizi sul comportamento dei corpi materiali e degli strumenti di misura. Se questi giudizi non sono empirici ma a priori, allora la teoria della relatività può venir considerata una categoria perenne della conoscenza. Per dimostrare che le cose stanno cosi i filosofi kantiani devono far vedere in qualche modo che i giudizi fisici su cui si fonda la teoria della relatività non sono in contraddizione con le tradizionali idee di materia e di corporeità. II secondo problema e quello delle forme trascendentali della conoscenza: lo spazio e il tempo. Gran parte della discussione sulla relatività nasce appunto come proseguimento del dibattito fra gli interpreti di Kant sulla importanza delle geometrie non euclidee. Mentre alcuni critici ritenevano che le geometrie non euclidee non toccassero con la loro esistenza il nucleo dell'argomentazione kantiana sullo spazio e sul tempo, che secondo loro manteneva intatto il suo valore in quanto quelle geometrie erano pure variazioni dei concetti fondamentali già scoperti da Kant, un altro gruppo di critici riteneva che la concezione kantiana dello spazio e del tempo non fosse conciliabile con forme geometriche non omologhe a quelle che Kant aveva conosciuto. La discussione sulla teoria della relatività è complicata, rispetto a quella sulle geometrie non euclidee, perchè queste ultime sembravano riguardare soltanto i giudizi formali della matematica, mentre la teoria della relatività conduce a risultati profondamente diversi da quelli della fisica tradizionale nella determinazione di alcuni concetti fondamentali, quali quelli di massa, energia e quantità di moto. La teoria di Einstein colpisce con il fondamento stesso dell’a priori, cioè i giudizi spaziali e temporali, anche l’idea di oggetto fisico tradizionale che, secondo Kant, si fondava su quelle forme trascendentali. Davanti a questi problemi se si vuol dire che Einstein ha perfezionato le forme pure della percezione dandoci una conoscenza più approfondita di queste, pur facendo in qualche modo violenza a Kant, si considera la teoria della relatività come non contraddittoria con l’estetica trascendentale. In tal caso si tratterà di 6<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dimostrare che Kant ha in qualche modo precorso le idee einsteniane. Oppure si può dire che gli esperimenti della teoria della relatività sono convenzioni riguardanti gli strumenti che non toccano i concetti. Ernst Cassirer (1874-1945), che nel suo capolavoro Sostanza e Funzione (1910) intende mostrare come la filosofia kantiana s'inserisca intrinsecamente nello sviluppo della scienza moderna a partire da Galileo fino ad Einstein, assume la prima posizione ponendosi il problema di sapere in quale misura la filosofia kantiana, che sorge come sistemazione della scienza del Settecento, è coinvolta dai cambiamenti avvenuti nella fisica classica. Ciò che vi è di veramente nuovo nella teoria della relatività è, per Cassirer, il concetto di campo che, superando i vecchi schemi meccanicistici permette di comprendere i legami fra fenomeni ottici ed elettromagnetici. Cassirer si chiede quale ruolo abbiano avuto nella crisi dei concetti di spazio e di tempo newtoniani l'elemento empirico e quello concettuale. La constatazione che il principio di relatività delle misure di spazio e tempo e quello di costanza della velocità della luce sono incompatibili con i postulati della meccanica classica, non è stata sufficiente a fondare la nuova fisica. Occorreva che i due principi fossero assunti come postulati e posti alla base di un sistema capace di sostituire quello antico. Risultato di questa assunzione fu la scoperta di tutto un insieme di nuove invarianti. Ed il fatto che tale risultato sia stato reso possibile non da un accumularsi di esperienze ma da una trasformazione di assiomi, fa dire a Cassirer che nella teoria della relatività non è stato affatto abbandonato il concetto generale di oggettività, ma quel concetto di tipo meccanicistico, per il quale l'identità dei valori spaziali e temporali era il vero fondamento della realtà dell'oggetto, che separava e distingueva questo dalle semplici sensazioni. La teoria della relatività diventa per Cassirer la scoperta delle vere, nuove invarianti che contraddistinguono l'oggetto come costruzione concettuale. Non il riferimento all’esperienza determina allora il valore della teoria, ma la forma ideale che essa assume. Cassirer, contrariamente ad ogni tendenza convenzionalistica sottolinea che l’importanza della teoria della relatività è quella di liberare le leggi fisiche generali da ogni connessione con il sistema di coordinate e di farne delle relazioni simboliche che risolvono matematicamente i rapporti fra oggetti fisici (notiamo il risorgere di questo ideale già presente in Helmholtz). Per Cassirer la relatività einsteiniana è una prova della validità delle teorie kantiane perchè l’oggettività delle leggi fisiche viene collegata in questa teoria non alle esperienze empiriche ma al loro comportamento invariante rispetto a tutti i sistemi di riferimento. La teoria della relatività mostra così, per il critico neokantiano, che i concetti fisici più avanzati non possono ridursi a copie di contenuti percettivi. In definitiva Cassirer vede la teoria della relatività come completamento del pensiero kantiano sia perché l’uso del concetto di spazio non euclideo ha il significato di ricerca di un ordine di successione e di coesistenza come legalità dei fenomeni fisici (significato che è kantiano perché considera spazio e tempo come leggi strutturali della conoscenza) sia perché questa teoria rende valida quella kantiana dell’oggetto fisico come qualcosa che non è dato direttamente, ma costituito dalle leggi fisiche. Gli altri kantiani invece di insistere sul nuovo significato di oggettività della teoria della relatività, cercano di far vedere che l’uso dei concetti di spazio e tempo è in essa eminentemente soggettivistico (quando non riescono a dimostrare ciò riducono la teoria ad un procedimento convenzionalistico). Inoltre i kantiani di stretta osservanza tentano di difendere la concezione della fisica di Kant senza riuscire a dissociarla dalla fisica ottocentesca a base newtoniana, alla quale la fisica kantiana è strettamente /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6<:! collegata. Certamente la difesa delle posizioni kantiane davanti al terremoto della relatività è possibile solo cercando di mostrare come Einstein realizzi di fatto certi ideali kantiani e non già cercando una corrispondenza alla lettera nella filosofia kantiana. Si corre altrimenti grave rischio di dover ridurre la relatività ad una convenzione senza rilevanza reale, pur di difendere una filosofia del mondo naturale che è legata, come è ben noto, ad una certa fisica settecentesca. La posizione di Cassirer, che non vuole imporre Kant ma solo salvarne lo spirito, da un'idea della relatività che, per quanto discutibile, aiuta a comprenderla come punto di arrivo della filosofia della natura tedesca del XIX secolo, che ha sempre avuto l'opera di Kant come punto di riferimento ideale. Un'uguale carica interpretativa manca negli altri kantiani, ma è presente piuttosto nel pensiero di Hermann Weyl (1885-1955), grande matematico che diede una fondazione geometrica alla teoria della relatività generale. Secondo Weyl la teoria della relatività è un tentativo di connettere la geometria, modello di scienza pura, con il concetto di materia, intesa però come sostanza e non come realtà puramente meccanica. Il concetto di campo è la categoria nuova che coinvolge concetti fisici, matematici e filosofici. Ciò che è essenziale per Weyl nella relatività è la capacità di superare il realismo ingenuo che era ancora presente nella fisica classica. Se si parte da questo realismo ingenuo, si arriva, è vero, alla fondazione meccanicistica della fisica. Solo con criticismo kantiano, che pone lo spazio come forma della percezione, si arriva più vicini all'ideale della fisica, che è la geometrizzazione dei rapporti fra corpi. Il mondo fisico per Weyl, che si richiama direttamente a Husserl, è un oggetto intenzionale che può venir dispiegato in un insieme di atti logici di coscienza, cioè in un insieme di enunciati geometrici. Egli però aggiunge: “Io non voglio con ciò suggerire in alcun modo che la concezione, secondo cui gli eventi del mondo sono un puro gioco della coscienza prodotto dall'Io, contenga un grado di realtà più alto del realismo ingenuo; soltanto si deve capire chiaramente che i dati della coscienza sono il punto di partenza nel quale dobbiamo metterci se vogliamo capire il significato della realtà”. In altre parole la fisica dovrebbe servire a cogliere ii significato della inesauribile varietà del mondo materiale. È importante ricordare che Weyl sviluppa sulla base di questa fenomenologia la sua impostazione della teoria della relatività, discutendo dapprima il formarsi dello spazio euclideo a partire dalle nostre sensazioni, poi l'amalgamarsi dello spazio e del tempo nell'esperienza della fisica ed infine la teoria della relatività generale che corona con una nuova teoria della gravitazione la categorializzazione dell'esperienza. Che dire di questi tentativi di arrivare alla teoria della relatività come momento fenomenologico di un vasto movimento della razionalizzazione dell'esperienza? Sottolineiamo i pregi, che sono quelli di far capire che la relatività ha una notevolissima portata ontologica, ma notiamo anche, come poi sarà fatto per l’interpretazione di Whitehead, che si corre ii grosso rischio di impegnare il significato della teoria in una dimensione metafisica alla quale forse Einstein non voleva arrivare. Ricordiamoci però che il contrasto fra interpretazione operativa o convenzionalistica della relatività e interpretazione sostanzialistica è il punto più importante della discussione svoltasi fra il 1920 ed il 1930. A favore della prima interpretazione sono i filosofi del «come se», i machiani, i kantiani di stretta osservanza; a favore della seconda, Cassirer, la fenomenologia weyliana e, come vedremo, anche Whitehead. 6;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Alfred North Whitehead (1861-1947) ha affrontato la teoria della relatività in due modi: ha cercato di dare di questa, teoria un'interpretazione filosofica nuova che mette in luce tutti quegli elementi del pensiero di Einstein che più si avvicinano ad un relazionismo sostanzialistico, e ha dato una fondazione personale al problema del rapporto fra fisica e geometria. L’interpretazione di Whitehead, tra le varie presentate, è quella che ha meglio sviluppato la potenzialità filosofica della relatività, spiegandola come teoria dell’insieme di eventi spazio-temporali. Per la fisica classica un ente materiale occupa un volume definito di spazio ed è quindi possibile parlare di un volume di spazio uguale per tutti gli osservatori. Invece quando si accetti che la simultaneità fra le parti di un corpo spazialmente separate è relativa, cade l’idea di un soggetto materiale definito. L’idea che due corpi siano separati spazialmente solo quando fra di essi non intercorrono relazioni causali è di Whitehead, che l’ha applicata alla teoria della relatività. Certo che il concetto di corpo non è nella sua filosofia quello comune, e neppure quello usato dalla fisica, anche postrelativistica. Il corpo viene da Whitehead definito come un insieme di «eventi» che non sono ne fisici ne psichici. Per Whitehead è evento la cosa percepita ed il percipiente, e evento la loro relazione, e così via. Raggruppamenti di eventi di un certo tipo costituiscono i corpi della fisica tradizionale e la percezione di eventi è un evento a sua volta. Dove in filosofia di Whitehead è nettamente influenzata dalle idee di Einstein è nell'affermazione che tutti gli eventi sono in qualche modo riuniti nello spazio-tempo che è il mezzo nel quale gli eventi si connettono, si sviluppano e vengono conosciuti. Solo dentro l'intelaiatura dello spazio-tempo è possibile concretare gli oggetti, obiettivando determinati rapporti fra eventi ed esprimendoli per mezzo di invarianti matematiche. Notiamo che queste invarianti matematiche con le quali nella teoria della relatività si esprimono le forze che intercorrono fra oggetti fisici, sono da Whitehead considerate come relazioni di tipo logico-matematico valide assolutamente. Per quel che riguarda le idee di Whitehead sulla fondazione del rapporto fra fisica e geometria, ricordiamo che il problema in questione è della massima importanza perché riguarda il valore di tutta l’epistemologia einsteiniana. La posizione di Whitehead sul problema non è conforme a quella che è davvero servita ad Einstein per fondare la teoria della relatività. Il difetto dell’idea del filosofo inglese è quello di confondere, nella fondazione della simultaneità, l’evento in senso fisico e in senso percettivo (pare che Einstein stesso abbia sottolineato che, in base alla teoria di Whitehead, sarebbe impossibile per due osservatori percepire lo stesso evento, e ciò proprio per le modalità della percezione nella filosofia whiteheadiana). Egli dice infatti, contrariamente al parere di Einstein, secondo il quale la geometria adatta a spiegare il mondo fisico deve essere spazialmente e temporalmente variabile, che per le descrizioni della fisica la geometria che serve è di tipo non variabile. Secondo la concezione einsteiniana la metrica adatta a descrivere un certo tipo di spazio è determinata dalla quantità di materia presente in quello spazio. Whitehead invece pensa di poter descrivere la costituzione dello spazio a partire da semplici elementi percettivi, e perciò deve rifiutare l'idea di variabilità della metrica. La filosofia di Whitehead interpreta lo spazio-tempo ipostatizzandolo e considerando questo schema astratto come una realtà concreta raggiungibile a partire da eventi sensoriali. In definitiva ci troviamo davanti ad un tentativo di estremo interesse che sottolinea più gli aspetti ontologici che quelli operativi del pensiero di Einstein. Una particolare interpretazione data della relatività fu quella che si può denominare spiritualistica. Lo spiritualismo è basato sulla convinzione che la scienza /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;;! moderna non riesce a cogliere l'aspetto più tipico della realtà umana: lo spirito. Più che elaborare contenuti nuovi, lo spiritualismo ripropone, in polemica col positivismo, il filone della tradizione filosofica che dal neoplatonismo e Agostino giunge a Pascal e a Leibniz. Lo spirito sfugge al determinismo e al meccanicismo della realtà naturale, ossia è libero, contingente, orientato a un fine, e totalità che non risulta dalla giustapposizione o somma delle parti, ma è originaria e precede il costituirsi delle parti. Noi creiamo tutti gli istanti della nostra vita con un solo e medesimo atto, presente e superiore a tutti i nostri atti particolari. La scienza coglie invece solo un aspetto della realtà, quello più esterno. Nel caso particolare della relatività, la concezione spiritualistica è caratterizzata dallo sforzo di ricercare nella teoria della relatività significati profondi sulla fine della concezione materialistica. I lineamenti fondamentali delle critiche spiritualistiche sono: l’affermazione che con la relatività generale il concetto di materia viene messo in secondo piano rispetto a quelli di regolarità delle leggi fisiche e teoreticità delle strutture del mondo (in altre parole in materia viene considerata un effetto secondario di queste strutture nascoste); l’affermazione che la relatività pur svelando le caratteristiche più reali del mondo fisico, è in fondo solo uno dei possibili modi di risolvere i fenomeni del mondo materiale in relazioni matematiche. Quindi gli spiritualisti, tra cui Eddington, sottolineano il carattere di libera creazione della teoria della relatività soprattutto nella sua seconda fase. Arthur Eddington (1882-1944) afferma che lo studio del mondo esterno è più una ricerca di strutture che un problema di sperimentazione. Una struttura può essere rappresentata come un insieme di relazioni matematiche che riducano i fenomeni fisici a puri rapporti numerici. La teoria della relatività per Eddington dovrebbe dunque servire ad individuare alcune delle costanti fondamentali del mondo fisico. Egli dà particolare importanza alla fondazione geometrica della relatività, e la considera basata sulla misura degli intervalli spaziali e temporali che separano due eventi. In particolare egli mostra come una notevolissima caratteristica della teoria della relatività sia quella di eliminare, attraverso la scelta di un opportuno sistema di coordinate, le forze dal quadro della fisica. Aggiunge che la scelta del calcolo tensoriale, che presenta le equazioni fisiche in forma indipendente dalla scelta del sistema di coordinate, è il solo mezzo possibile per esprimere i fenomeni in forma oggettiva. L'uso di questo strumento di calcolo è, per Eddington, già di per sè un superamento del meccanicismo del XIX secolo che si fondava sul calcolo differenziale. Esso ci dà una soddisfazione spirituale maggiore del calcolo differenziale perché non è un semplice modus operandi ma spiega le leggi della fisica come come combinazioni di leggi ancor più profonde, cioè quelle dello spazio-tempo. Eddington sviluppa poi una sua dimostrazione della relatività come teoria di un continuo a quattro dimensioni, inserendo delle costanti numeriche, il cui valore ritiene di aver stabilito una volta per sempre. Come Whitehead anch'egli parla di un legame tra geometria e fisica che la teoria della relatività metterebbe in luce. Si può concludere dicendo che per Eddington la relatività, riconducendo tutta la scienza della natura a scienza delle relazioni, mostrerebbe che nel mondo fisico l'importante è la struttura e non la sostanza materiale. Per lui lo spirito umano, ricercando le permanenze delle strutture, crea l'universo della fisica e riunisce le leggi della meccanica in un unico schema logico che è segno della sua libera creatività, capace di riflettere in qualche modo l’armonia più nascosta dell'universo. I gravi equivoci della posizione spiritualistica sono proprio nel suo tentativo di interpretare la teoria della relatività come una libera creazione dello spirito, che organizza in formule la realtà fisica una 6;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! volta per tutte, senza tener mai conto di esperimenti o di imperfezioni della conoscenza. Lo spiritualista definisce la relatività come convenzione, perchè ciò gli è comodo per mostrare che essa è una libera creazione; insieme però la definisce come struttura reale data una volta per tutte e vera a priori. In questa duplicità di prospettiva consiste indubbiamente il più grosso difetto della critica spiritualistica. Lo stesso difetto si può rilevare nella critica che Henry Bergson (1859-1941) ha dedicato alla relatività, nel senso di aver dato maggior importanza al tempo personale e coscienziale rispetto a quello misurabile ed osservabile. Secondo Bergson una critica all'idea di simultaneità non può venir fatta che quando lo scienziato si ponga idealmente in ciascuno dei due sistemi di riferimento in moto uniforme l'uno rispetto all'altro. In questo sdoppiamento ideale Bergson vede la prova dell'astrattezza dei concetti einsteiniani. Da un lato la sua critica riprende dunque alcune osservazioni dei filosofi del «come se», dall'altro si serve di queste obiezioni per sottolineare la differenza fra tempo vissuto e tempo astratto della fisica. Notiamo però che, mentre la fisica di ispirazione relativistica tende a ridurre ii tempo allo spazio, almeno matematicamente, Bergson presume sempre una primarietà della durata che darebbe origine allo spazio in un suo momento di stanchezza. Bergson, a causa della sua idea di tempo, insistendo su una temporalità anti-misura, non riesce ad afferrare il problema più profondo della teoria della relatività, quello cioè della fondazione geometrica della fisica. Poichè non vede questo, il filosofo svolge considerazioni inessenziali sul rapporto tempo-coscienza e finisce, a nostro modo di vedere, per fraintendere la relatività, interpretandola come una teoria del fluire temporale. Gaston Bachelard (1884-1962) ha trattato la dialettica filosofica delle nozioni della relatività prendendo posizione su quanto della relatività aveva scritto Meyerson. Per Meyerson era essenziale stabilire il carattere spaziale delle spiegazioni della fisica einsteiniana e porsi al centro della formulazione geometrica del sistema per dedurre in seguito gli elementi e il carattere del reale. Bachelard giudica questa posizione di Meyerson troppo preoccupata dell'applicazione e della verifica della relatività. A suo parere invece è più importante insistere “sulle vie e i mezzi che portano al sistema, sulle condizioni in cui il pensiero alternativamente cerca di unificarsi e di completarsi”. Alla deduzione di Meyerson egli oppone la sua induzione e cerca di far vedere che la dialettica filosofica delle nozioni relativistiche ha portato ad uno choc epistemologico della meccanica classica risvegliandola dal suo sonno dogmatico. La funzione del razionalismo einsteiniano, che fa crollare le nozioni fondamentali di spazio, tempo, materia classici è quella di liberarci da un certo fantasticare falsamente profondo sullo spazio e sul tempo e in particolare arrestare l’irrazionalismo che è legato all’idea di una durata insondabile. È evidente che le tesi di Bachelard sulla relatività tengono presente la storia interna della scienza fisica e ne sottolineano il procedere dialettico. È da notare però che il razionalismo bachelardiano tende a trascurare tutto il momento operazionistico della relatività, le sue applicazioni e cioè la prassi che può derivare da una tale teoria. Tra tutte le critiche del periodo 1920-30 la più ricca e profonda è quella di Moritz Schlick (1882-1936), che si può collocare tra quella kantiana e quella neopositivistica. Infatti Schlick da un lato è contro l’idea che la teoria della relatività sia un proseguimento del pensiero kantiano, in quanto i concetti di spazio e tempo hanno a /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;4! suo parere una base empirica sempre mutevole, dall’altro riconosce che la relatività in qualche modo contribuisce a dar ragione alla teoria kantiana che vuole spazio e tempo come concetti a priori, perché distingue, più profondamente della fisica classica, tra tempo e spazio percettivi e concettuali. Svolgendo la sua analisi dello spazio (analoga a quella del tempo) Schlick afferma che questo termine nel linguaggio matematico e fisico ha un significato non intuitivo. Nella relatività spazio e tempo sono considerati solo come fenomeni oggettivi. Tuttavia la riflessione filosofica non può sottrarsi allo studio dei rapporti che passano fra termini teorici e dati della sensibilità. Vediamo che questo è un tipico problema neopositivistico, che in Schlick viene affrontato con analisi assai interessanti sull'origine dei concetti di spazio e di tempo. È fuori dubbio che le nostre esperienze spaziali hanno un'origine sensoriale che le rende indefinibili e non quantificabili a livello di esperienza vissuta. Queste datità sensibili sono del tutto diverse le une dalle altre poichè nulla connette tra loro esperienze tattili, visive, psicocinetiche ecc. Come è possibile allora giungere allo spazio usato dalla fisica che è unico, immutabile e indipendente da ogni condizione empirica? Schlick risponde che lo spazio della fisica è una costruzione concettuale, che sostituisce in ogni occorrenza linguistica le esperienze sensoriali. Secondo lui la relatività precisa e perfeziona l’idea kantiana di soggettività dello spazio e del tempo, perché aiuta a capire che lo spazio della fisica è una datità concettuale soggettiva con valore d’uso oggettivo che non si confonde con lo spazio sensorialmente sperimentabile del quale, in un certo senso, non si può parlare. Il legame tra lo spazio (o il tempo) vissuto e quello concettuale viene dato, per Schlick, dalla prassi quotidiana attraverso concetti intermedi, quali corpo, luogo, movimento. Alla base di questi concetti, inventati per sopperire alle esigenze della vita pratica, c’è l’idea di trasformazione, cioè di possibilità di mutamento, di localizzazione, e di funzione di un corpo. È chiaro che servendosi di quest’idea Schilick interpreta la teoria della relatività come compimento concettuale di un sistema fondato sull’idea di trasformazione, che va intesa anche nel suo significato matematico. Con la trasformazione si fonda la misurazione in cui riappare, per così dire, il mondo delle quantità fisiche concrete. Ecco perchè egli non ritiene che la relatività confermi totalmente i concetti kantiani: lo spazio ed il tempo einsteiniani sono risultati di operazioni di misura e di trasformazione di coordinate. Anche il concetto di campo di cui Einstein fa uso nella relatività generale, è per Schlick il risultato di una concezione della materia che non la considera come qualcosa di puramente rispecchiabile ed osservabile, ma come un qualcosa da modificare attraverso l'azione. Il concetto di campo nega quello di sostanza poichè non ammette nulla di permanente in sè, ma considera gli effetti di ogni parte di materia sulle altre. (Questa concezione è assai diversa da quelle sostanzialistiche che considerano il campo come la realtà più profonda della materia.) Per concludere questa breve rassegna sulle critiche degli anni venti, ripetiamo che il dibattito di questo periodo è prevalentemente filosofico. Ogni critico inquadra la teoria della relatività entro la propria posizione. Tuttavia le critiche fin qui esaminate si dividono in due grandi gruppi: il gruppo che ritiene la relatività una convenzione matematica che mostra la libertà creativa della mente umana o che non tocca le conoscenze a priori; ed il gruppo che vede la relatività come un'ontologia vuoi della sostanza spazio-temporale (Whitehead) vuoi delle strutture mentali dell’uomo (Cassirer). A parte sta la posizione di Schlick che introduce i nuovi temi neopositivistici 6;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! del legame tra osservabili e termini teorici e di intervento dello scienziato nel mondo materiale, temi che vennero poi svolti negli anni 1940-50. La critica dei principi della relatività svolta dai fisici quantistici quali Bohr, Born e Pauli occupa il decennio 1930 e il 1940, ma non si esaurisce in esso. Contrariamente alle critiche degli anni venti che, come si è visto, sono più filosofiche, queste degli anni trenta cercano di far risaltare i difetti salienti della teoria della relatività, e rifiutano ogni estrapolazione metafisica che ad essa si appoggi. Bisogna anzitutto sottolineare che la critica dei quantisti è la più moderna anche fra quelle attuali proprio per le ragioni epistemologiche che stanno alla base di essa. Oltretutto l'apporto dato dagli scienziati che sostenevano l'indeterminismo ha contribuito all'avanzamento della fisica in misura di gran lunga superiore a quella di ogni altra tendenza, e di ciò si deve tener conto se si vuol capire l'estrema importanza della loro divergenza concettuale con la tesi einsteiniana. I punti salienti della discussione tra Einstein ed i quantisti si possono rintracciare negli articoli di Pauli e di Bohr che, fin dal 1926, si trovarono in opposizione con i principi di Einstein. Questa opposizione si trasformò con l'andare del tempo in una radicale differenza di idee sui metodi e sugli scopi della fisica. La loro critica ad Einstein si svolge in una duplice direzione: da un lato essi accettano di servirsi della relatività speciale senza la quale, come è noto, diventa impossibile lo studio del comportamento di alcune particelle; dall'altro invece rifiutano la relatività generale perchè essa non sa dare un'adeguata soluzione al problema dell'esistenza di numerose nuove particelle. Partendo da questa parziale indifferenza per i metodi e i risultati della relatività generale, i quantisti elaborarono altri tipi di dottrine fisiche entro le quali non c'era più posto per la fisica geometrica che Einstein veniva sostenendo, soprattutto nella terza fase della teoria della relatività. Born sostiene che il distacco fra Einstein e i quantisti si deve attribuire all'abbandono da parte di Einstein del credo empirico della sua giovinezza per vedute più sostanzialistiche. Infatti l'Einstein del 1916 scriveva che compito del pensatore e quello di abolire quei concetti che, utili una volta, abbiano “acquistato una tale autorità su di noi che ne dimentichiamo l'origine umana e li accettiamo come invariabili. Non è quindi gioco inutile abituarsi ad analizzare le nozioni correnti … così la loro esagerata autorità s’infrange”. Invece nel 1944 scriveva in una lettera a Born diventata famosa: “Tu credi in un Dio che gioca a dadi ed io in leggi perfette che regolano il mondo delle cose esistenti come oggetti reali, e che cerco ansiosamente di afferrare con metodo speculativo”. Born sostiene che questo mutamento spinse Einstein a ricercare una teoria generale del campo che conservasse la rigida causalità della fisica classica. Secondo Bohr l'atteggiamento di Einstein era dettato dal desiderio di non staccarsi completamente dagli ideali di continuità e causalità, e la semplicità e regolarità nelle ipotesi erano segno di validità di una teoria. Per concludere: Einstein, per i quantisti, restando fedele al concetto di realtà materiale della fisica classica, dal cui punto di vista una descrizione della natura che ammetta singoli avvenimenti non determinati da leggi sembra incompiuta, non ha saputo superare il rimpianto per l'impossibilità di applicazione pratica del suo vecchio concetto di campo fisico geometrizzato. Per i quantisti la teoria della relatività generale basata sulle equazioni di campo, non raccogliendo nessuna sollecitazione dalle teorie probabilistiche, non permette di capire che l'obiettività della fisica viene pienamente conservata dalla meccanica quantistica, che ha però il merito di staccarsi completamente da alcune idee aprioristiche della fisica tradizionale ed è molto più produttiva e fruttuosa della fisica del campo. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;6! Sempre nel decennio 1930-40 va infine ricordata l’importante posizione di Percy Bridgman (1881-1962), che partendo da una professione di empirismo radicale, sostiene che l’atteggiamento del fisico deve essere un atteggiamento di puro empirismo. Egli non deve ammettere alcun principio a priori che determini o limiti la possibilità di nuove esperienze. L'esperienza è determinata soltanto dall'esperienza. Ora il solo modo di fare dell'esperienza la guida di sé stessa è quello di ridurre il significato dei concetti scientifici ad una certa operazione empirica o ad un insieme di tali operazioni. Pertanto il contrasto principale è quello tra Bridgmann, che esamina le teorie di Einstein da un punto di vista operativo nel libro Sulla natura della teoria fisica (1936), ed i sostenitori delle idee einsteniane sulla geometrizzabilità della fisica. Bridgman aveva preso in considerazione la teoria della relatività molti anni prima, nel 1929, con lo scopo dichiarato di portare tutta la fisica al livello di chiarezza concettuale e operativa della relatività speciale. Egli sostiene che Einstein “non ottenne nella sua teoria della relatività generale la profondità e gli insegnamenti ch'egli stesso ci aveva dato con la sua teoria particolare”. Per lui infatti Einstein che nell'elaborare la relatività speciale aveva riconosciuto la necessità di ricercare il significato di un termine nelle operazioni che si compiono quando esso viene applicato (e così infatti si comportò per determinare il senso dei termini “lunghezza” e “simultaneità”), nella relatività generale introdusse solo coordinate e funzioni di coordinate senza determinare il modo in cui le coordinate si possono applicare a casi concreti. Non solo, mentre nella relatività speciale curò che ogni formulazione matematica fosse significante in relazione ad un sistema di riferimento, nella relatività generale usò coordinate generalizzate facendo perdere importanza al sistema di riferimento. Einstein, secondo Bridgman, si era trovato davanti ad un edificio scientifico provvisto di leggi, procedimenti sperimentali e apparati di verificazione che, malgrado fossero ordinati in una teoria armonica, non riuscivano a superare certe contraddizioni. L’atteggiamento di Einstein era stato allora quello di chiedersi come erano stati ottenuti quei concetti; senza inventare nulla di nuovo, ma analizzando attentamente le operazioni fisiche usate per determinare i concetti della teoria tradizionale, aveva messo in luce aspetti in precedenza trascurati, che erano però di fondamentale importanza. Divenne, per esempio, possibile ammettere dopo le sue analisi che la lunghezza di un corpo in quiete può non essere eguale alla sua lunghezza in movimento. I fisici acquisirono, dopo la relatività speciale, un nuovo ordine di idee, che consiste nell'ammettere che le operazioni convenzionali della fisica possono comprendere certi particolari di cui essi non sono generalmente consapevoli a causa della loro apparente futilità, ma che diventano importantissimi quando si passa a nuovi campi di indagine. I criteri della relatività speciale comportano una nuova metodologia perchè, se fino ad Einstein i concetti della fisica erano stati definiti in termini di proprietà, dopo di lui essi devono venir definiti in termini di operazioni. Passando invece alla relatività generale, Bridgman nota che in essa sono contenute solo coordinate e funzioni di coordinate. Le equazioni matematiche non indicano il modo in cui le coordinate possono venir ridotte a casi concreti. Alla base di tutta la relatività generale è l’idea che l’intervallo infinitesimale ds sia fisicamente reale. Ma per Bridgman “in un mondo fisico il ds non è dato ma va trovato mediante operazioni fisiche”, ed è ciò che Einstein non fa. L’uso delle coordinate generalizzate, fondato sull’idea che un fenomeno fisico descritto in un dato sistema di coordinate possa esser descritto ugualmente bene da un altro sistema di coordinate cui si può giungere mediante operazioni di trasformazione, fa perdere importanza ai sistemi di 6;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! riferimento e presuppone che esistano eventi identicamente osservabili prima di aver detto da chi o come siano osservabili. Lo stesso evento potrebbe venir descritto in modo diverso da vari osservatori, e l’identità dei due fenomeni non è postulabile a priori. Bridgman, pur criticando soprattutto gli aspetti matematici della relatività generale, sostiene che Einstein si comporta come se fosse convinto dell'esistenza di una realtà già data fuori della nostra mutevole esperienza. Sembrerebbe, dice Bridgman, che nell'ammettere questa realtà trascendente Einstein si sforzi di venire incontro alla richiesta di universalità del ragionamento, tipica della scienza, cioè che in qualche modo tenti di tornare indietro ad un punto di vista newtoniano. Invece per Bridgman non è possibile arrivare, seguendo la via scelta da Einstein, a quel tipo di oggettività, nè trovare delle «leggi generali» sulla natura dei fenomeni che non siano quelle locali e contingenti che la fisica consapevole, ossia quella operativa, scopre. La struttura dell'esperienza è fondata sul particolare e sull’individuale e anche le nostre operazioni fondamentali di descrizione e di misura non sono esenti da questa struttura. Einstein pensando possibile da ogni sistema particolare di coordinate e col suo modo di intendere l’evento come qualcosa di dato e primitivo ritorna ad un punto di vista preeinsteiniano. Bridgman è tuttavia consapevole che la riduzione del significato del concetto ad operazioni empiriche implica un certo solipsismo (credenza secondo cui tutto quello che l'individuo percepisce venga creato dalla propria conoscenza), nel senso che le operazioni di cui si parla sono sempre parti dell'esperienza cosciente di un certo individuo. Ma si tratta di un solipsismo che non chiude il soggetto nel suo isolamento giacché egli può affermare l'esistenza della cosa esterna (che è solo una parte della sua diretta esperienza) se trova che gli altri reagiscono in un certo modo a questa esperienza. In generale, la nozione stessa di esistenza ha significato operativo. “Nel mio sforzo di risolvere il problema di adattarmi al mio ambiente, invento certi artifici, alcuni di essi riescono ed io li uso nel mio pensiero. L'esistenza è un termine che presuppone il successo di alcuni di questi artifici. I concetti di tavola, di nuvola, di stella, hanno successo nel trattare con certi aspetti della mia esperienza: quindi essi esistono”. Dal punto di vista di questo operativismo, la relatività della conoscenza diventa una conclusione inevitabile e ovvia. Che “tutti i movimenti sono relativi” significa che “non si sono trovate operazioni di misura del movimento che siano utili per una descrizione semplice del comportamento della natura e che non siano operazioni relative ad un certo osservatore”. Inoltre diventano prive di senso tutte le questioni cui non si può dare una risposta mediante operazioni determinate. L'operativismo non esclude l'uso dei costrutti cioè delle costruzioni concettuali che non sono date dall'esperienza. Soltanto, deve rifiutare a tali costrutti realtà fisica; come nel caso del campo elettrico la cui esistenza non si può ammettere indipendentemente dalle operazioni introdotte dalla definizione di esso. La critica di Bridgman resta essenziale come modello di interpretazione non ontologica e antimetafisica della relatività ed è un po' il riassunto di tutte le critiche convenzionalistiche ed operativistiche al pensiero di Einstein. Concludiamo questa rassegna di interpretazioni filosofiche e scientifiche analizzando gli orientamenti attuali sulla teoria della relatività. Oggi la problematica delle critiche ad Einstein si muove su di un piano diverso, che da un lato prende a prestito gli strumenti più sottili dell'analisi metodologica e dall'altro cerca di comprendere la sua portata oggettiva. Non si cerca più la spiegazione filosofica della /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;8! teoria della relatività e neppure si tenta di mostrarne limiti di applicabilità. Piuttosto si discutono le basi concettuali su cui Einstein si era appoggiato nel formulare la teoria. I punti su cui si insiste sono, in fondo, due: la fondazione del rapporto fra fisica e geometria nella relatività, e il problema del valore delle invarianti nella teoria generale e nelle teorie del campo unificato che Einstein ha sviluppato come proseguimento della teoria della relatività. Per ciò che attiene al primo punto ricordiamo anzitutto che in passato la discussione sul rapporto tra fisica e geometria si fondava sul presupposto di poter trovare una risposta al problema di quale fosse la geometria vera. Chiaramente non è più così oggi, proprio per la maggior consapevolezza critica sorta nell'ambito matematico-geometrico a proposito dell’ambiguità del termine “vero”. Si può anzi dire che oggi non interessa più sapere quale geometria sia “vera” fisicamente; semmai oggi si vuole sapere quale impostazione fisico-matematica trova una maggiore e più ampia conferma da parte della geometria. Si è discusso a lungo sul fatto che Einstein sia riuscito o meno ad eliminare il concetto di spazio assoluto formulato da Newton. Anzi da parte di alcuni è stato sostenuto che Einstein errò quando volle insistere sull'uso di una geometria a curvatura variabile nella relatività generale. Per Whitehead, come abbiamo visto, Einstein avrebbe dovuto usare una geometria uniforme la cui curvatura doveva stabilirsi a partire da una base sensoriale. Orbene è interessante che Einstein abbia proprio fatto il contrario di questo quando ha affermato la necessità di una definizione sperimentale del coefficiente di curvatura della geometria; e si può dire che su questo problema egli abbia preso una posizione assai moderna. Con ciò si capisce che egli usava il termine geometria in un senso notevolmente diverso da quello tradizionale vuoi convenzionalistica vuoi pseudo-materialistica. Egli denotava col termine geometria tanto una teoria della meccanica quanto una teoria dei rapporti spaziali. Secondo questa definizione einsteiniana la geometria non è dunque qualcosa di riducibile ad un gruppo di teoremi, sia pure esposti con le tecniche più raffinate, ma è il nome da dare a tutto un gruppo di ricerche fisico-matematiche. Qui interviene una seconda concezione di Einstein sul rapporto tra fisica e geometria: per lui la geometria e le proprietà inerziali dello spazio non hanno senso in uno spazio vuoto. Tuttavia questa idea, che poi è quella che afferma che le proprietà fisiche dello spazio hanno la loro origine nella materia in esso contenuta, non trovò un'espressione completa nella relatività generale. Cosa significa questo? Che in un certo modo nella relatività generale Einstein non è riuscito ad eliminare del tutto il concetto di spazio assoluto newtoniano. Nella relatività generale, nota Adolf Grunbaum (1923), uno dei moderni critici della teoria einsteiniana, il rapporto tra spazio e materia trova solo un'espressione limitata perché anche se la curvatura spaziale è influenzata dalla distribuzione della massa, la geometria che ne deriva non è unicamente specificata da questa distribuzione. Per ovviare a questa permanenza dello spazio assoluto (sia pure nella forma del principio di Mach secondo il quale l’inerzia nei sistemi in traslazione e rotazione è dipendente dalla distribuzione e dal moto relativo della materia presente nell'universo) Einstein introdusse fin dal 1916 la costante cosmologica che riguarda la densità della materia e la sua distribuzione. Poco per volta egli abbandonò tuttavia il principio di Mach per sostenere la tesi che la materia è solo una parte del campo e non la sua causa. Negli anni settanta lo studio degli sviluppi della relatività è stato affrontato in particolare da Wheeler, il quale attraverso un’indagine storica sulla formazione della relatività generale si chiede se non si delinei fin d’ora un passaggio dal concetto di relatività delle 6;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! descrizioni fisiche da parte di vari osservatori in moto qualunque gli uni rispetto agli altri, a quello di mutabilità ossia di descrizione alternativa fornita da un osservatore in base a costanti sperimentali che variano da zona a zona dell’universo e variano col tempo. Tale idea viene a Wheeler dagli studi portati avanti dai più moderni cosmologi sulla variazione delle cosiddette costanti fondamentali della fisica. Un’altra direzione di studi è la geocronometria sviluppata sulla base di alcune idee di Reichenbach, che è un tentativo di fondare in maniera logica la relatività speciale e generale prescindendo dal momento sperimentale di questa teoria e rafforzando invece il suo valore di teoria della conoscenza operativa dei concetti. La geocronometria è un tentativo di assiomatizzare la relatività mostrandone i legami profondi con la logica moderna dei gruppi e con la filosofia della scienza. Può sorgere a questo punto la domanda se Einstein si sia preoccupato di dare una sistemazione assiomatica coerente della teoria della relatività. Alcuni fisici lo negano perchè ritengono che per Einstein la matematica sia sempre stata uno strumento, sia pure preziosissimo, ma nulla di più. Einstein dà un’importanza enorme alla matematica, ma ciò non vuol dire affatto che egli voglia presentare le sue teorie come un edificio perfetto e completo in ogni sua parte. Secondo il fisico Feynman sarebbe giusto dire che Einstein si avvale della matematica fin dove essa gli serve per sviluppare alcuni suoi concetti fisici ma non per formulare un sistema di rapporti completi. Il secondo centro di critiche è l’idea einsteiniana che la generalizzazione matematica nella formulazione delle leggi fisiche sia simbolo di una realtà più profonda di quella espressa nei casi particolari. Riconoscendo la grande importanza teorica e pratica delle formulazioni invarianti molti hanno finito per confondere, aiutati forse dall'atteggiamento di Einstein, invarianza ed oggettività, che hanno un valore ben diverso in geometria ed in fisica, essendo coincidenti nella prima scienza ma non nella seconda. Ecco che la critica più recente mette in guardia contro queste confusioni. Esiste infatti, in generale, un numero indefinito di classi di trasformazioni che potrebbero venire scelte per definire l’invarianza e non c’è ragione perché la classe impiegata nella relatività generale sia intrinsecamente superiore alle altre. Bisogna perciò distinguere metodologicamente fra profondità di una teoria e sua oggettività. Per concludere queste discussioni riteniamo opportuno riportare le parole di Einstein stesso, parole che lasciano aperto ii campo ad ulteriori dibattiti: lo scienziato appare “come un realista poichè cerca di descrivere il mondo indipendentemente dagli atti della percezione; come un idealista perchè considera i concetti e le teorie come libere invenzioni dello spirito umano (non deducibili logicamente dal dato empirico); come un positivista perchè ritiene che i suoi concetti e le sue teorie siano giustificati soltanto nella misura in cui forniscono una rappresentazione logica delle relazioni fra esperienze sensoriali. Può addirittura sembrare un platonico o un pitagoreo, in quanto considera il criterio della semplicità logica come strumento indispensabile ed efficace per la sua ricerca”. 12.5 Capire lo spaziotempo La fisica moderna ha introdotto una rivoluzione non solo scientifica ma anche nel linguaggio, peraltro ancora impreciso, per descrivere i fenomeni fisici, nel senso che tutti i concetti che usiamo per descrivere la natura sono limitati; non sono aspetti della /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;:! realtà, come tendiamo a credere, ma creazioni della mente; sono parti della mappa, non del territorio. Ogni volta che estendiamo il campo della nostra esperienza, i limiti della nostra mente razionale diventano evidenti e siamo costretti a modificare, o persino ad abbandonare, alcuni dei nostri concetti. Le idee di spazio e di tempo hanno un posto preminente nella nostra mappa della realtà. Esse servono a ordinare cose ed eventi nel nostro ambiente e sono quindi di capitale importanza non solo nella vita quotidiana, ma anche nei nostri tentativi di comprendere la natura attraverso la scienza e la filosofia. Non c'è legge della fisica che per la sua formulazione non richieda l'uso dei concetti di spazio e di tempo. La profonda modificazione di questi concetti fondamentali determinata dalla teoria della relatività fu perciò una delle più grandi rivoluzioni nella storia della scienza. La fisica classica era basata sull'idea sia di uno spazio assoluto, tridimensionale, indipendente dagli oggetti materiali in esso contenuti e regolato dalle leggi della geometria euclidea, sia di un tempo inteso come dimensione separata, anch'esso assoluto, che scorre uniformemente e indipendentemente dal mondo materiale. In Occidente, questi concetti di spazio e di tempo erano così profondamente radicati nella mente di filosofi e scienziati che furono assunti come proprietà vere e indiscusse della natura. La convinzione che la geometria, più che far parte della struttura che usiamo per descrivere la natura, sia inerente a questa ha le sue origini nel pensiero greco. La geometria assiomatica era l'aspetto principale della matematica greca ed ebbe una profonda influenza sulla filosofia greca. Il suo metodo, che consisteva nel partire da assiomi indiscussi per ricavarne dei teoremi mediante il ragionamento deduttivo, divenne caratteristico del pensiero filosofico greco; la geometria fu perciò al centro di tutte le attività intellettuali e costituì la base dell'educazione filosofica. I Greci ritenevano che i loro teoremi matematici fossero espressioni di verità eterne ed esatte riguardanti il mondo reale, e che le forme geometriche fossero manifestazioni della bellezza assoluta e la geometria era considerata la combinazione perfetta della logica e della bellezza e pertanto era ritenuta di origine divina. Di qui il detto di Platone “il dio è geometra”. Poichè la geometria era vista come la rivelazione del dio, era ovvio per i Greci ritenere che i cieli dovessero avere forme geometriche perfette; ciò volle dire che i corpi celesti dovevano muoversi su orbite circolari. Nei secoli successivi, la geometria greca continuò a esercitare una forte influenza sulla filosofia e sulla scienza dell'Occidente. Gli Elementi di Euclide furono il libro di testo classico nelle scuole europee fino all'inizio di questo secolo, e la geometria euclidea venne considerata la vera natura dello spazio per più di duemila anni. Fu necessaria l'opera di Einstein perchè scienziati e filosofi si rendessero conto che la geometria non è inerente alla natura, ma è imposta a essa dalla nostra mente. Dice il fisico e filosofo Henry Margenau (1901-1997): “Al centro della teoria della relatività c’è il riconoscimento che la geometria... è una costruzione dell'intelletto. Solo accettando questa scoperta, la mente può sentirsi libera di modificare le nozioni tradizionali di spazio e di tempo, di riesaminare tutte le possibilità utilizzabili per definirle, e di scegliere quella formulazione che più concorda con l’esperienza “. La filosofia orientale, a differenza di quella greca, ha sempre sostenuto che lo spazio e il tempo sono costruzioni della mente. I mistici orientali consideravano questi concetti, come tutti gli altri concetti intellettuali, relativi, limitati e illusori. In un testo buddhista, per esempio, troviamo le seguenti parole: “Il Buddha insegnava, o monaci, che... il passato, il futuro, lo spazio fisico,... e le singole cose non fossero che nomi, forme di pensiero, parole di uso comune, realtà puramente superficiali” 6=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Gli antichi scienziati e filosofi orientali possedevano già l'atteggiamento, tanto fondamentale per la teoria della relatività, secondo il quale le nostre nozioni di geometria non sono proprietà assolute e immutabili della natura, bensì costruzioni intellettuali. Secondo le parole di Asvaghosa (buddhista del II secolo d.C.), “Sia chiaro che lo spazio non è altro che un modo di particolarizzazione che non ha esistenza reale di per sé stesso.. Lo spazio esiste solo in relazione alla nostra coscienza che particolarizza” Queste stesse considerazioni valgono per la nostra idea di tempo. I mistici orientali collegano entrambe le nozioni di spazio e di tempo a particolari stati di coscienza. Essendo in grado, mediante la meditazione, di oltrepassare lo stato ordinario, essi si sono resi conto che i concetti convenzionali di spazio e di tempo non sono la verità ultima. La loro esperienza mistica porta a concetti di spazio e tempo più raffinati, che per molti aspetti somigliano a quelli della fisica moderna così come sono presentati dalla teoria della relatività. La teoria della relatività ha quindi dimostrato che tutte le misure che implicano spazio e tempo perdono il loro significato assoluto e ci ha costretti ad abbandonare i concetti classici di spazio e tempo assoluti. L'importanza fondamentale di questa evoluzione è stata espressa chiaramente dal fisico teorico Mendel Sachs (1927) con le seguenti parole: “L'effettiva rivoluzione avvenuta con la teoria di Einstein... fu l'abbandono dell’idea secondo la quale il sistema di coordinate spazio-temporali ha un significato obiettivo come entità fisica indipendente. Al posto di questa idea, la teoria della relatività suggerisce che le coordinate spazio e tempo sono soltanto elementi di un linguaggio che viene usato da un osservatore per descrivere il suo ambiente”. Questa affermazione mostra che le nozioni di spazio e tempo non sono altro che nomi, forme di pensiero, parole di uso comune. Poiché spazio e tempo sono ora ridotti al ruolo soggettivo di elementi del linguaggio usato da un particolare osservatore per descrivere i fenomeni naturali dal suo punto di vista, ciascun osservatore descriverà quei fenomeni in modo diverso. È importante comprendere che non ha alcun senso chiedersi quale sia la lunghezza reale di un oggetto, proprio come nella vita quotidiana non ha senso chiedersi quale sia la lunghezza reale dell'ombra di una persona. L'ombra e la proiezione su un piano bidimensionale di un insieme di punti dello spazio tridimensionale e la sua lunghezza e diversa a seconda dell'angolo di proiezione. Analogamente, la lunghezza di un oggetto in moto e la proiezione, su uno spazio tridimensionale, di un insieme di punti dello spaziotempo quadridimensionale; essa è diversa in sistemi di riferimento diversi. Tutti questi effetti relativistici sembrano strani soltanto perchè con i nostri sensi non possiamo fare alcuna esperienza diretta del mondo quadridimensionale dello spaziotempo, ma possiamo osservarne soltanto le immagini tridimensionali. Queste immagini hanno aspetti diversi in diversi sistemi di riferimento; oggetti in moto appaiono diversi da oggetti fermi e orologi in moto scandiscono il tempo con ritmo diverso. Questi effetti possono sembrare paradossali se non comprendiamo che essi sono soltanto le proiezioni di fenomeni quadridimensionali, proprio come le ombre sono proiezioni di oggetti tridimensionali. Se potessimo visualizzare la realtà dello spaziotempo quadridimensionale, non ci sarebbe nulla di paradossale. Pertanto, nella fisica relativistica, si presenta una situazione nuova, perchè alle tre coordinate spaziali si aggiunge il tempo come quarta dimensione. Poiché le trasformazioni tra differenti sistemi di riferimento esprimono ciascuna coordinata di un sistema come combinazione delle coordinate dell'altro, in generale una coordinata /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6=;! spaziale in un sistema apparirà, in un altro sistema, come combinazione sia delle coordinate spaziali sia di quella temporale. Ogni variazione del sistema di coordinate ricombina spazio e tempo in un modo matematicamente ben definito. Pertanto i due concetti non possono più essere separati, poiché ciò che è spazio per un osservatore sarà combinazione di spazio e tempo per l'altro. La teoria della relatività ha dimostrato che lo spazio non è tridimensionale e il tempo non è una entità separata. Entrambi sono profondamente e inseparabilmente connessi e formano un continuo quadridimensionale chiamato spaziotempo. I concetti di spazio e tempo sono talmente fondamentali per la descrizione dei fenomeni naturali che la loro modificazione comporta un cambiamento dell'intero schema teorico di cui ci serviamo in fisica per descrivere la natura. Nel nuovo schema, spazio e tempo sono trattati sullo stesso piano e sono connessi in modo inseparabile: nella fisica relativistica non possiamo mai parlare di spazio senza parlare di tempo, e viceversa. Ogni volta che ci si occupa di fenomeni che comportano elevate velocità, si deve usare questo nuovo schema di interpretazione. In tutto il misticismo orientale sembra essere presente una profonda intuizione del carattere spazio-temporale della realtà. Viene ribadito con insistenza che spazio e tempo sono uniti in maniera inseparabile, e questa nozione intuitiva di spazio e tempo ha trovato, forse, la sua esposizione più chiara e la sua elaborazione di più vasta portata nel Buddhismo. Per usare le parole del monaco buddhista Daisetsu T. Suzuki (18701966): “Ci guardiamo intorno e sentiamo che... ogni oggetto è connesso con ogni altro oggetto... non solo spazialmente, ma temporalmente.... Come realtà di pura esperienza, non c'e spazio senza tempo, non c'e tempo senza spazio; essi si compenetrano”. Difficilmente si potrebbe trovare un modo migliore per descrivere il concetto relativistico di spaziotempo. Secondo il fisico Fritjof Capra (1939), la particolare disposizione dell'intuito dei mistici orientali a dare importanza al concetto di tempo è una delle ragioni principali per cui, in genere, le loro idee sulla natura sembrano corrispondere molto più da vicino alle concezioni scientifiche moderne di quanto non facciano quelle della maggior parte dei filosofi greci. La filosofia della natura dei Greci era, nel suo insieme, essenzialmente statica e in buona parte si basava su considerazioni geometriche. Si potrebbe dire che era estremamente non-relativistica, e la sua profonda influenza sul pensiero occidentale può essere certamente uno dei motivi per cui noi abbiamo difficoltà concettuali tanto grandi di fronte ai modelli relativistici della fisica moderna. Le filosofie orientali, viceversa, sono filosofie dello spaziotempo e quindi la loro intuizione spesso si avvicina moltissimo alle concezioni della natura suggerite dalle nostre moderne teorie relativistiche. Essendo basate sulla consapevolezza che spazio e tempo sono intimamente connessi e compenetrati, le concezioni del mondo della fisica moderna e del misticismo orientale sono entrambe intrinsecamente dinamiche e contengono il tempo e il mutamento come propri elementi essenziali. Nella teoria generale della relatività non solo sono relative tutte le misurazioni riguardanti lo spazio e il tempo, poiché dipendono dallo stato di moto dell’osservatore, ma l’intera struttura dello spaziotempo è inestricabilmente legata alla distribuzione della materia. Lo spazio è curvo in misura diversa e il tempo scorre diversamente in punti diversi dell’universo. Siamo quindi giunti a comprendere che le idee di spazio euclideo tridimensionale e di tempo che scorre linearmente sono limitate alla nostra 6==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! esperienza ordinaria del mondo fisico e devono essere completamente abbandonate quando ampliamo questa esperienza. Anche i saggi orientali parlano di ampliamento della loro esperienza del mondo durante gli stati superiori di coscienza, e affermano che durante la meditazione vanno al di là dell’ordinario spazio tridimensionale e trascendono l’ordinaria consapevolezza del tempo. Invece di una successione lineare di istanti, essi percepiscono un presente infinito, eterno, e tuttavia dinamico. Suzuki così si esprime a proposito di questo eterno presente: “In questo mondo spirituale non ci sono suddivisioni di tempo come passato, presente e futuro; esse si sono contratte in un singolo istante del presente nel quale la vita freme nel suo vero senso… Il passato e il futuro sono entrambi racchiusi in questo momento presente di illuminazione e questo momento presente non è qualcosa che sta in quiete con tutto ciò che contiene, ma si muove incessantemente”. Nella fisica relativistica, la storia di un oggetto, per esempio di una particella, può essere rappresentata in un cosiddetto diagramma spazio-tempo. In questi diagrammi, la direzione orizzontale rappresenta lo spazio, e la direzione verticale il tempo. La traiettoria della particella nello spazio-tempo si chiama la sua linea di universo. Anche quando è in quiete, la particella si muove nel tempo e in tal caso la sua linea di universo è una retta verticale. Se la particella si muove nello spazio, la sua linea di universo sarà inclinata, con un'inclinazione tanto maggiore quanto più grande è la velocità della particella. Si noti che le particelle possono muoversi solo in avanti nel tempo, ma sia in avanti che indietro nello spazio. Le loro linee di universo possono avere inclinazioni diverse rispetto all'orizzontale, ma non possono mai diventare perfettamente orizzontali, poiché ciò significherebbe che una particella viaggia da un punto all'altro in un tempo nullo. I diagrammi spazio-tempo sono usati nella fisica relativistica per rappresentare le interazioni tra varie particelle. Per ciascun processo, possiamo tracciare un diagramma e associare ad esso una espressione matematica definita che ci dà la probabilità che si verifichi il processo. Per esempio, l'urto, o diffusione, tra un elettrone e un fotone può essere rappresentato con il diagramma in figura e dev'essere letto nel seguente modo (a cominciare dal basso verso l'alto, secondo la direzione del tempo): un elettrone urta un fotone; il fotone è assorbito dall'elettrone che continua la sua traiettoria con velocità diversa (e di conseguenza varia la pendenza della linea di universo); dopo un certo tempo l'elettrone emette nuovamente il fotone e inverte la sua direzione di moto. La teoria dei campi, che fornisce lo schema interpretativo di questi diagrammi, è caratterizzata da due aspetti importanti: tutte le interazioni comportano la creazione e la distruzione di particelle, come l'assorbimento e l'emissione del fotone nel nostro diagramma, la presenza di una simmetria di fondo che esiste tra particelle e /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6=4! antiparticelle. Coppie di elettroni e positroni possono essere create spontaneamente da fotoni e possono ritrasformarsi in fotoni nel processo inverso di annichilazione. I diagrammi spazio-tempo possono essere notevolmente semplificati se si adotta il seguente artificio. La freccia su una linea di universo non viene più usata per indicare la direzione del moto della particella, ma viene invece usata per distinguere tra particelle e antiparticelle: se la freccia punta verso l’alto, indica una particella, se punta verso il basso, indica una antiparticella. II formalismo matematico della teoria dei campi suggerisce che queste linee possono essere interpretate in due modi: o come positroni che si muovono in avanti nel tempo, o come elettroni che si muovono all’indietro nel tempo. Dal punto di vista matematico, le due interpretazioni sono identiche; la stessa espressione descrive una antiparticella che si muove dal passato verso il futuro, oppure una particella che si muove dal futuro verso il passato. Possiamo quindi vedere i nostri due diagrammi come rappresentazioni dello stesso processo che si evolve in direzioni diverse nel tempo. Entrambi possono essere interpretati come diffusione di elettroni e fotoni, ma in un processo le particelle si muovono in avanti nel tempo, nell'altro si muovono all'indietro. La teoria relativistica delle interazioni tra particelle presenta quindi una perfetta simmetria rispetto alla direzione del tempo. Tutti i diagrammi spaziotempo possono essere letti in entrambe le direzioni. Per ogni processo, esiste un processo equivalente in cui la direzione del tempo è invertita e le particelle sono sostitute da antiparticelle. I diagrammi spazio-tempo, comunque, non vanno letti come registrazioni cronologiche delle traiettorie delle particelle nel tempo, ma piuttosto come figure quadridimensionali nello spazio-tempo, che rappresentano una rete di eventi interconnessi, ai quali non va attribuita alcuna direzione definita del tempo. Poiché tutte le particelle possono muoversi in avanti e all'indietro nel tempo, proprio come possono muoversi a destra e a sinistra nello spazio, non ha alcun senso imporre sui diagrammi un flusso unidirezionale del tempo. Essi sono semplicemente mappe quadridimensionali tracciate nello spazio-tempo in modo tale che non possiamo parlare di sequenze temporali. Per usare le parole di de Broglie: “Nello spazio-tempo, tutto ciò che per ciascuno di noi costituisce il passato, il presente e il futuro è dato in blocco... Ciascun osservatore col passare del suo tempo scopre, per così dire, nuove porzioni dello spazio-tempo, che gli appaiono come aspetti successivi del mondo materiale, sebbene in realtà l'insieme degli eventi che costituiscono lo spazio-tempo esistesse già prima di essere conosciuto”. Questo, quindi, è il pieno significato dello spaziotempo nella fisica relativistica. Spazio e tempo sono del tutto equivalenti, essi sono unificati in un continuo quadridimensionale nel quale le interazioni tra le particelle possono estendersi in qualsiasi direzione. Se vogliamo raffigurare queste interazioni, dobbiamo 6=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! rappresentarle in una istantanea quadridimensionale che copra l'intero intervallo di tempo come pure l'intera regione di spazio. Per ottenere la sensazione esatta del mondo relativistico delle particelle, dobbiamo dimenticare il trascorrere del tempo. Sebbene i fisici usino il loro formalismo matematico e i loro diagrammi per rappresentare in blocco le interazioni nello spazio-tempo quadridimensionale, essi dicono che nel mondo reale ogni osservatore può fare esperienza dei fenomeni solo in una successione di sezioni dello spazio-tempo, cioè in una sequenza temporale. I mistici, viceversa, sostengono di poter realmente percepire la pienezza di un intervallo dello spazio-tempo nel quale il tempo non fluisce più. Ad esempio, il maestro zen Dogen (1200-1253) dice: “La maggior parte delle persone crede che il tempo trascorra; in realtà esso sta sempre là dov’è. Questa idea del trascorrere può essere chiamata tempo, ma è un'idea inesatta; infatti, dato che lo si può vedere solo come un trascorrere, non si può comprendere che esso sta proprio dov'è”. Lo spazio-tempo della fisica relativistica è anch'esso uno spazio privo di tempo, che appartiene a una dimensione superiore. In esso, tutti gli eventi sono interconnessi, ma le connessioni non sono causali. Le interazioni tra particelle possono essere interpretate in termini di causa ed effetto solo quando i diagrammi spazio-tempo sono letti in una determinata direzione, per esempio dal basso verso l'alto. Quando vengono considerati come figure quadridimensionali prive di una direzione definita del tempo, non c'e un prima né un dopo, e quindi nessuna relazione di causalità. In maniera analoga, i mistici orientali affermano che nel trascendere il tempo essi trascendono anche il mondo della causa e dell'effetto. Come le nostre ordinarie nozioni di spazio e tempo, la causalità è un'idea limitata a una certa esperienza del mondo e deve essere abbandonata quando questa esperienza viene ampliata. Così si esprime Swami Vivekananda (1863-1902), mistico indiano: “Tempo, spazio e causalità sono la lente attraverso la quale si vede l'Assoluto ... Nell'Assoluto in sé stesso non ci sono né tempo, né spazio, ne causalità”. Pertanto, se il misticismo orientale è una liberazione dal tempo, in un certo senso la stessa cosa si può dire della fisica relativistica. 12.6 Il tempo esiste? In base al senso comune, basato sulla percezione dei sensi che avvertono il mutare del mondo che ci circonda, è reale ciò che sta accadendo in questo momento. Per quanto ricordiate il passato o anticipiate il futuro, vivete nel presente. In altre parole, si ha l'impressione che il tempo fluisca, nel senso che il presente si aggiorna di continuo. Abbiamo una profonda intuizione del fatto che il futuro sia aperto fino a quando non diventa presente, e che il passato sia fisso. Con il fluire del tempo questa struttura di passato fisso, presente immediato e futuro aperto viene trasportata nel tempo. Questa struttura è parte integrante del nostro linguaggio, pensiero e comportamento. Questo modo di pensare è naturale, ma in realtà non ha un fondamento scientifico. Le equazioni della fisica non ci dicono quali eventi si stanno verificando proprio adesso. In queste equazioni non esiste il momento attuale, e quindi nemmeno il fluire del tempo. Inoltre, la teoria della relatività di Einstein suggerisce che non solo non c'è un singolo presente speciale, ma anche che tutti i momenti sono ugualmente reali. In sostanza, il futuro non è più aperto del passato. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6=6! La differenza tra l'idea scientifica e la nostra idea quotidiana del tempo ha appassionato pensatori di epoche diverse, e si è fatta sempre più grande via via che i fisici hanno privato il tempo della maggior parte delle proprietà che gli attribuiamo. Adesso il divario sta raggiungendo la sua conclusione logica, visto che ormai secondo molti fisici teorici il tempo addirittura non esiste. L'idea di una realtà senza tempo è tanto sbalorditiva che è difficile capire come possa essere coerente. Quello che facciamo, lo facciamo nel tempo e il mondo è una serie di eventi collegati tra loro dal tempo. Senza tempo, il mondo sarebbe immutabile. Una teoria che prescinda dal tempo deve spiegare perché osserviamo il cambiamento, se invece il mondo non sta cambiando. Alcune recenti ricerche cercano proprio di fornire questa spiegazione. A un livello fondamentale il tempo può non esistere, ma può comparire a livelli superiori, come un tavolo appare solido sebbene sia un insieme di particelle composto per la maggior parte da spazio vuoto. La solidità è una proprietà collettiva, o emergente, delle particelle. Anche il tempo potrebbe essere una proprietà emergente degli ingredienti basilari del mondo quali che siano. Questa idea di tempo emergente ha lo stesso potenziale rivoluzionario dello sviluppo della teoria della relatività e della meccanica quantistica. Einstein aveva detto che la riconcettualizzazione del tempo era stata fondamentale per lo sviluppo della relatività. Oggi, mentre tentano di unificare relatività e meccanica quantistica, i fisici ritengono che il tempo sia di nuovo centrale e senza una riflessione profonda sul tempo potrebbe essere impossibile proseguire verso una teoria unificata. Nel corso dei secoli, la ricca idea del tempo che ci viene dall'intuito si è impoverita. Nella fisica, il tempo svolge diversi compiti, ma con il progredire di questa scienza i compiti del tempo sono stati via via assegnati ad altro. Può non essere subito ovvio, ma le leggi del moto di Newton richiedono che il tempo abbia molte caratteristiche specifiche. In linea di principio tutti gli osservatori sono d'accordo sull'ordine in cui si svolgono gli eventi. Indipendentemente da quando e dove si verifichi un evento, la fisica classica assume che sia possibile dire oggettivamente se è avvenuto prima, dopo o simultaneamente a un qualsiasi altro evento nell'universo. Il tempo ordina quindi tutti gli eventi del mondo, la simultaneità è assoluta: è un fatto indipendente dall'osservatore. Inoltre, per poter definire velocità e accelerazione il tempo deve essere continuo. Per poter dire quanto sono lontani nel tempo due eventi, il tempo classico deve avere anche un concetto di durata, quello che i fisici chiamano una metrica. In sostanza, per Newton il mondo ha un orologio universale. L'orologio ripartisce il mondo in istanti di tempo in modo unico e oggettivo, per cui il tempo scorre fornendoci una freccia grazie a cui sappiamo qual è la direzione del futuro. Queste caratteristiche aggiuntive però non sono strettamente necessarie per le leggi che ha elaborato. Le sue numerose caratteristiche - ordine, continuità, durata, simultaneità, flusso e freccia - sono separabili da un punto di vista logico, eppure si ritrovano tutte insieme nell'orologio universale che Newton ha chiamato “tempo”. Questa unione di caratteristiche ha avuto tanto successo da sopravvivere per quasi due secoli. Poi sono arrivati gli attacchi della fine del XIX e dell'inizio dei XX secolo. Il primo è stato il lavoro di Boltzmann, per il quale, visto che le leggi di Newton funzionano sia avanti sia indietro nel tempo, il tempo non ha una freccia predefinita. In alternativa Boltzmann aveva proposto che la distinzione tra passato e futuro non fosse intrinseca nel tempo ma nascesse dalle asimmetrie nel modo in cui è organizzata la materia nell'universo. In sostanza il tempo scorre nella direzione secondo la quale l’entropia 6=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! aumenta. Anche se i dettagli della proposta sono ancora oggetto di discussione, senza dubbio Boltzmann ha cassato una delle proprietà del tempo newtoniano. Il secondo attacco è arrivato da Einstein, che ha eliminato l'idea di simultaneità assoluta, in quanto, secondo la relatività ristretta, la simultaneità di due eventi dipende dalla velocità a cui ci muoviamo, ossia è relativa all’osservatore. L'arena degli eventi non è il tempo o lo spazio, ma la loro unione, lo spaziotempo. Due osservatori che si muovono a velocità diverse sono in disaccordo su quando e dove si sia verificato un evento, ma concordano sulla sua posizione nello spaziotempo. Spazio e tempo sono concetti secondari destinati a sbiadire fino a diventare semplici ombre. Le cose sono peggiorate nel 1915, con la teoria generale della relatività in cui la forza di gravità deforma il tempo, quindi il trascorrere di un secondo in un due luoghi diversi può non avere lo stesso significato. In generale non è possibile pensare al mondo come evolvesse un istante dopo l'altro seguendo un unico parametro temporale. In situazioni estreme può essere impossibile ripartire il mondo in istanti temporali. Allora diventa impossibile dire se un evento si sia verificato prima o dopo un altro. Ma allora a che serve il tempo? Si potrebbe dire che la differenza tra spazio e tempo sia quasi sparita, e che la vera arena degli eventi in un universo relativistico sia un grosso blocco quadridimensionale. Sembra che la relatività spazializzi il tempo trasformandolo in un'ulteriore direzione all'interno del blocco. Ma anche nella relatività generale il tempo ha una funzione distinta e importante: distingue localmente tra direzioni di tipo tempo e di tipo spazio. Gli eventi con una relazione di tipo tempo possono avere tra loro un nesso causale. Sono eventi per cui un oggetto o un segnale può passare da uno all'altro, influenzando ciò che accade. Gli eventi con una relazione di tipo spazio invece non sono collegati in modo causale. Nessun oggetto o segnale può passare da un evento a un altro. Dal punto di vista matematico c'è solo un segno meno che distingue le due direzioni, eppure questo segno meno ha effetti enormi. Gli osservatori sono in disaccordo sulla successione degli eventi di tipo spazio, ma tutti concordano sull'ordinamento degli eventi di tipo tempo. Se un osservatore percepisce che un evento può causarne un altro, allora lo percepiscono tutti gli osservatori. Uno degli obiettivi più importanti della fisica è l'unione tra relatività generale e meccanica quantistica, per avere un'unica teoria che tratti gli aspetti sia gravitazionali sia quantistici della materia: una teoria quantistica della gravità. La meccanica quantistica richiede però che il tempo abbia proprietà in contraddizione con quanto scritto finora. La meccanica quantistica afferma che gli oggetti hanno un'insieme di comportamenti molto più ricco rispetto a quello descritto da grandezze classiche come posizione e velocità. La descrizione completa di un oggetto è data da una funzione matematica, uno stato quantico, che evolve nel tempo. Grazie allo stato quantico i fisici calcolano le probabilità di qualsiasi esito sperimentale in qualsiasi istante. Se facciamo passare un elettrone in un apparecchio da cui verrà deviato in alto o in basso, la meccanica quantistica potrebbe non dirci con certezza quale sarà l'esito. Lo stato quantico può darci solo le probabilità dei vari esiti. Due sistemi descritti da stati quantici identici possono evolvere diversamente. L'esito degli esperimenti è probabilistico. Le previsioni probabilistiche della teoria richiedono che il tempo abbia certe caratteristiche. Un dado non può mostrare sulla stessa faccia allo stesso tempo 5 e 3, può farlo solo in momenti diversi. Collegato a questa proprietà c'è il fatto che le probabilità /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6=8! di avere come risultato ognuno dei sei numeri devono avere come somma il 100 per cento, altrimenti il concetto di probabilità non avrebbe senso. Le probabilità si sommano rispetto a uno stesso istante, non rispetto a uno stesso luogo. E questo è vero anche per le probabilità di una data posizione o una data quantità di moto per le particelle quantistiche. Inoltre, l’ordine temporale delle misurazioni quantistiche è essenziale. Supponiamo di far passare un elettrone in un apparecchio che prima lo deflette lungo la direzione verticale e poi lungo quella orizzontale. Quando riemerge, ne misuriamo il momento angolare. Ripetiamo l'esperimento, questa volta deflettendo l'elettrone prima orizzontalmente e poi verticalmente. I valori ottenuti saranno molto diversi. Infine, uno stato quantico fornisce probabilità per tutto lo spazio in un dato istante. Se lo stato riguarda una coppia di particelle, una misurazione istantanea di una della particelle ha effetto sull'altra indipendentemente da dove si trovi, che porta alla inquietante azione a distanza (entanglement) che tanto infastidiva Einstein perché se le particelle reagiscono simultaneamente allora l'universo deve avere un orologio globale, proibito esplicitamente dalla relatività. Alcune questioni sono controverse, ma il tempo nella meccanica quantistica è un ritorno al tempo nella meccanica newtoniana. I fisici sono turbati dall'assenza del tempo nella relatività, forse però il ruolo centrale del tempo nella meccanica quantistica è un problema peggiore, ed è il motivo per cui l’unificazione è tanto difficile. Numerose aree di ricerca hanno provato a riconciliare relatività generale e meccanica quantistica, come la teoria delle stringhe e la gravità quantistica a loop (che esamineremo nel capitolo 18 “La fisica del futuro”). In linea di massima, i fisici si dividono in due gruppi. I fisici che ritengono che la meccanica quantistica fornisca le basi più solide e partono da un tempo allo stato puro. Quelli che credono che il miglior punto di partenza sia la relatività generale in cui il tempo è già declassato, perciò sono più aperti all'idea di una realtà senza tempo. In verità la distinzione tra questi due approcci è sfumata. Per rendere l'idea dei problemi posti dal tempo riferiamoci alla teoria della gravità quantistica a loop. La gravità quantistica canonica è stata sviluppata negli anni cinquanta e sessanta, quando i fisici hanno riscritto le equazioni di Einstein per la gravità nella stessa forma delle equazioni per l'elettromagnetismo, pensando di applicare alla gravità le stesse idee usate per sviluppare una teoria quantistica dell'elettromagnetismo. Alla fine degli anni sessanta Wheeler e DeWitt hanno messo in pratica questa procedura, ottenendo un risultato molto strano. Nell'equazione (chiamata equazione di Wheeler-DeWitt) mancava la variabile temporale. Per lungo tempo i fisici sono rimasti disorientati. Come era possibile che il tempo sparisse? A pensarci bene, il risultato non era sorprendente. Come già accennato, il tempo era quasi scomparso dalla relatività generale prima che i fisici cercassero di unire la relatività con la meccanica quantistica. Se si prende alla lettera il risultato, il tempo non esiste, e i fisici Carlo Rovelli (1956) e Julian Barbour (1937), i più illustri sostenitori di questa idea, hanno cercato di riscrivere la meccanica quantistica facendo a meno del tempo. Rovelli e Barbour ritengono che questa impresa sia possibile perché, sebbene la relatività generale sia priva di un tempo globale, riesce a descrivere il cambiamento correlando i sistemi fisici tra loro invece che a un'idea astratta di tempo globale. Negli esperimenti mentali di Einstein gli osservatori determinano i tempi degli eventi confrontando i rispettivi orologi usando segnali luminosi. Possiamo, per esempio, descrivere le variazioni nella posizione di un satellite in orbita attorno alla Terra in termini di ticchettii di un orologio o viceversa. Quello che stiamo facendo è descrivere le 6=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! correlazioni tra due oggetti senza usare un tempo globale come intermediario. Invece di dire che una pallina accelera di 10 m/s2, possiamo descriverla in termini del mutamento di un ghiacciaio. Il tempo diventa ridondante e il cambiamento può essere descritto senza tempo. Questa enorme rete di correlazioni è organizzata in modo ordinato, quindi possiamo definire qualcosa chiamato “tempo” e riferire tutto a esso, senza tenere traccia di tutte le relazioni dirette. I fisici sono in grado di sintetizzare il funzionamento dell'universo in termini di leggi fisiche che si svolgono nel tempo. Ma questa comodità non deve ingannarci, facendoci pensare che il tempo sia un componente fondamentale della struttura dell'universo. Anche il denaro rende la vita molto più semplice rispetto ai baratti, ma è un'etichetta inventata che assegniamo alle cose a cui attribuiamo un valore, non qualcosa che per noi ha un valore di per sé. Analogamente, il tempo permette di correlare sistemi fisici tra loro senza dover calcolare il rapporto tra un ghiacciaio e una pallina. Ma anche il tempo è un'invenzione comoda, e non esiste in natura più di quanta esista il denaro. Sbarazzarsi del tempo ha il suo fascino, ma comporta numerosi danni collaterali. Innanzitutto richiede un ripensamento completo della meccanica quantistica. Consideriamo il famoso caso del gatto di Schrodinger. Il gatto è sospeso tra la vita e la morte: il suo destino dipende dallo stato di una particella quantistica. In genere si dice che il gatto è morto o vivo in funzione del risultato di una misurazione o di un processo equivalente. Rovelli invece direbbe che lo stato del gatto non si risolve mai. L’animale può essere morto rispetto a se stesso, vivo rispetto a un essere umano che si trova nella stanza, morto rispetto a un secondo essere umano fuori dalla stanza e così via. Una cosa è che il momento della morte del gatto dipenda dall'osservatore, come dice la relatività ristretta; un'altra, ancora più sorprendente, è che il suo verificarsi o meno sia relativo, come suggerisce Rovelli, seguendo lo spirito della relatività. Dato che il tempo è fondamentale, bandirlo trasformerebbe il modo in cui i fisici vedono il mondo. Il mondo è privo di tempo, e tuttavia sembra che il tempo faccia parte del mondo. Spiegare perché il mondo sembra temporale è una questione pressante per chiunque abbracci la gravità quantistica priva di tempo. Anche la relatività generale è priva di un tempo newtoniano, ma almeno ha vari sostituti parziali che, presi insieme, si comportano come il tempo newtoniano quando la gravità è debole e le velocità relative sono basse. L'equazione di Wheeler-DeWitt è priva anche di questi sostituti. Barbour e Rovelli hanno proposto idee sul modo in cui il tempo (o almeno l'illusione del tempo) possa comparire dal nulla. Ma la gravità quantistica canonica già offre un'idea più sviluppata. Noto come tempo semiclassico, risale a un articolo del 1931 del fisico britannico Nevill F. Mott (1905-1996) in cui era descritta la collisione tra un nucleo di elio e un atomo più grande. Per ottenere un modello del sistema, Mott aveva applicato un'equazione in cui non compare il tempo, e che di solito si applica solo a sistemi statici. Poi aveva diviso il sistema in due sottosistemi e aveva usato il nucleo di elio come “orologio” per l'atomo. Il risultato notevole è che l'atomo obbedisce, rispetto al nucleo, alle equazioni della meccanica quantistica dipendenti dal tempo. Una funzione dello spazio svolge il ruolo del tempo. Così, anche se il sistema nel suo complesso è privo di tempo, le singole parti non lo sono. Nell'equazione priva del tempo relativa al sistema totale è nascosto un tempo per sottosistema. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6=:! Qualcosa di simile funziona per la gravità quantistica. L'universo può essere privo di tempo, ma se lo dividiamo in varie parti alcune possono fare da orologio per le altre. Il tempo emerge dall'assenza di tempo, percepiamo il tempo perché la nostra natura è di essere una di quelle parti. Per quanto questa idea sia interessante e sbalorditiva, vogliamo ancora di più. L'universo non può essere sempre diviso in pezzi che facciano da orologi e, in questi casi la teoria non fa previsioni probabilistiche. Per affrontare queste situazioni servirà una teoria quantistica completa della gravità e un profondo ripensamento del tempo. Dal punto di vista storico, i fisici sono partiti dal tempo altamente strutturato dell'esperienza, il tempo con un passato fisso, un presente e un futuro aperto. Hanno gradualmente smantellato questa struttura, di cui rimane poco o nulla. Ora devono invertire questo procedimento e ricostruire il tempo dell'esperienza a partire dal tempo della fisica non fondamentale, che a sua volta deve essere ricostruito a partire da una rete di correlazioni tra le parti di un mondo statico fondamentale. Il filosofo francese Maurice Merleau-Ponty (1908-1961) ha affermato che il tempo in realtà non scorre di per sé, e che il suo scorrere apparente è un risultato del fatto che “poniamo surrettiziamente nel fiume un testimone del suo corso”. Quindi la tendenza a credere che il tempo scorra è dovuta al fatto che dimentichiamo di inserire nella rappresentazione noi stessi e i nostri collegamenti con il mondo. Merleau-Ponty parlava della nostra esperienza soggettiva del tempo, e fino a poco tempo fa nessuno avrebbe immaginato che lo stesso tempo oggettivo si potesse spiegare come risultato di questi collegamenti. Forse il tempo esiste solo dividendo il mondo in sottosistemi ed esaminando che cosa li tiene insieme. In questa rappresentazione il tempo fisico emerge perché ci consideriamo separati da ogni altra cosa. 64<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! !"#$%&'&()*! I grandi spiriti hanno sempre incontrato violenta opposizione da parte delle menti mediocri. Einstein !&)-,4,-)(1!%&!#-#*%&0-+/-&1-# 2!"%0%2!*7-#'-""(#)-%,!(# '-!#6/(&)!# 13.1 L’importanza delle diverse formulazioni di una stessa teoria scientifica Le formulazioni di Schrodinger e Heisenberg della meccanica quantistica sono profondamente diverse tra loro, ma entrambe forniscono le stesse soluzioni quando vengono applicate ai medesimi problemi. Le due teorie che sembravano così diverse per forma e contenuto, l’una impiegando equazioni d’onda e l’altra algebra matriciale, l’una descrivendo onde e l’altra particelle, sono però matematicamente equivalenti. Questo fatto apre un’interessante discussione sull’importanza delle varietà di formulazione delle teorie scientifiche. Che si possano avere diverse formulazioni di una stessa teoria è un dato di fatto. Infatti, oltre a quello in questione, la storia della fisica ci offre molti esempi: basti pensare ai formalismi lagrangiano o hamiltoniano per la meccanica classica, o alle diverse versioni dell'elettrodinamica quantistica. Riflettendo su questo fatto Feynman, nel ripercorrere i passi che l'avevano portato alla sua formulazione dell'elettrodinamica quantistica, osservava: “Mi è sempre parso strano che le leggi fondamentali della fisica, quando vengono scoperte, possano apparire in tante forme diverse che non sembrano inizialmente le stesse, ma che poi, con un pò di manipolazione matematica, se ne possa mostrare la relazione. (…) C’è sempre un altro modo di dire la stessa cosa che non assomiglia affatto al modo in cui è stata detta prima”. La domanda è se ci sia una ragione non banale per cui una stessa teoria possa essere formulata in modi diversi o, in altri termini, se questa versatilità di descrizione corrisponda a una particolare caratteristica della teoria. Per Feynman, perchè siano possibili più formulazioni rimane un mistero. Ma questa possibilità, allo stesso tempo, è da lui vista come “una /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 64;! rappresentazione della semplicità della natura”. “Una cosa è semplice se ne possiamo dare una descrizione completa in vari modi senza essere immediatamente consapevoli che si sta descrivendo la stessa cosa”. Nonostante l’interessante contributo di Feynman, nel mondo della filosofia della scienza il dibattito è ancora aperto sul significato e la validità della semplicità come caratteristica essenziale e peculiare di una teoria scientifica. Ma c’è anche un altro aspetto che bisogna sottolineare riguardo alla molteplicità descrittiva nella fisica. Quanto è importante, per una teoria scientifica, il modo in cui è formulata? Quanto, in altre parole, questo modo influisce anche su quello che, con quella teoria, si vuole dire sull’ambito fisico considerato? Inoltre, al di là dell’evidente possibilità di descrivere la teoria in modi diversi, queste formulazioni dicono davvero la stessa cosa, o dicono anche, l’una, qualcosa che l’altra non dice? E, infine, quanto il successo di una teoria può dipendere dalla formulazione scelta? Il rapporto tra ciò che si vuole esprimere e il modo in cui lo si esprime, nel caso delle teorie scientifiche assume particolare rilevanza e connotati specifici. Da una parte c’è il collegamento naturale con la questione posta dall’esigenza di raggiungere la massima chiarezza e assenza di ambiguità nell’esposizione delle teorie; dall’altra parte c’è il fatto storico delle molteplici formulazioni teoriche, che a volte sono solo parzialmente intertraducibili o addirittura alternative. È quanto avviene, per esempio, nel caso delle descrizioni dell’elettrodinamica classica ottenute, rispettivamente, nei termini di campi o dell’azione a distanza tra cariche. Una molteplicità di formulazioni, come insegna bene la storia della fisica, è sia indice della ricchezza del campo d’indagine sia componente essenziale del progresso scientifico. La ricchezza di approcci e formulazioni è quindi preziosa, e la lezione da trarre è di perseguirla il più possibile. Come già indicava Feynman, non bisogna mai seguire una sola via, magari quella più di moda che può sembrare di maggior successo, perché l’approccio vincente potrebbe trovarsi in un’altra direzione. 13.2 Oltre il linguaggio L’idea che le teorie e i modelli scientifici siano tutti approssimati e che le loro interpretazioni verbali risentano sempre delle imprecisioni del nostro linguaggio era già comunemente accettata dagli scienziati dell’inizio del XX secolo, quando, con l’elaborazione della teoria dei quanti, si verificò uno sviluppo nuovo e del tutto inatteso. Lo studio del mondo degli atomi costrinse i fisici a rendersi conto che il linguaggio comune è non solo impreciso, ma assolutamente inadeguato a descrivere la realtà atomica e subatomica. Da un punto di vista filosofico, questo è senz’altro lo sviluppo più interessante della fisica moderna. A questo proposito Heisenberg scrive: “Il problema più difficile … concernente l’uso del linguaggio sorge nella teoria dei quanti. In essa non abbiamo al principio la benché minima indicazione che ci aiuti a mettere in rapporto i simboli matematici con i concetti del linguaggio ordinario. L’unica cosa che sappiamo fin dall’inizio è che i nostri concetti comuni non possono essere applicati alla struttura degli atomi”. Per secoli gli scienziati sono andati alla ricerca delle leggi fondamentali della natura soggiacenti alla grande varietà dei fenomeni naturali. Questi fenomeni facevano parte dell’ambiente macroscopico degli scienziati e quindi erano direttamente 64=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! accessibili alla loro esperienza sensoriale. Le immagini e i concetti intellettuali del linguaggio che essi usavano, dato che erano stati tratti da questa stessa esperienza mediante un processo di astrazione, risultavano sufficienti e adeguati per descrivere i fenomeni naturali. Nella fisica classica, le domande sulla natura essenziale delle cose trovavano risposta nel modello meccanicistico newtoniano dell'universo il quale, in modo molto simile al modello di Democrito nell'antica Grecia, riduceva tutti i fenomeni al moto e all'interazione di atomi duri e indistruttibili. Le proprietà di questi atomi furono ricavate dalla nozione macroscopica di palle da biliardo e quindi dall'esperienza sensoriale diretta. Non ci si chiedeva se questa nozione si potesse effettivamente applicare al mondo atomico. In realtà, questo fatto non poteva essere indagato sperimentalmente. Nel Novecento, tuttavia, i fisici furono in grado di affrontare sperimentalmente il problema della natura intima della materia. Con l'aiuto di una tecnologia raffinata, essi riuscirono a esplorare la natura sempre più in profondità, scoprendo uno dopo l'altro i vari strati della materia, alla ricerca dei suoi mattoni elementari. I delicati e complessi strumenti della fisica sperimentale moderna penetrano in profondità nel mondo submicroscopico, rivelando aspetti della natura del tutto estranei al nostro ambiente macroscopico e rendono quel mondo accessibile ai nostri sensi, ma ciò che noi “vediamo” o “sentiamo” non è mai direttamente il fenomeno che abbiamo indagato, ma sempre soltanto qualcuna delle sue conseguenze. Il mondo atomico e subatomico sta al di là delle nostre percezioni sensoriali. Con l'aiuto delle moderne apparecchiature siamo dunque in grado di osservare in maniera indiretta le proprietà degli atomi e dei loro costituenti, e quindi, sia pure limitatamente, di esperire il mondo subatomico Non si tratta, tuttavia, di un'esperienza ordinaria, confrontabile con quella dei nostro ambiente quotidiano. A questo livello, la conoscenza della materia non è più ricavabile dall'esperienza sensoriale diretta e perciò il nostro linguaggio ordinario, che trae le sue immagini dai mondo dei sensi, non è più adeguato a descrivere i fenomeni osservati. A mano a mano che penetriamo più profondamente nella natura, siamo costretti via via ad abbandonare le immagini e i concetti dei linguaggio ordinario. Esplorando l'interno dell'atomo e studiandone la struttura, la scienza oltrepassò i limiti della nostra immaginazione sensoriale. Da questo punto in poi, essa non poteva più affidarsi con assoluta certezza alla logica e al senso comune. La fisica atomica consentì agli scienziati di dare un primo rapido sguardo nella natura essenziale delle cose. Come i mistici, i fisici ora avevano a che fare con un'esperienza non sensoriale della realtà e, come quelli, dovevano affrontare gli aspetti paradossali di questa esperienza. Da quel momento in avanti, quindi, i modelli e le immagini della fisica moderna divennero simili a quelli della filosofia orientale. 13.3 Paradosso di Einstein-Podolsky-Rosen (EPR) Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento ideale che dimostra come una misura eseguita su una parte di un sistema quantistico può propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema quantistico, indipendentemente /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 644! dalla distanza che separa le due parti. Questo effetto è noto come "azione istantanea a distanza" ed è incompatibile con il postulato alla base della relatività ristretta, che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione. Einstein, Podolsky e Rosen proposero questo esperimento ideale in un articolo pubblicato nel 1935 intitolato La descrizione quantistica della realtà fisica può ritenersi completa?, con l’intento di dimostrare che la meccanica quantistica non è una teoria fisica completa, perché in contrasto con il principio di località che afferma che processi fisici che avvengono in un posto non possono avere effetto immediato su elementi fisici di realtà in un altro luogo, separato dal primo. Questo articolo, non solo mise in agitazione il mondo dei fisici in quanto voleva dimostrare che la meccanica quantistica è una manifestazione incompleta di una teoria più profonda nella quale è possibile una descrizione in termini di realtà oggettiva, ma acquistò una grandissima importanza anche nella discussione filosofica. Ma come possiamo scoprire se una teoria è completa oppure no? I tre autori suggerirono che dobbiamo osservare la realtà fisica. Einstein era un realista, per lui l’esistenza di una realtà là fuori, indipendente da noi e indipendente dal fatto che la stiamo o meno osservando, era un dogma irrinunciabile. Nell’articolo pubblicato, EPR cominciavano distinguendo tra la realtà qual è e la concezione che ne ha il fisico. “Ogni serio esame di una teoria fisica presuppone la distinzione fra la realtà obiettiva, che è indipendente da qualsiasi teoria, e i concetti fisici con cui la teoria stessa opera. Questi concetti si presuppone corrispondano alla realtà obiettiva, e con essi noi ci rappresentiamo quella realtà”. Nella valutazione del successo di una qualsiasi particolare teoria fisica, sostenevano EPR, si doveva rispondere con un inequivocabile “Si” a due domande: “La teoria è completa?” e “La descrizione fornita dalla teoria è completa?”. “La correttezza della teoria è giudicata in base al grado di accordo fra le sue conclusioni e l’esperienza umana” argomentavano EPR. Era un’affermazione che ogni fisico avrebbe accettato, in quanto l’esperienza in fisica assume la forma di esperimenti e misure. Fino a quel momento non era emerso alcun conflitto fra gli esperimenti effettuati e le predizioni teoriche della meccanica quantistica. Sembrava che questa fosse una teoria corretta. Ma per Einstein non era sufficiente che una teoria fosse corretta, in accordo con gli esperimenti; occorreva che fosse anche completa. Quale che fosse il significato da attribuire al termine “completo”, EPR imponevano una condizione necessaria per la completezza di una teoria fisica: “ciascun elemento della realtà fisica deve avere una controparte nella teoria fisica”. Questo criterio di completezza implicava che EPR, se dovevano portare a termine la loro argomentazione, definissero un cosiddetto “elemento di realtà”. Einstein non voleva impantanarsi nelle sabbie mobili delle disquisizioni filosofiche nel tentativo di definire la “realtà”. Evitando una definizione esauriente di realtà in quanto non necessaria per i loro scopi, EPR adottarono un criterio che giudicavano “sufficiente” e “ragionevole” per individuare un “elemento di realtà”: “Se si è in grado di prevedere con certezza (cioè con probabilità uguale a uno) il valore di una grandezza fisica senza perturbare in alcun modo un sistema, allora esiste un elemento di realtà fisica corrispondente a questa grandezza fisica”. Consideriamo, ad esempio, la posizione e la quantità di moto di un elettrone. Se si sa come determinare l’una o l’altra proprietà senza alterare in alcun modo il percorso o il comportamento successivo dell’elettrone, si ha il diritto di affermare che la posizione, o la quantità di moto, dell’elettrone è un fatto certo, un dato innegabile. In poche parole, un elemento della realtà fisica. 645! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Einstein voleva confutare la tesi di Bohr che la meccanica quantistica fosse una teoria completa e fondamentale della natura, dimostrando che c’erano oggettivi “elementi della realtà” che la teoria non coglieva, spostando così il centro del dibattito dalla coerenza interna della meccanica quantistica alla natura della realtà e al ruolo della teoria. EPR affermavano che perché una teoria fosse completa doveva esserci una corrispondenza uno a uno tra un elemento della teoria e un elemento della realtà. Una condizione sufficiente per la realtà di una grandezza fisica, quale una quantità di moto, è la possibilità di predirne il valore con certezza senza perturbare il sistema. Se esisteva un elemento di realtà fisica di cui la teoria non rendeva conto, la teoria era incompleta. Secondo il principio di indeterminazione, una misura che fornisca un valore esatto per la quantità di moto di un oggetto microfisico esclude la possibilità stessa di una misura simultanea della sua posizione. La domanda cui Einstein voleva dare risposta era: l’incapacità di misurarne in modo diretto la posizione esatta significa che l’elettrone non ha una posizione definita? La risposta di Bohr era che in assenza di una misurazione che ne determini la posizione, l’elettrone non ha una posizione. EPR si proponevano di dimostrare che ci sono elementi della realtà fisica, come il fatto che un elettrone abbia una posizione definita, che non possono trovare posto nella meccanica quantistica, la quale è pertanto incompleta. Per dare sostegno alla loro argomentazione EPR tentarono un esperimento mentale. Nell’esperimento concettuale EPR si immaginava una coppia di particelle in cui il problema consisteva nella misurazione della posizione e del momento: dalla misurazione della posizione di una particella si poteva ricavare esattamente la posizione dell’altra e, analogamente, dalla misurazione del momento della prima particella si poteva ricavare esattamente il momento della seconda. Questi tipi di sistemi quantistici composti da due o più particelle, legate tra loro in maniera particolare, sono detti sistemi entangled. L'entanglement quantistico o correlazione quantistica è un fenomeno quantistico, privo di analogo classico, in cui ogni stato quantico di un insieme di due o più sistemi fisici dipende dagli stati di ciascuno dei sistemi che compongono l'insieme, anche se questi sistemi sono separati spazialmente. Per esempio, è possibile realizzare un sistema costituito da due particelle il cui stato quantico sia tale che – qualunque sia il valore di una certa proprietà osservabile assunto da una delle due particelle – il corrispondente valore assunto dall'altra particella sarà opposto al primo, nonostante i postulati della meccanica quantistica, secondo cui predire il risultato di queste misure sia impossibile. Di conseguenza in presenza di entanglement la misura effettuata su un sistema sembra influenzare istantaneamente lo stato di un altro sistema: in realtà, è facile mostrare che la misurazione non c'entra niente; quanto detto ha significato solamente in relazione al risultato della misurazione, non all'atto del misurare. Esiste un teorema (teorema di no-signalling quantistico) che sancisce l'impossibilità di trasmettere, tramite questa proprietà, informazione ad una velocità superiore a quella della luce. Per meglio dire, non è possibile sfruttare affatto questa proprietà per nessun tipo di trasmissione, proprio perché è impossibile determinare l'esito di una misura tramite l'atto del misurare. Adesso andiamo a descrivere l’esperimento EPR più da vicino, e vediamo come la non località in meccanica quantistica si manifesta in maniera particolarmente spettacolare. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 646! Due particelle, A e B, interagiscono brevemente e poi si allontanano in direzioni opposte. Il principio di indeterminazione vieta la misura esatta, in un qualsiasi istante dato, della posizione e della quantità di moto di ciascuna delle due particelle. Tuttavia consente una misurazione esatta e simultanea della quantità di moto totale delle due particelle, A e B, e della loro distanza relativa. Il punto essenziale dell’esperimento mentale di EPR consiste nel lasciare indisturbata la particella B evitandone qualsiasi osservazione diretta. Anche se A e B sono lontane anni luce l'una dall'altra, nulla nella struttura matematica della meccanica quantistica proibisce una misurazione della quantità di moto di A, che fornisce informazioni sulla quantità di moto esatta di B senza che B venga con ciò perturbata. Quando la quantità di moto della particella A viene misurata con esattezza, tale operazione consente di determinare con precisione in modo indiretto ma simultaneamente, tramite il relativo principio di conservazione, la quantità di moto di B. Pertanto secondo il criterio di realtà di EPR, la quantità di moto di B deve essere un elemento della realtà fisica. In modo analogo, misurando la posizione esatta di A, è possibile dedurre la posizione di B senza misurarla direttamente, dato che la distanza fisica che separa A e B è nota. Quindi, secondo EPR, anch’essa deve essere un elemento della realtà fisica. Sembrava che EPR avessero escogitato un modo per stabilire con certezza i valori esatti o della quantità di moto o della posizione di B grazie a misurazioni effettuate sulla particella A, senza la minima possibilità che la particella B venisse fisicamente perturbata. Sulla base del loro criterio di realtà, EPR sostenevano di aver così provato che sia la quantità di moto sia la posizione della particella B sono «elementi di realtà», e che B può avere simultaneamente valori esatti della posizione e della quantità di moto. Siccome la meccanica quantistica, tramite il principio di indeterminazione, esclude qualunque possibilità che una particella possegga simultaneamente entrambe queste proprietà, tali «elementi di realtà» non hanno controparti nella teoria. Perciò la descrizione quantomeccanica della realtà fisica, concludevano EPR, è incompleta. L'esperimento mentale di Einstein non mirava a misurare simultaneamente la posizione e la quantità di moto della particella B. Einstein infatti ammetteva che fosse impossibile misurare l'una o l'altra di queste proprietà di una particella in modo diretto senza causare una perturbazione fisica irriducibile. L'esperimento mentale delle due particelle era costruito invece per mostrare che tali proprietà potevano avere un'esistenza definita simultanea, che sia la posizione sia la quantità di moto di una particella sono «elementi di realtà». Se queste proprietà della particella B possono essere determinate senza che B venga osservata (misurata), allora queste proprietà di B devono esistere come elementi di realtà fisica indipendentemente dal fatto di essere osservate (misurate). La particella B ha una posizione che è reale e una quantità di moto che è reale. EPR erano consapevoli della possibile controargomentazione secondo cui «due o più grandezze fisiche si possono considerare elementi simultanei di realtà solo quando 647! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! le si può misurare o prevedere simultaneamente». Questo però faceva dipendere la realtà della quantità di moto e della posizione della particella B dal procedimento di misura condotto sulla particella A, che poteva essere ad anni luce di distanza e non perturbava in alcun modo la particella B. “Nessuna definizione accettabile di realtà potrebbe consentire ciò” concludevano EPR. Al centro dell’argomentazione EPR c’era il presupposto di Einstein della località, l'idea cioè che non esista alcuna misteriosa azione a distanza istantanea, che con ironia chiamava “spettrale azione a distanza”. La località escludeva la possibilità che un evento in una certa regione dello spazio influenzasse istantaneamente, con una velocità superiore a quella della luce un altro evento che si svolgeva altrove. Per Einstein la velocità della luce era il limite invalicabile imposto dalla natura alla rapidità con cui qualsiasi cosa può muoversi da un luogo all'altro. Per lo scopritore della relatività era inconcepibile che una misurazione effettuata sulla particella A influenzasse istantaneamente, a una certa distanza, gli elementi indipendenti di realtà fisicà posseduti da una particella B. Appena l’articolo EPR fu pubblicato, l’allarme si diffuse tra i principali pionieri quantistici di tutta Europa, ed ancora una volta spettò a Bohr di arginare e respingere l’attacco alla completezza della meccanica quantistica sferrato da Einstein. Ricorrendo ad una tattica di discussione che aveva una storia lunga e illustre, iniziò la sua difesa dell’interpretazione della meccanica quantistica (la cosiddetta interpretazione di Copenaghen) semplicemente respingendo la componente principale dell’argomento di Einstein in favore dell’incompletezza: il criterio di realtà fisica. Bohr credeva di aver individuato un punto debole nella definizione di EPR: la necessità di condurre una misurazione senza perturbare in alcun modo un sistema. Il fisico danese sperava di sfruttare quella che descriveva come una “sostanziale ambiguità” del criterio di realtà “quando viene applicato ai fenomeni quantistici”, ma questo richiedeva una dolorosa rinuncia, e cioè che l’atto di misurazione produceva un’inevitabile perturbazione fisica. Invece, ora Bohr metteva l’accento sul fatto che qualunque oggetto microfisico sottoposto a misurazione e l'apparecchiatura che effettuava la misura formavano un tutto indivisibile: il «fenomeno». Bohr non obiettava che EPR predicessero i risultati di possibili misurazioni della particella B basandosi sulla conoscenza acquisita misurando la particella A. Una volta che è stata misurata la quantità di moto della particella A, è possibile predire con precisione ii risultato di un'analoga misurazione della quantità di moto della particella B come indicato da EPR. Ma Bohr sosteneva che ciò non significa che la quantità di moto sia un elemento indipendente della realtà di B. Soltanto quando viene compiuta un'«effettiva» misurazione della quantità di moto su B si può dire che questa particella possiede tale grandezza. La quantità di moto di una particella diventa “reale” solamente quando interagisce con un dispositivo progettato per misurare tale grandezza. Una particella non esiste in un qualche stato sconosciuto ma «reale» prima di un atto di misurazione. In assenza della misurazione volta a determinare o la posizione o la quantità di moto di una particella, secondo Bohr era privo di significato asserire che essa possieda effettivamente l'una o l'altra. Per Bohr il ruolo del dispositivo di misura era cruciale nella definizione degli elementi di realtà di EPR. Così, una volta che un fisico ha predisposto l'apparecchiatura per misurare la posizione esatta della particella A, dalla quale si può calcolare con certezza la posizione della particella B, ciò esclude la possibilità di misurare la quantità di moto di A e quindi di dedurne la quantità di moto di B. Se, come Bohr concedeva a EPR, non c’è nessuna perturbazione /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 648! fisica diretta della particella B, allora i suoi “elementi di realtà fisica” devono essere definiti dalla natura del dispositivo di misura e della misurazione effettuata su A. Per EPR, se la quantità di moto di B è un elemento di realtà, una misura di quantità di moto effettuata sulla particella A non può influenzare B. Consente semplicemente il calcolo della quantità di moto che la particella B possiede indipendentemente da qualsiasi misurazione. Il criterio di realtà di EPR presume che, se le particelle A e B non esercitano forze fisiche l'una sull'altra, qualunque cosa accada all'una non può «perturbare» l'altra. Invece, secondo Bohr, poichè A e B in passato avevano interagito prima di separarsi, erano per sempre connesse (entangled) come parti di un unico sistema e non potevano essere trattate individualmente come due particelle isolate. Perciò, sottoporre A a una misurazione della quantità di moto era praticamente identico a effettuare una misurazione diretta su B, che l'avrebbe portata istantaneamente a possedere una ben definita quantità di moto. Bohr conveniva che non c'era alcuna perturbazione “meccanica» della particella B dovuta a un'osservazione della particella A. Come EPR, anche lui escludeva la possibilità di una qualsiasi forza fisica, repulsiva o attrattiva, che agisse a distanza. Tuttavia, se la realtà della posizione o della quantità di moto della particella B è determinata da misurazioni eseguite sulla particella A, sembra che vi sia una qualche «influenza» istantanea a distanza. Questo viola il criterio di località, secondo il quale ciò che accade ad A non può influenzare istantaneamente B, e quello di separabilità, per cui A e B esistono l'una indipendentemente dall'altra. Entrambi i concetti stanno al cuore dell'argomentazione EPR e della concezione di Einstein di una realtà indipendente dall'osservatore. Viceversa Bohr riteneva che una misurazione della particella A in qualche modo «influenzi» istantaneamente la particella B, per cui ne deriva che EPR non possono essere autorizzati a concludere che la meccanica quantistica sia incompleta. Il dibattito sull'interpretazione della meccanica quantistica tra Bohr ed Einstein era riconducibile alle loro diverse convinzioni filosofiche in merito allo status della realtà. Esisteva? Bohr credeva che la meccanica quantistica fosse una teoria fondamentale completa della natura e su questa base costruiva la sua concezione filosofica del mondo che lo portava ad affermare: “Non esiste un mondo quantistico. Esiste soltanto un’astratta descrizione quantomeccanica. È sbagliato pensare che compito della fisica sia scoprire com'è fatta la natura. La fisica ha per oggetto ciò che possiamo dire sulla natura”. Affermazione non tanto lontana da quella di Wittgenstein nel Tractatus Logico-Philosophicus: “Su ciò di cui non si può parlare si deve tacere”. Einstein, d'altro canto, sceglieva l'opzione alternativa, basando la sua valutazione della meccanica quantistica sulla sua fede incrollabile nell'esistenza di una realtà causale e indipendente dall'osservatore. “Ciò che chiamiamo scienza” affermava Einstein «ha l'unico scopo di stabilire che cosa è.” Per Bohr veniva prima la teoria, poi la posizione filosofica, l'interpretazione costruita per dare un senso a ciò che la teoria diceva sulla realtà. Einstein sapeva che era pericoloso costruire una concezione filosofica del mondo sulle basi di una qualsiasi teoria scientifica. Se la teoria risulta carente alla luce di nuovi dati sperimentali, la posizione filosofica cui da sostegno crolla con essa. “È fondamentale per la fisica presupporre un mondo reale che esista indipendentemente da qualsiasi atto di percezione» diceva Einstein. “Ma di questo non abbiamo conoscenza”. 649! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 13.4 La disuguaglianza di Bell “Tu ritieni che Dio giochi a dadi con il mondo; io credo invece che tutto ubbidisca a una legge, in un mondo di realtà obiettive che cerco di cogliere per via furiosamente speculativa” scrisse Einstein a Born nel 1944. La maggior parte dei fisici era troppo impegnata a servirsi della meccanica quantistica, che continuava a segnare un successo dopo l’altro, per preoccuparsi delle sottigliezze scientifiche e filosofiche del dibattito tra Einstein e Bohr sul suo significato e la sua interpretazione; dibattito che verteva tanto sul tipo di fisica che era accettabile quanto sulla natura della realtà stessa. Tranne, però, John S. Bell (1928-1990) che aveva scoperto ciò che non era riuscito ad Einstein e Bohr: un teorema matematico in grado di decidere tra le loro opposte visioni del mondo, che per Bohr consisteva in un’astratta descrizione quantomeccanica, mentre Einstein credeva in una realtà indipendente dalla percezione. Ma andiamo per gradi. Nel 1932 John von Neumann (1903-1957) aveva scritto un libro dal titolo I fondamenti matematici della meccanica quantistica, in cui si chiedeva se la meccanica quantistica potesse essere formulata come teoria deterministica introducendo variabili nascoste, che, a differenza delle variabili ordinarie, sarebbero inaccessibili alla misura e quindi non soggette alle restrizioni imposte dal principio di indeterminazione. L’attrattiva delle variabili nascoste nella meccanica quantistica aveva le sue radici nella tesi di Einstein che la teoria fosse incompleta. Poteva darsi che l’incompletezza fosse dovuta al non essere riusciti a cogliere l’esistenza di uno strato sottostante della realtà. Questo strato inutilizzato sotto forma di variabili nascoste (magari particelle o forze nascoste, o qualcosa di completamente nuovo) avrebbe ripristinato una realtà oggettiva, indipendente. Fenomeni che a un certo livello apparivano probabilistici si sarebbero rivelati, grazie alle variabili nascoste, deterministici, e le particelle avrebbero così posseduto velocità e posizione definite in ogni istante. Von Neumann sosteneva che “l’attuale sistema della meccanica quantistica dovrebbe essere oggettivamente falso perché fosse possibile un’altra descrizione dei processi elementari distinta da quella statistica”. In altre parole la risposta era “No”, e ne veniva fornita una dimostrazione matematica che metteva fuori causa l’impostazione delle variabili nascoste. Dal momento che von Neumann era riconosciuto come uno dei massimi matematici di quel periodo, la maggior parte dei fisici si limitò a dare per scontato, senza preoccuparsi di verificarlo, che avesse messo al bando le variabili nascoste nella meccanica quantistica. Invece von Neumann ammetteva che rimaneva una possibilità, per quanto piccola, che la meccanica quantistica fosse sbagliata, cioè una teoria incompleta non in grado di dare conto di ciò che succede in natura. Eppure, a fronte delle affermazioni di cautela di von Neumann, la sua dimostrazione fu considerata indiscutibile. Praticamente tutti la fraintesero come prova che nessuna teoria a variabili nascoste potesse riprodurre i medesimi risultati sperimentali della meccanica quantistica. Sarebbe stato Bell a dimostrare che uno dei presupposti adottati da von Neumann era infondato e che quindi la sua prova di impossibilità era sbagliata. Cominciò considerando una versione dell’esperimento mentale EPR escogitata da David Bohm (1917-1992), che era più semplice di quella originale. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 64:! Supponiamo che due particelle, un elettrone ed un positone, di spin ½, vengano prodotte dal decadimento di una singola particella di spin zero in posizione centrale, e che le due particelle prodotte si allontanino velocemente da tale posizione in direzioni opposte. Per la conservazione del momento angolare, gli spin dell’elettrone e del positone devono dare come somma zero, poiché questo era il momento angolare della particella centrale iniziale. Questo fatto ha l’implicazione che, quando misuriamo lo spin dell’elettrone in una qualche direzione, qualsiasi direzione scegliamo il positone ruota ora nella direzione opposta. Le due particelle potrebbero trovarsi a qualunque distanza tra di loro, ma la scelta stessa di eseguire una misurazione su una particella sembra avere fissato istantaneamente l’asse di spin dell’altra. Questo fatto in sé stesso non deve sorprendere, perchè se le particelle divergono da un'origine comune ciascuna di esse avrà conservato un'impronta dell'incontro. Secondo Bohr, finchè non viene compiuta una misurazione , nessuno dei due elettroni ha uno spin preesistente in nessuna direzione. Prima che vengono osservati, gli elettroni esistono in una sovrapposizione di stati tale per cui sono spin-su e spin-giù allo stesso tempo. Poiché i due elettroni sono entangled, l’informazione relativa ai loro stati di spin è data da una funzione d’onda del tipo !=(A spin-su e B spin-giù)+(A spin-giù e B spin-su). È la misurazione che provoca il collasso della funzione d’onda e quindi che l’elettrone A assuma spin-su o spin-giù. Nello stesso momento, l’elettrone entangled B acquista lo spin opposto, anche se si trova dall’altra parte dell’universo. L’interpretazione di Bohr è non locale. Einstein avrebbe spiegato le correlazioni affermando che entrambi gli elettroni possiedono valori definiti dello spin quantistico, che vengano misurati o no. Einstein credeva in un realismo locale, cioè che una particella non può essere influenzata in modo istantaneo da un evento lontano e che le sue proprietà esistono indipendentemente da qualsiasi misurazione. Purtroppo, l’ingegnosa rielaborazione di Bohm dell’esperimento EPR non era in grado di distinguere tra le posizioni di Einstein e Bohr. Entrambi potevano giustificare i risultati dell’esperimento. Il colpo di genio di Bell fu scoprire un modo per uscire dal vicolo cieco cambiando l’orientamento relativo dei due rivelatori di spin, e quindi calcolare il grado esatto di correlazione degli spin previsto dalla meccanica quantistica per un dato orientamento dei rivelatori. Ma non era possibile effettuare un calcolo analogo usando una teoria a variabili nascoste che preservasse la località. L'unica cosa che una simile teoria avrebbe predetto era una corrispondenza tutt'altro che perfetta tra gli stati di spin di A e di B. Ciò non era sufficiente per decidere tra la meccanica quantistica e una teoria a variabili nascoste locale. Bell sapeva che qualsiasi esperimento reale che trovasse correlazioni tra gli spin in accordo con le predizioni della meccanica quantistica poteva facilmente essere contestato. Dopotutto, era possibile che in futuro qualcuno sviluppasse una teoria a variabili nascoste capace di predire anch'essa con esattezza le correlazioni di spin per differenti orientazioni dei rivelatori. A questo punto Bell fece una scoperta sorprendente. Era possibile decidere tra le predizioni della meccanica quantistica e quelle di qualunque teoria a variabili nascoste locale misurando le correlazioni di coppie di elettroni per una data disposizione del rivelatori di spin e poi ripetendo l'esperimento con una diversa orientazione. Ciò consentiva a Bell di calcolare la correlazione totale per entrambi gli insiemi di orientazioni in termini dei singoli risultati predetti da qualunque teoria a variabili nascoste locale. Poiché in qualunque 65<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! teoria del genere l’esito di una misurazione da parte di un rivelatore non può essere influenzato da ciò che viene misurato dall'altro, è possibile distinguere tra variabili nascoste e meccanica quantistica. Bell riuscì a calcolare i limiti del grado di correlazione degli spin tra coppie di elettroni entangled in un esperimento EPR modificato nel senso di Bohm. Trovò che nel dominio del quanto, se vale la meccanica quantistica, c’è un livello di correlazione maggiore che in qualsiasi mondo che dipenda da variabili nascoste e dalla località. Il teorema di Bell affermava che nessuna teoria a variabili nascoste locale poteva riprodurre il medesimo insieme di correlazioni della meccanica quantistica. Qualunque teoria a variabili nascoste locale avrebbe condotto a correlazioni di spin che generavano numeri, chiamati coefficienti di correlazione, comprese tra -2 e +2. Ma la meccanica quantistica aveva superato ogni controllo a cui era stata sottoposta, per cui non c’era alcun conflitto tra la teoria e l'esperimento. Per la grandissima maggioranza dei colleghi di Bell, la disputa tra Einstein e Bohr sulla corretta interpretazione della meccanica quantistica era di pertinenza della filosofia più che della fisica. Il teorema di Bell cambiò questo stato di cose, consentendo di scegliere su una base sperimentale tra l'idea di realtà locale sostenuta da Einstein, per cui il mondo quantistico esiste indipendentemente dall'osservazione e gli effetti fisici non possono propagarsi a velocità superiore a quella della luce, e l'interpretazione di Bohr sulla non esistenza di un mondo quantistico ma solo sulla possibilità di una sua astratta descrizione quantomeccanica. Bell aveva portato il dibattito Einstein-Bohr su un nuovo terreno, quello della filosofia sperimentale. Se la disuguaglianza di Bell fosse risultata valida, la tesi di Einstein che la meccanica quantistica fosse incompleta sarebbe stata giusta. Viceversa, se la disuguaglianza fosse stata violata, ne sarebbe uscito vincitore Bohr. Niente più esperimenti mentali: lo scontro tra Einstein e Bohr si era spostato in laboratorio. Passarono cinque anni prima che, nel 1969, Bell ricevesse una lettera da un giovane fisico John Clauser (1942), che gli spiegava come lui e altri avessero escogitato un esperimento per verificare la disuguaglianza. Invece di elettroni, Clauser nel suo esperimento, aveva usato coppie di fotoni correlati, più facile da produrre in laboratorio. Il cambiamento era possibile perchè i fotoni hanno una proprietà chiamata polarizzazione che ai fini della verifica svolgeva lo stesso ruolo dello spin quantistico. Sebbene questa sia una semplificazione, un fotone può essere considerato polarizzato «su» o «giù». Proprio come nel caso degli elettroni e dello spin, se si misura la polarizzazione di un fotone lungo la direzione x e questa risulta «su», allora quella dell'altro risulterà «giù», dal momento che la combinazione delle polarizzazioni dei due fotoni deve essere nulla. Dopo duecento ore di misurazioni si trovò che il livello delle correlazioni tra i fotoni violava la disuguaglianza di Bell. Era un risultato in favore di Bohr sull’interpretazione non locale della meccanica quantistica e contro la realtà locale sostenuta da Einstein. Ma c'erano serie riserve sulla validità del risultato. Come Clauser, Alain Aspect (1947), misurò la correlazione delle polarizzazioni di coppie di fotoni entangled che si muovevano in direzioni opposte dopo essere stati emessi simultaneamente dallo stesso atomo di calcio. Durato 8 anni e conclusosi nel 1982, l’esperimento ha rappresentato la realizzazione pratica dell’esperimento concettuale EPR ed è stato la prima applicazione rigorosa e irrefutabile del teorema di Bell. L’esperimento di Aspect mise in luce, per dirla con le sue parole, “la più rilevante /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 65;! violazione della disuguaglianza di Bell mai ottenuta, e un eccellente accordo con la meccanica quantistica”. Bell aveva dedotto la disuguaglianza da due soli presupposti. Primo, esiste una realtà indipendente dall'osservatore. Ciò si traduce nel fatto che una particella ha una ben definita proprietà come lo spin prima di essere sottoposta a misurazione. Secondo, è mantenuta la località. Non esiste alcuna interazione più veloce della luce, cosicchè ciò che accade qui non può in alcun modo influenzare istantaneamente ciò che accade laggiù. I risultati di Aspect significano che uno di questi presupposti deve essere abbandonato, ma quale? Bell era disposto a rinunciare alla località, perché diceva “uno vuole poter avere una visione realistica del mondo, poter parlare del mondo come se fosse veramente lì, anche quando non viene osservato”. Era convinto che la teoria quantistica fosse solo un espediente temporaneo destinato a essere alla fine sostituito da una teoria migliore; ma ammetteva che l’esperimento di Aspect aveva dimostrato che la visione del mondo di Einstein, l’esistenza di una realtà locale, non è sostenibile. La lezione impartita dagli esperimenti EPR è che i sistemi quantistici sono fondamentalmente non locali. In linea di principio, tutte le particelle che abbiano mai interagito appartengono a una singola funzione d'onda, una funzione d'onda globale contenente un formidabile numero di correlazioni. Si potrebbe anche prendere in considerazione (e alcuni fisici lo fanno) una funzione d'onda che descriva l'intero universo. In tale schema il destino di una data particella è inscindibilmente legato al destino del cosmo intero, non banalmente nel senso che essa può essere soggetta a forze generate dall'ambiente circostante, ma perchè la sua stessa realtà si intreccia con quella del resto dell'universo. Il paradosso EPR ha reso più profonda la comprensione della meccanica quantistica mettendo in evidenza le caratteristiche fondamentalmente non classiche del processo di misura. Prima della pubblicazione dell'articolo di EPR, una misura era abitualmente vista come un processo fisico di perturbazione inflitto direttamente al sistema sotto misura. Per esempio, se si fosse misurata la posizione di un elettrone, immaginiamoci illuminandolo con luce, cioè con un fiotto di fotoni, l'urto dei fotoni con l'elettrone, necessario per illuminarlo e "vedere" dov'è, avrebbe così disturbato lo stato quantomeccanico dell'elettrone, per esempio, modificandone la velocità, producendo così incertezza sulla velocità, esemplificando così l'indeterminazione quantomeccanica su posizione e velocità, grandezze meccaniche necessarie a determinare l'evoluzione dello stato meccanico. Tali spiegazioni, che ancora si incontrano in esposizioni non specialistiche, scolastiche e divulgative della meccanica quantistica, sono completamente demistificate dall'analisi di EPR, che mostra chiaramente come possa effettuarsi una misura su una particella senza disturbarla direttamente, eseguendo una misura su un'altra particella distante, ma entangled (intrecciata) con la prima. Sono state sviluppate e stanno progredendo tecnologie che si basano sull'entanglement quantistico (intreccio di stati quantistici). Nella crittografia quantistica, si usano particelle entangled per trasmettere segnali che non possono essere intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione quantistica, si usano stati quantistici intrecciati (entangled) per eseguire calcoli in parallelo, che permettono elaborazioni con velocità che non si possono raggiungere con i computer classici. 65=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Se i modelli a variabili nascoste locali hanno perso, e la teoria quantistica come è enunciata oggi sembra così solida, significa che torna in favore l'ipotesi di velocità maggiori della luce? Il problema può essere analizzato partendo da un ampliamento dell'interpretazione della fisica quantistica e del problema della misura. 13.5 Interpretazioni della meccanica quantistica Nel 1935 Schrodinger, per evidenziare le molte problematiche legate all'estrapolazione dei concetti dal mondo microscopico dei quanti al mondo reale, propose un famoso esperimento concettuale, subito definito il paradosso del gatto di Schrodinger. Un gatto viene messo in una stanza, completamente isolata dall'esterno, dove si trova un sofisticato congegno azionato da un evento puramente casuale, l'emissione spontanea di una particella da parte di una sostanza radioattiva. Per disgrazia del gatto, quando il nucleo radioattivo libera la particella, questa mette in movimento un sistema articolato in grado di rompere un recipiente contenente una dose letale di cianuro. Non ci sarebbe nulla di paradossale se la sorte del gatto fosse comunque oggettivamente definita. Invece la meccanica classica e la meccanica quantistica danno due risposte diverse nei riguardi dello stato di salute del gatto. In un determinato istante, da un punto di vista classico, l'animale o è completamente vivo o è completamente morto. Da un punto di vista quantistico, invece, i due stati potenzialmente coesistono. Poiché nell'istante considerato c'è una certa probabilità che la particella sia stata emessa e un'equivalente probabilità che nessuna particella sia andata ad azionare il diabolico meccanismo, il gatto, con l’intero contenuto della scatola, considerato come un unico sistema quantistico, si trova in una sovrapposizione di due stati, ossia in uno stato rappresentato da una simultanea combinazione di vita e di morte. In altri termini, fino a quando non viene osservato, il gatto è metà vivo e metà morto. L'atto della misura trasforma così la probabilità in una certezza selezionando un risultato specifico da una gamma di possibilità. Questa selezione produce un'improvvisa alterazione nella forma della funzione d'onda, chiamata “collasso della funzione d’onda”, la quale influisce in maniera drastica sulla sua successiva evoluzione. Lo stato quantico è, per così dire, ridotto dall’osservazione, ed è chiamato riduzione dello stato quantistico o anche problema della misura quantistica. Pertanto, quando eseguiamo una misura di un sistema quantistico la nostra conoscenza del sistema cambia, allora la funzione d’onda si modifica (collassa) per adattarsi a questo cambiamento. D’altra parte, l’evoluzione della funzione d’onda determina le relative probabilità dei risultati di misurazioni future, così che il collasso ha un effetto sul comportamento successivo del sistema. Un sistema quantistico evolve in maniera differente se si esegue una misura invece di lasciarlo indisturbato. In verità, lo stesso vale per un sistema classico, solo che in meccanica quantistica questo disturbo costituisce un aspetto fondamentale, inevitabile, irriducibile e inconoscibile, in meccanica classica è semplicemente una caratteristica accidentale che può essere ridotta a piacere. La misura quantistica è un /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 654! chiaro esempio di casualità verso il basso, perché qualcosa che è significativo ad un livello macroscopico produce un mutamento fondamentale nel comportamento di un’entità a livello microscopico. Il collasso della funzione d'onda è fonte di parecchia perplessità fra i fisici, per questo motivo. Fino a che un sistema quantistico non viene osservato, la sua funzione d'onda evolve in maniera deterministica, infatti obbedisce all’equazione di Schrodinger. D'altro canto, quando il sistema viene esaminato da un osservatore esterno, la funzione d'onda subisce un salto improvviso, in aperta violazione dell'equazione di Schrodinger. Il sistema è perciò in grado di mutare nel tempo in due modi completamente diversi: quando nessuno lo sta guardando e quando viceversa viene osservato. La conclusione alquanto mistica che l'osservare un sistema quantistico interferisce con il suo comportamento indusse von Neumann a costruire un modello matematico di un processo di misura quantistico. Egli prese in considerazione un sistema quantistico microscopico modello, ad esempio un elettrone, accoppiato a un certo apparato di misura, anch'esso trattato come un sistema quantistico. Il sistema complessivo, l'elettrone più l'apparato di misura, si comporta allora come un grande e integrato sistema quantistico chiuso, il quale soddisfa una superequazione di Schrodinger. Da un punto di vista matematico, il fatto che il sistema trattato come un tutto unico soddisfi tale equazione assicura che la funzione d'onda che rappresenta l'intero sistema deve comportarsi in maniera deterministica, qualunque cosa succeda alla parte della funzione d'onda che rappresenta l'elettrone. Era intenzione di von Neumann scoprire in che modo la dinamica quantistica del sistema complessivo producesse il brusco collasso della funzione d'onda dell'elettrone. Ciò che scoprì fu che il corretto accoppiamento dell'elettrone allo strumento di misura può effettivamente causare un collasso in quella parte della funzione d'onda concernente la nostra descrizione dell'elettrone, ma che la funzione d'onda rappresentante il sistema complessivo non collassa. La conclusione di questa analisi è nota come “il problema della misura”. Questa è problematica per la ragione seguente. Se un sistema quantistico consiste di una sovrapposizione di stati, una realtà definita può essere osservata solo se la funzione d'onda collassa su uno dei possibili stati osservabili. Se, avendo incluso l'osservatore stesso nella descrizione del sistema quantistico, non si verifica alcun collasso, la teoria sembra predire che non vi è un'unica realtà. I tentativi fatti per risolvere il paradosso quantistico rappresentato dal gatto di Schrodinger, così come per l’esperimento EPR, sono molteplici, e che rappresentano anche le varie interpretazioni che si possono dare della meccanica quantistica. In particolare, le varie interpretazioni devono dare le risposte alle seguenti domande: che cosa succede effettivamente quando, tra le molte possibilità presenti in una sovrapposizione se ne verifica concretamente una nell’esperimento? Perché durante una misurazione si verifica proprio la possibilità osservata e non un’altra? L'interpretazione della meccanica quantistica è il tentativo di definire un quadro di riferimento coerente sulle informazioni che la meccanica quantistica fornisce riguardo al mondo fisico elementare. Nonostante la meccanica quantistica sia stata estensivamente verificata sperimentalmente, alcune sue proprietà lasciano spazio ad interpretazioni differenti. Le diverse interpretazioni della meccanica quantistica si differenziano in vari punti, con la concezione indeterministica che pare più plausibile di quella deterministica quantunque il dibattito resti aperto. Anche i concetti di realtà, di 655! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! virtualità, di commutabilità, di non località continuano a contrapporre tesi tra loro differenti e a volte inconciliabili. L'argomento è, ad oggi, di interesse particolare soprattutto per i filosofi della fisica ma anche per la filosofia in generale, poiché sulle nuove frontiere della fisica si gioca anche il concetto stesso di ontologia. Dal punto di vista filosofico due interpretazioni della fisica quantistica si oppongono strenuamente: l'interpretazione idealistica (reale è solo il pensiero, spinta all'estremo questa visione affermerebbe che senza l'osservatore il mondo reale non esisterebbe, è il solipsismo), e l'interpretazione materialistica (reali sono solo le cose, la mente non ha alcuna importanza). Secondo l'interpretazione idealistica al momento in cui un'impressione entra nella nostra coscienza, essa altera la funzione d'onda che descrive lo stato quantico, perché modifica la nostra valutazione delle probabilità, per quanto riguarda le altre impressioni che ci aspettiamo di ricevere in futuro. La coscienza umana entra in modo inevitabile e inalterabile nella teoria. La riduzione del pacchetto d'onda, il collasso dello stato quantico, avviene solo nel momento in cui avviene la presa di coscienza dell'osservazione. Secondo la più votata interpretazione materialistica il mondo subatomico, il mondo degli elettroni, delle particelle e tutto il resto, esistono tranquillamente anche se noi non lo osserviamo, e si comporta esattamente come ci dice la fisica quantistica. A livello quantistico la realtà fisica non può essere definita in termini classici come si era tentato di fare con l'esperimento EPR. La realtà è quantistica, non classica, e deve fornire una spiegazione plausibile dell'apparenza classica. L'esperienza comune nel mondo classico è quindi solo una piccola parte di ciò che è la realtà. In questi termini la riduzione del pacchetto d'onda si spiega come dovuta all'equazione di Schrödinger dell'insieme "quanto + strumento di misura", la quale genera una evoluzione molto veloce che lascia spazio a una sola delle possibilità contenute nella funzione d'onda. Inoltre può essere lo strumento stesso ad operare la riduzione, il collasso nell'autostato, poiché il carattere macroscopico dello strumento favorirebbe la scomparsa degli effetti propriamente quantistici. Ciascuna di queste due interpretazioni contiene al suo interno delle varianti che adesso andiamo a descrivere. La formulazione matematicamente precisa della meccanica quantistica, successivamente al 1927, era ormai completata, soprattutto in relazione al fatto che Schrodinger aveva dimostrato l’equivalenza tra la sua meccanica ondulatoria e la meccanica delle matrici di Heisenberg, e la peculiarità del comportamento dei microsistemi rappresentava un dato acquisito. In particolare esisteva un consenso pressoché generale su alcuni punti: ! ! ! ! La duplice natura ondulatoria e corpuscolare di tutti i sistemi fisici; La discontinuità dei processi naturali; La natura fondamentalmente aleatoria dei processi fisici; Il principio di indeterminazione Come ovvia conseguenza di questi fatti si riconosceva anche: ! La necessità di attribuire dignità scientifica ad una teoria che non consentiva in linea di principio previsioni certe, una richiesta irrinunciabile dal punto di vista classico, ma alla quale si poteva al più chiedere di fornire le probabilità dei possibili esiti dei processi fisici. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 656! Questa situazione, come naturale e prevedibile, aprì un dibattito vivacissimo sul vero significato del formalismo, e spinse la comunità scientifica ad interrogarsi sugli obiettivi dell'indagine scientifica, fino a giungere a sollevare seri interrogativi circa l'oggetto stesso della scienza, vale a dire circa la realtà e l'oggettività dei fenomeni naturali. Il dibattito acquistò presto connotazioni filosofiche e, come vedremo, molti fisici, ben consci dei sempre maggiori successi che la nuova teoria andava registrando e influenzati da posizioni filosofiche positiviste e strumentaliste, giunsero ad accettare non solo che non si potesse costruire un quadro coerente dei processi naturali, ma addirittura che non si dovesse neppure tentare questa impresa. L'esigenza appena menzionata veniva considerata una pretesa metafisica, una sovrastruttura estranea allo spirito della genuina ricerca scientifica. Infine, il ruolo peculiare che gioca il processo di osservazione all'interno del formalismo divenne oggetto di accesi dibattiti e portò alcuni scienziati a negare che sia possibile attribuire ai costituenti microscopici una qualsiasi proprietà o perfino una realtà oggettiva, se non in dipendenza dai processi di osservazione a cui essi possono venire sottoposti. Vari scienziati assunsero posizioni alquanto diversificate circa questi fondamentali problemi, dando origine a varie interpretazioni della teoria quantistica, delle quali le più importanti sono: INTERPRETAZIONE DI COPENAGHEN – E’ l'interpretazione più condivisa della meccanica quantistica, formulata da Bohr e Heisenberg durante la loro collaborazione a Copenaghen nel 1927, che estesero l'interpretazione probabilistica della funzione d'onda, proposta da Born ed introdussero l’idea che le misurazioni non sono una registrazione passiva di un mondo oggettivo, ma interazioni attive in cui l’oggetto misurato e il modo in cui lo si misura contribuiscono inseparabilmente al risultato. La reale novità di questa interpretazione non è il fatto, d’altronde noto, che una misurazione comporta una perturbazione di ciò che viene misurato, ma che la misurazione definisce ciò che viene misurato. Quello che si ottiene da una misurazione non è solo il fatto che dipende da che cosa si è scelto di misurare, ma che misurare un certo aspetto di un sistema chiude la porta a tutte le altre cose che si potranno scoprire e quindi limita l’informazione che potrà produrre qualsiasi misurazione futura. In questa interpretazione abbiamo a che fare con un fenomeno quantistico, inteso come un’entità unica che comprende sia il sistema quantistico osservato sia l’apparato di misura classico. Quindi non ha alcun senso parlare delle caratteristiche del sistema quantistico in sé stesso, senza specificare esplicitamente gli strumenti di misura. E ha ancora meno senso attribuire a un sistema quantistico variabili simultaneamente complementari come posizione o momento, in quanto gli apparati necessari per determinarli si escludono reciprocamente. Nell’interpretazione di Copenaghen, la funzione d’onda è solo il nostro modo di rappresentarci quella parte della nostra conoscenza della storia di un sistema, la quale è necessaria per calcolare future probabilità di specifici risultati di misure. Pertanto, il processo di misura estrae casualmente una tra le molte possibilità permesse dalla funzione d'onda che descrive lo stato. Per conoscere in quale stato si trovi il gatto occorre "osservare", "misurare", effettuare cioè la sola operazione che secondo la meccanica quantistica potrà stabilire la buona o la cattiva sorte del gatto. In base a questa logica, il destino del gatto è determinato solo nell'istante in cui l'osservatore decide di aprire la stanza, perché è allora che o l'uno o l'altro dei due stati, prima entrambi potenzialmente presenti al 50%, è reso reale. 657! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! INTERPRETAZIONE DI COPENAGHEN Quando in un sistema fisico possono accadere cose diverse, allora per ognuna di esse ci sarà un’ampiezza e lo stato totale del sistema sarà dato dalla somma, o sovrapposizione, di tutte queste ampiezze. Quando viene effettuata un’osservazione, si troverà un valore corrispondente ad una di queste ampiezze e le ampiezze escluse scompariranno. In fisica classica non vi sono limitazioni di principio alla misurazione delle caratteristiche di un sistema fisico: per esempio ad ogni istante possiamo misurare la posizione di un certo oggetto in movimento, la sua velocità, la sua energia, eccetera. Non è così nella meccanica quantistica: gli oggetti "quantistici" (atomi, elettroni, quanti di luce, ecc.) si trovano in certi "stati" indefiniti, descritti da certe entità matematiche (come la "funzione d'onda" di Schrödinger). Soltanto all'atto della misurazione fisica si può ottenere un valore reale; ma finché la misura non viene effettuata, l'oggetto quantistico rimane in uno stato che è "oggettivamente indefinito", sebbene sia matematicamente definito: esso descrive solo una "potenzialità" dell'oggetto o del sistema fisico in esame, ovvero contiene l'informazione relativa ad una "rosa" di valori possibili, ciascuno con la sua probabilità di divenire reale ed oggettivo all'atto della misura. Se la realtà non esiste in assenza dell’osservazione, un oggetto microfisico non ha proprietà intrinseche, per cui un elettrone semplicemente non esiste da nessuna parte finchè non viene effettuata una misurazione per localizzarlo. Poiché la meccanica quantistica non dice nulla su una realtà fisica che esista indipendentemente dal dispositivo di misura, soltanto nell’atto della misurazione l’elettrone diventa reale. Un elettrone non osservato non esiste. Per Bohr lo scopo della fisica non è quello di scoprire com’è fatta la natura, ma ciò che possiamo dire sulla natura. A differenza di Einstein, secondo il quale lo scopo della fisica è quello di afferrare la realtà com’è indipendentemente dall’osservazione, per Bohr il mondo microfisico è un mondo di possibilità e di potenzialità piuttosto che un mondo di cose o di fatti. La transizione dal possibile al reale ha luogo solo in seguito all’atto dell’osservazione. Non c’è nessuna realtà quantistica sottostante che esiste indipendentemente dall’osservatore. In definitiva: gli oggetti quantistici si trovano in certi stati che non sono sempre dotati di valore definito delle osservabili prima della misura, infatti è l'osservatore che costringe la natura a rivelarsi in uno dei possibili valori, e questo è determinato dall'osservazione stessa, cioè non esiste prima che avvenga la misurazione. Per introdurre una definizione apparentemente audace, le caratteristiche reali ed oggettive del sistema fisico sono definite solo quando vengono misurate, e quindi sono "create" in parte dall'atto dell'osservazione. Come dice Heisenberg: “Ciò che osserviamo non è la natura in sé stessa ma la natura esposta ai nostri metodi di indagine”. L’osservatore decide come predisporre il dispositivo di misura e la soluzione adottata determina, almeno in parte, le proprietà dell’oggetto osservato. Se viene modificato il dispositivo sperimentale, le proprietà dell’oggetto cambieranno a loro volta. Nella fisica atomica, quindi, lo scienziato non può assumere il ruolo di osservatore distaccato e obiettivo, ma viene coinvolto nel mondo che osserva fino al punto di influire sulle proprietà degli oggetti osservati. Wheeler considera questo coinvolgimento dell’osservatore come l’aspetto più importante della meccanica quantistica e ha quindi suggerito di sostituire il termine “osservatore” con /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 658! “partecipatore”, e pertanto, in un certo qual modo, l’universo è un universo partecipatorio. La meccanica quantistica, secondo l’interpretazione di Copenaghen, introduce due elementi nuovi ed inaspettati rispetto alla fisica classica. Il primo elemento inaspettato è la violazione dell'oggettività. Il secondo è l'indeterminazione, che rappresenta un'inaspettata violazione della perfetta intelligibilità deterministica. Entrambi gli elementi sono estranei alla mentalità della fisica classica, cioè rispetto a quella concezione ideale (galileiana, newtoniana e perfino einsteiniana) che pretende che l'universo sia perfettamente oggettivo ed intelligibile. - Ogni teoria scientifica moderna richiede almeno una descrizione strumentalista che ne correli il formalismo matematico alla pratica sperimentale e alle predizioni. Nel caso della meccanica quantistica, la descrizione strumentalista più comune è un'asserzione di regolarità statistica tra i processi di preparazione dello stato e i processi di misura. In sostanza, se una misura di una quantità rappresentata da un numero reale è eseguita più volte, ogni volta partendo dallo stesso stato iniziale, il risultato è una distribuzione di probabilità sui numeri reali; inoltre, la meccanica quantistica fornisce uno strumento computazionale per determinare le proprietà statistiche di questa distribuzione, ad esempio il suo valore atteso. La mera descrizione strumentalista è talvolta definita, impropriamente, come un'interpretazione. Questa accezione è però abbastanza fuorviante dal momento che lo strumentalismo evita esplicitamente ogni scopo interpretativo, ovvero non tenta di rispondere alla domanda su quale sia il significato della meccanica quantistica. INTERPRETAZIONE STRUMENTALISTA – E’ un'interpretazione che può essere definita minimalista, ovvero che fa uso del minimo numero di elementi da associare al formalismo matematico. In sostanza, è un'estensione dell'interpretazione statistica di Born. L'interpretazione afferma che la funzione d'onda non si applica ad un sistema individuale, ad esempio una singola particella, ma è un valore matematico astratto, di natura statistica, applicabile ad un insieme di sistemi o particelle. Probabilmente, il più importante sostenitore di questa interpretazione fu Einstein: “Il tentativo di concepire INTERPRETAZIONE STATISTICA la descrizione quantistica teorica come la descrizione completa dei sistemi individuali porta a interpretazioni teoriche innaturali, che diventano immediatamente non necessarie se si accetta che l'interpretazione si riferisca ad insiemi di sistemi e non a sistemi individuali”. – Secondo questa interpretazione, proposta da Eugene Wigner (1902-1995; Premio Nobel), la coscienza, o la mente, dell’osservatore (o del gatto?) del fenomeno sarebbe all'origine del collasso della funzione d'onda: “E’ COSCIENZA CAUSA DEL COLLASSO l’ingresso di un’impressione nella nostra coscienza che altera la funzione d’onda … la coscienza entra nella teoria in maniera inevitabile e inalterabile” In una derivata di questa interpretazione, ad esempio, la coscienza e gli oggetti sono in entanglement e non possono essere considerati distinti. La teoria può essere considerata come un'appendice speculativa alla maggior parte delle interpretazioni. Molti fisici la considerano non-scientifica, affermando che non sarebbe verificabile e che introdurrebbe nella fisica elementi non necessari, mentre i fautori della teoria replicano che la questione se la mente in fisica sia o meno necessaria rimane aperta. DELLE STORIE QUANTISTICHE CONSISTENTI - Generalizza la convenzionale interpretazione di Copenaghen e tenta di fornire un'interpretazione naturale della TEORIA 659! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! cosmologia quantistica. La teoria è basata su un criterio di consistenza che permette quindi di descrivere un sistema in modo che le probabilità di ciascuna storia obbediscano al terzo assioma (di additività) del calcolo delle probabilità. Secondo questa interpretazione, lo scopo di una teoria in meccanica quantistica è il predire le probabilità relative alle diverse storie. - Differiscono dall'interpretazione di Copenaghen nel considerare sia la funzione d'onda sia il processo del collasso come ontologicamente oggettivi. Nelle teorie oggettive, il collasso avviene casualmente (localizzazione spontanea) o quando vengono raggiunte alcune soglie fisiche, mentre gli osservatori non hanno un ruolo particolare. Sono quindi teorie realiste, non deterministiche e prive di variabili nascoste. Il procedimento del collasso non è normalmente specificato dalla meccanica quantistica, che necessiterebbe di essere estesa se questo approccio fosse corretto; l'entità oggettiva del collasso è quindi più una teoria che un'interpretazione. Tra i fautori di questa teoria vi è Penrose. TEORIE OGGETTIVE DEL COLLASSO - In questa interpretazione tutte le ramificazioni della funzione d’onda esistono nello stesso tempo, motivo per cui viene asserito che non avviene alcun collasso della funzione d’onda, per cui viene rifiutato l'irreversibile e non deterministico collasso della funzione d'onda associato all'operazione di misura nell'interpretazione di Copenaghen, in favore di una descrizione in termini di entanglement quantistico e di un'evoluzione reversibile degli stati. I fenomeni associati alla misura sono descritti dalla decoerenza quantistica che si verifica quando un sistema interagisce con l'ambiente in cui si trova, o qualsiasi altro sistema complesso esterno, in un modo termodinamicamente irreversibile tale che i differenti elementi nella funzione d'onda di sistema e ambiente non possano più interferire tra loro. Secondo questa interpretazione, tutti i mondi quantici sovrapposti sono ugualmente reali. L’atto della misura fa sì che l’intero universo si scinda nelle varie possibilità quantiche (gatto vivo e gatto morto). Queste realtà parallele coesistono, ciascuna di esse abitata da una diversa copia dell’osservatore cosciente. Questa interpretazione, dovuta a Hugh Everett (1930-1982), presuppone, quindi, che lo stato quantistico sia sempre una rappresentazione completa della realtà, e che in una misurazione niente vada perduto, il gatto è sia vivo che morto, e quindi ciascuna possibilità si realizza comunque, nel proprio universo, quando si esegue la misurazione. Così, con ogni misurazione, con ogni osservazione, l’universo si divide in più universi, e in ognuno di questi si realizza una delle possibilità previste dalla fisica quantistica. Secondo questa interpretazione, quando l’universo si divide in due copie (gatto vivo e gatto morto, particella attraverso la fenditura A e B), in ognuna delle quali avviene uno dei due eventi, questo accade anche alla nostra coscienza, che in un universo una copia constaterà il gatto vivo o la particella attraverso A, e nell’altro universo la seconda copia constaterà il gatto morto o la particella attraverso la fenditura B. Il concreto “io”, la mia consapevolezza, è hic et nunc in uno stato ben definito e quindi può essere trovato in una certa ramificazione dell’universo, in quello in cui solo uno, vale a dire uno particolare dei possibili risultati di uno specifico processo di misura individuale può essere realizzato. INTERPRETAZIONE A MOLTI MONDI /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 65:! L'interpretazione a molti mondi consentiva di aggirare un problema per il quale l'interpretazione di Copenaghen non aveva alcuna soluzione: quale atto di osservazione poteva mai causare il collasso della funzione d'onda dell'intero universo? L'interpretazione di Copenaghen richiede che vi sia un osservatore all'esterno dell'universo, ma siccome non ce ne sono, la-sciando da parte Dio, l'universo non dovrebbe mai cominciare a esistere, ma dovrebbe rimanere per sempre in una sovrapposizione di molte possibilità. L'equazione di Schrodinger che descrive la realtà quantistica come una sovrapposizione di possibilità, e assegna un ventaglio di probabilità a ogni possibilità, non include l'atto della misurazione. Non ci sono osservatori nella matematica della meccanica quantistica. La teoria non dice nulla sul collasso della funzione d'onda, l'improvviso e discontinuo cambiamento dello stato di un sistema quantistico che segue a un osservazione o a una misurazione, quando il possibile diventa reale. Nell'interpretazione a molti mondi di Everett non c'era alcun bisogno di un'osservazione o una misurazione per determinare il collasso della funzione d'onda, dal momento che ogni possibilità quantistica, nessuna esclusa, coesiste come una realtà effettiva in una gamma di universi paralleli. L’interpretazione dei molti mondi è tuttavia fondamentalmente incapace di prevedere in quale ramificazione posso fare esperienza di ritrovarmi. L’asserzione che l’osservatore coesiste in molti stati differenti è intrinsecamente non verificabile. La più seria critica che si può avanzare deriva dall’adozione del principio noto come il rasoio di Occam: "entia non sunt multiplicanda sine necessitate" (Non bisogna aumentare senza necessità gli elementi della questione), o "pluralitas non est ponenda praeter necessitatem" (non si deve imporre la pluralità oltre il necessario). E, nell’interpretazione in esame, la moltiplicazione degli enti risulta addirittura infinita. Va riconosciuto che in anni recenti questa interpretazione ha suscitato l’interesse di grandi fisici come Stephen Hawking e Murray Gell-Mann. L’idea dei molti mondi, per quanto peculiare e strana possa sembrare, ha una sua logica ed un suo fascino, che deriva anche dai molti esempi letterari in cui una visione di questo tipo è stata adombrata. Uno degli esempi più belli è costituito dal racconto Il giardino dei sentieri che si biforcano di Borges. - Non spiega il collasso della funzione d'onda, piuttosto spiega le evidenze del collasso. La natura quantistica del sistema è semplicemente dispersa nell'ambiente in modo che continui ad esistere una totale sovrapposizione della funzione d'onda, ma che rimanga al di là di ciò che è misurabile. La decoerenza quindi, come interpretazione filosofica, equivale a qualcosa di simile alla interpretazione a molti mondi, ma possiede il vantaggio di essere supportata da un dettagliato e plausibile contesto matematico, l’approccio è quindi uno dei più condivisi tra i fisici odierni. DECOERENZA QUANTISTICA – E’ stata elaborata da David. Z. Albert e Barry Loewer, ed estende l'interpretazione a molti mondi, proponendo che la distinzione tra i mondi debba essere compiuta al livello della mente di un osservatore individuale. L'idea può, molto schematicamente, esprimersi dicendo che anziché un'infinità di mondi e quindi un'infinità di copie di ogni osservatore cosciente, si considera un solo mondo e un solo esempio di ogni osservatore, ma lo si dota di un'infinità di menti (o una mente strutturata in infiniti fogli), ciascuna delle quali percepisce uno diverso degli esiti di INTERPRETAZIONE A MOLTE MENTI 66<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ogni processo in cui possono darsi esiti percettivamente diversi. Ossia, ciascuno dei termini della funzione d’onda che corrisponde a una situazione percettivamente diversa si correli ad un diverso strato percettivo nella mente di tutti noi. Con riferimento a questo schema potrebbe dirsi che mentre nell'interpretazione a molti mondi si danno tutti gli eventi possibili in quella a molte menti si danno tutte le percezioni possibili. Ovviamente, per garantire l'accordo intrasoggettivo, si dovrà ammettere che i vari fogli delle menti di tutti gli esseri percepienti siano in qualche modo sincronizzati così che se due persone assistono allo stesso processo fisico associato a stati percettivamente diversi (per esempio alla sovrapposizione dello stato "gatto vivo" e “gatto morto”, allora la "mente"), allora la mente di quello dei due che acquista coscienza di aver percepito il "gatto vivo” deve essere sincronizzata (cioè nello stesso termine della sovrapposizione) con quella dell'altro osservatore. – E’ un'interpretazione postulata da D. Bohm nella quale l'esistenza di una funzione d'onda universale e non locale permette a particelle lontane di interagire istantaneamente. L'interpretazione generalizza la teoria di de Broglie del 1927 che afferma che sia l'onda sia la particella sono reali. La funzione d'onda guida il moto della particella ed evolve in base all'equazione di Schrödinger. L'interpretazione assume un singolo universo, che non si dirama come nell'interpretazione a molti mondi, ed è deterministico, a differenza di quanto previsto dall'interpretazione di Copenaghen. L'interpretazione di Bohm asserisce che lo stato dell'universo evolve linearmente nel tempo, senza prevedere il collasso delle funzioni d'onda all'atto di una misurazione, previsto invece dall'interpretazione di Copenaghen. In questa interpretazione, si assume comunque l'esistenza di un certo numero di variabili nascoste, rappresentanti le posizioni di tutte le particelle nell'universo le quali, come le probabilità in altre interpretazioni, non possono mai essere misurate direttamente. Una teoria deterministica a variabili nascoste, quindi, è semplicemente un modo per superare la natura aleatoria della fisica quantistica. E l’idea di base è che ogni particella abbia una serie di proprietà supplementari che determinano davvero la direzione in cui va, come si comporta quando incontra un polarizzatore, se fa scattare o mneo un rilevatore. Queste proprietà addizionali sono chiamate variabili nascoste, perché assumiamo di non poterle osservare direttamente. Esse decrivono il comportamento di un sistema di molte particelle, e quindi possiamo solo osservare le conseguenze indirette della loro esistenza. In altre parole, se prendessimo un insieme numeroso di particelle che provengono dalla sorgente, i valori delle variabili nascoste potrebbero essere distribuiti in questo gruppo in molti modi diversi, tuttavia il comportamento di ogni singola particella sarebbe ben definito dalla sua specifica variabile nascosta. INTERPRETAZIONE DI BOHM – Mentre l’interpretazione a molti mondi considera fondamentale la sovrapposizione quantistica e afferma che tutti i rami di una sovrapposizione esistono sempre, quella di Bohm assume una posizione opposta, cioè tutte queste sovrapposizioni non esistono. Ci sono anche teorie, come quella della riduzione spontanea dello stato quantistico, che accettano l’esistenza delle sovrapposizioni, limitandole, però, al mondo microscopico. In questo caso è necessario introdurre un meccanismo, la decoerenza, che avviene quando il sistema porta nell’ambiente informazioni sullo stato in cui si trova, che spieghi le sovrapposizioni per il mondo quantistico e che scompaiano per i sistemi macroscopici (vedi il gatto). Nel caso del gatto le fonti di decoerenza sono numerose, come gli scambi di calore con l’ambiente esterno, che provocano la rottura della coerenza per i suoi stati RIDUZIONE SPONTANEA DELLO STATO QUANTISTICO /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 66;! quantistici. Come si può arrivare a escludere per principio le sovrapposizioni nei sistemi macroscopici, quando la teoria quantistica non autorizza, in linea di principio, sovrapposizioni solo per i sistemi microscopici e particelle elementari? La teoria della riduzione spontanea dello stato quantistico, proposta da Ghirardi-Rimini-Weber, (teoria GRW), cerca di dare una risposta, ipotizzando che le onde di probabilità, di tanto in tanto, spariscano da sole anche senza osservazione. Dopo questa riduzione spontanea a uno stato definito, una particella non si potrà più trovare dappertutto, ma solo in uno spazio preciso. A questo punto, però, può ricomparire un’onda di probabilità, e il processo si ripete. L'idea di fondo, in sostanza, che caratterizza questa proposta può esprimersi sinteticamente in questi termini: si assume che tutti i costituenti elementari del mondo fisico dotati di massa (per intenderci, tutti i protoni, neutroni, elettroni e così via) oltre ad ubbidire alla dinamica lineare di Schrodinger appropriata per il problema in esame (e quindi che tiene conto delle forze che agiscono su di esse) subiscano, a tempi a caso e con una certa frequenza media, dei processi spontanei di localizzazione spaziale. Questi processi vanno intesi come fondamentali processi naturali che non sono dovuti a interazioni con altri sistemi fisici o ad azioni deliberate da parte di osservatori coscienti. Al contrario, l’idea è che lo spaziotempo nel quale si svolgono i processi fisici esibisca alcuni aspetti fondamentalmente stocastici, casuali, che si traducono appunto in localizzazioni spontanee dei microscopici costituenti dell'universo. Per spiegare i dati sperimentali, in questa teoria si postula, senza ulteriori prove, che tale riduzione spontanea sia tanto più frequente quanto più grosso è il sistema osservato, per cui, il gatto di Schrodinger non potremmo mai vederlo in uno stato di sovrapposizione, mentre per una singola particella elementare la riduzione spontanea è così rara che non si presenta praticamente mai per tutta la durata dell’universo. - L'idea è, seguendo la linea tracciata dalla relatività ristretta, che differenti osservatori potrebbero dare differenti descrizioni della stessa serie di eventi: ad esempio, ad un osservatore in un dato punto nel tempo, un sistema può apparire in un singolo autostato, la quale funzione d'onda è collassata, mentre per un altro osservatore, allo stesso tempo, il sistema potrebbe trovarsi in una sovrapposizione di due o più stati. Di conseguenza, se la meccanica quantistica deve essere una teoria completa, l'interpretazione relazionale sostiene che il concetto di stato non sia dato dal sistema osservato in sé, ma dalla relazione tra il sistema e il suo osservatore (o i suoi osservatori). Il vettore di stato della meccanica quantistica convenzionale diventa quindi una descrizione della correlazione di alcuni gradi di libertà nell'osservatore rispetto al sistema osservato. Ad ogni modo, questa interpretazione sostiene che ciò vada applicato a tutti gli oggetti fisici, che siano o meno coscienti o macroscopici. Ogni evento di misura è definito semplicemente come una normale interazione fisica, ovvero l'instaurazione del tipo di relazione descritto prima. Il significato fisico della teoria non riguarda quindi gli oggetti in sé, ma le relazioni tra di essi. MECCANICA QUANTISTICA RELAZIONALE Negli anni ’40 Richard Feynman (1918-1988; Premio Nobel) ebbe l’intuizione sorprendente riguardo alla differenza tra mondo newtoniano e mondo quantistico. Al centro del suo interesse c’era la questione di come si forma la figura d’interferenza nell’esperimento delle due fenditure. Secondo la fisica newtoniana ogni particella segue un unico percorso ben definito dalla sorgente allo schermo. Viceversa, secondo il modello quantistico, la particella non ha una posizione definita nell’intervallo SOMMA SULLE STORIE – 66=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! di tempo in cui si trova tra il punto di partenza e quello di arrivo. Feynman si rese conto che non è necessario interpretare questo stato di cose nel senso che le particelle non percorrono nessuna traiettoria nel loro viaggio tra sorgente e schermo. Potrebbe invece significare che le particelle seguono ogni possibile traiettoria che connette quei due punti, e tutte percorse simultaneamente. In questo modo le particelle acquisiscono informazioni su quali fenditure siano aperte: se una di esse è aperta, la particella segue delle traiettorie che vi passano. Quando entrambe le fenditure sono aperte, le traiettorie in cui la particella passa da una fenditura possono interagire con le traiettorie in cui essa passa dall’altra, generando la figura d’interferenza. Feynman propose una formulazione matematica (l’integrale sui cammini o somma sulle storie) che riflette ques’idea e riproduce tutte le leggi della fisica quantistica. Una particella quantistica che deve andare da A a B prova ogni percorso che connette questi due punti, e ad ogni percorso viene associato un numero chiamato fase1. Questa fase si può rappresentare intuitivamente come una freccia di lunghezza fissa, che si può tradurre in una probabilità, ma che può essere orientata in qualunque direzione. Il metodo di Feynman per il calcolo della probabilità che una particella inizialmente in A arrivi in B, prevede che si sommino le fasi, cioè le frecce associate a ogni traiettoria che va da A a B, e il risultato finale è una freccia risultante trasformata in probabilità. Più in generale, l’interpretazione di Feynman ci consente di predire la probabile evoluzione dell’intero universo. Tra lo stato iniziale e le successive misurazioni delle sue proprietà, tali proprietà evolvono in un certo modo, che i fisici chiamano la storia dell’universo. Così come la storia della particella è semplicemente la sua traiettoria e la probabilità di osservare la particella arrivare in un qualsiasi punto dipende da tutte le traiettorie che potrebbero averla portata là, così per un sistema fisico generico, o l’intero universo, la probabilità di una qualsiasi osservazione è determinata da tutte le possibili storie che potrebbero aver condotto a tale osservazione. L’universo, pertanto, non ha un’unica storia, ma tutte le storie possibili, ciascuna con la propria probabilità; ha infiniti modi di accadere che avvengono tutti contemporaneamente, ma con differenti probabilità. Per questa ragione si parla di somma sulle storie o storie alternative. Infine, tenendo presente il principio quantistico secondo il quale osservare (cioè misurare) un sistema fisico comporta inevitabilmente l’alterazione del suo corso, le nostre osservazioni sullo stato attuale dell’universo influenzano il suo passato e determinano le sue differenti storie. Nonostante le molte interpretazioni della meccanica quantistica, sembra tuttavia che l’interconnessione universale delle cose e degli eventi sia una caratteristica fondamentale della realtà atomica, e che l’universo non va visto come una collezione di oggetti fisici separati, bensì come una complicata rete di relazioni tra le varie parti di un tutto unificato. 1 La fase rappresenta la posizione nel ciclo di un’onda, cioè indica se l’onda è a un massimo o a un minimo o in una qualche precisa posizione intermedia. La regola matematica di Feynman per il calcolo della fase fa sì che quando si sommano le onde di tutte le traiettorie si ottenga l’ampiezza di probabilità che la particella, partendo da A, arrivi in B. Il quadrato dell’ampiezza di probabilità fornisce poi l’effettiva probabilità che la particella arrivi in B. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 664! 13.6 La filosofia di fronte alla nuova fisica Che ai fisici piacesse o meno, i filosofi professionisti non potevano certo fare a meno di notare le strane idee introdotte nella fisica dai pionieri della meccanica quantistica. Il prindipio d’indeterminazione entrò nella fisica in un periodo di notevole incertezza tra i filosofi, i quali, anche nei confronti della nuova fisica, ed in particolare nei confronti del principio di Heisenberg, avevano posizioni diverse. Pur essendo dalla parte dei perdenti nella battaglia sulla realtà degli atomi, il pensiero positivista sopravviveva e di fatto divenne più ambizioso nella corrente filosofica nota come positivismo logico, che si sviluppò negli anni Venti nel circolo di Vienna. I positivisti logici proposero di costruire una sorta di calcolo filosofico per la scienza stessa. Partendo dai dati e dai fatti empirici, il loro sisterna avrebbe mostrato come creare teorie rigorosamente fondate in grado di resistere all’analisi filosofica più severa. Se la scienza si fosse potuta rendere logicamente infallibile, la sua credibilità sarebbe stata indiscutibile. Mach e i vecchi positivisti erano convinti che le teorie fossero solo sistemi di relazioni quantitative tra fenomeni misurabili; non indicarono la strada verso qualche verità segreta relativa alla natura. I positivisti logici, in generale, condividevano tale convinzione, però sostenevano che se la scienza non poteva aspirare al significato profondo, poteva almeno sperare di diventare attendibile. E ciò significava che il linguaggio della scienza andava scritto in termini di logica pura, verificabile. Le opere dei positivisti di quest'epoca sono incredibilmente piene di formule della logica simbolica e di equazioni probabilistiche, destinate a convincere il lettore che esiste un calcolo per stabilire l’attendibilità di una teoria. Ma tale procedura non si è dimostrata infallibile come avevano sperato i suoi autori. Infatti, Carl Hempel (1905-1997), un membro del circolo di Vienna, per dimostrare i limiti del procedimento logico induttivo (l’acquisizione di un nuovo riscontro empirico di una teoria renda più probabile che questa teoria sia vera), prese ad esempio la teoria che tutti i corvi siano neri per trarne conclusioni di paradosso. Esaminando ad uno ad uno un milione di corvi, notiamo infallibilmente ed invariabilmente che essi sono tutti neri. Dopo ogni osservazione, perciò, la teoria che tutti i corvi siano neri diviene ai nostri occhi sempre più probabilmente vera, coerentemente col principio induttivo. Pare ogni volta sempre più corretto registrare l'assunto come probabilmente vero: tutti i corvi sono neri. Ma l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che non sono nere, non sono corvi". In base al principio induttivo, d'altra parte, questo secondo enunciato diventerebbe più probabilmente vero in seguito all'osservazione di una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò, l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che "tutti i corvi sono neri". Può darsi che sia logicamente inevitabile, ma non somiglia neanche lontanamente al modo di procedere della scienza. Il progetto del positivismo logico, in un certo senso un’applicazione del pensiero deterministico dell’Ottocento, prese l’avvio proprio quando i fisici si stavano sbarazzando del determinismo nel proprio settore. Alcuni filosofi, già convinti che la ricerca di un resoconto oggettivo della natura fosse un'illusione, interpretarono il principio di Heisenberg come una prova del fatto che la scienza stessa ora aveva confermato i loro sospetti. Non aveva più senso, quindi, discutere del significato delle teorie scientifiche in funzione della loro relazione con qualche presunto mondo di fatti. La cosa interessante era invece riflettere su come gli scienziati arrivano a un accordo 665! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sulle loro teorie, su quali convinzioni e pregiudizi li guidano, sul modo in cui la comunità scientifica costringe sottilmente a rispettare l'opinione prevalente e così via. I filosofi più tradizionali, d'altro canto, continuavano a essere convinti che una descrizione razionale del mondo fisico non fosse un obiettivo tanto irragionevole. Per questi filosofi, il principio di indeterminazione fu davvero una brutta notizia. Karl Popper, che prenderemo in considerazione nel capitolo 17, ne La logica della scoperta scientifica (1934), diede il colpo di grazia al vivo desiderio del positivismo logico di poter dimostrare la verità delle teorie e introdusse il concetto che è possibile soltanto dimostrarne la falsità. Le teorie diventano via via più credibili, sostenne, a ogni prova che superano, ma, indipendentemente da questi successi, possono sempre essere confutate da qualche nuovo esperimento; non possono mai guadagnarsi una garanzia di correttezza. La scienza costruisce un quadro della natura sempre più completo, ma anche le più preziose leggi della scienza continuano a essere soggette a revoca, se le prove dovessero richiederlo. Data l'importanza che attribuiva alla capacità di verificare le teorie, Popper fu obbligato ad affermare che gli esperimenti producono sempre risposte coerenti, oggettivamente attendibili. Forse l'inattendibilità della teoria era inestirpabile, ma la scienza empirica doveva essere assolutamente affidabile. E a questo proposito si scontrò, uscendone sconfitto, con il principio di Heisenberg, secondo il quale la somma di tutti i test immaginabili di un certo sistema quantistico non produce necessariamente un insieme di risultati coerenti. Affinchè la sua analisi filosofica potesse funzionare, Popper era convinto di aver bisogno della vecchia idea di casualità, ossia una certa azione produce sempre, in un modo totalmente prevedibile, un certo risultato. La risposta di Popper alla meccanica quantistica era semplice, producendo il risultato che Heisenberg certamente era in errore. Nell'edizione originale tedesca de La logica della scoperta scientifica, Popper fece la dubbia affermazione che la meccanica quantistica poteva essere corretta anche se fosse stato possibile realizzare un esperimento per confutare il principio di indeterminazione e descrisse un esperimento di sua invenzione. Questo accadde un anno prima della pubblicazione dell'articolo EPR. La traduzione inglese de La logica della scoperta scientifica fu pubblicata solo nel 1959; nelle appendici era riportata una lettera scritta nientemeno che da Einstein, che, pur condividendo il desiderio di eludere le sgradevoli implicazioni della meccanica quantistica, affermava che l’esperimento proposto da Popper non sarebbe servito allo scopo. Uno dei pochi filosofi contemporanei che presero sul serio le concezioni dei fisici fu Moritz Schlick (1882-1936), che dopo aver conseguito un dottorato in fisica sotto la guida di Max Planck era stato uno dei fondatori del circolo di Vienna. Schlick ebbe un'intensa corrispondenza con Heisenberg per scoprire che cosa significasse realmente il principio di indeterminazione e nel 1931 scrisse un saggio illuminante, Causality in Contemporary Physics (La causalità nella fisica contemporanea), in cui sostenne che non tutto era perduto. Analizzando nei dettagli il concetto classico di causalità, concluse che si trattava non tanto di un principio logico preciso quanto di una direttiva o una convinzione che gli scienziati usavano come guida nel costruire le teorie. Il significato dell'incertezza, sostenne Schlick, e che disturba solo in parte la capacità dello scienziato di formulare previsioni. Nella meccanica quantistica, un evento può portare a una gran varietà di risultati distinguibili, ciascuno con una probabilità calcolabile. Ciò nondimeno, la fisica consiste ancora di regole relative a sequenze di eventi: accade qualcosa, che prepara la scena per qualcos' altro, poi, a seconda del risultato, entrano in /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 666! gioco altre possibilità. Questo è uno scenario basato su connessioni causali, disse Schlick, a parte il fatto che la casualità è diventata probabilistica. Il fatto che le cose possano avvenire spontaneamente non significa che in ogni momento possa accadere qualsiasi cosa. Vi sono ancora regole. La descrizione di Schlick offre una sorta di compromesso filosofico affine per significato allo spirito di Copenaghen promosso da Bohr. La forza dell'analisi di Schlick stava nel fatto che offriva un vago principio per capire come avrebbe potuto continuare a funzionare la fisica. Per la maggior parte dei filosofi, però, la vaghezza è inaccettabile. Al giorno d'oggi, i filosofi che si avventurano a scrivere su questioni tecniche della meccanica quantistica in generale sembrano voler far sparire l'interpretazione di Copenaghen e mostrano invece una notevole simpatia per l'interpretazione di Bohm della meccanica quantistica, che, come abbiamo già avuto modo di vedere, ristabilisce il determinismo per mezzo delle cosiddette variabili nascoste che determinano in anticipo quale sarà il risultato delle misurazioni. Certi filosofi dichiarano di trovare tale interpretazione molto soddisfacente, anche se hanno difficoltà a spiegare perchè. Einstein, tra gli altri, non rimase favorevolmente colpito dalla natura artificiosa della rielaborazione di Bohm della meccanica quantistica, facendogli affermare che: “Mi sembra una soluzione troppo a buon mercato”. In definitiva, pochi filosofi, nel frattempo, hanno seguito l'esempio di Schlick cercando di prendere per vera l'interpretazione di Copenaghen in modo da valutarne i meriti e le difficoltà. 13.7 Fondamento filosofico della meccanica quantistica Perché ancora oggi fisici e filosofi sono così affascinati dalla meccanica quantistica? La risposta sta nel fatto che questa nuova fisica prevede un comportamento delle particelle a livello microscopico che contraddice il nostro modo comune di interpretare la realtà, e i suoi "paradossi" sembrano mostrare i limiti della consueta concezione oggettiva e materialistica dell'universo. Inoltre, ha introdotto una sostanziale modificazione alla teoria epistemologica sulla relazione esistente fra l’osservatore (lo sperimentatore) e l’oggetto della sua conoscenza scientifica. La tradizione scientifica e filosofica, che si è fissata anche nel linguaggio comune, ha determinato un certo tipo di spiegazione che è la spiegazione causale. Per essa, un oggetto risulta spiegato qualora se ne può assegnare la causa. La risposta al perché di un oggetto indica la causa dell'oggetto stesso. La causa è ciò che, se si verifica, necessariamente si verifica l'oggetto di cui è causa. Essa è quindi il fattore di quest’oggetto, nel senso che infallibilmente lo produce o lo pone in essere. Poiché, data la causa, l’effetto segue necessariamente, il verificarsi dell'effetto è perfettamente prevedibile. La spiegazione causale rende perciò infallibilmente prevedibili gli oggetti ai quali si applica. La causa viene intesa, in tali spiegazioni, come una forza attiva che produce immancabilmente l’oggetto sì che questo non può non verificarsi. Quindi, nella fisica classica c'e, in accordo col senso comune, un mondo obiettivo esterno che evolve in modo chiaro e deterministico, ed è governato da equazioni matematiche ben precise. Questo vale per le teorie di Maxwell e di Einstein come per la meccanica di Newton. Si ritiene, secondo questo schema d’indagine, che la realtà fisica esista indipendentemente da noi, e come sia esattamente il mondo fisico non dipende dal nostro criterio di osservazione. Inoltre, il nostro corpo e il nostro cervello fanno parte 667! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! anch'essi di tale mondo. Anch'essi si evolverebbero secondo le stesse equazioni classiche precise e deterministiche. Tutte le nostre azioni devono essere fissate da queste equazioni, per quanto noi possiamo pensare che il nostro comportamento sia influenzato dalla nostra volontà cosciente. Pertanto, la spiegazione causale poggia su due capisaldi ben precisi: 1. La causa è un fattore produttivo irresistibile, al quale l’effetto segue necessariamente; 2. Per conseguenza, data la causa, l’effetto è infallibilmente prevedibile. Questi due aspetti della spiegazione causale costituirono le caratteristiche fondamentali della scienza fino alla fine del XIX secolo. Essi erano il fondamento di ciò che si soleva chiamare “la necessità delle leggi di natura”. Un tale quadro sembrava costituire lo sfondo delle argomentazioni filosofiche più serie sulla natura della realtà, delle nostre percezioni coscienti e del nostro apparente libero arbitrio. Ma la fisica quantistica, quel sistema fondamentale ma sconvolgente sorto nei primi decenni del XX secolo, ha smentito l’ideale causale rimasto saldo per millenni, proponendo una scienza che si occupa di corpi che non sembrano essere soggetti al determinismo e non sembrano obbedire a leggi rigorose. La previsione infallibile non è possibile, non per una imperfezione dei mezzi di osservazione e di calcolo in possesso dell’uomo, ma perché questi stessi mezzi influiscono imprevedibilmente sui fatti osservati. La teoria quantistica non è in grado di determinare con precisione il comportamento di una particella atomica, per esempio di un elettrone; essa può soltanto effettuare una previsione statistica circa il suo movimento in determinate condizioni. L'elettrone sembra non essere soggetto a leggi rigorosamente deterministiche, appare dotato di una sorta di "capacità di scelta" tra vari percorsi possibili. Questa caduta del determinismo mise in difficoltà l'ideale di scienza che aveva dominato sin da Aristotele, ideale secondo il quale la scienza è conoscenza dell'universale e si esprime secondo leggi che non ammettono eccezioni; proprio per questo motivo, grandi scienziati come Einstein, Planck e Schrodinger si rifiutarono di ammettere che la nuova fisica fosse una teoria scientifica completa, definitiva, non superabile da una ulteriore teoria atomistica che ripristinasse il determinismo degli eventi naturali. Questi critici finirono però per essere tacitati dai crescenti successi della meccanica quantistica e si affermò, dell'indeterminismo atomistico, un'interpretazione che si fondava sulle concezioni di Heisenberg. Per Heisenberg i gravi problemi interpretativi che si associavano alla meccanica quantistica dipendevano dall'abitudine a usare immagini ricavate dal mondo dell'esperienza macroscopica per rappresentare gli oggetti del mondo atomico, come quando si rappresenta un elettrone rotante attorno a un nucleo atomico usando l'analogia di un satellite che gira attorno a un pianeta. Che senso ha parlare allora di grandezze delle orbite o di forma delle orbite quando queste sono al di là di ogni esperienza possibile? Dal punto di vista scientifico, nessuno. Meglio allora rinunciare a ogni visualizzazione, a ogni rappresentazione modellistica degli oggetti atomici per limitarsi a trattare teoricamente solo di quei dati circa tali oggetti che l'esperienza ci consente di raccogliere. Dal punto di vista filosofico l'idea non è nuova; sostanzialmente era la concezione della filosofia pragmatista che era stata posta a base della teoria della relatività. Ma, assunta a fondamento della nuova meccanica, e spinta, fin dove era possibile, alle conseguenze logiche, essa contribuì potentemente a far rivivere le teorie /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 668! pragmatiche della conoscenza scientifica di Mach e di Ostwald, conquistando rapidamente vive simpatie di moltissimi scienziati e filosofi. Come già i pragmatisti del XX secolo si opposero alla teoria atomistica, considerandola una concezione rozza e ingenua, così la nuova scuola dichiara che alla radice della crisi della fisica sta l'immagine ingenua di rappresentarsi l'elettrone come un corpuscolo, come il punto materiale della meccanica classica. Heisenberg crede di superare il dissidio onda-corpuscolo attribuendo ai due concetti soltanto il valore di analogia e accontentandosi di dire che “l'insieme dei fenomeni atomici non è immediatamente descrivibile nella nostra lingua”. Dobbiamo rinunciare al concetto di punto materiale esattamente localizzato nello spazio e nel tempo. La fisica, spoglia di ogni attributo metafisico, può dare di un corpuscolo o l'esatta posizione nello spazio e una completa indeterminazione nel tempo o un'esatta posizione nel tempo e la completa indeterminazione nello spazio. Più intuitivamente si suole dire che il principio fondamentale della meccanica quantica, cioè il principio d’indeterminazione, parte dalla constatazione che ogni strumento o metodo di misura altera la grandezza che si vuole misurare e la altera in un modo non esattamente prevedibile. La verità che gli strumenti alterino la grandezza che si vuole misurare era cosa notissima alla fisica classica, quasi banale. Ma si sapeva anche che affinando gli strumenti l'errore si poteva diminuire e, quindi, al limite, si poteva pensare, per le costruzioni teoriche, a una misura priva di errore. Ebbene, gli indeterministi moderni negano la legittimità di codesto passaggio al limite. Noi non possiamo dire che l'errore si può considerare nullo, se contemporaneamente non diciamo quale o almeno quale potrebbe essere la via sperimentale per ottenere una determinazione priva di errore. E siccome questa via sperimentale non c'e, noi, se vogliamo attenerci ai fatti e non ai pregiudizi, dobbiamo dire che nessuna grandezza fisica è esattamente misurabile , se non a scapito dell’assoluta indeterminazione di un'altra grandezza a essa coniugata. È il disturbo provocato dagli apparati di misura sulle particelle a impedire di conoscere le coordinate canoniche, è l'interazione tra oggetto e apparato di osservazione a generare un comportamento apparentemente indeterministico degli oggetti microscopici. Difatti, l’energia impiegata nell’osservazione (per esempio un fotone) non può scendere al di sotto di una certa quantità minima (il quanto di energia) e questa basta già a modificare il fenomeno osservato. La quantizzazione dell'energia rappresentava una brusca rottura con la millenaria convinzione circa la sostanziale continuità dei processi naturali. L'antica massima secondo cui "la natura non fa salti" era manifestamente violata dal comportamento dell'elettrone che, nel modello di Bohr, mutava il proprio stato con repentine discontinuità, con salti quantici. Così nella meccanica quantistica gli oggetti "quantistici" (atomi, elettroni, quanti di luce, ecc.) si trovano in certi "stati" indefiniti, descritti da certe entità matematiche (come la "funzione d'onda" di Schrödinger). Soltanto all'atto della misurazione fisica si può ottenere un valore reale; ma finché la misura non viene effettuata, l'oggetto quantistico rimane in uno stato che è "oggettivamente indefinito", sebbene sia matematicamente definito: esso descrive solo una "potenzialità" dell'oggetto o del sistema fisico in esame, ovvero contiene l'informazione relativa ad una "rosa" di valori possibili, ciascuno con la sua probabilità di divenire reale ed oggettivo all'atto della misura. E poiché ogni processo fisico non è separabile dallo strumento con cui è 669! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! misurato e dall’organo di senso con cui è percepito: l’osservato, gli strumenti d’osservazione, l’osservatore costituiscono una totalità fisica. La conseguenza del principio di indeterminazione è che le particelle atomiche non possono essere considerate come “cose”, nel senso che a questa parola si attribuisce nel mondo macroscopico. Il comportamento delle cose macroscopiche è infatti descrivibile totalmente e quindi prevedibile in modo sicuro. La fisica quantistica ora parla dello stato di un complesso atomico, altro non è che una determinazione matematica, una funzione, la quale mentre riassume tutto ciò che è stato osservato intorno al complesso atomico ad un dato istante, permette di calcolare la probabilità di trovare un determinato risultato quando, ad un istante futuro, si eseguirà sul sistema un'altra osservazione. Lo stato non somiglia quindi a nessuna cosa visibile tangibile e descrivibile, ma è soltanto una determinazione matematica, esprimente, in un determinato linguaggio analitico, i risultati delle osservazioni eseguite e il risultato probabile delle osservazioni future. In definitiva, gli oggetti quantistici si trovano in certi stati che non sono sempre dotati di valore definito delle osservabili prima della misura: infatti è l'osservatore che costringe la natura a rivelarsi in uno dei possibili valori, e questo è determinato dall'osservazione stessa, cioè non esiste prima che avvenga la misurazione. Le caratteristiche reali ed oggettive del sistema fisico sono definite solo quando vengono misurate, e quindi sono "create" in parte dall'atto dell'osservazione. Sarebbe però insensato, prosegue Heisenberg, porsi la questione di come si comportino questi oggetti quando nessuno li osserva, quando nessuno strumento li disturbi, e chiedersi se in realtà il loro comportamento è di tipo deterministico oppure no, in quanto è evidente che lo scienziato non ha nulla da dire circa quello che fa la natura allorquando nessuno la osserva. Limitandosi a quel che dicono le esperienze, la scienza non può far altro che sottolineare come nel mondo atomico le esperienze non consentono di misurare con precisione quei dati che sarebbero necessari per poter effettuare una previsione deterministica e lasciare ad altri l'onere di discutere se la natura sia o no "in sé stessa" intrinsecamente deterministica. La natura dunque si sottrae a una precisa fissazione dei nostri concetti intuitivi, per l'inevitabile perturbazione che è collegata con ogni osservazione. Mentre in origine lo scopo di ogni indagine scientifica era quello di descrivere possibilmente la natura come essa sarebbe di per sé, vale a dire senza il nostro intervento e senza la nostra osservazione, ora noi comprendiamo che proprio questo scopo è irraggiungibile. Nella fisica atomica non è possibile astrarre in alcuna maniera dalle modificazioni che ogni osservazione produce sull'oggetto osservato. L'osservatore umano costituisce sempre l'anello finale nella catena dei processi di osservazione e le proprietà di qualsiasi oggetto atomico possono essere capite soltanto nei termini dell'interazione dell'oggetto con l'osservatore. Ciò significa che l'ideale classico di una descrizione oggettiva della natura non è più valido. Quando ci si occupa della materia a livello atomico, non si può più operare la separazione cartesiana tra l'io e il mondo, tra l'osservatore e l'osservato. Nella fisica atomica, non possiamo mai parlare della natura senza parlare, nello stesso tempo, di noi stessi. Su questa questione primordiale per la conoscenza scientifica della realtà in sé avviene la vera insanabile frattura tra la filosofia della fisica contemporanea e la filosofia della fisica classica. Heisenberg, Bohr, Born e forse la maggioranza dei fisici contemporanei, accogliendo in pieno la tesi del neopositivismo, negano che abbia /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 66:! significato fisico parlare di una realtà in sé, indipendente dall'osservatore, cioè non esiste, come ammetteva la fisica dominante nel XIX secolo, un mondo reale a sé stante e indipendente da noi, nascosto dietro il mondo sensibile. Un problema come questo è privo di significato per i neopositivisti. Scopo della scienza non è la scoperta di frammenti di verità assolute di un mondo esterno, ma la coordinazione razionale delle molteplici esperienze umane. Ne discende che le leggi fisiche non sono leggi della natura, nel senso classico, ma regole comode per riassumere economicamente il succedersi delle nostre sensazioni; sono pure invenzioni, non scoperte, come diceva la fisica classica. A questa interpretazione, che è quella che veramente sconvolge le tradizionali idee della fisica classica, si opposero con pari fermezza i fautori della concezione classica. Con ciò il concetto stesso di “fatto scientifico” ha subìto, nella scienza contemporanea, un mutamento radicale. Per la scienza dell'800 il fatto è una realtà solida, massiccia, necessitante: per la scienza attuale il fatto è una semplice possibilità di misura e di calcolo. Questo è forse il punto capitale, quello in cui meglio si capisce la differenza tra il vecchio e il nuovo indirizzo della scienza. Esso risulta dalla risposta che la scienza dava e dà alla domanda intorno al significato del predicato ontologico, cioè della parola è o c'è. Per la fisica classica un fatto fisico esiste sempre di suo pieno diritto e l’osservazione scientifica vale solo a dimostrare il carattere e le manifestazioni. Per essa, in altri termini, l’esistenza del fatto è presupposta come qualcosa di necessario. Per la fisica moderna tale attribuzione preliminare di una realtà necessaria al fatto fisico è completamente priva di senso. L’esistenza, la realtà di fatto, viene ricondotta a un’altra categoria, cioè non è più a quella del necessario ma a quella del possibile. La possibilità ulteriore dell’accertamento del controllo e del calcolo costituisce, nella fisica contemporanea, il totale significato del predicato ontologico. Il punto di vista instaurato dalla fisica quantistica segna quindi l’abbandono della spiegazione casuale, della previsione infallibile, ed introduce l’idea che i risultati di una osservazione futura non sono mai infallibilmente prevedibili, perciò non si può più assumere che esiste una causa che immancabilmente li produca. Consideriamo un’obiezione. Si può dire che la negazione della prevedibilità rigorosa nella fisica quantistica dipende esclusivamente dall'osservazione: è infatti l'intervento attivo dell'osservazione che modifica la condizione del sistema atomico osservato e introduce in esso quell'indeterminazione per la quale o la velocità o la posizione delle particelle del sistema risultano modificate. Si potrebbe quindi dire: se si prescinde dall'osservazione, il corso dei fatti atomici è necessario (nel senso che manca di indeterminazione). Ma è qui un altro dei punti fondamentali della fisica contemporanea. Se si prescinde dall'osservazione, non si può dire assolutamente nulla sullo stato di un sistema atomico. Senza l'osservazione questo stato, propriamente parlando, non esiste cioè non ha caratteri o determinazioni riconoscibili e controllabili. Affermare che i fatti atomici hanno una propria causalità necessaria, che viene disturbata dall’osservazione, non ha senso. Non ha senso in primo luogo perchè, se avessero una causalità veramente necessaria, non potrebbero essere disturbati dall'osservazione. E in secondo luogo perchè la fisica contemporanea si rifiuta di riconoscere fatti o realtà che non siano controllati o controllabili da osservazioni effettivamente eseguite. In sostanza, perciò, la fisica contemporanea che è, tra tutte le scienze della natura la più rigorosa e la più feconda di risultati, ha abbandonato la 67<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! spiegazione causale. Tutti i fisici indeterministi assumono questo atteggiamento. In questo senso essi affermano che in natura non ci sono leggi rigorosamente esatte, soggiacenti a un principio di causalità. Quelle che la fisica chiamava leggi della natura sono invece semplicemente regole che hanno un grandissimo grado d'approssimazione, ma mai l'assoluta certezza. La nuova fisica è così costretta a cercare in tutte le leggi fisiche una radice statistica e a formularle in termini di probabilità. E come la relatività aveva detronizzato le kantiane categorie a priori di spazio e tempo, la meccanica quantica detronizza la categoria a priori della causalità. Al carattere a priori di codeste categorie vengono sostituiti nuovi principi; alla causalità, in particolare, si sostituisce la probabilità. E’ chiaro in via preliminare, che se la fisica, cioè la disciplina scientifica sulla quale tutte le altre cercano di modellarsi per acquistare rigore e precisione, ha abbandonato un certo tipo di spiegazione, non c’è motivo di ritenere questo tipo di spiegazione valido per le altre discipline e continuare a servirsi di esso anche là dove appariva, anche prima, assai inadatto. In altri termini, sarebbe strano che la biologia, la sociologia, la storiografia continuassero a invocare il principio causale che, nel loro ambito si è mostrato sempre di assai dubbia e incerta applicazione, quando la fisica ha per suo conto abbandonato questo principio. La meccanica quantistica, quindi, introduce due elementi nuovi ed inaspettati rispetto alla fisica classica: il primo elemento è la violazione dell'oggettività. Il secondo è l'indeterminazione, che rappresenta un'inaspettata violazione della perfetta intelligibilità deterministica. Entrambi gli elementi sono estranei alla mentalità della fisica classica, cioè rispetto a quella concezione ideale (galileiana, newtoniana e perfino einsteiniana) che pretende che l'universo sia perfettamente oggettivo ed intelligibile. Questo rivela la strana situazione in cui gli scienziati si trovano nell'analisi dei sistemi quantistici. Con la meccanica quantistica la scienza sembra essere arrivata a rivelare quella misteriosa frontiera tra soggetto ed oggetto che in precedenza era stata del tutto ignorata a causa del principio (nascosto e sottinteso) dell'oggettivazione: fino agli anni ‘20 la realtà poteva essere considerata del tutto "oggettiva" ed indipendente dall'osservazione di eventuali esseri coscienti. Ma con la formulazione della meccanica quantistica sembrò che si dovesse tener conto necessariamente della figura dell'osservatore cosciente! Vi furono subito delle reazioni a tale concezione, poiché in fisica era sottinteso da sempre che l'universo esiste oggettivamente, indipendentemente dal fatto che noi lo osserviamo o meno. In effetti, la scienza ebbe il suo grandioso sviluppo fin dal 1600 proprio grazie all'ipotesi dell'oggettivazione. Così i fisici degli anni '20 e '30 cercarono delle soluzioni concettuali per sfuggire a tale insolita situazione (che nella cornice dell'oggettivazione appare del tutto paradossale). Le reazioni in questione furono numerose ed energiche, e misero a confronto le convinzioni di grandissimi scienziati, come Einstein (che riteneva che la meccanica quantistica fosse incompleta o comunque inaccettabile in questa forma) e come Bohr (che sosteneva invece la validità della teoria in questione). I paradossi quantistici sembrano evidenziare che la "consapevolezza" dell'osservatore giochi un ruolo decisivo ai livelli fondamentali della realtà e si accordano con la concezione di Berkeley, filosofo del secolo XVIII, secondo il quale "Esse est percipi" (esistere significa essere percepito): si tratterebbe di una concezione immateriale dell'universo, una sorta di "empirismo idealistico". In effetti sembra che la meccanica quantistica dia un messaggio nuovo sulla struttura della realtà, e che /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 67;! sancisca la fine del "realismo" oggettivo e materialistico a favore di una concezione "idealistica", in cui gli oggetti esistono in uno stato "astratto" e "ideale" che rimane teorico finché la percezione di un soggetto conoscente non lo rende reale. Il fisico Pagels avverte: "La vecchia idea che il mondo esista effettivamente in uno stato definito non è più sostenibile. La teoria quantistica svela un messaggio interamente nuovo: la realtà è in parte creata dall'osservatore…La situazione si presenta paradossale al nostro intuito, perché stiamo cercando di applicare al mondo reale un'idea dell'oggettività che sta solo nelle nostre teste, una fantasia". Noi dobbiamo in effetti affrontare la teoria quantistica se vogliamo analizzare in profondità alcune fra le questioni più importanti della filosofia: come si comporta il nostro mondo, e che cosa costituisce le menti, ossia di fatto noi stessi? Quindi è venuto il momento di rivisitare l'intera storia della filosofia, o crearne una nuova, per vedere se vi è qualche idea o qualche concezione che riesca a inquadrare adeguatamente i risultati che emergono dalla fisica quantistica. 13.8 La realtà e l’informazione La meccanica quantistica ci ha mostrato che il nostro mondo è governato da leggi che comprendono stranezze come la casualità, la sovrapposizione e l'entanglement e che siamo in difficoltà se tentiamo di conciliare queste affermazioni con il nostro cosiddetto buon senso. Per fare questo, da un lato abbiamo bisogno di un'idea forte, un principio primo su cui costruire la nostra teoria. Dall'altro dobbiamo rispondere a una domanda che sorge subito spontanea e che alla fine si dimostra il vero nocciolo della questione: che cosa significano le scoperte della fisica quantistica per la nostra concezione del mondo? In altre parole: poiché la nostra visione del mondo, legata alla quotidianità, non si trova d'accordo con la fisica quantistica, è forse possibile che il cosiddetto buon senso non sia poi così buono, e che dobbiamo cambiare qualcosa nella nostra visione del mondo? Cominciamo col dedicarci alla prima domanda. Come può essere fatto un principio primo, il più semplice possibile, su cui basare la fisica quantistica? Rispondere a questa prima domanda ci aprirà automaticamente nuove possibilità di rispondere alla seconda. La storia ci ha mostrato con sempre maggior chiarezza che al mondo esistono poche idee fondamentali, incredibilmente semplici e razionali, sulle quali si può costruire un intero edificio teorico. Questi principi sono così fondamentali che devono valere sempre e dappertutto: se fossero confutati, l'intero edificio concettuale crollerebbe. Naturalmente non è da escludere la possibilità che non riusciremo a trovare alcun principio fondamentale. Forse il mondo è davvero troppo complesso perché la mente umana possa afferrarlo in tutti i casi. Comunque è già di per sé stupefacente il fatto che sia possibile scoprire dei principi e che il mondo si lascia in certi casi ridurre a pochi principi fondamentali. Sono molti gli scienziati che sospettano che il concetto di “informazione” possa essere fondamentale per compiere nuovi passi avanti nella comprensione del mondo a livello fondamentale. Wheeler sta riflettendo da tempo sul ruolo che potrebbe svolgere l’informazione nella fisica, e in particolare nella fisica quantistica, al punto tale da dire: “Domani impareremo come si può capire la fisica grazie al linguaggio dell’informazione, e a esprimerla quindi con questo linguaggio”. Nel corso di tutta la 67=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! vita raccogliamo informazioni, in base alle quali abbiamo determinate reazioni. Questa raccolta di informazioni può avvenire passivamente, se ci limitiamo a ricevere le impressioni, oppure attivamente, se poniamo domande concrete alla natura. È chiaro, comunque, che ogni essere vivente deve raccogliere continuamente informazioni, in base alle quali prendere decisioni e regolare il proprio comportamento. Ma cosa intendiamo per “informazione”? La nozione scientifica di informazione è stata chiarita da Claude Shannon (1916-2001): L’informazione è una misura del numero di alternative possibili per qualcosa Per esempio, se lancio un dado ed esce una particolare faccia, poiché ci sono 6 possibilità alternative, ho una quantità di informazione N=6. Per indicare l’informazione è più conveniente usare la seguente definizione: ! ! !"#! !. In questo modo S=1 corrisponde a N=2 (!"#$!"!!"#! ! ! !!, cioè all’alternativa minima che comprende due sole possibilità. Questa unità di misura, questo atomo di informazione, è l’informazione fra due sole alternative, particelle elementari dell’informazione, ed è chiamata “bit”. Un bit, dunque, può avere due valori, 0 oppure 1, che bastano a esprimere matematicamente il valore di verità di un'affermazione. Una rappresentazione di questo tipo è detta rappresentazione binaria. Perché la nozione di informazione è forse fondamentale per capire il mondo? Perché misura la possibilità dei sistemi fisici di comunicare tra loro. Democrito diceva che gli atomi “si possono combinare in modi diversi, dando origine a commedie o tragedie, storie ridicole oppure poemi epici”. Se gli atomi sono anche un alfabeto, chi può leggere le frasi scritte in questo alfabeto? Il modo in cui gli atomi si dispongono può essere correlato al modo in cui altri atomi si dispongono. Quindi, un insieme di atomi può avere informazione su un altro insieme. La luce che arriva ai nostri occhi porta informazione sugli oggetti da cui proviene. Il mondo, quindi, stando alla visione democritea, non è solo una rete di atomi che si scontrano, ma è anche una rete di correlazioni fra insiemi di atomi, una rete di reciproca informazione fra sistemi fisici. E’ stato Boltzmann a comprenderlo per primo. Il calore è il movimento microscopico casuale delle molecole: tè caldo significa che le molecole si muovono velocemente. Ma perché il tè si raffredda? Perché, secondo la geniale idea di Boltzmann, il numero di possibili stati delle molecole che corrispondono al tè caldo e all’aria fredda con cui interagisce (sistema fisico = tè caldo+aria fredda) è più grande del umero di quelli che corrispondono al tè freddo e all’aria calda (sistema fisico = te freddo+aria calda). Tradotto nei termini della nozione di informazione di Shannon, possiamo dire che: il tè si raffredda perché l’informazione contenuta nel sistema fisico tè freddo+aria calda è minore di quella contenuta nel sistema fisico tè caldo+aria fredda. E il tè non può scaldarsi perché l’informazione non aumenta mai da sola. Chiariamo questo concetto. Poiché le molecole del tè sono moltissime, noi non conosciamo il loro moto preciso. Quindi ci manca dell’informazione. Questa informazione (in quanti diversi stati possono essere le molecole del tè caldo), grazie a Boltzmann, si può calcolare. Se il tè si raffredda, un po’ della sua energia passa all’aria; quindi, le molecole del tè si muovono più piano, ma le molecole dell’aria si muovono più rapidamente. Se calcoliamo l’informazione mancante, alla fine del processo si scopre che è aumentata. Se fosse successo il contrario, cioè se il tè si fosse scaldato assorbendo calore dall’aria più fredda, allora l’informazione sarebbe aumentata. Ma l’informazione non può aumentare da /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 674! sola, perché quello che non sappiamo non lo sappiamo, e quindi il tè non si può scaldare da solo stando a contatto con aria più fredda. La formula di Boltzmann: ! ! !"#$% esprime proprio l’informazione (mancante) come il logaritmo del numero di alternative, cioè l’idea chiave di Shannon. E questa quantità, che abbiamo già incontrato, non è altro che l’entropia, che per un sistema chiuso e isolato, aumenta sempre. L’entropia è “informazione mancante”. L’entropia totale può solo crescere a cusa del fatto che l’informazione può solo diminuire. Che l’informazione possa essere usata come strumento concettuale per studiare il calore è oggi unanimamente accettato dai fisici. Più audace è l’idea che tale concetto possa condurre a comprendere gli aspetti ancora misteriosi della meccanica quantistica. Però, non dimentichiamo, che l’informazione sia finita è una delle idee chiave della meccanica quantistica. Infatti, il numero di risultati alternativi che possiamo ottenere misurando un sistema fisico è finito. L’intera struttura della meccanica quantistica può essere letta e compresa in termini di informazione nel modo seguente. Un sistema fisico si manifesta solo e sempre interagendo con un altro. Qualunque descrizione dello stato di un sistema fisico è sempre una descrizione dell’informazione che un sistema fisico ha di un altro sistema fisico, cioè della correlazione fra sistemi. La descrizione di un sistema non è altro che un modo di riassumere tutte le interazioni passate con quel sistema e di cercare di organizzarle in maniera tale da poter prevedere quale possa essere l’effetto di interazioni future. Sulla base di questa idea, l’intera struttura formale della meccanica quantistica si può dedurre da due semplici postulati: 1. L’informazione rilevante in ogni sistema fisico è finita 2. Si può sempre ottenere nuova informazione su un sistema fisico Il primo postulato caratterizza la granularità della meccanica quantistica: il fatto che esista un numero finito di possibilità. Il secondo caratterizza l’indeterminazione nella dinamica quantistica: il fatto che ci sia sempre qualcosa di imprevedibile che ci permette di ottenere nuova informazione. Da questi due semplici postulati segue l’intera struttura matematica della meccanica quantistica. Ciò significa che la teoria si presta a essere espressa in termini di informazione. Alla realtà, però, qualunque cosa essa sia, abbiamo solo un accesso indiretto. È sempre qualcosa che costruiamo in base alle nostre idee ed esperienze. Nel caso della fisica quantistica abbiamo già visto che con i nostri strumenti, in fondo poniamo domande alla natura, che in un modo o nell'altro risponde. Quindi, se torniamo alla questione del principio fondamentale, è chiaro che dobbiamo concedere un ruolo importantissimo alla conoscenza del risultato dell'osservazione, cioè all'informazione. Ciò forse significa che tutto è solo informazione? Addirittura che forse la realtà non esiste? Non possiamo semplificare le cose fino a questo punto. Il fatto che la realtà non sia accessibile direttamente non significa certo che non esista, ma la sua esistenza non può essere dimostrata, sebbene ci siano quanto meno alcuni indizi della presenza di una realtà indipendente da noi. In primo luogo bisogna citare il fatto che, nella stessa situazione, tutti possano concordare di eseguire la stessa misurazione e dunque ottenere gli stessi risultati. Ciò significa che evidentemente la misurazione del singolo individuo 675! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! non è importante nel complesso. Il secondo indizio dell'esistenza di una realtà indipendente da noi è dato dalla casualità nei singoli processi quantistici. In particolare il fatto che l'elemento caso sia oggettivo, non spiegabile con una causa più profonda e quindi del tutto estraneo alla nostra influenza, indica che esiste qualcosa al di fuori di noi. Tuttavia, come già accennato, non ne possiamo dare una dimostrazione logica inconfutabile. Evidentemente il nostro dilemma di fondo è che non possiamo distinguere, dal punto di vista operativo e in modo comprensibile, l'informazione e la realtà. Le leggi della natura devono quindi essere fatte in modo che queste differenze non abbiano alcun effetto osservabile. Possiamo dunque formulare la condizione: Le leggi della natura non possono fare alcuna differenza tra realtà e informazione Evidentemente non ha senso parlare di una realtà su cui non si possono avere informazioni. Ciò che si può sapere diventa il punto di partenza per fare ipotesi sulla realtà. Nella visione consueta, affermata fino a oggi, è esattamente il contrario. Tutti presupponiamo che il mondo, con le sue proprietà, esista a prescindere da noi. Secondo la fisica classica, e anche secondo il senso comune, la realtà viene per prima e l'informazione su questa realtà è invece qualcosa di derivato e di secondario. Ma forse anche il contrario è vero. Tutto ciò che abbiamo sono le informazioni, le nostre impressioni sensoriali, le risposte a domande che facciamo noi. La realtà viene dopo: è derivata e dipendente dalle informazioni che riceviamo. Possiamo così formulare la nostra idea di fondo in modo ancora più radicale. Visto che evidentemente non ci può essere alcuna differenza tra la realtà e l'informazione, affermiamo che: L'informazione è la materia primordiale dell'universo Vediamo di esplicitare meglio questo concetto, applicandolo a sistemi sia macroscopici sia microscopici; in particolare vogliamo capire se questa nuova prospettiva ci fa compiere qualche progresso nella comprensione dei fenomeni quantistici. Prendiamo un sistema macroscopico, il numero di domande necessarie per una caratterizzazione completa di un siffatto sistema classico è incredibilmente grande, quindi non è possibile caratterizzare in modo completo un sistema classico. Vediamo ora che succede se si prendono oggetti e sistemi sempre più piccoli. Che cosa resta della grande quantità di informazioni necessarie a caratterizzare completamente il sistema? È ragionevole supporre che questa sia tanto minore quanto più piccolo è il sistema stesso. Ma torniamo al nostro ragionamento originale: partiamo da un sistema caratterizzato da molte affermazioni, cui corrispondono quindi molti bit di informazione. Nel caso di un sistema classico, macroscopico, il numero dei bit necessari corrisponde almeno al numero degli atomi che compongono il sistema, un numero elevatissimo. Cominciamo allora a dividere il sistema a metà, poi un'altra volta a metà, un'altra ancora e così via; è chiaro che per caratterizzare ognuno di questi sistemi parziali abbiamo bisogno di sempre meno bit. Alla fine raggiungiamo un limite semplice, chiaro e inevitabile quando arriviamo a un sistema così piccolo da poter essere caratterizzato da un singolo bit, per il quale cioè basta il valore di verità di una sola affermazione, quindi una sola risposta definitiva a una domanda. Una volta /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 676! raggiunta questa condizione, abbiamo tra le mani il sistema più piccolo possibile, che definiamo sistema elementare. Torniamo al nostro mondo dei quanti. Anche loro sono unità minime, elementari, inizialmente concepiti come i mattoncini costitutivi del mondo fisico. È naturale identificare direttamente le due situazioni e far corrispondere al sistema quantistico elementare un bit di informazione. Naturalmente, una particella elementare come l’elettrone o il fotone, avranno varie proprietà come l’informazione sulla traiettoria, sullo spin o sulla polarizzazione. Dobbiamo dunque fare una scelta a monte in un dato esperimento, come quello della doppia fenditura: in un sistema elementare, che corrisponde a un solo bit di informazione, ci limitiamo sempre a una domanda specifica, che potrebbe riguardare per esempio l'informazione sulla traiettoria. Il nostro presupposto fondamentale per la fisica quantistica è allora: Il sistema elementare corrisponde a un bit di informazione C’è da chiedersi allora se da questo semplice principio segua qualcosa di interessante. Ebbene, senza entrare nel merito, le tre proprietà principali della fisica quantistica (la casualità oggettiva, la complementarità e l'entanglement), trovano in questo modo la propria spiegazione naturale. Che legame esiste tra la nostra identificazione dell'informazione come concetto fondamentale dell'universo e il fatto che il mondo appaia quantizzato? Se traduciamo il sistema che osserviamo nella sua rappresentazione in forma di affermazioni logiche, arriviamo a una situazione molto singolare: queste possono essere solo in numero intero. Per il semplice motivo che possiamo porre domande alla natura, ottenendo sempre come risposta si o no, un'ulteriore suddivisione non è possibile: non si può rivolgere alla natura una domanda e mezza! Ciò significa che a qualche livello deve esserci una struttura discreta, a grana fine, oltre la quale non si può scendere. Questa struttura non solo è per principio inevitabile, ma anzi è una parte essenziale della teoria. I fenomeni quantistici sono allora una conseguenza del fatto che il mondo rappresenta le nostre affermazioni, che necessariamente si presentano, per l'appunto, quantizzate. Alla domanda: perchè il mondo è quantizzato? La risposta è semplicemente questa: perchè l'informazione sul mondo è quantizzata. Le affermazioni sono discrete, cioè si possono contare esattamente come i numeri degli stati quantistici. Pertanto, tutto deve essere rappresentato in termini di decisioni del tipo si o no. Constatiamo a questo punto un fatto interessante: del tutto consciamente, ora non chiediamo più che cosa sia in realtà un sistema elementare, ma parliamo solo di informazioni. Quindi per noi un sistema elementare non è altro che ciò cui si riferiscono le nostre informazioni, un concetto che ci costruiamo in base alle informazioni di cui disponiamo. Allora, l'informazione è la materia primordiale dell'universo. Un punto, o meglio una domanda, centrale rimane questo: se l'informazione è la chiave dell'universo, perchè non è arbitraria? Perché osservatori diversi non hanno informazioni diverse? Se consideriamo un determinato esperimento, gli osservatori sono tutti d'accordo sul fatto che una certa proprietà di una particella elementare è stata misurata, per cui è possibile che questa coincidenza tra osservazioni diverse significhi che esiste un mondo. Un mondo fatto in modo tale che l'informazione che abbiamo, e non abbiamo altro, esista chiaramente, in un certo qual modo, anche a prescindere dall'osservatore. Ma in che modo è indipendente dall'osservatore? Probabilmente lo si 677! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! nota soprattutto nel singolo processo quantistico, nel quale per esempio un rivelatore registra la particella, e l'altro no, in modo del tutto casuale. In questo caso tutti gli osservatori concorderanno su quale sia questo rivelatore. Questa non influenzabilità del singolo evento e l'accordo di tutti gli osservatori sul risultato sono probabilmente gli indizi più convincenti dell'esistenza di un mondo indipendente da noi. Che cosa sono però queste proprietà della realtà? Anzi, queste proprietà della realtà esistono? Che cosa possiamo sapere su questa realtà? Che cosa significano queste domande in cui l'informazione svolge un ruolo fondamentale? A questo punto, allora, è possibile fare un'ipotesi radicale: Realtà e informazione sono la stessa cosa Ossia, considerare questi due concetti, realtà e informazione, che chiaramente finora abbiamo sempre tenuto distinti, come due facce della stessa medaglia, proprio come lo spazio e il tempo che, secondo la relatività di Einstein, sono a loro volta legati in modo indissolubile. Noi vediamo queste due cose come un tutt'uno a causa del nostro postulato secondo il quale nessuna legge della natura o descrizione della natura può fare differenza tra realtà e informazione. Dovremmo allora coniare un nuovo termine che comprenda sia la realtà sia l'informazione. Già il fatto che un termine del genere non solo non esista, ma che sia difficile anche immaginarlo, ci fa capire quanto siano complessi i problemi concettuali che emergono. La nostra affermazione precedente, secondo la quale l'informazione è la materia primordiale dell'universo, è ora da considerare anche nel senso di questa unità tra realtà e informazione. Sembra, quindi, che dobbiamo eliminare la separazione tra informazione e realtà, per cui, evidentemente, non ha senso parlare di una realtà se non si ha alcuna informazione su di essa. E non ha senso parlare di informazione senza qualcosa cui questa faccia riferimento. Quindi non sarà mai possibile arrivare all'essenza delle cose con le nostre domande. Anzi, emerge un dubbio sensato: c'è da chiedersi se questa essenza delle cose indipendente dall'informazione esista davvero. Visto che per principio non può essere dimostrata, in fondo anche presupporre la sua esistenza diventa superfluo. La sensazione che emerge è che siamo entrati in una zona nella quale molte idee non sono ancora chiare, in cui alcune domande molto importanti sono tuttora senza risposta. Alcune di queste domande riguardano appunto la natura di questo concetto che unisce la realtà all'informazione e all'essenza della conoscenza. Da tutto ciò emerge infine un'altra domanda: qual è il nostro ruolo nel mondo? C'è da sperare che, sicuramente anche grazie alla riflessione filosofica, si arrivi a nuovi punti di vista o addirittura a cambiamenti rivoluzionari. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 678! !"#$%&'&()*! E' più facile spezzare un atomo che un pregiudizio Einstein "(#2!0!*(#&/*"-(,-# -#0/8&/*"-(,-# 14.1 La scoperta della radioattività e sue conseguenze All'inizio del 1896, il fisico francese Henri Becquerel (1852–1908; Premio Nobel), venuto a conoscenza degli studi di Rontgen sui raggi X decise di indagare se qualcosa di simile ai raggi X venisse emesso dalle sostanze fluorescenti che, sotto l'azione della luce, si coprono di una soffusa luminosità. Egli scelse per queste ricerche l'uranile (solfato doppio di uranio e potassio), un minerale caratterizzato da un notevole potere fluorescente. Poiché era convinto che l'illuminazione fosse il fattore responsabile della radiazione emessa da tale cristallo, lo appoggiò su una lastra fotografica, avvolse il tutto in carta nera e lo espose alla luce solare. Dopo qualche ora di esposizione, Becquerel sviluppò la lastra fotografica e questa presentava una macchia scura in corrispondenza della zona sulla quale era stato appoggiato il cristallo di uranile. Ripetuto l'esperimento parecchie volte, la macchia scura ricompariva nella stessa posizione, qualunque fosse lo spessore di carta usato per ricoprire la lastra fotografica. Per puro caso, durante i soliti esperimenti, Becquerel si accorse che l'annerimento della lastra non aveva nulla a che fare con l'esposizione del cristallo ai raggi solari. Si trattava, dunque, di una radiazione penetrante simile ai raggi X, ma emessa spontaneamente, senza che fosse necessaria alcuna eccitazione, presumibilmente dagli atomi dell'uranio contenuti nel cristallo di uranile. Becquerel provò a riscaldare il cristallo, a raffreddarlo, a polverizzarlo, a scioglierlo in acidi, insomma a sottoporlo a tutti i trattamenti possibili, ma l'intensità della misteriosa radiazione restava costante. Questa nuova proprietà della materia, battezzata col nome di radioattività, non aveva nulla a che vedere col trattamento chimico o fisico cui era sottoposta, ma era una proprietà intrinseca dell'atomo. 679! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Negli anni immediatamente successivi alla scoperta della radioattività, un gran numero di fisici e chimici rivolsero la loro attenzione al nuovo fenomeno. Marie Curie (1867–1934; Premio Nobel), nata in Polonia e moglie del fisico francese Pierre Curie (1859–1906; Premio Nobel), sottopose tutti gli elementi chimici allora noti ed i loro composti ad una meticolosa analisi per identificare l'eventuale radioattività e scoprì che il torio emette radiazioni simili a quelle dell’uranio. Confrontando la radioattività di minerali di uranio con quella dell'uranio metallico, notò, inoltre, che i minerali erano cinque volte più radioattivi di quanto ci si sarebbe aspettato per il loro contenuto di uranio; quindi era molto probabile la presenza nei minerali di uranio di qualche altra sostanza molto più radioattiva dello stesso uranio, che riuscì a scoprire e che chiamò polonio, in onore della sua terra natale. Poco tempo dopo fu isolata un'altra sostanza simile al bario, circa due milioni di volte più radioattiva dell'uranio, cui fu dato il nome di radio. La scoperta del polonio e del radio fu ben presto seguita da quella di molte altre sostanze radioattive, tra le quali l'attinio, stretto parente dell'uranio da fissione, il radiotorio ed il mesotorio. La ricerca in questo nuovo ramo della fisica progredì rapidamente, orientandosi verso lo studio delle proprietà della radiazione penetrante. Al Cavendish Laboratori di Cambridge Thomson fece le prime accurate misure sul potere ionizzante delle radiazioni emesse dagli elementi radioattivi e, nel 1899, Rutherford scoprì che un preparato radioattivo può emettere almeno due specie di radiazioni, inizialmente contraddistinte in base al loro potere penetrante nella materia: la componente poco penetrante fu chiamata radiazione alfa e quella più penetrante radiazione beta. Qualche tempo dopo, il francese Paul Villard (1860–1934) evidenziò un terzo tipo di radiazione ancora più penetrante dei raggi beta e molto simile ai raggi X, che egli chiamò radiazione gamma. In seguito si riconobbe che i raggi α sono nuclei di elio con doppia carica positiva, i raggi β sono elettroni, mentre i raggi γ sono onde elettromagnetiche, cioè fotoni di altissima energia, ancora più elevata di quella dei raggi X. Subito dopo la scoperta della radioattività, Rutherford ed il suo collaboratore Frederick Soddy (1877–1956; Premio Nobel), annunciarono che il fenomeno della radioattività era il risultato di una trasformazione spontanea di un elemento in un altro tramite l’emissione di radiazione. Non era più un sogno da alchimisti, ma un fatto scientifico, che tutti gli elementi radioattivi si trasformassero spontaneamente in altri elementi. Anche gli scettici più convinti dovettero abbandonare la radicata convinzione sull’immutabilità della materia. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 67:! L'emissione di una particella α ha come risultato la formazione di un elemento spostato di due posti a sinistra nel Sistema Periodico ed il cui peso è inferiore di quattro unità a quello dell’elemento di partenza. L'emissione di una particella β sposta l’elemento di un posto a destra nel Sistema Periodico, mentre ne lascia invariato il peso atomico. L'emissione di raggi γ è un processo secondario che accompagna l’emissione delle particella α e β. Infatti, in seguito all’emissione di tali particelle il nucleo si porta in uno stato eccitato e, nel ritorno allo stato fondamentale, emette raggi γ. NATURA DELLE RADIAZIONI Radiazione ZX A 2α → 4 Z − 2Y A−4 α + 2α4 = nuclei di elio Radiazione ZX A → −1 β Z + 1Y 0 A + β- −1 β Radiazione 0 = elettrone υ = antineutri no +υ ZX A → +1 β Z + 1Y 0 A + β+ +1 β Radiazione 0 = positrone +υ * A ZX γ → ZXA + γ γ = fotone υ = neutrino X = nucleo dell’elemento radioattivo; Y = nucleo dell'elemento originario del decadimento; A = numero di massa = numero totale dei nucleoni; Z = numero atomico Z*X = nucleo in uno stato eccitato. In base alle leggi della meccanica quantistica il decadimento radioattivo di un nucleo è un processo puramente casuale; da ciò discende che mentre è praticamente impossibile determinare l'istante in cui un particolare nucleo si disintegra, si può invece predire la probabilità che un certo numero di atomi di una data specie si disintegri in un dato intervallo di tempo. Pertanto, le radiazioni α, β e γ seguono la seguente legge: LEGGE DEL DECADIMENTO RADIOATTIVO N T = N0 e −λt NT = numero di nuclei radioattivi non ancora decaduti presenti all’istante t; N0 = numero di nuclei radioattivi presenti ali 'istante t = 0; λ = costante di decadimento L'interpretazione del fenomeno della radioattività come un decadimento spontaneo dei nuclei atomici non lasciava alcun dubbio che i nuclei fossero sistemi meccanici complessi costituiti da molte particelle. Il fatto poi che i pesi atomici degli isotopi di tutti gli elementi fossero ben rappresentati con numeri interi, indicava nei protoni il principale costituenti del nucleo. Quando Bohr parlò a Rutherford di questi fatti, essi decisero di comune accordo che il solo modo per salvare la situazione, dal punto di vista quantistico, era di supporre l’esistenza di protoni senza carica, che furono chiamati neutroni. Verso il 1925 fu organizzato, presso il Laboratorio Cavendish, un intenso programma di ricerca, allo scopo di espellere questi ipotetici neutroni dai nuclei di qualche elemento leggero, per ottenere una conferma diretta della loro esistenza, ma i risultati furono negativi. Il lavoro in quella direzione fu temporaneamente sospeso e la scoperta dei neutroni fu ritardata di un certo numero di anni. Nel 1930, Walther Bothe (1891–1957; Premio Nobel) e il suo allievo Becker, osservarono che se le particelle alfa del polonio, dotate di grande energia, incidevano su 68<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! nuclei di elementi leggeri, specificatamente berillio, boro e litio, era prodotta una radiazione particolarmente penetrante. In un primo momento si ritenne che potesse trattarsi di radiazione gamma, sebbene si mostrasse più penetrante dei raggi gamma allora conosciuti e i dettagli dei risultati sperimentali fossero difficili da interpretare in tali termini. Finalmente, all'inizio del 1932, il fisico James Chadwick (1891–1974; Premio Nobel) eseguì una serie di misurazioni che mostrarono come l'ipotesi dei raggi gamma fosse insufficiente a dare conto dei dati osservativi. Egli congetturò che la radiazione penetrante del berillio consistesse in particelle neutre, chiamate appunto neutroni, dotate di massa approssimativamente uguale a quella dei protoni, la cui esistenza era stata congetturata più di un decennio prima, ma la cui ricerca sperimentale si era rivelata fino ad allora infruttuosa. Nel 1914 Chadwick lavorava a Berlino sotto la guida del fisico tedesco Geiger, ed il suo compito era lo studio degli spettri dei raggi beta emessi da varie sostanze radioattive; tali spettri sembravano differire radicalmente dagli spettri dei raggi alfa e gamma e le energie delle particelle beta variavano entro un grande intervallo. Bohr, molto eccitato da questa strana situazione, giunse a suggerire che il principio di conservazione dell'energia non fosse valido per le trasformazioni radioattive β. Pauli, invece, suggerì un'alternativa che avrebbe equilibrato il rendiconto energetico dei processi nucleari. Egli, infatti, prese in considerazione la possibilità che l'emissione di una particella beta fosse sempre accompagnata dall'emissione di un'altra particella instabile, che sfuggiva all'osservazione e che si portava appresso l'energia necessaria all'equilibrio energetico. Se si suppone che queste particelle siano prive di carica elettrica ed abbiano una massa molto minore di quella dell'elettrone, potrebbero effettivamente sfuggire col loro carico d'energia ai più accurati tentativi d'osservazione sperimentale. Queste particelle, più tardi, furono chiamate neutrini da Fermi per distinguerle dai neutroni, molto più grandi, scoperti da Chadwick. Dobbiamo dire che queste particelle per molto tempo rimasero realmente inosservabili ed i fisici dovettero accontentarsi di osservare i loro effetti. Soltanto nel 1955 Frederick Reines (1918–1998, Premio Nobel) e Clyde Cowan, del laboratorio di ricerche di Los Alamos, riuscirono ad organizzare un esperimento per mettere in evidenza il neutrino. La più intensa sorgente di neutrini esistente è la pila atomica che viene attraversata facilmente da queste particelle senza che vengano arrestati dagli spessori di cemento che schermano le pile. Per rivelarli, Reines e Cowan disposero all'esterno della schermatura un enorme contenitore pieno d'idrogeno ed un gran numero di contatori di particelle di diverso tipo. Un neutrino veloce, urtando un protone crea un elettrone positivo, trasformando il protone in un neutrone secondo il seguente schema: p + υ → n + e+ Dal momento in cui si scoprì che il fenomeno della radioattività rappresentava una trasformazione spontanea di un elemento chimico in un altro, Rutherford fu preso dal desiderio di disintegrare il nucleo atomico di qualche elemento stabile per trasformarlo in un altro. Poiché la barriera di repulsione coulombiana circostante il nucleo atomico diventa sempre più alta mentre ci si sposta lungo il Sistema Periodico, sarebbe stato molto conveniente bombardare i nuclei più leggeri; se poi si fossero usati /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 68;! come proiettili le particelle alfa ad alta energia emesse da elementi radioattivi a rapido decadimento, il compito sarebbe stato ulteriormente facilitato. Le prime osservazioni di Rutherford furono eseguite col metodo della scintillazione, ma ben presto lo studio delle trasformazioni nucleari fu enormemente facilitato dalla brillante invenzione di Charles Wilson (1869-1959; Premio Nobel): la camera a nebbia. Il funzionamento della camera a nebbia è basato sulla ionizzazione prodotta sul percorso di una particella carica in aria, o in qualsiasi altro gas. Se l'aria, attraverso la quale le particelle passano, è satura di vapor d'acqua, gli ioni prodotti fungono da centri di condensazione per le piccolissime gocce d'acqua e si osservano lunghe e sottili tracce di nebbia lungo le traiettorie delle particelle. Nel 1939, George Gamow (1904-1968), calcolò, secondo la teoria delle barriere di potenziale nucleare, che i protoni sarebbero stati proiettili nucleari molto più adatti delle particelle alfa, sia per la loro minore massa sia per la loro minore carica elettrica. I calcoli eseguiti dimostrarono, infatti, che protoni accelerati all'energia di l MeV, e quindi con energia molto minore di quella delle particelle alfa, avrebbero dovuto produrre facilmente la disintegrazione di nuclei leggeri. Rutherford chiese ai suoi allievi Walton e Cockroft, di costruire un generatore di alta tensione in grado di produrre fasci di protoni di quell'energia ed il primo "disintegratore atomico" entrò in funzione nel 1931. La ricerca pionieristica di Walton e Cockroft diede inizio alla costruzione e al perfezionamento di un numero sempre crescente di acceleratori di particelle, basati sui più vari ed ingegnosi principi. Uno di questi, il ciclotrone ideato da Ernest Lawrence (1901–1958; Premio Nobel), fu il più geniale. Il principio di funzionamento è quello di sfruttare l'accelerazione successiva di particelle cariche mobili su un'orbita circolare in un campo magnetico. Gli ioni che si vogliono utilizzare come proiettili atomici vengono iniettati al centro del ciclotrone e percorrono traiettorie circolari per effetto del campo magnetico. 14.2 La fissione nucleare Enrico Fermi (1901–1954; Premio Nobel) riunì nel famoso Istituto di Fisica di via Panisperna un gruppo di giovani laureati: fra i teorici ricordiamo B. Ferretti, E. Majorana, G. Wick; fra gli sperimentali M. Ageno, F. Rasetti, E. Amaldi, B. Pontecorvo, E. Segrè. "I ragazzi di via Panisperna", come furono chiamati i fisici che dal 1927 al 1938 lavorarono presso l'istituto romano, riuscirono in pochi anni a portare la scuola di fisica italiana al livello dei più prestigiosi centri di ricerca europei e americani. Venuto a conoscenza degli esperimenti dei coniugi Curie, che facendo interagire atomi di alluminio con particelle α giunsero nel 1934 alla scoperta della radioattività artificiale, Fermi intuì che la radioattività potesse essere provocata utilizzando come proiettili i neutroni. Poiché in natura non esistono sorgenti dirette di neutroni, egli si procurò i proiettili utilizzando quella stessa reazione con la quale Chadwick aveva 68=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! scoperto il secondo componente fondamentale del nucleo. Con la collaborazione dei suoi “ragazzi”, Fermi riuscì così, in circa un anno di intenso lavoro, a produrre e a identificare una cinquantina di elementi radioattivi. Fra i molti elementi bombardati con neutroni dal gruppo di fisici guidati da Fermi vi era l'uranio; dopo l'irraggiamento, questo elemento pesante si comportava in maniera piuttosto anomala, in quanto la radioattività indotta nel bersaglio era notevolmente superiore a quella ottenuta in simili condizioni con altri elementi. Sulla base delle conoscenze fino allora acquisite intorno alle reazioni provocate dai neutroni, i fisici romani cercarono di identificare i responsabili della marcata attività fra gli elementi con numero atomico di poco inferiore a quello dell'uranio. Poiché le ricerche furono negative, ipotizzarono quindi la creazione di un elemento transuranico, cioè che l'assorbimento di un neutrone da parte di un nucleo di uranio portasse alla formazione di un elemento più pesante di quello di partenza. Il processo provocato dai "neutroni di via Panisperna" era però più rivoluzionario di quanto allora si potesse supporre: non era infatti pensabile che un neutrone, rallentato dal passaggio nell'acqua o nella paraffina, potesse frantumare un nucleo, quando proiettili molto più energici ne erano incapaci. La vera natura dell'interazione dei neutroni lenti con l'uranio fu scoperta da due fisici-chimici tedeschi, Otto Hahn (1879–1968; Premio Nobel) e Fritz Strassmann (1902– 1980; Premio Nobel), mentre cercavano di valutare le proprietà degli ipotetici transuranici. Dopo molte incertezze, molti errori e soprattutto molto lavoro, riuscirono a dimostrare che un nucleo di uranio, colpito da un neutrone, può rompersi in due (o più) frammenti. Si ottengono così due (o più) nuclei i cui numeri atomici corrispondono a elementi situati verso la metà del sistema periodico (molto lontano quindi dal numero atomico di partenza) e i cui numeri di massa sono in genere compresi fra 75 e 160. Questo processo, chiamato fissione nucleare, avviene perché il neutrone fornisce al nucleo di uranio, di per sé poco stabile, un eccesso di energia interna che aumenta l'agitazione dei nucleoni. Il nucleo tende allora ad assumere una forma sempre più allungata, fino a rompersi in due frammenti, che sfuggono in direzioni opposte con notevole energia. Il 27 gennaio 1939 si svolgeva a Washington una conferenza di fisica teorica, durante la quale Bohr ricevette una lettera che gli comunicava che Hahn e il suo assistente Strassmann avevano scoperto la presenza di bario, cioè un elemento posto a metà strada nella Tavola Periodica, bombardando uranio con neutroni. Subito si pensò che potesse trattarsi di un caso di fissione. Fermi, che era tra i partecipanti alla conferenza, andò alla lavagna e scrisse alcune formule relative al fenomeno della fissione. Il corrispondente di un quotidiano, che era presente alla conferenza, cominciò a prendere appunti prima di essere allontanato. Ma ciò che il giornalista aveva udito apparve sui giornali e, il giorno dopo, fu contattato da parte di Robert Oppenheimer (1904–1967), il futuro responsabile del progetto Manhattan per la costruzione della bomba atomica, che chiedeva spiegazioni. Questo fu l'inizio dell'era nucleare. L'articolo sulla teoria della fissione nucleare di Bohr e di Wheeler, pubblicato nel settembre del 1939 e che fu il primo e ultimo articolo sull'argomento prima che fosse calato il sipario della sicurezza, era basato sul modello a goccia del nucleo. Quando il nucleo, colpito da un neutrone, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 684! comincia ad oscillare, assumendo una lunga successione di forme allungate, l'equilibrio tra le forze di tensione superficiale e quelle elettrostatiche scompare: le prime tendono a riportare il nucleo alla forma sferica originale, mentre le seconde tentano di allungarlo ulteriormente. Se il rapporto tra l'asse maggiore e quello minore dell'ellissoide supera un certo limite, si produce una strozzatura lungo il piano equatoriale ed il nucleo si spezza in due parti uguali. Si scoprì ben presto che la fissione del nucleo di uranio è seguita dalla contemporanea emissione di 2 neutroni i quali, a loro volta, possono colpire altri due nuclei di uranio vicini e spezzarli, producendo altri quattro neutroni che spezzano altri quattro nuclei e così via. In questo modo si innesca una reazione a catena che si propaga rapidamente in tutto il blocco di uranio, provocando la liberazione di un'enorme quantità d'energia nucleare, secondo la famosa equazione di Einstein E = mc2 I metodi originali e definitivi per alimentare e mantenere la reazione in uranio naturale furono ideati da Fermi. La prima pila atomica a moderatore di carbonio (blocchi di grafite), costruita da Fermi negli spogliatoi dello stadio dell'Università di Chicago, entrò in funzione il 2 dicembre 1941. La prospettiva di produrre la fissione nucleare su larga scala era entusiasmante e sconvolgente. Entusiasmante perché quella nucleare poteva rappresentare una nuova forma di energia da aggiungere in modo economicamente competitivo alle tradizionali fonti energetiche, rappresentate dal carbone, dal petrolio, ecc. Sconvolgente perché si rischiava di creare un micidiale ordigno di guerra che non aveva riscontro in tutti quelli realizzati fino allora dall'uomo; un mezzo distruttivo che avrebbe potuto mettere in gioco il destino stesso dell'umanità. Non bisogna infatti dimenticare il particolare momento politico sul quale si affacciava la scoperta: si era all'inizio del 1939 e la seconda guerra mondiale era alle porte. 14.3 La fusione nucleare Per molti secoli gli scienziati si sono chiesti quale fosse la causa dello splendore del Sole e delle altre stelle. Era evidente che l'energia sprigionata non poteva derivare da processi chimici o, per esempio, dalla contrazione della massa solare; infatti, tali processi non consentono di produrre energia, nemmeno lontanamente, per 4,5 miliardi di anni, perché tale è l'età del Sole. Il solo modo per giustificare una tale longevità del Sole è quello di supporre che esso riceva energia da qualche trasformazione nucleare: nell'anno 1929 l'astronomo inglese Robert Atkinson (1898-1982) ed il fisico austriaco Fritz Houtermans (1903–1966), cercarono in collaborazione di scoprire se ciò poteva 685! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! essere vero. Secondo questi due scienziati, le collisioni termiche tra gli atomi costituenti la parte interna ad altissima temperatura della massa solare (20 milioni di gradi), potevano provocare qualche reazione nucleare talmente veloce da fornire la quantità di energia necessaria. Con l'aiuto della teoria della meccanica ondulatoria sulla penetrazione attraverso le barriere di potenziale nucleare, nata solo un anno prima, i due scienziati furono in grado di dimostrare che, con le temperature e le densità esistenti all'interno del Sole, le reazioni termonucleari tra i nuclei d'idrogeno (protoni) ed i nuclei di altri elementi leggeri, potevano liberare una quantità di energia sufficiente a giustificare l'irraggiamento del Sole. Houtermans ed Atkinson proposero, allora, l'esistenza di qualche nucleo leggero capace di catturare i protoni e di imprigionarli per un buon periodo di tempo. Dopo la cattura del quarto protone si formava una particella alfa all'interno del nucleo "trappola" e la sua successiva espulsione avrebbe liberato una grande quantità di energia nucleare. Nel 1938, quando si ebbe un numero sufficiente di informazioni sulle trasformazioni dei nuclei leggeri colpiti da un protone, Hans Bethe (1906 – 2005; Premio Nobel) descrisse due serie di reazioni che, a partire dall’idrogeno, portano alla sintesi dell’elio. L’effetto complessivo della prima serie di reazioni, chiamata ciclo dell’idrogeno, è la combinazione di quattro protoni a formare un nucleo di elio, con l’emissione di due positroni, due neutrini e due fotoni gamma. La seconda serie di reazioni, chiamata ciclo del carbonio, pur interessando nel processo di fusione il carbonio, l’azoto e l’ossigeno, in definitiva converte idrogeno in elio, liberando positroni, neutrini e fotoni, proprio come il ciclo dell’idrogeno. 14.4 Le particelle elementari e le loro interazioni Uno degli aspetti caratteristici della visione relativistica è che la massa è riconosciuta come una forma di energia, per cui non è più necessario che sia indistruttibile; essa può trasformarsi in altre forme di energia. Ciò può verificarsi, ad esempio, quando le particelle subatomiche si urtano tra loro. In questi urti, le particelle possono essere distrutte e l'energia contenuta nelle loro masse può trasformarsi in energia cinetica, e ridistribuirsi tra le altre particelle che partecipano all'urto. Inversamente, quando le particelle si urtano a velocità estremamente alte, la loro energia cinetica può essere utilizzata per formare la massa di nuove particelle. La creazione e la distruzione di particelle materiali è una delle conseguenze più impressionanti dell'equivalenza tra massa ed energia (E=mc2). Nei processi d'urto della fisica delle alte energie, la massa non si conserva più. Durante l'urto, le particelle possono distruggersi trasformando le loro masse in parte nelle masse e in parte nell'energia cinetica delle particelle appena create. Quello che si conserva è solo l'energia totale dell'intero processo, cioè l'energia cinetica complessiva più l'energia contenuta in tutte le masse. Gli urti tra particelle subatomiche sono lo strumento più importante che abbiamo per studiarne le proprietà e la relazione tra massa ed energia è essenziale per la loro descrizione. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 686! La scoperta che la massa non è altro che una forma di energia ha costretto gli scienziati, ed i filosofi della scienza, a modificare in modo sostanziale il concetto di particella. Nella fisica moderna, la massa non è più associata a una sostanza materiale, e quindi le particelle non sono più viste come costituite da un qualche materiale fondamentale, bensì sono viste come pacchetti di energia. Ma poiché l'energia è associata ad attività e a processi, è implicito che la natura delle particelle subatomiche sia intrinsecamente dinamica. Per comprendere meglio questo punto, dobbiamo ricordare che queste particelle possono essere concepite solo in termini relativistici, cioè nel contesto di una struttura nella quale spazio e tempo sono fusi in un continuo quadridimensionale. Le particelle non devono essere rappresentate come oggetti tridimensionali statici, come palle da biliardo o granelli di sabbia, ma piuttosto come entità quadridimensionali nello spaziotempo. Le loro forme devono essere intese dinamicamente, come forme nello spazio e nel tempo. Le particelle subatomiche sono figure dinamiche che hanno un aspetto spaziale e un aspetto temporale. Il loro aspetto spaziale le fa apparire come oggetti con una certa massa, il loro aspetto temporale come processi ai quali prende parte l'energia equivalente della loro massa. Queste figure dinamiche, o pacchetti di energia, formano le strutture stabili di tipo nucleare, atomico e molecolare che costituiscono la materia e le conferiscono il suo ben noto aspetto solido, macroscopico. Ciò porta a credere che essa sia costituita da qualche sostanza materiale. A livello macroscopico, questa nozione di sostanza è un'approssimazione utile, ma a livello atomico essa non ha più senso. Gli atomi sono composti da particelle e queste particelle non sono fatte di un qualche materiale. Quando le osserviamo, non vediamo mai nessuna sostanza, ma solo forme dinamiche che si trasformano incessantemente l'una nell'altra, in una continua danza di energia. La meccanica quantistica ha permesso di capire che queste particelle non sono granelli isolati di materia, ma distribuzioni di probabilità, interconnessioni in una inestricabile rete cosmica. La teoria della relatività ha poi reso vive, per così dire, le particelle rivelandone il carattere intrinsecamente dinamico e facendo vedere che l'attività della materia è la vera essenza del suo essere. Le particelle del mondo subatomico non sono attive solo nel senso che si muovono con estrema velocità ma nel senso che esse stesse sono processi. L'esistenza della materia e la sua attività non possono essere separate: esse sono soltanto aspetti differenti della stessa realtà spaziotemporali. I fisici devono tener conto dell'unificazione di spazio e tempo quando studiano il mondo subatomico e, di conseguenza, essi vedono gli oggetti di quel mondo, le particelle, non staticamente, ma dinamicamente, in termini di energia, attività e processi. I mistici orientali sembrano essere consapevoli a livello macroscopico della compenetrazione di spazio e tempo e quindi vedono gli oggetti macroscopici in un modo che è molto simile a come i fisici concepiscono le particelle subatomiche. Ciò è particolarmente sorprendente nel Buddhismo. Uno dei principali insegnamenti del Buddha era che “tutte le cose composte sono precarie”. Nella versione originale in lingua Pali, il termine usato per “cose” è samkhara, una parola che significa anzitutto, un evento, un avvenimento, o anche, un'azione, un atto, e solo come significato secondario, una cosa esistente. Questo indica chiaramente che i Buddhisti hanno una concezione dinamica delle cose come processi in continuo mutamento. Come i fisici moderni, i Buddhisti vedono tutti gli oggetti come processi in un flusso universale e negano l’esistenza di qualsiasi sostanza materiale Questa negazione 687! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! è uno dei tratti più caratteristici di tutte le scuole di filosofia buddhista ed è anche tipica del pensiero cinese. Scrive lo storico della scienza Joseph Needham (1900-1995): “Mentre la filosofia europea tendeva a trovare la realtà nella sostanza la filosofia cinese tendeva a trovarla nella relazione”. Prima della fisica relativistica delle particelle, i costituenti della materia erano sempre stati considerati o come unità elementari indistruttibili e immutabili in senso democriteo, oppure come oggetti composti che potevano essere suddivisi nelle loro parti costituenti; e la domanda fondamentale che ci si poneva era se fosse possibile continuare a dividere la materia, o se infine si sarebbe giunti alle minime unità indivisibili. Dopo la scoperta di Dirac, tutto il problema della divisibilità della materia apparve in una nuova luce. Quando due particelle si urtano con energie elevate, di solito esse si frantumano in parti, ma queste parti non sono più piccole delle particelle originarie. Sono ancora particelle dello stesso tipo, e sono prodotte a spese dell'energia di moto (energia cinetica) coinvolta nel processo d'urto. L'intero problema della divisibilità della materia è quindi risolto in maniera inaspettata. L'unico modo per dividere ulteriormente le particelle subatomiche è quello di farle interagire tra loro in processi d'urto ad alta energia. Così facendo possiamo dividere la materia, ma non otteniamo mai pezzi più piccoli, proprio perchè creiamo le particelle a spese dell'energia coinvolta nel processo. Questo stato di cose è destinato a rimanere paradossale fino a quando continuiamo ad assumere un punto di vista statico secondo cui la materia è formata da mattoni elementari. Solo quando si assume un punto di vista dinamico, relativistico, il paradosso scompare. Le particelle sono viste allora come configurazioni dinamiche, o processi, che coinvolgono una certa quantità di energia, la quale si presenta a noi come la loro massa. In un processo d'urto, l'energia delle due particelle che entrano in collisione viene ridistribuita secondo una nuova configurazione, e se è stata aggiunta una quantità sufficiente di energia cinetica, la nuova configurazione può comprendere particelle ulteriori. Secondo la nostra attuale conoscenza della materia, le sue forme basilari sono le particelle subatomiche e la comprensione delle loro proprietà e delle loro interazioni è lo scopo principale della moderna fisica fondamentale. Oggi, noi conosciamo più di duecento particelle, la maggior parte delle quali vengono create artificialmente in processi d'urto e vivono solo per un intervallo di tempo estremamente breve, dopo il quale si disintegrano nuovamente in protoni, neutroni ed elettroni. È quindi del tutto evidente che queste particelle dalla vita così breve rappresentano soltanto forme transitorie di processi dinamici. Nonostante la loro vita estremamente breve, non solo è possibile rivelare l'esistenza di queste particelle e misurarne le proprietà, ma addirittura si può fare in modo che lascino delle tracce, prodotte nelle cosiddette camere a bolle, che possono essere fotografate. Le più importanti domande che ci poniamo nei confronti di queste forme, o particelle, sono le seguenti. Quali sono i loro caratteri distintivi? Sono composte e, se lo sono, da che cosa sono composte? In quale modo interagiscono l'una con l'altra, cioè quali sono le forze che agiscono tra loro? Infine, se le particelle stesse sono processi, di quali tipi di processi si tratta? Siamo diventati consapevoli che nella fisica delle particelle tutte queste domande sono inscindibilmente connesse. Data la natura relativistica delle particelle subatomiche, non possiamo comprenderne le proprietà senza comprenderne anche le loro interazioni reciproche e, a causa della fondamentale /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 688! interconnessione che caratterizza il mondo subatomico, non possiamo comprendere alcuna particella prima di aver compreso tutte le altre. Sebbene ci manchi ancora una teoria quantistico-relativistica completa del mondo subatomico, sono state elaborate molte teorie e molti modelli parziali che descrivono con grande successo alcuni aspetti di questo mondo. Ogni volta che, nel corso degli anni, una microscopica entità materiale veniva considerata corrispondente all'atomo di Democrito, nuove scoperte e nuove teorie mostravano che l'oggetto ritenuto elementare in realtà era formato da qualche cosa ancora più fondamentale e ancora più semplice. Fin dall'inizio degli anni Trenta tutta la materia conosciuta poteva essere descritta mediante quattro particelle considerate elementari e a simmetria sferica: il protone, l'elettrone, il neutrone e il fotone. Questo schema, estremamente semplice e attraente, cominciò lentamente a mutare con l'introduzione dello spin, con la teoria della relatività e con le antiparticelle di Dirac. Lo spin, dapprima, fece perdere la perfetta simmetria geometrica dei corpuscoli; la scoperta dell'antimateria fece poi mutare la concezione materialistica della natura; la relatività, infine, fornì la possibilità teorica di creare una particella dalle altre, a condizione di disporre di sufficiente energia. La fiducia nell'apparente semplicità della materia fu scossa dalla scoperta, effettuata da Andersson nel 1932, dell'elettrone positivo (positone) che confermava la teoria di Dirac sulle antiparticelle, dai primi mesoni (1936) prodotti dai raggi cosmici, dall'introduzione del neutrino (ufficialmente trovato nel 1953) e, soprattutto, dalla comparsa di numerose altre particelle che hanno dilatato in modo non previsto la famiglia delle prime particelle ritenute elementari. La prima particella “piovuta dal cielo” è stato il positrone, primo esempio di antimateria. Oltre all'antielettrone, dai raggi cosmici è arrivato il "fratello maggiore" dell'elettrone: il muone osservato per la prima volta da S. Neddermayer e Andersson nel 1937. La costruzione dei grandi acceleratori ha incrementato, infine, a tal punto il numero delle particelle subnucleari che, allo stato attuale, i costituenti primari della materia sono così numerosi e con evidenti tracce di struttura interna che non possono più essere considerati sotto un aspetto elementare. Con gli acceleratori di particelle la possibilità teorica ipotizzata dalla relatività di creare nuove particelle è diventata una realtà. Dalla collisione ad altissima energia fra corpuscoli si possono ottenere, nel rispetto di alcune leggi di conservazione, altri corpuscoli, e non solo, per ogni tipo di particella vi è un corpuscolo identico per quanto riguarda la massa e la vita media, ma opposto per quanto riguarda alcune proprietà come per esempio la carica elettrica, che noi indichiamo con il nome di antiparticella. L'accoppiamento simmetrico particellaantiparticella, introdotto inizialmente da un punto di vista teorico da Dirac per collegare le due grandi teorie del ventesimo secolo (la relatività e la meccanica quantistica) è stato sistematicamente verificato in tutti gli esperimenti ad alta energia. Dal 1932, anno in cui Andersson scoprì il positrone, la lista delle antiparticelle si è ingrandita di pari passo con la lista delle particelle. Nel 1955, per merito di Segrè e Owen Chamberlain (1920–2006; Premio Nobel), è stato scoperto l'antiprotone e l'anno successivo, sempre nel betatrone Lawrence Radiation Laboratory di Berkeley, l'antineutrone. Tranne alcune particelle (il fotone, il pione neutro, ecc.), la cui antiparticella corrisponde alla particella, tutte le altre sono distinte dalle corrispondenti antiparticelle. 689! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Negli ultimi decenni, gli esperimenti di diffusione ad alta energia ci hanno rivelato nel modo più straordinario la natura dinamica e continuamente mutevole del mondo delle particelle; la materia si è dimostrata capace di trasformazione totale. Tutte le particelle possono essere trasformate in altre particelle, possono essere create dall'energia e possono scomparire in energia. In questo contesto, concetti classici come particella elementare, sostanza materiale o oggetto isolato, hanno perso il loro significato: l'intero universo appare come una rete dinamica di configurazioni di energia non separabili. Non abbiamo ancora trovato fino a oggi una teoria completa per descrivere questo mondo delle particelle subatomiche, ma disponiamo di diversi modelli teorici che ne rappresentano piuttosto bene alcuni aspetti. Nessuno di questi modelli è privo di difficoltà matematiche e ognuno di essi è in qualche modo in contraddizione con gli altri, ma tutti riflettono l'unità fondamentale e il carattere intrinsecamente dinamico della materia. Essi mostrano che le proprietà di una particella possono essere capite solo in rapporto alla sua attività, alla sua interazione con l'ambiente circostante, e che perciò la particella non può essere vista come un’entità isolata, ma va intesa come una parte integrata del tutto. Negli anni Trenta, per spiegare come i protoni potessero tranquillamente convivere uno vicino all'altro nel limitato volume nucleare, malgrado la repulsione elettrostatica dovuta alla loro carica positiva, si pensò che dovesse esistere una forza capace, come una colla, di tenere uniti i protoni: una forza ancora più intensa di quella di natura elettromagnetica agente fra le particelle cariche, in modo da prevalere su quest’ultima. Questa forza, oggi detta di interazione nucleare forte, si manifesta fra alcune particelle chiamate adroni (dal greco adros, "forte"), come i protoni e i neutroni; il suo raggio d'azione è dell'ordine delle dimensioni nucleari, cioè di 10-15 m. Una grande varietà di fenomeni, come il decadimento beta, la disintegrazione di molte particelle instabili, l'interazione, estremamente poco probabile, dei neutrini con la materia, la cattura nucleare di alcune particelle, ecc., può essere spiegata in termini di un'altra forza fondamentale, quella di interazione nucleare debole. La teoria dell'interazione debole ha origine da un lavoro di Fermi del 1933. Riprendendo un'ipotesi formulata qualche anno prima da Pauli, Fermi riuscì a interpretare lo spettro continuo degli elettroni nell'emissione beta. Ciascuno di questi elettroni è prodotto, insieme a un antineutrino, dal decadimento di un neutrone in un protone. L'importanza della teoria di Fermi consiste nel fatto che, oltre a introdurre il neutrino nel mondo delle particelle, stimolò una numerosa serie di ricerche e servì da modello per interpretare il decadimento di molte particelle instabili. Per quanto riguarda il raggio d'azione, tale forza ha effetto solamente a brevissima distanza, pari a circa 10-18 m. L'interazione gravitazionale, estremamente più debole delle interazioni di cui sopra, può essere ignorata in tutti i problemi riguardanti entità microscopiche come le particelle. Con molta probabilità, però, in un prossimo futuro che è già cominciato, la forza gravitazionale potrebbe rappresentare la chiave per capire alcuni fra i molti misteriosi problemi della fisica delle particelle. La teoria della relatività ha modificato drasticamente non solo la nostra concezione delle particelle, ma anche la nostra rappresentazione delle forze che agiscono tra di esse. In una descrizione relativistica delle interazioni, la forza tra particelle, vale a dire la loro mutua attrazione o repulsione, è rappresentata come scambio di una particella intermedia, chiamata quanto mediatore o bosone vettore, la cui /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 68:! massa è inversamente proporzionale al raggio d'azione della forza in gioco. Questa regola, introdotta per la prima volta per spiegare le modalità dell'interazione elettromagnetica e successivamente di quella forte, viene attualmente ritenuta valida per tutte le classi d'interazione. Questo concetto è molto difficile da visualizzare. Ciò è una conseguenza del carattere quadridimensionale dello spaziotempo del mondo subatomico, e né la nostra intuizione né il nostro linguaggio possono trattare in maniera adeguata questa idea, che tuttavia è cruciale per una comprensione dei fenomeni subatomici. Essa permette di collegare le forze tra i costituenti della materia alle proprietà di altri costituenti della materia, e quindi unifica i due concetti, forza e materia, che erano sembrati così fondamentalmente diversi fin dai tempi degli atomisti greci. Oggi si vede che forza e materia hanno la loro comune origine nelle configurazioni dinamiche che chiamiamo particelle. Il fatto che le particelle interagiscano attraverso forze che si manifestano come scambio di altre particelle è una ragione ulteriore per cui il mondo subatomico non può essere scomposto in parti costituenti. Le teorie dei campi della fisica moderna non solo hanno portato a una nuova concezione delle particelle subatomiche ma hanno anche modificato in maniera radicale la nostra concezione delle forze che agiscono fra queste particelle. In origine, il concetto di campo era legato a quello di forza, e anche nella teoria dei campi esso è ancora associato alle forze tra particelle. Il campo elettromagnetico, per esempio, può manifestarsi come campo libero sotto forma di onde/fotoni che si propagano, oppure può avere la funzione di un campo di forze tra particelle cariche. In quest'ultimo caso, la forza si manifesta come scambio di fotoni tra le particelle che interagiscono. La repulsione elettrica tra due elettroni, per esempio, è mediata da questi scambi di fotoni, ossia i quanti della forza elettromagnetica, il cui raggio d'azione è infinito, sono rappresentati da particelle di massa nulla, i fotoni. L'interazione fra due cariche elettriche non si esplica in modo diretto e istantaneo, bensì viene trasmessa con velocità finita (quella della luce) per effetto dell'emissione e dell'assorbimento di fotoni da parte delle cariche. Questa nuova concezione della forza può sembrare difficile da capire, ma essa diventa molto più chiara quando il processo di scambio di un fotone è rappresentato in un diagramma spaziotempo. Nel diagramma sono rappresentati due elettroni che si avvicinano tra loro; uno di essi emette il fotone γ nel punto A, l'altro lo assorbe nel punto B. Dopo avere emesso il fotone, il primo elettrone inverte la sua direzione e modifica la velocità (come si può vedere dal cambiamento di direzione e d'inclinazione della sua linea di universo), e così pure fa il secondo elettrone quando assorbe il fotone. Infine, i due elettroni si allontanano rapidamente, essendosi respinti l'un l'altro attraverso lo scambio del fotone. L'interazione completa tra gli elettroni comporterà una serie di scambi di fotoni, e come effetto finale gli elettroni sembreranno deviarsi l'un l'altro lungo curve continue. In termini di fisica classica, si potrebbe dire che gli elettroni esercitano l'uno sull'altro una forza repulsiva. Questo, tuttavia, è considerato oggi un modo molto impreciso di descrivere la situazione. Nessuno dei due elettroni sente una forza quando si avvicina all'altro: essi semplicemente interagiscono mediante lo scambio di fotoni, e la forza non è altro che l'effetto macroscopico collettivo di questi 69<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ripetuti scambi di fotoni. Il concetto di forza perciò non ha più alcuna utilità nella fisica subatomica: è un concetto classico che noi associamo all'idea newtoniana di forza che agisce a distanza. Nel mondo subatomico non ci sono forze di questo tipo, ma solo interazioni tra particelle, mediate attraverso campi, cioè, attraverso altre particelle. Perciò, i fisici preferiscono parlare di interazioni piuttosto che di forze. Secondo la teoria dei campi, tutte le interazioni avvengono attraverso lo scambio di particelle, e in analogia con la forza elettromagnetica, nel 1935 il fisico giapponese Hideki Yukawa (1907–1981; Premio Nobel) intuì che anche la forza nucleare forte dovesse essere trasmessa da un quanto mediatore. Poiché in base a certe considerazioni teoriche questa nuova particella avrebbe dovuto avere una massa intermedia fra quella dell'elettrone e quella del protone, Yukawa la chiamò mesone ("che sta nel mezzo"). Una decina d'anni dopo la prima previsione di Yukawa, con un notevole travaglio dovuto ad alcune errate interpretazioni, le particelle ritenute responsabili della trasmissione della forza nucleare forte furono sperimentalmente scoperte nella radiazione cosmica: si trattava dei mesoni π, detti anche pioni, i quali presentavano un marcato accoppiamento con i nucleoni. In realtà, i mediatori delle interazioni forti sono certi oggetti chiamati gluoni (dall'inglese glue, "colla"). Esistono molti tipi diversi di mesoni che possono essere scambiati tra protoni e neutroni. Più i nucleoni sono vicini tra loro, più sono numerosi e pesanti i mesoni che essi scambiano. Le interazioni tra nucleoni sono quindi connesse alle proprietà dei mesoni scambiati e questi, a loro volta, interagiscono fra loro attraverso lo scambio di altre particelle. Per questa ragione non saremo in grado di capire la forza nucleare a un livello fondamentale prima di capire l'intero spettro delle particelle subatomiche. Nella teoria dei campi, tutte le interazioni tra particelle possono essere rappresentate con diagrammi spaziotempo, e ciascun diagramma è associato a una espressione matematica che permette di calcolare la probabilità che si verifichi il corrispondente processo. L'esatta corrispondenza tra i diagrammi e le espressioni matematiche fu stabilita nel 1949 Feynman, e perciò da allora i diagrammi sono noti come diagrammi di Feynman. Un punto cruciale della teoria è la creazione e la distruzione di particelle. Per esempio, nel diagramma precedente il fotone è creato nel processo di emissione nel punto A, ed è distrutto quando viene assorbito nel punto B. Un processo simile può essere concepito solo in una teoria relativistica nella quale le particelle non sono viste come oggetti indistruttibili, ma piuttosto come figure dinamiche che coinvolgono una certa quantità di energia, che può essere ridistribuita quando si formano nuove figure. La creazione di una particella dotata di massa è possibile solo quando viene fornita l'energia corrispondente alla sua massa, per esempio in un processo d'urto. Nel caso delle interazioni forti, questa energia non è sempre disponibile, come succede quando due nucleoni interagiscono tra loro in un nucleo atomico. In tali casi, quindi, non dovrebbero essere possibili scambi di mesoni dotati di massa; tuttavia essi si verificano ugualmente. Per esempio, due protoni possono scambiare un mesone π, o pione, la cui massa è circa un settimo di quella del protone. Le ragioni per le quali possono avvenire processi di scambio di questo tipo, nonostante l'apparente mancanza di energia per la creazione del mesone, devono essere cercate in un effetto quantistico /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 69;! connesso con il principio di indeterminazione. Gli eventi subatomici che si verificano entro un intervallo di tempo breve comportano un'incertezza nell'energia proporzionalmente grande. Gli scambi di mesoni, cioè la loro creazione e la successiva distruzione, sono eventi di questo tipo. Essi avvengono in un intervallo di tempo così breve che l'incertezza nell'energia è sufficiente a permettere la creazione dei mesoni stessi. Mesoni di questo tipo sono chiamati particelle virtuali e sono diversi dai mesoni reali creati nei processi d'urto, perchè possono esistere solo per l'intervallo di tempo permesso dal principio di indeterminazione. Più sono pesanti, cioè maggiore è l'energia richiesta per crearli, più è piccolo l'intervallo di tempo permesso per il processo di scambio. Questa è la ragione per la quale lo scambio di mesoni pesanti tra nucleoni può avvenire solo quando questi sono molto vicini tra loro. Lo scambio di fotoni virtuali, viceversa, può avvenire su distanze illimitate perchè i fotoni, essendo privi di massa, possono essere creati con una quantità di energia indefinitamente piccola. Nella teoria dei campi, quindi, tutte le interazioni sono rappresentate come scambio di particelle virtuali. Più forte è l'interazione, cioè più è intensa la forza risultante tra le particelle, maggiore è la probabilità di questo processo di scambio, e più frequentemente verranno scambiate particelle virtuali. Il ruolo delle particelle virtuali, tuttavia, non è limitato a queste interazioni. Un solo nucleone, per esempio, può benissimo emettere una particella virtuale e riassorbirla poco dopo. Purché il mesone creato scompaia entro il tempo permesso dal principio di indeterminazione, non c'e nulla che proibisca tale processo. La probabilità di siffatti processi di autointerazione è molto alta per i nucleoni a causa della loro forte interazione. Ciò significa che in realtà i nucleoni emettono e assorbono di continuo particelle virtuali. Secondo la teoria dei campi, essi devono essere considerati centri di attività continua e avvolti da nubi di particelle virtuali. I mesoni virtuali devono scomparire in un tempo brevissimo dopo la loro creazione, il che significa che essi non possono allontanarsi molto dal nucleone; di conseguenza, la nuvola di mesoni è molto piccola. Le sue regioni più esterne sono popolate da mesoni leggeri (soprattutto pioni), poiché i mesoni pesanti, dovendo essere assorbiti dopo un tempo molto più breve, rimangono confinati nella parte interna della nube. Ogni nucleone è circondato da questa nube di mesoni virtuali i quali vivono solo per un periodo di tempo estremamente breve. Tuttavia, i mesoni virtuali possono diventare mesoni reali in particolari circostanze. Quando un nucleone è colpito da un'altra particella che si muove ad alta velocità, una parte dell'energia di moto di questa particella può essere trasferita a un mesone virtuale per liberarlo dalla nube. Questo è il modo in cui i mesoni reali sono creati negli urti ad alta energia. D'altra parte, quando due nucleoni si avvicinano talmente l'uno all'altro che le loro nubi di mesoni si sovrappongono, può accadere che alcune delle particelle virtuali non tornino indietro per essere riassorbite dal nucleone che le ha create inizialmente, ma saltino dall'altra parte e siano assorbite dall'altro nucleone. Così si realizzano i processi di scambio che costituiscono le interazioni forti. Questa rappresentazione mostra chiaramente che le interazioni tra particelle, e quindi le forze tra di esse, sono determinate dalla composizione delle loro nubi virtuali. Il raggio d'azione di una interazione, cioè la distanza tra le particelle alla quale avrà 69=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! inizio l'interazione, dipende dall'estensione delle nubi virtuali, e la forma particolare dell'interazione dipenderà dalle proprietà delle particelle presenti nella nube. Quindi le forze elettromagnetiche sono dovute alla presenza di fotoni virtuali entro le particelle cariche, mentre le interazioni forti tra nucleoni hanno origine dalla presenza di pioni virtuali e di altri mesoni entro i nucleoni. Nella teoria dei campi, le forze tra particelle appaiono come proprietà intrinseche a queste ultime. Oggi dunque si vede che forza e materia, i due concetti che erano cosi nettamente separati nell'atomismo greco e newtoniano, hanno la loro origine comune nelle figure dinamiche che chiamiamo particelle. La teoria dei campi della fisica moderna ci costringe ad abbandonare la classica distinzione tra particelle materiali e vuoto. La teoria del campo gravitazionale di Einstein e la teoria dei campi mostrano entrambe che le particelle non possono essere separate dallo spazio che le circonda. Da una parte, esse determinano la struttura di questo spazio, mentre dall'altra non possono venire considerate come entità isolate, ma devono essere viste come condensazioni di un campo continuo che è presente in tutto lo spazio. Nella teoria dei campi, il campo è visto come la base di tutte le particelle e delle loro interazioni reciproche. Il campo esiste sempre e dappertutto, non può mai essere eliminato. Esso è il veicolo di tutti i fenomeni materiali. È il vuoto dal quale il protone crea i mesoni π. L'esistere e il dissolversi delle particelle sono semplicemente forme di moto del campo . La distinzione tra materia e spazio vuoto dovette essere abbandonata quando divenne evidente che le particelle virtuali possono generarsi spontaneamente dal vuoto, e svanire nuovamente in esso, senza che sia presente alcun nucleone o altra particella a interazione forte. Nel diagramma vuoto-vuoto, tre particelle, un protone, un antiprotone, e un pione, emergono dal nulla e scompaiono nuovamente nel vuoto. Secondo la teoria dei campi, eventi di questo tipo avvengono di continuo. Il vuoto è ben lungi dall'essere vuoto. Al contrario, esso contiene un numero illimitato di particelle che vengono generate e scompaiono in un processo senza fine. La relazione tra le particelle virtuali e il vuoto è una relazione essenzialmente dinamica; il vuoto è certamente un “vuoto vivente”, pulsante in ritmi senza fine di creazione e distruzione. La scoperta della qualità dinamica del vuoto è considerata da molti fisici uno dei risultati più importanti della fisica moderna. Dall'avere una funzione di vuoto contenitore dei fenomeni fisici, il vuoto è passato ad essere una quantità dinamica della massima importanza. È importante rendersi conto che tutti i processi rappresentati dai diagrammi spaziotempo seguono le leggi della meccanica quantistica e quindi sono tendenze, ovvero probabilità, piuttosto che realtà effettive. Dopo i brillanti successi nello studio delle prime due forze fondamentali, apparve subito logico estendere anche all'interazione debole l'ipotesi degli agenti mediatori. Essendo il raggio di questa interazione ancora più piccolo di quello della forza nucleare forte, la massa dei quanti doveva essere notevolmente grande. Creare in laboratorio queste massicce particelle, chiamate bosoni W (da weak interaction) non è stata cosa da poco; inseguite per circa un ventennio, solo nel 1983 un gruppo di ricercatori diretto da Carlo Rubbia (1934; Premio Nobel) è riuscito nell'intento. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 694! Nonostante le notevoli differenze fra la forza elettromagnetica e la forza debole, la cosiddetta teoria elettrodebole ha messo in evidenza una stretta parentela fra di esse. Questa affinità, convalidata dalla scoperta da parte dello stesso Rubbia del quanto mediatore Z0, la cui esistenza e le cui proprietà, insieme a quelle dei bosoni W, erano state previste dalla teoria, fa sì che ormai si considerino le due forze come appartenenti a un'unica classe di interazione, chiamata interazione elettrodebole. Come logica conclusione la forza gravitazionale dovrebbe essere trasmessa, per giustificare il suo raggio d'azione infinito, da un quanto di massa nulla, già battezzato con il nome di gravitone. In analogia con il fotone, questa ipotetica particella sarebbe un luxone, cioè un oggetto che viaggia sempre alla velocità della luce. Purtroppo, il mediatore delle azioni gravitazionali non è stato finora rivelato. A causa del carattere della forza, di gran lunga la più debole fra quelle note all'uomo, i gravitoni, se esistono, faranno certamente "disperare" i ricercatori ancora per molti anni. Man mano che il numero delle particelle scoperte dai fisici aumentava, si cercò di classificarle in gruppi omogenei aventi le stesse caratteristiche. La prima suddivisione, basata sui valori delle masse, distribuì le particelle fra le tre classi dei leptoni (le più leggere), dei barioni (le più pesanti) e dei mesoni (di massa intermedia). Questa classificazione è, però, ormai superata; infatti, nel 1976, sono stati scoperti dei mesoni più pesanti dei barioni e un nuovo leptone la cui massa è circa due volte quella del protone. Un criterio più razionale è quello di suddividere le particelle in base alle forze fondamentali attraverso le quali interagiscono fra loro: " leptoni, interagenti attraverso la forza nucleare debole e comprendenti l'elettrone, il muone, il tau, i tre tipi di neutrini e le corrispondenti antiparticelle; " adroni, interagenti attraverso l'interazione nucleare forte e suddivisi nel sottogruppo dei mesoni, aventi spin zero o intero, e in quello dei barioni, di spin semintero. FORZA Forte Debole Elettromagnetica Gravitazionale RAGGIO D’AZIONE 10-15 m 10-18 m infinito infinito INTENSITÀ 1 10-6 10-2 10-38 BOSONI VETTORI gluoni W + , W -, Z 0 fotone gravitone SPIN 1 1 1 2 CARICA ELETTRICA 0 +1, -1, 0 0 0 695! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! La maggior parte delle particelle, specie quelle scoperte nell'ultimo ventennio, è instabile; infatti decadono per successivi stadi finché non si perviene alle componenti stabili dell'universo. Come la massa, la carica e lo spin, la vita media è una caratteristica peculiare delle particelle instabili e delle corrispondenti antiparticelle. Tutte le particelle instabili tendono, attraverso due canali, a trasformarsi in protoni o in elettroni (con il neutrino associato). La via che conduce al protone viene chiamata canale barionico, poiché è percorsa dai barioni; quella che porta all'elettrone è chiamata canale leptonico, essendo seguita dai leptoni. Poiché, sulla base delle attuati conoscenze, da un barione può nascere solo un barione e da un leptone solo una progenie leptonica, viene logico supporre che, durante i processi di decadimento verso le particelle stabili, esista, oltre alle tradizionali grandezze che si conservano nella fisica classica, qualche altro parametro che rimane costante. Per disciplinare i due canali di scorrimento, e soprattutto per tentare di giustificare la stabilità del protone, dapprima Weyl ed Ernst Stuckelberg (1905-1984) e successivamente Wigner introdussero, intorno agli anni Trenta, due nuovi numeri quantici: quello relativo ai barioni, chiamato numero barionico B, e quello relativo ai leptoni, chiamato numero leptonico L. Questi parametri possono assumere solo valori interi: B è uguale a + 1 per i barioni, -1 per gli antibarioni e 0 per tutte le altre particelle e, similmente, L è uguale a + 1 per i leptoni, -1 per gli antileptoni e 0 per le altre particelle. La legge di conservazione associata a questi numeri di famiglia postula che: PRINCIPIO CONSERVAZIONE NUMERO BARIONICO E LEPTONICO in ogni processo fisico la somma dei numeri barionici e la somma dei numeri leptonici devono sempre conservarsi. Dal 1947 al 1953, la lista delle particelle elementari è stata notevolmente ampliata con la scoperta dei mesoni K e degli iperoni, con massa maggiore dei nucleoni. Le nuove particelle, quasi tutte individuate nella radiazione cosmica e successivamente prodotte mediante le grandi macchine acceleratrici, si comportano in modo anomalo rispetto ai tradizionali nucleoni, elettroni, pioni, ecc. In primo luogo, esse compaiono sempre a coppie, inoltre, i mesoni K e gli iperoni, pur essendo creati, se l'energia è sufficiente, da interazioni di tipo forte, decadono secondo tipici processi deboli, in tempi lunghissimi rispetto alla loro genesi. Poiché tutto ciò era piuttosto inconsueto e sorprendente, inizialmente queste nuove particelle furono qualificate come "strane", e fu necessario introdurre un ulteriore numero quantico, chiamato stranezza S. Per spiegare il comportamento delle particelle strane, Murray Gell-Mann (1929; Premio Nobel) e Kazuhiko Nishijima (1926-2009) introdussero dunque la stranezza S, come un numero quantico conservato nelle sole interazioni forti. Il valore di S è zero per tutte le "vecchie" particelle e diverso da zero per tutte le nuove. Una particella strana interagisce fortemente solo se si trova in presenza di un'altra particella strana, come avviene al momento della sua creazione, mentre quando decade, non avendo più accanto un partner strano, è soggetta alla forza debole. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 696! Nel 1964 Gell-Mann e indipendentemente George Zweig (1937) considerarono ogni adrone, praticamente la maggior parte delle particelle conosciute, come formato dalla combinazione di tre unità di materia chiamate quark e indicate con i simboli u (up), d (down), s (strange). Naturalmente la previsione teorica dei tre quark implica quella dei tre antiquark. Le regole mediante le quali si originano tutte le particelle adroniche sono le seguenti: COMPOSIZIONE A QUARK DEGLI ADRONI Ogni barione (antibarione) rappresenta uno stato legato formato dalla combinazione di tre quark (antiquark); ogni mesone rappresenta uno stato legato formato dalla combinazione di un quark e di un antiquark. Ogni struttura realizzata mediante queste due norme deve portare a una particella esistente in natura. Così è infatti: non solo tutte le possibili combinazioni permesse corrispondono a un adrone noto, ma non esistono particelle mancanti. Mentre la materia ordinaria che costituisce il nostro mondo è formata solo dai due quark più leggeri u e d, il quark strano s si trova solo nelle particelle strane. Il modello con soli tre quark fu messo in crisi dalla scoperta del mesone J/Ψ: questa particella infatti non poteva essere formata dall'iniziale terzetto di quark, in quanto tutte le possibili combinazioni corrispondevano ad altri adroni già noti. Per trovare un posto al nuovo personaggio fu ampliato il modello, aggiungendo un quarto quark, chiamato charm (fascino) e indicato con la lettera c. Per far quadrare i conti della teoria, ci sarebbero voluti tuttavia altri due quark, battezzati con i nomi di bottom (basso) o anche beauty (bellezza) e top (alto) e indicati rispettivamente con i simboli b e t. Dopo la scoperta della particella Y, la cui struttura indica chiaramente l'esistenza del quinto quark b, restava da trovare il sesto e più sfuggente membro della famiglia dei quark. La caccia, condotta per lungo tempo, si concluse nel 1994 con la scoperta del top, caratterizzato da una massa oltre 160 volte più grande di quella del protone. Una delle più peculiari proprietà dei quark è la loro carica elettrica frazionaria, derivante dal fatto che la carica elettrica di ciascuna particella adronica è data dalla somma algebrica delle cariche dei quark costituenti. Un aspetto dei quark che ha creato diversi problemi ai fisici teorici è stato lo spin. Per ottenere i corretti momenti angolari degli adroni, ai quark deve essere attribuito uno spin pari a 1/2. Come tutte le particelle con spin semintero finora conosciute, essi devono dunque essere soggetti al principio di esclusione di Pauli. Ciò implica che in uno stesso stato non possono esistere due quark con gli stessi numeri quantici. Invece, proprio gli oggetti più elementari sembravano non comportarsi come i soliti fermioni. Oscar Greenberg riuscì a risolvere questa apparente incoerenza assegnando ai quark un numero quantico supplementare chiamato colore. Con l'aggiunta di questo nuovo attributo, ogni quark di un dato tipo può mostrarsi in tre varietà distinte per il colore, cioè B (blue, azzurro), G (green, verde) e R (red, rosso) senza mutare o perdere gli 697! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! altri aspetti. Agli antiquark corrispondono i tre anticolori. Ovviamente, si tratta solo di far apparire uno stesso oggetto con qualche cosa di diverso: il colore o l'anticolore sono, infatti, etichette che non hanno nulla a che vedere con la policromia del nostro mondo. Con questa ipotesi, quando i quark si legano per formare una particella non si trovano, anche se sono dello stesso tipo, nello stesso stato quantico, poiché si differenziano per il colore. Anche se la teoria del colore non implica nessuna nuova particella, lo scotto da pagare per l'etichetta cromatica prevede il triplicarsi del numero dei quark. I membri della famiglia diventano diciotto (con altrettante antiparticelle), le unità fondamentali di materia cominciano nuovamente a crescere e nuove norme condizionano la genesi delle particelle fortemente interagenti. Così, per spiegare il meccanismo di formazione degli adroni è necessario aggiungere alle regole precedenti le seguenti: COMBINAZIONI DI QUARK "COLORATI" Ciascuno dei tre quark che compongono un barione deve avere colore diverso; ogni mesone deve essere formato da un quark di un colore e un antiquark del corrispondente anticolore. Con queste norme ogni adrone nel suo complesso è per così dire incolore. La sovrapposizione delle tre tinte origina sempre una particella che non mostra alcuna traccia cromatica, nel senso che si presenta con carica di colore nulla. Lo stesso avviene sovrapponendo un colore con il suo anticolore. Nonostante qualche iniziale perplessità, questa "policromia", introdotta nel modello a quark come una forzata ipotesi per non violare una legge (principio di esclusione) valida senza eccezioni, ha ormai assunto un ruolo fondamentale nella problematica adronica. Sotto molti aspetti esiste un'affinità semantica fra la carica elettrica e la proprietà cromatica dei quark, per questo chiamata anche carica di colore. Mentre la prima origina la forza elettromagnetica, che tiene insieme l'edificio atomico, la seconda tiene uniti gli elementi primordiali di materia necessari per costruire gli adroni. La teoria del campo di colore, sviluppata nell’arco degli ultimi venti anni per interpretare le interazioni fra i quark, è chiamata cromodinamica quantistica (QCD). L'interazione fra i diversi tipi di colore, o fra un colore e un anticolore, non è altro che la forza nucleare forte che tiene legati i quark a formare le particelle. Questa forza è trasmessa da una classe di esoteriche particelle dette gluoni. I gluoni, che si comportano come robuste corde elastiche, servono per incollare fra loro i quark formando oggetti osservabili, privi di carica di colore, come il protone e il neutrone. Il metodo più appropriato per creare nuove particelle e quindi anche i quark, è quello di far urtare violentemente l'uno contro l'altro gli adroni, portati a velocità relativistica entro gli acceleratori di particelle. Come una monade leibnitziana, una particella è potenzialmente formata da tutte le altre; infatti, presenta in sé tutte le configurazioni possibili, nel senso che costituisce il centro primordiale della materia. Per spiegare la difficoltà di trovare i quark allo stato libero, nel 1973 Franck Wilczek (1951; Premio Nobel), a soli 22 anni sviluppò per primo il concetto di libertà asintotica. La forza forte, che permette ai quark di convivere vicini per formare i nucleoni, a differenza delle altre forze fondamentali, come per esempio quella /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 698! elettromagnetica, aumenta d'intensità quando i quark tendono ad allontanarsi. È come se le particelle fossero collegate fra loro da una corda elastica: quando la distanza aumenta, l'interazione diventa più intensa. Si tratta di una proprietà piuttosto sconcertante che obbliga i quark a rimanere confinati all'interno degli adroni. Poiché l'ipotesi è stata confermata da trent’anni di esperimenti, si può ora spiegare la mancata comparsa allo stato libero degli elementi primordiali della materia. 14.5 Il modello standard Il modello standard delle particelle elementari è basato su due pilastri della fisica del XX secolo, la meccanica quantistica e la relatività ristretta, e su un'ipotesi di lavoro, quella che le particelle elementari, nel limite classico, siano oggetti puntiformi, cioè privi di estensione spaziale. Queste ipotesi portano, in modo praticamente univoco, alla descrizione delle particelle elementari tramite la cosiddetta teoria quantistica dei campi, una teoria basata sul principio che qualunque campo di forze possa sempre risultare misurabile in qualunque punto dello spazio e ad ogni un istante di tempo dati. Il modello standard, costruito su queste basi, ha avuto un successo che va al di là di ogni aspettativa e sono numerosissime ed importanti le sue predizioni teoriche confermate sperimentalmente. Purtroppo, però, il modello standard delle particelle riesce a descrivere in maniera unitaria e completa solo tre delle quattro forze fondamentali che conosciamo in natura: la forza elettromagnetica, quella nucleare forte e quella nucleare debole, mentre è incapace di inglobare la forza gravitazionale, che invece è così importante per la cosmologia. In altre parole, il modello standard combina in modo molto efficace meccanica quantistica e relatività ristretta, ma non meccanica quantistica e relatività generale. Il motivo fisico per cui è difficile riconciliare meccanica quantistica e relatività generale è essenzialmente dovuto al famoso principio di indeterminazione di Heisenberg. Infatti, anche la relatività generale è una teoria di campo locale, cioè basata sull'assunzione che si possa misurare il campo gravitazionale in un dato punto dello spazio e del tempo. Ma, come previsto dal principio di Heisenberg, una precisione infinita nella posizione implica una indeterminazione completa nella velocità; ovvero, se misuriamo un campo gravitazionale con molta precisione in un punto, abbiamo di conseguenza una grossa imprecisione sulla sua energia. Queste enormi fluttuazioni di energia, d'altra parte, causano necessariamente enormi fluttuazioni del campo gravitazionale stesso, dato che, è proprio l'energia che agisce da sorgente per il campo gravitazionale. Ecco perchè per la gravità, e solo per essa, sorgono problemi insormontabili quando si cerca di combinare una teoria locale come la relatività generale con la meccanica quantistica. Si possono pensare a varie soluzioni di questo problema, compresa quella che la forza di gravità non debba essere quantizzata, ma questa drastica alternativa porterebbe a varie difficoltà, di natura sia concettuale che sperimentale. Pertanto, il modello standard, non può essere considerato una teoria completa delle interazioni fondamentali in quanto non comprende la gravità, per la quale non esiste ad oggi una teoria quantistica coerente. Non prevede, inoltre, l'esistenza della materia oscura e dell’energia oscura che costituiscono quasi tutto, circa il 95%, il contenuto dell'universo. 699! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Nel modello standard le particelle fondamentali sono raggruppate in due categorie: " le particelle costituenti la materia, che risultano essere tutti fermioni, ovvero i quark ed i leptoni. Questi ultimi comprendono i leptoni carichi ed i neutrini. le particelle mediatrici delle forze, che risultano essere tutte bosoni (il fotone per l'interazione elettromagnetica, i due bosoni carichi W+ e W-. ed il bosone Z per l'interazione debole e i gluoni per l'interazione forte). " I fermioni possono essere raggruppati in base alle loro proprietà di interazione in tre generazioni: la prima composta da elettroni, neutrini elettronici e dai quark up e down. Tutta la materia ordinaria è costituita, come si è visto, da elettroni e dai quark up e down. Infatti la materia è costituita da atomi che sono a loro volta composti da un nucleo ed uno o più elettroni, che sono i più leggeri tra i leptoni carichi. Il nucleo è costituito a sua volta da protoni e neutroni che sono composti ciascuno da tre quark. Le particelle delle due generazioni successive hanno massa maggiore delle precedenti. A causa della loro maggior massa, i leptoni ed i quark della seconda e terza famiglia (o le particelle da essi costituite) possono decadere in particelle più leggere costituite da elementi della prima famiglia. Per questo, queste particelle sono instabili e presentano una breve vita media. Anche se nessuno ha idea del perché debbano esistere queste altre due famiglie di particelle, è comunque necessario che la fisica teorica giustifichi la presenza di questi fantasmi che nascono e rapidamente scompaiono e riesca a stabilire che non esistono altre generazioni di particelle da aggiungere al Modello Standard e ad affermare in modo assoluto che i quark e i leptoni non possono diventare delle strutture composte da elementi ancora più fondamentali. Ciò non è affatto escluso e già da alcuni anni sono cominciate ad arrivare alcune sofisticate teorie, come quella delle stringhe, prive tuttavia di conferme sperimentali, che introducono nuovi corpuscoli più profondi dei quark e dei leptoni. Nel modello standard le particelle interagiscono fra loro con una, con due, o con tutte e tre queste specie di forza. Rimane esclusa la quarta forza fondamentale della natura, la gravità, che, come abbiamo detto, è ancora assente nel modello standard. Nel Modello Standard è anche prevista la presenza di almeno un bosone di Higgs, responsabile dell’esistenza della massa delle particelle, e la cui massa non viene prevista dal Modello. Questo bosone (scoperto nel 2012 grazie all’acceleratore di particelle LHC, Large Hadron Collider), che prende il nome dal fisico scozzese Peter Higgs (1929), il quale per primo ne teorizzò l'esistenza fin dagli anni Sessanta, è sorgente di un campo (il campo di Higgs) che pervade lo spazio vuoto rendendo "pesante" la materia. Tale campo dovrebbe fornire la massa alle diverse particelle in quantità tanto maggiore quanto più grande è l'intensità dell'interazione stabilita con esse. La massa non è quindi un parametro fondamentale, ma deriva dall’interazione (meccanismo di Higgs) tra le /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 69:! particelle e la particella di Higgs. Se la particella di Higgs non esistesse, tutti le particelle avrebbero massa nulla e si muoverebbero alla velocità della luce come i fotoni. Ma chi genera la massa della particella di Higgs? Un aspetto importante del meccanismo di Higgs e della conseguente generazione della massa è che tutto ciò può avvenire solo se il bosone di Higgs interagisce con se stesso, autogenerando la propria massa, ossia il campo di Higgs è autointeragente. La particella di Higgs è instabile, ossia decade immediatamente in altre particelle, per cui ciò che è stato osservato nel LHC sono stati i prodotti di questo decadimento. Al momento dell’annuncio della scoperta (luglio 2012) la massa del bosone di Higgs è stata stimata intorno a 126 Gev (oltre 120 volte la massa del protone). Comunque i dati relativi alle sue caratteristiche sono ancora incompleti. Il LHC è stato spento all'inizio del 2013 a causa di importanti lavori ed è previsto che ritorni in funzione nel 2015 quando raggiungerà la massima energia di 14 TeV. Molti fisici teorici si aspettano grosse novità, in termini di conferme di modelli teorici, come la Supersimmetria, o che una nuova fisica emerga oltre il Modello Standard alla scala del TeV, a causa di alcune proprietà insoddisfacenti del modello stesso. Il Modello Standard è un’eccellente descrizione di quello che avviene nel mondo subatomico e ha dimostrato capacità predittive senza precedenti nella storia della scienza. Ma se ci chiediamo perché il Modello Standard abbia le caratteristiche che conosciamo, iniziano a emergere le difficoltà. Per esempio, se ci chiediamo perché ci sono tre diversi tipi di leptoni, e non un altro numero, o perché l’elettrone ha la massa che ha, il Modello Standard non lo spiega. Dobbiamo quindi studiare la natura a un livello più profondo per scoprire la risposta. La teoria della Supersimmetria, che ipotizza che a ogni particella conosciuta corrisponda una superpartner nascosta, dovrebbe dare le risposte che il Modello Standard non da, oltre a gettare un po’ di luce sulla natura della materia oscura e dell’energia oscura, che costituiscono rispettivamente il 23% e il 72% dell’universo (l'energia e la materia visibili ne costituiscono solo il 5%). La Supersimmetria, basandosi su ragionamenti simili a quelli di Dirac che mostrò che le simmetrie dello spaziotempo implicano che ogni particella abbia una corripsondente antiparticella, prevede che ci sia un’estensione quantistica dello 6:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! spaziotempo chiamata superspazio e che le particelle immerse in questo superspazio sarebbero simmetriche a quelle del Modello Standard. I gravitoni, cioè i bosoni che si pensa possano mediare l'interazione gravitazionale in una sua possibile formulazione quantistica, non sono considerati nel Modello standard. La mancata presenza nel modello della forza più nota per i suoi effetti quotidiani è dovuta a due motivi: il primo di ordine pratico, in quanto nel mondo subnucleare la gravità rappresenta una forza del tutto trascurabile, almeno fino a distanze dell'ordine di 10-18 m; il secondo di carattere più fondamentale, poiché non e stato finora possibile costruire una teoria quantistica in grado di comprendere la gravità. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:;! !"#$%&'&()*! Esiste ciò che tocchiamo? +"!#-&)!#2%&'($-&)("!#0%&%#,-("!9# 15.1 L’importanza del bosone di Higgs per la filosofia della scienza Il bosone di Higgs e il meccanismo teorico a cui è associato, oltre ad avere un ruolo centrale nella fisica fondamentale, è di grande interesse anche per i filosofi della scienza. Si tratta di un caso esemplare per discutere tematiche di fondo dell’epistemologia. Come si scopre e come viene giustificata una teoria? La vicenda della “particella di Dio”, come viene chiamato il bosone di Higgs, dà una risposta a questo interrogativo, mettendo in luce, in particolare, la potenza del ruolo euristico delle analogie, sia tra comportamenti fisici sia tra strutture matematiche. Rappresenta, inoltre, un esempio dell’efficacia e tenuta delle costruzioni teoriche per raggiungere e risolvere precisi quesiti anche in mancanza, per un lungo periodo, di diretta evidenza empirica. Allo stesso tempo, per quanto riguarda il cosiddetto contesto della giustificazione, le metodologie sviluppate al CERN per arrivare a interpretare i dati ottenuti come prove dell’Higgs costituiscono una efficace illustrazione del ruolo che possono avere determinati strumenti statistici nel trasformare osservazioni “cariche di teoria”, come sono indubbiamente quelle compiute attraverso gli esperimenti ATLAS e CMS del Large Hadron Collider (LHC) del CERN, in oggettive conferme sperimentali. Come si conosce l’ontologia del mondo fisico, quali ne siano i costituenti ultimi? Quale statuto ontologico attribuire a oggetti come l’Higgs, esempio illustre della categoria delle entità teoriche, cioè introdotte in base a un determinato quadro teorico senza un diretto riferimento empirico, su cui tanto hanno discusso e continuano a discutere realisti e antirealisti scientifici? Se il quadro teorico viene a cambiare radicalmente, e questo è successo spesso durante la storia della fisica, che succede rispetto a queste entità, nonostante le apparenti prove sperimentali? Quali fattori ci rassicurano sulla capacità della teoria (il modello standard in questo caso) di farci conoscere il mondo nella sua essenza e “realtà”? Dal punto di vista di una problematizzazione della nozione di oggetto fisico, l’identificazione dell’Higgs come 6:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! una delle particelle fondamentali potrebbe essere considerata piuttosto dal punto di vista di una concezione strutturale o costruttiva delle entità di cui parlano le teorie fisiche (questo aspetto è stato approfondito nel paragrafo 13.9 del 13° capitolo). Dunque, la vicenda dell’Higgs offre materiale prezioso, oltre alla fisica fondamentale, anche alla filosofia della scienza. 15.2 Confronto tra atomismo democriteo e moderno In che misura le nostre attuali concezioni sull’atomo possono confrontarsi con la teoria atomistica di Democrito? Democrito era ben conscio del fatto che se gli atomi dovevano, con il loro moto e il loro ordinamento, spiegare le qualità della materia (colore, odore, gusto), non potevano avere essi stessi quelle proprietà. Perciò egli ha privato l’atomo di quelle qualità, e il suo atomo risulta così un pezzo di materia piuttosto astratto. Ma Democrito ha lasciato all’atomo, altrimenti non avrebbe avuto senso la sua esistenza, la qualità di “essere”, della estensione nello spazio, della forma e del movimento. D’altra parte, questo implica che il suo concetto dell’atomo non può spiegare la geometria, l’estensione spaziale o l’esistenza, poichè non può ridurli a qualche cosa di più fondamentale. La concezione moderna della particella elementare sembra, riguardo a questo punto, più consistente e più radicale. Se ci poniamo la domanda: che cosa è una particella elementare, noi diciamo, ad esempio, semplicemente un neutrone, ma non possiamo darne una raffigurazione ben definita né spiegare che cosa esattamente intendiamo con questa parola. Possiamo usare varie raffigurazioni e descriverlo una volta come una particella, una volta come un’onda. Ma sappiamo che nessuna di queste descrizioni è precisa. Certo, il neutrone non ha colore né odore né sapore. Sotto questo aspetto assomiglia all’atomo democriteo. Ma anche le altre qualità dell’atomo di Democrito ritroviamo nella particella elementare, almeno in certa misura. I concetti della geometria e della cinematica, come la forma o il moto nello spazio, non possono esserle applicati in modo apprezzabile. Se si vuol dare una precisa descrizione della particella elementare, l’unica cosa alla quale si può ricorrere è una funzione di probabilità, per cui ci si accorge che neppure la qualità dell’essere appartiene a ciò che viene descritto. Infatti dobbiamo parlare di una possibilità di essere, una tendenza ad essere. Perciò la particella elementare della fisica moderna è ancora più astratta dell’atomo democriteo e proprio questa qualità appare più consistente come guida atta a spiegare il comportamento della materia. Nella filosofia di Democrito tutti gli atomi consistono della stessa “sostanza”. Le particelle elementari sono dotate di una massa nello stesso senso limitato in cui posseggono le altre proprietà. Giacchè massa ed energia sono, secondo la teoria della relatività, concetti essenzialmente identici, possiamo dire che tutte le particelle elementari consistono di energia. Ciò potrebbe venire interpretato come una definizione dell’energia quale sostanza prima, principio fondamentale, del mondo. Essa ha infatti la proprietà essenziale implicita nel termine “sostanza”, quella di conservarsi. Nella filosofia democritea gli atomi sono eterne ed indistruttibili unità di materia, non possono trasformarsi gli uni negli altri. Nei riguardi di questo problema la fisica moderna prende netta posizione contro il materialismo di Democrito e a favore della concezione di Platone e dei Pitagorici. Le particelle elementari non sono certamente /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:4! eterne ed indistruttibili unità di materia, esse in realtà possono trasformarsi le une nelle altre, come avviene nei fenomeni di decadimento o in seguito ad urti negli acceleratori di particelle. Fenomeni del genere offrono la riprova migliore che tutte le particelle sono fatte della stessa sostanza, l’energia. La rassomiglianza delle concezioni moderne con quelle di Platone e dei Pitagorici può essere portata anche più oltre. Le particelle elementari del Timeo di Platone non sono, in fondo, sostanza ma forme matematiche. “Tutte le cose sono numeri” è una proposizione attribuita a Pitagora. Le sole forme matematiche disponibili a quel tempo erano le forme geometriche dei solidi regolari o i triangoli che formano la loro superficie. Anche nella moderna teoria quantistica si troverà senza dubbio che le particelle elementari sono in definitiva delle forme matematiche, ma di natura molto più complicata. I filosofi greci pensavano a delle forme statiche e le trovavano nei solidi regolari (i cosiddetti solidi platonici). La fisica moderna, invece, fin dai suoi principi nel XVI e XVII secolo è partita dal problema dinamico, perciò le forme matematiche che rappresentano le particelle elementari saranno le soluzioni di alcune leggi eterne del moto della materia. In realtà questo è un problema ancora non risolto e la legge fondamentale che regge il movimento della materia non è ancora conosciuta e perciò è impossibile derivare matematicamente le proprietà delle particelle elementari da tale legge. Dopo questo confronto delle concezioni della moderna fisica atomica con l’atomismo greco, dobbiamo aggiungere di non fraintendere il confronto stesso. Può sembrare a prima vista che i filosofi greci siano pervenuti alle stesse conclusioni o a conclusioni molto simili a quelle raggiunte dalla fisica moderna dopo secoli di duro lavoro sperimentale e teorico. C’è un’enorme differenza fra la scienza moderna e la filosofia greca ed essa consiste proprio nell’atteggiamento empiristico della scienza moderna. Dal tempo di Galilei e di Newton, la scienza moderna si è basata su uno studio particolareggiato della natura e sul postulato che possono farsi solo quelle asserzioni che sono state verificate o che almeno possono essere verificate dall’esperienza. L’idea che degli eventi naturali potessero venir individuati per mezzo di un esperimento, per studiarne i particolari e scoprire la legge costante del mutamento continuo, non venne mai in mente ai filosofi greci. Quando Platone afferma, ad esempio, che le più piccole particelle di fuoco sono tetraedri, non è per niente facile capire ciò che egli vuole realmente significare. Questa forma del tetraedro è solo simbolicamente attinente all’elemento fuoco, oppure le più piccole particelle di fuoco si comportano meccanicamente come tetraedri rigidi o elastici? E quale sarebbe la forza che li potrebbe separare in triangoli equilateri, ecc.? La scienza moderna finirebbe sempre col chiedere: come si può stabilire sperimentalmente che gli atomi del fuoco sono tetraedri e non, per esempio, cubi? Perciò quando la fisica moderna afferma che il protone rappresenta una certa soluzione di una equazione fondamentale della materia, essa vuol dire che possiamo da questa soluzione dedurre matematicamente tutte le possibili proprietà del protone e può controllare l’esattezza della soluzione attraverso esperimenti mirati. Questa possibilità di controllare la correttezza di una affermazione sperimentalmente con altissima precisione dà un enorme peso alle asserzioni della fisica moderna, peso che non sempre si potrebbe attribuire alle asserzioni della filosofia greca. 6:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 15.3 Che cosa è reale? La teoria quantistica dei campi fornisce le basi concettuali del modello standard della fisica delle particelle, che descrive in modo unificato i costituenti fondamentali della materia e le loro interazioni. Eppure, nonostante sia la teoria di maggior successo nella storia della scienza in termini di precisione e previsione empirica, non si ha nessuna certezza su cosa dica dica la teoria, di quale sia la sua ontologia, il quadro fisico che delinea. A prima vista il contenuto del modello standard pare ovvio. È composto da gruppi di particelle elementari, come quark ed elettroni, e da quattro tipi di campi di forza, che mediano le interazioni tra particelle. Ma per quanto possa apparire convincente non soddisfa del tutto. Per cominciare, le due categorie, particelle e campi, tendono a confondersi. La teoria quantistica dei campi assegna un campo a ogni tipo di particella elementare, così esiste un campo dell’elettrone con la stessa certezza con cui esiste un elettrone. Inoltre, i campi di forze sono quantizzati e generano particelle come il fotone, per cui la distinzione tra campi e particelle appare artificiale. In ultima analisi la teoria quantistica dei campi parla di particelle o campi? La discussione è aperta tra i fisici e i filosofi. Entrambi i concetti sono ancora in uso, anche se per la maggioranza dei fisici sono solo usati a fini illustrativi della teoria ma che non corrispondono a quanto dice la teoria. Se le immagini mentali evocate dalle parole “particella” e “campo” non corrispondono alla teoria, i fisici e i filosofi devono capire che cosa mettere al loro posto. Alcuni filosofi della fisica hanno ipotizzato che i costituenti basilari del mondo siano entità intangibili come relazioni o proprietà. Un’idea particolarmente radicale è che tutto si possa ridurre a soli concetti intangibili, senza alcun riferimento a singoli oggetti. È un’ipotesi controintuitiva e rivoluzionaria, ma alcuni sostengono che sia la fisica stessa a portarci in questa direzione. Quando pensiamo alla realtà subatomica immaginiamo particelle che si comportano come palle da biliardo. Ma questa è un’idea che risale all’atomismo greco e che ha trovato l’apice del successo nella teoria newtoniana. Nella teoria quantistica dei campi le particelle non hanno questo comportamento. Come abbiamo ampiamente discusso nei capitoli precedenti, il concetto classico di particella implica qualcosa che esiste in una posizione precisa. Ma le particelle della teoria quantistica dei campi non hanno posizioni definite. Un’osservatore che cercasse di misurarne la posizione ha una probabilità piccola ma non nulla di rilevarla nei luoghi più remoti dell’universo. Le cose peggiorano se le particelle sono anche relativistiche. In questo caso sono sfuggenti e non si trovano in nessuna regione specifica dell’universo. Secondo, una particella può ritenersi localizzata per un osservatore in quiete insieme alla particella ma delocalizzata (diffusa per l’intero universo) per un osservatore in moto rispetto ad essa. Quindi, non ha senso assumere particelle localizzate come entità base. Terzo, se sono le particelle che formano la materia, allora un vuoto (stato di zero particelle) non dovrebbe mostrare attività. Ma la teoria quantistica prevede che con un apposito strumento (per esempio /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:6! un contatore Geiger) è possibile rilevare presnza di attività (materia) nel vuoto. Quindi la materia non può essere composta dagli oggetti che in genere chiamiamo “particelle”. Quarto, per stabilire se qualcosa è reale, i fisici usano una semplice verifica: tutti gli osservatori, qualunque sia il loro stato di moto, devono concordare sull’esistenza di quella cosa. Ebbene, le “particelle” che i fisici osservano in natura non superano questo test. Se un osservatore in quiete vede un vuoto, uno in accelerazione vede un gas caldo di particelle. Quinto, una particella è qualcosa che ha una posizione specifica che varia nel tempo quando si muove. Ma per la teoria quantistica, in base al principio d’indeterminazione, la traiettoria è un concetto senza significato. Allora i “rilevatori di particelle” cosa rilevano? La risposta è che le particelle sono sempre una deduzione. Quello che registrano i rilevatori è un gran numero di eccitazioni distinte del materiale dei sensori. L’insieme di queste eccitazioni, le tracce, sono solo una serie di eventi. Infine, la teoria prevede che le particelle possano perdere la propria individualità. Nel fenomeno dell’entanglement, le particelle possono essere assimilate in un sistema più grande e rinunciare alle proprietà che le distinguono l’una dall’altra. Quindi un osservatore è impossibilitato a distinguerle. A questo punto abbiamo ancora due oggetti distinti e separati ciascuno con le proprie e specifiche proprietà? No. Il sistema in entanglement si comporta come un tutto indivisibile, e il concetto di particella perde di significato. Sulla base di queste e altre scoperte dobbiamo concludere che il termine “particella” sia una denominazione impropria, per cui sarebbe meglio abbandonare questo concetto. Queste considerazioni, allora, giocherebbero un ruolo a favore di un’interpretazione della teoria quantistica puramente orientata ai campi, dove le particelle sarebbero delle increspature in un campo che riempie lo spazio come un fluido invisibile. Ma, come vedremo, la teoria quantistica dei campi non si può interpretare solo in termini di campi. La teoria quantistica dei campi è la versione quantistica dei campi classici, come quello gravitazionale o elettromagnetico. Ma mentre il campo classico è facilmente visualizzabile (basti pensare alla limatura di ferro attorno ad una calamita), del campo quantistico è difficile darne un’immagine. Un campo classico assegna una grandezza fisica, come la temperatura o l’intensità di un campo elettrico, a ogni punto dello spaziotempo. Ossia, ogni punto ha uno stato misurabile. Un campo quantistico assegna invece entità matematiche, che rappresentano il tipo di misurazione che si potrebbero effettuare invece del risultato che otterremmo. Ossia, invece di assegnare una specifica grandezza fisica, assegna solo uno spettro di possibili grandezze. Il valore scelto dipende da un oggetto matematico, il vettore di stato ψ, che non è assegnato a nessuna posizione specifica, ma che abbraccia tutto lo spazio. Il bisogno di applicare il campo quantistico al vettore di stato rende la teoria molto difficile da interpretare e da tradurre in qualcosa di fisico che si può immaginare e manipolare con la mente. Il vettore di stato è olistico; descrive il sistema come un tutto, e non si riferisce a nessun punto in particolare. Il suo ruolo è in contrasto con la caratteristica alla base dei campi, che è quella di essere diffusi in tutto lo spazio-tempo. Un campo classico ci permette di 6:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! visualizzare fenomeni come la luce sotto forma di onde che si propagano nello spazio. Il campo quantistico elimina questa immagine e ci lascia senza un modo per dire come funziona il mondo. Quindi il quadro standard delle particelle elementari e dei campi di forze non è un’ontologia soddisfacente del mondo. Non è neppure chiaro che cosa sia una particella o un campo. E non funziona neanche l’idea di vederli come aspetti complementari della realtà. Per fortuna i punti di vista di particelle e campi non esauriscono le possibili ontologie per la teoria quantistica dei campi. Sempre più fisici e filosofi pensano che sono le relazioni in cui si trovano le cose a essere importanti, non le cose stesse. Questo punto di vista contrasta con le concezioni tradizionali atomiste in modo più netto di quanto possano fare le ontologie basate su particelle e campi. Questa posizione, detta realismo strutturale, nella sua versione moderata, nota come realismo strutturale epistemico, funziona così: è possibile che non conosceremo mai la vera natura delle cose ma solo come sono correlate tra loro. Vediamo la massa in sè? No. Vediamo solo le sue relazioni (interazione gravitazionale) con altri enti (masse). Nuove teorie possono ribaltare la nostra idea dei costituenti del mondo, ma tendono a conservare le strutture. Adesso sorge la seguente domanda: qual è la ragione per cui possiamo conoscere solo le relazioni fra le cose e non le cose stesse? La risposta più semplice è che non esiste altro che le relazioni. Questo salto fa del realismo strutturale un approccio più radicale, detto realismo strutturale ontico. Le innumerevoli simmetrie della fisica aggiungono credibilità a questo approccio. Sia nella meccanica quantistica sia nella teoria della relatività generale certi cambiamenti di configurazione del mondo, noti come trasformazioni di simmetria, non hanno conseguenze empiriche. Queste trasformazioni scambiano i singoli oggetti che compongono il mondo ma lasciano immutate le loro relazioni. Uno specchio scambia la parte destra con quella sinistra, ma le posizioni relative di tutti i tratti del viso rimangono identiche. Sono queste relazioni che definiscono un volto, mentre etichette come “sinistra” e “destra” dipendono dal punto di vista. Le cose che abbiamo chiamato “particelle” e “campi” hanno simmetrie più astratte, ma l’idea è la stessa. Pertanto, possiamo costruire una teoria valida ipotizzando l’esistenza di relazioni specifiche senza ipotizzare anche quella degli oggetti. Quindi, per i seguaci del realismo strutturale ontico possiamo fare a meno delle cose e supporre che il mondo sia fatto di strutture, di reti di relazioni. Tra i tanti esempi di strutture che hanno la priorità sulle loro realizzazioni materiali, possiamo considerare il Web: continua a funzionare anche quando singoli computer vengono eliminati. Una linea di pensiero correlata sfrutta l’entanglement quantistico per sostenere la tesi che le strutture siano alla base della realtà. L’entanglement di due particelle quantistiche è un effetto olistico. Le proprietà intrinseche delle due particelle, come lo spin o la carica elettrica, insieme a quelle estrinseche, come la posizione, non bastano a determinare lo stato del sistema costituito dalle due particelle. Il tutto (sistema delle due particelle) è più della somma delle sue parti (particella1+particella2). La visione /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:8! atomistica del mondo, in cui tutto è determinato dalle proprietà dei costituenti più elementari e dalle loro relazioni all’interno della spazio-tempo, viene meno. Le particelle, secondo questa visione, non sono più enti primari, ma lo è l’entanglement. Certo, è strano che siano possibili relazioni senza relati, cioè senza oggetti in queste relazioni. Alcuni proponenti del realismo strutturale ontico cercano un compromesso: non negano l’esistenza degli oggetti, ma affermano che le relazioni, o strutture, abbiano ontologicamente la precedenza. In altre parole, gli oggetti non hanno proprietà intrinseche, ma solo proprietà che derivano dalle loro relazioni con altri oggetti. Ma questa posizione pare debole. Sul fatto che gli oggetti abbiano relazioni sono tutti d’accordo; l’unica posizione nuova e interessante sarebbe che tutto emerga dalle relazioni. Analizziamo una seconda possibilità per il significato della teoria quantistica dei campi. Anche se le interpretazioni in termini di particelle e campi sono ritenute diverse tra loro, hanno in comune qualcosa di cruciale. In entrambe si assume che gli oggetti fondamentali del mondo materiale siano entità individuali durature (particelle o punti della spazio-tempo) a cui attribuire proprietà. Molti filosofi pensano che questa distinzione tra oggetti e proprietà possa essere il motivo profondo per cui gli approcci basati su particelle e campi hanno entrambi difficoltà. Le proprietà attribuite agli enti sono l’unica e fondamentale categoria. Tradizionalmente si ritiene che le proprietà non possono esistere indipendentemente dagli oggetti (a dire il vero Platone le riteneva dotate di esistenza indipendente ma solo in un mondo superiore, il mondo delle idee, non nel mondo che esiste nello spazio e nel tempo). Ma possiamo capovolgere questo modo di pensare e considerare le proprietà come dotate di esistenza, indipendentemente dagli oggetti che le hanno. Le proprietà possono essere quello che i filosofi chiamano “particolari”: entità concrete, individuali. Quello che chiamiamo “cosa” potrebbe essere solo un fascio di proprietà: colore, forma, consistenza e così via. Dato che questa concezione delle proprietà come particolari anziché come universali differisce dalla visione tradizionale, i filosofi hanno introdotto il termine “tropi” (dal greco trasferisco) per descriverle. Ma andiamo nei dettagli. Da neonati, quando vediamo e sperimentiamo per la prima volta una palla, non percepiamo veramente una palla. Quello che percepiamo è una forma rotonda, una sfumatore di colore, una certa consistenza elastica, ecc. Solo in seguito associamo questo fascio di percezioni a un oggetto coerente di un certo tipo, la palla, dimenticando tutto l’apparato concettuale coinvolto in questa percezione. Nel mondo le cose non sono altro che fasci di proprietà. Non cominciamo da una palla per poi attaccarle proprietà, ma abbiamo le proprietà e le chiamiamo “palla”. Una palla non è altro che le sue proprietà. Applicando questa idea alla teoria quantistica dei campi, quello che chiamiamo un elettrone è in realtà un fascio di varie proprietà, o tropi: tre proprietà essenziali e fisse (massa, carica, spin) e proprietà variabili e non essenziali (posizione e velocità). Questa concenzione dei tropi ci aiuta a dare un senso alla teoria. Prendiamo il comportamento del vuoto: il valore medio del numero di particelle è zero, eppure il vuoto ribolle di attività. Avvengono continuamente tanti processi, che provocano la creazione e la distruzione di particelle di tutti i tipi. In un’ontologia basata sulle particelle questa attività è paradossale. Se le particelle sono fondamentali, come fanno a materializzarsi? Da che cosa si materializzano? Nell’ontologia dei tropi la situazione è 6:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! naturale: il vuoto, anche se privo di particelle, contiene proprietà; una particella è quello che si ottiene quando queste proprietà si radunano insieme in un certo modo. Come è possibile che ci siano dibattiti così fondamentali su una teoria che empiricamente ha tanto successo, come la teoria quantistica dei campi? Anche se la teoria ci dice cosa possiamo misurare, non chiarisce, o almeno, parla per enigmi, quando affronta la natura di quali siano le entità da cui emergono le nostre osservazioni. La teoria spiega le osservazioni in termini di quark, muoni, fotoni e campi quantistici, ma non ci dice che cosa sia un fotone o un campo quantistico. Per molti fisici questo è sufficiente, non è necessario porsi domande di natura metafisica. Adottano un atteggiamento strumentalista: negano a priori che le teorie scientifiche debbano rappresentare il mondo. Per loro sono soltanto strumenti per formulare previsioni sperimentali. Acquisire un quadro complessivo del mondo fisico richiede di mettere insieme fisica e filosofia. Le due discipline sono complementari. La metafisica fornisce vari modelli concorrenti per l’ontologia del mondo materiale, anche se al di là delle questioni di coerenza interna non può optare per una di esse. La fisica, dal canto suo, è priva di un trattamento coerente delle questioni fondamentali, come la definizione degli oggetti, il ruolo dell’individualità, lo status delle proprietà, la relazione tra cose e proprietà e il significato dello spazio e del tempo. L’unione delle due discipline è importante in momenti in cui i fisici devono esaminare i fondamenti della loro disciplina. Fu il pensiero metafisico a guidare Newton e Einstein nell’elaborazione delle loro teorie, e oggi influenza molti scienziati che cercano di unificare la teoria quantistica dei campi con la teoria della gravità einsteiniana. Le alternative alle concezioni abituali in termini di particelle e campi possono ispirare i fisici nei loro sforzi per arrivare alla grande unificazione. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6::! !"#$%&'&()*! Due cose sono infinite: l'universo e la stupidità umana, ma riguardo l'universo ho ancora dei dubbi Einstein "(#*%0$%"%+!(# 16.1 La cosmologia come scienza La cosmologia è stata una branca tradizionale della filosofia, costituitasi nel Settecento all'interno di quella che veniva già chiamata "filosofia della natura", e aveva come suo oggetto specifico la riflessione sull'universo considerato come un tutto. La scienza naturale moderna, come si è visto, si era consapevolmente istituita come studio di fenomeni delimitati, la cui conoscenza si riteneva conseguibile anche senza far riferimento all'intero complesso dell'universo (il carattere di "località" dei fenomeni fisici è stato attribuito fino a quando si è aperta in fisica quantistica un dibattito circa la "non località"). Ciò non toglie che, occasionalmente, le riflessioni degli scienziati si allargassero fino a considerare alcune caratteristiche complessive del mondo e già Newton concludeva i suoi Principia con un capitolo dedicato "Sistema del mondo" in cui mostrava come la sua teoria della gravitazione spiegasse la struttura e i moti del sistema planetario solare. Nella seconda metà del Settecento il termine cosmologia viene utilizzato con una certa frequenza anche fuori dalla filosofia, per esempio, il fisico Maupertuis pubblicò nel 1750 un Saggio di cosmologia, mentre Johan Heinrich Lambert (1728-l777) pubblicava nel 1761 le Lettere cosmologiche nelle quali cercava di mostrare come la teoria gravitazionale newtoniana fosse adeguata per spiegare lo stato attuale del mondo astronomicamente descrivibile. Tuttavia la teoria cosmologica più nota è quella conosciuta come "ipotesi cosmologica di Kant-Laplace" che riguarda l'origine e la strutturazione del cosmo procedente da una iniziale nebulosa in rotazione, soggetta unicamente alle forze e alle leggi stabilite dalla meccanica di Newton. Tale teoria (che Kant aveva anticipato nel saggio del 1755, Storia naturale universale e teoria del cielo riferendola a un qualsiasi sistema stellare, e Laplace aveva elaborato in modo indipendente nel 1796 nella sua Esposizione del sistema del mondo, con riferimento al sistema solare) è rimasta la dottrina comunemente accettata e insegnata praticamente 7<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! fino alla metà del Novecento, ossia fino al sorgere della cosmologia contemporanea, intesa come vera e propria disciplina scientifica autonoma. Possiamo ancora aggiungere che una portata cosmologica venne attribuita nell'Ottocento al secondo principio della termodinamica, il quale asserisce che in un sistema chiuso l'energia "si degrada", tendendo irreversibilmente a trasformarsi nella sua forma più elementare, ossia in calore; essendo l'universo, ovviamente, un sistema chiuso, ne seguiva la cosiddetta "morte termica" dell'universo medesimo, ossia la scomparsa di ogni forma di vita e di ogni organizzazione della materia (insomma, invece che l'origine del mondo, si pretendeva di costruire lo scenario della fine del mondo). Quelle sin qui accennate non erano certamente né vere e proprie teorie scientifiche, né ancor meno costituivano in senso proprio delle discipline specializzate; si trattava piuttosto di estrapolazioni generalizzanti di teorie fisiche, costituenti modelli concettuali più o meno plausibili e non empiricamente controllabili. Nel Novecento, invece, sorge una vera e propria cosmologia con pretese scientifiche; ciò si spiega col fatto che le sue origini e i suoi sviluppi si collocano nell'ambito delle scienze fisiche, poiché essa trae tutto il suo bagaglio concettuale e teorico dalle due teorie fondamentali della fisica contemporanea, la relatività generale e la fisica quantistica. Anche in questo caso, come già in passato, l'interesse si è portato sul problema dell'origine dell'universo, ma non tanto in seguito a una curiosità filosofica, bensì perché le equazioni della teoria generale della relatività ammettono soluzioni diverse, a ciascuna delle quali corrisponde un "modello di universo" differente. Einstein si era reso conto, per esempio, poco dopo la pubblicazione della memoria del 1915 sulla teoria generale della relatività, che le sue equazioni avrebbero comportato un collasso dell’universo, a meno che si fissasse un particolarissimo valore molto esatto per una costante introdotta esplicitamente, la cosiddetta costante cosmologica. Einstein condivideva allora la concezione di senso comune secondo cui l’universo è statico ed eterno. Ma nel 1922 il matematico Friedmann e indipendentemente da lui Lemaitre, abbandonarono tale concezione e trovarono che in base alle equazioni della relatività generale l'universo ha avuto un origine in cui sarebbe stato infinitamente denso e da allora sarebbe venuto continuamente espandendosi. Nel 1929 Hubble scopriva che le galassie si allontanano da noi con una velocità che è proporzionale alla loro distanza, legge che si spiega supponendo che l'universo sia in espansione. Sono questi i podromi della teoria del Big Bang che nei prossimi paragrafi esamineremo in dettaglio. Gli aspetti, per ora, più interessanti da rilevare derivano dal fatto che questa disciplina, che viene ormai riconosciuta come una scienza, e per di più una scienza fisica, può esser considerata tale soltanto allargando non poco gli abituali criteri di scientificità delle scienze naturali. In primo luogo risulta difficile identificare l'oggetto della cosmologia: che tipo di oggetto è l'universo? Non lo si può denotare empiricamente come un ben definito sistema di cose e neppure lo si può caratterizzare come un insieme strutturato di certi attributi o proprietà (come si fa nelle altre scienze). Rispetto alle scienze naturali (al cui ambito essa vuole appartenere) la cosmologia non soddisfa il requisito della controllabilità empirica, ossia la possibilità di sottoporre a verifica le sue ipotesi teoriche. Non si pretende che si tratti di un controllo specificamente sperimentale (ossia ottenuto grazie a esperimenti appositamente /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7<;! costruiti), che è assente anche in altre scienze di osservazione, come l'astronomia. Basterebbe che questa scienza potesse offrire delle previsioni controllabili (come appunto è in grado di fare l'astronomia), ma essa non è in grado di farle e, al massimo, può contare come sostegno dei suoi modelli su certe scoperte empiriche, come la legge di Hubble o la scoperta della "radiazione di fondo" nello spazio cosmico che ben si accordano con le sue ipotesi. Si potrebbe dire che essa è comunque in grado di fare delle retrodizioni, come fanno certe scienze fisiche e come fanno, in un certo senso, le scienze storiche. Ma anche questo non è del tutto vero; infatti una retrodizione conferma un'ipotesi se questa dice qualcosa di inatteso rispetto al passato e, andando a vedere, si hanno conferme indipendenti che l'evento retrodetto è realmente accaduto, ma le retrodizioni della cosmologia circa origini e tappe di sviluppo dell'universo non sono accessibili a un simile controllo. Ma la cosmologia se vuole essere una scienza altamente teorica, utilizza di fatto le teorie fisiche più avanzate e ne elabora di proprie impiegando anche strumenti matematici molto complessi. Le difficoltà di questo tipo si possono superare riconoscendo che la cosmologia, proprio perché in sostanza si impegna a ricostruire una storia dell'universo, ha il diritto di rivendicare quelle condizioni di scientificità che vengono riconosciute, per esempio, alle scienze storiche. Per fornire queste ultime la cosmologia attinge alle scienze fisiche e alle loro teorie e leggi, per cui sembrerebbe che essa riesca ad adottare quel modello "nomologico-deduttivo" della spiegazione scientifica che (almeno secondo l'epistemologia corrente) caratterizza le scienze mature e la fisica in primo luogo. Eppure non si può dire anche questo. Infatti le leggi delle teorie fisiche oggi accreditate servono per spiegare fenomeni che hanno luogo dentro l'universo, ma non esistono leggi per spiegare i fenomeni dell'universo preso nel suo insieme. Questo fatto taglia la strada a una possibile soluzione di tipo analitico-riduzionista che consisterebbe nel far vedere che le proprietà di un "tutto" risultano per composizione delle proprietà delle sue parti, ossia che le leggi che governano le parti permettono di dedurre le leggi del tutto. Il fatto, però, è che non esistono proprietà o leggi dell'universo nel suo insieme che si possano stabilire con un minimo di esplicitezza, per passar poi a mostrare come esse derivino dalle leggi della fisica. Queste, che agli occhi di vari studiosi, rientrano fra le obiezioni che possono rivolgere al riconoscimento della cosmologia come scienza, perdono in realtà quasi tutta la loro forza se torniamo a sottolineare che le caratteristiche epistemologiche di questa disciplina sono molto prossime a quelle delle scienze storiche, ossia costituiscono un esempio significativo di una scienza naturale come la storiografia. Pertanto, come lo storico "scientifico" può avvalersi di conoscenze settoriali relative a diversi ambiti della storia umana in cui forse si possono rintracciare alcune "leggi" o per lo meno "regolarità", senza con ciò esser costretto a riconoscere delle "leggi della storia" prese nel suo insieme, così il cosmologo utilizza diversi apporti di teorie dotate di leggi relative ad alcuni aspetti dell'evoluzione dell'universo, al fine di ricostruire le linee di una tale evoluzione, di narrare una tale storia nel modo più oggettivo e rigoroso possibile. Questa ricerca dell'oggettività e del rigore è già il contrassegno necessario e sufficiente per qualificare come scientifica un'impresa conoscitiva (anche se, ovviamente, i suoi risultati dovranno esser giudicati e valutati proprio alla luce dei requisiti di rigore e oggettività effettivamente raggiunti). Ciò che si è detto può essere già sufficiente per segnalare l'interesse e la peculiarità di questa nuova scienza che, in particolare, ha potuto costituirsi grazie alla 7<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! legittimazione del punto di vista olistico che caratterizza la scienza contemporanea, la quale ha superato da ogni parte la ristrettezza della specializzazione a oltranza dell’impostazione strettamente analitica. Osserviamo altresì che la cosmologia è una scienza a carattere chiaramente interdisciplinare, nel senso che chiama a "collaborare" non un ventaglio "diversificato" di molte discipline, bensì quelle poche discipline che servono per davvero a indagare i problemi che essa si pone. In sostanza si tratta della fisica, dell'astronomia, dell'astrofisica, della matematica. Non molto, in apparenza, ma andando a vedere le cose un po' più a fondo constatiamo che essa utilizza contemporaneamente due teorie fisiche fondamentali che, sino a oggi, non si è riusciti a "unificare", ossia la teoria della relatività e quella dei quanti, solo che, e le utilizza evitando le collisioni insuperabili, nel senso che la relatività serve essenzialmente per determinare la scelta del "modello di universo" (per esempio, quello dell'universo in espansione piuttosto che quello dello stato stazionario), mentre la fisica quantistica, fin nelle sue parti più avanzate riguardanti le particelle elementari, serve per riempire il modello e scrivere effettivamente i diversi capitoli della storia dell'universo. Ovviamente, solo grazie a una sofisticata elaborazione matematica dei modelli prescelti e utilizzando strumenti e risultati dell'astrofisica e dell'astronomia per assicurarsi quelle poche ma significative scoperte empiriche su cui poggiare. Chiarito che la cosmologia è una scienza a tutti gli effetti, essa, però, apre l'orizzonte verso domande che vanno oltre le semplici ricostruzioni scientifiche. Una scienza che è interdisciplinare per il fatto di chiamare a collaborare diverse discipline scientifiche, e la stessa filosofia, per risolvere i propri problemi conoscitivi, non può, quando giunge alla proprie frontiere, chiudersi e negare alla filosofia di aprire le sue domande. Proprio questa è una delle ragioni del fascino della moderna cosmologia e un indice di come la scienza possa continuare ad avere un impatto anche sulle dimensioni più generali della cultura umana. Quindi, proprio i presupposti e le implicazioni filosofiche, hanno consentito la costituzione delle teorie alla base della moderna cosmologia. Per esempio, Einstein era stato indotto a introdurre nelle sue equazioni un'artificiosa "costante cosmologica" perchè era ancorato alla concezione filosofica di un universo eterno e stabile. Abbandonata questa, si è eliminato l'artificio, accettando l'idea che l'universo possa aver avuto un'origine e che non sia statico, bensì in espansione. Solo dopo aver compiuto questo passo si è potuto procedere a costruire un'effettiva teoria che sviluppasse scientificamente un simile punto di vista. Ma non è solo questa la premessa filosofica implicita nella cosmologia, altre se ne potrebbero menzionare, come quella dell'isotropia dello spaziotempo e della distribuzione della materia nell'universo. Perfino qualcosa di molto simile al "tempo assoluto", eliminato dalla fisica in seguito alla teoria della relatività, ricompare in cosmologia sotto il nome di "tempo cosmico" in base al quale si può calcolare l'età dell'universo e datare gli eventi fondamentali della sua storia. Riemergono pure questioni che sembrano appartenere a sterili dibattiti della vecchia cosmologia filosofica, come la domanda se l'universo sia chiuso e finito, oppure aperto e infinito, e non si tratta di una oziosa curiosità, poiché in cosmologia si dimostra che la risposta a tale domanda dipende da quella che si deve dare a una questione strettamente fisica, ossia se la densità media della materia nell'universo è minore o uguale, oppure superiore, al valore della cosiddetta densità critica. Come si vede, stiamo qui considerando proprietà che riguardano l'universo considerato come tutto, /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7<4! ossia ci collochiamo da quel punto di vista dell'intero che caratterizza la riflessione filosofica. Come ultimo esempio menzioniamo il famoso principio antropico. 16.2 Il principio antropico Le proprietà di ogni oggetto dell'Universo, da una molecola di DNA a una galassia gigante, sono determinate, in ultima analisi, da una serie di cifre: le costanti di natura. Fra tali costanti vi sono le masse delle particelle elementari, i parametri che caratterizzano l'intensità delle quattro interazioni di base, la costante di Planck, la velocità della luce, ecc. Questi numeri sono del tutto arbitrari o potrebbe forse darsi che ci sia qualcosa di sistematico dietro questa serie di numeri apparentemente casuale? A lungo i fisici delle particelle hanno congetturato che, in realtà, non ci fosse scelta: che infine tutte le costanti di natura verranno ricavate in base a qualche teoria fondamentale non ancora scoperta. Ora come ora, però, non c'è nulla che indichi che la scelta delle costanti sia predeterminata, e il modello standard della fisica delle particelle contiene venticinque costanti i cui valori sono determinati in base alle osservazioni. Conteggiando anche la costante cosmologica scoperta di recente, abbiamo bisogno di ventisei costanti di natura per descrivere il mondo fisico. La lista potrebbe allungarsi, se venissero scoperte nuove particelle o trovati nuovi tipi di interazione. Ricerche compiute in vari campi della fisica hanno mostrato che parecchie caratteristiche essenziali dell'Universo sono sensibili ai valori esatti di alcune delle costanti, per cui se qualcuna di esse avesse un valore leggermente diverso da quello attuale, l'Universo sarebbe eccezionalmente differente e con ogni probabilità, né noi né altre creature viventi saremmo qui ad ammirarlo. Per esempio, se la forza nucleare forte, che lega tra loro le particelle che formano i nuclei atomici, fosse leggermente più forte o più debole, le stelle avrebbero sintetizzato una quantità molto ridotta di carbonio e degli altri elementi necessari alla formazione dei pianeti e degli esseri viventi. Una diminuzione della massa del neutrone dello 0,2% darebbe vita ad un mondo di neutroni, composto da nuclei neutronici isolati e da radiazione: un mondo che non ha chimica, non possiede strutture complesse, né vita. Al contrario, un aumento dello 0,2% della massa dei neutroni condurrebbe verso un mondo all'idrogeno, dove non può esistere alcun elemento chimico fuori dell'idrogeno. Se il protone pesasse lo 0,2% in più rispetto al valore misurato, l’idrogeno primordiale avrebbe sperimentato un decadimento radioattivo quasi immediato e gli atomi non si sarebbero formati. Questi esempi, fra i tanti che si possono citare, mostrano che le leggi fisiche, ed in particolare le costanti naturali che rientrano in queste leggi, potrebbero sembrare regolate su misura per rendere possibile la nostra esistenza nell’Universo, che dipende, appunto, da un precario equilibrio fra tendenze diverse, un equilibrio che verrebbe distrutto se le costanti di natura deviassero in maniera significativa dai loro valori attuali. Quale significato attribuire a tale sintonizzazione fine delle costanti? Segno dell'esistenza di un Creatore, che ha aggiustato con cura le costanti, in modo tale da rendere possibili vita e vita intelligente? Forse. Ma c'e anche una spiegazione del tutto diversa. La teoria cosmologica più accreditata, proposta negli anni ottanta, ipotizza che il nostro universo sia solo uno di una moltitudine di universi, ciascuno con proprie leggi fisiche, che vengono generati incessantemente dal vuoto primordiale allo stesso modo 7<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! in cui il nostro nacque nel big bang. Il cosmo dove ci troviamo non sarebbe che uno dei molti universi contenuti in un multiverso più ampio. Le leggi fisiche della stragrande maggioranza di questi universi potrebbero non consentire la formazione della materia a noi nota, né di galassie, stelle, pianeti ed esseri viventi. Ma, considerando il numero davvero enorme di possibilità, la probabilità che la natura sperimentasse almeno una volta la giusta combinazione di leggi non è certo bassa. Se c’è un enorme numero di universi, dotati di costanti che hanno valori differenti e del tutto casuali, sicuramente tra questi ci sarà un universo perfettamente sintonizzato sui giusti valori che rendono possibile la vita e lo sviluppo di esseri intelligenti, che si meraviglieranno di trovarsi in un universo dove le costanti di natura sono tali da permettere la loro esistenza. Tale linea argomentativa è nota come principio antropico. Il principio antropico venne enunciato in ambito fisico e cosmologico per sottolineare che tutte le osservazioni scientifiche sono soggette ai vincoli dovuti alla nostra esistenza di osservatori. Si è poi sviluppato come una teoria che cerca di spiegare le attuali caratteristiche dell'universo. Il termine "principio antropico" venne coniato nel 1973 da Brandon Carter (1942), che notava: "Anche se la nostra situazione non è necessariamente centrale, è inevitabilmente per certi versi privilegiata". Carter intendeva mettere in guardia dall'uso eccessivo del principio copernicano da parte di astronomi e cosmologi e si proponeva di riportare all'attenzione degli scienziati quella che sembra un'ovvietà: l'universo e le sue leggi non possono essere incompatibili con la nostra esistenza. Proposto inizialmente come metodo di ragionamento, il principio antropico è stato nel tempo variamente interpretato. Carter formulò il principio come segue: PRINCIPIO ANTROPICO DEBOLE Ciò che possiamo aspettarci di osservare deve limitarsi alle condizioni necessarie per la nostra presenza in qualità di osservatori. PRINCIPIO ANTROPICO FORTE L'universo (e di conseguenza i parametri fondamentali che lo caratterizzano) deve essere tale da permettere la creazione di osservatori all'interno di esso ad un dato stadio della sua esistenza. Il principio antropico è un criterio di selezione. Esso assume l'esistenza di una serie di domini distanti dove le costanti di natura sono differenti. Tali domini possono trovarsi in alcune parti remote dell'Universo, o possono appartenere ad altri spazitempi, privi di connessioni con il nostro. Un insieme di domini dotato di una vasta gamma di proprietà viene definito Multiverso. Se davvero esiste un multiverso, di qualsiasi tipo esso sia, allora non sorprende che le costanti di natura abbiano valori adatti a consentire la vita. Il principio antropico, quindi, vuole sottolineare che noi viviamo in un universo che di fatto permette l'esistenza della vita come noi la conosciamo. Ad esempio se una o più delle costanti fisiche fondamentali avessero avuto un valore differente alla nascita dell'universo, allora non si sarebbero formate le stelle, né le galassie, né i pianeti e la vita come la conosciamo non sarebbe stata possibile. Di conseguenza nel formulare teorie scientifiche bisogna porre attenzione a che siano compatibili con la nostra esistenza attuale. Il principio, semplice in sé, ma non banale, è stato variamente interpretato, sino /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7<6! a venir impiegato per giustificare visioni di opposto significato. Sono stati scritti diversi elaborati che sostengono che il principio antropico potrebbe spiegare costanti fisiche quali la costante di struttura fine, il numero di dimensioni dell'universo, e la costante cosmologica. Nella formulazione datagli da Carter del principio antropico, le costanti di natura e la nostra posizione nello spazio-tempo non devono impedire l'esistenza di osservatori. In caso contrario, le nostre teorie sarebbero logicamente incoerenti. Se viene interpretato in questo senso, come semplice requisito di coerenza, il principio antropico è, ovviamente, incontrovertibile, sebbene non molto utile. Ma qualunque tentativo per servirsene come spiegazione per la regolazione dell'Universo ha suscitato una reazione avversa e insolitamente emotiva da parte della comunità dei fisici. Di fatto, tale atteggiamento aveva le sue buone ragioni. Per spiegare la regolazione o sintonizzazione fine, bisogna postulare l'esistenza di un Multiverso. Il problema, però, è che non c'è la men che minima evidenza a sostegno di tale ipotesi. E ancor peggio: non sembra possibile che essa trovi mai conferma né smentita. Stando alla filosofia di Popper, un enunciato che non possa essere falsificato non è nemmeno scientifico. Tale criterio, che è stato generalmente adottato dai fisici, sembra implicare la non scientificità di spiegazioni antropiche della regolazione. Un'altra critica connessa a questa era che il principio antropico può essere utilizzato solo per spiegare ciò che già sappiamo. Non fornisce mai predizioni di alcunché, e perciò non può essere messo alla prova, sottoposto cioè a controllo empirico. John Barrow (1952) e Frank Tipler (1947) autori di un corposo libro The Anthropic Cosmological Principle sul principio antropico, hanno proposto tre versioni dello stesso, con qualche differenza rispetto a quelle di Carter: " " " Principio antropico debole: I valori osservati di tutte le quantità fisiche e cosmologiche non sono equamente probabili ma assumono valori limitati dal prerequisito che esistono luoghi dove la vita basata sul carbonio può evolvere e dal prerequisito che l'universo sia abbastanza vecchio da aver già permesso ciò. Principio antropico forte: L'universo deve avere quelle proprietà che permettono alla vita di svilupparsi al suo interno ad un certo punto della sua storia. Principio antropico ultimo: Deve necessariamente svilupparsi una elaborazione intelligente dell'informazione nell'universo, e una volta apparsa, questa non si estinguerà mai. Barrow e Tipler derivano il principio antropico ultimo da quello forte, considerando che non ha senso che un universo che ha la capacità di sviluppare la vita intelligente non duri a sufficienza per svilupparla. Il fisico Wheeler suggerì il principio antropico partecipatorio in alternativa del principio antropico forte, aggiungendo che gli osservatori sono necessari all'esistenza dell'universo, in quanto sono necessari alla sua conoscenza. Quindi gli osservatori di un universo partecipano attivamente alla sua stessa esistenza. Come è stato detto, i critici del principio antropico affermano, riferendosi in particolare al principio antropico debole, che non si tratta di una teoria scientifica in quanto non è in grado di fornire predizioni verificabili scientificamente. Tuttavia John Leslie (1917-1981), un filosofo della scienza, formula alcune predizioni in base al principio antropico forte, nella versione di Carter: 1. Gli sviluppi in campo fisico rafforzeranno l'idea che le prime transizioni di fase avvennero probabilisticamente e non deterministicamente. 7<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 2. Sopravviveranno alla investigazione teoretica vari metodi per la generazione di universi multipli. 3. Le possibilità di un universo a taratura fine verranno accreditate. 4. I tentativi di scoprire forme di vita non basate sul carbonio falliranno. 5. Gli studi matematici sulla formazione delle galassie confermeranno che la loro esistenza dipende criticamente dal tasso di espansione dell'universo. Da un punto di vista prettamente scientifico ci attendiamo, in base al principio antropico, che le costanti di natura che assumono valori "particolari"(prossimi a zero o uno ad esempio) assumano valori che deviano dal valore particolare quel tanto che basta a supportare la vita. Un esempio in questo senso è il valore piccolo (<10-120), ma apparentemente non nullo della costante cosmologica. La teoria delle stringhe prevede un intero insieme di universi possibili, il multiverso, e tale previsione rafforza le basi del principio antropico. Solo gli universi che sono in grado di supportare la vita sono conoscibili, tutti gli altri rimangono al di fuori di qualsiasi possibilità di osservazione. A tale proposito S. Weinberg afferma che il principio antropico, applicato alla teoria delle stringhe, "può spiegare come mai le costanti di natura osservate assumono valori adatti alla vita, senza chiamare in causa un universo a taratura fine ed un creatore." Nel 2002, Nick Bostrom, un filosofo, si è chiesto: "È possibile riassumere l'essenza degli effetti di selezione delle osservazioni in un enunciato semplice?". Egli concluse che era possibile, ma che "Molti principi antropici sono semplicemente confusi. Alcuni, specialmente quelli che traggono ispirazione dagli scritti seminali di Carter, sono ragionevoli, ma... sono troppo deboli per svolgere un qualsiasi lavoro scientifico. In particolare, sostengo che le metodologie esistenti non permettono di derivare qualsiasi conseguenza osservazionale dalle teorie cosmologiche contemporanee, nonostante il fatto che queste teorie possano essere, e sono, testate in modo empirico abbastanza facilmente dagli astronomi. Ciò che occorre per colmare questo vuoto metodologico è una formulazione più adeguata di come gli effetti della selezione delle osservazioni debbano essere tenuti in conto." Il suo assunto è "che si deve pensare a sé stessi come ad un osservatore casuale appartenente ad una classe di riferimento adeguata." Egli espande quest'idea in un modello di pregiudizio antropico e ragionamento antropico dovuto all'incertezza di non conoscere il proprio posto nel nostro universo, o addirittura chi "noi" siamo. Questo può essere anche un modo di superare diversi limiti dei pregiudizi cognitivi inerenti agli esseri umani che compiono le osservazioni e condividono modelli del nostro universo usando la matematica, come suggerito nella scienza cognitiva della matematica. 16.3 L’universo ha avuto un’origine? Dibattito tra scienza, filosofia e teologia Generalmente si pensa che le cause precedano gli effetti. È quindi naturale tentare di spiegare l'universo appellandosi alla situazione di epoche cosmiche precedenti. Questa catena di cause ed effetti avrebbe mai fine? La sensazione che qualcosa deve avere dato inizio a tutto ciò che osserviamo è profondamente radicata nella cultura occidentale. Ed è diffusa l'assunzione che questo qualcosa non si trovi nell'ambito della ricerca scientifica, ma debba essere in un certo senso soprannaturale. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7<8! Gli scienziati, così procede l'argomentazione, possono anche spiegare tutto ciò che si trova nell'ambito dell'universo fisico. Ma a un certo punto nella catena della spiegazione si troveranno in un vicolo cieco, un punto oltre il quale la scienza non può penetrare. Questo punto è la creazione dell'universo nel suo complesso, l'origine ultima del mondo fisico. Questo cosiddetto argomento cosmologico è stato spesso usato nel corso dei secoli, da teologi e filosofi, come prova dell'esistenza di Dio. La conclusione dell'argomento cosmologico era difficile da criticare fino a pochi anni fa, quando venne compiuto un serio tentativo di spiegare l'origine dell'universo nell'ambito della fisica. Ogni discussione sull'origine dell'universo presuppone che l'universo abbia avuto un'origine. La maggior parte delle culture antiche propendeva per un'idea del tempo in cui il mondo non ha nessun inizio, ma piuttosto attraversa cicli che si ripetono senza fine. Anche la filosofia greca era impregnata del concetto dei cicli eterni, e la natura ciclica del tempo nel sistema greco venne ereditata dagli arabi che rimasero i custodi della cultura greca finché fu trasmessa alla Cristianità nel Medioevo. Gran parte della visione attuale del mondo nelle culture europee può essere fatta risalire all'imponente scontro tra la filosofia greca e la tradizione giudaico-cristiana. Naturalmente è fondamentale, nella dottrina cristiana e giudaica, il principio secondo il quale Dio creò l'universo in un momento specifico del passato, e gli eventi successivi hanno formato una sequenza che si è svolta in modo unidirezionale. Così un'idea di progressione storica pervade queste religioni, ed è in completo contrasto con la concezione greca dell'eterno ritorno. Nella loro preoccupazione di aderire al tempo lineare, piuttosto che a quello ciclico, i primi Padri della Chiesa denunciarono la visione ciclica del mondo dei filosofi greci pagani, nonostante la loro generale ammirazione per tutto il pensiero greco. Così troviamo Tommaso d'Aquino che riconosce la forza degli argomenti filosofici di Aristotele secondo cui l'universo deve essere esistito sempre, ma che si appella alla Bibbia per giustificare la credenza in un'origine cosmica. Un aspetto chiave della dottrina giudaico-cristiana della creazione è che il Creatore è completamente indipendente e separato dalla sua creazione; cioè, l'esistenza di Dio non garantisce automaticamente l'esistenza dell'universo, come in alcuni schemi pagani dove il mondo fisico scaturisce dal Creatore come un'estensione automatica del suo essere. Piuttosto, l'universo ha avuto origine in un momento preciso del tempo come un atto di deliberata creazione soprannaturale da parte di un essere già esistente. Per quanto possa sembrare semplice, questo concetto di creazione causò per secoli un'intensa disputa dottrinale, in parte dovuta al fatto che i testi antichi sono estremamente vaghi in materia. La descrizione biblica della Genesi per esempio, che ha attinto in modo cospicuo dagli antichi miti mediorientali della creazione, si dilunga sugli aspetti poetici ma è concisa per quanto riguarda i dettagli fattuali. Non viene chiarito se Dio si limiti a mettere ordine in un caos primordiale, oppure crei la materia e la luce in un vuoto preesistente, oppure compia qualcosa di ancora più profondo. Gli interrogativi difficili abbondano. Che cosa faceva Dio prima di creare l'universo? Per quale motivo lo creò in quel particolare momento, piuttosto che in un altro? Se era contento di esistere in eterno senza un universo, che cosa lo costrinse a decidersi e crearne uno? La Bibbia lascia parecchio spazio al dibattito su questi argomenti. E il dibattito c'è stato di sicuro. In effetti, gran parte della dottrina cristiana relativa alla creazione venne sviluppata molto tempo dopo la stesura della Genesi e fu influenzata dal pensiero greco tanto quanto da quello giudaico. Due questioni sono particolarmente 7<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! interessanti dal punto di vista scientifico. La prima riguarda la relazione di Dio con il tempo; la seconda la sua relazione con la materia. Le principali religioni occidentali proclamano che Dio è eterno, ma la parola eterno può avere due significati alquanto diversi. Da una parte può significare che Dio è esistito per un periodo infinito di tempo nel passato e che continuerà a esistere per un periodo infinito di tempo nel futuro; dall'altra che Dio è completamente fuori dal tempo. Agostino optò per la seconda interpretazione quando affermò che Dio creò il mondo “con il tempo e non nel tempo”. Considerando il tempo come universo fisico, piuttosto che come qualcosa in cui ha luogo la creazione dell'universo, e ponendo Dio completamente al di fuori di esso, Agostino evitò elegantemente il problema di cosa facesse Dio prima della creazione. Questo vantaggio, comunque, è conseguito a un certo prezzo. Tutti possono riconoscere la forza dell'argomento che qualcosa deve avere dato inizio a tutto questo. Nel XVII secolo l'universo era considerato come una macchina gigantesca che era stata azionata da Dio, il Primo Motore, la Causa Prima in una catena causale cosmica. Ma cosa significa, per un Dio posto fuori del tempo, causare qualcosa? In conseguenza di questa difficoltà, quanti credono in un Dio atemporale preferiscono enfatizzare il suo ruolo nel mantenere e sostenere la creazione in tutti i momenti della sua esistenza. Non viene fatta nessuna distinzione tra creazione e conservazione: agli occhi del Dio atemporale entrambe rappresentano la medesima azione. Il rapporto di Dio con la materia è stato allo stesso modo oggetto di difficoltà dottrinali. Alcuni miti sulla creazione, come ad esempio la versione babilonese, dipingono un'immagine del cosmo come qualcosa che emerge dal caos primordiale (letteralmente cosmo significa ordine). Secondo questo punto di vista la materia è anteriore a un atto soprannaturale creativo, ed è ordinata da esso. Una concezione simile fu abbracciata nella Grecia classica. Il Demiurgo di Platone era limitato perché doveva lavorare con la materia già esistente. Questo atteggiamento fu adottato anche dai cristiani gnostici, che consideravano la materia corrotta, e quindi un prodotto del diavolo più che di Dio. La credenza in un essere divino che dà origine all'universo e poi si mette a osservare gli eventi che si svolgono, senza prendervi direttamente parte, è nota come deismo. In esso la natura di Dio è espressa dall'immagine del perfetto orologiaio, una sorta di ingegnere cosmico, che progetta e costruisce un meccanismo elaborato e immenso, e poi lo mette in moto. In antitesi con il deismo c'e il teismo, la credenza in un Dio che è il creatore dell'universo, ma che rimane pure coinvolto direttamente nella gestione quotidiana del mondo. Tanto nel deismo quanto nel teismo viene tracciata una netta distinzione fra Dio e il mondo, fra il creatore e la creatura. Dio è considerato come un essere completamente altro dall'universo fisico e oltre esso, benché ne sia ancora responsabile. Nel sistema noto come panteismo, non viene fatta una tale distinzione tra Dio e l'universo fisico. Pertanto Dio è identificato con la natura stessa: ogni cosa è parte di Dio e Dio è in ogni cosa. I miti pagani della creazione presuppongono l'esistenza sia della sostanza materiale che di un essere divino, e sono quindi fondamentalmente dualistici. Di contro, la prima Chiesa cristiana si assestò sulla dottrina della creazione ex nihilo, in cui solo Dio è necessario. Secondo tale dottrina Egli ha creato l'intero universo dal nulla. L'origine di tutte le cose visibili e invisibili compresa la materia, è perciò attribuita a un libero atto creativo da parte di Dio. Una componente importante di questa dottrina è l'onnipotenza di Dio: non c'e alcun limite al suo potere creativo, come era invece nel caso del /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7<:! Demiurgo greco. Dio, infatti, non solo non è limitato dalla materia preesistente, ma neppure dalle leggi fisiche preesistenti, giacché parte del suo atto creativo fu il dare vita a quelle leggi e così stabilire l'ordine e l'armonia del cosmo. La credenza gnostica che la materia sia corrotta viene rifiutata in quanto incompatibile con l'Incarnazione di Cristo. D'altra parte, neanche la materia è divina, come negli schemi panteistici, dove tutta la natura è infusa della presenza di Dio. L'universo fisico, creatura di Dio, è considerato come qualcosa di distinto e separato dal suo creatore. L'importanza della distinzione tra il creatore e la creatura in questo sistema è che il mondo creato dipende in modo assoluto per la sua esistenza dal creatore. Se lo stesso mondo fisico fosse divino, o in qualche modo emanato direttamente dal creatore, condividerebbe allora l'esistenza necessaria del creatore. Ma poiché esso è stato creato dal nulla, e poiché l'atto creativo è stato una libera scelta del creatore, l'universo non deve necessariamente esistere. Agostino così scrive: “Tu hai creato qualcosa, e quel qualcosa lo hai creato dal nulla. Hai fatto il cielo e la terra, non da te stesso, perché allora sarebbero stati uguali al tuo Figlio Unigenito, e tramite Lui uguali a te”. La differenza più ovvia tra il creatore e la creatura è che il creatore è eterno, mentre il mondo creato ha un inizio. Il teologo cristiano Ireneo (II secolo) ha scritto: “Ma le cose stabilite sono distinte da Colui che le ha stabilite, e ciò che è stato fatto da Colui che lo ha fatto. Infatti è Egli stesso non creato, senza né inizio né fine, e a Lui nulla manca. È Egli stesso sufficiente alla propria esistenza; ma le cose fatte da Lui hanno avuto un inizio”. Anche oggi rimangono differenze dottrinali all'interno dei principali rami della Chiesa, e differenze ancora più grandi tra le varie religioni mondiali, riguardo al significato della creazione. Ma tutti concordano che in un senso o nell'altro l'universo fisico è in sé incompleto. Non è in grado di spiegare sé stesso. La sua esistenza in ultima analisi richiede qualcosa di esterno, e può essere compresa solo in dipendenza da qualche forma di influenza divina. Quanto alla posizione della scienza sull'origine dell'universo, ci si potrebbe interrogare ancora una volta su cosa provi che ci sia stata davvero un'origine. È senza dubbio possibile concepire un universo di durata infinita, e per buona parte dell'era scientifica, in seguito all' opera di Copernico, Galileo e Newton, gli scienziati hanno tutti creduto in un cosmo eterno. C'erano, comunque, alcuni aspetti paradossali in questa credenza. Newton era preoccupato delle conseguenze della sua legge della gravità, secondo la quale qualsiasi massa materiale nell'universo attrae qualsiasi altra massa materiale. Non riusciva a spiegarsi come mai l'intero universo non finisse col formare un'unica grande massa. In che modo le stelle possono restare sospese per sempre, prive di un sostegno, senza essere attratte le une verso le altre dalle reciproche forze gravitazionali? Newton propose una soluzione ingegnosa. Perché l'universo cada verso il proprio centro di gravità, ci deve essere un centro di gravità. Se, tuttavia, l'universo fosse infinito nella sua estensione spaziale, e mediamente popolato dalle stelle in modo uniforme, non esisterebbe nessun centro privilegiato verso il quale le stelle possano cadere. Qualsiasi stella sarebbe ugualmente trascinata in ogni direzione, e non ci sarebbe nessuna forza risultante in alcuna direzione data. Questa soluzione non è davvero soddisfacente perché è matematicamente ambigua: le varie forze in competizione sono tutte di grandezza infinita. Dunque il mistero di come l'universo eviti il collasso continuò a ripresentarsi ed è continuato fino al XX secolo. Anche Einstein cercò di risolverlo, e nella sua teoria generale della relatività aggiunse la costante cosmologica nel tentativo di spiegare la stabilità del 7;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! cosmo. Questo atto equilibratore risultò instabile, cosicché il più lieve mutamento avrebbe fatto diventare dominante l'una o l'altra delle forze in contrasto, col risultato di disperdere il cosmo in una corsa sfrenata verso l'esterno, oppure di spingerlo a crollare verso l'interno. In ogni caso, nessuna stella potrebbe continuare a bruciare in eterno. Resterebbe senza carburante. Questo è utile a illustrare un principio molto generale: un universo eterno è incompatibile con l'esistenza continuata di processi fisici irreversibili. Se i sistemi fisici possono essere soggetti a mutamenti irreversibili a una velocità finita, allora avranno completato tali mutamenti una quantità infinita di tempo addietro. Quindi non potremmo ora assistere a tali mutamenti. L'universo fisico, in effetti abbonda di processi irreversibili. Questi problemi cominciarono a imporsi agli scienziati verso la metà del XIX secolo. Fino ad allora, i fisici si erano occupati di leggi simmetriche nel tempo, non mostrando nessuna preferenza tra passato e futuro. Poi lo studio dei processi termodinamici cambiò definitivamente le cose. Al centro della termodinamica c'e la seconda legge, che impedisce la propagazione spontanea del calore dai corpi freddi a quelli caldi. Questa legge non è quindi reversibile: essa imprime sull'universo una freccia del tempo, indicando la strada di un mutamento unidirezionale. Gli scienziati giunsero rapidamente alla conclusione che l'universo è interessato da uno slittamento a senso unico verso uno stato di equilibrio termodinamico. Questa tendenza all'uniformità, in cui le temperature si livellano e l'universo si assesta in uno stato stabile divenne nota come morte termica. Essa rappresenta uno stato di massimo disordine molecolare, o entropia. Il fatto che l'universo non sia ancora morto, cioè che sia ancora in uno stato di entropia meno che massima, implica che non può essere durato per tutta l'eternità. Negli anni Venti gli astronomi scoprirono che l'immagine tradizionale di un universo statico era in ogni caso sbagliata: che l'universo sta effettivamente espandendosi, con le galassie che vanno allontanandosi l'una dall'altra. Ciò costituisce il fondamento della nota teoria del big bang, secondo la quale l'universo ebbe inizio improvvisamente, 13,7 miliardi di anni fa. La scoperta del big bang è stata spesso salutata come una conferma del racconto biblico della Genesi, tale da indurre, nel 1951, papa Pio XII a fare un esplicito riferimento in un discorso all'Accademia Pontificia delle Scienze. Naturalmente, lo scenario del big bang somiglia solo molto superficialmente a quello della Genesi. La teoria del big bang si sottrae automaticamente ai paradossi di un cosmo eterno. Dal momento che l'universo ha un'età finita, non esiste nessun problema con i processi irreversibili. La teoria risolve, tuttavia, una serie di problemi solo per trovarsene di fronte altri, non ultimo quello di spiegare che cosa ha causato il big bang. La teoria del big bang si basa sulla teoria della relatività di Einstein. Uno degli aspetti principali della relatività generale e che ciò che riguarda la materia non può esser separato da ciò che riguarda lo spazio e il tempo, ed è un collegamento che ha profonde conseguenze per l'origine dell'universo. Se si immagina di far scorrere all'indietro il film cosmico, allora le galassie si avvicinano sempre di più le une alle altre, fino a fondersi. La materia galattica quindi si comprime sempre più, finché viene raggiunto uno stato di densità enorme, un punto di compressione infinita chiamata singolarità. Sebbene, per ragioni piuttosto elementari, si sia portati ad aspettarsi la presenza di una singolarità all'origine dell'universo, ci volle un'indagine matematica molto /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;;! complessa per stabilire il risultato in modo rigoroso. Questa indagine fu dovuta principalmente ai fisici matematici britannici Roger Penrose (1931) e Stephen Hawking (1942). Con una serie di profondi teoremi, essi dimostrarono che una singolarità del big bang è inevitabile finché la gravità resta una forza d'attrazione nelle condizioni estreme dell'universo primordiale. Ci fu molta resistenza da parte dei fisici e cosmologi all'idea di una singolarità del big bang quando venne presentata per la prima volta. Uno dei motivi di questa resistenza era il fatto che la materia, lo spazio e il tempo sono collegati nella teoria generale della relatività, per cui se consideriamo il momento della compressione infinita, lo spazio era infinitamente ristretto. Ma se lo spazio è infinitamente ristretto, esso deve letteralmente sparire. E il fondamentale collegamento di spazio, tempo e materia comporta inoltre che anche il tempo deve sparire. Non ci può essere tempo senza spazio. Di conseguenza la singolarità della materia è anche una singolarità spaziotemporale. Poiché tutte le nostre leggi della fisica sono formulate in termini di spazio e tempo, tali leggi non possono rimanere valide oltre il punto in cui lo spazio e il tempo cessano di esistere. Quindi le leggi della fisica devono venir meno nel punto di singolarità. L'immagine dell'origine dell'universo che otteniamo in tal modo è notevole. In un istante finito del passato l'universo dello spazio, del tempo e della materia è limitato da una singolarità spazio-temporale. L'origine dell'universo è quindi rappresentata non solo dall'apparizione improvvisa della materia, ma anche dello spazio e del tempo. Allora alla domanda: dove è avvenuto il big bang? L'esplosione non è affatto avvenuta in un punto dello spazio. Lo spazio stesso ha avuto origine con il big bang. Una difficoltà analoga si riscontra nella domanda: che cosa c'era prima del big bang? La risposta è che non c'era nessun prima. Il tempo stesso ha avuto inizio col big bang. Agostino affermava che il mondo era stato creato con il tempo e non nel tempo, e questa è esattamente la posizione scientifica moderna. Non tutti gli scienziati sono stati tuttavia disposti a condividerla. Pur accettando l'espansione dell'universo, alcuni cosmologi hanno tentato di elaborare teorie che, nondimeno, evitassero una simile concezione dell'origine dello spazio e del tempo. Malgrado la forte tradizione occidentale a sostegno di un universo creato e di un tempo lineare, il fascino esercitato dalla teoria dell'eterno ritorno è sempre vivo. Persino nella moderna era del big bang ci sono stati dei tentativi di ripristinare una cosmologia ciclica. Aleksander Friedmann (1888-1925) cominciò a studiare le equazioni di Einstein e le loro implicazioni per la cosmologia. Trovò varie soluzioni interessanti, che descrivono tutte un universo che si espande o si contrae. Un insieme di soluzioni corrisponde a un universo che ha inizio con il big bang, si espande a una velocità decrescente, e poi ricomincia a contrarsi. La fase di contrazione rispecchia la fase di espansione, cosicché la contrazione diventa sempre più rapida fino a quando l'universo scompare in un big crunch: una catastrofica implosione, come un big bang al contrario. Questo ciclo di espansione e di contrazione può quindi essere seguito da un altro ciclo, poi da un altro, e così via ad infinitum. Le soluzioni di Friedmann non costringono l'universo a oscillare tra fasi alterne di espansione e contrazione: esse ammettono anche la possibilità di un universo che abbia inizio con un big bang e continui a espandersi per sempre. Quale fra queste alternative prevalga dipende dalla quantità di materia esistente nell'universo stesso. Fondamentalmente, se c'e sufficiente materia, la sua gravità arresterà alla fine la 7;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dispersione cosmica, e causerà un nuovo collasso. Se c'è materia sufficiente a causare la ricontrazione, dobbiamo considerare la possibilità che l'universo possa pulsare. Comunque, alla luce dell’espansione accelerata dell’universo scoperta alla fine degli anni novanta del XX secolo, prodotta dalla possibile presenza di un’energia oscura i cui effetti sono antigravitazionali, questi scenari vanno riconsiderati. Un’altra possibilità che esclude un inizio per l’universo è che forse non ci fu nessun inizio, neppure il big bang. Può darsi invece che l'universo abbia i mezzi per rifornirsi in continuazione, in modo da andare avanti per sempre. L'aspetto centrale di questa teoria, dovuta a Herman Bondi (1919-2005) e Thomas Gold (1920-2004) e chiamata dello stato stazionario, è che non vi è stato alcun big bang in cui tutta la materia sarebbe stata creata. Invece, mentre l'universo si espande, vengono di continuo create nuove particelle di materia per colmare gli spazi vuoti, cosicché la densità media della materia nell'universo rimane invariata. Ogni singola galassia attraverserà un ciclo di evoluzione, che culminerà nella sua morte quando le stelle si spegneranno, ma nuove galassie possono formarsi dalla materia creata nel processo. In ogni dato momento vi sarà una mescolanza di galassie di diverse età, ma le galassie più vecchie saranno distribuite in modo assai sparso perché l'universo si sarà esteso parecchio dal momento della loro nascita. Bondi e Gold immaginarono che il tasso di espansione dell'universo rimanesse costante e che il tasso di creazione della materia fosse tale da mantenere una densità media anch'essa costante. Lo stato stazionario dell'universo non ha un inizio o una fine, e appare mediamente lo stesso in tutte le epoche cosmiche, nonostante l'espansione. Il modello evita la morte termica perchè l'immissione di materia nuova immette anche entropia negativa. Bondi e Gold non hanno fornito alcun meccanismo dettagliato che spiegasse come la materia viene creata, ma lo ha fatto il loro collega Fred Hoyle (1915-2001) che ha lavorato proprio su questo problema. Hoyle ha studiato la possibilità di un campo di creazione il cui effetto sarebbe quello di produrre nuove particelle di materia. Poiché la materia è una forma di energia, il meccanismo di Hoyle potrebbe essere interpretato come una violazione della legge di conservazione dell'energia, ma le cose non stanno necessariamente così. Il campo di creazione ha energia negativa ed è possibile che l'energia positiva della materia creata sia controbilanciata esattamente dall'energia negativa del campo di creazione. Da uno studio matematico di questa interazione, Hoyle scoprì che il suo modello cosmologico tendeva automaticamente verso la condizione di stato stazionario richiesta dalla teoria di Bondi e di Gold, e poi ci rimaneva. Il lavoro di Hoyle offrì il necessario supporto teorico perché la teoria dello stato stazionario fosse presa sul serio, e per un decennio o più si pensò che potesse battersi ad armi pari con la teoria del big bang. Molti scienziati, compresi coloro che diedero origine alla teoria dello stato stazionario, si resero conto che abolendo il big bang avevano eliminato una volta per tutte il bisogno di qualunque tipo di spiegazione soprannaturale dell'universo. In un universo senza un inizio non c'e alcuna necessità di una creazione o di un creatore, e un universo con un campo di creazione fisico che gli consente di ricaricarsi da sé non necessita di alcun intervento divino per continuare a girare. In realtà la conclusione è un non sequitur. Il fatto che l'universo potrebbe non avere alcuna origine nel tempo non spiega la sua esistenza, né perché ha la forma che ha. Di sicuro non spiega perché la natura possiede i campi pertinenti (come il campo di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;4! creazione) e i principi fisici che determinano la condizione dello stato stazionario. Per ironia della sorte, alcuni teologi hanno salutato la teoria dello stato stazionario come un modus operandi dell'attività creativa di Dio. Dopo tutto, un universo che vive in eterno, evitando la morte termica, riveste un notevole interesse teologico. A cavallo del XX secolo il matematico e filosofo Whitehead fondò la cosiddetta scuola teologica della processualità. I teologi della processualità rifiutano il tradizionale concetto cristiano della creazione dal nulla a favore di un universo che non ha avuto nessun inizio. L'attività creativa di Dio si manifesta invece come un processo ancora in corso, un progresso creativo nell'attività della natura, in sintonia con la teoria dello stato stazionario. Alla fine, la teoria dello stato stazionario perse consensi non per ragioni filosofiche, ma perché venne smentita dalle osservazioni. La teoria fece la predizione molto specifica che l'universo sarebbe dovuto apparire più o meno sempre uguale in tutte le epoche, e l'avvento dei grandi telescopi radio consentì che tale predizione venisse controllata. Dalla metà degli anni Sessanta del XX secolo divenne chiaro che parecchi miliardi di anni fa l'universo sarebbe apparso molto diverso da come appare oggi, in particolare rispetto al numero di tipi diversi di galassie. Il colpo mortale alla teoria dello stato stazionario venne inferto nel 1965 con la scoperta della radiazione cosmica di fondo, cioè che l'universo è immerso in una radiazione termica a una temperatura di circa tre gradi sopra lo zero assoluto. Si ritiene che questa radiazione sia un residuo diretto del big bang, una sorta di traccia evanescente del calore primordiale che ha accompagnato la nascita del cosmo. Risulta difficile comprendere come un tale bagno di radiazioni abbia potuto prodursi senza che la materia cosmica sia stata un tempo molto compressa ed estremamente calda. Un simile stato non è contemplato dalla teoria dello stato stazionario. Naturalmente, il fatto che l'universo non sia in uno stato stazionario non significa che una continua creazione di materia sia impossibile, ma la motivazione del campo della creazione di Hoyle risulta fortemente indebolita una volta che si è stabilito che l'universo è in evoluzione. Se si accetta l'idea che lo spazio, il tempo e la materia ebbero origine in una singolarità che rappresenta un limite assoluto, nel passato, per l'universo fisico, ci troviamo di fronte a un certo numero di rompicapi. C'è ancora il problema di che cosa ha causato il big bang. Questo interrogativo deve, comunque, essere visto sotto una nuova luce, perché non è possibile considerare il big bang come un effetto di qualche cosa accaduta prima di esso, come generalmente succede nelle discussioni sui fenomeni causali. Ciò significa forse che il big bang fu un evento senza una causa? Se le leggi della fisica cessano di valere nel punto di singolarità, non ci può essere nessuna spiegazione che si basi su queste leggi. Perciò, se si insiste su una ragione per il big bang, allora questa deve trovarsi oltre la fisica. Dopo l'abbandono della teoria dello stato stazionario, sembrò che gli scienziati si trovassero di fronte a una rigida alternativa riguardo all'origine dell'universo. Si poteva o credere che l'universo avesse un'età infinita, con tutti i paradossi fisici che ne derivano, oppure assumere un inizio improvviso del tempo (e dello spazio), la cui spiegazione sfuggisse all'ambito della scienza. Venne trascurata una terza possibilità: che il tempo potesse essere limitato nel passato e, tuttavia, non aver avuto inizio improvvisamente in una singolarità. Prima di entrare nei particolari vorrei fare una considerazione di carattere generale, ossia affermare che l'essenza del problema dell'origine è che il big bang 7;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! appare come un evento senza una causa fisica. Ciò è in genere considerato in contraddizione con le leggi della fisica. C'è, comunque, una scappatoia chiamata meccanica quantistica. Ricordiamo che alla base della fisica quantistica c'è il principio di indeterminazione di Heisenberg, secondo il quale tutte le quantità misurabili sono soggette a impredicibili fluttuazioni di valore. Questa impredicibilità implica che il microcosmo è indeterministico. Perciò gli eventi quantistici non sono determinati in modo assoluto da cause precedenti e benché la probabilità di un dato evento sia fissata dalla teoria, il risultato effettivo di un particolare processo quantistico non è conosciuto e non può essere conosciuto, neppure in linea di principio. Indebolendo il legame tra causa ed effetto, la meccanica quantistica fornisce un modo sottile di aggirare il problema dell'origine dell'universo. Se si trovasse il modo di consentire all'universo di aver origine dal nulla come risultato di una fluttuazione quantistica, allora nessuna legge della fisica risulterebbe violata. In altre parole, dal punto di vista di un fisico quantistico l'apparizione spontanea di un universo non è poi una tale sorpresa, perché gli oggetti fisici appaiono di continuo in modo spontaneo, senza cause ben definite, nel microcosmo quantistico. Il fisico quantistico non ha bisogno di fare appello a un atto soprannaturale per spiegare l'origine dell'universo, più di quanto ne abbia bisogno per spiegare perché un nucleo radioattivo è decaduto. Tutto questo dipende, naturalmente, dalla validità della meccanica quantistica quando la si applica all'universo nel suo complesso. E si tratta di una questione ancora non perfettamente chiarita. A parte la straordinaria estrapolazione richiesta nell'applicare una teoria delle particelle subatomiche all'intero cosmo, vi sono profonde questioni di principio relative al significato da attribuire a certi oggetti matematici nella teoria. Ma molti insigni fisici hanno sostenuto che si può far funzionare la teoria in maniera soddisfacente anche in questa situazione, e così è nata la cosmologia quantistica. La giustificazione della cosmologia quantistica è che, se il big bang viene preso sul serio, ci deve essere stato un tempo in cui l'universo era ridotto dalla compressione a dimensioni minute. In queste circostanze i processi quantistici devono essere stati importanti. In particolare le fluttuazioni descritte dal principio di indeterminazione di Heisenberg devono avere avuto un profondo effetto sulla struttura e sull'evoluzione del cosmo nascente. Un semplice calcolo ci rivela di quale epoca si trattava. Gli effetti quantistici erano importanti quando la densità della materia aveva uno sbalorditivo valore di 1094 gm/cm3. Questo stato di cose esisteva prima di 10-43 secondi dal big bang, quando l'universo era largo semplicemente 10-33 cm. Ci si riferisce a questi valori rispettivamente, come alla densità, il tempo e la distanza di Planck. La capacità delle fluttuazioni quantistiche di increspare il mondo fisico su scala ultramicroscopica conduce a una predizione affascinante sulla natura dello spaziotempo. I fisici possono osservare le fluttuazioni quantistiche in laboratorio fino alla distanza di circa 10-16 cm e per un tempo di circa 10-26 secondi. Queste fluttuazioni hanno luogo su uno sfondo spazio-temporale apparentemente fisso. Sulla scala molto più piccola dei valori di Planck, tuttavia, le fluttuazioni interesserebbero anche lo stesso spaziotempo. Nel contesto della cosmologia quantistica ci sono tre possibili scenari. Il primo riguarda la comparsa dello stato iniziale dell’universo dal nulla come prodotto spontaneo dal vuoto grazie all’effetto di tunnel quantistico. Il concetto di universo che si materializza dal nulla è qualcosa di sconvolgente, ma l’effetto tunnel è descritto dalle leggi della meccanica quantistica, grazie alle quali una particella, rappresentata da un’onda, riesce a superare una barriera di energia anche se la sua /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;6! energia è insufficiente a superarla, per cui il nulla deve essere soggetto a tali leggi, e quindi sede di attività frenetica. Come risultato dell’evento di tunneling, un universo di dimensione finita emerge da nessun luogo, ovvero nuclea, e comincia immediatamente a crescere in maniera inflazionaria. Se non c'era nulla prima che l'Universo comparisse, cosa mai avrebbe potuto causare il tunneling? Può sbalordire, ma la risposta è che non è richiesta alcuna causa. In fisica classica, la causalità detta ciò che accade da un momento al successivo; in meccanica quantistica, invece, il comportamento degli oggetti fisici è intrinsecamente impredicibile, e alcuni processi quantistici non hanno affatto causa. La nascita dell'Universo può essere rappresentata graficamente mediante il diagramma spaziotemporale illustrato in figura. L'emisfero scuro in basso corrisponde al tunneling, la superficie chiara sopra di esso raffigura lo spaziotempo dell'universo inflazionario. Il confine tra le due regioni spaziotemporali rappresenta l'Universo nel momento della nucleazione. Caratteristica notevolissima di questo spaziotempo è che non ha singolarità, in quanto la regione sferica ha curvatura finita ovunque, a differenza dello spaziotempo di Friedmann che ha inizio da un punto singolare di curvatura infinita, dove la matematica delle equazioni einsteiniane cessa di valere. Prima del tunneling non esistono né spazio né tempo, sicché la questione di cosa sia accaduto in precedenza è priva di senso. Il nulla, uno stato senza materia, senza spazio e senza tempo, sembra essere una soluzione soddisfacente per la creazione. L’ Universo che emerge dall'effetto tunnel quantistico non deve per forza avere forma perfettamente sferica. Può assumere una gran varietà di forme differenti, e come di solito accade nella quantistica , non siamo in grado di dire quale di queste possibilità si sia realizzata; tutto ciò che possiamo fare è calcolare le loro probabilità. Potrebbe darsi che ci sia una molteplicità di altri universi che hanno avuto inizio in modo diverso dal nostro? L'argomento è strettamente connesso alla spinosa questione di come si debbano interpretare le probabilità quantistiche. Secondo l'interpretazione di Copenaghen, la meccanica quantistica assegna una probabilità a ogni possibile esito di un esperimento, ma solo uno di tali risultati si produce realmente. L'interpretazione di Everett, d'altra parte, afferma che tutti i risultati possibili si realizzano in universi privi di connessioni reciproche, universi "paralleli". Se adottiamo l'interpretazione di Copenaghen, la creazione è stata un evento unico, in cui un singolo Universo è comparso dal nulla. Ciò, però, comporta un problema. La cosa che ha maggiori probabilità di comparire dal nulla è un Universo delle dimensioni della lunghezza di Planck, dove non potrebbe prodursi alcun effetto tunnel: un Universo del genere ricollasserebbe scomparendo immediatamente. La probabilità di tunneling a dimensioni maggiori è piccola, e richiede perciò un gran numero di tentativi. Tale concezione sembra accordarsi unicamente con l'interpretazione di Everett. Stando a quest'ultima, c'e un insieme di universi con tutti i possibili stati iniziali. Per la maggior parte, si tratta di "barlumi d'universo" delle dimensioni della lunghezza di Planck, dotati di un'esistenza intermittente. Oltre a questi, ci sono alcuni universi che, per effetto tunnel, passano a 7;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dimensioni maggiori e crescono in maniera inflazionaria. Poiché non è possibile che nei "barlumi d'universo" evolvano osservatori, solo universi di grandi dimensioni saranno soggetti a osservazione, e quindi è probabile il nostro Universo abbia nucleato in tal modo. Tutti gli universi che fanno parte di tale complesso sono assolutamente privi di relazioni reciproche. Un secondo scenario è quello proposto da Hawking-Hartle. In questo modello, invece di concentrarsi sui primi istanti della creazione, si pone il problema di come calcolare la probabilità quantistica affinché l’Universo si trovi in un certo stato. L’Universo potrebbe seguire un gran numero di storie possibili prima di raggiungere tale stato, e attraverso la meccanica quantistica valutare il contributo di ogni singola storia a tale probabilità. Il risultato probabilistico finale dipende da quale insieme di storie venga preso in considerazione nel calcolo. La proposta di Hartle e Hawking era di comprendervi solo storie rappresentate da spaziotempi che non hanno confini nel passato. Uno spazio senza limiti è facile da concepire: non è altro che un Universo chiuso. Ma, secondo quanto richiedevano Hartle e Hawking, nemmeno lo spaziotempo doveva avere confini nella direzione del tempo passato. Doveva essere chiuso in tutte e quattro le dimensioni, eccetto per il bordo che corrisponde al momento presente. La presenza di un confine nello spazio indicherebbe che c'è qualcosa al di là dell'Universo, un limite nel tempo corrisponderebbe all'inizio dell'Universo, dove dovrebbero venire specificate alcune condizioni iniziali. Secondo quanto proponevano Hartle e Hawking, l'Universo non possiede tali confini, è del tutto autonomo e non subisce alcuna influenza esterna . La conclusione è che, secondo Hartle e Hawking, non c'e nessuna origine dell'universo. Tuttavia, questo non significa che l'universo abbia un'età infinita: il tempo è limitato nel passato, ma come tale non ha un confine. Così secoli di travaglio filosofico sui paradossi del tempo infinito contro quello finito si concludono con una soluzione elegante. Le implicazioni dell'universo di Hartle-Hawking per la teologia sono profonde, come osserva lo stesso Hawking: “Finché l'Universo aveva un inizio, potevamo supporre che avesse un creatore. Ma se l'universo è completamente autosufficiente, senza un confine o un margine, non ha né un principio né una fine: semplicemente c'é. In tal caso, c'é ancora posto per un creatore?” Secondo questo argomento, dunque, dato che l'Universo non ha un'origine singolare nel tempo, non c'e alcun bisogno di appellarsi a un atto soprannaturale di creazione. Il terzo modello è basato sulla teoria delle stringhe (che tratteremo più approfonditamente nel capitolo La fisica del futuro), un modello fisico i cui costituenti fondamentali sono oggetti ad una dimensione (le stringhe) invece che di dimensione /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;8! nulla (i punti) caratteristici della fisica del modello standard. Secondo questa teoria il nostro spazio è una membrana a tre dimensioni (brana), un universo bolla che fa la sua comparsa in uno spazio a più dimensioni. Noi viviamo in una di queste bolle, che è una brana tridimensionale sferica in espansione Per quel che ci riguarda, tale brana è l'unico spazio esistente. Non possiamo uscirne e siamo ignari delle dimensioni extra. Seguendo a ritroso nel tempo la storia del nostro universo bolla, giungiamo al momento della enucleazione. Secondo la teoria delle stringhe, l’Universo esisteva prima del big bang che, per la relatività generale segnò l’inizio dello spazio e del tempo. L’universo potrebbe essere stato quasi vuoto e aver concentrato materia fino a quel momento, o aver attraversato un ciclo di morte e rinascita. In ogni caso, l’epoca precedente il big bang avrebbe influenzato l’epoca attuale. 16.4 L’origine dell’universo: il big bang L’universo è grande sia nello spazio sia nel tempo, e per buona parte della storia dell'umanità è rimasto fuori della portata dei nostri strumenti e delle nostre menti. Questo stato di cose è completamente cambiato nel XX secolo. I progressi si sono avuti sia grazie a idee potenti, dalla relatività generale a teorie sulle particelle elementari, sia grazie a strumenti potenti, come il telescopio spaziale Hubble, che hanno permesso di gettare lo sguardo non solo al di fuori della nostra galassia, la Via Lattea, ma fino al momento della nascita delle galassie. Nel corso degli ulti vent'anni l'incedere della conoscenza è accelerato con la conferma del fatto che la materia oscura non è composta da atomi ordinari, con la scoperta dell'energia oscura e con la comparsa di idee ardite quali l'inflazione cosmica e il multiverso. L'universo di cent'anni fa era semplice: eterno, immutabile, composto da un'unica galassia che conteneva qualche milione di stelle visibili. Il quadro odierno è piu completo e molto più ricco. Il cosmo ha avuto inizio 13,7 miliardi di anni fa, con il big bang. Una frazione di secondo dopo l'inizio l'universo era un brodo caldo e informe composto dalle particelle più elementari, quark e leptoni. Via via che si espandeva e si raffreddava si sviluppavano livelli successivi di struttura: neutroni e protoni, nuclei atomici, atomi, stelle, galassie, ammassi di galassie e infine superammassi. Oggi la parte osservabile dell'universo è popolata da 100 miliardi di galassie, ognuna contenente 100 miliardi di stelle e probabilmente un numero simile di pianeti. Le galassie stesse sono tenute insieme dalla gravità della misteriosa materia oscura. L'universo continua a espandersi, e questo avviene a una velocità che aumenta a causa dell'energia oscura, una forma di energia ancora più misteriosa, la cui forza di gravità respinge anziché attrarre. Il tema generale nella storia del nostro universo è l'evoluzione dalla semplicità del brodo di quark alla complessità che vediamo attualmente nelle galassie, nelle stelle, nei pianeti e nella vita. Queste caratteristiche emersero una dopo l'altra nel corso di miliardi di anni, guidate dalle leggi fondamentali della fisica. Nel loro percorso verso l'origine della creazione, i cosmologi inizialmente viaggiano attraverso la storia ben 7;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! conosciuta dell'universo fino al primo microsecondo; in seguito fino a 10-43 secondi dall'origine, un momento su cui le idee sono ben sviluppate ma le prove non sono ancora solide; e infine viaggiano fino ai primi istanti della creazione, su cui le nostre idee sono ancora puramente ipotetiche. Anche se l'origine assoluta dell'universo si trova ancora al di là della nostra portata, abbiamo congetture affascinanti, tra cui il concetto di multiverso, secondo cui l'universo comprende un numero infinito di sottouniversi sconnessi. Nel 1924, Hubble mostrò che le indistinte nebulose erano galassie come la nostra, e ingrandì di 100 miliardi di volte l'universo conosciuto. Qualche anno dopo mostrò che le galassie si allontanano l'una dall'altra, e più lontane sono più si muovono velocemente. È la legge di Hubble, applicata al passato, che indica un big bang 13,7 miliardi di anni fa. La legge di Hubble trovò un'interpretazione naturale all’interno della relatività generale: lo spazio stesso si espande, e le galassie vi vengono trascinate. Anche la luce viene deformata, cioè spostata verso il rosso: è un fenomeno che toglie energia, e quindi l'universo si raffredda via via che si espande. L'espansione cosmica fornisce il contesto per capire come si arrivò all'universo odierno. Quando i cosmologi immaginano di riportare indietro le lancette, l'universo diventa più denso, più caldo, più estremo più semplice. Esplorando gli inizi sondiamo anche i meccanismi della natura aiutandoci con un acceleratore più potente rispetto a quelli costruiti sulla Terra: il big bang stesso. Osservando lo spazio con i telescopi gli astronomi scrutano il passato, e più è grande il telescopio più indietro nel tempo possono scrutare. La luce proveniente dalle galassie lontane rivela un'era passata, e la misura dello spostamento verso il rosso subìto da questa luce indica di quanto sia cresciuto l'universo negli anni intermedi. L'attuale primatista ha uno spostamento verso il rosso di circa 8, che rappresenta un momento in cui l'universo aveva un nono delle dimensioni attuali e aveva solo qualche centinaio di milioni di anni. I telescopi del futuro ci porteranno al momento della nascita delle primissime stelle e galassie. Le simulazioni al computer dicono che quelle stelle e galassie si formarono quando l'universo aveva circa 100 milioni di anni. Prima di allora l'universo attraversò un periodo detto età oscura, in cui era quasi completamente buio. Lo spazio era pieno di un brodo informe, composto da cinque parti di materia oscura e una parte di idrogeno ed elio, che si diluì via via che l'universo si espandeva. La materia aveva una densità leggermente disomogenea, e la gravità amplificò queste variazioni di densità: le regioni più dense si espandevano più lentamente di quelle meno dense. Arrivati a 100 milioni di anni, le regioni più dense non solo si espandevano più lentamente, ma cominciarono /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;:! addirittura a subire un collasso. Queste regioni contenevano, ciascuna, materiale pari a circa un milione di volte la massa del Sole. Furono i primi oggetti del cosmo tenuti insieme dalla gravità. La materia oscura formava il grosso della loro massa ma, come suggerisce il nome, non emetteva o assorbiva luce e così rimase sotto forma di una nube diffusa. L'idrogeno e l'elio, invece, emettevano luce, perdevano energia e si concentravano al centro della nube, che alla fine collassava fino a generare le stelle. Queste prime stelle avevano una massa molto maggiore rispetto a quelle di oggi: centinaia di masse solari. E avevano vite molto brevi prima di esplodere e lasciarsi dietro i primi elementi pesanti. Nel corso del miliardo di anni successivo la forza di gravità aggregò nelle prime galassie queste nubi da un milione di masse solari. Dovrebbe essere possibile individuare la radiazione dalle nubi primordiali di idrogeno, fortemente spostata verso il rosso a causa dell'espansione, usando schiere di antenne radio con un'area di ricezione complessiva che raggiunge un chilometro quadrato, e osserveranno come la prima generazione di stelle e galassie ionizzò l'idrogeno, mettendo fine all'età oscura. Dopo l'età oscura c'è la luminosità del caldo big bang, con uno spostamento verso il rosso di 1100. Questa radiazione fu spostata dalla luce visibile (una luce rossoarancione) oltre l'infrarosso, fino alle microonde. Quello che vediamo di quell'epoca è un muro di radiazioni nella frequenza delle microonde che riempie il cielo, la radiazione cosmica di fondo a microonde (cosmic microwave background radiation, CMB), scoperta nel 1964 da Penzias e Wilson. Ci permette di gettare uno sguardo sull’universo alla tenera età di 380.000 anni, il periodo in cui si formarono gli atomi. Prima di allora l'universo era un brodo quasi uniforme di nuclei atomici, elettroni e fotoni. Quando si raffreddò a circa 3000 kelvin, i nuclei e gli elettroni si unirono a formare atomi. I fotoni 7=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! cessarono di essere deflessi dagli elettroni e sfrecciarono senza ostacoli per lo spazio, rivelando l'universo di un tempo più semplice, prima dell'esistenza di stelle e galassie. Nel 1992 il satellite Cosmic Background Explorer (COBE) della NASA scoprì che l'intensità della CMB ha lievi variazioni, dello 0,001 per cento circa, che riflettono piccole increspature nella distribuzione della materia. Le increspature primordiali avevano le dimensioni giuste per essere i semi di galassie e strutture più grandi che si sarebbero formate per effetto della gravità. La disposizione nel cielo di queste variazioni della radiazione di fondo descrive anche alcune proprietà fondamentali dell'universo, come la sua densità e composizione complessiva, nonché indizi sui suoi primi istanti; lo studio attento di queste variazioni ha rivelato molto sull'universo. Proiettando a ritroso il film dell'evoluzione dell'universo prima di questo punto, vediamo il plasma primordiale diventare sempre più caldo e denso. Prima di circa 100.000 anni la densità di energia della radiazione superava quella della materia, impedendo alla materia di aggregarsi. Quindi questo momento indica l'inizio della formazione gravitazionale di tutte le strutture che vediamo oggi nell'universo. Più indietro, quando l'universo aveva meno di un secondo, i nuclei atomici dovevano ancora formarsi; esistevano solo le loro particelle costituenti, cioè elettroni e protoni. I nuclei comparvero quando l'universo aveva un'età di alcuni secondi e temperature e densità erano quelle giuste per le reazioni nucleari. Questo fenomeno di nucleosintesi del big bang produsse solo gli elementi più leggeri della tavola periodica: molto elio (in massa, circa il 25% degli atomi dell'universo) e quantità minori di litio e degli isotopi deuterio ed elio-3. Il resto del plasma (circa il 75% per cento) rimase in forma di protoni, che sarebbero poi diventati atomi di idrogeno. Gli altri elementi della tavola periodica si formarono miliardi di anni dopo nelle stelle e nelle esplosioni stellari. Le previsioni della teoria della nucleosintesi concordano con le proporzioni dei vari elementi misurate nei più antichi campioni di universo: le stelle più vecchie e le nubi di gas con elevato spostamento verso il rosso. La proporzione di deuterio, molto sensibile alla densità di atomi nell'universo, ha un ruolo speciale: il valore misurato implica che la materia ordinaria ammonta al 4,5% della densità di energia totale, il resto è materia oscura per il 24% ed energia oscura per il 71,1%. La stima concorda esattamente con la composizione estrapolata analizzando la radiazione di fondo. E questa corrispondenza è un grande successo. Che queste due misurazioni molto diverse, una basata sulla fisica nucleare quando l'universo aveva un secondo e l'altra basata sulla fisica atomica quando l'universo aveva 380.000 anni, concordino è una conferma non solo del nostro modello di come si evolse l'universo ma di tutta la fisica. Prima di un microsecondo non potevano esistere neppure i protoni e i neutroni, e l'universo era un brodo composto dai componenti fondamentali della natura: i quark, i leptoni e i portatori delle forze (fotoni, bosoni W e Z e gluoni). Siamo ragionevolmente sicuri dell’esistenza del brodo di quark perché gli esperimenti con gli acceleratori hanno ricreato, oggi sulla Terra, condizioni simili. Per esplorare questo periodo i cosmologi non usano telescopi più grandi e migliori, ma potenti idee della fisica delle particelle. Trent'anni fa, lo sviluppo del modello standard della fisica delle particelle ha portato a congetture ardite su come siano unificate le forze e particelle fondamentali apparentemente divise. Ne è emerso che queste nuove idee hanno conseguenze per la cosmologia che sono importanti come l'idea originale del big bang caldo. Suggeriscono collegamenti profondi e inaspettati tra il mondo dell'infinitamente grande e quello dell'infinitamente piccolo. Cominciano a /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7=;! emergere le risposte a tre domande chiave: natura della materia oscura, asimmetria tra materia e antimateria e origine del brodo increspato di quark. Ora sembra che l'inizio della fase del brodo di quark fosse la culla della materia oscura. L'identità della materia oscura è ancora poco chiara, ma la sua esistenza è ormai accertata. La nostra e tutte le altre galassie, nonché gli ammassi di galassie, sono tenuti insieme dalla gravità dell'invisibile materia oscura. Qualunque cosa essa sia, deve interagire debolmente con la materia ordinaria, altrimenti si sarebbe manifestata in altri modi. I tentativi di trovare un quadro unificatore per le forze e le particelle della natura hanno portato a prevedere particelle stabili o dotate di vita lunga che potrebbero esserne i costituenti. Queste particelle sarebbero presenti oggi come resti della fase del brodo di quark e si pensa che interagiscano molto debolmente con gli atomi. La prima fase del brodo di quark racchiude probabilmente anche il segreto del perché oggi l'universo contenga per lo più materia anziché materia e antimateria. I fisici pensano che in origine l'universo contenesse uguali quantità di entrambe ma a un certo punto abbia sviluppato un lieve eccesso di materia: circa un quark in più per ogni miliardo di antiquark. Questo sbilanciamento permise a un numero sufficiente di quark di sopravvivere all'annichilazione con gli antiquark mentre l'universo si espandeva e si raffreddava. Più di quarant'anni fa, esperimenti con gli acceleratori hanno rivelato che le leggi della fisica sono leggermente sbilanciate a favore della materia e questo leggero vantaggio portò alla creazione della sovrabbondanza di quark. Si ritiene che il brodo di quark sia comparso presto, forse 10-34 secondi dopo il big bang, in una fase di espansione cosmica accelerata nota come inflazione, teoria ipotizzata nel 1981 da Alan Guth (1947). Questo scatto, alimentato dall'energia di un nuovo campo (analogo al campo elettromagnetico) chiamato inflatone, spiegherebbe alcune proprietà del cosmo, come la sua complessiva omogeneità e le increspature da cui nacquero galassie e altre strutture dell'universo. Via via che l'inflatone decadeva, rilasciava energia sotto forma di quark e altre particelle, creando il calore del big bang e il brodo di quark stesso. L'inflazione porta a un nesso profondo tra quark e cosmo: le fluttuazioni quantistiche nel campo inflatone a scala subatomica si dilatano fino a dimensioni astrofisiche per via della rapida espansione, e diventano basi per le strutture che vediamo. In altre parole la configurazione della CMB che si vede nel cielo è un'immagine gigantesca del mondo subatomico. La prova più forte a sostegno della teoria inflanzionaria è venuta dalla rilevazione (marzo 2014), da parte dell’osservatorio BICEP in Antartide, degli effetti diretti delle onde gravitazionali sulla radiazione cosmica di fondo. Via via che i cosmologi cercano di andare ancora oltre nella comprensione degli inizi dell'universo, le idee diventano meno solide. La relatività generale di Einstein ha posto la base teorica per un secolo di progresso nella nostra comprensione 7==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dell'evoluzione dell'universo. Ma non è compatibile con un altro pilastro della fisica, la meccanica quantistica, e il più importante compito della fisica di oggi consiste nel riconciliarle. Solo con una teoria unificata, la cosiddetta gravità quantistica, saremo in grado di svelare i primissimi istanti dell'universo, la cosiddetta era di Planck precedente un'età di circa 10-43 secondi, quando stava prendendo forma lo spaziotempo stesso. I tentativi di elaborare una teoria unificata hanno portato a ipotesi notevoli riguardo i primi istanti. Tra le varie teorie all’interno della gravità quantistica, la teoria delle stringhe, per esempio, prevede l'esistenza di dimensioni aggiuntive dello spazio e la possibilità di altri universi in questo spazio più ampio. Quello che chiamiamo big bang può essere stato la collisione del nostro universo con un altro. L'unione della teoria delle stringhe con il concetto di inflazione ha portato forse all'idea più ardita emersa finora, quella di un multiverso, cioè che l'universo contenga un numero infinito di parti sconnesse, ognuna con le sue leggi della fisica. Il concetto di multiverso, che sta ancora muovendo i primi passi, si basa su due fondamentali scoperte teoriche. Primo, le equazioni che descrivono l'inflazione suggeriscono che se l'inflazione è avvenuta una volta dovrebbe avvenire più volte, creando nel corso del tempo un numero infinito di regioni inflazionarie. Nulla può passare dall'una all'altra di queste regioni, e quindi non hanno effetto l'una sull'altra. Secondo, la teoria delle stringhe suggerisce che queste regioni abbiano parametri fisici diversi come il numero di dimensioni spaziali e i tipi di particelle stabili. Il concetto di multiverso dà nuove risposte a due delle più controverse domande della scienza: che cosa accadde prima del big bang e perchè le leggi della fisica sono come sono. Il multiverso rende irrilevante la domanda su prima del big bang, perché ci fu un numero infinito di inizi con un big bang, ognuno attivato dalla propria inflazione. Per la seconda, all'interno di un'infinità di universi sono state provate tutte le possibili leggi fisiche, e quindi non c'e una ragione particolare per le leggi del nostro. I cosmologi hanno idee contrastanti nei confronti del multiverso. Se i sottouniversi sconnessi non possono comunicare, non possiamo sperare in prove sperimentali della loro esistenza: sembrano al di là del dominio della scienza. D'altro canto il multiverso risolve vari problemi concettuali. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7=4! Se è corretto, l'allargamento di Hubble delle frontiere dell'universo e l'allontanamento copernicano della Terra dal centro del cosmo sembreranno progressi minuscoli nella conoscenza del nostro posto nel cosmo. 16.5 La fine dell’universo La teoria dell'inflazione ci dice che l'Universo nella sua globalità continuerà per sempre, ma la nostra regione locale, l'Universo osservabile, può senz'altro avere termine. Questo tema è stato al centro della ricerca in cosmologia per buona parte del XX secolo, e nel corso di tale processo la nostra concezione della fine del mondo è cambiata più volte. Dopo la condanna della costante cosmologica pronunciata da Einstein all'inizio degli anni Trenta del Novecento, le predizioni dei modelli omogenei e isotropi di Friedmann offrivano spiegazioni chiare e semplici: l'Universo collasserà in un Big Crunch, se la sua densità sarà maggiore di quella critica; altrimenti, continuerà a espandersi per sempre. Per determinare il destino dell'Universo non dovevamo far altro che misurare accuratamente la densità media di materia, e controllare se superasse la soglia critica. In tal caso, l'espansione dell'Universo rallenterà gradualmente e sarà seguita da contrazione. Inizialmente lenta, la contrazione è destinata ad accelerare. Le galassie si avvicineranno sempre più, finché si uniranno in un enorme agglomerato di stelle. Il cielo diventerà più luminoso per l'intensificarsi della radiazione cosmica di fondo e lo riscalderà, portandolo a temperature elevatissime, ciò che resta di stelle e di pianeti. Le stelle, infine, si disintegreranno in collisioni reciproche, o evaporeranno per l'intenso calore della radiazione. Il caldissimo globo di fuoco che risulterà da tale processo sarà simile a quello dell'Universo primordiale, eccetto che ora si contrarrà anziché espandersi. Un'altra differenza rispetto al Big Bang è che il globo di fuoco in contrazione è piuttosto disomogeneo. Regioni più dense collassano dapprima a formare buchi neri, che convergono poi in buchi neri di maggiori dimensioni, fino a fondersi tutti quanti insieme all'istante del Big Crunch. Nel caso opposto, con densità inferiore al livello critico, la spinta gravitazionale della materia è troppo debole per invertire l'espansione. L'Universo si espanderà per sempre. In meno di un trilione di anni tutte le stelle avranno esaurito il loro combustibile nucleare. Le galassie si trasformeranno in sciami di freddi relitti stellari: nane bianche, stelle di neutroni e buchi neri. L'Universo cadrà in una totale oscurità, con galassie fantasma che si allontanano nel vuoto che si espande. Questo stato di cose 7=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! durerà almeno 1031 anni, finché i nucleoni che compongono i relitti stellari decadono, trasformandosi in particelle più leggere: fotoni, elettroni e neutrini. Elettroni e positroni si annichilano in fotoni, e le stelle morte cominciano lentamente a dissolversi. Nemmeno i buchi neri durano per sempre. La celebre intuizione di Hawking che un buco nero libera quanti di radiazione implica che esso perda gradualmente tutta la propria massa, cioè evapori. In un modo o nell'altro, in meno di un google di anni (10100 anni), tutte le strutture dell'Universo a noi familiari vedranno la propria fine. Stelle, galassie e ammassi scompariranno senza lasciare traccia, lasciandosi alle spalle un miscuglio sempre più diluito di neutrini e radiazione. Il destino dell'Universo è scritto in un parametro detto Omega, definito come la densità media dell'Universo divisa per la densità critica. Se Omega è maggiore di 1, l'Universo finirà nel fuoco e in un Big Crunch; se è minore di 1, possiamo prevedere una fredda, lenta disintegrazione. Nel caso limite in cui Omega sia pari a 1, l'espansione rallenta sempre più, ma non si arresta mai del tutto. L'Universo sfugge di un soffio al Big Crunch, ma solo per diventare un cimitero di ghiaccio. Le nostre opinioni circa la fine del mondo subirono una radicale trasformazione nel corso degli anni Ottanta del Novecento, quando apparve sulla scena l'idea dell'inflazione. Prima di allora, Big Crunch ed espansione illimitata sembravano scenari equiprobabili, ma a quel punto la teoria dell'inflazione fece una predizione ben precisa. Durante l'inflazione, la densità dell'Universo è spinta estremamente vicino alla densità critica. A seconda delle fluttuazioni quantistiche del campo scalare, alcune regioni hanno densità superiore e altre inferiore al livello critico, ma in media la densità si attesta quasi esattamente su tale valore, pertanto la fine sarà lenta e ciò che rimarrà del nostro Sole vagherà per miliardi di anni nello spazio, in attesa che tutti i suoi nucleoni decadano. Una caratteristica peculiare dell'Universo a densità critica è che il processo di formazione delle strutture si distende su un enorme arco temporale, dove le strutture più vaste impiegano un periodo più lungo per agglomerarsi. Le galassie si formano per prime, si raggruppano quindi in ammassi, e in seguito gli ammassi si raggruppano in superammassi. Se la densità media nella nostra regione osservabile è al di sopra del valore critico, allora, in circa cento trilioni di anni, l'intera regione si trasformerà in un ammasso dalle dimensioni favolose. A quell'epoca, tutte le stelle saranno già morte ma la formazione delle strutture continuerà, estendendosi a scale via via maggiori. Si fermerà solo con il disintegrarsi delle strutture cosmiche, risultato del decadimento nucleare e dell'evaporazione dei buchi neri. Un'altra trasformazione radicale introdotta dall'inflazione è che l'Universo, inteso come un tutto, non avrà mai fine. L'inflazione è eterna e innumerevoli regioni simili alla nostra si formeranno in altre parti dello spazio-tempo inflazionario. La relazione di Friedmann tra la densità dell'Universo e il suo destino ultimo vale solo se la densità di energia del vuoto (la costante cosmologica) è pari a zero. Era questa l'assunzione standard prima del 1998; ma quando fu scoperta un'evidenza del contrario, cioè che l’universo accelera, forse perché pervaso da un’energia oscura del vuoto antigravitazionale, tutte le predizioni precedenti per il futuro dell'Universo dovettero essere riviste. La predizione principale, secondo cui il mondo (localmente) sarebbe terminato nel ghiaccio anziché nel fuoco, rimaneva immutata, ma non pochi dettagli avrebbero dovuto subire delle modificazioni. L'espansione dell'Universo comincia ad accelerare una volta che la densità di materia scenda al di sotto di quella del vuoto. In /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7=6! quel momento, qualsiasi moto di raggruppamento gravitazionale si arresta. Ammassi di galassie che sono già tenuti insieme dalla forza di gravita sopravvivono, ma i gruppi sciolti vengono dispersi dalla gravità repulsiva del vuoto. La nostra Via Lattea è legata al Gruppo Locale, che comprende la spirale gigante di Andromeda e una ventina di galassie nane. Andromeda è in traiettoria di collisione con la Via Lattea: esse si fonderanno tra circa cento miliardi di anni. Galassie che si trovano al di là del Gruppo Locale si allontaneranno, movendosi sempre più velocemente. Una a una, oltrepasseranno il nostro orizzonte e scompariranno dalla nostra vista. Tale processo sarà completo fra qualche centinaio di miliardi di anni. La nostra predizione circa l'evoluzione dell'Universo sarebbe ora completa se la costante cosmologica fosse davvero una costante. Come sappiamo, ci sono buone ragioni, però, per ritenere che la densità di energia del vuoto vari secondo uno spettro di valori assai ampio, assumendo valori differenti in parti diverse del Cosmo. In alcune regioni il suo valore è grande e positivo, in altre, grande è negativo e in altre è vicino allo zero, come nel nostro caso. Comunque, nel tempo, il valore scenderà al di sotto dello zero, a valori di densità di energia negativi. Un vuoto a energia negativa esercita attrazione gravitazionale, sicché l'espansione cosmica terminerà con grande anticipo, e avrà inizio la contrazione. In base a uno scenario alternativo, suggerito dalla teoria delle stringhe, il nostro vuoto può decadere per nucleazione di bolle. Bolle di vuoto a energia negativa compariranno occasionalmente, espandendosi a una velocità che si avvicina rapidamente a quella della luce. Potrebbe darsi che, in questo medesimo istante, una muraglia di bolle avanzi minacciosa verso di noi. Non la vedremo arrivare: a causa della velocità con cui procede il muro, la sua luce non lo precederà di molto. Una volta che la parete ci abbia colpito, il nostro mondo verrà completamente annientato. Le particelle che compongono le stelle, i pianeti e i nostri corpi neppure esisteranno nel nuovo vuoto. Tutti gli oggetti a noi familiari verranno istantaneamente distrutti e si trasformeranno in aggregati di una qualche forma di materia aliena. In un modo o nell'altro, nella nostra regione locale l'energia dei vuoto diventerà infine negativa. Allora, la regione comincerà a contrarsi e collasserà in un Big Crunch. È difficile predire con esattezza il momento in cui ciò avverrà. Il ritmo di nucleazione delle bolle può essere estremamente lento, e possono passare google di anni prima che il luogo in cui viviamo sia colpito da una muraglia di bolle. 7=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! !"!"#!"!#$%! Chiunque si pone come arbitro in materia di conoscenza, è destinato a naufragare nella risata degli dei. Einstein "(#&/%.(#-4!0)-$%"%+!(# '-""(#0*!-&1(# 17.1 La fisica come conoscenza fallibile Vari fattori, che siamo venuti presentando quasi in tappe progressive, hanno contribuito a mutare profondamente il modo di concepire la fisica, e la scienza in generale, concepita sin dagli inizi della cultura occidentale come sapere in senso pieno. Sin dall’antica Grecia il sapere autentico era pensato come una conoscenza certa e diversi criteri di scientificità via via proposti avevano il compito di assicurare delle garanzie di certezza al conoscere, sia che si trattasse della certezza offerta dall'evidenza immediata dei primi principi, sia che si trattasse di quella assicurata dalle rigorose dimostrazioni logiche. La fisica classica non aveva per nulla rinunciato a una simile caratteristica e, in particolare, la rivoluzione galileiana era consistita nel cercare di assicurarla (nello studio della natura), mediante una rigida delimitazione del campo d'indagine e l'adozione di appropriati strumenti metodologici. Anche Kant aveva insistito nel riconoscere come caratteristica fondamentale della scientificità (ossia della autenticità del conoscere) quella della certezza, assicurata, secondo lui, dall’intervento delle forme trascendentali della ragione nella determinazione degli oggetti del conoscere (purché ridotti alla sfera dei fenomeni sensibilmente accessibili). Il significato storico dello scientismo positivista ottocentesco era quello di auspicare una progressiva dilatazione del tipo di conoscenza scientifica alla totalità dei problemi umani, proprio perché in tal modo si sarebbe potuta sfruttare la certezza dei risultati e dei metodi scientifici non soltanto per conoscere il mondo e la società, ma anche per compiere in modo sicuro scelte destinate ad assicurare il progresso dell'umanità e adottare le strategie adatte a realizzarle. Parlando della "crisi" delle scienze esatte manifestatasi già alla fine dell'Ottocento abbiamo assistito a un inizio di sgretolamento di questa fiducia nella certezza del sapere /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7=8! scientifico, crisi determinata in buona misura dal venir meno del sostegno della intuizione intellettuale nel campo della scienza fisica, ormai obbligata a occuparsi sempre più a fondo del mondo dell'inosservabile. L'autentico terremoto provocato dalla comparsa quasi simultanea della fisica quantistica e della teoria della relatività agli inizi del Novecento era stato interpretato come la prova che la fisica detta classica si era dimostrata falsa, pur avendo goduto di due secoli interrotti di conferme sperimentali e di trionfi interpretativi nei campi più disparati e pur avendo avuto il privilegio delle più splendide formulazioni matematiche. Come si poteva, di fronte a un evento epocale di tal genere, continuare a ritenere che la scienza offrisse un sapere certo? Che le teorie scientifiche che stavano nascendo sarebbero state finalmente quelle vere? Infatti, come si è gia visto, autori come Mach e, in senso non altrettanto forte, come Poincarè e vari altri inclinarono verso una concezione della scienza che o le negava addirittura un'autentica portata conoscitiva, oppure la limitava fortemente, sottolineando il carattere sostanzialmente convenzionale e pragmaticamente utile delle sue costruzioni. In altri termini, agli del Novecento la fisica moderna, in primis la teoria della relatività e la meccanica quantistica, si distingueva da quella classica per il fatto di riconoscere come sua caratteristica la fallibilità piuttosto che la certezza. In conseguenza della cosiddetta “crisi dei fondamenti” della scienza e l’impatto di questi mutamenti radicali ridefinirono la stessa filosofia della scienza o epistemologia, intesa come “ricostruzione razionale” della scienza. La consacrazione più nota di questa concezione è costituita dalla filosofia della scienza di Karl Popper (1902-1994). L’idea di fondo di Popper è che la conoscenza scientifica non è epistème, sapere certo, ma doxa, sapere congetturale, che lo scienziato è cercatore non possessore della verità, e questa è la tesi del fallibilismo e il “fallibilismo non è nient’altro che il non-sapere socratico”. Popper ritiene che l’antica intuizione di Socrate, secondo cui “la saggezza consiste nella presa di coscienza dei propri limiti, nella consapevolezza di questi limiti, e specialmente nella consapevolezza della propria ignoranza”, lungi dall’essere un paradosso sia invece un’idea estremamente importante e feconda. La teoria di Popper della conoscenza può perciò essere considerata come il tentativo di rielaborare quella antica intuizione e di argomentare razionalmente a favore di essa per mostrare che “il fallibilismo di Socrate continua ad essere dalla parte della ragione” e ciò è importante perché il fallibilismo annulla la fede dogmatica nell’autorità della scienza come di qualsiasi altra forma di sapere. Ebbene, Popper, in base ad argomenti molto semplici di pura logica formale, che le ipotesi scientifiche non possono mai essere riconosciute come "vere" in forza delle conferme sperimentali, poiché queste ultime riguardano sempre e soltanto le loro ''conseguenze logiche" ed è ben noto che la verità delle conseguenze non assicura in modo certo la verità delle premesse, mentre la falsità di una conseguenza è sufficiente per asserire la falsità di almeno una delle premesse da cui è stata dedotta. Ebbene, la scienza, secondo Popper, si caratterizza rispetto ad altre imprese conoscitive proprio per il fatto di sottoporsi a questa procedura di “falsificazione" che consiste, di fronte a un problema conoscitivo, nel formulare una congettura capace di risolverlo ma, nello stesso tempo, di porsi alla ricerca di possibili situazioni sperimentali che potrebbero "falsificare" la congettura stessa. Se questa resiste a tali ripetuti sforzi, la si può ritenere "corroborata", ma mai definitivamente stabilita con certezza. La scienza può soltanto accrescere il livello di "verosimiglianza" delle sue conquiste conoscitive, ma non può mai fregiarsi del titolo di conoscenza vera e certa. Presto o tardi (come del resto mostra la storia della scienza) ogni teoria scientifica viene 7=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! "refutata” e abbandonata e non v'e alcuna ragione per ritenere che questo modo di avanzare debba arrestarsi a un certo punto: la ricerca non ha mai fine. La scienza è per Popper solo un’ universo di ipotesi non ancora falsificate. Queste tesi furono sviluppate da Popper nell’opera Logica della ricerca del 1934, nella quale, appunto, sostituisce l'ideale della scoperta con quello della ricerca. Pertanto, Popper ha sempre nutrito un profondo scetticismo nei confronti di tutte le proposte mirate verso una logica della scoperta scientifica che pretenda di ricondurre interamente i procedimenti di scoperta ai procedimenti di giustificazione, attribuendo al ricercatore l'uso dei cosiddetti metodi induttivi. Questi metodi, secondo le tesi neopositivistiche, sarebbero la chiave di quella razionalizzazione integrale del processo di ricerca, ed è come, secondo Popper, fosse possibile mettere a punto una logica, quella appunto che giustificherebbe l’induzione, che sia rigorosa e insieme in grado di accrescere il contenuto delle asserzioni. Infatti le inferenze induttive sarebbero tali che, a partire da un numero inevitabilmente finito di asserzioni singolari, porterebbero ad altre asserzioni di carattere invece universale, e di contenuto infinito, quali le leggi scientifiche. Questa è dunque l’illusione razionalistica dei neopositivisti che è all'origine di tutti i loro tentativi di logicizzare i procedimenti di scoperta. Per Popper invece l'unica logica rigorosa, tautologica, che cioè non accresce il contenuto, è quella deduttiva. Essa si limita a esplicitare le conseguenze interamente contenute in premesse date, per cui qualsiasi tentativo di affermare qualcosa oltre tali premesse appare comunque irriducibile a uno schema puramente logico, cioè deduttivo. E per Popper non vi possono essere premesse fattuali, per quanto ampie e numerose, tali da giustificare logicamente, cioè contenere analiticamente, teorie scientifiche universali. Pertanto ogni tentativo di giustificare analiticamente l'induzione gli pare destinato al fallimento. La rivoluzione scientifica einsteiniana ha rappresentato lo sfondo, se non addirittura l’influenza dominante, su cui si è costituita la riflessione epistemologica di Popper, come egli stesso scrive in La ricerca non ha fine (1974): “Se la teoria di Newton che era stata controllata nel modo più rigoroso ed era stata confermata meglio di quanto uno scienziato si sarebbe mai potuto sognare, era poi stata smascherata come ipotesi malsicura e superabile, allora era cosa disperata l'aspettarsi che una qualsiasi altra teoria fisica potesse raggiungere qualcosa di più che non lo stato di un'ipotesi”. Infatti, è in relazione al padre della relatività che Popper formula i suoi problemi teorici fondamentali, quello della demarcazione tra scienza e pseudoscienza e quello della certezza del sapere scientifico, ed elabora il nucleo centrale del suo pensiero epistemologico con le idee di fallibilismo e falsificabilità, ed imposta il suo programma di ricerca come il tentativo di chiarire “che cosa significasse la rivoluzione einsteiniana per la teoria della conoscenza”. Vediamo innanzitutto in che cosa consiste l’influenza dominante di Einstein sulla riflessione epistemologica popperiana. Ciò che colpisce particolarmente Popper è che Einstein aveva formulato delle previsioni rischiose, come quelle sullo spaziotempo, tali cioè che se non si fossero osservati gli accadimenti previsti la teoria si sarebbe dovuta considerare confutata. Allora Popper si pone il problema di quali requisiti una teoria scientifica debba avere per essere considerata tale. La soluzione che egli dà a questo problema è segnata dalla dominante influenza di Einstein: “Se uno propone una teoria scientifica, deve essere in grado di rispondere, come fece Einstein, alla domanda: sotto quali condizioni dovrei ammettere che la mia teoria è insostenibile?”. In altre parole, quali fatti concepibili accetterei come confutazioni, o falsificazioni, della mia teoria? /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7=:! Si tratta in sostanza del criterio di falsificabilità, secondo cui un sistema teorico è scientifico solo se può risultare in conflitto con certi dati dell’esperienza, ossia una teoria che non può essere confutata da alcun evento concepibile, non è scientifica. L’inconfutabilità di una teoria diventa, perciò, non un pregio, bensì un difetto. Un altro importante problema che Popper risolve grazie all’influenza dominante di Einstein è quello della certezza o incertezza della conoscenza scientifica. Per tutto il XIX secolo e fino al primo Novecento era convinzione pressoché universale che le teorie scientifiche fossero sistemi di proposizioni vere, che la scienza fosse epistème. Afferma Popper: “Io ero cresciuto in un’atmosfera in cui la meccanica di Newton e l’elettrodinamica di Maxwell erano accettate fianco a fianco come verità indubitabili”. Rispetto a questa situazione la conferma sperimentale di Eddington nel 1919 della teoria di Einstein sulla deflessione della luce in prossimità del Sole, costituisce una conquista di enorme rilievo. Innanzitutto, una conquista sul piano strettamente scientifico in quanto la teoria della relatività non è più soltanto una possibile alternativa alla teoria di Newton, ma una alternativa reale confermata dall’esperienza, una nuova teoria della gravitazione e una nuova cosmologia. In secondo luogo, una conquista sul piano epistemologico. Infatti, con la teoria della relatività diventa chiaro che quello newtoniano non è il solo possibile sistema di meccanica in grado di spiegare i fenomeni, e ciò mette in discussione la credenza nella incontestabile verità della teoria di Newton, aprendo così la questione del suo status epistemologico e chiudendo l’epoca dell’autoritarismo della scienza. È proprio in relazione a questa nuova situazione della fisica che Popper si pone il problema generale dello status epistemologico delle teorie scientifiche. La soluzione che dà a tale questione, come conseguenza naturale della rivoluzione einsteiniana, consiste nella tesi secondi cui le teorie scientifiche restano sempre ipotesi o congetture, e la conseguenza da trarre sul piano epistemologico dalla rivoluzione einsteiniana è dunque che: “le nostre teorie sono fallibili e fallibili rimangono anche quando abbiamo ricevuto conferme lampanti”. Formulata così l’idea fondamentale del fallibilismo, il programma di ricerca di Popper si sviluppa come critica dell’ideale giustificazionista della scienza come epistème, ossia come sapere, e critica sia l’induttivismo, come metodo per trovare teorie vere o per accertare se una data ipotesi è vera, sia il punto di vista kantiano che afferma la verità a priori delle proposizioni scientifiche. Scrive Popper: “Possiamo sempre e soltanto osservare accadimenti ben determinati e sempre e soltanto un numero limitato di tali accadimenti. Tuttavia le scienze empiriche, formulano proposizioni generali, ovvero proposizioni che devono valere per un numero illimitato di accadimenti. Con quale diritto possono essere enunciate proposizioni di questo genere? Che cosa si intende propriamente con tali proposizioni? Queste questioni determinano i confini del problema dell’induzione. Con il “problema dell’induzione”, si designa la questione circa il valore o la fondazione delle proposizioni generali delle scienze empiriche.” In questo passo tratto da I due problemi fondamentali delle teoria della conoscenza (1979), Popper mette in luce i limiti di una scienza empirica, rifiutando la possibilità di utilizzare come metodo di fondazione del sapere scientifico quello dell’induzione di natura baconiana. Da questa tesi è possibile trarre spunto per parlare di un altro aspetto del filosofare popperiano qualificante e illuminante. In seguito alle critiche aspre che Hume operò contro il metodo induttivo, Kant, accolte tali critiche che facilmente trasportavano la speculazione nell’abisso dello scetticismo, trovò come soluzione al problema l’idea delle forme pure a priori. Questa soluzione scomunicava la tesi degli empiristi, della 74<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! mente come una tabula rasa, proponendo l’idea di mente come griglia che attraverso forme innate, eterogenee e assolute imponeva per così dire alla natura i suoi schemi. Ma l’idea che spazio e tempo fossero forme pure a priori era stata scomunicata dalla relatività einsteniana. A questo punto Popper riprendendo il percorso iniziato da Kant, ovvero la tesi originaria, della mente che impone alla natura i suoi schemi, vi apportò alcuni significativi cambiamenti. Innanzitutto le forme mentali attraverso le quali osserviamo il mondo che per Kant erano assolute, per Popper sono semplici ipotesi che la natura ha il potere di contraddire. Per il filosofo austriaco, poi, la mente non è una tabula rasa e il metodo induttivo è errato per il semplice motivo che nel momento stesso in cui osserviamo la natura la osserviamo secondo schemi mentali a priori che ci fanno vedere qualcosa, anziché altro. Queste forme pure a priori per il falsificazionista sono però soltanto semplici ipotesi. Lo scienziato secondo Popper, non è vero che osserva la natura senza presupposti o ipotesi precostituite, la sua osservazione è carica di “teoria”. Nasce da questa convinzione del filosofo l’idea di mente come faro che illumina la realtà, l’idea di mente come un deposito di ipotesi consce ed inconsce. L’influenza di Einstein si percepisce anche nella formulazione della teoria della mente come faro, lo stesso scienziato più volte ammetterà che buona parte delle sue teorie erano legate a semplici speculazioni teoriche su ipotesi e convinzioni molto spesso extra-scientifiche. In definitiva è possibile dire che la rivoluzione epistemologica di Popper rappresenti il riflesso, in filosofia, della rivoluzione scientifica effettuata da Einstein in fisica. In altre parole, Popper sta ad Einstein, come Kant sta Newton. Vale per altro la pena di osservare che la concezione del fallibilismo era stata anticipata in modo molto significativo da un filosofo americano di notevole statura, Charles Sander Peirce (1839-1914), il fondatore della corrente filosofica nota come pragmatismo e autore di notevoli contributi nel campo della logica, della semiotica, della filosofia della scienza. A lui, in particolare, si deve l'introduzione del termine "fallibilismo" specificamente adottato a proposito della scienza ed esteso più in generale a ogni impresa conoscitiva unicamente fondata sulla ragione. In un testo pubblicato nella raccolta dei suoi scritti sotto il titolo L'atteggiamento scientifico e il fallibilismo compare esplicitamente la dizione "dottrina del fallibilismo” che viene ampiamente illustrata; una sua rapida caratterizzazione è la seguente: “Ci sono tre cose che non possiamo mai sperare di raggiungere mediante la ragione, cioè, assoluta certezza, assoluta esattezza, assoluta universalità [. . . ] e non esiste certamente altro mezzo mediante cui si possano raggiungere". Questa caratterizzazione viene applicata da Peirce non alla presentazione delle scienze operata nei manuali e nelle sistemazioni istituzionalizzate, bensì all’attività della ricerca scientifica in atto e movimento. Le ragioni addotte da Peirce a sostegno del fallibilismo riposano sostanzialmente sul fatto che la conoscenza scientifica disponibile in ogni momento può basarsi soltanto su un campione molto limitato di dati e teorie, dal quale estraiamo generalizzazioni che non possono mai raggiungere la certezza della loro indefinita validità rispetto all’immenso campo che in ogni disciplina rimane da esplorare. Senza negare la validità di queste ragioni, possiamo menzionare altre ragioni che venivano ad aggiungersi: in primo luogo la crisi del determinismo insita nella presa di coscienza dei fenomeni complessi, che vanificava ogni pretesa di assoluta esattezza, di previsioni certe di universalizzazioni garantite. Tutto ciò non determinava affatto una paralisi della ragione, ma la costringeva a sviluppare nuovi atteggiamenti, nuovi punti di vista, in cui il nuovo da scoprire non veniva più pensato come l’esplorazione di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 74;! un medesimo territorio ancora sconosciuto nei dettagli ma idealmente affine a quello già esplorato, bensì come la necessità di entrare in contatto con territori di tipo nuovo, di correlare ambiti diversi, di cercare unità fatte di correlazioni piuttosto che di riduzioni. È per l'appunto quanto la scienza del Novecento si accingeva a fare attraverso la costruzione di discipline nuove. Vogliamo ora sottolineare un notevole aspetto della scienza moderna, e della fisica in particolare, e cioè la sua “autonomizzazione” che viene assumendo nel corso del Novecento e che, paradossalmente, condurrà nella seconda metà del Novecento addirittura a porre in dubbio la sua capacità di assolvere a quello che da sempre è apparso come il compito essenziale del sapere, ossia quello di farci conoscere la realtà. Dall'antichità fino al Rinascimento la scienza è in sostanza un conoscere che ha per oggetto la Natura e, pertanto, accetta tacitamente come presupposto che questa Natura esista e sia in sè stessa ben definita e invariabile: si tratta di scoprire "ciò che essa è", ossia di coglierne l'essenza. In questa impresa l'uomo procede armato delle sue capacità naturali di osservazione e di ragionamento e, al massimo può cimentare le proprie affermazioni discutendole a confronto con quelle di altri uomini, senza ancora pensare che si possa per davvero "porre domande alla Natura" e forzarla artificialmente a rispondere. Su questo preciso punto, la "rivoluzione galileiana" rompe solo parzialmente. È ben vero, infatti, che Galileo dichiara esplicitamente che, nel caso delle "sustanze naturali", è impresa disperata cercar "speculando" di "tentar le essenze", e che è più fruttuoso accontentarsi di conoscere soltanto "alcune loro affezioni". Tuttavia e non meno vero che queste affezioni sono da lui considerate reali ("accidenti reali") e che il compito dell'impresa scientifica permane quello di scoprire la "vera costituzione dell'universo", costituzione che, secondo lui, si coglie concentrando appunto la ricerca sugli accidenti matematizzabili. La diffidenza verso le qualità sensibili, già presente in Galileo, viene poi accentuata dai successori e diviene un cavallo di battaglia di Cartesio, cosicché prende corpo la convinzione che la vera sostanza della Natura è costituita da un insieme di leggi matematiche, che si deve esser capaci di scoprire "dietro" i fenomeni sensibili. Ma per giungere a ciò non basta (anzi, secondo alcuni, addirittura non serve) l'osservazione: occorre passare all'esperimento, cioè a quella domanda artificiale posta direttamente alla Natura, che la obbliga a svelarci quanto la semplice osservazione sensibile, occultando la purezza della struttura matematica sottostante, non ci permetterebbe mai di cogliere. Con ciò, non più i sensi, ma l’intelletto diviene il vero strumento di conoscenza della Natura. Iniziava in tal modo un cammino i cui esiti sono diventati sempre più palesi man mano che si procedeva verso la fisica moderna. Questa (preparata in ciò dagli sviluppi della scienza ottocentesca) presenta un volto diverso: essa non ha più per oggetto diretto la Natura, bensì quello spesso strato di mediazioni che la fisica stessa è venuta costituendo, mediante la costruzione di modelli, mediante complesse elaborazioni teoriche mediante il concorso di tecnologie sempre più raffinate e artificiali. Se la fisica antica poteva considerarsi ispirata all'ideale dell'osservazione, e quella classica all'ideale della scoperta, la fisica moderna viene significativamente presentata come ricerca, vale a dire come un'attività che si innesta su quanto già la fisica ha costruito, ma non già a titolo di patrimonio sicuramente acquisito, bensì come insieme di costrutti rivedibili, criticabili, abbandonabili. La fisica si alimenta della fisica stessa, si autocorregge, trova nell'interscambio tra una disciplina e l'altra gli strumenti, i suggerimenti, i modelli per proseguire, o per cambiare radicalmente di impostazione. I nuovi problemi nascono dalle stesse soluzioni date a problemi precedenti, le loro 74=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! soluzioni possono venire da fonti impensate, offerte da discipline che si ritenevano lontane. Lo scienziato che si inizia alla ricerca non viene "posto a contatto con la Natura", ma calato nel contesto di una disciplina, che diverrà ormai il suo campo di ricerca. In altri termini, la fisica non avverte più il bisogno di uscire da sé stessa per continuare a vivere e svilupparsi, e persino i problemi della sua "fondazione" vengono sempre più affrontati e trattati al suo interno: essa stessa provvede a mutare i suoi concetti, a delimitare la loro portata, a crearne di nuovi, incurante degli scandali del senso comune e anche delle perplessità dei filosofi. Quanto abbiamo detto equivale a riconoscere che la fisica, e la scienza in generale, è ormai pervenuta a costituirsi come sistema autonomo, in quanto costruisce per conto proprio il campo dei suoi oggetti. 17.2 Crisi del neopositivismo Gli inizi del neopositivismo o positivismo logico si fanno risalire al 1910-1921, quando un gruppo di intellettuali si riuniva in un caffè di Vienna per discutere della filosofia della scienza di Mach. Ne facevano parte, fra gli altri, il matematico Hans Hahn e i fisici Richard von Mises e Philipp Frank. I membri del Circolo avevano una grande ammirazione per pensatori come Bertrand Russell e scienziati come Albert Einstein, e furono in rapporti più o meno stretti con Kurt Gödel e altri personaggi di spicco del mondo scientifico e filosofico della prima metà del secolo. La più caratteristica affermazione del positivismo logico è che una proposizione ha significato solo nella misura in cui essa è verificabile (Principio di verificazione). Ne segue che sono dotate di significato solo due classi di proposizioni: 1. le proposizioni empiriche, come tutti i gravi cadono verso il centro della Terra, che sono verificate per via di esperimenti; questa categoria include anche le teorie scientifiche; 2. le verità analitiche, come la somma degli angoli interni di un quadrilatero convesso è 360 gradi, che sono vere per definizione; questa categoria include le proposizioni matematiche. Tutte le altre proposizioni, incluse quelle di natura etica ed estetica, sull'esistenza di Dio, e via dicendo, non sono quindi "dotate di significato", e appartengono alla "metafisica". Le questioni metafisiche sono in effetti falsi problemi e non meritano l'attenzione dei filosofi. Successivamente, il principio di verificazione andrà indebolendosi approdando al principio della controllabilità che ha in sé, come casi particolari, i principi di verificazione e di falsificazione (vedi Popper), che da soli andavano incontro a svariati problemi anche logici. All'interno della corrente neopositivista, Rudolph Carnap (1891-1970) occupa un ruolo importante in relazione alla filosofia della scienza. Egli volle dimostrare che il mondo fosse basato su una struttura di conoscenze fondate sull'esperienza empirica, senza correre tuttavia il rischio di condurre al soggettivismo. Nella sua prima opera principale Der logische Aufbau der Welt ("La costituzione logica del mondo" 1928) Carnap teorizzò una ricostruzione empirista della conoscenza scientifica, indicando le basi del suo modello concettuale e oggettuale della scienza, costituite dalla teoria delle relazioni e dai dati elementari. Tentò di dimostrare che tutti i concetti che fanno riferimento al /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 744! mondo fisico esterno (ma anche quelli riferibili ai processi psichici nelle menti degli altri, e ai fenomeni socio-culturali) si basano su processi autopsichici, cioè su concetti interni al flusso della coscienza dell'osservatore. I "mattoni" da cui partire per la conoscenza sono i protocolli, proposizioni che non hanno bisogno di essere giustificate, in quanto sono diretta conseguenza di un'esperienza empirica. Carnap distingue le scienze in due gruppi: 1. scienze empiriche: i protocolli sono dei fatti verificati empiricamente ai quali viene applicato il metodo sintetico a posteriori (vedi la fisica); 2. scienze formali: i protocolli sono rappresentazioni da astrazioni e il metodo è quello analitico a priori, sono strumentali e autonome rispetto alle scienze empiriche (vedi la matematica). Carnap accusò i problemi tradizionali della metafisica di essere privi di senso, basandosi su una semantica verificazionista. Le proposizioni metafisiche sarebbero da considerare prive di senso, in quanto facenti uso di termini senza alcun riferimento empirico. All'inizio degli anni trenta, Carnap, si distanziò sempre più dall'idea di un sistema costitutivo su pase autopsichica e sviluppò nel suo trattato Die physikalische Sprache als Universalsprache der Wissenschaft ("Il linguaggio della fisica come linguaggio universale della scienza" 1931) una concezione fisicalista del linguaggio, nella quale non erano più i fenomeni autopsichici, ma oggetti fisici intersoggettivamente verificabili a formare il riferimento fondamentale. In quest'opera pose una distinzione tra il linguaggio sistematico (generale e leggi della natura) e il linguaggio dei protocolli (contenuto dell'esperienza immediata). Carnap si soffermò sul concetto di solipsismo metodico, in quanto ogni base di qualunque affermazione è il protocollo individuale che però deve necessariamente sfociare in un linguaggio universale fisico, che inglobi anche i fenomeni psichici e spirituali. Nella sua seconda opera principale Logische Syntax der Sprache ("La sintassi logica del linguaggio" 1934) Carnap propose di rimpiazzare la filosofia tradizionale con la logica scientifica, che deve però possedere alcune qualità fondamentali quali la molteplicità e la relatività ed essere priva delle controversie filosofiche. Lo sfondo filosofico, o meglio ancora epistemologico della scienza, entro il quale si muovono Kuhn, Lakatos e Feyerabend, i maggiori esponenti dell’epistemologia della scienza post-positivistica, è quello della tradizione originata dal positivismo logico. Carnap negli Stati Uniti, Popper in Gran Bretagna, sono stati fino agli Sessanta gli esponenti più in vista di quella tradizione, e fin dall’origine, sono stati divisi da una divergenza teorica di fondo relativa ai criteri di legittimazione dello status delle scienze: per Carnap dovevano essere individuati nei processi di verificazione degli enunciati e delle teorie scientifiche, mentre per Popper, nei processi di falsificazione. Al di là di tali divisioni, però, una matrice teorica comune era sempre sussistita: la valutazione della scienza quale attività conoscitiva per eccellenza. Proseguendo il filone illuministico settecentesco e quello positivistico ottocentesco il movimento neopositivistico o neoempiristico del XX secolo rivendicava alla scienza - e soltanto ad essa - il compito essenziale di dirci come è fatto il mondo, come funziona, quali leggi ci consentono di prevedere i fatti futuri. Questa era la convinzione di base di tutto il movimento neopositivistico, la sua filosofia generale insieme empiristica e razionalistica (la scienza, muovendo dalla esperienza, a questa ritorna con strumentazioni, procedure 745! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! e tecniche razionali). Carnap e Popper, al di là di divergenze spesso notevoli, condividevano questa concezione filosofica di fondo. Rispetto a queste linea filosofica i post-positivisti assumono posizioni radicalmente critiche, se non addirittura fuori da questa concezione filosofica. Fra i tratti salienti della nuova epistemologia della scienza troviamo: 1) l'antiempirismo e l’anti-fattualismo, ossia la convinzione che i "fatti" siano dati solo all'interno di determinati quadri teorici o concettuali; 2) l'attenzione per la configurazione storico del sapere scientifico (“la filosofia della scienza senza la storia della scienza è vuota”, scrive Lakatos); 3) la messa in luce dei condizionamenti extrascientifici (sociali, pratici, metafisici, ecc.) cui è sottoposta la scienza, vista come attività "impura", che non vive esclusivamente nei cieli cristallini della pura teoria; 4) la tendenza relativistico-pragmatistica, ovvero la propensione a valutare le dottrine scientifiche in termini di "efficacia" piu che di “verità"; 5) il rifiuto del mito della Ragione e il ridimensionamento del valore conoscitivo ed esistenziale della scienza; 6) la contestazione dell'epistemologia tradizionale e dei suoi classici interrogativi (Che cos'è la Scienza?, qual è il suo metodo? quali sono i criteri per valutarne il Progresso?, ecc.). 17.3 Kuhn e la struttura delle rivoluzioni scientifiche Lo storico e filosofo statunitense Thomas Kuhn (1922-1996) nella sua opera più importante La struttura delle rivoluzioni scientifiche (1962), utilizzando le sue ricerche di storico della scienza, ha elaborato una concezione epistemologica originale, secondo cui le nuove dottrine non sorgono né dalle verificazioni né dalle falsificazioni, ma dalla sostituzione del modello esplicativo vigente (o paradigma) con uno nuovo. Kuhn, pertanto, rifiuta le interpretazioni prevalenti che considerano l’emergere di nuove scoperte e teorie scientifiche come il risultato di un processo cumulativo, per cui non sarebbero altro che “semplici aggiunte alla raccolta attuale delle conoscenze scientifiche”. La sua tesi è che: “la scoperta e l'invenzione nelle scienze sono in generale intrinsecamente rivoluzionarie”. Che cosa significa rivoluzionarie? Significa che quando si verificano episodi di questo tipo “una comunità scientifica abbandona una modalità di guardare al mondo e di esercitare la scienza un tempo affermata, in favore di un qualche altro, usualmente incompatibile, approccio alla sua disciplina”. Kuhn propone di usare il termine paradigma per designare l'insieme di teorie, regole, procedure comunemente accettato e praticato da una comunita scientifica, e il cui abbandono, mutamento e sostituzione rappresentano l'avvenuta rivoluzione. Qui afferma con chiarezza che lo scienziato, o meglio il gruppo professionale che si identifica in una disciplina scientifica, per poter assimilare nuove scoperte e invenzioni “deve in generale risistemare l'attrezzatura intellettuale e manipolativa sulla quale ha precedentemente contato”; deve cioè mutare paradigma. Questa tesi di fondo, viene affiancata da un'altra tesi, altrettanto discussa, secondo la quale la condizione normale della scienza non è affatto quella di fare scoperte. Spetta alle rivoluzioni scientifiche l’ambito della scoperta e dell’invezione. Quindi, secondo Kuhn, lo sviluppo storico della scienza si articola in periodi di “scienza normale” e in periodi di “rotture rivoluzionarie”. I primi sono qualificati dal prevalere di determinati paradigmi, ossia di complessi organizzati di teorie, di modelli di ricerca e di pratiche sperimentali “ai quali una particolare comunità scientifica, per un certo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 746! periodo di tempo, riconosce la capacità di costituire il fondamento della sua prassi ulteriore”. L'astronomia tolemaica e quella copernicana, la dinamica di Aristotele e quella di Newton, l'ottica corpuscolare e quella ondulatoria, ecc., sono altrettanti esempi di paradigmi, che nel loro normale periodo di fioritura sono rappresentati da scienziati protesi a consolidare, confermare e sviluppare il modello vigente tramite la soluzione “di una quantità di complessi rompicapo strumentali, concettuali e matematici”. Kuhn ritiene che la scienza normale entri in crisi per un sommarsi di anomalie, ossia di eventi nuovi e insospettati, che gli scienziati del periodo ancora normale, portati ad evitare il cambiamento e le novità sensazionali, cercano più o meno faticosamente di incasellare nel vecchio modello esplicativo, forzando la natura entro le “caselle prefabbricate e relativamente rigide” fornite dal paradigma vigente. Tant’è vero che anziché falsificare quest'ultimo essi cercano piuttosto di riformularlo e di correggerlo. Ma ciò fa sì che le crepe all'interno del vecchio sistema aumentino, sino a produrre una vera e propria crisi rivoluzionaria. Crisi che comporta l'abbandono del vecchio paradigma e l'accettazione di un nuovo sistema, che obbliga il ricercatore a guardare il mondo in maniera completamente diversa. Il riadattamento non è una semplice integrazione o aggiunta, ma è un riorientamento complessivo che porta a guardare in maniera differente i fatti nuovi, che altrimenti non potrebbero rientrare nella categoria di fatti scientifici: “Quando mutano i paradigmi, il mondo stesso cambia con essi. Guidati da un nuovo paradigma, gli scienziati adottano nuovi strumenti e guardano in nuove direzioni. Ma il fatto ancora più importante è che, durante le rivoluzioni, gli scienziati vedono cose nuove e diverse anche guardando con gli strumenti tradizionali nella stessa direzione in cui avevano guardato prima.” L’analisi di rivoluzioni scientifiche come la teoria copernicana e la teoria della relatività, confermano, secondo Kuhn, la complessità della situazione che ogni volta viene a crearsi di fronte al pericolo rappresentato dalle nuove teorie per i vecchi paradigmi. In questi casi, l’abbandono del vecchio paradigma e l’accettazione di uno nuovo sono preceduti e accompagnati da una situazione di crisi. Il vecchio paradigma, nel nostro caso la teoria tolemaica e la meccanica newtoniana, risulta incapace di spiegare le anomalie presentatesi; questo fallimento provoca una proliferazione di teorie che in maniera diversa tentano di dare una spiegazione soddisfacente; la teoria vincente pone termine alla crisi e viene accettata come nuovo paradigma. Non è che il vecchio paradigma si allarghi per poter accettare il nuovo; non avviene affatto un processo cumulativo o aggiuntivo, nella situazione di crisi. Su questo punto Kuhn è molto reciso. Le crisi riportano la scienza ad una condizione che somiglia a quella dei periodi preparadigmatici, nei quali mancava un paradigma riconosciuto, e “si chiudono con l'emergere di un nuovo candidato per il paradigma e con la conseguente battaglia per la sua accettazione”. Questa transizione è tutt'altro che un processo cumulativo, che si attui attraverso un'articolazione o un'estensione del vecchio paradigma. È piuttosto una ricostruzione del campo su nuove basi. Quando la transizione è compiuta, gli specialisti considereranno in modo diverso il loro campo, e avranno mutato i loro metodi, ed i loro scopi. Avranno accettato, cioè, un nuovo paradigma, e a questo punto la rivoluzione scientifica è compiuta. Ora, si domanda Kuhn, c’è qualche criterio superiore, rispetto alle teorie rivali, nelle rispettive situazioni di crisi? Esiste forse un criterio di verità per le scienze? La risposta di Kuhn è decisamente negativa. Le teorie rivali non possono fare riferimento ad alchunchè di esterno ad essi. La loro forza sta soltanto nella capacità di argomentare e di persuadere, per cui l’unico criterio del loro successo è individuabile nel consenso 747! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! che riescono ad ottenere. Tesi che ha suscitato molte critiche, di relativismo, e addirittura di ricorso alla psicologia delle folle. Non la verità, quindi, non la ragione, ma la persuasività è la condizione indispensabile perché una nuova teoria vinca e diventi il nuovo paradigma di una nuova scienza normale. L'accento sulla persuasività e sulla conquista del consenso viene collegato esplicitamente da parte di Kuhn alla critica della tradizione positivistico e neopositivistica, considerata come la tradizione epistemologica dominante. Kuhn rifiuta esplicitamente “l'idea della scienza come accumulazione” che in quella epistemologia è connessa alla teoria secondo la quale “la conoscenza è una costruzione che la mente innalza direttamente sulla rozza base dei dati sensibili”. Il carattere cumulativo della scienza viene negato da Kuhn sia alla scienza normale, che ha come compito quello di risolvere rompicapi, sia alla scienza rivoluzionaria, che rispetto alla scienza normale, non ha anzi nessun rapporto, giacché per Kuhn c'è incommensurabilità tra i due tipi di scienza. Di conseguenza, i vari paradigmi che si succedono nella storia della scienza rimandano, secondo Kuhn, a quadri concettuali completamente diversi, fra i quali vige una sostanziale incommensurabilità: “Paradigmi successivi ci dicono cose differenti sugli oggetti che popolano l’universo e sul comportamento di tali oggetti …”. Essi producono un riorientamento gestaltico complessivo, con nuovo vocabolario, nuovi concetti, nuovi metodi e regole, per cui “l'accoglimento di un nuovo paradigma spesso richiede una nuova definizione di tutta la scienza corrispondente”; vecchi problemi vengono trasferiti a un'altra scienza o dichiarati non scientifici, altri che precedentemente non erano considerati scientifici lo diventano: “E col mutare dei problemi spesso muta anche il criterio che distingue una soluzione realmente scientifica da una mera speculazione metafisica ...” Se c’è incompatibilità, incommensurabilità, incomunicabilità tra nuovi e vecchi paradigmi, come è possibile il passaggio dai vecchi ai nuovi? Come si svolge il processo di persuasione, di ricerca del consenso, che porta a compimento una rivoluzione scientifica? La soluzione proposta è che a un certo punto della situazione di crisi rivoluzionaria singoli scienziati o intere comunità scientifiche attuino una conversione che fa loro accettare il nuovo paradigma. La situazione di crisi rivoluzionaria, come si è visto, si verifica quando si prende coscienza della esistenza di importanti anomalie; queste ultime, a differenza di Popper, non possono essere identificate con esperienze falsificanti. Le teorie rivali che compaiono nella situazione di crisi propongono paradigmi nuovi entro i quali risolvere quelle anomalie; ma quelle teorie sono incomunicabili e fanno capo a gruppi di ricercatori in strenua concorrenza, che parlano linguaggi diversi e usano vocabolari diversi. Come si esce, anzi come si è usciti, nella storia della scienza, da questa impasse? È a questo punto che Kuhn propone la sua spiegazione che accosta arditamente i concetti e le esperienze di incommensurabilità e di conversione: “Prima che possano sperare di comunicare completamente, uno dei due gruppi deve fare l'esperienza di quella conversione che abbiamo chiamato spostamento di paradigma. Proprio perché un passaggio tra incommensurabili, il passaggio da un paradigma ad uno opposto non può essere realizzato con un passo alla volta, né imposto dalla logica o da un'esperienza neutrale. Come il riorientamento gestaltico, esso deve compiersi tutto in una volta (sebbene non necessariamente in un istante) oppure non si compirà affatto”. Kuhn si rende conto della apparente irrazionalità di questa sua tesi. Il ricorso alla esperienza storiografica delle rivoluzioni scientifiche lo rafforza però nelle sue /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 748! conclusioni teoriche: singoli scienziati, e poi intere comunità scientifiche, hanno accettato nuovi paradigmi, con esperienze di conversione motivate da ragioni tra le più varie, e comunque convergenti nell'abbandono del vecchio e nell'accettazione del nuovo paradigma. Conversioni che hanno richiesto spesso anni, e in media, afferma Kuhn, il periodo di una generazione per le comunità scientifiche istituzionalizzate disciplinarmente. Le rivoluzioni scientifiche sboccano sempre nella ricostituzione di comunità scientifiche fondate su un nuovo paradigma. L'ultimo problema teorico affrontato da Kuhn nella sua opera principale riguarda il tema del progresso scientifico. Da alcuni accenni fatti alla critica nei confronti delle teorie cumulative e accrescitive di orientamento neopositivistico risulta abbastanza chiaro che le posizioni di Kuhn su questo tema non sono assimilabili a quelle della tradizione vetero e neopositivistica. La nozione tradizionale di progresso scientifico, secondo Kuhn, fa riferimento ad uno scopo, ad una meta, verso cui le scienze in particolare, e la conoscenza in generale, tenderebbero: la rappresentazione vera della realtà. Kuhn, è molto lontano da questa posizione teorica e in un certo senso, la rovescia: il progresso è a partire da qualcosa, non progresso verso qualcosa. In questo senso, ogni scienziato, normale o rivoluzionario, ritengono di arrecare contributi progressivi alla loro specifica sfera di attività. Ma non è questa nozione di progresso che interessa principalmente a Kuhn. Egli intende discutere e sostituire la nozione tradizionale che connette il progresso scientifico e conoscitivo al raggiungimento della verità: “possiamo vederci costretti ad abbandonare la convinzione, esplicita o implicita, che mutamenti di paradigmi portino gli scienziati, e coloro che ne seguono gli ammaestramenti, sempre più vicino alla verità”. Ma è proprio necessario, si domanda Kuhn, fissare per la scienza e la conoscenza uno scopo del genere? “Non è possibile render conto sia dell'esistenza della scienza che del suo successo in termini di evoluzione a partire dallo stato delle conoscenze possedute dalla comunità ad ogni dato periodo di tempo? E’ veramente d’aiuto immaginare che esista qualche completa, oggettiva, vera spiegazione della natura e che la misura appropriata della conquista scientifica è la misura in cui essa si avvicina a questo scopo finale?” E’ chiaro, da tutto il discorso di Kuhn, dove verrà trovata la risposta a queste domande. Egli sostiene che molti problemi inquietanti, connessi con la tematica del progresso, verranno accantonati, si dissolveranno, se sostituiamo “l’evoluzione verso ciò che vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo”. Questa posizione teorica ha un precedente illustre nella teoria della selezione naturale di Darwin. Tale teoria eliminava il provvidenzialismo e il teleologismo nella considerazione della natura. Organi e organismi delle diverse specie, precedentemente spiegati con il ricorso ad un supremo artefice divino e ad un piano da lui prestabilito, vengono ricondotti da Darwin ad un insieme di processi naturali “che si era sviluppato costantemente a partire da stadi primitivi, ma che non tendeva verso nessuno scopo”. La stessa cosa, afferma Kuhn, si può dire per le teorie scientifiche e per i paradigmi che si succedono l'uno all’altro in quella selezione naturale che ha il suo corrispettivo nelle rivoluzioni scientifiche. C'è progresso non perchè ci si avvicina sempre di più ad una meta (la verità) ma perchè ci si allontana sempre di più da stadi primitivi di ricerca. Perché poi tale selezione naturale, nella forma di successive rivoluzioni scientifiche, abbia luogo, questo è per Khun un problema ancora aperto. 749! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 17.4 Lakatos e la metodologia dei programmi di ricerca Alla base del pensiero di Imre Lakatos (1922-1974), espresso nei suoi scritti maggiori La falsificazione e la metodologia dei programmi di ricerca scientifici (1970) e La storia della scienza e le sue ricostruzioni razionali (1972), sta un serrato confronto con Kuhn e Popper, soprattutto in relazione ai problemi relativi alla definizione della scienza e alla sua demarcazione rispetto a ciò che non è scienza, e quelli relativi al tema delle rivoluzioni scientifiche. Lakatos rifiuta in maniera netta qualsiasi definizione della scienza fondata sul consenso della comunità scientifica che la pratica, giacché questa definizione ci porterebbe ad accettare come scienze anche credenze assurde purché condivise dalla comunità. La scienza non ha nulla a che vedere con il consenso, come sosteneva Kuhn. Per Lakatos una teoria può addirittura avere un supremo valore scientifico anche se nessuno la capisce e tanto meno crede che essa sia vera. Per quanto concerne Popper, pur riconoscendo come il suo falsificazionismo non sia rimasto ad uno stadio dogmatico, ma si sia evoluto in senso metodologico, Lakatos rifiuta lo schema popperiano che definisce la scienza come un insieme di congetture e confutazioni: “ossia lo schema per prova (mediante ipotesi) ed errore (rivelato dall’esperimento), deve essere abbandonato: nessun esperimento è cruciale nel momento in cui viene eseguito, e tanto meno prima (eccetto che, forse, dal punto di vista psicologico)” affermando che una prospettiva scientifica entra in crisi e viene sostituita non a causa di presunti esperimenti cruciali, ma grazie al presentarsi di una prospettiva rivale. Di conseguenza, all'idea popperiana di una storia della scienza che procede per congetture e confutazioni e che si nutre dello scontro fra singole e isolate teorie rivali, oppure all'idea kuhniana di una storia della scienza che procede per improvvise svolte e conversioni, Lakatos contrappone la concezione della storia della scienza come di una serie di programmi di ricerca in razionale confronto fra loro. In sintesi: “la storia della scienza confuta sia Popper sia Kuhn: a un esame accurato sia gli esperimenti cruciali di Popper sia le rivoluzioni di Kuhn risultano essere dei miti: sicché di solito accade è che un programma di ricerca progressivo ne rimpiazza un altro”. Per programma di ricerca scientifico, nozione che sta al centro della riflessione epistemologica di Lakatos, si intende una costellazione di teorie scientifiche coerenti fra loro e obbedienti ad alcune regole metodologiche fissate da una determinata comunità scientifica. In particolare, un programma di ricerca, che porta a considerare la scienza non come una singola ipotesi o teoria ma come un insieme di esse, è costituito da un nucleo ritenuto inconfutabile e tenacemente difeso da chi condivide il programma stesso “in virtù di una decisione metodologica dei suoi sostenitori”. Attorno al nucleo troviamo una cintura protettiva che serve a costituire uno schermo per la difesa del nucleo. Tale cintura proteggente si specifica a sua volta in una euristica negativa (che prescrive quali vie di ricerca evitare) e in una euristica positiva (che prescrive quali vie di ricerca seguire e come cambiare le varianti confutabili del programma). Un programma di ricerca è valido finché si mantiene progressivo, ovvero “fin quando continua a predire fatti nuovi con un certo successo”. Viceversa, è regressivo o in stagnazione se si limita ad inventare teorie “solo al fine di accogliere i fatti noti” o “si limita a dare spiegazioni post hoc di scoperte casuali o di fatti anticipati, e scoperti, nell'ambito di un programma rivale”. Una caratteristica comune dei programmi di ricerca validi è che “predicono tutti fatti nuovi, fatti che o non erano sati neppure immaginati o che erano addirittura stati contraddetti da programmi precedenti o /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 74:! rivali”. Di conseguenza, le rivoluzioni scientifiche non accadono in seguito ad irrazionali mutamenti di prospettiva da parte degli scienziati ma in seguito a delle razionali decisioni, da parte della comunità dei ricercatori, di sostituire programmi ormai regressivi con programmi all'altezza della situazione. I programmi di ricerca scientifici, pertanto, non sono validi perché condivisi da una comunità scientifica (Kuhn) o perché non sono stati falsificati (Popper), ma perché hanno una stretta relazione con i fatti, rappresentata dalla previsione sempre nuova di questi e quindi dalla possibilità di un confronto fattuale tra previsioni e accadimenti. Sta in questa caratteristica, previsione di fatti nuovi, la fondamentale differenza tra scienza e pseudoscienza, o, in altri termini, tra programmi di ricerca progressivi e programmi di ricerca regressivi: “Così, in un programma di ricerca progressivo la teoria conduce alla scoperta di fatti nuovi finora sconosciuti. Nei programmi di ricerca regressivi, invece, le teorie vengono inventate solo al fine di accogliere i fatti noti”. Come opera, nella metodologia ed epistemologia di Lakatos, il programma di ricerca? Il modello al quale pensa Lakatos non è solo quello dei programmi di ricerca progressivi (per esempio teoria della gravitazione di Newton, teoria della relatività di Einstein, meccanica quantistica) ma anche quello dei programmi di ricerca regressivi (per esempio il freudismo). Essi operano tutti, infatti, secondo lo stesso schema, anche se i risultati sono differenti e opposti ( i primi prevedono fatti nuovi, i secondi no). Lo schema comune a tutti i programmi di ricerca scientifici prevede, come abbiamo già detto, la presenza di un nucleo. Nel caso del programma di ricerca newtoniano il nucleo è costituito, secondo l'analisi che ne fa Lakatos, dalle tre leggi della meccanica e dalla legge di gravitazione: “ma questo nucleo è tenacemente protetto dalla confutazione mediante una vasta cintura protettiva di ipotesi ausiliari. E, cosa ancor più importante, il programma di ricerca ha anche un’euristica, ossia un potente apparato per la soluzione di problemi che, con l'aiuto di sofisticate tecniche matematiche, digerisce le anomalie e le trasforma in evidenza positiva. Per esempio, se un pianeta non si muove esattamente come dovrebbe, lo scienziato newtoniano controlla le sue congetture riguardanti la rifrazione atmosferica, la propagazione della luce nelle tempeste magnetiche e centinaia di altre congetture che fanno tutte parte del programma. Per spiegare l'anomalia può anche inventare un pianeta finora sconosciuto e calcolare la sua posizione, la sua massa e la sua velocità”. Quel che conta, nel programma e per il programma, oltre che per la sua validità, è che riesca non solo a risolvere le anomalie ma a prevedere fatti nuovi; quel che conta è che la teoria di quel programma sia sempre in anticipo sui fatti, e non dietro ad essi, che tenda a prevedere, non a spiegare. Né il progresso empirico è rappresentato dalle verificazioni (Carnap), né l'insuccesso empirico è rappresentato dalle cosiddette confutazioni (Popper): “Quello che realmente conta sono le predizioni sorprendenti, inattese e spettacolari”. È questo che fa di un programma di ricerca qualcosa di progressivo e che, in presenza di programmi di ricerca rivali, costituisce la base della preminenza dell'uno sugli altri: una base razionale, quindi, delle rivoluzioni scientifiche, che non ha nulla a che fare con le conversioni di cui parla Kuhn. Solo se così attrezzato un programma di ricerca scientifico diventa per Lakatos scienza matura. In quest'ultima accezione viene coinvolto l’aspetto più propriamente teorico della ricerca scientifica, la quale non si esaurisce nella pur essenziale funzione di prevedere e predire fatti nuovi. La scienza matura risponde alle esigenze di unità ed eleganza che la differenziano, avendo raggiunto l'autonomia della scienza teorica, dal rozzo schema per tentativi ed errori. 75<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! La scienza matura ha potere euristico, osserva Lakatos, in quanto: “consiste di programmi di ricerca in cui vengono anticipati non solo fatti nuovi, ma, in un senso importante, anche nuove teorie ausiliari”. La conquista dell'autonomia teorica da parte di un programma di ricerca, cioè l'avvenuto superamento del livello di scienza immatura (consistente solo di una trama raffazzonata di tentativi ed errori), consente inoltre, secondo Lakatos, quella che egli definisce la “ricostruzione razionale della scienza”: la possibilità cioè di una storiografia della scienza che distingua fra storia esterna empirica, di carattere socio-psicologico, e storia interna teorico-razionale. Quest'ultima possiede una sua autonomia, che manca invece alla prima. La storia interna, o ricostruzione razionale, della scienza, è primaria rispetto alla storia esterna, perché “i più importanti problemi della storia esterna sono definiti dalla storia interna”. La storia esterna fornisce una ricostruzione non razionale degli eventi che accompagnano o definiscono gli sviluppi della scienza; solo la storia interna, fondata sulla logica della scoperta, “rende pienamente conto dell'aspetto razionale della crescita scientifica”. La metodologia dei programmi di ricerca scientifici, in questo modo, può illuminare sia la filosofia della scienza sia la storia della scienza. E alla luce della valutazione razionale dei diversi programmi di ricerca che è possibile una vera storia della scienza che non sia cieca: una storia della scienza che possa spiegare razionalmente e non misticamente le rivoluzioni scientifiche. Queste ultime avvengono, nel quadro teorico e storico offerto da Lakatos, quando un programma di ricerca cessa di essere progressivo, e viene allora superato o archiviato da un altro: “Un programma di ricerca si dice progressivo fin quando la sua crescita teorica anticipa la sua crescita empirica, ossia, fin quando continua a predire fatti nuovi con un certo successo; è in stagnazione se la sua crescita teorica resta indietro rispetto alla sua crescita empirica, ossia fin quando si limita a dare spiegazioni post hoc di scoperte casuali o di fatti anticipati, e scoperti, nell'ambito di un programma rivale. Se un programma di ricerca spiega in modo progressivo più di quanto è spiegato da un programma rivale, esso lo supera e il programma rivale può essere eliminato (o, se si preferisce, archiviato)”. Con la sua metodologia dei programmi di ricerca scientifici, estesa dal campo della filosofia della scienza a quello della storia della scienza, Lakatos riteneva di aver risposto costruttivamente alle domande derivanti, secondo le valutazioni da lui proposte su Popper e Kuhn, dalle insufficienze teoriche di questi ultimi. In particolare, riteneva di avere non solo confutato, ma anche superato, o archiviato, l'irrazionalismo attribuito da lui a Kuhn, e di avere fornito una spiegazione teorica e storica razionale sia della natura della scienza sia della natura delle rivoluzioni scientifiche. Sarebbe spettato a un altro, irrequieto, ex-popperiano, Feyerabend, riprendere tematiche kuhniane, estremizzandole e radicalizzandole, in funzione polemica esplicita sia nei confronti dello stesso Kuhn sia nei confronti di Lakatos, entrambi suoi cari amici personali. 17.5 Fayerabend e l’anarchismo metodologico Paul Feyerabend (1924 - 1994), è forse il pensatore più noto e discusso del gruppo dei post positivisti. Le critiche all’empirismo e al razionalismo costituiscono il preludio che lo porteranno a quell’anarchismo metodologico e all’abbandono della scienza e della ragione come strumenti supremi d’indagine rispetto alle altre attività umane. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 75;! Feyerabend muove dalla constatazione che l'empirismo, la convinzione cioè “che la nostra conoscenza, o almeno gran parte di essa, inizi e dipenda in modo considerevole dall'esperienza, è una delle credenze più comuni e diffuse della storia dell'umanità”. È una specie di mito, che dà tranquillità e sicurezza, come tanti altri miti. In particolare, tale mito o dogma, come lo definisce Feyerabend, sta alla base della teoria della scienza moderna, prodotta dall'avvento dell'illuminismo rinascimentale e postrinascimentale. La pratica di questa stessa scienza, però, contraddice quella teoria. Da una parte, quindi, abbiamo nell'epoca moderna il fatto, pratico, che “la scienza non ha più una fondazione: persino le osservazioni più sicure sono occasionalmente messe da parte o contraddette, persino i principi della ragione più evidenti sono violati e sostituiti da altri”; dall'altra il fatto, teorico, che “tale pratica è accompagnata da una incrollabile fede nell'empirismo, cioè in una dottrina che usa una fondazione della conoscenza definita e stabile”. Da una parte, cioè, abbiamo una pratica liberale che inventa continuamente nuove prospettive, dall'altra una ideologia che per Feyerabend è chiaro dogmatismo in quanto la fede nell'empirismo viene affermata e conservata come un dogma, facendo leva non sulla fede ma sulla ragione. Il positivismo logico nelle sue diverse denominazioni e ramificazioni, è per Feyerabend, il nuovo nemico da combattere, in quanto non è affatto un movimento filosofico di tipo progressivo, come sempre ha preteso di essere motivando in senso antimetafisico le sue fondamenta empiristiche, ma è una corrente di pensiero che ostacola il progresso e impone “una cristallizzazione dogmatica in nome dell'esperienza”. Feyerabend fa appello, nella sua battaglia contro l'empirismo dogmatico e razionalizzato in una precisa metodologia, alla reale pratica della ricerca scientifica. Questa, come aveva rifiuta di assoggettarsi a metodi e teorie che abbiano una qualche pretesa di essere rispettati sempre; opera, semmai, proprio “macinando” metodi e teorie, criticandoli, sostituendoli, senza alcun rispetto per la loro fondazione o autorità; lo scienziato nel suo lavoro reale è opportunista, usa quel che gli serve e se ne libera quando non gli serve più. L'alternativa al dogmatismo, pertanto, viene individuata nel pluralismo teorico, nella pratica metodologica, cioè, di costruire e usare teorie e metodi alternativi e reciprocamente sostitutivi “invece che un solo punto di vista o una singola visione ed esperienza”. Questa pluralità di teorie, precisa Feyerabend: “non deve essere considerata come uno stadio preliminare della conoscenza da sostituirsi nel futuro con l'Unica Vera Teoria. Il pluralismo teorico viene qui assunto come fattore essenziale di ogni conoscenza che si proclami oggettiva”. In quest'ultimo passo si preannuncia una delle tesi più radicali di Feyerabend, quella secondo la quale la ricerca scientifica non mira a creare teorie vere ma teorie efficaci. L'empirismo logico contemporaneo è dunque da contrastare e da battere, se si vuole democratizzare la scienza liberandola dal dogmatismo. Una filosofia della scienza, come quella dell'empirismo logico, che incoraggi l'uniformità metodologica e teorica, è quindi fondata su un'illusione e non ha nulla a che fare con la pratica della scienza: “L’unanimità di opinione può essere adatta a una chiesa, alle vittime spaventate e avide di qualche mito (antico o modemo) o ai seguaci deboli e consenzienti di un tiranno; la varietà di opinione è un elemento necessario alla conoscenza oggettiva e un metodo che incoraggi la varietà è l'unico che sia compatibile con una visione umanistica”. Feyerabend è, dunque, contro ogni tipo di irrigidimento metodologico, anzi è favorevole ad una relativizzazione di tutti i criteri, confermata abbondantemente, secondo la sua interpretazione, dalla pratica scientifica reale, per cui è necessario 75=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! tornare alla posizione di Mach e Einstein e pervenire alla conclusione che: “è impossibile una teoria della scienza. C'è soltanto il processo di ricerca e c'è ogni sorta di regole empiriche che possono aiutarci a portarlo avanti”. È abbastanza chiaro che questo relativismo assoluto, il pluralismo teorico e metodologico radicale che sfocerà tra poco nell'anarchismo, non potevano accordarsi con le posizioni teoriche innovative e critiche, nei confronti del positivismo logico, di Kuhn e di Lakatos. Questi ultimi distinguevano nettamente tra ciò che è scienza e ciò che non lo è (distinzione che Feyerabend si avvia a negare in maniera aperta), e caratterizzavano la scienza in maniera differente ma attribuendole comunque qualità e condizioni metodologiche abbastanza rigide. L'alternativa proposta da Feyerabend, rispetto alla tradizione del positivismo logico che costituisce l'obiettivo polemico comune, è ben diversa e rappresenta una via che porta completamente fuori dalla filosofia della scienza, in quanto viene a mancare la materia di una tale filosofia: la scienza stessa. È questo il dissenso di fondo rispetto a Kuhn e Lakatos, un dissenso che mette in luce la radicalità della opposizione di Feyerabend non al solo positivismo logico in tutte le sue versioni ma a tutta la filosofia della scienza. Questa distruzione del concetto di scienza e, ad essa connesso, di quello di ragione, quali criteri guida per la nostra conoscenza, sarà il risultato ultimo delle argomentazioni teoriche contro il metodo (legge e ordine), per l’anarchia metodologica. Argomentazioni che, secondo Feyerabend, favoriscono la liberazione dai dogmi legati alla filosofia della scienza e promuovono un nuovo illuminismo. La proposta di una epistemologia anarchica, fondata sulla convinzione secondo cui non esiste alcun metodo scientifico o criterio di eccellenza, che stia alla base di ogni progetto di ricerca e che lo renda scientifico e perciò fidato, è il nucleo teorico della sua opera principale Contro il metodo (1970), ripreso e illustrato in La scienza in una società libera (1978): “Nel libro Contro il metodo ho tentato di dimostrare che i procedimenti della scienza non si conformano ad alcuno schema comune, che non sono "razionali" in riferimento a nessuno schema del genere. Gli uomini intelligenti non si lasciano limitare da norme, regole, metodi, neppure da metodi "razionali", ma sono opportunisti, ossia utilizzano quei mezzi mentali e materiali che, all'interno di una determinata situazione, si rivelano i più idonei al raggiungimento del proprio fine”. L’epistemologia anarchica non è che la presa di coscienza del fatto storico che: “non esiste neppure una regola, per quanto plausibile e logica possa sembrare, che non sia stata spesso violata durante lo sviluppo delle singole scienze. Tali violazioni non furono eventi accidentali o conseguenze evitabili dell'ignoranza e della disattenzione. Esse erano necessarie perché, nelle condizioni date, si potesse conseguire il progresso [...] o qualsiasi altro risultato desiderabile [...] eventi come l’invenzione della teoria atomica nell'antichità (Leucippo), la rivoluzione copernicana, lo sviluppo dell'atomismo moderno (Dalton: la teoria cinetica dei gas; la teoria quantistica), la graduale affermazione della teoria ondulatoria della luce si verificarono solo perché alcuni ricercatori o si decisero a non seguire certe regole "ovvie" o perché le violarono inconsciamente [...]”. Difendere l'epistemologia anarchica e un conseguente pluralismo teorico e metodologico non significa, dunque, distruggere regole o criteri nell'ambito della pratica scientifica, ma farsi paladini della libera inventività della scienza al di là di qualsiasi metodologia prefissata: “Io non raccomando alcuna "metodologia", ma al contrario affermo che l'invenzione, la verifica, l'applicazione di regole e criteri metodologici sono di competenza della ricerca scientifica concreta [...]”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 754! In conclusione, la lotta contro il Metodo vuole essere, di fatto, una lotta per la libertà del metodo. Questa tesi implica la distruzione di ogni metodologia precostituita e mette capo al principio polemico “anything goes” (tutto può andar bene). Se qualsiasi cosa può andar bene, lo scienziato è autorizzato, e del resto la storia ce ne dà numerose conferme, ad utilizzare nella sua pratica di ricerca tutto ciò che può considerare utile: idee scientifiche del passato abbandonate da tempo, suggerimenti di tipo metafisico, elementi addirittura tratti dal mito. Adotterà perciò: “una metodologia pluralistica, confronterà teorie con altre teorie anzichè con l’esperienza, con dati o fatti, e cercherà di perfezionare anzichè rifiutare le opinioni che appaiono uscire sconfitte dalla competizione”. Altro tema caratteristico di Feyerabend è la tesi (spinta sino al limite) secondo cui i fatti non esistono nudi, ovvero al di fuori delle teorie, ma soltanto nell'ambito di determinati quadri mentali, in quanto lo scienziato vede solo ciò che questi ultimi lo inducono a vedere. Da ciò la pratica impossibilità di distinguere (neopositivisticamente) fra termini di osservazione e termini teorici. Questa dottrina distanzia Feyerabend non solo dai neopositivisti, ma anche da Popper, il quale, pur ammettendo che i fatti sono “carichi di teoria", crede pur sempre, in omaggio ai principi del suo razionalismo critico, che le teorie siano semplici congetture obbligate a "cozzare" contro i fatti. Del resto, secondo Feyerabend, se i fatti esistono solo all'interno delle teorie e non possono essere assunti a “banco di prova" dei nostri quadri mentali, non ha più senso parlare di una falsificazione delle teorie per mezzo degli asserti-base, ma ogni teoria, in rapporto al fatti, finisce in qualche modo per andare bene. Un effetto della teoria dei "quadri" è che neppure le nozioni più semplici o apparentemente "neutrali" della scienza possono venir considerate in modo universale e oggettivo, in quanto i loro significati risultano intrinsecamente connessi ai differenti contesti teorici entro i quali sono stati formulati (Feyerabend fa l'esempio del termine massa, che assume accezioni diverse a seconda che si tratti della fisica di Newton o di Einstein). Da ciò il recupero, in un contesto ancor più radicalizzato, della tesi di Kuhn, respinta da Popper, circa l'incommensurabilità delle teorie (come si possono valutare comparativamente delle teorie che sono sorte in momenti diversi; che non usano gli stessi termini o li adoperano con significati diversi; che non parlano degli stessi fatti o ne parlano in modo differente; che non hanno il medesimo fine o scopo, ecc.?) e il parallelo rifiuto della visione della scienza come accumulazione progressiva di conoscenze (positivisti e neopositivisti) o come "approssimazione" graduale alla verità (Popper) e l'adesione ad una prospettiva che affida a criteri di tipo pragmatico (l’efficacia, il successo, la capacità di persuasione, ecc.) la preferenza fra le teorie in competizione. La proliferazione di opinioni e teorie, non la rigorosa applicazione di qualche ideologia o principio guida preferiti, costituisce pertanto la base della metodologia pluralistica o dell'anarchismo metodologico. Lunghe analisi storiografiche, in particolare sulle ricerche astronomiche da Copernico a Galileo, confermano secondo Feyerabend queste sue tesi. Le violazioni di norme, le deviazioni irrazionali e gli errori che accompagnano la pratica scientifica, nella metodologia pluralistica e anarchica della proliferazione teorica illustrata da Feyerabend, lungi dall'ostacolare il progresso conoscitivo lo promuovono e ne costituiscono anzi il presupposto necessario: “Senza "caos" non c’è conoscenza. Senza una frequente rinuncia alla ragione non c'è progresso. Idee che oggi formano la base stessa della scienza esistono solo perchè ci furono cose come il pregiudizio, l'opinione, la 755! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! passione; perché queste cose si opposero alla ragione; e perché fu loro permesso di operare a modo loro. Dobbiamo quindi concludere che, anche all'interno della scienza, la ragione non può e non dovrebbe dominare tutto e che spesso dev'essere sconfitta, o eliminata, a favore di altre istanze”. L’esito più caratteristico dell’epistemologia di Feyerabend è la distruzione del mito della Scienza: la scienza e la ragione non sono “sacrosante”. Infatti, denunciando lo strapotere della scienza nel mondo d'oggi e battendosi per un ridimensionamento del suo peso teorico e sociale, Feyerabend dichiara che essa: “è solo uno dei molti strumenti inventati dall'uomo per far fronte al suo ambiente” e che, al di là della scienza, “esistono miti, esistono i dogmi della teologia, esiste la metafisica, e ci sono molti altri modi di costruire una concezione del mondo. È chiaro che uno scambio fecondo fra la scienza e tali concezioni del mondo non scientifiche avrà bisogno dell'anarchismo ancora più di quanto ne ha bisogno la scienza. L'anarchismo è quindi non soltanto possibile, ma necessario tanto per il progresso interno della scienza quanto per lo sviluppo della nostra cultura nel suo complesso”. Lo strapotere della scienza nel mondo di oggi, per Feyerabend, non deriva affatto da una sua pretesa autorità teorica, inesistente per le ragioni abbondantemente illustrate, ma da una corposa autorità sociale che le viene dal fatto di essere sostenuta in tutti i modi dai poteri statali e istituzionali. L'educazione pubblica inculca in tutti gli stati moderni il culto della scienza presentata come la forma più alta della attività razionale e come lo strumento più efficace per il perfezionamento e il progresso della società. Il “nuovo illuminismo” deve combattere questo stato di cose. Si deve ridimensionare il peso della scienza nella nostra società, poiché essa: “non ha un'autorità maggiore di quanta ne abbia una qualsiasi altra forma di vita. I suoi obiettivi non sono certamente più importanti delle finalità che guidano la vita in una comunità religiosa o in una tribù unita da un mito”. Si è combattuto per secoli, nel passato, per ottenere la separazione fra stato e chiesa al fine di realizzare una maggiore libertà e tolleranza nella società; oggi si deve combattere perchè quella separazione, ormai ottenuta, venga “integrata dalla separazione fra stato e scienza”. Che cosa bisogna fare, secondo Feyerabend, per favorire il distacco della scienza dallo stato e il suo conseguente ridimensionamento? Bisogna favorire tutte le forme di attività solitamente rifiutate ed emarginate in quanto non scientifiche, bisogna diffondere la consapevolezza del fatto che “la separazione di scienza e non scienza è non soltanto artificiale ma anche dannosa per il progresso della conoscenza”. Con queste conclusioni, Feyerabend esce fuori dalla filosofia della scienza come viene tradizionalmente intesa. Egli la liquida in maniera radicale, sciogliendo la scienza nell'insieme vario e mutevole delle attività umane antiche e recenti, dirette a conoscere e trasformare la realtà in cui viviamo. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 756! !"#$%&'&()*! La più bella e profonda emozione che possiamo provare è il senso del mistero; sta qui il seme di ogni arte, di ogni vera scienza Einstein "(#2!0!*(#'-"#2/)/,%# 18.1 Il Large Hadron Collider Il 29 settembre 2004 il CERN, il più grande laboratorio internazionale di fisica esistente sulla Terra, ha festeggiato i suoi primi cinquant’anni di operosa esistenza. Per mezzo secolo i suoi apparati, primo fra tutti lo spettacolare acceleratore di particelle Large Electron-Positron Collider (LEP), hanno permesso ai ricercatori di studiare, attraverso la fisica delle particelle, la materia che costituisce il nostro mondo. Dal 2009 è entrato in funzione il Large Hadron Collider (LHC), ancora più grande e potente del suo predecessore. Il Large Hadron Collider (grande collisore di adroni) è un acceleratore di particelle presso il CERN di Ginevra capace di accelerare protoni e ioni pesanti fino al 99,9999991% della velocità della luce e farli successivamente scontrare, e raggiungerà i 14 teravolt (1 TeV = mille miliardi di eV) nel 2015. Simili livelli di energia non erano mai stati raggiunti fino ad ora in un laboratorio. È costruito all'interno di un tunnel sotterraneo lungo 27 km situato al confine tra la Francia e la Svizzera. I componenti più importanti dell'LHC sono gli oltre 1600 magneti superconduttori raffreddati alla temperatura di 1,9 K (-271,25 °C) da elio liquido superfluido che realizzano un campo magnetico di circa 8 Tesla, necessario a mantenere in orbita i protoni all'energia prevista. L'entrata in funzione del complesso è avvenuta il 10 settembre 2009 alle ore 9:45 locali, inizialmente ad un'energia inferiore a 1 TeV. I fasci di protoni e ioni pesanti di piombo partiranno dagli acceleratori in p e Pb. Continueranno il loro cammino nel proto-sincrotrone (PS), nel super-proto- 757! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! sincrotrone (SPS) per arrivare nell'anello più esterno di 27 km. Durante il percorso si trovano i quattro punti sperimentali ATLAS,CMS,LHCb,ALICE, nei quali avverranno i principali esperimenti di fisica delle particelle. Nelle collisioni saranno prodotte, grazie alla trasformazione di una parte dell'altissima energia in massa, numerosissime particelle le cui proprietà saranno misurate dai rivelatori. Che cosa ci si aspetta da questo acceleratore di particelle? Un importantissimo risultato è stato già raggiunto, ossia la scoperta nel 2012 del bosone di Higgs, l’ultimo, forse, decisivo tassello che consente di dire che il modello standard delle particelle funziona. Infatti, anche se tutti i dati sperimentali oggi disponibili sono in ottimo accordo con le previsioni del Modello Standard, mancava una particella fondamentale: quella che "inventa" la materia, nel senso che fornisce e differenzia la massa delle particelle, cioè il bosone di Higgs. Ma il nuovo collisore permetterà soprattutto un balzo in avanti senza eguali nella storia della fisica delle particelle, e non solo, e in questo nuovo mondo ci aspettiamo di trovare nuove particelle mediatrici di forze che potrebbero condurre i fisici verso una comprensione unificata di tutte le interazioni, produrre particelle che possano essere candidati per la materia oscura e mettere alla prova quello che sappiamo della storia dell’universo, capire che cosa distingue due delle forze fondamentali, l’elettromagnetismo e l’interazione debole, il che ci consentirà di dare delle risposte a problemi profondi: perché ci sono gli atomi e la chimica? Che cosa rende possibili strutture stabili? O risposte ad altre domande come: perché la gravità è tanto più debole delle altre forze fondamentali? Come si può spiegare l'asimmetria tra materia e antimateria, cioè la quasi assenza di antimateria nell'universo? Esistono le particelle supersimmetriche? Ancora più in profondità c’è la prospettiva di apprendere qualcosa sulle diverse forme della materia, sull’unità delle varie categorie di particelle apparentemente differenti, sulla natura dello spaziotempo, e perché no, cercare dimensioni nascoste dello spaziotempo. I fisici di tutto il mondo sperano che LHC possa dare tutte le risposte alle varie questioni sollevate, che reputano fondamentali per continuare ad indagare sulla natura, con lo stesso spirito di coloro che millenni fa si avvicinarono al grande spettacolo dell’universo per conoscerne l’essenza ed il suo funzionamento, ma utilizzando una tecnologia impensabile fino a qualche anno fa. Riportiamo le parole con cui l'eminente fisico teorico Victor Weisskopf (19082002) riassumeva lo stato della fisica delle alte energie: "Stiamo esplorando modalità sconosciute di comportamento della materia in condizioni del tutto nuove. Questo campo della fisica dà tutta l'emozione delle nuove scoperte in una terra vergine, ricca di tesori nascosti: i fatti sperimentali ci permetteranno finalmente di penetrare nella struttura della materia. Occorrerà un certo tempo prima di riuscire a tracciare una carta razionale di questa nuova terra". 18.2 La teoria del tutto L'attuale teoria delle particelle elementari e delle forze, pur essendo priva di incongruenze concettuali, non soddisfa pienamente i fisici, in quanto c’è un numero crescente di fenomeni che non rientrano nel suo ambito, e nuove idee teoriche hanno reso più ricco e completo quello che ci aspettiamo da una descrizione della realtà. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 758! Infatti le domande che non hanno risposta sono tante: le particelle primordiali sono solo quelle contemplate dal Modello Standard o, un giorno, potranno apparirne delle altre? Perché le intensità delle quattro forze fondamentali hanno proprio quei valori? (Il nostro mondo sarebbe profondamente diverso se le forze fossero di poco differenti). Il protone è immortale o, come la quasi totalità delle particelle, è destinato a disintegrarsi? La gravità potrà un giorno essere unificata con le altre forze fondamentali? Come mai l'esistenza dei monopoli magnetici, ora compresa dalle teorie di grande unificazione, non è ancora stata verificata dopo 40 anni di ricerche? I problemi sollevati da tutte queste domande (e molte altre potrebbero essere formulate) sono certamente più numerosi delle risposte che la fisica può dare per svelare i misteri della natura. In un certo senso, però, questo fa parte del progresso scientifico e della natura umana. Molti fisici sono convinti che, in qualche modo, si arriverà a costruire una specie di "legge onnicomprensiva" che riesca a spiegare ogni fenomeno naturale: una specie di "teoria del tutto" che possa unificare, per esempio, tutte le interazioni fondamentali. Lo stato di una teoria del tutto fisica è aperto al dibattito filosofico. Per esempio se il fisicalismo fosse vero, una teoria del tutto fisica coinciderebbe con la teoria filosofica del tutto. Alcuni filosofi (Aristotele, Platone, Hegel, e altri) hanno tentato di costruire sistemi onnicomprensivi. Altri sono fortemente dubbiosi sulla realizzazione di un simile esercizio, come Wheeler, secondo il quale non può esistere un'equazione universale o una teoria del tutto, per il semplice motivo che ogni equazione e ogni teoria non rappresentano principi naturali preesistenti, bensì un processo di elaborazione mentale, legato allo schema con cui gli uomini di scienza costruiscono le domande da porre alla natura. In questi ultimi anni sono state tentate diverse strade per raggiungere l'obiettivo della descrizione unitaria della natura, già perseguito vanamente da Einstein. La maggiore impresa teorica finora compiuta è rappresentata dalla teoria della grande unificazione (Grand Unification Theory, GUT), elaborata nel 1974 da Sheldon L. Glashow (1932) e poi completata da Abdus Salam (1926-1996) e Steven Weinberg (1933), insigniti del Nobel 1979 per la fisica. Questa teoria, che ha come matrice il modello del big bang, si basa sul presupposto che le forze fondamentali appaiono diverse a causa della rottura di una simmetria iniziale, cioè in conseguenza di una serie di transizioni di fase che le hanno differenziate man mano che l'universo si raffreddava dopo la grande esplosione. Se si potessero ripristinare le condizioni iniziali che hanno dato origine all'universo, probabilmente sparirebbe ogni differenza fra le forze e fra le loro manifestazioni materiali, e il mondo ritornerebbe in uno stato altamente simmetrico. Il risultato sperimentale raggiunto da Rubbia con la scoperta dei bosoni W± e Z0, che ha verificato il rapporto di parentela fra la forza elettromagnetica e quella debole, indica che le idee della GUT sono esatte. Il vero problema per riuscire a sintetizzare la moltitudine dei 759! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! fenomeni e la varietà delle forze sembra essere puramente energetico. La grande unificazione prevede infatti una perfetta simmetria fra le tre forze elettromagnetica, debole e forte proprio a quei valori energetici (circa 1015 GeV ) che caratterizzavano l'universo appena dopo la nascita. Nella fascinosa ipotesi della teoria del tutto, anche la forza gravitazionale si potrebbe unire alle altre. Tuttavia, già per verificare sperimentalmente la GUT le energie che dovrebbero essere raggiunte sono al di fuori delle attuali possibilità tecnologiche e forse anche al di fuori di quelle future. Basti pensare che il valore di 1015 GeV supera di oltre mille miliardi i limiti energetici dei più grandi acceleratori di particelle, anche in fase di progetto. Inoltre, poiché con le attuali tecnologie il diametro di un acceleratore è direttamente proporzionale all'energia conferita alle particelle, per ottenere un'energia dell'ordine di 1015 GeV ci vorrebbe un diametro più o meno pari alle dimensioni della nostra galassia. Per verificare direttamente la GUT sarebbe necessario creare sulla Terra una condizione da "principio del mondo", corrispondente a una temperatura dell'ordine di 1032 K, che sembra tecnologicamente impossibile. I fisici stanno perciò cercando qualche prova indiretta per confermare la validità della teoria. La rivelazione del decadimento del protone, un evento ritenuto fino a poco tempo fa assolutamente vietato dalla costituzione che regola la vita delle particelle, fornirebbe una di queste prove. Anche se la GUT rappresenta un passo avanti rispetto al Modello Standard, essa non è ancora in grado di coinvolgere l'interazione gravitazionale. Per andare oltre la GUT sono nati altri modelli, nell'intento di unificare tutte le particelle di natura fermionica con tutte le colle (fotoni, gluoni, gravitoni) di natura bosonica, cioè di riunire in un'unica logica tutti gli oggetti necessari per strutturare il mondo della materia dal cuore dell'atomo ai confini dell'universo. Ciò porta a postulare l'esistenza di nuove leggi di simmetria. Ci riferiamo, in particolare, alla cosiddetta supersimmetria, introdotta già da alcuni anni dai fisici teorici S. Ferrara, J. Wess e B. Zumino. La supersimmetria implica che a ogni particella di materia di tipo fermionico debba corrispondere un partner bosonico a spin intero, battezzato squark, selettrone, sneutrino, ecc. (la fratellanza supersimmetrica è indicata dalla lettera s che precede il nome della particella) e che, inoltre, a ogni quanto di forza di tipo bosonico debba corrispondere l'esistenza di un partner supersimmetrico di tipo fermionico, chiamato fotino, gluino, gravitino, ecc. (dove per indicare la presunta fratellanza è utilizzato il suffisso -ino). La ricerca di nuovi ospiti nella lunga lista delle particelle è dunque tuttora aperta; nessuno, però, è riuscito ancora a scoprire un fratello supersimmetrico. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 75:! 18.3 La gravità quantistica: la teoria delle stringhe e la gravità quantistica a loop La teoria delle stringhe e la gravità quantistica a loop sono le due più apprezzate teorie della gravità quantistica, quel campo della fisica teorica che tenta di unificare la teoria dei campi (meccanica quantistica relativistica), che descrive tre delle forze fondamentali della natura (elettromagnetica, debole e forte), con la teoria della relatività generale, riguardante la quarta interazione fondamentale: la gravità. Lo scopo ultimo di queste teorie è anche quello di ottenere una struttura unica per tutte e quattro le forze fondamentali e quindi di realizzare una teoria del tutto. A partire dagli anni ottanta del XX secolo, molti fisici teorici si sono concentrati sulla definizione di una teoria quantistica che conciliasse la meccanica quantistica e la relatività generale e che spiegasse in maniera chiara l'esistenza delle quattro famiglie di particelle, dei bosoni intermedi e della gravità. Molte delle difficoltà dell'unificazione di queste teorie derivano da presupposti radicalmente differenti su come è strutturato l'universo. La teoria quantistica dei campi dipende dai campi delle particelle inserite nello spazio-tempo piatto della relatività ristretta. La relatività generale tratta la gravità come una curvatura intrinseca dello spaziotempo che varia al movimento della massa, ma non ci dice nulla riguardo le particelle mediatrici della forza gravitazionale, i cosiddetti gravitoni Il modo più semplice per combinare le due teorie (come ad esempio trattare semplicemente la gravità come un altro campo di particella) finisce rapidamente in quello che è conosciuto come il problema della rinormalizzazione (la procedura matematica di rimozione delle divergenze, ossia degli infiniti, che nascono quando si procede al calcolo di quantità fisiche osservabili). Le particelle di gravità si attraggono reciprocamente e concorrono tutte ai risultati delle interazioni, producendo valori infiniti che non possono essere facilmente cancellati per produrre risultati finiti (e sensati). Al contrario, in elettrodinamica quantistica le interazioni talvolta esprimono risultati numericamente infiniti, ma questi sono rimuovibili per mezzo della rinormalizzazione. Un altro aspetto fondamentale che rende inconciliabile la relatività generale e la meccanica quantistica è che per la prima non esiste uno sfondo spaziotemporale fisso come invece è nella meccanica newtoniana e nella relatività speciale; la geometria dello spaziotempo è dinamica. D'altra parte la meccanica quantistica è dipesa fin dal suo inizio su una struttura di fondo non dinamica. In questa teoria è il tempo che viene dato e non la dinamica, come nella meccanica newtoniana classica. Vi sono altri tre punti di disaccordo tra la meccanica quantistica e la relatività generale. Primo, la relatività generale predice il suo stesso collasso in singolarità e la meccanica quantistica diviene priva di senso nelle vicinanze delle singolarità. Secondo, non è chiaro come determinare il campo gravitazionale di una particella se, in conseguenza del Principio di indeterminazione di Heisenberg della meccanica quantistica, non è possibile conoscere con certezza la sua posizione nello spazio e la sua velocità. Terzo, vi è un contrasto, ma non una contraddizione logica, tra la violazione della disuguaglianza di Bell nella meccanica quantistica, che implica un'influenza superluminale, e la velocità della luce come limite di velocità nella relatività. Sfortunatamente, le energie e le condizioni alle quali la gravità quantistica agisce sono attualmente al di fuori della portata degli esperimenti di laboratorio, pertanto non 76<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! vi sono dati sperimentali che possono fare luce su come si combinano le due teorie. Comunque una tale teoria è necessaria per comprendere quei problemi che interessano la combinazione di enormi masse o energie con dimensioni estremamente piccole di spazio, come il comportamento dei buchi neri e l'origine dell'universo. La teoria delle stringhe, quindi, nasce come superamento dell’inconciliabilità della relatività generale con la meccanica quantistica, rinunciando al concetto di località, cioè di misurabilità di un campo in un punto. La teoria delle stringhe è stata formulata negli anni settanta, sulla base di un modello proposto dal fisico teorico italiano Gabriele Veneziano (1942), per descrivere le interazioni nucleari forti, e successivamente allargata, negli anni ottanta, in modo da includere la supersimmetria, ed essere interpretata come teoria unificata di tutte le interazioni. Questa teoria è ancora basata sulla meccanica quantistica e la relatività, ma abbandona l'ipotesi che gli oggetti fondamentali sui quali costruire la teoria abbiano una struttura puntiforme, in favore di una struttura cordiforme, cioè unidimensionale, ossia descrive le particelle elementari come stati eccitati di sottilissime corde quantistiche, chiamate appunto stringhe. In sostanza, è una teoria che ipotizza che la materia, l'energia e in alcuni casi lo spazio e il tempo siano in realtà la manifestazione di entità fisiche sottostanti, appunto le stringhe. Vi sono due tipi possibili di stringhe: quelle con due estremità, dette stringhe aperte e quelle chiuse su se stesse, dette appunto chiuse. In entrambi i casi, gli oggetti elementari della teoria sono estesi, e la misurabilità di un campo, sia esso elettrico, magnetico o gravitazionale, in un punto diventa impossibile non solo in pratica, ma addirittura in linea di principio. In questo modo spariscono tutte le difficoltà incontrate dal modello standard nel trattare la forza gravitazionale a livello quantistico. Inoltre, la teoria che si ottiene sostituendo i punti con le stringhe, non solo è compatibile con la gravità, ma addirittura non potrebbe farne a meno; la teoria quantistica di una stringa, infatti, prevede necessariamente l'esistenza dei quanti dell'interazione gravitazionale, i cosiddetti gravitoni, e quindi anche della forza gravitazionale a livello classico. Le equazioni per il campo gravitazionale che si ottengono dalle stringhe, però, sono un po' diverse da quelle di Einstein. Gli aspetti più caratteristici della teoria delle stringhe sono dunque legati al fatto che la meccanica quantistica stessa, quando è applicata ad oggetti estesi, viene addirittura in aiuto anziché creare problemi come nella teoria dei campi. In primo luogo, la meccanica quantistica associa alle stringhe una lunghezza minima caratteristica (l'analogo del raggio di Bohr, nel caso dell'atomo). Infatti, mentre classicamente si può concepire una corda arbitrariamente piccola che permetterebbe, al limite, una misura locale del campo, secondo la meccanica quantistica questo non è possibile, come non è possibile, ad esempio, avere delle orbite stabili negli atomi con l'elettrone troppo vicino al nucleo. Un altro aspetto importante è legato al fatto che le stringhe non sono statiche: oltre a muoversi come un tutto attorno al proprio baricentro (ed avere quindi una propria energia cinetica di traslazione), possono vibrare ed oscillare come un corpo elastico. La meccanica quantistica, però, permette solo valori discreti per l'energia e il momento angolare dei vari stati di oscillazione (in modo /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 76;! analogo a quello che succede per i livelli energetici dell'atomo). Questi stati discreti di vibrazione della stringa corrispondono alle varie particelle elementari, così come le diverse frequenze atomiche corrispondono alle diverse righe spettrali dei vari elementi. Alcune di queste vibrazioni corrispondono a particelle senza massa ma dotate di momento angolare intrinseco, che si possono associare al fotone e al gravitone, ovvero a quelle fondamentali particelle che trasmettono, rispettivamente, la forza elettromagnetica e gravitazionale. In modo simile, e grazie al fatto che la stringa vibra in uno spazio multidimensionale, appaiono altre particelle meno leggere, che trasmettono le forze nucleari forti e deboli. Tutte queste particelle non esistono nel limite in cui la teoria delle stringhe è puramente classica, e quindi sono puri effetti quantistici. E grazie a questo che la teoria delle stringhe fornisce una descrizione quantistica di tutte le forze che conosciamo in natura, senza incorrere nei problemi di località come la teoria dei campi. Nel contesto della moderna teoria di stringa, ci sono molte dimensioni spaziali in più, che devono aggiungersi al nostro universo tridimensionale per poter inglobare nella geometria, oltre alle forze gravitazionali, anche quelle elettromagnetiche e nucleari. Queste dimensioni extra non sono estese nello spazio come le altre tre ordinarie, ma si suppone che siano arrotolate, o più propriamente compattificate, in modo da occupare un volume estremamente ridotto. La teoria delle stringhe contiene solo due costanti fondamentali, la velocità della luce, che è finita per il principio di relatività, e la lunghezza di stringa che è necessaria per la quantizzazione. Perfino la costante di Planck, in questo contesto, è una grandezza derivata. Dove sono andate a finire, allora, tutte le altre costanti della natura, quelle che determinano ad esempio la forza gravitazionale, quella elettrostatica o, ancora, le dimensioni dell'atomo di idrogeno? La risposta a questa domanda illustra un altro aspetto caratteristico della teoria delle stringhe: le costanti fondamentali della natura non sono più, come nel modello standard delle particelle, numeri arbitrari il cui valore viene fissato una volta per tutte dagli esperimenti. Esse diventano variabili dinamiche, legate ai valori medi di alcuni campi fondamentali e dovrebbero essere calcolabili, nel contesto di un modello teorico dato, una volta fissato lo stato attuale dell'universo. Sempre secondo la teoria delle stringhe, l’universo esisteva prima del big bang che, per la relatività generale segnò l’inizio dello spazio e del tempo. L’universo potrebbe essere stato quasi vuoto e aver concentrato materia fino a quel momento, o aver attraversato un ciclo di morte e rinascita. In ogni caso, l’epoca precedente il big bang avrebbe influenzato l’epoca attuale. Se da un lato questa teoria è in grado di spiegare certi processi ancora oscuri legati alla struttura dell'universo, dall'altro non è ancora in grado di produrre alcuna predizione sottoposta a verifica sperimentale, ossia non esistono conferme evidenti della teoria. Infatti, il punto centrale di discussione è la presunta non controllabilità sperimentale (o falsificabilità) della teoria: occupandosi di che cosa succede a scale di energia paragonabili a quelle verificatesi nei primi istanti dell'universo, la teoria non permetterebbe di compiere nuove predizioni di fatti osservabili con gli strumenti realizzabili. La teoria, così, non sarebbe testabile in senso empirico, e quindi, secondo un requisito metodologico, non sarebbe una buona teoria scientifica. Il rapporto tra teoria (fisica) ed esperienza è un tema tradizionale e controverso della filosofia della scienza, e l'atteggiamento che prevale tra i filosofi che discutono dello status della teoria è di prendere per dato che, volendone difendere l'accettabilità come teoria scientifica allo 76=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! stato attuale delle possibilità sperimentali, bisogna cercare supporto in “virtù” che non siano quelle legate al controllo sperimentale. Per esempio il potere di unificazione e quindi di spiegazione, la fertilità teorica, la consistenza matematica e fisica, e infine l'unicità (non esistono per ora teorie alternative con capacità paragonabili). La questione diventa quindi se queste virtù sovraempiriche siano sufficienti per accettare la teoria come programma di ricerca progressivo. Ma davvero il programma di ricerca della teoria delle stringhe non è testabile? È proprio necessario rinunciare, in questo caso, a un criterio tanto essenziale come quello della controllabilità empirica? Non tutti i fisici la pensano così, e i filosofi dovrebbero tenerne conto. Infatti, anche se non si volessero accettare come controlli empirici le conferme indirette (ma fondamentali per la teoria) che potrebbero venire, per esempio, dagli esperimenti previsti con la messa in funzione del Large Hadron Collider al CERN di Ginevra, la teoria, per Veneziano, è comunque falsificabile, nel senso che permette di derivare predizioni che potrebbero essere sottoposte a falsificazione da esperimenti concepibili (per esempio in base alle sue implicazioni cosmologiche). La vera questione, per Veneziano, ha invece a che fare con lo stato di sviluppo della teoria: anche se il programma di ricerca centrato sulle stringhe ha ormai quasi quarant'anni, si tratta tuttora di una teoria in divenire, e la risposta al perché non si sia ancora in grado di avere predizioni controllabili va cercata nella necessità di un ulteriore raffinamento teorico, invece che in invalicabili limiti sperimentali. D'altra parte, se si vuole dar credito alla lezione della storia, la teoria ha già subito una falsificazione. La sua prima versione, sviluppatasi tra la fine degli anni sessanta e la metà degli anni settanta come una teoria delle interazioni forti alternativa alla teoria dei campi, dovette essere abbandonata in quanto le previsioni a cui portava per le interazioni forti, come l'esistenza di particelle a massa nulla di spin 2, non avevano riscontro sperimentale. Pertanto, la teoria è rinata come teoria quantistica della gravità e quindi si è sviluppata nell’attuale forma di teoria unificata di tutte le forme di interazione della materia. La gravità quantistica a loop (LQG dal termine inglese Loop Quantum Gravity) è stata proposta, anch’essa, quale teoria quantistica dello spaziotempo che cerca di unificare le apparentemente incompatibili teorie della meccanica quantistica e della relatività generale. In parole semplici la LQG è una teoria quantistica della gravità in cui il vero spaziotempo in cui accadono tutti i fenomeni fisici è quantizzato, ossia, al pari della materia, è costituito da atomi di spaziotempo, atomi di volume che hanno una capacità finita di contenere materia ed energia. Essa conserva gli aspetti fondamentali della relatività generale, come ad esempio l'invarianza per trasformazioni di coordinate, ed allo stesso tempo utilizza la quantizzazione dello spazio e del tempo alla scala di Planck (10-33 cm) caratteristica della meccanica quantistica. In questo senso essa combina la relatività generale e la meccanica quantistica. Tuttavia la LQG non è una ipotetica Teoria del tutto, perché non affronta il problema di dare una descrizione unificata di tutte le forze. La LQG è solo una teoria che descrive le proprietà quantistiche della gravità, e descrive le proprietà quantistiche dello spazio tempo, e non un tentativo di scrivere la teoria del mondo. I critici della LQG fanno spesso riferimento al fatto che la teoria non predice l'esistenza di ulteriori dimensioni dello spazio tempo (oltre alle 4 note), né la supersimmetria. La risposta dei /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 764! fautori della LQG è che allo stato attuale, nonostante ripetute ricerche sperimentali, non vi è alcuna evidenza sperimentale né di altre dimensioni, né di particelle supersimmetriche; quindi sia le dimensioni addizionali dello spazio tempo, sia la supersimmetria devono essere considerate ipotesi speculative non provate. La teoria non ha finora prodotto alcuna predizione univoca che possa essere sottoposta a verifica sperimentale, non esistono quindi conferme sperimentali della teoria; inoltre è criticata dai fautori della teoria delle stringhe. La critica più forte si rivolge al fatto che non esiste ancora una teoria efficace della LQG e quindi non è possibile verificare che essa riproduca veramente la relatività generale a basse energie. Dunque non è nemmeno chiaro che riesca a riprodurre i fenomeni già descritti dalla teoria di Einstein. 18.4 Energia e materia oscura Nella cosmologia basata sul Big Bang, l'energia oscura è un'ipotetica forma di energia che si trova in tutto lo spazio ed ha una pressione negativa. L'introduzione dell'energia oscura si è resa necessaria per spiegare le osservazioni d'un universo in accelerazione come pure per colmare una significativa porzione di massa mancante dell'universo (circa il 90%). L'esatta natura dell'energia oscura, però, è ancora oggetto di ricerca. È conosciuta per essere omogenea, non molto densa e non interagire fortemente attraverso alcuna delle forze fondamentali, tranne la gravità. Dal momento che non è molto densa, circa 10!29 g/cm3, è difficile immaginare esperimenti per trovarla in laboratorio. L'energia oscura può solo avere un impatto sull'universo, tale da costituire il 70% di tutte le energie, poiché riempie uniformemente tutti gli spazi vuoti. Due forme proposte di energia oscura sono la costante cosmologica, una densità d'energia costante che riempie omogeneamente lo spazio, e la quintessenza, un campo dinamico la cui densità d'energia varia nello spazio e nel tempo. Distinguere le possibilità richiede misure accurate dell'espansione dell'universo per capire come la velocità d'espansione cambi nel tempo. L'accelerazione dell'universo venne confermata negli anni 90. Per spiegare questo fenomeno, si ipotizzò una forza anti-gravitazionale, che permeasse tutto l'universo. Einstein, vissuto in un'epoca dominata dalla teoria dello stato stazionario (modello teorico di universo statico e finito) e credendo in questo modello, inserì nelle equazioni di campo della teoria della relatività generale la famosa costante cosmologica, per contrastare gli effetti della gravità. Quando Hubble scoprì che l'universo era in espansione, Einstein ritrattò la sua idea, definendola "il mio più grande errore". Secondo la teoria della relatività, l'effetto di una tale pressione negativa è simile, qualitativamente, ad una forza antigravitazionale su larga scala. Quando Feynman e altri svilupparono la teoria quantistica della materia, si resero conto che anche il vuoto non è realmente vuoto e possiede una sua ben definita energia. Infatti, dal vuoto appaiono coppie virtuali di particella-antiparticella, che si propagano per brevi distanze per poi annichilirsi in brevissimo tempo. Tuttavia gli effetti di queste coppie sono rilevanti, per cui dobbiamo considerare la possibilità che queste particelle virtuali conferiscano allo spazio vuoto un’energia non nulla, che, secondo la relatività generale, genera gravità, e la sua azione antigravitazionale fa 765! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! accelerare l'espansione dell'universo, come dimostrano accurate misure astronomiche sulle supernove di tipo Ia, fatte nel 1998 da due diversi gruppi di ricerca. Pertanto, oggi, la presenza di un termine cosmologico appare inevitabile per spiegare l’espansione accelerata dell’universo, anche se la sua presenza non è dettata dalla relatività, che governa la natura alle scale più grandi, ma dalla meccanica quantistica, la fisica delle scale microscopiche. Però, uno dei più grandi problemi non risolti della fisica è che la maggior parte delle teorie quantistiche dei campi prevedono un valore enorme per la costante dall'energia del vuoto quantico, che vanno da 55 a 120 ordini di grandezza in più rispetto all’energia di tutta la materia e la radiazione nell’universo osservabile, e se la densità di energia del vuoto fosse davvero così alta, tutta la materia nell’universo si disgregherebbe istantaneamente. Nonostante questi problemi, la costante cosmologica è per molti aspetti la soluzione più economica al problema dell'accelerazione cosmica. Alternativamente, l'energia oscura potrebbe derivare dall'eccitazione di particelle in alcuni tipi di campi dinamici, e chiamata quintessenza. Questa differisce dalla costante cosmologica in quanto può variare nello spazio e nel tempo. Non ci sono prove dell'esistenza della quintessenza adesso, ma non può essere eliminata a priori. Generalmente prevede un'accelerazione minore dell'espansione dell'universo rispetto alla costante cosmologica. Alcuni scienziati ritengono che la miglior prova della quintessenza derivi dalla violazione del principio di equivalenza di Einstein e dalle variazioni delle costanti fondamentali nello spazio e nel tempo. Ovviamente non mancano altre ipotesi sull’energia oscura. Alcuni teorici pensano che l'energia oscura e l'accelerazione cosmica siano prova d'un fallimento della relatività generale su scale superiori a quelle dei superammassi di galassie. Uno dei modelli alternativi sono le teorie MOND (MOdified Newton Dynamics, dinamica newtoniana modificata). Altri teorici pensano invece che l'energia oscura e l'accelerazione cosmica siano prova d'un fallimento del modello Standard del Big Bang, dato che costringe ad ammettere la presenza di qualcosa di non (ancora) esperibile. Altre idee sull'energia oscura derivano dalla teoria delle stringhe. In ogni caso, la scoperta dell’accelerazione cosmica ha cambiato la nostra concezione del futuro dell’universo. Il suo destino non è più legato alla geometria, cioè alla presenza di materia e radiazione. Una volta ammessa l’esistenza dell’energia del vuoto o di qualcosa di simile, tutto diventa possibile. Un universo piatto dominato da una energia del vuoto positiva si espanderà per sempre a velocità crescente, mentre un cosmo dominato da un’energia del vuoto negativa collasserà. E se l’energia oscura non fosse energia del vuoto, il suo effetto sull’espansione cosmica sarebbe incerto. È possibile che, al contrario di una costante cosmologica, la densità dell’energia oscura possa crescere o diminuire nel tempo. Nel primo caso l’accelerazione cosmica aumenterà, distruggendo, nell’ordine, galassie, stelle, pianeti, atomi, in un tempo finito. Ma se la densità diminuisse, l’accelerazione potrebbe arrestarsi. E se la densità diventasse negativa l’universo potrebbe collassate. Il termine materia oscura indica quella componente di materia che si manifesta attraverso i suoi effetti gravitazionali, ma non è direttamente osservabile, in quanto non emette alcuna radiazione elettromagnetica. Il concetto di materia oscura ha senso solo all'interno dell'attuale cosmologia basata sul Big Bang; infatti, non si sa altrimenti spiegare come si siano potute formare le galassie e gli ammassi di galassie in un tempo così breve come quello osservato. Non si spiega inoltre come le galassie, oltre a /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 766! formarsi, si mantengano integre anche se la materia visibile non può sviluppare abbastanza gravità per tale scopo. Anche da questa prospettiva il concetto di materia oscura ha senso solo all'interno dell'attuale Modello Standard, che prevede come unica forza cosmologica quella gravitazionale; se il Modello Standard risultasse errato, non si avrebbe necessità di materia oscura, dato che non si ha alcuna evidenza sperimentale se non le violazioni di un modello matematico. Già nel 1933 l'astronomo Fritz Zwicky (1898-1974), studiando il moto di ammassi di galassie lontani e di grande massa, ottenne una stima di massa dinamica che era 400 volte più grande della stima basata sulla luce delle galassie. Sebbene l'evidenza sperimentale ci fosse già ai tempi di Zwicky, fu solo negli anni settanta che gli scienziati iniziarono ad esplorare questa discrepanza in modo sistematico. Fu in quel periodo che l'esistenza della materia oscura iniziò ad essere considerata; l'esistenza di tale materia non avrebbe solo risolto la mancanza di massa negli ammassi di galassie, ma avrebbe avuto conseguenze di ben più larga portata sulla capacità dell'uomo di predire l'evoluzione e il destino dell'Universo stesso. Il 21 agosto 2006 la NASA ha rilasciato un comunicato stampa secondo cui Chandra (telescopio orbitale per l'osservazione del cielo nei raggi X) avrebbe trovato prove dirette dell'esistenza della materia oscura, nello scontro tra due ammassi di galassie. All'inizio del 2007 gli astronomi del Cosmic Evolution Survey e Hubble Space Telescope, utilizzando le informazioni ottenute dal telescopio Hubble e da strumenti a terra, hanno tracciato una mappa della materia oscura rilevando che questa permea l'universo; ove si trova materia visibile deve essere presente anche grande quantità di materia oscura, ma questa è presente anche in zone dove non si trova materia visibile. Un'altra prova dell'esistenza della materia oscura è data dalle lenti gravitazionali. La massa visibile risulta insufficiente per creare una lente gravitazionale, per cui si prefigura la presenza di massicce quantità di materia oscura, ottenendo una massa totale in grado di deviare il percorso della luce. Attualmente ci sono varie teorie per spiegare la massa mancante legate a diversi fenomeni. La massa oscura è divisa in barionica e non barionica: la materia oscura barionica è quella composta da materia del tutto simile a quella che costituisce le stelle, i pianeti, la polvere interstellare, ecc., che però non emette radiazioni; la materia oscura non barionica è composta da materia intrinsecamente diversa: particelle supersimmetriche, neutralini, neutrini massicci, assioni, soggetti solo alla forza gravitazionale e all'interazione nucleare debole. Questo materiale è detto WIMP (Weakly Interacting Massive Particles), particelle di grande massa unitaria debolmente interagenti con la materia barionica, e quindi difficilmente rivelabili. Si pensa attualmente che almeno il 90% della materia oscura sia non barionica. La scoperta che il neutrino ha massa, seppur estremamente bassa, potrebbe in parte spiegare l'eccesso di massa degli ammassi e superammassi di galassie, ma non quello delle singole galassie, perché esso si muove a velocità prossima a quella della luce, sfuggendo prima o poi all'attrazione gravitazionale e uscendo da esse. Altri possibili costituenti della materia oscura sono stati indicati nei MACHO (Massive Compact Halo Objects), oggetti compatti di grande massa dell'alone galattico, nei buchi neri primordiali, nelle stelle di bosoni e nelle pepite di quark. Una minoranza di ricercatori non considera soddisfacente l'ipotesi della materia oscura come spiegazione degli effetti osservati. Tra questi, Mordehai Milgrom che ha 767! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! proposto la teoria MOND, acronimo di Modified Newtonian Dynamics (dinamica newtoniana modificata). Essa prevede che sulle scale di accelerazione tipiche delle zone esterne delle galassie la legge di gravitazione universale di Newton debba essere leggermente modificata, in modo da tener conto degli effetti osservati senza fare ricorso alla materia oscura. La teoria MOND è stata anche sostenuta e rielaborata dal pioniere della termodinamica dei buchi neri, Jacob D. Bekenstein. La teoria MOND è difficilmente compatibile con la relatività generale, ma rappresenta l'ambito di ricerca meglio conosciuto realisticamente competitivo con il paradigma della materia oscura nella spiegazione dei moti galattici. 18.5 Il computer quantistico Le applicazioni di principi fisici alla tecnologia del futuro possono essere molteplici, ma fra le tante applicazioni possibili vogliamo porre l’attenzione su una in particolare, il computer quantistico, per le ovvie implicazioni che può avere sulla vita di tutti i giorni. Per lungo tempo non si è data molta importanza alle modalità fisiche secondo le quali un dispositivo di calcolo viene realizzato. Soltanto recentemente, a seguito dell'incessante progresso della tecnologia di realizzazione dei moderni computer, si è cominciato a percepire che i principi fisici secondo cui una macchina di calcolo è realizzata non possono non avere un impatto determinante sul suo funzionamento da poter trasformare un problema insolubile in problema solubile. A questa seconda possibilità cominciò subito a riflettere Feynman, tentando di concepire una macchina funzionante sulla base dei principi della fisica quantistica e aprendo in tal modo un nuovo promettente capitolo per l'informatica. Nel 1981, al Massachusetts Institute of Technology (MIT) si tenne un convegno che sarebbe stato il primo sul rapporto che esiste tra fisica e computazione. Feynman, presentò una memoria dal titolo Simulating Physics with Computers. Feynman non vedeva nulla di particolarmente eclatante nelle simulazioni approssimate della realtà fatte fino ad allora dai computer. Era, invece, interessato alla possibilità di ottenere una simulazione esatta attraverso un computer che potesse fare le stesse cose che fa la natura. Feynman già intuiva che la computazione non era solo una disciplina matematica ma anche fisica. La simulazione di un fenomeno sul computer classico richiede un mondo prevedibile in modo deterministico. Non ci sono incertezze nel comportamento di circuiti costituiti da miliardi di trilioni di atomi ed elettroni. "Ma un computer tradizionale fino a che punto può emulare il mondo quantistico?" si domandava Feynman. L'argomento, in una quarantina di anni di ricerche, ha prodotto in ambito teorico notevoli risultati, per i quali si attendono nel prossimo futuro interessanti riscontri sul piano delle applicazioni. Qui basterà dire che tutta la "Teoria della Informazione classica " è in corso di revisione. La definizione tradizionale di unità di informazione, il bit, che poggia inevitabilmente su assunti di tipo classico, avendo come oggetto di riferimento un dispositivo a funzionamento classico quale un circuito digitale, deve essere rivista ove si faccia riferimento a oggetti a funzionamento quantistico, quali lo spin di un elettrone o la polarizzazione di un fotone. Accanto al bit, basato su fenomeni di tipo classico, si deve collocare il qubit, la nuova unità di informazione basata su fenomeni quantistici. Diventa essenziale il concetto di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 768! informazione accessibile, ovvero della informazione che effettivamente si riesce a estrarre da un sistema quantistico per effetto di un'operazione di misura, ma ciò che da un punto di vista pratico è assai più importante, si comincia a valutare la possibilità teorica di concepire sistemi fisici con i quali effettuare operazioni impensabili con le tecniche classiche di computazione. Alla base del funzionamento di processi di calcolo molto promettenti stanno alcuni degli effetti quantistici. A questo proposito, però, varrà la pena di osservare che l'interesse per il calcolo quantistico non sta nel ripetere procedimenti e calcoli che possono essere eseguiti dai convenzionali computer a funzionamento classico, ma nel fatto che, mediante questa nuova tecnologia, operazioni che risultano impossibili con la tecnica tradizionale possono diventare possibili o, quanto meno, che operazioni eseguibili con scarsa efficienza con il calcolatore classico possono diventare molto più efficienti con la QC (Quantum Computing). Fra i problemi non solubili con mezzi deterministici, ma possibili in termini quantistici, si cita il problema della generazione di numeri veramente casuali, il problema della fattorizzazione di numeri molto grandi, di altissimo interesse per la crittografia, il problema della ricerca efficiente in database per la soluzione del problema del commesso viaggiatore. Infine, tutta la simulazione di fenomeni quantistici, così importante per l'esplorazione del mondo microscopico, preclusa in forma classica, diventa possibile con la QC, come brillantemente presagito dal fisico Feynman. Ma vediamo più da vicino alcune classi di problemi che un computer quantistico potrebbe affrontare. Dal punto dei vista della computabilità un algoritmo è caratterizzato dal numero di operazioni e dalla quantità di memoria richieste per un input di dimensioni x. Questa caratterizzazione dell'algoritmo determina quella che viene definita la complessità dell'algoritmo stesso. Tra i problemi considerati complessi ci sono certamente quelli che crescono come la potenza di un numero. La funzione y=x2 cresce molto rapidamente. Per valori di x molto elevati occorre eseguire moltiplicazioni sempre più laboriose. Se la potenza cresce ulteriormente, per esempio y=x4 o y=x5 la difficoltà aumenta ancora. Simili problemi, definiti polinomiali, sono oggi alla portata dei computer classici. Ma esistono problemi che crescono molto più rapidamente di quelli polinomiali. I problemi di tipo esponenziale aumentano di complessità più rapidamente di quelli polinomiali: ex cresce molto più rapidamente di x3, x5, x 7, . . per valori crescenti di x. La distinzione oggi più utilizzata è quella tra problemi che possono essere risolti in modo polinomiale (P ), e considerati trattabili, e quelli che invece non possono essere risolti in modo polinomiale e che vengono generalmente considerati intrattabili e che possono a loro volta far parte di classi diverse. Tra queste ultime la prima è la cosiddetta classe NP. Semplificando, i problemi di tipo NP non possono, in generale, essere risolti da algoritmi deterministici di tipo polinomiale e sono, quindi, in linea di principio intrattabili. NP, infatti, sta a significare non-deterministic polynomial time. Non deterministico significa che a un dato passo dell'algoritmo non si può stabilire in maniera univoca quale possa essere il passo successivo. Un pò come nel gioco degli scacchi: data una mossa dell'avversario non c'è al momento un algoritmo che possa, a priori, determinare deterministicamente, in tempo ragionevole, quale debba essere la mossa successiva. Esistono ulteriori problemi, definiti NP-completi, che fanno parte di 769! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! NP ma sono raggruppabili in gruppi tali che se si risolve un problema in tempo polinomiale allora tutto il gruppo è risolubile. Tra questi problemi rientra il celebre problema del commesso viaggiatore che debba visitare un certo numero di città, ciascuna una volta sola e senza tornare mai indietro, attraverso un percorso che abbia la lunghezza minima. Sebbene le classi di tipo NP non siano le più complesse esse contengono comunque alcuni tra i problemi, al momento, di maggior interesse. Tra questi il problema della fattorizzazione di un numero è intimamente connesso con la possibilità di decrittare un sistema di crittografia, come per esempio il sistema RSA129 che utilizza chiavi costituite da 128 cifre. È stato valutato che, se per fattorizzare un numero di 128 cifre nel 1994 sono stati necessari 5000 MIPS-anni (MIPS: milioni di istruzioni al secondo), per fattorizzarne uno di 200 cifre occorrerebbero quasi 3 miliardi di MIPS-anni. Ed è proprio nell'area di simili problemi che entra in gioco il computer quantistico. Si è recentemente scoperto, per esempio, che proprio la fattorizzazione in fattori primi di numeri molto grandi può essere affrontata con successo da un ideale computer quantistico, che usi principi base della meccanica quantistica, come la sovrapposizione e l’entanglement. Un altro problema per il quale l'impiego delle proprietà quantistiche sembra schiudere promettenti orizzonti è quello relativo alla soluzione del cosiddetto problema del corriere presente nei sistemi crittografici. Questo problema è relativo al fatto che qualunque trasmissione crittografica protetta include l'inevitabile impiego di un corriere per il trasporto della chiave. Il corriere è il punto debole di tutto il sistema (esso stesso può "tradire ", o, essere sequestrato e costretto a tradire). Non giova pensare al fatto che le due parti possano incontrarsi per lo scambio delle chiavi una volta per tutte, preventivamente a qualsiasi collegamento, perché ovvie ragioni di sicurezza consigliano di cambiare ad ogni collegamento la chiave. Dunque, alle due parti, se vogliono comunicare standosene nella propria sede, non resta altro che affidarsi ad un corriere. È possibile dimostrare teoricamente che si possono ottenere messaggi crittografati a ermeticità assoluta ove, a ogni sessione, si ricorra a chiavi realizzate con sequenze casuali di dati, in modo da non fornire al crittoanalista della parte avversa "dati storici "su cui poter lavorare. La tecnica di crittazione, con un procedimento quantistico per realizzare scambio di chiavi, produce assoluta ermeticità. Ma come può essere fisicamente costruito un computer quantistico? La realizzabilità fisica di dispositivi per QC è fortemente condizionata da un fenomeno noto come "decoerenza quantistica ", ossia l'inevitabile effetto dell'interscambio fra un sistema quantistico e l'ambiente in cui esso è immerso. Lo stupefacente effetto della sovrapposizione degli stati con la conseguente possibilità di ciò che è stato chiamato parallelismo quantistico, viene messo in seria discussione dal fenomeno della decoerenza. Comunque, molti progressi in questa direzione sono stati effettuati ed è da ritenere che in prospettiva il fenomeno delle decoerenza possa essere in qualche modo superato. Al momento non si sa se un programma quantistico possa essere eseguito per il tempo necessario senza incorrere nel fenomeno della decoerenza. Uno dei problemi più complessi da risolvere è quello di impedire che l'interferenza dei vari calcoli si rifletta sul mondo macroscopico. Infatti, se un gruppo di atomi o di molecole è sottoposto a un fenomeno di interferenza e interagisce al tempo stesso con l'ambiente macroscopico non è più possibile rilevare l'interferenza con /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 76:! misure che riguardano solo gli atomi del gruppo originario che così cessa di effettuare un'attività di calcolo quantistico utile. Attualmente ci sono almeno tre tipi di problemi che occorre risolvere: il mantenimento dello stato di sovrapposizione quantistica dei vari elementi, e quindi un effettivo isolamento dei circuiti quantistici dal mondo macroscopico che li circonda; 2. la gestione degli errori che comunque si manifestano in un complesso circuitale così delicato; 3. la sapienza costruttiva necessaria per realizzare le funzioni di calcolo che attraverso sovrapposizione, entanglement e interferenza consentono di creare risposte dalle domande e di correlare le prime alle seconde. 1. La tecnologia della microfabbricazione e lo sviluppo dei materiali per la microelettronica hanno portato e continueranno a portare ad un livello progressivo di miniaturizzazione impressionante, esponenziale, dei componenti elettronici dei calcolatori. Gli effetti quantistici, quindi, a prescindere dalla realizzazione del computer quantistico, non possono non essere tenuti in considerazione se si vuole garantire un corretto funzionamento dei microchips, quando questi vengono utilizzati in dispositivi per manipolare informazione. Grazie alla miniaturizzazione in corso si avranno anche dispositivi molecolari dove gli effetti quantistici saranno ancora più evidenti. In conclusione, gli studi sulla realizzabilità del computer quantistico ci consentiranno di studiare un’altra proprietà della fisica, a prima vista molto più astratta dell’energia, che si direbbe appartenere piuttosto all'ambito della metafisica: l'informazione. Come le osservabili della fisica, l'informazione deve essere contenuta in oggetti che possono essere del tutto diversi, le parole pronunciate sono convogliate dalle variazioni di pressione dell'aria, quelle scritte dalla disposizione delle molecole di inchiostro sulla carta, perfino i pensieri corrispondono a particolari configurazioni dei neuroni, e soprattutto, come per le osservabili della fisica, l'informazione viene lasciata immutata da certe trasformazioni. L'informazione si comporta in un qualche modo come una grandezza fisica, che può essere conservata, trasformata, misurata e dissipata. Oggigiorno tutti conosciamo il computer come eccellente elaboratore di informazioni. La facilità con cui l'informazione può essere manipolata automaticamente nasce proprio dalla universalità, dal fatto che essa può essere espressa in maniere diverse senza perdere la sua natura essenziale e che, come accade nella fisica, anche le trasformazioni più complesse si possono realizzare con tante operazioni semplici. Non c'è informazione senza un portatore fisico, ma per converso, l'informazione è essenzialmente indipendente da come essa è espressa fisicamente e può essere liberamente trasferita da una forma ad un'altra: è questo che fa dell'informazione un candidato naturale ad un ruolo fondamentale nella fisica, esattamente come energia e quantità di moto. Storicamente gran parte della fisica di base ha avuto a che fare con il compito di scoprire i costituenti fondamentali della materia e le leggi che descrivono e governano le loro interazioni e la loro dinamica. Ora comincia ad emergere come ugualmente importante e fondamentale il programma di scoprire in quali modi la natura permetta o proibisca che l'informazione venga espressa, immagazzinata, manipolata e trasmessa. L'ambizioso programma di riconsiderare i principi fondamentali della fisica 77<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! dal punto di vista della teoria della informazione è ancora nella sua infanzia, tuttavia promette di dare frutti importanti: i concetti e i metodi della informazione e della computazione quantistica sono i primi fra questi. Dai tempi di Alan Turing (1912-1954), uno dei padri dell’informatica, essenzialmente nessun cambiamento sostanziale ha avuto luogo nell'idea di che cosa sia e come operi un computer, fino a che la meccanica quantistica non ha aperto la possibilità di un cambiamento di paradigma. In effetti la logica aristotelica della macchina di Turing mal si adatta alla razionalità umana (Vero e Falso sono concetti sufficienti?). Forse un'altra logica è possibile, e questa potrebbe fornirla la meccanica quantistica. L'idea che si possa immagazzinare informazione negli stati microscopici è per i fisici una sfida senza precedenti, in quanto apre la prospettiva di usare la materia stessa nella sua struttura fondamentale per fare calcolo. La possibilità della realizzazione di questo programma è tanto affascinante quanto ardua. 18.6 Il teletrasporto quantistico L’entanglement è uno dei fenomeni più interessanti e misteriosi della fisica quantistica. E’ il fenomeno secondo cui due (o più) particelle (o sistemi fisici) possono essere interconnessi tra loro in modo così stretto che una misura effettuata su una delle due cambia istantaneamente anche lo stato dell’altra, non importa quando siano distanti. Poiché lo stato di una particella contiene tutto ciò che possiamo dire della particella stessa, allora teletrasportare un fotone significa teletrasporatare il suo stato quantistico. A parte le implicazioni di natura filosofica che un tale fenomeno solleva, molti scienziati sono certi che in futuro, l’entanglement, avrà importanti applicazioni tecniche (per il momento lasciamo al mondo della fantascienza il teletrasporto di cose o esseri viventi). Da questo punto di vista, un’idea fondamentale consiste nello sfruttare gli stati entagled per collegare tra loro i futuri computer quantistici. In generale, l’output dei computer quantistici è un qualche stato quantistico. Supponiamo ora che un altro computer quantistico, posto a una certa distanza dal primo, abbia bisogno di questo output in ingresso. La soluzione ideale consisterebbe nel teletrasportare lo stato di output del primo computer all’ingresso del secondo. 18.7 L’immagine del mondo definitiva? In questo lungo viaggio, dalle prime immagine del mondo di Anassimandro e Democrito, passando per quella di Newton, Einstein e della meccanica quantistica, abbiamo assistito, progressivamente, alla sparizione dello spazio, del tempo, delle particelle classiche e perfino dei campi classici. Ma allora, di cosa è fatto il mondo? La rsiposta, a questo punto, è semplice: le particelle sono quanti di campi quantistici; la luce è formata dai fotoni, quanti del campo elettromagnetico; lo spazio non è che un /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 77;! campo, anch’esso quantistico; e il tempo nasce dai processi di questo stesso campo. In sintesi, il mondo è interamente fatto di campi quantistici. Questi campi non vivono nello spaziotempo, ma sono campi uno sull’altro, ossia campi su campi. I campi che vivono su stessi, senza bisogno di uno spaziotempo che funga loro da sostrato, da supporto, capaci di generare essi stessi lo spaziotempo, sono chiamati campi quantistici covarianti. Lo spazio e il tempo che percepiamo a larga scala sono l’immagine sfocata e approssimata di uno di questi campi quantistici: il campo gravitazionale. I campi quantistici covarianti rappresentano la migliore descrizione che abbiamo oggi dell’apeiron, la sostanza primordiale che forma il tutto, ipotizzata da Anassimandro. Le particelle, l’energia, lo spazio, il tempo, insomma il mondo, non sono altro che la manifestazione di un solo tipo di entità: i campi quantistici covarianti. Il prezzo concettuale che è stato pagato è la rinuncia all’idea di spazio e tempo come strutture generali entro cui inquadrare il mondo. Spazio e tempo sono approssimazioni che emergono a larga scala. Kant aveva forse ragione a sostenere che il soggetto della conoscenza e il suo oggetto sono inseparabili, ma aveva torto quando pensava che lo spazio e tempo newtoniani potessero essere forme a priori della conoscenza, parti di una grammatica imprescindibile per comprendere il mondo. 18.8 I futuri premi Nobel È sempre difficile indovinare gli intenti del comitato che assegna il Premio Nobel, ed è ancora più difficile immaginare chi, in un campo così ampio come quello della fisica, otterrà un premio per una particolare scoperta. Il comitato, inoltre, permette spesso che considerazioni politiche o filosofiche interferiscano con la decisione su chi, dei candidati meritevoli, verrà premiato. Hubble non ha mai avuto un Nobel, e il premio ad Einstein, assegnato per la spiegazione dell'effetto fotoelettrico, venne concesso nonostante la teoria della relatività. Solo due fatti sono sicuri: ciascun premio può essere diviso al massimo fra tre scienziati, e non è ammessa l'assegnazione postuma. Ecco le scoperte, gli studi o le teorie, che potrebbero assegnare quasi sicuramente il premio Nobel: La scoperta della materia oscura; la teoria inflazionaria; la scoperta di anisotropie nel fondo cosmico di radiazione; la scoperta della massa del neutrino; la previsione dello spettro dei neutrini solari; la soluzione del paradosso dei neutrini solari; la scoperta dell'energia oscura; la misura della curvatura dell'universo; la predizione e la scoperta delle particelle supersimmetriche; la creazione e lo studio del plasma di quark e gluoni; la scoperta di una nuova particella pesante debolmente interagente che 77=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! contribuisca in maniera significativa alla materia oscura; l'analisi del decadimento debole del mesone B e il completamento della matrice CKM; la scoperta del doppio decadimento beta e la prova che la descrizione di Majorana (1906-1938) del neutrino è corretta; la rilevazione diretta delle onde gravitazionali. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 774! Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno Einstein !"#$%&'("#(! Ho cercato di raccontare attraverso lo sviluppo delle idee, dall’antica Grecia, ai giorni nostri, le varie immagini del mondo che l’uomo ha disegnato nella propria mente. Siamo arrivati alla descrizione definitiva della realtà del mondo? No. Il pensiero scientifico esplora e ridisegna il mondo in continuazione; è un’esplorazione continua di forme di pensiero. La sua forza è la capacità visionaria di far crollare idee preconcette, svelare territori nuovi del reale e costruire nuove e più efficaci immagini del mondo. Ciò che l’universo realmente sia non lo sappiamo, ed è senza significato cercarlo. Noi possiamo solo formarci rappresentazioni della natura che mutano con i tempi e saranno sempre incomplete. La consapevolezza dei limiti della nostra conoscenza è il cuore del pensiero scientifico. E’ lo stimolo continuo che ci permette di non considerare mai definitiva l’immagine del mondo che ci siamo costruiti, perché sono ombre proiettate sulla parete della caverna di Platone. Per imparare qualcosa in più rispetto a quello che sappiamo, bisogna avere il coraggio di mettere in discussione le conoscenze e le idee accumulate dai nostri padri. Senza questo sentimento di ribellione scientifica, i vari Anassimandro, Galileo, Copernico, Newon, Einstein, i fondatori della meccanica quantistica, non avrebbero mai messo in discussione le idee e le concezioni dei loro predecessori. Se nessuno di questi avesse sollevato dubbi e proposto nuove immagini del mondo, staremmo ancora a pensare alla Terra come a un disco piatto oppure a una palla attorno alla quale ruota l’intero universo. La grande forza della scienza, ed è ciò che la disitingue dalle altre forme del pensiero, è che attraverso ipotesi e ragionamenti, intuizioni e visioni, equazioni e calcoli, possiamo stabilire se una teoria è giusta oppure no. Nella scienza non esistono affermazioni che non possano essere messe in discussione e anche le certezze scientifiche 775! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! più radicate possono crollare davanti a nuove scoperte. Ma la scienza non consiste solamente nei risultati delle osservazioni, altrimenti una qualsiasi collezione di esse sarebbe buona quanto un’altra. E’ perché la scienza ha una struttura e un’interpretazione teorica che consentono di avere i risultati delle osservazioni, li si può correlare e farli coincidere in teorie. Ma se la scienza non è sicura di ciò che afferma perché dobbiamo fare affidamento su di essa? La risposta è semplice: la scienza è affidabile perché fornisce le risposte migliori che abbiamo al momento presente. La scienza rispecchia il meglio che sappiamo sui problemi che affronta. Quando Einstein ha mostrato che Newton sbagliava, non ha messo in discussione l’affidabilità della scienza, ma ha semplicemente dato delle risposte migliori alle domande che il mondo poneva. La natura del pensiero scientifico è critica, ribelle, insofferente di ogni concezione a priori, a ogni verità intoccabile. La scienza è alla ricerca delle risposte più affidabili, non delle risposte certe e definitive. Fare scienza significa vivere con domande cui non sappiamo (forse non sappiamo ancora, oppure non sapremo mai) dare risposta. La curiosità di imparare, scoprire, voler assaggiare la mela della conoscenza è ciò che ci rende umani, perché non siamo fatti “…. a viver come bruti, ma per seguir virtute e canoscenza”. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 776! !""#$%&'#! 8:;<=>?:@# Archimede Archimede di Siracusa (Siracusa, circa 287 a.C. – Siracusa, 212 a.C.) è stato un matematico, astronomo, fisico. È stato uno dei massimi scienziati della storia. Si hanno pochi dati certi sulla vita di Archimede. Tutte le fonti concordano sul fatto che fosse siracusano e che sia stato ucciso durante il sacco di Siracusa del 212 a.C. Tra le poche altre notizie certe vi è inoltre quella, tramandata da Diodoro Siculo, che abbia trascorso un soggiorno in Egitto, e che ad Alessandria d'Egitto strinse amicizia con il matematico e astronomo Conone di Samo, come si evince dal rimpianto per la sua morte espresso in alcune opere. Tornato a Siracusa, tenne corrispondenza con vari scienziati di Alessandria, tra i quali Dositeo ed Eratostene, al quale dedicò il trattato Il metodo e rivolse il problema dei buoi del sole. Secondo Plutarco era imparentato col monarca Gerone II, tesi controversa che trova comunque riscontro nella stretta amicizia e stima che, anche secondo altri autori, li legava. L'ipotesi che fosse figlio di un astronomo siracusano di nome Fidia (altrimenti sconosciuto) è basata sulla ricostruzione del filologo Friedrich Blass di una frase di Archimede, contenuta nell'Arenario, che nei manoscritti era giunta corrotta e priva di senso. Se questa ipotesi fosse corretta, si può pensare che abbia ereditato dal padre l'amore per le scienze esatte. Dalle opere conservate e dalle testimonianze si sa che si occupò di tutte le branche delle scienze matematiche a lui contemporanee (aritmetica, geometria piana e geometria solida, meccanica, ottica, idrostatica, astronomia ecc.) e di varie applicazioni tecnologiche. Polibio, Tito Livio e Plutarco riferiscono che durante la seconda guerra punica, su richiesta di Gerone II, si dedicò (a detta di Plutarco con minore entusiasmo ma secondo tutti gli autori con non minori successi) alla realizzazione di macchine belliche che potessero aiutare la sua città a difendersi dall'attacco di Roma. Plutarco racconta che, contro le legioni e la potente flotta di Roma, Siracusa non disponeva che di poche migliaia di uomini e del genio di un vecchio; le macchine di Archimede avrebbero scagliato massi ciclopici e una tempesta di ferro contro le sessanta imponenti quinquereme di Marco Claudio Marcello. Nel 212 a.C. fu ucciso durante il sacco della città. Secondo la tradizione 777! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! l'uccisore sarebbe stato un soldato romano che, non avendolo riconosciuto, avrebbe trasgredito l'ordine di catturarlo vivo. Nell'immaginario collettivo il ricordo di Archimede è indissolubilmente legato a due aneddoti leggendari. Vitruvio racconta che avrebbe iniziato ad occuparsi di idrostatica perché il sovrano Gerone II gli aveva chiesto di determinare se una corona fosse stata realizzata con oro puro oppure utilizzando all'interno altri metalli. Egli avrebbe scoperto come risolvere il problema mentre faceva un bagno, notando che immergendosi provocava un innalzamento del livello dell'acqua. Questa osservazione l'avrebbe reso così felice che sarebbe uscito nudo dall'acqua esclamando (héureka!, ho trovato!). Se non si avesse il trattato Sui corpi galleggianti non si potrebbe dedurre il livello dell'idrostatica archimedea dal racconto vitruviano. Un altro detto attribuito ad Archimede che ha avuto altrettanta fortuna è connesso al suo interesse per la costruzione di macchine capaci di spostare grandi pesi con piccole forze. Secondo una storia tramandata da Pappo di Alessandria e Simplicio, lo scienziato, entusiasmatosi per le possibilità offerte dalla nuova meccanica, avrebbe esclamato «datemi un punto d'appoggio e vi solleverò il mondo». La leggenda ha tramandato ai posteri anche le ultime parole di Archimede, rivolte al soldato romano che stava per ucciderlo: «noli, obsecro, istum disturbare» (non rovinare, ti prego, questo disegno). Plutarco, dal canto suo, narra tre differenti versioni della morte di Archimede. Nella prima afferma che un soldato romano avrebbe intimato ad Archimede di seguirlo da Marcello; al suo rifiuto di farlo prima di aver risolto il problema cui si stava applicando, il soldato lo avrebbe ucciso. Nella seconda un soldato romano si sarebbe presentato per uccidere Archimede e quest'ultimo lo avrebbe pregato invano di lasciargli terminare la dimostrazione nella quale era impegnato. Nella terza, dei soldati avrebbero incontrato Archimede mentre portava a Marcello alcuni strumenti scientifici, meridiane, sfere e squadre, in una cassetta; i soldati, pensando che la cassetta contenesse oro, lo avrebbero ucciso per impadronirsene. Secondo Tito Livio e Plutarco, Marcello, che avrebbe conosciuto e apprezzato l'immenso valore del genio di Archimede e forse avrebbe voluto utilizzarlo al servizio della Repubblica, sarebbe stato profondamente addolorato per la sua morte. Questi autori raccontano che fece dare onorevole sepoltura allo scienziato. Ciò non è però riferito da Polibio, che è considerato fonte più autorevole sull'assedio e il saccheggio di Siracusa. Cicerone racconta di avere scoperto egli stesso la tomba di Archimede grazie ad una sfera inscritta in un cilindro, che vi sarebbe stata scolpita in ottemperanza alla volontà dello scienziato. La fama di Archimede nell'antichità fu affidata più ancora che alle sue opere, che pochi erano in grado di leggere, al ricordo dei suoi straordinari ritrovati tecnologici. Archimede, durante la difesa di Siracusa contro l'assedio romano durante la seconda guerra punica, sempre secondo Polibio, Tito Livio e Plutarco, avrebbe inventato macchine belliche, tra le quali la manus ferrea, un artiglio meccanico in grado di ribaltare le imbarcazioni nemiche, e armi da getto da lui perfezionate. Secondo una tradizione che ha avuto grande fortuna, ma che è attestata solo in autori tardi, avrebbe usato anche gli specchi ustori, ovvero lamiere metalliche concave che riflettevano la luce solare concentrandola sui nemici, incendiandone le imbarcazioni. Moschione, in un'opera di cui Ateneo riporta ampi stralci, descrive una nave immensa voluta dal re Gerone II e costruita da Archia di Corinto con la supervisione di /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 778! Archimede. L'imbarcazione, che era la più imponente dell'antichità, fu chiamata Siracusia. Il nome fu poi cambiato in quello di Alessandria quando fu inviata in regalo al re Tolomeo III d'Egitto assieme ad un carico di grano. Un manoscritto arabo contiene la descrizione di un orologio ad acqua particolarmente ingegnoso realizzato da Archimede. Ateneo, Plutarco e Proclo raccontano che Archimede aveva progettato una macchina con la quale un solo uomo poteva far muovere una nave completa di equipaggio e carico. Questi racconti contengono indubbiamente dell'esagerazione, ma il fatto che Archimede avesse realmente sviluppato la teoria meccanica che permetteva la costruzione di macchine con elevato vantaggio meccanico assicura che fossero nati da una base reale. Secondo le testimonianze di Ateneo e Diodoro Siculo egli aveva anche inventato quel meccanismo per il pompaggio dell'acqua, impiegato per l'irrigazione dei campi coltivati, ancora noto come vite di Archimede. Una delle realizzazioni tecniche di Archimede più ammirata nell'antichità fu il suo planetario. Le migliori informazioni su quest'oggetto sono fornite da Cicerone, il quale scrive che nell'anno 212 a.C., quando Siracusa fu saccheggiata dalle truppe romane, il console Marco Claudio Marcello portò a Roma un apparecchio costruito da Archimede che riproduceva la volta del cielo su una sfera e un altro che prediceva il moto apparente del sole, della luna e dei pianeti, equivalente quindi a un moderno planetario. Nel campo prettamente scientifico, ed in particolare nella geometria, nella matematica e nella fisica, i risultati di Archimede sono straordinari. Citiamone solo alcuni. Nel breve lavoro La misura del cerchio viene dimostrato anzitutto che un cerchio è equivalente a un triangolo con base eguale alla circonferenza e altezza eguale al raggio. Tale risultato è ottenuto approssimando arbitrariamente il cerchio, dall'interno e dall'esterno, con poligoni regolari inscritti e circoscritti. Con lo stesso procedimento Archimede espone un metodo con il quale può approssimare arbitrariamente il rapporto tra circonferenza e diametro di un cerchio dato, rapporto che oggi si indica con !. Le stime esplicitamente ottenute limitano questo valore fra 22/7 (circa 3.1429) e 223/71 (circa 3.1408). Sull'equilibrio dei piani ovvero: sui centri di gravità dei piani, opera in due volumi, è il primo trattato di statica a noi pervenuto. Archimede vi enuncia un insieme di postulati su cui basa la nuova scienza e dimostra la legge della leva. I postulati definiscono anche, implicitamente, il concetto di baricentro, la cui posizione viene determinata nel caso di diverse figure geometriche piane. Ne Sulle spirali, che è tra le sue opere principali, Archimede definisce con un metodo cinematico ciò che oggi è chiamata spirale di Archimede ed ottiene due risultati di grande importanza. In primo luogo calcola l'area del primo giro della spirale, con un metodo che anticipa l'integrazione di Riemann. Riesce poi a calcolare in ogni punto della curva la direzione della tangente, anticipando metodi che saranno impiegati nella geometria differenziale. I principali risultati de Della sfera e del cilindro, opera in due libri, sono la dimostrazione che la superficie della sfera è quadrupla del suo cerchio massimo e che il suo volume è i due terzi di quello del cilindro circoscritto. Secondo una tradizione trasmessa da Plutarco e Cicerone Archimede era così fiero di quest'ultimo risultato che volle che fosse riprodotto come epitaffio sulla sua tomba. 779! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Con Sui conoidi e sferoidi Archimede definisce ellissoidi, paraboloidi e iperboloidi di rotazione, ne considera segmenti ottenuti tagliando tali figure con piani e ne calcola i volumi. Sui corpi galleggianti è una delle principali opere di Archimede, nella quale viene fondata la scienza dell'idrostatica. Nel primo dei due volumi dell'opera si enuncia un postulato dal quale viene dedotto come teorema quello che oggi è impropriamente chiamato il principio di Archimede. Oltre a calcolare le posizioni di equilibrio statico dei galleggianti, si dimostra che l'acqua degli oceani, in condizioni di equilibrio, assume una forma sferica. Sin dall'epoca di Parmenide gli astronomi greci sapevano che la Terra fosse sferica, ma qui, per la prima volta, questa forma viene dedotta da principi fisici. Il secondo libro studia la stabilità dell'equilibrio di segmenti di paraboloide galleggianti. Il problema era stato certamente scelto per l'interesse delle sue applicazioni alla tecnologia navale, ma la sua soluzione ha anche un grande interesse matematico. Archimede studia la stabilità al variare di due parametri, un parametro di forma e la densità, e determina valori di soglia di entrambi i parametri che separano le configurazioni stabili da quelli instabili. Si tratta di risultati decisamente al di là del confine della matematica classica. In Arenario, dedicato a Gelone II, Archimede si propone di quantificare il numero di granelli di sabbia che potrebbero riempire la sfera delle stelle fisse. Il problema nasceva dal sistema greco di numerazione, che non permetteva di esprimere numeri così grandi. L'opera, pur essendo la più semplice dal punto di vista delle tecniche matematiche tra quelle di Archimede, ha vari motivi di interesse. Innanzitutto vi si introduce un nuovo sistema numerico, che virtualmente permette di quantificare numeri comunque grandi. Il contesto astronomico giustifica poi due importanti digressioni. La prima riferisce la teoria eliocentrica di Aristarco ed è la principale fonte sull'argomento. La seconda descrive un'accurata misura della grandezza apparente del Sole, fornendo una rara illustrazione dell'antico metodo sperimentale. Nel lavoro Il metodo, perduto almeno dal Medioevo, e ritrovato nel 1998, è possibile penetrare nei procedimenti usati da Archimede nelle sue ricerche. Rivolgendosi ad Eratostene, spiega di usare due diversi metodi nel suo lavoro. Una volta individuato il risultato voluto, per dimostrarlo formalmente usava quello che poi fu chiamato metodo di esaustione, del quale si hanno molti esempi in altre sue opere. Tale metodo non forniva però una chiave per individuare i risultati. A tale scopo Archimede si serviva di un "metodo meccanico", basato sulla sua statica e sull'idea di dividere le figure in un numero infinito di parti infinitesime. Archimede considerava questo secondo metodo non rigoroso ma, a vantaggio degli altri matematici, fornisce esempi del suo valore euristico nel trovare aree e volumi; ad esempio, il metodo meccanico è usato per individuare l'area di un segmento di parabola. Lo Stomachion è un puzzle greco a cui Archimede dedicò un'opera perduta di cui restano due frammenti. Recenti analisi hanno permesso di leggerne nuove porzioni, che chiariscono che Archimede si proponeva di determinare in quanti modi le figure componenti potevano essere assemblate nella forma di un quadrato. È un difficile problema nel quale gli aspetti combinatori si intrecciano con quelli geometrici. Il problema dei buoi è costituito da due manoscritti che presentano un epigramma nel quale Archimede sfida i matematici alessandrini a calcolare il numero di buoi e vacche degli Armenti del Sole risolvendo un sistema di otto equazioni lineari con due /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 77:! condizioni quadratiche. Si tratta di un problema diofanteo espresso in termini semplici, ma la sua soluzione più piccola è costituita da numeri con 206.545 cifre. Archimede aveva scritto una Catottrica, ovvero un trattato sulla riflessione della luce, sulla quale si hanno solo informazioni indirette. Apuleio sostiene che si trattava di un'opera voluminosa che trattava, tra l'altro, dell'ingrandimento ottenuto con specchi curvi, di specchi ustori e del fenomeno dell'arcobaleno. Secondo Olimpiodoro il Giovane vi era studiato anche il fenomeno della rifrazione. In un'opera perduta sulla quale fornisce informazioni Pappo, Archimede aveva descritto la costruzione di tredici poliedri semiregolari che ancora sono detti poliedri archimedea. La formula di Erone, che esprime l'area di un triangolo in funzione dei lati, secondo la testimonianza di al-Biruni il suo vero autore sarebbe Archimede, che l'avrebbe esposta in un'altra opera perduta. Un passo di Ipparco trasmesso da Tolomeo in cui si citano determinazioni dei solstizi compiute da Archimede fa pensare che egli avesse scritto anche opere di astronomia. L'opera di Archimede rappresenta certamente il culmine della scienza antica. In essa, la capacità di individuare insiemi di postulati utili a fondare nuove teorie si coniuga con la potenza e originalità degli strumenti matematici introdotti, l'interesse per questioni che oggi si definirebbero "fondazionali" con attenzione agli aspetti applicativi. Archimede, più che essere matematico, fisico e ingegnere, è stato il massimo esponente di una scienza che ignorava le divisioni che l'odierna terminologia spinge a considerare inevitabili. Archimede, almeno a giudicare dalle opere rimaste, non ebbe nell'antichità eredi a lui confrontabili. La crisi che colpì la scienza rese poco comprensibili le sue opere che, non a caso, anche quando si sono conservate sono state trasmesse da una tradizione manoscritta estremamente esile. Per quello che riguarda la matematica e l'assoluto disinteresse che ha mostrato la cultura romana per tale disciplina, il Boyer afferma in modo più che pungente che la scoperta della tomba di Archimede da parte di Cicerone è stato il maggior contributo dato dal mondo romano alla matematica, e forse l'unico. Lo studio delle opere di Archimede, che impegnò a lungo gli studiosi della prima età moderna (ad esempio Francesco Maurolico, Simone Stevino, Galileo Galilei) costituì un importante stimolo alla rinascita scientifica moderna. Leonardo Leonardo da Vinci (Vinci, 15 aprile 1452 – Amboise, 2 maggio 1519) uomo d'ingegno e talento universale del Rinascimento italiano, incarnò in pieno lo spirito universalista della sua epoca, portandolo alle maggiori forme di espressione nei più disparati campi dell'arte e della conoscenza. Fu pittore, scultore, architetto, ingegnere, anatomista, letterato, musicista e inventore, ed è considerato uno dei più grandi geni dell'umanità. Leonardo fu figlio naturale di Caterina e del notaio ser Piero da Vinci, di cui non è noto il casato; il nonno paterno Antonio, anch'egli notaio, scrisse in un suo registro: «Nacque un mio nipote, figliolo di ser Piero mio figliolo a dì 15 aprile in sabato a ore 3 di notte [ attuali 22.30 ]. Ebbe nome Lionardo …». Nel registro non è indicato il luogo di nascita di Leonardo, che si ritiene comunemente essere la casa che la famiglia di ser 78<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! Piero possedeva, insieme con un podere, ad Anchiano, dove la madre di Leonardo andrà ad abitare. Quello stesso anno il padre Piero si sposò con Albiera Amadori, dalla quale non avrà figli e Leonardo fu allevato molto presto, ma non sappiamo esattamente quando, nella casa paterna di Vinci, come attestano le note dell'anno 1457 del catasto di Vinci, ove si riporta che il detto Antonio aveva 85 anni e abitava nel popolo di Santa Croce, marito di Lucia, di anni 64, e aveva per figli Francesco e Piero, d'anni 30, sposato ad Albiera, ventunenne, e con loro convivente era «Lionardo figliuolo di detto ser Piero non legiptimo nato di lui e della Chataria al presente donna d'Achattabriga di Piero del Vacca da Vinci, d'anni 5». Nel 1462, a dire del Vasari, il piccolo Leonardo era a Firenze con il padre Piero che avrebbe mostrato all'amico Andrea del Verrocchio alcuni disegni di tale fattura che avrebbero convinto il maestro a prendere Leonardo nella sua bottega già frequentata da futuri artisti del calibro di Botticelli, Ghirlandaio, Perugino; in realtà, l'ingresso di Leonardo nella bottega del Verrocchio fu posteriore. La matrigna Albiera morì molto presto e il nonno Antonio morì novantaseienne nel 1468: negli atti catastali di Vinci Leonardo, che ha 17 anni, risulta essere suo erede insieme con la nonna Lucia, il padre Piero, la nuova matrigna Francesca Lanfredini, e gli zii Francesco e Alessandra. L'anno dopo la famiglia del padre, divenuto notaio della Signoria fiorentina, insieme con quella del fratello Francesco, che era iscritto nell'Arte della seta, risulta domiciliata in una casa fiorentina, abbattuta già nel Cinquecento, nell'attuale via dei Gondi. Nel 1469 o 1470 Leonardo fu apprendista nella bottega di Verrocchio. Il 5 agosto 1473 Leonardo data la sua prima opera certa, il disegno con una veduta a volo d'uccello della valle dell'Arno, oggi agli Uffizi. L'8 aprile 1476 venne presentata una denuncia anonima contro diverse persone, tra le quali Leonardo, per sodomia consumata verso il diciassettenne Jacopo Saltarelli. Anche se nella Firenze dell'epoca c'era una certa tolleranza verso l'omosessualità, la pena prevista in questi casi era severissima, addirittura il rogo. Oltre a Leonardo, tra gli altri inquisiti vi erano Bartolomeo di Pasquino e soprattutto Leonardo Tornabuoni, giovane rampollo della potentissima famiglia fiorentina dei Tornabuoni, imparentata con i Medici. Secondo certi studiosi fu proprio il coinvolgimento di quest'ultimo che avrebbe giocato a favore degli accusati. Il 7 giugno, l'accusa venne archiviata e gli imputati furono tutti assolti "cum conditione ut retumburentur", salvo che non vi siano altre denunce in merito. Ormai pittore indipendente, il 10 gennaio 1478 ricevette il primo incarico pubblico, una pala per la cappella di San Bernardo nel palazzo della Signoria. Intanto, almeno dal 1479 non viveva più nella famiglia del padre Piero, come attesta un documento del catasto fiorentino. Fra la primavera e l'estate del 1482 Leonardo si trovava a Milano, una delle poche città in Europa a superare i centomila abitanti, al centro di una regione popolosa e produttiva. Egli decise di recarsi a Milano perché si rese conto che le potenti signorie avevano sempre più bisogno di nuove armi per le guerre interne, e riteneva i suoi progetti in materia degni di nota da parte del ducato di Milano, già alleato coi Medici. È a Milano che Leonardo scrisse la cosiddetta lettera d'impiego a Ludovico il Moro, descrivendo innanzitutto i suoi progetti di apparati militari, di opere idrauliche, di architettura, e solo alla fine, di pittura e scultura. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 78;! A Milano Leonardo trascorse il periodo più lungo della sua vita, quasi 20 anni. Sebbene all'inizio della sua permanenza egli debba aver incontrato diverse difficoltà con la lingua parlata dal popolo (ai tempi la lingua italiana quale "toscano medio" non esisteva, tutti parlavano solo il proprio dialetto), gli esperti ritrovano nei suoi scritti risalenti alla fine di questo periodo addirittura dei "lombardismi". Del 2 ottobre 1498 è l'atto notarile col quale Ludovico il Moro gli donò una vigna tra i monasteri di Santa Maria delle Grazie e San Vittore. Nel marzo 1499 si sarebbe recato a Genova insieme con Ludovico, sul quale si addensava la tempesta della guerra che egli stesso aveva contribuito a provocare; mentre il Moro era a Innsbruck, cercando invano di farsi alleato l'imperatore Massimiliano, Luigi XII conquistò Milano il 6 ottobre 1499. Il 14 dicembre Leonardo fece depositare 600 fiorini nello Spedale di Santa Maria Nuova a Firenze e abbandonò Milano con il matematico Luca Pacioli. Passato alle dipendenze di Cesare Borgia come architetto e ingegnere, lo seguì nel 1502 nelle guerre portate da questi in Romagna; in agosto soggiornò a Pavia, e ispezionò le fortezze lombarde del Borgia. Dal marzo 1503 fu nuovamente a Firenze, dove iniziò La Gioconda. Il 9 luglio 1504 morì il padre Piero; Leonardo annotò più volte la circostanza, in apparente agitazione. Il padre non lo fece erede e, contro i fratelli che gli opponevano l'illegittimità della sua nascita, Leonardo chiese invano il riconoscimento delle sue ragioni: dopo la causa giudiziale da lui promossa, solo il 30 aprile 1506 avvenne la liquidazione dell'eredità di Piero da Vinci, dalla quale Leonardo fu escluso. Ritornò a Milano nel settembre 1508 abitando nei pressi di San Babila; ottenne per quasi un anno una provvigione di 390 soldi e 200 franchi dal re di Francia. Il 28 aprile 1509 scrisse di aver risolto il problema della quadratura dell'angolo curvilineo e l'anno dopo andò a studiare anatomia con Marcantonio della Torre, giovanissimo professore dell'università di Pavia. Il 24 settembre 1514 partì per Roma ed essendo intimo amico di Giuliano de' Medici, fratello del papa Leone X, ottenne di alloggiare negli appartamenti del Belvedere al Vaticano. Non ottenne commissioni pubbliche e se pure ebbe modo di rivedere Michelangelo, dal quale lo divideva un'antica inimicizia, attese solo ai suoi studi di meccanica, di ottica e di geometria. A Roma cominciò anche a lavorare a un vecchio progetto, quello degli specchi ustori che dovevano servire a convogliare i raggi del sole per riscaldare una cisterna d'acqua, utile alla propulsione delle macchine. Il progetto però incontrò diverse difficoltà soprattutto perché Leonardo non andava d'accordo con i suoi lavoranti tedeschi, specialisti in specchi, che erano stati fatti arrivare apposta dalla Germania. Contemporaneamente erano ripresi i suoi studi di anatomia, già iniziati a Firenze e Milano, ma questa volta le cose si complicarono: una lettera anonima, inviata probabilmente per vendetta dai due lavoranti tedeschi, lo accusò di stregoneria. In assenza della protezione di Giuliano de' Medici e di fronte ad una situazione fattasi pesante, Leonardo si trovò costretto, ancora una volta, ad andarsene. Questa volta aveva deciso di lasciare l'Italia. Era anziano, aveva bisogno di tranquillità e di qualcuno che lo apprezzasse e lo aiutasse. Il 23 aprile 1519 redasse il testamento davanti al notaio Guglielmo Boreau: dispose di voler essere sepolto nella chiesa di San Fiorentino. L'uomo che aveva passato tutta la vita «vago di vedere la gran copia delle varie e strane forme fatte dalla artifiziosa natura», da lui assimilata a una gran caverna, nella quale, «stupefatto e ignorante» per la grande oscurità, aveva guardato con «paura e desiderio: paura per la minacciante e scura spilonca, desiderio per vedere se là entro fusse alcuna miracolosa 78=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! cosa», moriva il 2 maggio 1519. Il 12 agosto fu inumato nel chiostro della chiesa SaintFlorentin ad Amboise, in Francia. Cinquant'anni dopo, violata la tomba, le sue spoglie andarono disperse nei disordini delle lotte religiose fra cattolici e ugonotti. Anche se la pittura è per Leonardo l’arte suprema nella quale raggiunge vette estreme, è del suo contributo alla scienza che ci vogliamo occupare. Alla base della visione della scienza, per Leonardo, vi è l’esperienza diretta della natura e l’osservazione dei fenomeni: «molto maggiore e più degna cosa a leggere» non è allegare l'autorità di autori di libri ma allegare l'esperienza, che è la maestra di quegli autori. Coloro che argomentano citando l'autorità di altri scrittori vanno gonfi «e pomposi, vestiti e ornati, non delle loro, ma delle altrui fatiche; e le mie a me medesimo non concedano; e se me inventore disprezzeranno, quanto maggiormente loro, non inventori, ma trombetti e recitatori delle altrui opere, potranno essere biasimati». Se l'esperienza fa conoscere la realtà delle cose, non dà però ancora la necessità razionale dei fenomeni, la legge che è nascosta nelle manifestazioni delle cose: «la natura è costretta dalla ragione della sua legge, che in lei infusamene vive» e «nessuno effetto è in natura sanza ragione; intendi la ragione e non ti bisogna sperienza», nel senso che una volta che si sia compresa la legge che regola quel fenomeno, non occorre più ripeterne l'osservazione; l'intima verità del fenomeno è raggiunta. Le leggi che regolano la natura si esprimono mediante la matematica: «Nissuna umana investigazione si può dimandare vera scienza, s'essa non passa per le matematiche dimostrazioni», restando fermo il principio per il quale «se tu dirai che le scienze, che principiano e finiscano nella mente, abbiano verità, questo non si concede, ma si niega, per molte ragioni; e prima, che in tali discorsi mentali non accade sperienza, senza la quale nulla dà di sé certezza». Il rifiuto della metafisica non poteva essere espresso in modo più netto. Anche la sua concezione dell'anima consegue dall'approccio naturalistico delle sue ricerche: «E se noi dubitiamo della certezza di ciascuna cosa che passa per i sensi, quanto maggiormente dobbiamo noi dubitare delle cose ribelli ad essi sensi, come dell'essenza di Dio e dell'anima e simili, per le quali sempre si disputa e contende. E veramente accade che sempre dove manca la ragione suppliscono le grida, la qual cosa non accade nelle cose certe». Riconosce validità allo studio dell'alchimia, considerata non già un'arte magica ma «ministratrice de' semplici prodotti della natura, il quale uffizio fatto esser non può da essa natura, perché in lei non è strumenti organici, colli quali essa possa operare quel che adopera l'omo mediante le mani», ossia scienza dalla quale l'uomo, partendo dagli elementi semplici della natura, ne ricava dei composti, come un moderno chimico. È invece aspramente censore della magia. Leonardo si rivela un vero precursore, non solo nella pittura, ma anche in altri campi, come nella geologia. È stato tra i primi, infatti, a capire che cos'erano i fossili, e perché si trovavano fossili marini in cima alle montagne. Contrariamente a quanto si riteneva fino a quel tempo, cioè che si trattasse della prova del diluvio universale, l'evento biblico che avrebbe sommerso tutta la terra, monti compresi, Leonardo immaginò la circolazione delle masse d'acqua sulla terra, alla stregua della circolazione sanguigna, con un lento ma continuo ricambio, arrivando quindi alla conclusione che i luoghi in cui affioravano i fossili, un tempo dovevano essere stati dei fondali marini. Anche se con ragionamenti molto originali, la conclusione di Leonardo era sorprendentemente esatta. /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 784! Il contributo di Leonardo a quasi tutte le discipline scientifiche, fu decisivo: anche in astronomia ebbe intuizioni fondamentali, come sul calore del Sole, sullo scintillio delle stelle, sulla Terra, sulla Luna, sulla centralità del Sole, che ancora per tanti anni avrebbe suscitato contrasti ed opposizioni. Ma nei suoi scritti si trovano anche esempi che mostrano la sua capacità di rendere in modo folgorante certi concetti difficili; a quel tempo si era ben lontani dall'aver capito le leggi di gravitazione, ma Leonardo già paragonava i pianeti a calamite che si attraggono vicendevolmente, spiegando così molto bene il concetto di attrazione gravitazionale. In un altro suo scritto, sempre su questo argomento, fece ricorso ad un'immagine veramente suggestiva; dice Leonardo: immaginiamo di fare un buco nella terra, un buco che l'attraversi da parte a parte passando per il centro, una specie di "pozzo senza fine"; se si lancia un sasso in questo pozzo, il sasso oltrepasserebbe il centro della terra, continuando per la sua strada risalendo dall'altra parte, poi tornerebbe indietro e dopo aver superato nuovamente il centro, risalirebbe da questa parte. Questo avanti e indietro durerebbe per molti anni, prima che il sasso si fermi definitivamente al centro della Terra. Se questo spazio fosse vuoto, cioè totalmente privo d'aria, si tratterebbe, in teoria, di un possibile, apparente, modello di moto perpetuo, la cui possibilità, del resto, Leonardo nega, scrivendo che «nessuna cosa insensibile si moverà per sé, onde, movendosi, fia mossa da disequale peso; e cessato il desiderio del primo motore, subito cesserà il secondo». Osservò anche l'eccentricità nel diametro dei tronchi, dovuta al maggior accrescimento della parte in ombra. Soprattutto scoprì per primo il fenomeno della risalita dell'acqua dalle radici ai tronchi per capillarità, anticipando il concetto di linfa ascendente e discendente. Avendo studiato idraulica, Leonardo sapeva che per far salire l'acqua bisognava compiere un lavoro, quindi anche nelle piante in cui l'acqua risale attraverso le radici doveva compiersi una sorta di lavoro. Per comprendere il fenomeno, quindi, tolse la terra mettendo la pianta direttamente in acqua, osservando che la pianta riusciva a crescere, anche se più lentamente. Si può trarre un conclusivo giudizio sulla posizione che spetti a Leonardo nella storia della scienza dicendo che è vero che attinge dai Greci, dagli Arabi, da Giordano Nemorario, da Biagio da Parma, da Alberto di Sassonia, da Buridano, dai dottori di Oxford, ma attinge idee più o meno discutibili. È sua e nuova, invece, la curiosità per ogni fenomeno naturale e la capacità di vedere a occhio nudo ciò che a stento si vede con l'aiuto degli strumenti. Per questo suo spirito di osservazione potente ed esclusivo, egli si differenzia dai predecessori ed anticipa, per qualche aspetto nel suo metodo d’indagine, Galileo. I suoi scritti sono essenzialmente non ordinati e tentando di tradurli in trattati della più pura scienza moderna, si snaturano, a differenza del rigore scientifico di Galileo. Leonardo non è Galileo, non è uno scienziato-filosofo, ma sicuramente è un grande curioso della natura. Dove Galileo scriverebbe un trattato, Leonardo scrive cento aforismi o cento notazioni dal vero; guarda e nota senza preoccuparsi troppo delle teorie e molte volte registra il fatto senza nemmeno tentare di spiegarlo. Nel campo delle invenzioni, Leonardo anticipa i secoli della modernità. Nel 1486 aveva espresso la sua fede nella possibilità del volo umano ed individua nel paracadute il mezzo più semplice di volo. Dall'analogia col peso e l'apertura alare degli uccelli, cerca di stabilire l'apertura alare che la macchina dovrebbe avere e quale forza dovrebbe essere impiegata per muoverla e sostenerla. 785! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! I suoi appunti contengono numerose invenzioni in campo militare: gli scorpioni, una macchina «la quale po' trarre sassi, dardi, sagitte» che può anche distruggere la macchine nemiche; i cortaldi, cannoncini da usare contro le navi; le serpentine, adatte contro le «galee sottili, per poter offendere il nimico di lontano. Vole gittare 4 libre di piombo»; le zepate, zattere per incendiare