1 1 - Il travagliato parto della fisica moderna 1.1 – La realtà non è più quella di una volta Verso la fine del XIX secolo, i fisici vivevano felici e tranquilli in una sorta di “sazietà intellettuale”, osservando scaffali ormai stracolmi di scienza galilaeana che “sembrava” perfettamente funzionante. Spazio e tempo con dentro non solo la materia dell’Universo annidata nell’etere cosmico ma, anche, i campi, gravitazionale ed elettromagnetico, che in quell’etere si propagavano come “cause” vaganti di “effetti” che la materia subiva. La meccanica analitica esibiva una tale perfezione assiomatico-deduttiva (quasi fosse pura matematica) che non si sarebbe 2 potuto chiedere di più: era il determinismo predittivo (cioè capace di calcolare gli esiti di qualunque azione sui corpi intorno a noi, dunque il futuro del mondo) a rendere felice chi capiva quel mondo. Gravitazione e elettromagnetismo si somigliavano molto: campi a raggio d’azione infinito cioè sensibili a distanze comunque grandi, non fosse che di manifestazioni della gravitazione ce ne era una sola, l’attrazione fra e verso oggetti astronomici, dovuta alla proprietà che i corpi hanno per essere tali, quella generica presenza di “quantità di materia” che, da Isaac Newton (1642,1727) in poi si denoterà con la misteriosa parola “massa”, sia come sorgente di azioni gravitazionali sia come causa della resistenza offerta a una accelerazione impressa. Mentre campo elettrico e campo magnetico, scoperti un po’ per volta e in fenomeni apparentemente diversi, erano stati genialmente unificati da James Clerk Maxwell (1831,1879) in un solo campo, perciò “elettromagnetico”, che si manifestava anche con 3 relative onde che promettevano tecnologie utili a iosa (trasmissione di segnali a distanza) : del resto, era già chiaro che la percezione umana della presenza dei corpi materiali era tutta dovuta alle sorgenti di questo campo più che alla azione gravitazionale (il peso, determinato dall’attrazione gravitazionale del corpo enorme su cui poggiamo i piedi, la Terra) della massa. La percezione umana degli altri oggetti era però il prodigio generato dalla presenza, nello spazio, delle “cariche elettriche”, entità indistruttibili che potevano addensarsi movimento, in grumi spaziali o in correnti in con risultati diversi (modello idrodinamico delle sorgenti elettromagnetiche). Pure, la matematica dei fisici-matematici ottocenteschi era riuscita a creare un linguaggio adattabile alla realtà, molto più controllabile del linguaggio comune pieno di metafore fuorvianti. A grandezze molto intuitive e comuni come quelle utili a precisare la posizione relativa di due punti, P e P’ nello spazio, si era associato 4 un simbolo detto espressivamente vettore che oltre a misurare la distanza tra P e P’ indicava in che direzione muoversi e in che verso procedere per andare da P a P’. Un vettore non era più un simbolo con un semplice possibile valore numerico, ma un simbolo contenente tre informazioni indipendenti (modulo, direzione e verso) e perciò indicato con una lettera sormontata da una freccina: v, oppure, per semplicità tipografica, all’uso anglosassone. in “grassetto corsivo”: v La velocità di un punto materiale è evidentemete rappresentabile come un vettore associato a quel punto e variabile istante per istante: ma anche il campo elettrico e il campo magnetico sono vettori: E ed H. Quando si vogliono rappresentare tutte le velocità che potrebbe assumere un corpo in movimento si dice che si parla di in campo velocità; e così per i campi E ed H 5 prodotti da sorgenti (cariche elettriche o correnti di cariche). Questi due campi sembravano avere una parentela stretta; ma solo Maxwell ebbe il coraggio di anticipare che potessero essere le manifestazioni diverse di un unico campo. L’unificazione, la prima della storia, era stata poi esplicitata in una prodigiosa matematica: il calcolo tensoriale di Hermann Minkowski (1864, 1909) (Heidemann (1972)), che rappresentava “a vista” tutte le proprietà dei campi e delle sorgenti, da quelle dette di invarianza a quelle dette di conservazione. Questo calcolo tensoriale era nato come la matematica adatta a rappresentare la fisica dei cristalli, le azioni e deformazioni su oggetti cristallini portatori di regolarità geometriche evidenziabili nell’aspetto di loro frammenti, Nacque ad opera di Woldemar Voigt (Lipsia 1850 - Gottinga 1919), come generalizzazione del calcolo vettoriale. Il problema confluì con un altro che 6 riguardava la “geometria degli spazi”, immaginato da Bernhard Riemann (1826, 1866) nell’intento di dare f0rma generale al trattamento degli spostamenti su superfici (“spazi”) curve in un numero qualsiasi di dimensioni (pensate agli spostamenti su una sfera, che dipendono in modo non banale dal raggio e dalle coordinate dette paralleli e meridiani). Hermann Minkowski coronò la sua opera fabbricando una matematica dei tensori che generalizzava quella dei vettori: regole di moltiplicazione, regole di trasformazione, con particolare riguardo al problema dell’invarianza rispetto a speciali trasformazioni. Cioè della ricerca di trasormazioni rispetto alle quali una grandezza costruita con quei tensori resta invariata (come succede già ai vettori per la loro lunghezza modulo - quando si esegue una traformazione che rappresenta una rotazione rigida delle coordinate del sistema di riferimento). 7 Russell McCormack scrisse (più tardi) un libro che carpiva i pensieri sotto sforzo con questo titolo: Incubi notturni di un fisico classico, perché alcuni spregiudicati avevano rotto l’ordine raggiunto con la relatività (per lo spazio-tempo) e con le anomalie del corpo nero (per la termodinamica della radiazione). I leaders degli “scontenti” dello “status quo ante” si chiamavano Albert Einstein (1879, 1955) , e Max Planck (1858,1947); e siamo al cambiamento di secolo dal XIX al XX. Ma il panico serpeggiante nelle accademie era generato soprattutto dalla necessità di abbandonare alcune percezioni radicate nella realtà di tutti i giorni che, ancora oggi, infestano il pensiero dei non-scienziati. Davvero è possibile che lo spazio sia vuoto e che le onde, prese in prestito per imitazione da quelle del mare o da quelle sonore, non abbiano bisogno di scuotere un etere materiale per farlo vibrare e viaggino 8 in quello spazio “vuoto” (nel “nulla”) che faceva inorridire Aristotele? Il più grosso cambiamento nel modo di “capire” le nuove teorie della fisica veniva da qualcosa che Galilei aveva già anticipato (con la “relatività galilaeana”) prima che Newton e Gottfried Wilhelm Leibniz (Lipsia, 1º luglio 1646 – Hannover, 14 novembre 1716) non meno di lui introducessero quel “calcolo infinitesimale” che permetteva di eseguire calcoli predittivi con le”equazioni del moto”. Nel XIX secolo era nata , ad opera di Felix Klein (Düsseldorf 1849 Gottinga 1925) e Sophus Lie (Nordfjordeid, 17 dicembre 1842 – Oslo, 18 febbraio 1899) una teoria dei gruppi di trasformazioni che permetteva di prescrivere proprietà generali delle teorie fisiche stesse per ogni tipo di fenomeno che utilizzasse per esempio, una certa rappresentazione dello spazio e del tempo. Dal fatto, per esempio, che lo spazio e il tempo fossero omogenei e uniformi si ricavavano importanti leggi di 9 conservazione (energia, quantità di moto, momento angolare) per ogni sistema fisico isolato immerso in quello spazio-tempo. Risultati generali al riguardo li otterrà Amalia Emmy Noether (Erlangen, 23 marzo 1882 – Bryn Mawr, 14 aprile 1935) nel 1925. (Bonolis,2010). Per completare l’elenco sommario dobbiamo solo ricordare che più tardi, nel secondo decennio del ‘900, due matematici italiani, Gregorio Ricci Curbastro (Lugo 1853 - Bologna 1925) e Tullio Levi Civita (Padova 1873 - Roma 1941) fornirono a Einstein quel “calcolo differenziale assoluto che completava il calcolo tensoriale indispensabile alla costruzione della Relatività Generale come teoria dello spazio tempo appropriata alla gravitazione. La cosa era assai malvista anche tra i matematici che avevano preso tutt’altra strada rifiutando i tensori (senza alcun successo; cf. Boggio, 1924). In questo clima di radicale mutamento del modo di “fare teoria” in fisica – che è già molto 10 complesso in fatto di significati di linguaggi simbolici – si aggiungono, come già menzionato citando i nomi di Einstein e Planck, la relatività speciale e il corpo nero. Siamo al 1905, annus mirabilis, come poi lo si chiamerà. Einstein si chiede se è vero che la luce ha a che fare con l’etere cosmico e poi sostiene che l’etere è inutile e non esiste affatto e che il vuoto è vuoto e basta. Se le equazioni del moto dei corpi materiali soddisfano all’invarianza di Galilei (relatività galilaeana) che vuole che la velocità sia un concetto relativo (un corpo materiale si muove solo rispetto a qualcos’altro e non esiste una velocità assoluta nello spazio vuoto), le equazioni di Maxwell per i campi elettromagnetici sembrano soddisfare un diverso principio, sono invarianti rispetto a trasformazioni dello spazio e del tempo che si chiameranno “di Lorentz” (in onore del grande olandese Hendrick Antoon Lorentz (1853, 1928), che esplicitò la formula generale delle forze elettromagnetiche su una carica puntiforme in moto in 11 un campo) . Le traformazioni di Lorentz si riducono a quelle di Galilei per velocità dei corpi piccole rispetto a quella della luce (c 3.108 m/s). Ma per grandi velocità cambia la nozione elementare di velocità e la “composizione” della velocità di un corpo con quella di un osservatore in moto non è come ce la immaginiamo camminando sui tapis roulant: Addirittura, la velocità della luce resta c per qualunque osservatore e per qualunque sorgente, fermi o in moto che siano. Su questa strada, è il tempo stesso che cambia proprietà: due eventi simultanei se osservati in un sistema di riferimento non lo sono più se li osserviamo da un riferimenro in moto. Nessun corpo materiale può raggiungere velocità superiori a c. Bisogna aggiornare la meccanica di Newton perché sia invariante rispetto alle reasformazioni di Lorentz. E qui viene il colpo di scena che Einstein stesso non si aspettava: la nuova meccanica contiene in sé il risultato che un corpo di 12 massa M, anche da fermo, possiede una energia “di riposo” E = Mc2 Questa è forse, oggi, la formula più famosa (e meno capìta) del mondo: l’ equivalenza massa-energia. 1.2 – Problemi con le onde elettromagnetiche. La teoria di Maxwell delle onde elettromagnetiche è già di per sé invariante rispetto alle trasformazion di Lorentz; ci mancherebbe che non lo fosse! Allora, si salva? Il fatto è che, come Maxwell già ben sapeva, anche le radiazioni elettomagnetiche possiedono e portano in giro energia. Il nosto Sole docet: oggi “energia solare” è un luogo comune; ma anche i forni, i camini, i fiammiferi ecc. Viene una legittima curiosità: che relazione c’è tra la temperatura della sorgente e l’energia delle radiazioni emesse. Qui incontriamo un esercito di giganti della fisica: Josef 13 Stefan (1835, 1893) e Ludwig Boltzmann (1844, 1906), Wilhelm Wien (1864,1928), Otto Richard Lummer (1860, 1924), Ernest Pringsheim (1859, 1917). L’idea astuta, come si suol dire, fu quella di ideare un campione riproducibile che consistesse in una superficie che emette o assorbe luce senza rifletterla nello spazio. Quei grandi ricercatori, adusi a raffinatssime tecniche sperimentali (spettoscopia), conclusero che un piccolo foro in una scatola peraltro chiusa aveva la proprietà di assorbire tutta la radiazione proveniente dall’esterno che lo colpisse e dopo avere vagato nella scatola e scambiato energia con le pareti interne - avrebbe avuto probabilità piccola a piacere di riuscirne. Quel poco che ne fosse tornata nello spazio esterno sarebbe perciò stata “radiazione di un corpo nero”, con una distribuzione di lunghezze d’onda della radiazione determinata dalla temperatura, facilmente misurabile, della scatola. Pensate a un firno di un metrocubo con iun forellino da un centimetro 14 quadro. Stefan trovò che l’intensità totale emessa è proporzionale alla quarta potenza della temperatura assoluta T (Kelvin, pari alla Celsius + 273o ) I = T4 dove è, appunto, la “costante di Stefan- Boltzmann” perché Ludwig Boltzmann arrivò al risultato anche per via teorica. Wien ebbe un gran ruolo (da cui il Nobel nel 1911) nel capire che la distribuzione delle lunghezze d’onda della radiazione di corpo nero misurata da Lummer e Pringsheim aveva un massimo a una lunghezza d’onda inversamente proporzionale alla temperatura assoluta T: max T = costante per cui T prese la denominazione di “temperatura di colore”, permettendo, per esempio, di giudicare dal valore di max la temperatura superficiale delle stelle lontane. I risultati sperimentali sembravano tutti compatibili tra loro e con le proprietà generali prescritte da Wien per 15 la compatibilità con la nozione di termodinamica all’equilibrio tra corpi caldi dell’epoca. Ma la teoria spingeva inesorabilmene a prevedere che al diminuire della lunghezza d’onda (ovvero all’aumentare della frequenza, perché il prodotto della frequenza f per la lubghezza d’onda delle radiazioni elettromagnetiche nel buoto è pari alla velocità della luce: f = c) l’energia della radiazione diventasse infinita: da cui il modo di dire “catastrofe ultravioletta”. Wien mostrò che un riduzione dell’energia emessa a grandi frequenze con una legge esponenziale con esponente proporzionale al rapporto frequenza/temperatura non era incompatibile con la termodinamica. MaxPlanck partì da qui per scrivere la sua legge della distribuzione dell’energia del corpo nero. Ma per questo, bisognava che l’energia di un raggio luminoso fosse proporzionale all sua frequenza f e non alla ampiezza dll’onda. Il che spingeva a pensare che la radiazione fosse sbriciolata in una sorta di “aghi elettomagnetici” come li chiamò 16 Einstein; “quanti”, come li chiamò Planck. La storia cambiò buscamente corso: non bastava la relatività. Ora anche la quantizzazione della radiazione, con i suoi peculiarissimi costituenti che di lì a poco si sarebbero chiamati fotoni, come se fossero particelle. E tali in effetti sembravano con le osservazioni di Einstein sui dati dell’effetto fotoelettrico già raccolti dai difensori razzisti della “fisica ariana” (ma questa è una storia a parte). Che si comportassero esattamete come particelle, questi fotoni, lo dimostrò, molti anni dopo, con l’ “effetto Compton”, Arthur Holly Compton, (1892, 1962). Una radiazione elettromagnetica, di una certa intensità misurata dall’ampiezza dell’onda, era in realtà una moltitudine di fotoni di cui l’intensità nisurava il nimero; e la freqienza determinava l’energia In un urto fotone-elettrone i due si scambiano energia e quantità di moto come compete a due vere particelle relativistiche di cui una addirittura di massa nulla (il fotone) e l’altra di massa pari a quella di un costituente 17 della materia, l’elettrone. Massa - a quel punto della storia - ormai ben nota (vedremo tra poco i valori misurati e le unità di misura appropriate). E’ l’effetto Compton a rivelare che la radiazione elettromagnetica, incontrando una carica elettrica vagante, non si comporta come un’onda che può essere assorbita mettendo una carica in vibrazione sulla stessa frequenza, ma come un flusso di corpuscoli che possono essere deflessi da quella carica dal loro percorso rispettando le leggi di conservazione dell’energia e della quantità di moto (“impulso”, di qui in poi, secondo il gergo invalso); il che corrisponde a una diminuzione di frequenza di ciascun fotone diffuso. Ma le difficili misure di Compton, a cui si deve la vera nascita del fotone, arrivano solo nel 1923, anche se le congetture di Planck e Einstein risalivano a molti anni prima (corpo nero ed effetto fotoelettrico). Ormai, si può ben dire che una nuova e misteriosa costante, detta “costante di Planck” e indicata di lì in poi con h, è 18 entrata nella fisica arreaverso la relazione “fotoelettrica” tra energia E e frequenza dei fotoni: E =hf. Siamo agli albori di una scienza nuova che metterà insieme relatività e quantizzazione: l’elettrodinamica quantistica (QED = Quantum Electro Dynamics per gli anglosassoni). Già Maxwell sembrava un prodigio, ma ora… Sta accadendo qualcosa di veramente sconvolgente rispetto alle percezioni dei nostri sensi: la radiazione elettromagnetica un po’ si comporta come onde, come aveva capito Maxwell, un po’ come cospuscoli, come avevano capito Einstein e Compton. Corpuscoli che più relativistici non si può; di massa nulla, che viaggiano tutti alla velocità della luce c. Inaudito! Ma non finisce qui: nei vecchi laboratori ottocenteschi fior di tecnici aiutano i loro capi accademici a tirar fuori risultati sorprendenti dalle cose che da sempre abbiamo sotto gli occhi. Già nel 1887, l’nglese J.J.Thomson (1856, 1940) congettura la natura corpuscolare dei raggi catodici : quei raggi emessi da 19 un catodo, un filamento incandescente di polarità elettrica opportuna (appunto, catodo) messi in moto da un campo elettrico, oggi diremmo come in un comune vecchio televisore: finendo su uno schermo fluorescente, marcano il punto di arrivo con un puntino luminoso. Si può far muovere il puntino a piacimento usando campi elettrici o magnetici esterni al tubo a vuoto in cui la particella si muove senza ostacoli. Nel 1895, W.C. Roentgen (1845, 1923) scopre i raggi X e la loro capacità di attraversare spessori di materiali leggeri. Nel 1896 A.H.Becquerel (1852, 1908), studioso della fosforescenza, scopre, per caso, la radioattività di minerali d’Uranio lasciati in un cassetto su lastre fotografiche vergini. Nel 1899 J.J. Thomson scopre che sono corpuscoli carichi che costituiscono i raggi catodici : il rapporto 20 carica/massa è enorme rispetto a quello degli elettroliti positivi, di segno opposto. Verranno chiamati elettroni. Nel 1900 avvengono le prime determinazioni di vite medie dei decadimenti casuali degli atomi radioattivi: gli atomi emettendo sembrano raggi trasmutare rivelabili di spontaneamente diverso tipo, comunemente classificati come , , e (vedremo in cosa differiscono). Nel 1911, E. Rutherford (1871, 1937) propone il modello nucleare detto planetario degli atomi : particelle di carica elettrica positiva (ioni corrispondenti ai nuclei) attorno alle quali gli elettroni si dispongono su orbite come i pianeti attorno al Sole. Il 1912 è l’anno della rivelazione dei raggi cosmici nell’alta atmosfera (sono tracce di particelle cariche veloci) Nei 1913, il raffinamento delle misure ottiche permette di collezionare dati precisissimi sulla presenza, nella luce emessa dagli elementi chimici, cioè dai cosiddetti 21 “spettri” atomici, di peculiari “righe” caratteristiche di quell’elemento. Radiazioni corrispondenti a quelle stesse “righe” saranno assorbite completamente se presenti nella luce bianca che attraversi quell’elemento lasciando spazi neri (righe di assorbimento). Coincidenze numeriche impressionanti portano alla rideterminazione della costante h di Planck, un parametro fondamentale e universale che dominerà la fisica microscopica. Nel 1914 si otterrà la prima misura della distribuzione delle energie dei raggi beta (elettroni) del decadimento radioattivo. Suscita una certa meraviglia il fatto che gli elettroni du decadimento non siano tutti della stessa energia; così infatti avrebbe dovuto essere, per le leggi di conservazione, se il nucleo originario si fosse disintegrato in un nucleo residuo più un elettrone, entambi ben identificabili. Ma l’elettrone emesso assumeva invece tutte le possibili energie fino a quella attesa nel decadimento in due soli corpi. Con la 22 spregiudicatezza latente di quei tempi, si arrivò a pensare che la conservazione dell’energia potesse essere solo statisticamente vera! Il cauto conservatorismo dei fisici ora si scatena in pieno: salvare il salvabile aggiungendo nuove “regole d’uso”: ogni interpretazione plausibile sarebbe stata una grande scoperta. L’atomo di Niels Bohr e Arnold Sommerfeld ne è una delle prove, ma non la sola. L’idea di base è che una grandezza meccanica ben nota ai fisici matematici (ma poco usata nella pratica comune), l’azione, sia “discreta”: solo multipla della costante di Planck h apparsa nello spettro del corpo nero. La presenza di h sarà da lì in poi il “marchio di fabbrica” della niova fisica, la fisica “quantistica”: se un risultato teorico contiene h, inutile tentare di ottenerlo anche con la fisica classica. Si capisce anche che l’energia (da cui l’azione dipende) venga emessa o assotbita dagli atomi per salti (i “salti quantici”) da un valore dell’azione a un altro . Le azioni che 23 determinano i valori (momento angolare, energia, p.es.) delle grandezze conservate in un sistema fisico isolato (p.es. un atomo) definiscono lo “stato” in cui il sistema si trova nel suo centro di massa. Un grande successo viene dalla ricostruzione della “formula di Balmer” (Johann, 1885, un insegnante svizzero) che descrive alcune righe dello spettro dell’idrogeno atomico con estrema accuratezza. Le frequenze delle righe di Balmer si ordinano nello spettro dell’idrogeno atomico come differenze (“salti quantici”) di valori determinati da una costante per l’inverso del quadrato di un numero intero; e possono essere lette, a questo unto come energie accessibili a elettroni atomici divise per la costante h di Planck. L’aspetto più sonvolgente della meccanica così ricostruita è che gli elettroni che girano attorno al nucleo, lungi dal perdere energia con continuità sino a piombare sul nucleo (come farebbero, 24 nella teoria di Maxwell, girando su orbite circolari in un campo elettrico o magnetico o oscillando in una antenna), girano senza irraggiare e formano stati stabili (tra cui si distingue uno “stato fondamentale” , di più bassa energia) e altri stati di più alta energia che possono decadere nel fondamentale emettendo un fotone di frequenza ben definita che si manifesterà in una “riga spettrale”.Voila: ecco che tutti i fisici si buttano a corpo morto sulla spettroscopia, la scienza degli anni ’20. C’è una prima particella elementare sicura: l’elettrone; di lì a poco sarà raggiunto dal fotone che Einstein aveva già in pectore dal 1905, con l’effetto fotoelettrico, ma si manifesterà come una vera particella solo con l’ “effetto Compton” (Arthur Holly, 1892, 1962), cioè in un urto fotone-elettrone – come abbiamo già detto poche pagine fa - in cui i due si scambiano energia e quantità di moto come compete a due vere particelle 25 relativistiche di cui una di massa nulla (il fotone) e l’altra di massa pari a quella di un elettrone. E’ intorno a queste acquisizioni che scoppia il caso della “ambiguità della natura”. Le entità microscopiche si comportano a volte come corpuscoli a volte come onde: è il “dualismo onda - corpuscolo”. Nessuno nega che i fotoni producano figure di interferenza come tutte le onde che si rispettino; né che gli elettroni scambino energia e impulso con le altre particelle che urtano. Ma la sorpresa, fu che se uno predispone un rivelatore di onde vede onde; se predispone un rivelatore di corpuscoli vede corpuscoli. Come Compton per i fotoni, Clinton Davisson (1881,1958) e Lester Germer (1896, 1971) spararono per caso elettroni contro un cristallo uscenti formavano e videro che da lì le particelle una “figura di diffrazione”, esattamente come un’onda che intercetta un cristallo o una fenditura. Tra le prime reazioni, il conservatorismo spinto portò a dire che le conoscenze teoriche erano 26 incomplete nel senso che non tutte le variabili erano state identificate e prese in considerazione (“variabili nascoste”). Einstein ci mise il suo peso e disse la famosa frase “Dio non gioca a dadi”, che alimentò il disorientamento derivante dalla perdita “di principio” del determinismo. Siamo ormai all’anno 1925. 1.3 – Idee e scoperte. I “fisici teorici” non sono semplicemente dei fisici che sanno la matematica dei matematici; sono fisici che sanno fare modelli calcolabili del comportamento di un sistema osservabile del quale hanno identificato le variabili che contano ed eliminato quelle che non contano nulla: nel moto di una palla da tennis, il colore della palla non conta nulla, il vettore velocità impressa nel colpo è importantissimo. Dunque, i fisici teorici 27 sono manipolatori di simulacri dei sistemi reali ripuliti del superfluo al fine di sapere come si comportano. Questo porta al confronto sperimentale tra ciò che fa il sistema reale e ciò che fa il simulacro: ora, se il sistema reale si comporta a volte come onda a volte come corpuscolo, l’ambiguità e il disorientamento sono totali. La nozione di punto materiale con le sue precise coordinate di posizione e la sua precisa velocità in quel punto diventa molto problematica e genererà di lì a poco, un “principio di indeterminaziome”. Proprio così stavano le cose nel 1925! Giancarlo Wick (1909,1992), uno dei grandi fisici teorici italiani, professore a Padova, nel 1940 scrisse un breve saggio dal titolo L’idea di probabilità nella fisica dei quanti (Wick, 1940) . Nel saggio, si legge: “Possiamo dire che l’assurdo 28 descritto non viene di fatto presentato dalla Natura ma dal nostro modo imperfetto di collegare tra loro esperienze di natura diversa.” Una tale affermazione richiedeva, ancora all’epoca, un notevole coraggio intellettuale supportato da una cultura ancora in ebollizione. Enrico Persico scriverà, per ridere al suo modo arcaico e dotto dei “cannibali” che sarebbero i conervatori a oltranza, per gli amici della scuola di Roma che accettano le nuove idee: Al di là dell’Appennino Padre Enrico giunto è Ed insegna altrui il cammino Sulla strada della fè. Incomincia la lezione Col precetto elementare Che è cattiva educazione Carne umana divorare, Narra poscia ch’oltre i monti Vivon popoli fedel Che del ver le sacre fonti 29 Ricevuto hanno dal Ciel: Essi han d’h il sacro culto Han nei quanti piena fè E per loro è grave insulto Dir che l’atomo non c’è. Sono pur bestemmie orrende Il negar che c’è la psi Che valor non nullo prende q x p che dell’orbite ai momenti s’addizionano gli spin e elettroni equivalenti son dettati dal destin. Credon poi con fè profonda Cui s’inchina la ragion Che la luce è corpo ed onda Onda e corpo è l’elettron. Sono questi i dogmi santi Ch’egli insegna agli infedel Con esempi edificanti Appoggiandosi al Vangel. Padre Enrico (Persico) nella gerarchia ecclesiastica di via Panisperna era stato designato come Cardinale di Propaganda Fide, dopo Fermi, il Papa (infallibile) e Rasetti (il Cardinal Vicario). Il Vangelo era la “Fisica atomica” pubblicata da Persico per Zanichelli. Il capo dei cannibali, ostinato difensore della fisica classica, era l’ottico fiorentino Vasco Ronchi, peraltro scienziato coltissimo. La psi di cui parla è la funzione d’onda di Schrödinger; q e p sono le incertezze sulla posizione e sul momento secondo il principio di indeterminazione di Heisenberg 30 E’ forse il caso di dire qui, sottilineandone l’importanza, che la nozione più utile a chi si occupa di collisioni tra oggetti in moto è quella di sezione d’urto, generalmente indicata con . Il nome è evocativo di una rappresentazione mentale basata su particelle viste come palline sferiche, ma forse non abbastanza: nemmeno un giocatore di biliardo lo userebbe. Quando si lanciano due oggetti solidi uno contro l’altro, per avere idee sul loro incontro bisogna saper valutare che cosa accade se vengono a contatto; allora, conviene pensare che ciascuna pallina, nel suo moto rettilineo indisturbato, invade un tubo cilindrico di sezione circolare di raggio pari al suo. I tubi delle due palline si incrocieranno a uno degli angoli possibili e l’urto avverrà all’incrocio secondo la sovrapposizione che regola il contatto tra le due . Se invece di essere palline solide sono punti materiali che esercitano qualche forza che influenza la loro traiettoria già a distanza, può essere utile convertire il calcolo della 31 probabilità che schizzino una sull’altra, in direzioni diverse da quelle iniziali, in aree equivalenti di superfici di contatto che renderebbero intuibile l’evento raffigurandoselo appunto, con palline (come in un biliardo). Dopodiché, se si spara un fascio di particelle (p.es. elettroni) su un bersaglio fatto di altre particelle (p. es. nuclei) la conoscenza della sezione d’urto - tenendo conto di 3 parametri dell’esperimento: 1)flusso dei “proiettili” (numero di elettroni che arrivano per unità di area e di tempo), 2) spessore del bersaglio attraversato, 3) densità dei nuclei nel bersaglio - permetterà di sapere quanti elettroni saranno rimossi dal fascio. In quel caso, si dirà che si osserva la totale. Se invece si misurano i soli elettroni che escono avendo cambiato direzione di un angolo dato entro un certo cono di larghezza prefissata (“angolo solido”), si dirà che si misura la differenziale a quell’angolo. Questa differenziale apparirà, nel caso di onde, come una “figura di diffrazione” se raffigurata 32 in funzione dell’angolo di “scattering” (si usa comunemente questo anglismo per le collisioni) dell’elettrone. Ed ecco che l’immaginazione prende il sopravvento: Louis De Broglie (1892,1987), nel 1923, prende molto sul serio la relazione con cui Einstein ha interpretato l’effetto fotoelettrico. L’energia portata da un’onda elettromagnetica non dipende dall’ampiezza del campo ma è proporzionale alla frequenza ; guarda caso, la costante di proporzionalità è proprio quella costante di Planck, h, già spuntata nello spettro del corpo nero. Allora E = h sarà l’energia di un fotone. Come abbiamo già detto, de Broglie generalizza: anche gli elettroni sono “associati” a “onde” di energia hf e di impulso h/, dove è una lunghezza d’onda. Ormai manca poco al grande passo: di lì a poco, nel 1925, Werner Heisenberg (1901,1976) a Lipsia e Erwin Schroedinger (1887,1961) a Dublino (1926), presentano due “nuove meccaniche” che grazie a Max Born (1882, 1970) saranno riconosciute come la 33 “rappresentazione di Heisenberg” e la “rappresentazione di Schroedinger” di una stessa meccanica quantistica, compatibile con “corpuscoli che sono onde oppure onde che sono corpuscoli”. Lo sconvolgimento è totale, oltreché duplice: una rappresentazione di Heisenberg e una di Schroedinger! Naturalmente, c’era stato un passo intermedio, dopo il suggerimento di DeBroglie sul tappoto tra lunghezza d’onda e quantità di moto delle particelle: la quantizzazione semiclassica di Niels Bohr ( , ) e Arnold Sommerfeld ( , ) di cui abbiamo fatto cenno a pg 17 34