LA LEZIONE Le relazioni di indeterminazione Quando nel 1930 Werner Heisenberg pubblicò per la prima volta in lingua inglese “I principi fisici della teoria dei quanti”, le relazioni di indeterminazione non erano ancora conosciute come il principio di indeterminazione. fig.1 Particolare della copertina del libro di Heisenberg,The physical principles of quantum theory, Dover, 1949. Riproduzione del lavoro pubblicato per la prima volta nel 1930 dalla University Chicago press.; fig.2 Istituto di fisica teorica di Copenaghen nel 1920 L’inconciliabilità tra il comportamento ondulatorio e quello corpuscolare dei processi atomici era da tre anni propagandata da Niels Bohr. Secondo il fisico danese, entrambi i punti di vista erano possibili, ma la scelta del dispositivo sperimentale definiva l’ambito (ondulatorio o particellare) della trattazione del problema. Onde e particelle si escludevano a vicenda come esemplificato in seguito nella maggioranza dei testi di fisica dei quanti col famoso esperimento della doppia fenditura (si veda la lezione L'interferenza). Heisenberg non considerava però questo il nocciolo per la risoluzione della questione fisica sollevata dal suo amico Wolfgang Pauli nel 1926 con la frase: “perché non si può fissare il valore delle p insieme a quello delle q?” L’impossibilità, per la meccanica quantistica di misurare contemporaneamente e con precisione arbitraria quantità di moto e posizione di una particella era ora associata al concetto di elettrone come “pacchetto di onde” avente estensione limitata nello spazio. Provare a ridurre tale incertezza produceva un’indeterminazione nelle velocità tanto più grande quanto più era piccola la regione di spazio associata al pacchetto di onde. Il prodotto delle due incertezze, secondo il fisico tedesco, doveva essere almeno dell’ordine della costante di Planck h. E poche pagine dopo, rifacendosi a un lungo articolo di Carle Hesse Kennard del 1927, affermava: “che le relazioni di indeterminazione possono essere dedotte senza l’uso esplicito delle onde, ma solo dallo schema matematico della teoria dei quanti.” La familiare e precisa espressione della disuguaglianza: Δp Δq ≥ h/4π, tra le incertezze di due generiche variabili canoniche coniugate (p e q) si affermava con i lavori di Howard Percy Robertson. In essi, come del resto in quello di Kennard, le incertezze erano calcolate come deviazioni standard. L’unica relazione che non poteva essere dimostrata in questo modo era quella della coppia di grandezze energia e tempo: ΔE Δt ≥ h/4π. Ritornando ad Heisenberg, accanto alle dimostrazioni delle relazioni di indeterminazione in cui erano impiegate le proprietà delle onde o il formalismo della fisica quantistica, il teorico giustificava l’indeterminazione attraverso un esperimento ideale conosciuto nella letteratura come il microscopio a raggi gamma (fig.3). Immaginando di poter eseguire una misura della posizione di un elettrone per mezzo di una radiazione di lunghezza d’onda λ piccola rispetto alla luce visibile si riduceva l’incertezza Δx sulla sua coordinata x. D’altra parte, l’elevata frequenza dei raggi gamma amplificava lo scambio energetico (per effetto Compton) tra radiazione ed elettrone, producendo una grande incertezza Δpx nella quantità di moto. In termini matematici se l’errore Δx è proporzionale al valore della lunghezza d’onda, l’errore sulla componente x della quantità di moto corrispondente è inversamente proporzionale a λ. fig.3 Il microscopio ideale di Heisenberg-Bohr Il prodotto delle due incertezza era, nei primi articoli di Heisenberg, approssimato alla costante di Planck secondo la relazione: Δx Δpx ≈ h. Il dibattito tra Bohr ed Einstein, sempre con esperimenti ideali, che seguì l’interpretazione ortodossa della meccanica quantistica non è oggetto di questa lezione. Vale però la pena soffermarsi su un ultimo “esperimento” proposto da von Neumann oltre vent’anni dopo l’inizio del dibattito sulle relazioni di indeterminazione in meccanica quantistica. Facendo riferimento alle figure che seguono, la velocità di un sistema quantistico è analizzata attraverso la misura dell’effetto Doppler subito da un fotone nell’interazione con la particella massiva: Δf/f=-2v/c. Se il fotone ha un’unica frequenza f1, dopo la diffusione, la sua frequenza, per un sistema di riferimento solidale con il laboratorio, diviene f2. La differenza tra le due frequenze è appunto Δf che permette di ricavare la velocità v (c è la velocità della luce). Per non avere un impulso (treno di onde) di durata infinita invece di un’unica frequenza il fotone può essere pensato come un pacchetto di onde (si veda la lezione La propagazione delle onde). fig.4 Esperimento ideale di von Neumann per la misura della velocità di una particella a partire dall’effetto Doppler; fig.5 (a destra) Il pacchetto di onde Il pacchetto di onde di durata τ del fotone è diffuso dal corpuscolo determinando un errore Δω dell’ordine di τ-1 che si può mettere in relazione con l’incertezza sulla quantità di moto. D’altra parte la durata dell’interazione tra pacchetto di onde e particella è indeterminata, a causa sempre del tempo τ e produce un’incertezza nella rilevazione della coordinata del corpuscolo. Il prodotto delle due incertezze è tale che Δx Δpx ≅ ħ/2. Nell’esempio precedente l’incertezza sul tempo associato al pacchetto di onde si riflette nell’indeterminazione della posizione dell’oggetto quantistico, mentre l’incertezza sull’energia (frequenza) è legata all’errore sulla misura della quantità di moto del sistema quantistico. Il disturbo Δx sulla variabile coniugata alla quantità di moto del sistema in esame deriva quindi dall’incertezza della variabile coniugata utilizzata per la misura. Le relazioni di indeterminazione sulle osservabili incompatibili sono allora originate dalla relazione di incertezza dell’apparato di misura: Δω τ ≅1. Interpretazione statistica della meccanica ondulatoria e indeterminazione minima Nel periodo immediatamente precedente al V Congresso Solvay del 1927, furono ampiamente analizzate le basi fisiche della teoria quantistica. Un ultimo tassello rispetto alle considerazioni precedenti fu l’interpretazione statistica della meccanica ondulatoria dovuta a Max Born. La funzione d’onda, introdotta da Schrödinger, divenne, da allora, l’ampiezza di probabilità di trovare un sistema quantistico come l’elettrone nell’intorno della posizione x al tempo t. In modo tale che il modulo del suo quadrato moltiplicato per il volume ΔV rappresenta la probabilità di trovare la particella nel volumetto in questione. L’unica conoscenza possibile, secondo l’interpretazione statistica, è la probabilità di trovare l’elettrone (considerato come corpuscolo) in diversi punti dello spazio. Di nuovo, la posizione in un dato istante non è un concetto ben definito. Fissata la funzione di distribuzione delle probabilità è possibile, come in tutti i problemi statistici, calcolare il valore medio di x (< x >) e anche i momenti superiori. Il più importante dei quali è la deviazione quadratica media (in genere indicata come Δx=[< (x - <x>)2 >]1/2= (<x2> - <x>2)1/2. Essa rappresenta l’incertezza della misura della posizione o equivalentemente la fluttuazione della grandezza, poiché, per una funzione simmetrica rispetto al valore medio, < x - <x> >= 0. La funzione d’onda come funzione della posizione ha una rappresentazione analoga nello spazio delle quantità di moto. Per particolari sistemi è possibile che le distribuzioni di probabilità siano costanti nel tempo, si parla allora di stati stazionari. Si può allora cercare di ridurre al minimo il prodotto delle incertezze su impulso e posizione secondo il valore più piccolo della relazione di indeterminazione Δx Δpx=ħ/2. Ciò accade per funzioni d’onda dell’impulso e della posizione che seguono una distribuzione gaussiana (di nuovo teoria degli errori). fig.6 Rappresentazione della funzione di distribuzione gaussiana al variare del valore medio di x e dello scarto quadratico medio; fig.7 (a sinistra) Stati a incertezze minime e rappresentazione nello spazio delle fasi Nello spazio delle fasi (q, p) l’incertezza minima è così rappresentata da un’area all’interno della quale si colloca una eventuale misura. Negli ultimi anni è stato possibile modificare le proprietà dei sistemi quantistici in modo da migliorare la precisione di una delle due misure a discapito ovviamente dell’altra. Il procedimento, detto in inglese squeezing (spremitura), trasforma gradualmente le figure, approssimabili a ellissi di ugual area, riducendo un’incertezza e amplificando la coniugata. Nella figura seguente è descritto schematicamente il processo per misure in un condensato di Bose-Einstein. fig.8 Spazio delle fasi in un processo di squeezing. Le due osservabili sono lo spin e una grandezza collegata alla fase nematica (intermedia tra liquido e solido) Sviluppi recenti Le relazioni di indeterminazione: Δpx Δx ≥ ħ/2, Δpy Δy ≥ ħ/2, Δpz Δz ≥ ħ/2, ΔE Δt ≥ ħ/2, ecc., non rappresentarono per molti anni certo una guida per gli sperimentatori. La loro verifica fino al 1980 era sempre associata a considerazioni statistiche. Dopo aver preparato un insieme di sistemi identici, l’ensemble per il 50% era sottoposto alla misura di un’osservabile q e l’altra metà di sistemi identici serviva per la misura dell’osservabile incompatibile p. Allora le varianze (Δq)2 e (Δp)2 soddisfacevano la disuguaglianza: Δq Δp ≥ ħ/2. Le relazioni di indeterminazione ormai chiamate principio di Heisenberg, secondo il quale in ogni processo di misura su un singolo sistema quantistico non si possono misurare simultaneamente, con una precisione piccola a piacere, le due osservabili non commutative p e q, non trovava allora un’attenzione a causa diciamo delle possibilità tecnologiche. Eppure da anni gli apparati alla Stern e Gerlach e i principi di Heisenberg e Bohr erano l’introduzione della meccanica quantistica. Solo negli ultimi tre decenni gli esperimenti idealizzati dai padri fondatori della meccanica quantistica hanno trovato possibilità di applicazioni pratiche nel campo dell’ottica quantistica e nella fisica atomica, quando sono state realizzate tecniche sperimentali rivoluzionarie che permettono oggi la misura e la manipolazione di singoli sistemi quantistici. Anche il principio di indeterminazione ( o di incertezza come dicono i madrelingua tedeschi) ha avuto negli ultimi quindici anni diverse rivisitazioni. In particolare, l’idea di Heisenberg di disturbo-errore nella misura è stata separata da quella statistica di Kennard e Robertson. L’incertezza di una misura quantistica, secondo alcuni autori, di cui il capostipite si può considerare Masanao Ozawa, è dovuta a due fattori: il primo, è legato all’apparato di misurazione; il secondo, è un’incertezza intrinseca dei sistemi quantistici. Secondo questa nuova interpretazione è possibile realizzare esperimenti in cui il prodotto tra l’errore εA della grandezza A e il disturbo ηB della grandezza B sia reso anche più piccolo del valore ħ/2, proprio considerando le fluttuazioni σ A e σB intrinseche delle due osservabili quantistiche. La disuguaglianza di Heisenberg è allora trasformata secondo un’espressione del tipo: εA ηB +εA σB +σAηB≥ ħ/2. L’incertezza quantistica dipende dalla somma di un fattore perturbativo dovuto alla misura e da un secondo termine intrinseco alla natura quantistica del sistema. Prima di accennare ai tentativi di verifica sperimentale della nuova disuguaglianza, bisogna però parlare di un secondo sviluppo, non ancora condiviso dalla comunità scientifica, in cui il singolo sistema quantistico è sottoposto a una successione di misure, distinguibili per la loro intensità. Per presentare il concetto di misura debole, per la prima volta introdotto da Yakir Aharonov nel 1998, si può utilizzare una variante degli esperimenti di Stern e Gerlach. fig.9 Misure forti e deboli nella meccanica quantistica Un atomo di argento con lo spin “su”, lungo l’asse x, attraversa un magnete orientato secondo z. Se il campo è sufficientemente intenso la distinzione tra atomi con spin “su” e “giù” secondo l’asse z è chiara. Se invece si riduce l’intensità del campo, le deviazioni dei due gruppi sono così piccole che non si capisce quali siano gli atomi con spin “su” e “giù”, quindi si può pensare che una misura debole non influenzi il sistema. Eppure combinando una misura debole con una forte (come rappresentato nella terza immagine) si ottiene un risultato per certi versi inaspettato. Senza il magnete debole tutti gli atomi sarebbero finiti verso sinistra (condizione che si avrebbe con il solo magnete orientato secondo l’asse x), invece adesso pochi atomi si raggruppano in un fascio a destra come se il primo magnete dividesse effettivamente gli atomi secondo due caratteristiche. Su queste basi un gruppo di ricerca coordinato da A. Steinberg dell’Università di Toronto, lavorando sulla polarizzazione di fotoni, ha realizzato il classico esperimento della doppia fenditura ottenendo figure di interferenza delle particelle insieme a traiettorie particellari medie, “violando” in qualche modo l’assunto di Bohr di complementarità. fig.10 Aspetti ondulatori e particellari medi misurati contemporaneamente dai ricercatori dell’Università di Toronto A partire dalla combinazione di apparati deboli e forti disposti in successione per la misura di spin di neutroni, Y. Hasegawa e il suo team del Politecnico di Vienna pensano di aver avvalorato la disuguaglianza di Ozawa. fig.11 Schema misura debole dello spin di neutroni; fig.12 (a destra) Schema dell’apparato sperimentale per la verifica della disuguaglianza di Ozawa Forse è ancora presto per un radicale ripensamento del principio di indeterminazione di Heisenberg, per la revisione del principio di complementarità di Bohr, per la messa in discussione della teoria della misura quantistica di von Neumann o dell’interpretazione statistica di Born. Certo è che gli esperimenti ideali dei padri fondatori della meccanica quantistica non sono più oggetto di culto, ma sono “sporcati” da ricercatori che possono lavorare su sistemi quantistici individuali e stanno cercando di rivedere sperimentalmente e teoricamente il concetto di misura.