Fondamenti e Concetti della Fisica Contemporanea Roberto Casalbuoni Dipartimento di Fisica, Università di Firenze Sezione INFN, Firenze Istituto di Fisica Teorica Galileo Galilei, Arcetri, Firenze Appunti delle lezioni tenute all’Universita’ di Firenze nell’a.a. 2013/2014 nell’ambito della Laurea Magistrale in Logica, Filosofia e Storia della Scienza. Indice Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 Spazio delle fasi in meccanica classica e meccanica quantistica 1.1 Spazio delle fasi classico . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Lo spazio delle fasi in meccanica quantistica . . . . . . . . . . . . . 1.2.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Spazi vettoriali con prodotto interno . . . . . . . . . . . . . 1.2.3 La notazione di Dirac . . . . . . . . . . . . . . . . . . . . . 1.3 Variabili dinamiche in Meccanica Quantistica . . . . . . . . . . . . 1.3.1 Operatori lineari su uno spazio vettoriale . . . . . . . . . . 1.3.2 Il problema agli autovalori e equazione caratteristica . . . . 1.3.3 Funzioni di un operatore . . . . . . . . . . . . . . . . . . . . 1.4 Applicazione allo spin dell’elettrone . . . . . . . . . . . . . . . . . . 1.5 Spazi vettoriali infinito-dimensionali . . . . . . . . . . . . . . . . . 1.5.1 Operatori in dimensioni infinite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 5 7 9 11 13 19 22 22 28 33 2 I postulati della meccanica quantistica 2.1 Il collasso del vettore di stato . . . . . 2.2 Come si verifica la teoria quantistica . 2.3 Valori medi (o di aspettazione) . . . . 2.4 Variabili compatibili e incompatibili . . . . . . . . . . . . . . . . . . . . . 38 45 46 47 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Sistemi con piu’ gradi di liberta’ 3.1 Generalizzazione dei postulati a sistemi con più gradi di libertà . . . . . . . 3.2 Prodotto tensoriale di spazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Particelle identiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Il caso classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Il caso di due particelle identiche. Stati simmetrici ed antisimmetrici 3.3.3 Quando si può ignorare la simmetrizzazione o l’antisimmetrizzazione della funzione d’onda? . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 58 62 62 63 4 L’equazione di Schrödinger 4.1 Soluzione dell’equazione di Schrödinger . . . . . . . . . . . . 4.1.1 Scrittura dell’equazione di Schrödinger . . . . . . . . 4.1.2 Studio generale della soluzione . . . . . . . . . . . . 4.1.3 L’equazione di Schrödinger per una particella libera 4.2 Equazione di Schrödinger per due particelle . . . . . . . . . 67 67 67 67 70 71 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.3 Più particelle in più dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . 73 5 Principio di indeterminazione e limite classico 74 5.1 Principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . 74 5.2 Teorema di Ehrenfest e limite classico . . . . . . . . . . . . . . . . . . . . . 75 5.3 La rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . . 79 6 Oscillatore armonico 81 6.1 Oscillatore classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.2 Oscillatore quantistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 7 Momento angolare e spin 86 7.1 Il momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7.2 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 7.3 Addizione di momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . 91 8 Stati entangled 8.1 Stati a due particelle di spin 1/2 . . . . . . . . . . . . 8.2 Matrice densita’ . . . . . . . . . . . . . . . . . . . . . 8.3 Entropia e entanglement . . . . . . . . . . . . . . . . . 8.4 Matrice densita’ ridotta e misura dell’entanglement . . 8.5 L’esperimento della doppia fenditura e stati entangled . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 94 96 100 103 108 9 La critica EPR 113 9.1 EPR riformulato da Bohm e Aharanov . . . . . . . . . . . . . . . . . . . . . 116 9.2 Le teorie di variabili nascoste e la disuguaglianza di Bell . . . . . . . . . . . 121 9.3 Località . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 10 La misura in Meccanica Quantistica 10.1 Sistema e apparato di misura . . . . . . . . . . . 10.2 Misura e sovrapposizione degli stati macroscopici. 10.3 La decoerenza . . . . . . . . . . . . . . . . . . . . 10.4 Altre interpretazioni . . . . . . . . . . . . . . . . 11 Conclusioni . . . . . Il gatto . . . . . . . . . . . . . . . . . . . di Schrödinger . . . . . . . . . . . . . . . . . . . . . . 128 132 137 142 148 150 1 Capitolo 1 Spazio delle fasi in meccanica classica e meccanica quantistica 1.1 Spazio delle fasi classico Gli stati o le configurazioni di un sistema classico sono descritti da punti nello spazio delle fasi. Questo concetto e’ molto generale. Nel caso piu’ semplice della meccanica classica (un punto che si muova lungo una retta) , lo spazio delle fasi e’ un piano nelle variabili di posizione q e di impulso p. I moti possibili del punto corrispondono a fasci di traiettorie non intersecanti. Infatti, date le equazioni di Hamilton, del primo ordine nelle derivate temporali, per ogni punto passa una ed una sola traiettoria fisica. Questa idea si puo’ generalizzare ad un insieme generico di punti (anche discreto). E la meccanica classica puo’ essere caratterizzata dai seguenti elementi: • Un insieme di punti, ognuno dei quali corrisponde ad un determinato stato fisico, cioe’ lo spazio delle fasi, M . • Le osservabili classiche, cioe’ funzioni reali definite su M . Le operazioni che si possono fare su un insieme di punti sono quelle classiche dell’algebra booleana, unione e intersezione di sottoinsiemi. Per esempio si puo’ considerare l’unione di tutte i punti (configurazioni) che soddisfano le proprietà A o B, ecc. L’esempio classico piu’ semplice e’ il sistema con uno spazio delle fasi costituito da due punti. Fisicamente questo puo’ corrispondere alle due facce di una moneta. In questo caso i due punti si possono caratterizzare con i due simboli T e C (testa e croce rispettivamente), oppure con 0 e 1. In questo caso si parla di un bit classico. I bit classici hanno grande importanza perche’ possono essere messi in corrispondenza con i simboli fondamentali della numerazione binaria e, quindi, ogni numero puo’ essere rappresentato da una successione di 0 e 1. Per esempio: 910 = 1 × 23 + 0 × 22 + 0 × 21 + 1 × 20 = 10012 . (1.1) E’ su questa corrispondenza che si basano i moderni calcolatori digitali in cui, appunto, tutte le informazioni vengono digitalizzate in termini di 0 ed 1. Notiamo anche con N 2 copie di coppie 0 e 1 si possono formare 2N stati diversi. Detto in altri termini, con N monete si possono ottenere una successione di 2N simboli 0 ed 1. Dunque il sistema logico che sta alla base della meccanica classica e’ quello degli insiemi con le conseguenti operazioni associate. Come vedremo la situazione e’ molto diversa in meccanica quantistica, dove lo spazio delle configurazioni e’ costituito da uno spazio vettoriale. Dunque gli stati, o i punti di questo spazio, sono vettori e come tali possono essere combinati lineramente. Questa operazione, che e’ possibile in uno spazio vettoriale, non ha senso su un insieme, corrispondentemente la struttura logica risulta totalmente diversa. C T Figura 1.1: Un sistema a due stati classico. Le due facce di una moneta, T e C. Per esempio, un sistema a due stati classico (vedi Fig. 1.1) corrisponde, in meccanica quantistica a uno spazio vettoriale complesso (daremo le opportune definizioni generali in seguito), in cui i vettori si possono scrivere come combinazioni di due vettori fondamentali |0i e |1i |ψi = α|0i + β|1i (1.2) con α e β numeri complessi. Dunque, mentre lo spazio delle fasi classico di questo esempio e’ costituito da due punti, nel caso quantistico lo stato generico dipende da una doppia continuita’ di parametri. Cioe’ tornando all’esempio del lancio di una moneta e’ come se stessimo considerando una situazione in cui dopo il lancio la moneta non è ne’ testa ne’ croce. 1.2 Lo spazio delle fasi in meccanica quantistica Abbiamo visto che l’esperimento di Stern e Gerlach mette in luce il fatto che l’elettrone / /2 in qualunque possiede un momento angolare intrinseco che assume due soli valori ±h direzione si misuri questa osservabile. Il momento angolare intrinseco prende anche il nome di spin. In questo esperimento e’ possibile preparare lo stato di spin, per esempio orientando l’apparato in una certa direzione e selezionando solo il fascio di elettroni parallelo alla direzione del campo magnetico e bloccando l’altro fascio. Questo tipo di procedura si chiama preparazione del sistema. Lo stesso apparato puo’ essere usato per la rivelazione. Per esempio se mettiamo due Stern e Gerlach orientati nello stesso modo (sempre bloccando il fascio che esce dal primo apparato con direzione opposta al campo), il secondo apparato 3 ci serve per rivelare che effettivamente gli elettroni hanno spin lungo il campo. Piu’ in generale, se il secondo Stern e Gerlach e’ orientato diversamente dal primo, ci puo’ servire per determinare quanti elettroni passano orientati lungo la sua direzione positiva e quanti lungo la direzione negativa. Nella discussione che segue faremo uso di un apparato di rivelazione e di preparazione diverso da uno Stern e Gerlach convenzionale ma del tutto equivalente. L’apparato e’ illustrato in Fig. 1.2. L’elettrone e’ posto in un campo magnetico abbastanza intenso. B x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x xxxxxxxxxxxxxx x x x x x θx Figura 1.2: Rappresentazione classica di un elettrone in un campo magnetico che forma un angolo θ con lo spin. ~ dell’elettrone si allinea con il campo B. ~ Questa fase Dopo qualche tempo lo spin, S, corrisponde alla preparazione dello stato. Se vogliamo usare l’apparato come rivelatore, sfruttiamo il seguente meccanismo. Come abbiamo detto se lo spin ed il campo non sono paralleli, dopo un certo tempo lo spin si allinea ma, cosi facendo, emette una radiazione elettromagnetica con intensita’ che dipende dall’angolo θ tra i due vettori. Se lo spin e’ allineato, θ = 0, non c’e’ irradiazione. Quanto sopra e’ quanto prevede la teoria classica. Quantisticamente invece si hanno solo due possibilita’: ~ 1. L’elettrone non emette fotoni se lo spin e’ allineato con B. 2. L’elettrone emette un fotone di energia pari alla differenza di energia tra gli stati di ~ spin parallelo ed antiparallelo a B. Ne consegue, nei due casi, che ~ parallelo a B ~ 1. L’elettrone aveva S ~ antiparallelo a B. ~ 2. L’elettrone aveva S Come si vede il risultato e’ esattamente analogo a quanto si aveva per Stern e Gerlach, lo spin puo’ essere solo parallelo od antiparallelo al campo magnetico. Non ci sono situazioni ~ perpendicolari a B, ~ intermedie. Comunque si sia preparato lo stato, per esempio con S 4 quando riveliamo lo stato troviamo solo i due stati parallelo ed antiparallelo. Questo e’ vero comunque si sia preparato lo stato di spin. Quindi lo spin puo’ esere orientato lungo qualunque direzione (dipendente da come lo abbiamo preparato), ma alla fine si hanno solo due risultati possibili. Questo e’ il classico esempio di un bit quantistico o q-bit. I possibili risultati della misura sono solo due, ma lo stato dipende dalla direzione arbitraria lungo la quale e’ stato preparato. Il bit classico dipende invece solo dai due possibili risultati. Nel lancio di una moneta si ha testa o croce. Un vago analogo del caso quantistico si ha se la moneta non e’ perfetta e quindi le probabilita’ che escano testa o croce sono diverse, ma non esiste uno stato classico che sia una combinazione lineare di testa e croce. Abbiamo detto gli stati possibili per lo spin di un elettrone sono due, corrispondenti / /2. In corrispondenza introdurremo i due vettori ai due valori misurati ±h |+i, |−i (1.3) Come abbiamo detto, in meccanica quantistica gli stati del sistema sono descritti da un vettore e quindi si possono combinare linearmente tra di loro. Quindi una combinazione arbitraria dei due stati precedenti descrivera’ un possibile stato del sistema |ai = a1 |+i + a2 |−i (1.4) Se consideriamo il caso a due stati classico, la moneta, come potremmo interpretare questa combinazione? Certamente non potremo dire che dopo il lancio la moneta non da’ come risultato ne’ testa ne’ croce. L’intepretazione quantistica e’ che i moduli quadri dei coefficienti forniscano la probabilita’ di avere l’elettrone con spin up o spin down rispettivamente. Notiamo che i coefficienti a1 e a2 sono le componenti del vettore |ai lungo le due direzioni |±i. Nel calcolo vettoriale ordinario e’ possibile calcolare la componente di un vettore lungo una direzione specificata da un versore ~n effettuando il prodotto scalare del vettore con il versore. Dunque la matematica necessaria per descrivere lo spazio delle fasi della meccanica quantistica e’ quella degli spazi vettoriali che, come vedremo, sono spazi vettoriali complessi (cioe’ i coefficienti a1 e a2 sono numeri complessi), equipaggiati con un prodotto scalare. Nei paragrafi successivi introdurremo i concetti fondamentali relativi agli spazi vettoriali complessi. 1.2.1 Spazi vettoriali Come abbiamo gia’ anticipato lo spazio delle fasi quantistico non e’ altro che uno spazio vettoriale complesso. In questa sezione daremo le definizioni necessarie per comprendere la struttura di questi spazi e come si opera su di essi. Uno spazio vettoriale, V , è una collezione di oggetti (vettori), {v1 , · · · , vn } ∈ V sui quali è definita una operazione di addizione ed una di moltiplicazione per quantita’ scalari {α, β, γ, · · · } ∈ F (usualmente numeri reali o complessi a seconda della natura dello spazio 5 vettoriale, vedi in seguito), tali che 1) v+w ∈V 2) αv ∈ V, se v ∈ V, α ∈ F (1.5) F è detto il campo degli scalari e su F sono definite le operazioni di addizione e di prodotto (α + β ∈ F , αβ ∈ F ). Le due operazioni definite sui vettori soddisfano una serie di proprietà che si possono dividere in due classi: Assiomi per l’addizione i) vi + v j = vj + vi ii) vi + (vj + vk ) = (vi + vj ) + vk iii) ∃ vettore nullo, 0, vi + 0 = 0 + vi = vi iv) ∃ unico vettore, (−vi ), tale che, vi + (−vi ) = 0 (1.6) Queste proprietà si sintetizzano dicendo che V è uno gruppo abeliano rispetto alla somma. In particolare, iii) e iv) mostrano che V possiede l’elemento identità (il vettore nullo) e l’inverso di ogni elemento v (−v). Assiomi per la moltiplicazione con gli scalari i) ii) α(vi + vj ) = αvi + αvj , α ∈ F, vi , vj ∈ V (α + β)vi = αvi + βvi iii) α(βvi ) = (αβ)vi iv) 1vi = vi , 1∈F (1.7) dove 1 e’ l’identità nel campo F degli scalari, cioè 1α = α. Il vettore nullo soddisfa: 1) 0v = 0 (0 = identità scalare, 0 = vettore nullo) 2) α0 = 0 3) (−1)v = (−v) (1.8) Un insieme di n vettori non nulli si dice linearmente indipendente se non ci sono soluzioni scalari all’equazione n X α i vi = 0 (1.9) i=1 eccetto per la soluzione banale αi = 0. Si dice che uno spazio vettoriale è n-dimensionale, se ammette al più n vettori linearmente indipendenti. Denoteremo uno spazio vettoriale n-dimensionale su F con il simbolo V n (F ). Su tale spazio vale il seguente: 6 Teorema: Dati n vettori linearmente indipendenti (v1 , v2 , · · · , vn ), ogni altro vettore v ∈ V n (F ) può essere scritto come combinazione lineare degli n vettori. È opportuno osservare che gli assiomi che definiscono uno spazio vettoriale permettono di sviluppare rapidamente il calcolo vettoriale. Consideriamo due vettori in V 3 (R) espressi una data base (v1 , v2 , v3 ): v = α1 v1 + α2 v2 + α3 v3 v0 = β1 v1 + β2 v2 + β3 v3 (1.10) Ovviamente i due vettori si possono sommare con la regola del parallelogrammo, ma usando gli assiomi si vede subito che si può fare la somma per componenti v + v0 = (α1 v1 + α2 v2 + α3 v3 ) + (β1 v1 + β2 v2 + β3 v3 ) = = (α1 + β1 )v1 + (α2 + β2 )v2 + (α3 + β3 )v3 (1.11) Quindi le componenti del vettore somma sono la somma delle componenti dei due vettori. Analogamente αv = α(α1 v1 + α2 v2 + α3 v3 ) = (αα1 )v1 + (αα2 )v2 + (αα3 )v3 (1.12) e vediamo che le componenti di αv sono il prodotto delle componenti di v per α. Le due regole precedenti si estendono immediatamente a V n (F ). Il punto importante è che assegnata una base un generico vettore in V n (F ) si rappresenta in maniera univoca in termini delle n-uple delle sue componenti v= n X αi vi ⇒ v = (α1 , α2 , · · · , αn ) (1.13) i=1 1.2.2 Spazi vettoriali con prodotto interno Nell’esempio illustrato all’inizio i coefficienti dell’espansione di uno stato su una base possono essere estratti tramite le proiezioni del vettore lungo le direzioni della base. A questo fine e’ necessario introdurre il concetto di prodotto scalare o prodotto interno di due vettori. Un prodotto interno in uno spazio vettoriale associa a due vettori di V uno scalare di F . Cioè è un mapping bilineare V × V → F che soddisfa ai seguenti assiomi: i) ii) iii) hv|vi ≥ 0 (= 0 se e solo se v = 0) hvi |vj i = hvj |vi i∗ hvi |αvj + βvk i = αhvi |vj i + βhvi |vk i 7 (1.14) L’operazione ∗ qui introdotta è la coniugazione complessa se F = C il campo dei complessi. È invece l’operazione identità nel caso dei reali. Noi lavoreremo quasi sempre nel campo complesso. La proprietà ii) dice che il prodotto interno (o prodotto scalare) è simmetrico sui reali, mentre si dice hermitiano per il caso complesso. La proprietà iii) esprime la linearità del prodotto interno rispetto al secondo vettore, mentre rispetto al primo è antilineare. Infatti hαvi |vj i = hvj |αvi i∗ = (αhvj |vi i)∗ = α∗ hvi |vj i (1.15) Uno spazio vettoriale sul quale sia definito un prodotto interno si chiama spazio vettoriale con prodotto interno. In un tale spazio si può definire la norma di un vettore: p |v| = hv|vi (1.16) Un vettore si dice normalizzato o vettore unitario se ha norma pari ad uno. Due vettori si dicono ortogonali se il loro prodotto scalare è nullo hv|wi = 0 ⇔ v⊥w (1.17) Un insieme di vettori (e1 , e2 , · · · , en ) è detto ortonormale se hei |ej i = δij dove δij è la delta di Kronecker, definita da n 1, δij = 0, (1.18) i=j i 6= j (1.19) Il prodotto scalare espresso in termini delle componenti in una base ortonormale e’ dato da n n X X hv|v0 i = αi∗ βj hei |ej i = αi∗ βi (1.20) i,j=1 i=1 Notiamo che nel caso complesso, l’operazione ∗ che appare nell’assioma ii) è cruciale affinché valga la i). Una proprietà importante del prodotto interno è quella che va sotto il nome di disuguaglianza di Schwarz: |hvi |vj i|2 ≤ |vi |2 |vj |2 (1.21) l’uguaglianza vale solo quando vi ∝ vj ossia vi e vj sono paralleli. Un’altra importante disuguaglianza a cui soddisfa il prodotto interno è la disuguaglianza triangolare: |vi + vj | ≤ |vi | + |vj | (1.22) 8 1.2.3 La notazione di Dirac Dirac ha introdotto una notazione particolarmente felice per la descrizione di uno spazio vettoriale. Abbiamo già osservato che un vettore è completamente specificato assegnando le sue componenti rispetto a una base fissata. Per esempio, scegliendo una base ortonormale n X v= ei vi (1.23) i=1 tutte le operazioni sui vettori si riportano ad operazioni sulle componenti vi . pertanto esiste una corrispondenza biunivoca tra il vettore v e la n-upla delle sue componenti in una data base v1 v2 · v⇔ (1.24) · · vn In questa base ortonormale il prodotto interno si può scrivere nella seguente forma: 0 v1 n X · 0 ∗ 0 ∗ ∗ (1.25) hv|v i = vi vi = v1 · · · vn · i=1 · vn0 dove abbiamo associato al vettore v la n-upla v1∗ · · · vn∗ . Si introducono allora i vettori ket che corrispondono ai vettori colonna, cioè v1 · |vi ⇔ (1.26) · · vn e i vettori bra che corrispondono ai vettori riga: hv| ⇔ v1∗ · · · vn∗ (1.27) La rappresentazione che associa il bra al vettore v è anche detta duale di quella che ne associa il ket. Notiamo che in notazione matriciale la rappresentazione duale è ottenuta tramite le operazioni di trasposizione del vettore colonna e di coniugazione complessa. L’insieme di queste due operazioni costituisce l’ aggiunto. In forma astratta fa passare dai ket ai bra e viceversa hv| = |vi† (1.28) Si richiede anche che (|vi† )† = |vi 9 (1.29) Nella base (1.23) i vettori base hanno la rappresentazione: 0 · · · |ei i ≡ |ii ⇔ 1 → iesimo posto · · · (1.30) 0 Ovviamente ogni ket si scrive in questa base come X |vi = vi |ii (1.31) i mentre i bra hv| = X vi∗ hi| (1.32) i Ogni equazione che vale per i ket può essere trasformata in una equazione per i bra, semplicemente prendendo l’aggiunto. L’ortonormalità dei vettori di base si scrive nella forma hi|ji = δij (1.33) Se un ket ha la decomposizione |vi = X vi |ii (1.34) i le sue componenti si calcolano prendendone il prodotto interno con i vettori di base: X X hj|vi = vi hj|ii = vi δij = vj (1.35) i i Segue l’espressione |vi = X |iihi|vi (1.36) i Analogamente si hanno le relazioni hv| = X hv|ji = X hv| = X hi|vi∗ i hi|jivi∗ = vj∗ i hv|iihi| (1.37) i L’ultima equazione si poteva anche ottenere prendendo l’aggiunta della (1.36) X X hv| = hi|vi∗ hi| = hv|iihi| i i 10 (1.38) Un importante teorema sugli spazi vettoriali è il seguente Teorema: Il numero massimo di vettori ortogonali in uno spazio vettoriale è uguale al numero massimo di vettori linearmente indipendenti. Un sottospazio di uno spazio vettoriale, che sia anch’esso uno spazio vettoriale, è detto un sottospazio vettoriale. 1.3 Variabili dinamiche in Meccanica Quantistica Abbiamo visto che in meccanica classica una variabile dinamica e’ una funzione del punto nello spazio delle fasi. Spesso pero’ le variabili dinamiche classiche hanno anche altre funzioni, cioe’ quelle di generare delle trasformazioni nello spazio delle fasi, cioe’ il passaggio da un punto dello spazio delle fasi ad un altro. Un esempio e’ l’hamiltoniana che, tramite le equazioni del moto hamiltoniane, genera un flusso nello spazio delle fasi. Nel caso di un sistema discreto un moto si puo’ pensare come ad una successione discreta di intervalli temporali tali che ad ogni intervallo corrisponde il passaggio da un punto ad un altro. Una esemplificazione nel caso del sistema a due stati e’ dato in Fig. 1.3. Nel caso di sinistra T C T C Figura 1.3: Possibili moti in un sistema a due stati classico. questo corrisponde ad una serie di lanci in cui si alternano indefinitamente testa e croce. Il secondo caso corrisponde invece ad una serie di lanci in cui esce sempre testa oppure croce. Nel caso classico si ha che anche altri importanti operatori, come l’impulso od il momento angolare, danno luogo a trasformazioni nello spazio delle fasi corrispondenti rispettivamente a traslazioni e rotazioni. Quindi, in generale, le variabili dinamiche classiche possono essere pensate come delle funzioni che servono per generare delle trasformazioni nello spazio delle fasi, cioe’ mapping di punti in punti. In maniera analoga penseremo a delle variabili dinamiche quantistiche come a degli oggetti che possono trasformare vettori in vettori. Le grandezze che hanno questa caratteristica sono ben studiate in matematica e si chiamano operatori lineari su uno spazio vettoriale. La parola operatore ricorda che la grandezza opera su un vettore e lo trasforma in un altro, mentre lineare ricorda che la trasformazione deve rispettare le caratteristiche di linearita’ di uno spazio vettoriale. Dunque un operatore lineare trasforma uno stato fisico (un vettore) in un altro stato fisico. Mostreremo successivamente quali sono le caratteristiche di un operatore che si associano alle grandezze corrispondenti che si misurano. 11 In meccanica classica le variabili dinamiche corrispondono a quantita’ osservabili, cioe’ misurabili sperimentalmente. Il valore aspettato di una data osservabile ad un certo istante e’ semplicemente il valore della variabile corrispondente calcolata sul punto dello spazio delle fasi che corrisponde allo stato del sistema a quell’istante. Inoltre l’insieme delle misure che si possono fare corrisponde ad un insieme di numeri reali. Come possiamo generalizzare questa idea al caso di operatori lineari? In genere un operatore lineare mappa un vettore in un vettore diverso. Quindi se vogliamo associare il valore dell’osservabile misurata ad un dato operatore, dovremo pensare che il sistema si trovi in uno stato che e’ lasciato inalterato dall’operatore. Cio’ che in genere succede e’ che per un dato operatore esistono dei vettori (autovettori) con tale proprieta’, cioe’ A|vi = λ|vi (1.39) Questa equazione dice appunto che il ket |vi e’ lasciato inalterato (conserva la direzione) dall’azione dell’operatore A, salvo un fattore moltiplicativo, λ, che e’ detto autovalore di A. Dunque, nello stato |vi, si puo’ associare ad A un numero ben preciso, l’autovalore λ. Notiamo che se e’ possibile associare ad una quantita’ osservabile corrispondente all’operatore A due valori distinguibili sperimentalmente, i corrispondenti vettori di stato devono essere ortogonali. Infatti se misuriamo l’osservabile e misuriamo il valore λ1 , lo stato corrispondente deve essere il corrispondente autostato e quindi non puo’ avere componente sullo stato con autovalore λ2 , altrimenti lo stato su cui abbiamo misurato λ1 dovrebbe avere una espressione del tipo |ψi = a1 |λ1 i + a2 |λ2 i (1.40) Ma questo stato, contrariamente all’ipotesi, non e’ autostato di A. Dunque se misuriamo una osservabile, in genere i valori che si ottengono sono numeri reali e gli stati corrispondenti devono essere ortogonali. Gli operatori hermitiani (vedi in seguito) godono esattamente di queste proprieta’, cioe’ hanno autovalori reali ed i corrispondenti autovettori formano una base ortonormale dello spazio vettoriale. Inoltre, in uno spazio n-dimensionale, un operatore hermitiano ha n-autovalori reali. Da qui in avanti useremo osservabile ed operatore hermitiano come sinonimi. Pertanto, se il sistema si trova in un autostato (o autovettore) di un’osservabile, il risultato della misura sara’ con certezza l’autovalore corrispondente. Ovviamente, non sempre il sistema si trovera’ in un autostato dell’osservabile che vogliamo misurare. E’ in questa situazione che nasce la necessita’ dell’interpretazione probabilistica della meccanica quantistica. Infatti in questa situazione non c’e’ un unico autovalore di A associato allo stato. Infatti la decomposizione del vettore di stato in autovettori dell’osservabile che si misura, coinvolge, in genere, tutti gli autostati di A: X |ψi = ai |ii, A|ii = λi |ii (1.41) i con ai le proiezioni di |ψi lungo gli autovettori |ii, cioe’ ai = hi|ψi 12 (1.42) Dunque l’unica cosa che potremo fare sara’ quella di associare i coefficienti ai alla probabilita’ di ottenere come risultato della misura λi . Pero’ una probabilita’ deve essere una quantita’ definita positiva e minore di 1. Questa condizione e’ soddisfatta se assumiamo la probabilita’ di ottenere λi come P (λi ) = |ai |2 = |hi|ψi|2 (1.43) Infatti questa e’ una quantita’ positiva e minore di uno se il vettore di stato |ψi e’ normalizzato X hψ|ψi = |ai |2 = 1 (1.44) i La proprieta’ per cui la probabilita’ di misurare un qualunque valore di A deve essere minore di 1 e’ automaticamente soddisfatta per vettori normalizzati. Se poi il vettore e’ un autovettore di A con autovalore λi , la probabilita’ di trovare λi come risultato della misura e’ uguale a 1, mentre la probabilita’ di trovare un valore λj con j 6= i e’ zero. 1.3.1 Operatori lineari su uno spazio vettoriale Un operatore A è una istruzione che trasforma un vettore in un altro vettore. Cioè A è un mapping dello spazio vettoriale V in sé: A: V →V (1.45) L’azione di A sui vettori si rappresenta nel seguente modo |v 0 i = A|vi (1.46) Dato che stiamo considerando spazi vettoriali gli unici operatori che hanno senso, cioè che trasformano lo spazio vettoriale in un altro spazio vettoriale sono quelli che ne preservano la struttura lineare. Gli operatori con questa proprietà sono detti operatori lineari. Più precisamente un operatore è lineare se soddisfa la seguente proprietà: A(α|vi + β|wi) = αA|vi + βA|wi (1.47) Un operatore A può agire anche sui bra: (hv|α + hw|β)A = hv|Aα + hw|Aβ (1.48) Si può definire un’algebra1 di operatori, introducendo il prodotto e la somma di due operatori tramite le relazioni: i) ii) (A1 A2 )|vi = A1 (A2 |vi) (A1 + A2 )|vi = A1 |vi + A2 |vi 1 (1.49) Un’algebra è uno spazio vettoriale, V , nel quale sia definito il prodotto di due vettori, come un mapping bilineare V × V → V 13 nonché il prodotto di uno scalare per un operatore iii) (αA)|vi = α(A|vi) (1.50) È importante osservare che il prodotto di due operatori in genere non è commutativo, cioè A1 A2 6= A2 A1 (1.51) Il grado di non commutatività è definito in termini di una quantità detta commutatore [A1 , A2 ] = A1 A2 − A2 A1 (1.52) Due proprietà molto utili del commutatore, che si verificano immediatamente usando la definizione, sono le seguenti: [A, BC] = B[A, C] + [A, B]C, [AB, C] = A[B, C] + [A, C]B (1.53) Se esiste, l’inverso di un operatore A lo si scrive A−1 ed è definito da AA−1 = A−1 A = I (1.54) con I l’operatore identità. L’inverso del prodotto di due operatori è uguale al prodotto degli inversi, cioè (AB)−1 = B −1 A−1 (1.55) Abbiamo visto che un vettore in una data base corrisponde ad una ennupla di numeri, le sue componenti in quella base. Analogamente, in una data base, un operatore lineare è rappresentato da una matrice di n × n numeri, i suoi elementi di matrice. Ovviamente i valori degli elementi di matrice dipendono dalla base scelta, ma il loro uso risulta estremamente conveniente. Un operatore è completamente assegnato una volta che ne sia stata definita l’azione sugli elementi di una base. In particolare si possono facilmente calcolare le componenti del ket trasformato sotto l’azione dell’operatore. Se |v 0 i = A|vi (1.56) segue vi0 = hi|v 0 i = hi|A|vi = hi|A X vj |ji = j X hi|A|jivj (1.57) j Posto Aij = hi|A|ji (1.58) X (1.59) segue vi0 = Aij vj j Quindi l’azione dell’operatore si può valutare agendo con i suoi elementi di matrice sulle componenti del vettore iniziale. Nella data base il vettore iniziale è rappresentato da un vettore colonna e l’azione dell’operatore è semplicemente il prodotto della matrice che 14 lo rappresenta per il vettore colonna con la consueta definizione di prodotto righe per colonne. Gli elementi di matrice dell’operatore identità si calcolano immediatamente: hi|I|ji = hi|ji = δij (1.60) Quindi l’operatore identità in una base ortonormale corrisponde alla matrice identità. Ricordiamo che abbiamo dimostrato la relazione |vi = n X |iihi|vi (1.61) i=1 che può essere riscritta nella forma n X |vi = ! |iihi| |vi (1.62) i=1 Questa relazione ci dice che l’espressione in parentesi altro non è che un operatore che applicato al ket |vi lo riproduce. Quindi si ha ! n X I= (1.63) |iihi| i=1 È interessante considerare le quantità |iihi| come operatori. La loro azione è data da (|iihi|) |vi = |iihi|vi = vi |ii (1.64) Questi operatori sono definiti proiettori Pi = |iihi| Vediamo che n X Pi = I (1.65) (1.66) i=1 Inoltre i proiettori definiscono la seguente algebra2 Pi Pj = |iihi|jihj| = δij |iihi| = δij Pi (1.67) Il contenuto fisico di questa equazione può essere capito considerando gli analizzatori di polarizzazione, che in pratica funzionano come proiettori, vedi Fig 1.4. L’azione dei proiettori sui bra si ottiene facilmente hv|Pi = hv|iihi| = vi∗ hi| 2 (1.68) La proprietà Pi2 = Pi ha il nome di idempotenza, mentre Pi Pj = 0 per i 6= j si chiama ortogonalità 15 Py Py xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx xxxxxxxxxxxxx E xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx x x x x x x x x x x x x x x x x x x x x x x x x x x x x x Ey Px xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxx xxx xx xx xx xxx xx xxx xx xxx xx x xx xx Ey xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxx 0 Figura 1.4: Gli analizzatori si comportano come operatori di proiezione. Il primo analizzatore seleziona la componente y del campo. Dato che il secondo analizzatore ha lo stesso orientamento del primo, il campo passa inalterato (corrisponde a Py2 = Py ). Il terzo analizzatore proietta nella direzione ortogonale x e quindi il risultato è zero (corrisponde a Px Py = 0). Si ha hj|Pi |ki = hj|iihi|ki = δij δik (1.69) Il prodotto di due operatori in termini di matrici si ottiene da AB (AB)ij = hi|AB|ji = hi|AIB|ji = n X hi|A|kihk|A|ji = k=1 n X Aik Bkj (1.70) k=1 Definiamo adesso l’ aggiunto di un operatore. Sia: A|vi = |v 0 i (1.71) Il bra che corrisponde a |v 0 i lo scriveremo come hv 0 | ≡ hv|A† (1.72) hv|A† = (A|vi)† (1.73) od anche Questa relazione definisce l’aggiunto di A come un operatore sullo spazio dei bra. Possiamo calcolare gli elementi di matrice dell’aggiunto. Avremo (A† )ij = (hi|A† )|ji = [hj|(A|ii)]∗ = hj|A|ii∗ = A∗ji (1.74) (A† )ij = A∗ji (1.75) cioè 16 Una proprietà importante riguarda l’aggiunto del prodotto di operatori (AB)† = B † A† (1.76) Ovvero, l’aggiunto del prodotto è uguale al prodotto degli aggiunti in ordine inverso. Consideriamo infatti (AB)|vi = |v 00 i (1.77) e poniamo B|vi = |v 0 i, A|v 0 i = |v 00 i (1.78) Avremo hv 00 | = hv 0 |A† = hv|B † A† (1.79) hv 00 | = hv|(AB)† (1.80) Ma per definizione e quindi confrontando queste due equazioni (AB)† = B † A† (1.81) Classi importanti di operatori sono gli operatori hermitiani A† = A (1.82) A† = −A (1.83) e gli operatori anti-hermitiani Ogni operatore può essere sempre decomposto anti-hermitiana 1 A = (A + A† ) + |2 {z } hermitiano in una parte hermitiana ed in una parte 1 (A − A† ) 2 | {z } (1.84) anti−hermitiano Altri operatori importanti sono gli operatori unitari, tali che U U † = U †U = I (1.85) U † = U −1 (1.86) o, in altri termini, Il prodotto di operatori unitari è unitario (U1 U2 )† = U2† U1† = U2−1 U1−1 = (U1 U2 )−1 (1.87) Inoltre gli operatori unitari conservano il prodotto interno. È importante osservare che se pensiamo alle colonne di una matrice unitaria n × n come alle componenti di n vettori, questi formano un set ortonormale. Infatti, partendo da U † U = I si ha n n n X X X † † ∗ δij = hi|I|ji = hi|U U |ji = hi|U |kihk|U |ji = (U )ik Ukj = Uki Ukj † k=1 k=1 17 k=1 (1.88) Definiamo dei vettori v (i) con componenti (i) vk = Uki segue: n X (1.89) (i)∗ (j) vk vk = δij ⇔ hv (i) |v (j) i = δij (1.90) k=1 La stessa considerazione si può fare per le n righe. Possiamo applicare a tutti i vettori di uno spazio vettoriale, V , una trasformazione unitaria |vi → U |vi, ∀ |vi ∈ V, U †U = I (1.91) Il prodotto scalare tra due vettori rimane inalterato, mentre gli elementi di matrice di un determinato operatore A sono trasformati come segue hv 0 |A|vi ⇒ hU v 0 |A|U vi = hv 0 |U † AU |vi (1.92) In questo caso si parla di una trasformazione attiva. Lo stesso risultato, in termini di elementi di matrice, si otterrebbe lasciando fissi i vettori e ruotando gli operatori con la trasformazione unitaria U : A → U † AU (1.93) In questo caso si parla di trasformazione passiva. La nomenclatura fa riferimento ai vettori consueti in cui le trasformazioni attive equivalgono a trasformare i vettori, mentre vengono lasciati inalterati in una trasformazione passiva. L’opposto accade per gli operatori. I due tipi di trasformazioni sono equivalenti sul piano della fisica, dato che non cambiano i valori dei prodotti scalari (questo sarà visto meglio nel seguito). Ci sono delle operazioni che si possono fare sugli operatori e che sono invarianti sotto trasformazioni unitarie. Per esempio la traccia (somma degli elementi diagonali): T r[A] = n X Aii (1.94) i=1 L’invarianza deriva dalla proprietà fondamentale della traccia T r[AB] = T r[BA] (1.95) Infatti T r[AB] = X Aij Bji = i,j X Bji Aij = T r[BA] (1.96) i Da questa segue la proprietà ciclica della traccia T r[ABC] = T r[A(BC)] = T r[(BC)A] = T r[B(CA)] = T r[CAB] (1.97) Usando quest’ultima si ha T r[U † AU ] = T r[U U † A] = T r[A] (1.98) Anche il determinante è invariante sotto trasformazioni unitarie. Infatti det|U † AU | = det|U † | det|U | det|A| = det|U † U | det|A| = det|A| 18 (1.99) 1.3.2 Il problema agli autovalori e equazione caratteristica Discuteremo adesso il problema agli autovalori per un operatore A dato che, come detto in precedenza, questo problema e’ strettamente collegato all’interpretazione fisica degli operatori lineari. Come abbiamo detto, siamo interessati a determinare le direzioni dello spazio vettoriale che non sono cambiate dall’‘azione di un dato operatore A. Queste sono definite dall’equazione A|vi = ω|vi (1.100) Il vettore |vi è detto un autovettore o un autoket di A (detto anche eigenvector o eigenket) con autovalore (o eigenvalue) ω. La determinazione degli autovettori e degli autovalori di un operatore è il problema centrale della meccanica quantistica. L’equazione agli autovalori per l’operatore A si può riscrivere in componenti: n X (Aij − ωδij )vj = 0 (1.101) j=1 Questa è una equazione lineare ed omogenea nelle componenti dell’autovettore. Pertanto si hanno soluzioni non identicamente nulle per le vj se e solo se il determinante del sistema è nullo det|A − ωI| = 0 (1.102) Se espandiamo il determinante si trova una equazione di grado n che determina i possibili autovalori: n X ck ω k (1.103) 0 = det|A − ωI| = k=0 L’equazione risultante è indicata come l’ equazione caratteristica e il polinomio P (ω) = n X ck ω k (1.104) k=1 come il polinomio caratteristico. Chiaramente la forma del polinomio dipende dalla base che scegliamo per effettuare i calcoli, ma le soluzioni sono indipendenti dalla base, dal momento che l’equazione originaria non ne dipende. Dal teorema fondamentale dell’algebra (ogni equazione di grado n ha n radici reali o complesse) segue che ogni operatore in V n (C) ha n autovalori reali o complessi, non necessariamente distinti. Una volta trovati gli autovalori, gli autovettori nella data base si determinano risolvendo l’equazione agli autovalori X (Aij − ωδij )vj = 0 (1.105) j Quando alcuni degli autovalori coincidono questi si dicono degeneri ed anche l’operatore e’ detto degenere. 19 D’altra parte non sempre gli autovettori esistono. Esistono però sempre per operatori hermitiani3 e per operatori unitari. Gli autovalori degli operatori hermitiani sono reali. Gli operatori hermitiani soddisfano ad un teorema che assicura l’esistenza degli autovettori. Precisamente Teorema: Per ogni operatore hermitiano esiste almeno una base di autovettori ortogonali. In questa base l’operatore è diagonale (cioè tutti gli elementi di matrice fuori della diagonale principale sono nulli) ed i suoi autovalori sono gli elementi di matrice diagonali. Esempio: Consideriamo l’operatore 0 1 A= (1.106) 1 0 L’equazione agli autovalori risulta A|vi = ω|vi ⇒ 0 1 1 0 v1 v2 =ω v1 v2 che possiamo riscrivere nella forma v1 −ω 1 −ωv1 + v2 = =0 1 −ω v2 v1 − ωv2 (1.107) (1.108) Il sistema in v1 e v2 e’ lineare ed omogeneo e quindi ha soluzioni solo se il determinante dei coefficienti si annulla (equazione agli autovalori) −ω 1 0 = det = ω2 − 1 (1.109) 1 −ω Dunque gli autovalori sono ω = ±1. Le due equazioni in v1 e v2 non sono indipendenti, allorche’ ω sia uguale ad uno degli autovalori, ed e’ quindi sufficiente risolvere una equazione, per esempio la prima −ωv1 + v2 = 0 ⇒ v2 = ωv1 (1.110) Dunque: ω = +1, ω = −1, v 2 = v1 , v2 = −v1 (1.111) Si puo’ poi determinare v1 imponendo la condizione di normalizzazone |v1 |2 + |v2 |2 = 1 (1.112) e poiche’ |v1 | = |v2 | in entrambi i casi, si ha |v1 |2 = 3 1 2 (1.113) Quindi anche per quelli anti-hermitiani, dato che assegnato un operatore A anti-hermitiano, l’operatore iA è hermitiano 20 e scegliendo v1 reale 1 (1.114) v1 = √ 2 Pertanto i due autovettori, normalizzati ed ortogonali tra loro (controllare!) sono 1 1 1 1 ω = +1 ⇒ √ , ω = −1 ⇒ √ (1.115) 2 1 2 −1 Teorema: Gli autovalori di un operatore unitario sono numeri complessi di modulo 1, cioè della forma eiφ . Gli autovettori di un operatore unitario sono mutuamente ortogonali Un teorema che come vedremo gioca un ruolo fondamentale in meccanica quantistica è il seguente Teorema: Se A e B sono operatori hermitiani che commutano tra loro [A, B] = 0 (1.116) allora esiste una base di autovettori comuni che li diagonalizza entrambi. Dimostriamo questo teorema nel caso di operatori non degeneri, ma la dimostrazione si estende facilmente al caso piu’ generale. Consideriamo gli autovettori di A A|ai i = ai |ai i (1.117) BA|ai i = ai B|ai i (1.118) Si ha anche Ma dato che A e B commutano segue A(B|ai i) = ai (B|ai i) (1.119) Pertanto B|ai i è un autostato di A con autovalore ai . Vista la non degenerazione di A segue che B|ai i deve essere proporzionale a |ai i B|ai i = bi |ai i (1.120) Quindi |ai i è un autovettore di entrambi gli operatori. La base degli autovettori di A diagonalizza entrambi gli operatori. Si dimostra inoltre il Teorema: Condizione necessaria e sufficiente affinché un operatore sia diagonalizzabile con una trasformazione unitaria è che valga [A, A† ] = 0 (1.121) o, come si dice, che l’operatore A sia normale. Dato che gli autovettori di un operatore hermitiano, A sono ortogonali e sono in numero pari alle dimensioni dello spazio vettoriale essi formano un sistema ortonormale e possiamo quindi ottenere una decomposizione dell’identita’ in termini degli autovettori di A, |ωi i X I= |ωi ihωi | (1.122) i 21 In questo caso si parla di decomposizione spettrale. Possiamo anche ottenere una rappresentazione dell’operatore A in termini dei proiettori sui suoi autostati, Pi = |ωi ihωi | X X ωi |ωi ihωi | = A |ωi ihωi | = A (1.123) i i da cui A= X ωi Pi (1.124) i cioe’ la decomposizione spettrale dell’operatore A. 1.3.3 Funzioni di un operatore La maniera più semplice per definire una funzione di un operatore è quella di considerare delle funzioni che ammettano uno sviluppo in serie di potenze f (x) = ∞ X cn xn (1.125) n=0 con x reale o complesso. Definiamo allora una funzione di un operatore A come f (A) = ∞ X cn An (1.126) n=0 Consideriamo ora un operatore A(λ) dipendente da un parametro λ. Definiamo la derivata dell’operatore rispetto al parametro il limite A(λ + ∆λ) − A(λ) dA(λ) = lim ∆λ→0 dλ ∆λ 1.4 (1.127) Applicazione allo spin dell’elettrone Abbiamo visto gli stati possibili per lo spin di un elettrone sono due, corrispondenti ai / /2. Dunque e’ possibile definire una variabile dinamica associata due valori misurati ±h allo spin, con autostati |±i. E’ conveniente identificare i risultati della misura con i valori ~ orientato lungo l’asse z. ±1, o semplicemente con ±. Iniziamo considerando il campo B / ). Identificheremo l’osservabile di spin lungo l’asse z con σz (lo spin moltiplicato per 2/h Gli autostati di σz e gli autovalori saranno dunque σz |+i = +|+i, σz |−i = −|−i (1.128) L’operatore σz nella base dei suoi autostati e’ diagonale con autovalori ±1. Dunque 1 0 σz = (1.129) 0 −1 22 Lo spazio vettoriale con il quale lavoreremo sara’ dunque quello dei vettori complessi a due dimensioni, con vettori ket a1 |ai ↔ (1.130) a2 e corrispondenti bra a∗1 a∗2 ha| = (1.131) Il prodotto scalare e’ dato da ha|bi = a∗1 b1 + a∗2 b2 (1.132) ha|ai = |a1 |2 + |a2 |2 (1.133) e la norma quadrata e’ Nella base degli autostati di σz abbiamo 1 , |+i ↔ 0 |−i ↔ 0 1 (1.134) Dunque la decomposizione di un generico vettore su questa base e’ data da |ai = a1 |+i + a2 |−i (1.135) In base alla interpretazione probabilistica che abbiamo dato, se lo stato di spin e’ |ai e lo si misura con l’apparato sopra descritto allineato lungo l’asse z, avremo che le probabilita’ per trovare lo spin parallelo o antiparallelo all’asse z sono P (σz = +1) = |a1 |2 , P (σz = −1) = |a2 |2 (1.136) Ovviamente dovremo aver normalizzato lo stato |ai e dunque |a1 |2 + |a2 |2 = 1 ⇒ P (σz = +1) + P (σz = −1) = 1 (1.137) Consideriamo adesso l’operatore di spin lungo l’asse x. Normalizzando sempre con / si ha (vedremo in seguito che questa matrice e’ proporzionale proprio alla il fattore 2/h componente lungo l’asse x del momento angolare intrinseco, o spin, per una particella di spin 1/2) 0 1 σx = (1.138) 1 0 Dato che σx2 = 1 si vede subito che i possibili autovalori sono ancora ±1. Per capirlo basta osservare che ogni equazione operatoriale che dipenda da un operatore A e’ invariante sotto la trasformazione A0 = U AU −1 (1.139) infatti, per ogni potenza di A si ha U An U −1 = U AU −1 U AU −1 · · · U AU −1 = (U AU −1 )n 23 (1.140) Quindi il trasformato di una potenza e’ uguale alla stessa potenza dei trasformati. Pertanto, dato che σx e’ hermitiana e si puo’ diagonalizzare con una trasformazione unitaria, l’equazione σx2 = 1 vale anche per la matrice diagonalizzata e dunque i suoi autovalori devono essere uguali a ±1. Inoltre la traccia di una matrice e’ invariante per trasformazioni unitarie e quindi anche σx diagonalizzata deve avere traccia nulla. Segue che i due autovalori devono essere +1 e −1. Per trovare gli autovettori avremo 0 1 v1 v1 σx |σx = +1i = |σx = +1i ↔ = (1.141) 1 0 v2 v2 Da cui segue l’equazione v1 = v2 (1.142) 2|v1 |2 = 1 (1.143) La normalizzazione richiede e scegliendo v1 reale segue che l’autostato normalizzato e’ 1 1 |σx = +1i = √ (|+i + |−i) ↔ √ 2 2 1 1 1 −1 (1.144) In modo del tutto analogo si dimostra che 1 1 |σx = −1i √ (|+i − |−i) ↔ √ 2 2 (1.145) Si verifica subito che questi due stati sono ortogonali tra loro. Supponiamo adesso di preparare uno stato corrispondente all’autovalore +1 di σx e di voler conoscere la probabilita’ di trovarlo orientato lungo l’asse z. Dunque lo stato iniziale e’ |ψi = |σx = +1i (1.146) e si chiede la probabilita’ di trovare lo spin nello stato |σz = +1i (1.147) Questa probabilita’ e’ data dal modulo quadro del coefficiente di |+i nella decomposizione di |σx = +1i 2 1 1 1 2 = (1.148) P (σz = +1) = |hσz = +1|σx = +1i| = 1 0 √ 2 2 1 In modo analogo si ha 2 1 1 1 P (σz = −1) = |hσz = −1|σx = +1i| = 0 1 √ = 2 2 1 2 (1.149) Nello stesso modo possiamo considerare lo spin lungo l’asse y che risulta corrispondere all’operatore 0 −i σy = (1.150) i 0 24 ’ Anche questo operatore ha autovalori ±1 e’ hermitiano ed suoi autostati sono 1 1 1 1 |σy = +1i ↔ √ , |σy = −1i ↔ √ i 2 2 −i (1.151) Si verifica che anche in questo caso i due autostati sono ortogonali. Se poi prepariamo lo stato come autostato di σy e chiediamo ancora la probabilita’ di trovare lo spin parallelo o antiparallelo all’asse z, dovremo calcolare 2 1 1 1 P (σz = +1) = |hσz = −1|σx = +1i| = 1 0 √ = i 2 2 (1.152) 2 1 1 =1 P (σz = −1) = |hσz = −1|σy = +1i| = 0 1 √ 2 2 −i (1.153) 2 e 2 Dunque se lo spin e’ preparato a 900 rispetto all’asse z, la probabilita’ di osservarlo parallelo o antiparallelo a questo asse e’ sempre 1/2. Notiamo che i tre operatori σx,y,z non hanno autovettori comuni e quindi non commutano tra loro. Infatti [σx , σy ] = 2iσz , [σy , σz ] = 2iσx , [σz , σx ] = 2iσy (1.154) La situazione piu’ generale e’ quando si prepara lo spin in una direzione ~n (|~n|2 = 1) nel nostro riferimento. In questo caso l’operatore di spin e’ dato da nz nx − iny nz n− ~σ · ~n = σx nx + σy ny + σz nz = ≡ (1.155) nx + iny −nz n+ −nz dove abbiamo definito n− = nx − iny , n+ = n∗− (1.156) Dato che ~n e’ un versore segue n2z + n+ n− = 1 (1.157) Usando questa ultima relazione e’ facile dimostrare che (~σ · ~n)2 = 1 (1.158) da cui segue che anche gli autovalori di (~σ · ~n)2 sono ±1. Per l’autovettore corrispondente all’autovalore +1 di ~σ · ~n si ha l’equazione nz n− α α = (1.159) n+ −nz β β che da’ luogo alle due equazioni omogenee nz α + n− β = α, 25 n + α − nz β = β (1.160) Dalla prima si ha β 1 − nz = α n− (1.161) e dunque l’autovettore sara’, a meno di un fattore di normalizzazione N , 1 |~σ · ~n = +1i ↔ N 1 − nz n− (1.162) Normalizzando si ha (1 − nz )2 2 |N | 1 + = |N |2 =1 n+ n− 1 + nz 2 (1.163) e quindi r |~σ · ~n = +1i ↔ 1 1 + nz 1 − nz 2 n− (1.164) In modo del tutto analogo si trova r |~σ · ~n = −1i ↔ 1 1 + nz 1 + nz − 2 n− (1.165) Si verifica facilmente che questi due vettori sono ortogonali. Supponiamo adesso di preparare lo stato con lo spin diretto lungo l’asse ~n e di voler determinare la probabilita’ di osservarlo diretto lumgo l’asse m, ~ con m ~ un versore. Dato che il problema dipende solo dai due versore m ~ e ~n il risultato finale puo’ dipendere solo dall’angolo θ tra i due versori, cioe’ da ~n · m ~ = cos θ. Questo risultato si puo’ ottenere sia osservando che la probabilita’ non puo’ dipendere dalla nostra scelta del sistema di coordinate e si puo’ dunque prendere ~n diretto lungo l’asse z. In questo caso 1 |~σ · ~n = +1i ↔ (1.166) 0 e dunque P (~σ · m = +1) = |h~σ · m ~ = +1|~σ · ~n = +1i|2 = 1 + mz 1 + cos θ = 2 2 (1.167) Oppure per calcolo diretto, usando la (1.164), si dimostra che P (~σ · m = +1) = |h~σ · m ~ = +1|~σ · ~n = +1i|2 = 1+m ~ · ~n 2 (1.168) Notiamo che non e’ possibile misurare ~σ · ~n e ~σ · m, ~ con m ~ 6= ~n. Basta pensare, per esempio, a σx e σy che non hanno autovettori comuni. Questa affermazione e’ correlata al fatto che le σi non commutano tra loro. Infatti si puo’ verificare esplicitamente che [σx , σy ] = 2iσz , [σy , σz ] = 2iσx , 26 [σz , σx ] = 2iσy (1.169) Dunque nessuna di queste matrici commuta con le altre ed in particolare anche [~σ · ~n, ~σ · m] ~ 6= 0, se ~n 6= m ~ (1.170) Una proprieta’ interessante dell’operatore ~σ · ~n e’ che, dato uno stato normalizzato (α, β), esiste sempre un versore ~n tale che α α ~σ · ~n = (1.171) β β La dimostrazione e’ semplice perche’ basta risolvere le due equazioni non omogenee per le componenti di ~n che seguono dalla precedente, e cioe’ nz n− α α = (1.172) n+ −nz β β ovvero nz α + n− β = α, n+ α − nz β = β (1.173) Prendendo la complessa coniugata della seconda si ricava n− in termini di nz n− α∗ = (nz + 1)β ∗ (1.174) Sostituendo nella prima si ha nz α + nz + 1 2 |β| = α α∗ (1.175) Usando la condizione di normalizzazione |α|2 + |β|2 = 1 si trova nz = |α|2 − |β|2 (1.176) Sostituendo nella prima delle (1.173) segue n− = 2αβ ∗ , n+ = 2α∗ β (1.177) Dato che il vettore (α, β) e’ definito a meno di un fattore di fase comune, possiamo sempre scegliere per i parametri α e β le espressioni α = cos θe−iφ , β = sin θe+iφ (1.178) In questo modo la condizione di romalizzazione e’ automaticamente soddisfatta. Inoltre si ha nz = cos2 θ − sin2 θ = cos 2θ (1.179) n− = 2 sin θ cos θe−2iφ = sin 2θe2iφ , n+ = sin 2θe+2iφ (1.180) da cui nx = sin 2θ cos 2φ, ny = sin 2θ sin 2φ (1.181) Se il versore ~n e’ assegnato in coordinate polari (θ̂, φ̂) si ha ~n = (sin θ̂ cos φ̂, sin θ̂ sin φ̂, cos θ̂) (1.182) θ = θ̂/2, φ = φ̂/2 (1.183) Dunque vale 27 1.5 Spazi vettoriali infinito-dimensionali In meccanica quantistica hanno interesse gli spazi vettoriali infinito-dimensionali. Cercheremo qui di introdurre i concetti di base in maniera intuitiva e non rigorosa. Per un maggior approfondimento si rimanda ai testi di Analisi Funzionale. Partiamo dall’idea che una funzione assegnata può essere pensata come un vettore in uno spazio infinito-dimensionale. A questo scopo consideriamo una funzione f (x) definita su un intervallo chiuso 0 ≤ x ≤ L (vedi Figura 1.5). Questa potrebbe rappresentare, ad esempio, lo spostamento di una corda fissata agli estremi 0 ed L. Possiamo campionare questa funzione dividendo l’intervallo [0, L] in N + 1 parti ed assegnando i valori di f (x) negli N punti di divisione (vedi Figura 1.6) xi = i L , N +1 i = 1, · · · , N (1.184) f(x) 0 L x Figura 1.5: La funzione f (x) definita sull’intervallo [0, L]. Possiamo pensare ai valori che assume la funzione in questi N punti come a un vettore in V N (R): f (x1 ) f (x2 ) · (1.185) |fN i ⇔ · f (xN −1 ) f (xN ) Identificheremo i vettori base come ket denotati con xi , le coordinate del punto in cui campioniamo la f (x), e avremo 0 · |xi i ⇔ (1.186) 1 · 0 28 f(x) 0 x 1x 2 x3 xN-1x N L x Figura 1.6: Il campionamento della funzione f (x) data in Figura 1.5. I vettori base corrispondono ad una funzione che vale 1 in xi e zero negli altri punti. Chiaramente si hanno le relazioni N X hxi |xj i = δij , |xi ihxi | = I (1.187) i=1 Cioè questi vettori formano un sistema di vettori ortonormali. Immaginiamo adesso uno spazio N dimensionale con ogni direzione individuata da un vettore unitario |xi i. Allora il vettore fN , che rappresenta la campionatura di f (x), sarà quel vettore che ha per componente f (xi ) lungo l’asse |xi i |fN i = N X f (xi )|xi i (1.188) i=1 Occorre naturalmente dimostrare che stiamo effettivamente costruendo uno spazio vettoriale. Infatti possiamo definire una struttura lineare sulle funzioni definite nell’intervallo [0, L], introducendo la somma di funzioni e la moltiplicazione per uno scalare. Consideriamo allora le funzioni definite nell’intervallo [0, L] tali che f (0) = f (L) = 0. Si definiscono l’addizione ed il prodotto per uno scalare come segue: (f + g)(x) = f (x) + g(x), (αf )(x) = αf (x) (1.189) Si verifica immediatamente che tutte le proprietà che definiscono uno spazio vettoriale sono soddisfatte. Inoltre, dato che le definizione sopra date valgono punto per punto, è chiaro che anche le funzioni campionate soddisfano le condizioni di spazio vettoriale. In particolare (f + g)(x1 ) f (x1 ) g(x1 ) · · · = · + · · |(f + g)N i = |fN i + |gN i ⇔ (1.190) · · · (f + g)(xN ) f (xN ) g(xN ) 29 e f (x1 ) (αf )(x1 ) · · = α · · |(αf )N i = α|fN i ⇔ · · f (xN ) (αf )(xN ) (1.191) Possiamo anche definire un prodotto interno come hfN |gN i = N X f (xi )∗ g(xi ) (1.192) i=1 In particolare |fN i e |gN i sono detti vettori ortogonali se hfN |gN i = 0 (1.193) Vogliamo adesso vedere cosa succede quando mandiamo N all’infinito, in modo che il nostro campionamento riproduca esattamente la funzione originale. Il ket corrispondente |fN i → |f∞ i ≡ |f i (1.194) è un vettore in uno spazio infinito-dimensionale (per di più continuo, cioè non numerabile). Ovviamente le proprietà di spazio vettoriale non vengono alterate dal limite, dato che queste sono definite tramite le equazioni (1.189). Le cose sono però diverse con il prodotto scalare. Consideriamo la norma di un vettore per N finito hfN |fN i = N X |f (xi )|2 (1.195) i=1 Nel limite N → ∞ la somma precedente diverge in pratica per qualunque funzione. D’altra parte non è difficile alterare la definizione di prodotto interno in modo da avere somme convergenti. Una scelta possibile (ma non l’unica) è, per esempio hfN |gN i = N X f (xi )∗ g(xi )∆N (1.196) i=1 con L N +1 Nel limite N → ∞ si ottiene la definizione consueta di integrale Z L hf |gi = f (x)∗ g(x)dx ∆N = (1.197) (1.198) 0 Si vede facilmente che questa definizione soddisfa tutte le proprietà che definiscono in generale il prodotto interno. Ovviamente è possibile definire il prodotto interno anche in altro modo. Infatti più in generale, se introduciamo la misura dµ(x) = ρ(x)dx 30 (1.199) con ρ(x) definita positiva, la seguente espressione soddisfa le condizioni per definire un prodotto interno Z L f ∗ (x)g(x)dµ(x) (1.200) hf |gi = 0 Se le funzioni sono definite in un intervallo generico [a, b] la forma più generale è Z hf |gi = b f ∗ (x)g(x)dµ(x) (1.201) a Dobbiamo vedere adesso come normalizzare i vettori di base. In ogni punto x dell’intervallo in esame, avremo un autoket |xi tale che per ogni x0 6= x hx|x0 i = 0, x 6= x0 (1.202) D’altra parte, dato che nel passaggio dal discreto al continuo abbiamo cambiato la definizione di prodotto scalare non potremo avere hx|xi = 1. Per capire cosa succede consideriamo la relazione di completezza che vorremmo della forma Z b |x0 ihx0 |dx0 = I (1.203) a Da questa segue Z b hx|x0 ihx0 |f idx0 = hx|I|f i = f (x) (1.204) a Pertanto si dovrà avere b Z hx|x0 if (x0 )dx0 = f (x) (1.205) a Definiamo hx|x0 i = δ(x, x0 ) (1.206) con δ(x, x0 ) = 0, Integrando nell’intorno di x avremo Z x+ x 6= x0 δ(x, x0 )f (x0 )dx0 = f (x) (1.207) (1.208) x− Nella regione di integrazione possiamo approssimare f (x0 ) con f (x) e quindi segue Z x+ δ(x, x0 )dx0 = 1 (1.209) x− Vediamo che δ(x, x) non può avere un valore finito dato che il suo integrale su un intervallo infinitesimo è finito. Inoltre il valore di δ(x, x0 ) dipende solo dal fatto che x − x0 sia nullo oppure diverso da zero. Pertanto dovremo avere δ(x, x0 ) = δ(x − x0 ) 31 (1.210) Le proprietà di δ(x − x0 ) sono dunque 0 δ(x − x ) = 0, b Z 0 δ(x − x0 )dx0 = 1, x 6= x , a≤x≤b (1.211) a La funzione δ(x)4 è nota come la delta di Dirac. Sebbene non la si possa considerare come una funzione, è però definibile come il limite di una sequenza di funzioni. A titolo esemplificativo consideriamo la famiglia di Gaussiane (vedi la Figura 1.7) g∆ (x − x0 ) = √ 1 π∆2 (x − x0 )2 ∆2 e − (1.212) g(x-x') ∆ 1 π1/2∆ 21/2∆ x x' Figura 1.7: La famiglia di gaussiane che definisce come limite la delta di Dirac. Queste funzioni diventano sempre più alte e più strette man mano che ∆ → 0. D’altra parte l’integrale rimane sempre uguale ad uno. Infatti, consideriamo l’integrale di una gaussiana: Z +∞ 2 I(α) = e−αx dx (1.213) −∞ Si ha Z 2 +∞ I (α) = 2 e−αx dx −∞ Z ∞ Z 2π = 0 +∞ Z 2 e−αy dy = −∞ 2 ρdρdφe−αρ = 2π 0 da cui Z +∞ I(α) = +∞ 2 2 e−α(x + y ) dxdy = −∞ Z 0 Z ∞ 1 2 −αρ dρ e =π 2 2 e−αx dx = −∞ 4 2 r π α Z 0 ∞ π dye−αy = α (1.214) (1.215) La δ(x) risulta ben definita da un punto di vista matematico solo nell’ambito della teoria delle distribuzioni, che non sono funzioni nel senso classico, ma funzionali lineari. 32 Usando queste formula si verifica immediatamente che Z +∞ g∆ (x − x0 )dx0 = 1 (1.216) −∞ Vediamo anche che per ∆ → 0, la funzione g∆ (x − x0 ) tende ad essere sempre più piccola nei punti x 6= x0 . Pertanto in questo limite si ha lim g∆ (x − x0 ) = δ(x − x0 ) ∆→0 (1.217) In generale si definisce una serie di funzioni, f (x) come δ-convergenti se nel limite in cui → 0 succede che n0 se x6=0 (1.218) lim f (x) = →0 ∞ se x=0 e contemporaneamente Z lim f (x)dx = 1 →0 (1.219) In questo caso si ha lim f (x) = δ(x) (1.220) →0 Dunque la successione di gaussiane che abbiamo considerato e’ δ-convergente. I matematici hanno dato una forma rispettabile alla delta di Dirac nell’ambito della teoria delle distribuzioni. le distribuzioni sono funzioni generalizzate che si definiscono tramite le loro proprietà di integrazione con classi di funzioni con opportune proprietà. 1.5.1 Operatori in dimensioni infinite Dato che abbiamo definito i ket in corrispondenza biunivoca con le funzioni, un operatore su questi spazi mappa una funzione f in un’altra funzione f˜ A|f i = |f˜i (1.221) Per esempio, consideriamo l’operatore derivata: d df (x) : f (x) → dx dx (1.222) Nello spazio infinito-dimensionale che abbiamo costruito, indicando con D l’operatore corrispondente avremo D|f i = |df /dxi (1.223) Cioè D mappa una funzione nella sua derivata. Calcoliamo l’espressione hx|D|f i = hx|df /dxi = df (x) dx (1.224) da cui, inserendo la completezza, si ottengono gli elementi di matrice di D tra i vettori di base Z Z df (x) 0 0 0 hx|D|x ihx |f idx = hx|D|x0 if (x0 )dx0 = (1.225) dx 33 Vediamo cosi che d δ(x − x0 ) dx Siamo ora in grado di valutare le proprietà di hermiticità di D. Si ha dunque hx|D|x0 i = Dx,x0 = δ 0 (x − x0 ) (1.226) (1.227) da cui (l’apice indica sempre la derivata rispetto al primo argomento) Dx∗0 ,x = δ 0 (x0 − x)∗ = δ 0 (x0 − x) = −δ 0 (x − x0 ) (1.228) Vediamo che l’operatore D è antihermitiano D† = −D (1.229) Possiamo dunque definire un operatore hermitiano K = −iD (1.230) L’analisi fin qui fatta è formale. Dato che si ha a che fare con distribuzioni, tutte le proprietà andrebbero controllate sotto segno di integrale. Consideriamo dunque un generico elemento di matrice di K, hg|K|f i. Affinché K sia hermitiano dobbiamo avere hg|K|f i = hg|Kf i = hKf |gi∗ = hf |K † |gi∗ = hf |K|gi∗ (1.231) hg|K|f i = hf |K|gi∗ (1.232) cioè Questa relazione si può riscrivere usando la completezza: Z Z hg|K|f i = dxdx0 hg|xihx|K|x0 ihx0 |f i = dxdx0 g ∗ (x)Kx,x0 f (x0 ) = Z dδ(x − x0 ) f (x0 ) = = dxdx0 g ∗ (x)(−i) dx Z df (x) = dxg ∗ (x)(−i) dx (1.233) D’altra parte hf |K|gi∗ = Z Z = i dxf ∗ (x)(−i) dg(x) dx ∗ dg ∗ (x) dx f (x) = −i dx = Z dxg ∗ (x) = hg|K|f i + i [g ∗ (x)f (x)]ba df (x) + i [g ∗ (x)f (x)]ba = dx (1.234) Dunque K è hermitiano se e solo se l’espressione [g ∗ (x)f (x)]ba 34 (1.235) è nulla. Dunque l’hermiticità dell’operatore K dipende dalla classe di funzioni sulla quale è definito. Per esempio, se si ha a che fare con funzioni che si annullano agli estremi dell’intervallo di definizione, K è hermitiano. Analogamente si ha hermiticità nel caso di funzioni periodiche, f (a) = f (b). Nel seguito saremo interessati a funzioni definite in un intervallo infinito (−∞, +∞). Ovviamente se si ha a che fare con funzioni che si annullano all’infinito avremo hermiticità. Spesso però avremo a che fare con funzioni oscillanti, del tipo eikx . Poniamoci adesso il problema agli autovalori: K|ki = k|ki (1.236) hx|K|ki = khx|ki (1.237) ψk (x) = hx|ki (1.238) Passando alla base |xi si ha Definendo segue Z 0 0 Z 0 hx|K|x ihx |kidx = −i δ 0 (x − x0 )ψk (x0 )dx0 = −i dψk (x) dx (1.239) Dobbiamo dunque risolvere dψk (x) = kψk (x) dx (1.240) ψk (x) = Aeikx (1.241) −i La soluzione generale è dove A è una costante di normalizzazione. Ogni valore di k produce un autovalore, d’altra parte K deve essere hermitiano anche sui suoi autovettori. Ma per k complesso, k = k1 + ik2 , le soluzioni divergono in uno dei due limiti e quindi dobbiamo restringerci a k reale. Una normalizzazione conveniente è quella che produce autovettori ortonormali (nel senso del continuo) hk|k 0 i = δ(k − k 0 ) (1.242) Si ha 0 Z Z hk|xihx|k idx = ψk∗ (x)ψk0 (x)dx = Z 0 2 = |A| e−i(k − k )x dx = (2π)|A|2 δ(k − k 0 ) hk|k i = 0 (1.243) dove abbiamo fatto uso della equazione (??). Dunque scegliendo A reale si ha Pertanto 1 A= √ 2π (1.244) 1 hx|ki = ψk (x) = √ eikx 2π (1.245) 35 Si verifica facilmente che gli autovettori di K costituiscono un set ortonormale (nel senso del continuo). Infatti Z Z 0 1 0 dkhx|kihk|x i = dkeik(x − x ) = δ(x − x0 ) (1.246) 2π da cui Z |kihk|dk = I (1.247) Assumeremo che anche nel continuo gli autovettori di un operatore hermitiano costituiscano un set ortonormale. Nel caso in esame funzioni che si espandono nella base |xi con componenti f (x) = hx|f i si potranno espandere anche nella base |ki. Infatti si ha Z Z 1 f (k) = hk|f i = hk|xihx|f idx = √ e−ikx f (x)dx (1.248) 2π e viceversa Z Z 1 eikx f (k)dk (1.249) f (x) = hx|f i = hx|kihk|f idk = √ 2π Si ritrovano per questa via le formule dell’espansione di Fourier. Nella base |ki gli elementi di matrice di K sono ovviamente banali hk|K|k 0 i = k 0 hk|k 0 i = k 0 δ(k − k 0 ) (1.250) Visto che la base |ki è data dagli autovettori di K ci possiamo chiedere se i vettori |xi sono autovettori di un qualche operatore. Questo operatore può essere appunto definito in termini dei suoi autovettori dalla relazione X|xi = x|xi (1.251) hx0 |X|xi = xδ(x − x0 ) (1.252) con elementi di matrice È interessante calcolare l’azione di X sulle funzioni X|f i = |f˜i (1.253) Si ha Z hx|X|f i = 0 0 0 hx|X|x ihx |f idx = Z x0 δ(x − x0 )f (x0 )dx0 = xf (x) (1.254) Pertanto f˜(x) = xf (x) (1.255) X|f i = |xf i (1.256) e Esiste una interessante relazione tra gli operatori X, che equivale a moltiplicare una funzione per il valore di x, cioè il valore della coordinata alla quale è calcolata, e l’operatore K, 36 l’operatore di differenziazione rispetto a x. Questa relazione si può trovare considerando gli elementi di matrice di X tra autostati di K Z Z 0 0 d 1 d 1 −ikx ik x i(k − k)x 0 e xe dx = i e dx = i δ(k − k 0 ) (1.257) hk|X|k i = 2π dk 2π dk Pertanto dg(k) (1.258) dk Gli operatori X e K vengono detti operatori coniugati ed in particolare hanno la proprietà di non commutare. Infatti, da hk|X|gi = i X|f i ⇔ xf (x), K|f i ⇔ −i df (x) dx (1.259) segue d f (x) dx (1.260) d d (xf (x)) = −if (x) − ix f (x) dx dx (1.261) XK|f i ⇔ −ix e KX|f i ⇔ −i Pertanto [X, K]|f i ⇔ if (x) ⇔ iI|f i (1.262) [X, K] = iI (1.263) o Lo spazio delle funzioni normalizzabili alla delta di Dirac è anche chiamato lo spazio di Hilbert fisico. 37 Capitolo 2 I postulati della meccanica quantistica Introdurremo adesso i postulati della meccanica quantistica seguendo quella che viene chiamata l’interpretazione di Copenhagen. Come discuteremo, il principale difetto di questa impostazione e’ che gli effetti di un apparato di misura sulle osservabili vengono postulati assumendo che l’apparato di misura sia classico e quindi, in qualche modo, esca dalla descrizione quantistica. E’ subito evidente la difficolta’ di una simile supposizione. Infatti, ogni apparato macroscopico e’ costituito da entita’ microscopiche, atomi e loro costituenti, e quindi, in linea di principio, dovrebbe essere riconducibile ad una descrizione quantistica. Cio’ nonostante l’interpretazione di Copenhagen fornisce un quadro molto coerente dei dati sperimentali e fino ad oggi non e’ mai stata smentita. Piu’ avanti nel corso discuteremo il problema della misura in maniera piu’ approfondita. Inizieremo considerando un sistema costituito da un singolo grado di libertà, una particella in una dimensione spaziale. Descriveremo ora i postulati della meccanica quantistica per un tale sistema mettendoli a raffronto con gli analoghi postulati della meccanica classica. Come vedremo, questi postulati si basano sulle considerazioni iniziali relative allo spazio delle fasi ed alle variabili dinamiche in Meccanica Quantistica. Meccanica Classica Meccanica Quantistica 1) Lo stato di una sistema ad ogni istante è specificato assegnando un punto P nello spazio delle fasi. 1) Lo stato di un sistema è specificato da un vettore |ψ(t)i in uno spazio di Hilbert (spazio delle fasi quantistico). 2) Ogni variabile dinamica, ω, è una funzione sullo spazio delle fasi, ω = ω(P ). 2) Una variabile dinamica (o osservabile), Ω, è un operatore hermitiano sullo spazio di Hilbert in esame. 38 3) Se il sistema è nello stato |ψ(t)i, la misura della variabile corrispondente a Ω darà uno degli autovalori ω di Ω con probabilità P (ω) ∝ |hω|ψi|2 . Dopo la misura il sistema viene proiettato nello stato |ωi corrispondente all’autovalore ω. 4) Il vettore di stato evolve in accordo alla equazione di Schrödinger: ∂ / |ψ(t)i = H|ψ(t)i ih ∂t dove H è un operatore hermitiano detto operatore hamiltoniano. 3) Se il sistema è nello stato determinato dal punto P , la misura di ω darà il valore ω(P ). Lo stato del sistema rimane inalterato dopo la misura. 4) Le variabili di stato evolvono secondo le equazioni di Hamilton: dω ∂ω = + {ω, H} dt ∂t Quando si ha a che fare con un sistema specifico, i postulati 2) e 3) vengono ulteriormente specificati. Per esempio, se si considera un punto materiale che si muova lungo una retta, il suo spazio delle fasi è descritto dalle variabili di posizione e di impulso (x, p) e i postulati 2) e 3) diventano: Meccanica Classica (particella unidimensionale) 2) Ogni variabile dinamica, ω, è una funzione di x e p, ω = ω(x, p) 4) Le variabili di stato evolvono secondo le equazioni di Hamilton: ∂H ∂H ẋ = , ṗ = − ∂p ∂x Meccanica Quantistica 2) Le variabili x e p della meccanica classica sono rappresentate da operatori hermitiani X and P con i seguenti elementi di matrice hx|X|x0 i = xδ(x − x0 ) d / δ(x − x0 ) hx|P |x0 i = −ih dx Gli operatori hermitiani che corrispondono alle variabili classiche ω(x, p) si ottengono tramite la sostituzione Ω(X, P ) = ω(x → X, p → P ) 4) Il vettore di stato evolve in accordo alla equazione di Schrödinger: ∂ / |ψ(t)i = H|ψ(t)i ih ∂t dove H(X, P ) = H(x → X, p → P ) è l’hamiltoniana quantistica, ottenuta dalla hamiltoniana classica, seguendo il postulato 2). 39 Notiamo che per entrambi i casi i primi tre postulati fanno riferimento al sistema a un dato istante, mentre il quarto specifica la variazione dello stato con il tempo. Iniziamo con l’osservare che mentre il sistema classico è descritto da un punto nello spazio delle fasi, e quindi, in genere, da un numero finito di gradi di libertà (per esempio due gradi di libertà x e p nel caso della particella in una dimensione), il sistema quantistico è specificato da un vettore di stato |ψ(t)i che, generalmente, è un vettore in uno spazio di Hilbert infinito-dimensionale. L’interpretazione fisica del vettore di stato è fornita dai postulati 2) e 3). Abbiamo detto che assegnato lo stato (o il punto nello spazio delle fasi), in meccanica classica ogni osservabile ω è univocamente assegnata dal suo valore ω(P ). Viceversa in meccanica quantistica, allorché sia assegnato lo stato, per misurare una osservabile Ω dobbiamo effettuare le seguenti operazioni: 1) - Costruire l’operatore hermitiano Ω corrispondente alla variabile dinamica ω tramite la regola di corrispondenza (o, comunque postulare le proprieta’ dell’operatore se non si ha un corrispondente classico), per esempio per la particella Ω = ω(x → X, p → P ) (2.1) 2) - Determinare gli autovettori |ωi i e gli autovalori ωi di Ω. 3) - Espandere il vettore di stato nella base degli autovettori di Ω X |ψi = |ωi ihωi |ψi (2.2) i 4) - La probabilità P (ωi ) di ottenere come risultato della misura l’autovalore ωi è P (ωi ) ∝ |hωi |ψi|2 (2.3) Questo risultato si può anche esprimere usando il proiettore Pωi = |ωi ihωi | P (ωi ) ∝ hψ|ωi ihωi |ψi = hψ|Pωi |ψi = hψ|Pωi Pωi |ψi = hPωi ψ|Pωi ψi (2.4) ovvero, la probabilità è la norma quadrata della proiezione del vettore di stato sull’autovettore corrispondente all’autovalore misurato. Possiamo fare alcune osservazioni: i) - La teoria fa solo predizioni probabilistiche per i risultati di una misura. Inoltre i soli possibili risultati della misura di una osservabile Ω sono i suoi autovalori. Se la quantita’ che si misura corrisponde a un operatore hermitiano i risultati della misura sono reali. 40 ii) - Dato che P (ωi ) ∝ |hωi |ψi|2 , |hωi |ψi|2 è solo una probabilità relativa. Per avere la probabilità assoluta occorre dividere per tutti i risultati possibili |hωi |ψi|2 |hωi |ψi|2 |hωi |ψi|2 P P (ωi ) = P = = 2 hψ|ψi j |hωj |ψi| j hψ|ωj ihωj |ψi (2.5) Quindi se normalizziamo lo stato |ψi |ψ 0 i = |ψi ] → hψ 0 |ψ 0 i = 1 [hψ|ψi]1/2 (2.6) P (ωi ) = |hωi |ψ 0 i|2 (2.7) si ha Questo risultato vale solo per stati normalizzabili. Il caso di vettori normalizzati alla delta di Dirac verrà riesaminato in seguito. Ovviamente due stati paralleli |ψi e α|ψi danno luogo alla stessa distribuzione di probabilità. Pertanto a uno stato fisico non è realmente associato un vettore nello spazio di Hilbert ma piuttosto una direzione o un raggio. Quindi quando si parla di stato di una particella si intende tipicamente uno stato normalizzato hψ|ψi = 1. Anche con questa ulteriore restrizione lo stato |ψi non è univocamente fissato dato che se |ψi è normalizzato, anche eiθ |ψi lo è e dà la stessa distribuzione di probabilità di |ψi. A volte questa libertà viene usata per scegliere le componenti di |ψi reali in una data base. iii) - Nel caso in cui lo stato |ψi coincida con un autovettore, o autostato |ωi i dell’operatore Ω, il risultato della misura di Ω sarà certamente ωi . iv) - Nel caso in cui lo stato |ψi sia una sovrapposizione di due autostati di Ω: |ψi = avremo P (ω1 ) = α|ω1 i + β|ω2 i (|α|2 + |β|2 )1/2 |α|2 , |α|2 + |β|2 P (ω2 ) = (2.8) |β|2 |α|2 + |β|2 (2.9) v) - Se vogliamo informazioni relativamente a un’altra osservabile Λ, occorre ripetere tutto il procedimento visto sopra. Cioè trovare autovalori ed autovettori di Λ, da cui P (Λ) = |hλ|ψi|2 (2.10) Vediamo dunque che il ket |ψi che rappresenta lo stato del sistema contiene le predizioni relative a tutte le possibili osservabili. Questo e’ analogo alla meccanica classica in cui la conoscenza del punto dello spazio delle fasi in cui si trova il sistema permette di calcolare tutte le osservabili del sistema. vi) - Per passare dalla base degli autostati di Ω a quella degli autostati di Λ conviene 41 procedere nel seguente modo. Una volta determinate le componenti di |ψi nella base |ωi i, hωi |ψi, si può passare alla base |λi i usando la seguente espressione per |ψi: X |ψi = |ωi ihωi |ψi (2.11) i e proiettando su |λj i hλj |ψi = X hλj |ωi ihωi |ψi (2.12) i o (λ) ψj = X (ω) Sji ψi (2.13) Sji = hλj |ωi i (2.14) i con La matrice S con elementi di matrice (2.14) è chiamata la matrice di transizione tra le due basi e soddisfa X X X ∗ Skj = hλk |ωi i∗ hλk |ωj i = (S † S)ij = (S † )ik Skj = Ski k k k X = hωi |λk ihλk |ωj i = hωi |ωj i = δij (2.15) k cioè S è una matrice unitaria. Questo è generalmente vero per le matrici di transizione che fanno passare da una base ortonormale a un’altra ortonormale. Esempio: Consideriamo lo spazio V 3 (R) e una base ortonormale corrispondente agli autostati ortonormali di un operatore hermitiano Ω, con uno stato del sistema dato da 1 1 1 |ψi = |ω1 i + |ω2 i + √ |ω3 i 2 2 2 (2.16) 1 1 1 + + =1 4 4 2 (2.17) Segue che |ψi è normalizzato e quindi 1 1 1 P (ω1 ) = , P (ω2 ) = , P (ω3 ) = (2.18) 4 4 2 Supponiamo adesso di avere un’altra osservabile Λ con un set completo di autostati dati in termini degli autostati di Ω da |ω1 i = cos θ|λ1 i − sin θ|λ2 i |ω2 i = sin θ|λ1 i + cos θ|λ2 i |ω3 i = |λ3 i (2.19) Avremo dunque |ψi = 1 1 1 (cos θ|λ1 i − sin θ|λ2 i) + (sin θ|λ1 i + cos θ|λ2 i) + √ |λ3 i 2 2 2 42 (2.20) da cui 1 1 1 |ψi = (cos θ + sin θ)|λ1 i + (cos θ − sin θ)|λ2 i + √ |λ3 i 2 2 2 (2.21) e P (λ1 ) = P (λ2 ) = P (λ3 ) = 1 (1 + sin 2θ) 4 1 (1 − sin 2θ) 4 1 2 (2.22) P Ovviamente i P (λi ) = 1. Sia nei postulati che nella discussione sin qui fatta ci sono alcune ambiguità e complicazioni che adesso discuteremo: La prescrizione Ω = ω(x → X, p → P ) è ambigua. Consideriamo ad esempio ω = xp = px (2.23) Ovviamente potremmo porre Ω = XP oppure Ω = P X, ma queste due espressioni non coincidono. Infatti dal postulato 2) / hx|P |x0 i = −ih d δ(x − x0 ) dx (2.24) vediamo che P = /hK (2.25) dove K è l’operatore definito in (1.230). Segue dunque da (1.263) che / I 6= 0 [X, P ] = ih (2.26) In questo caso adotteremo la prescrizione di Weyl che consiste nel simmetrizzare in X e in P , cioè 1 Ω = (XP + P X) (2.27) 2 Vediamo che questa prescrizione rende anche l’operatore Ω hermitiano dato che (XP )† = P X (2.28) In casi più complessi in cui Ω contenga prodotti di due o più potenze di X con due o più potenze di P non esiste una prescrizione univoca ed occorre ricorrere all’esperimento. L’operatore Ω è degenere. Supponiamo di avere due autovalori degeneri ω1 = ω2 = ω. Come calcoliamo P (ω) in questo caso? A questo scopo scegliamo una base ortonormale nell’autospazio Vω , |ω, 1i e |ω, 2i. Supponiamo poi di partire da un caso non degenere in cui i due autovalori siano ω e ω + . Inoltre supponiamo che |ωi = |ω, 1i, lim |ω + i = |ω, 2i →0 43 (2.29) Allora la probabilità di ottenere ω o ω + come risultato della misura è P (ω o ω + ) = |hω|ψi|2 + |hω + |ψi|2 (2.30) È ragionevole supporre che il risultato rimanga tale nel limite → 0 e quindi P (ω) = |hω, 1|ψi|2 + |hω, 2|ψi|2 (2.31) Se introduciamo l’operatore di proiezione sull’autospazio Vω Pω = |ω, 1ihω, 1| + |ω, 2ihω, 2| (2.32) P (ω) = hψ|Pω |ψi = hPω ψ|Pω ψi (2.33) si ha Pertanto il postulato 3) si generalizza semplicemente dicendo che la probabilità di ottenere l’autovalore ω come risultato della misura di Ω è data da P (ω) ∝ hψ|Pω |ψi (2.34) con Pω il proiettore sull’autospazio Vω . Lo spettro di Ω è continuo. In questo caso si ha Z |ψi = |ωihω|ψidω (2.35) Dato che ω varia con continuità chiameremo hω|ψi = ψ(ω) (2.36) la funzione d’onda nello spazio ω o anche l’ampiezza di probabilità per ottenere ω dalla misura di Ω. È ovvio che non possiamo interpretare |hω|ψi|2 come una probabilità dato che ω assume infiniti valori e vogliamo una probabilità totale uguale ad uno. Interpreteremo dunque P (ω) = |hω|ψi|2 come una densità di probabilità. Cioè P (ω)dω = probabilità di trovare un risultato compreso tra ω e ω + dω Con questa definizione, se |ψi è normalizzata a uno si ha Z Z P (ω)dω = hψ|ωihω|ψidω = hψ|ψi = 1 (2.37) quindi probabilità totale uguale ad uno. Se invece |ψi non è normalizzabile allora P (ω) va pensata come una densità di probabilità relativa. Un esempio importante è quello dell’operatore X di posizione. La funzione d’onda nello spazio delle x si chiama semplicemente la funzione d’onda. Osserviamo anche che una particella classica ha una posizione definita, mentre una particella quantistica può assumere qualunque posizione e quindi |ψ(x)|2 rappresenta la densità di probabilità per trovare la particella al punto x. In fisica classica 44 dobbiamo specificare anche l’impulso per definire completamente lo stato di una particella, invece in meccanica quantistica si dà la densità di probabilità per ottenere un dato valore dell’impulso. Ancora, questa non è una ulteriore informazione, infatti tale densità si ottiene sempre dal vettore di stato |ψi proiettando nella base |pi, cioè da hp|ψi = ψ(p). La variabile Ω non ha analogo classico. Ci sono vari casi importanti in cui non si ha analogo classico. Un esempio è lo spin dell’elettrone. In queste situazioni occorre affidarsi all’intuizione e ad analogie, non dimenticando il confronto con i dati sperimentali. 2.1 Il collasso del vettore di stato Abbiamo visto nel postulato 3) che il processo di misura cambia, in generale, lo stato del sistema. Infatti se misuriamo l’osservabile Ω e |ωi i sono i suoi autovettori, lo stato del sistema, che prima della misura era X |ψi = |ωi ihωi |ψi (2.38) i viene proiettato nell’autovettore corrispondente all’autovalore ωi determinato dal processo di misura =⇒ |ω i |ψimisura (2.39) i Notiamo che questa condizione, oltre ad essere verificata in innumerevoli esperimenti e’ anche una necessita’ logica della teoria. Infatti se non fosse cosi, la teoria non potrebbe fare delle predizioni sui risultati sperimentali. Infatti il risultato di una misura non potrebbe essere usato come dato iniziale di una successiva evoluzione del sistema. In altri termini la teoria non sarebbe usabile ai fini pratici. Vorremmo anche far notare una distinzione profonda tra il significato di misura in fisica classica ed in meccanica quantistica. Quando si parla di misura in fisica classica pensiamo di dover misurare il valore di una grandezza che corrisponde al valore che questa grandezza ha nel sistema che stiamo misurando. Se misuriamo la velocita’ di una macchina che risulta 10 m/sec., classicamente pensiamo che la macchina possieda quella velocita’ prima di effettuare la misura. In meccanica quantistica la situazione e’ profondamente diversa a causa della natura probabilistica della teoria. Misurare significa determinare il valore che ha una certa osservabile, dopo che l’abbiamo misurata. Prima della misura, non sappiamo quale valore abbia la grandezza che misuriamo. Questa distinzione e’ da tenere ben presente, perche’ spesso l’origine delle difficolta’ e’ nel diverso significato che misura assume nei due contesti, classico o quantistico. Occorre puntualizzare che in genere si intende di effettuare una misura ideale. Misura ideale significa che se la si effettua su un autostato dell’osservabile che si sta misurando, lo stato del sistema rimane inalterato. In conclusione di questa analisi assumeremo che per ogni osservabile sia possibile una misura ideale che lascia inalterati gli stati costituiti dagli autovettori dell’osservabile stessa. 45 Vediamo dunque che la differenza fondamentale tra meccanica classica e meccanica quantistica è che in meccanica classica si possono fare, per ogni variabile, delle misure ideali che lasciano invariati tutti gli stati del sistema; invece, in meccanica quantistica, una misura ideale dell’osservabile Ω lascia invariati solo i suoi autostati. Ripetendo ancora una volta, se come risultato della misura di Ω il risultato è l’autovalore ω, allora l’effetto della misura è la proiezione |ψi =⇒ misura Pω |ψi hPω ψ|Pω ψi1/2 (2.40) dove Pω è il proiettore sull’autospazio Vω . Notiamo anche che, nel caso degenere, se conosciamo lo stato del sistema prima della misura, lo conosceremo anche dopo. Per esempio, supponiamo che in questo caso la decomposizione del vettore di stato rispetto all’osservabile Ω che si desidera misurare, sia X 1 1 |ψi = |ω, 1i + |ω, 2i + αi |ωi i 2 2 (2.41) ωi 6=ω con l’autovalore ω doppiamente degenere. Supponiamo anche che il risultato della misura sia proprio ω. Allora lo stato del sistema dopo la misura è certamente |ψi =⇒ misura 1 √ (|ω, 1i + |ω, 2i) 2 (2.42) Se invece lo stato non è noto, dopo la misura possiamo solo dire che lo stato appartiene all’autospazio Vω e quindi |ψi 2.2 =⇒ misura α|ω, 1i + β|ω, 2i p α2 + β 2 (2.43) Come si verifica la teoria quantistica La teoria quantistica fa delle predizioni probabilistiche riguardo ai risultati delle misure su una particella che si trovi nello stato |ψi e predice l’evoluzione temporale dello stato. Quindi, per essere in grado di verificare una teoria quantistica occorre poter effettuare due operazioni fondamentali: 1) Creare delle particelle in uno stato definito |ψi. 2) Controllare le predizioni probabilistiche agli istanti successivi. Osserviamo che la proprietà del collasso dei vettori di stato ci permette di creare degli stati ben definiti. Infatti possiamo partire da uno stato generico |ψi e misurare una osservabile Ω. Se il risultato della misura è un autovalore non degenere (altrimenti sono 46 necessarie altre misure, vedi in seguito) sappiamo con certezza che il sistema si trova nello stato |ωi. Se vogliamo misurare un’altra osservabile Λ subito dopo aver misurato Ω, avremo uno sviluppo quale, ad esempio √ 1 |ωi = √ |λ1 i + 2|λ2 i (2.44) 3 In questo caso la teoria predice in modo univoco che si otterranno i valori λ1 e λ2 con probabilità pari a 1/3 e 2/3 rispettivamente. Se ottenessimo come risultato λ 6= λ1 , λ2 sapremmo con certezza che la nostra teoria è errata. Se viceversa si trova λ1 o λ2 è un buon indizio che la teoria sia corretta. Però questa non è la fine della storia. Infatti dobbiamo ancora verificare che le probabilità sono proprio 1/3 e 2/3. D’altra parte, se abbiamo trovato come risultato λ1 , il sistema non si trova più nello stato (2.44), ma nello stato |λ1 i. Se quindi ripetessimo la misura di Λ troveremmo λ1 con probabilità uno. Dobbiamo dunque ripetere l’esperimento partendo nuovamente con una particella nello stato originale |ωi. Quindi si deve considerare un insieme quantistico di N particelle nello stesso stato (|ωi nell’esempio in discussione). Effettuando la misura di Λ su tutte le particelle dell’insieme dovremmo dunque trovare in media N/3 particelle nello stato |λ1 i e 2N/3 particelle nello stato |λ2 i. La differenza con un insieme classico è che con i risultati precedenti ottenuti dalla misura, nel caso classico si può pensare che prima della misura N/3 particelle fossero nello stato caratterizzato da λ = λ1 e 2N/3 nello stato λ = λ2 . Nel caso quantistico invece tutte e N le particelle sono nello stesso stato |ωi prima della misura, ed in grado quindi di dare come risultato sia λ1 che λ2 . Solo dopo la misura N/3 particelle sono proiettate nello stato |λ1 i e 2N/3 nello stato |λ2 i. La situazione è completamente analoga a quanto abbiamo visto nell’esperimento di Young. Non possiamo qui dire, prima della misura, che il sistema si trovava o nello stato |λ1 i o nello stato |λ2 i, cosi come nell’esperimento di Young non si può dire da quale delle due fenditure passa la particella. 2.3 Valori medi (o di aspettazione) Abbiamo visto che una volta assegnate N particelle nello stato |ψi (supposto normalizzato) è possibile prevedere quale frazione di esse da, come risultato della misura dell’osservabile Ω, l’autovalore ω. Per questo è necessario risolvere il problema agli autovalori per Ω da cui otterremo che la frazione desiderata sarà N P (ω) = N |hω|ψi|2 (2.45) Se invece siamo interessati a conoscere il valor medio di Ω sull’insieme delle N particelle in esame, possiamo eludere il problema agli autovalori. Infatti si avrà, dalla definizione di valor medio: X X X hΩi = ωi P (ωi ) = ωi |hωi |ψi|2 = hψ|ωi iωi hωi |ψi = i i i X = hψ|Ω|ωi ihωi |ψi = hψ|Ω|ψi i 47 (2.46) Dunque hΩi = hψ|Ω|ψi (2.47) La quantita’ hΩi e’ detta anche valore di aspettazione o valore aspettato di Ω con terminologia impropria. Piu’ corretto e’ chiamarla valor medio. Osserviamo che: 1) - Per calcolare il valor medio di Ω nello stato ψ basta conoscere lo stato e l’operatore. 2) - Se la particella si trova in un autostato di Ω, |ωi, allora hΩi = ω (2.48) 3) - Quando parliamo di valore medio di una osservabile ci riferiamo sempre alla media fatta sull’insieme. Una singola particella può determinare un unico valore per la misura di Ω. Allorché si facciano considerazioni probabilistiche una quantità utile è la cosiddetta deviazione standard definita come ∆Ω = h(Ω − hΩi)2 i1/2 (2.49) La quantità ∆Ω è anche detta l’indeterminazione su Ω. Si ha 1/2 1/2 hψ|(Ω − hΩi)2 |ψi = hψ|(Ω2 − 2ΩhΩi + hΩi2 )|ψi = 1/2 1/2 = hψ|Ω2 |ψi − hψ|Ω|ψi2 = hΩ2 i − hΩi2 ∆Ω = (2.50) ovvero 1/2 ∆Ω = hΩ2 i − hΩi2 Esercizio: Dati i seguenti operatori su V 3 (C) 0 1 0 0 −i 0 1 1 1 0 1 , Ly = √ i 0 −i , Lx = √ 2 0 1 0 2 0 i 0 (2.51) 1 0 0 Lz = 0 0 0 0 0 −1 (2.52) 1) - Quali sono i possibili autovalori di Lz ? Chiaramente ±1, 0 visto che Lz è diagonale. 2) - Nell’ autostato di Lz con autovalore +1, quanto valgono hLx i, hL2x i e∆Lx ? Iniziamo calcolando l’autostato di Lz , con Lz = 1. Si ha x1 1 0 0 x1 x1 (2.53) Lz |Lz = 1i ⇔ 0 0 0 x2 = 0 = x2 0 0 −1 x3 −x3 x3 48 da cui x2 = x3 = 0 (2.54) 1 |Lz = 1i ⇔ 0 0 (2.55) 0 1 0 1 1 1 0 1 0 = 0 hLx i = √ 1 0 0 2 0 1 0 0 (2.56) 0 1 0 0 1 0 1 0 1 1 1 L2x ⇔ 1 0 1 1 0 1 = 0 2 0 2 2 0 1 0 0 1 0 1 0 1 (2.57) 1 0 1 1 1 1 1 1 1 0 0 0 2 0 0 = 1 0 0 0 = hL2x i = 2 2 2 1 0 1 0 1 (2.58) 1/2 2 1/2 1 ∆Lx = hL2x i − hLx i2 = hLx i =√ 2 (2.59) Quindi Pertanto Si ha poi Per cui e 3) - Quali sono gli autovalori e gli autovettori di Lx nella base Lz ? Dato che nella rappresentazione assegnata Lz è diagonale, la matrice di Lx è già nella base Lz . Quindi gli autovalori sono dati dall’equazione caratteristica data da −λ √1 0 2 (2.60) P (λ) = det √12 −λ √12 = λ(1 − λ2 ) = 0 1 √ 0 −λ 2 Dunque gli autovalori sono λ = ±1, 0. Gli autovettori si ottengono facilmente, per esempio, il caso λ = +1 si ottiene risolvendo −1 √12 0 x1 −x1 + √12 x2 0 = √12 −1 √12 x2 = √12 (x1 + x3 ) − x2 (2.61) √1 x2 − x3 x3 0 √12 −1 2 Risolvendo si ha 1 x1 = √ x2 , 2 1 x3 = √ x2 2 (2.62) Pertanto il vettore normalizzato è dato da √1 2 1 |Lx = 1i ⇔ √ 1 2 √1 2 49 (2.63) Analogamente si trova −1 1 |Lx = 0i ⇔ √ 0 2 +1 1 (2.64) √ 1 2 |Lx = −1i ⇔ √ −1 2 √1 (2.65) 2 4) - Se la particella ha Lz = −1 e si misura Lx , quali sono i possibili risultati della misura e le rispettive probabilità? I possibili risultati sono gli autovalori di Lx e quindi ±1, 0. Lo stato in cui si trova la particella, avendo Lz = −1 è chiaramente 0 |ψi ⇔ 0 (2.66) 1 Quindi 2 P (Lx = +1) = |hLx = 1|ψi| = 12 √1 2 e inoltre P (Lx = 0) = |hLx = 0|ψi|2 = 1 2 2 0 0 = 1 4 1 1 2 P (Lx = −1) = |hLx = −1|ψi|2 = (2.67) (2.68) 1 4 (2.69) 5) - Supponiamo che lo stato del sistema, nella base Lz , sia dato da 1 |ψi ⇔ 2 1 2 √1 2 (2.70) Supponiamo inoltre di misurare L2z e di trovare il risultato +1, quale è lo stato del sistema dopo la misura? L’operatore L2z è dato da 1 0 0 (2.71) L2z ⇔ 0 0 0 0 0 1 Quindi l’autovalore +1 di L2z è doppiamente degenere. Una base nell’autospazio corrispondente a L2z = +1 è chiaramente 1 2 |Lz = +1, 1i = |Lz = +1i ⇔ 0 0 0 2 (2.72) |Lz = +1, 2i = |Lz = −1i ⇔ 0 1 50 Il proiettore su questo autospazio è dato da 1 0 1 0 0 PL2z =1 ⇔ 0 1 0 0 + 0 0 0 1 = 0 0 0 0 1 0 0 1 (2.73) Pertanto 1 1 1 0 0 2 2 1 1 PL2z =1 |ψi ⇔ 0 0 0 12 = 0 ⇔ |Lz = +1i + √ |Lz = −1i 2 2 √1 √1 0 0 1 2 2 (2.74) Lo stato normalizzato sarà quindi PL2z =1 |ψi ||PL2z =1 |ψi||1/2 1 = √ |Lz = +1i + 3 r 2 |Lz = −1i 3 (2.75) dove con il simbolo ||.|| intendiamo la norma quadrata di un vettore. Notiamo che la probabilità di ottenere questo stato è data da ||PL2z =1 |ψi|| = 1 1 3 + = 4 2 4 (2.76) Se dopo aver misurato L2z misuriamo Lz troveremo +1 con probabilità 1/3 e −1 con probabilità 2/3. 6) - Il sistema si trova in uno stato per il quale 1 P (Lz = +1) = , 4 1 P (Lz = 0) = , 2 P (Lz = −1) = 1 4 (2.77) Quale è lo stato più generale con questa proprietà? Chiaramente avremo |ψi = α|Lz = +1i + β|Lz = 0i + γ|Lz = −1i con 1 |α|2 = , 4 1 |β|2 = , 2 |γ|2 = 1 4 (2.78) (2.79) da cui 1 1 1 |ψi = eiδ1 |Lz = +1i + √ eiδ2 |Lz = 0i + eiδ3 |Lz = −1i (2.80) 2 2 2 Se per esempio calcoliamo la probabilità di trovare Lx = 0 in questo stato avremo 1 P (Lx = 0) = |hLx = 0|ψi|2 = (1 − cos(δ3 − δ1 ) 4 (2.81) Quindi questa probabilità dipende solo dalla differenza delle fasi δ3 e δ1 . Infatti possiamo sempre fattorizzare una fase nel nostro stato, per esempio δ1 , ottenendo 1 1 i(δ2 −δ1 ) 1 i(δ3 −δ1 ) iδ1 |ψi = e |Lz = +1i + √ e |Lz = 0i + e |Lz = −1i (2.82) 2 2 2 51 D’altra parte, come discusso in precedenza, possiamo identificare |ψi con e−iδ1 |ψi e quindi la fisica dipende solo da due differenze di fase. Notiamo anche che nel caso particolare δ1 = δ2 = δ3 si ha |ψi ⇔ 1 2 √1 2 1 2 ⇔ |Lx = +1i (2.83) mentre con δ2 − δ1 = π e δ3 − δ1 = 0 1 2 − √1 2 1 2 |ψi ⇔ 2.4 ⇔ |Lx = −1i (2.84) Variabili compatibili e incompatibili Come abbiamo visto nelle sezioni precedenti, per una particella in uno dato stato |ψi una variabile dinamica non ha un valore definito a meno che lo stato non sia autostato dell’osservabile. Un tale stato è ottenuto semplicemente misurando l’osservabile. L’atto della misura fa collassare lo stato |ψi nell’autostato |ωi con probabilità |hω|ψi|2 . In questa sezione estenderemo queste considerazioni al caso di più osservabili. In particolare ci porremo i seguenti problemi: 1) - È possibile definire un sistema di filtraggio in modo da produrre uno stato con valori definiti per due osservabili Ω e Λ? 2) - Qual’è la probabilità per ottenere un tale stato? Per il primo punto possiamo pensare di partire con uno stato |ψi e misurare Ω. A questo punto il sistema si troverà nell’autostato |ωi. Se dopo questa misura misuriamo immediatamente Λ trovando l’autovalore λ avremo: |ψi =⇒ Ω |ωi =⇒ Λ |λi (2.85) D’altra parte in generale |ωi non è un autostato di Λ né |λi è un autostato di Ω, per cui né dopo la prima misura né dopo la seconda avremo un autostato di entrambe le osservabili. Ma se vogliamo un autostato di entrambe le osservabili, lo stato prodotto dalla prima misura non deve essere modificato dalla seconda, cioè |ωi deve essere autostato di Λ. Per dare risposta positiva al primo problema occorre dunque filtrare un autostato simultaneo delle due osservabili Ω|ω, λi = ω|ω, λi, Λ|ω, λi = λ|ω, λi (2.86) Queste due relazioni implicano [Ω, Λ]|ω, λi = 0 (2.87) Vediamo che il commutatore [Ω, Λ] deve avere almeno un autovettore con autovalore nullo. A questo proposito si possono avere tre possibilità distinte: 52 A) - Gli operatori Ω e Λ sono compatibili, cioè [Ω, Λ] = 0. B) - Gli operatori sono incompatibili, cioè il commutatore è un operatore con nessun autovalore nullo. C) - Altri casi. Consideriamo adesso i vari casi: A) - Se Ω e Λ sono operatori hermitiani e compatibili esiste una base completa di autostati simultanei. Ogni vettore di questa base ha un valore ben definito delle due osservabili. B) - Consideriamo, per esempio gli operatori X e P . Come sappiamo /I [X, P ] = ih (2.88) / I|ψi = ih 6 0 · |ψi (2.89) Ovviamente per qualunque |ψi non banale. Pertanto X e P sono incompatibili non ammettendo autovettori simultanei. Ogni misura che filtri un autostato di X viene distrutta da una misura successiva di P . Come vedremo meglio in seguito questa è la base del principio di indeterminazione di Heisenberg. C) - In alcuni casi è possibile trovare alcuni stati (ma non un set completo) che sono autostati simultanei dei due operatori non commutanti. Discutiamo adesso le probabilità (non discuteremo il caso C) che è di scarso interesse): A) - Supponiamo di essere nel caso non degenere. In questo caso misurando Ω si proietta il sistema in un autostato di Ω che è anche autostato di Λ. Quindi: |ψi =⇒ Ω |ω, λi (2.90) e P (ω) = |hω, λ|ψi|2 (2.91) Dato che il sistema è anche in un autostato di Λ con autovalore λ, la probabilità di trovare λ dopo la misura di Λ è uguale ad uno. Quindi P (ω, λ) = |hω, λ|ψi|2 (2.92) Se invertiamo il processo di misura (prima Λ e poi Ω) il risultato non cambia. In altri termini, in questi casi possiamo espandere il vettore di stato in un set completo di autovettori 53 delle due osservabili compatibili: |ψi = X |ω, λihω, λ|ψi (2.93) con P (ω, λ) = P (λ, ω) = |hω, λ|ψi|2 (2.94) Le due osservabili sono dette compatibili perché il processo di misura della seconda osservabile non altera l’autovalore ottenuto per la prima. Nel caso non degenere anche l’autovettore non viene alterato. Questo può invece succedere nel caso degenere. A titolo esemplificativo consideriamo V 3 (R) e due operatori Ω e Λ su questo spazio con Λ avente un autovalore doppiamente degenere e una corrispondente base ortonormale data da |ω1 , λi, |ω2 , λi, |ω3 , λ3 i (2.95) Supponiamo poi di avere uno stato normalizzato |ψi = α|ω3 , λ3 i + β|ω1 , λi + γ|ω2 , λi (2.96) Se misurando Ω si ottiene ω3 , la misura successiva di Λ darà sicuramente λ3 con probabilità per le due misure P (ω3 , λ3 ) = |α|2 (2.97) Supponiamo invece di ottenere ω1 dalla prima misura, lo stato diventerà |ω1 , λi e il risultato di misurare Λ darà con certezza λ. La probabilità complessiva risulterà pari a |β|2 . Se invece effettuiamo le misure in ordine inverso e il risultato della misura di Λ è λ, otterremo lo stato normalizzato |ψ 0 i = Pλ |ψi β|ω1 , λi + γ|ω2 , λi = 1/2 |hPλ ψ|Pλ ψi| (β 2 + γ 2 )1/2 (2.98) con probabiltà P (λ) = |β|2 + |γ|2 (2.99) Se adesso misuriamo Ω otterremo lo stato |ω1 , λi con probabilità P (ω1 ) = |β|2 |β|2 + |γ|2 (2.100) Quindi la probabilità di ottenere λ seguito da ω1 sarà P (λ, ω1 ) = P (λ)P (ω1 ) = (|β|2 + |γ|2 ) × |β|2 = |β|2 = P (ω1 , λ) |β|2 + |γ|2 (2.101) Pertanto la probabilità non dipende dall’ordine delle misure nemmeno nel caso degenere. D’altra parte lo stato può cambiare. In generale possiamo dunque dire per osservabili compatibili l’autovalore misurato nella prima misura non cambia a seguito della seconda misura. Corrispondentemente anche l’autospazio non cambia. D’altra parte nel caso degenere sappiamo che l’autospazio non determina univocamente un autovettore e quindi 54 il vettore di stato può essere alterato dalla seconda misura. In conclusione un processo di misura può essere usato per preparare un sistema in un determinato stato quantico. Se siamo nel caso degenere e misuriamo l’osservabile Ω possiamo solo dire che il vettore risultante sta nell’autospazio Vω . Possiamo allora misurare una osservabile compatibile con Ω, diciamo Λ. Se questa osservabile è non degenere nell’autospazio Vω otterremo un vettore ben definito |ω, λi, altrimenti dovremo trovare una terza variabile compatibile Γ. Alla fine di questo processo avremo rimosso tutta la degenerazione e avremo ottenuto uno stato ben definito caratterizzato da tutti gli autovalori delle osservabili usate nella misura, Ω, Λ, Γ, · · · : |ω, λ, γ, · · · i (2.102) Assumeremo che un tale sistema di osservabili compatibili esista sempre e lo chiameremo un set completo di osservabili commutanti. B) - Se Ω e Λ sono incompatibili possiamo ancora specificare quale sia la probabilità di ottenere prima ω e poi λ dalle due misure in successione, ma invertendo l’ordine si ha P (ω, λ) 6= P (λ, ω) (2.103) Infatti la successione delle due misure dà |ψi =⇒ Ω |ωihω|ψi =⇒ Λ |λihλ|ωihω|ψi (2.104) |ψi =⇒ Λ |λihλ|ψi =⇒ Ω |ωihω|λihλ|ψi (2.105) Le rispettive probabilità sono dunque P (ω, λ) = |hλ|ωi|2 |hω|ψi|2 6= P (λ, ω) = |hω|λi|2 |hλ|ψi|2 (2.106) Come vediamo le due probabilità differiscono in quanto, in generale hω|ψi = 6 hλ|ψi. Inoltre dopo la seconda misura il sistema è autostato della seconda osservabile misurata e non più della prima. Esempio: Consideriamo i due operatori ω = σx e λ = σz . Consideriamo inoltre lo stato |ψi che nella base in cui σz è diagonale è dato da α |ψi ↔ (2.107) β con α e β dati da α = cos θe−iφ , β = sin θeiφ (2.108) (vedi eq. 1.179). Supponiamo adesso di misurare prima σx e poi σz con risultato +1 in entrambi i casi. Avremo (sempre nella base in cui σz è diagonale) 1 |σz = 1i ↔ (2.109) 0 55 e 1 |σx = 1i ↔ √ 2 1 1 (2.110) I prodotti scalari che ci servono sono 1 hλ|ωi = hσz = +1|σx = +1i = √ 2 1 hω|λi = hσx = +1|σz = +1i = √ 2 1 hω|ψi = hσx = +1|ψi = √ (α + β) 2 hλ|ψi = hσz = +1|ψi = α (2.111) Dunque in questo caso si ha 1 P (σz = 1, σx = 1) = |α + β|2 2 (2.112) P (σx = 1, σz = 1) = |α|2 (2.113) e In termini dei parametri θ e φ si ha 1 P (σz = 1, σx = 1) = (1 + sin 2θ cos 2φ) 2 (2.114) P (σx = 1, σz = 1) = cos2 θ (2.115) 56 Capitolo 3 Sistemi con piu’ gradi di liberta’ 3.1 Generalizzazione dei postulati a sistemi con più gradi di libertà L’estensione dei postulati a più gradi di libertà è molto semplice e, nel caso di particelle consiste nel modificare il postulato 2) come segue: In corrispondenza alle n coordinate cartesiane x1 , · · · , xn della teoria classica, esistono n operatori commutanti X1 , · · · , Xn . In una base simultanea di questi operatori |x1 , · · · , xn i (3.1) hx1 , · · · , xn |x01 , · · · , x0n i = δ(x1 − x01 ) · · · δ(xn − x0n ) (3.2) |ψi ⇔ hx1 , · · · , xn |ψi = ψ(x1 , · · · , xn ) (3.3) Xi |ψi ⇔ hx1 , · · · , xn |Xi |ψi = xi ψ(x1 , · · · , xn ) (3.4) si ha e / Pi |ψi ⇔ hx1 , · · · , xn |Pi |ψi = −ih ∂ ψ(x1 , · · · , xn ) ∂xi (3.5) Inoltre le variabili classiche dipendenti ω(xi , pj ) vengono rappresentate dagli operatori (modulo le ambiguità che abbiamo discusso in precedenza) Ω = ω(xi → Xi , pi → Pi ) (3.6) dP (x1 , · · · , xn ) = |ψ(x1 , · · · , xn )|2 dx1 , · · · , dxn (3.7) Notiamo in particolare che è la densità di probabilità affinché le coordinate siano comprese tra x1 , · · · , xn e x1 + dx1 , · · · , xn + dxn . 57 È importante sottolineare che il postulato è formulato strettamente in termini delle variabili cartesiane che definiscono il sistema, dato che solo in tal caso è possibile effettuare le semplici sostituzioni operatoriali sulla funzione d’onda Xi → xi , / Pi → −ih ∂ ∂xi (3.8) Una volta effettuata questa sostituzione è poi possibile passare ad un generico sistema di coordinate tramite la corrispondente sostituzione di variabili. 3.2 Prodotto tensoriale di spazi Consideriamo adesso a scopo esemplificativo lo spazio di Hilbert relativo a due gradi di liberta’ descritti da due operatori commutanti, ma queste considerazioni si estendono facilmente ad un generico spazio di Hilbert in una base di n operatori commutanti. Consideriamo allora lo spazio di Hilbert, H, come lo spazio degli autostati simultanei di σ1z e σ2z . Vale a dire che stiamo considerando come gradi di libertà gli spin di due particelle diverse. In genere, operatori che descrivono gradi di libertà diversi commutano tra loro. Indicando gli autovalori di σ1z e σ2z con ±, invece di scrivere esplicitamente ±1, si ha che i possibili stati, autostati di questi due operatori sono i seguenti quattro: |+, +i, |+, −i, |−, +i, |−, −i (3.9) / per entrambe le particelle Dove gli spin delle due particelle, sono rispettivamente +1/2h / per la prima particella e −1/2h / per la seconda particella nel per il primo stato, +1/2h 1 secondo stato e cosi via . Quello che vogliamo fare è di costruire lo spazio descritto dalla base (3.9) in termini dei due spazi di Hilbert descritti dalle basi in cui sono diagonali rispettivamente σ1z e σ2z . Denoteremo questi due spazi con H1 e H2 e faremo vedere che è possibile, a partire da questi due spazi, costruire uno spazio vettoriale, che chiameremo il prodotto tensoriale di H1 e H2 ,H1 ⊗H∈ . e mostreremo che questo spazio è equivalente ad H. Costruiremo gli stati del prodotto tensoriale partendo dagli operatori di particella singola e, per distinguerli da σ1z e σ2 che agiscono nello spazio di Hilbert a 4 dimensioni complesse H, saranno denotati da (1) (2) σ1z , σ2z (3.10) Questi due operatori agiscono nei due spazi di Hilbert a due dimensioni complesse H1 e H2 . Supponiamo di misurare prima lo spin della particella 1, ottenendo cosi uno stato |±i1 e poi lo spin della particella 2 ottenendo lo stato |±i2 . Dato che i due operatori commutano, lo stato della particella 1 non sarà alterato da questa misura, e lo denoteremo come |±i1 ⊗ |±i2 1 ~ è S ~ = 1/2h / ~σ Ricordiamo che la relazione tra gli operatori ~σ e di spin S 58 (3.11) In questo modo si ottengono 4 stati indipendenti e il prodotto tensoriale ha le stesse dimensioni di H. Dato che vogliamo ottenere uno spazio vettoriale, assumeremo che il prodotto precedente sia lineare rispetto ai vettori di entrambi gli spazi, cioè (α|ψi1 + β|φi1 ) ⊗ |χi2 = α|ψi1 ⊗ |χi2 + β|φi1 ⊗ |χi2 (3.12) |ψi1 ⊗ (α|φi2 + β|χi2 ) = α|ψi1 ⊗ |φi2 + β|ψi1 ⊗ |χi2 (3.13) ed anche, per quanto riguarda la moltiplicazione per un numero complesso, α(|ψi1 ⊗ |χi2 ) = (α|ψi1 ) ⊗ |χi2 ) + |ψi1 ⊗ (α|χi2 ) (3.14) In questo modo il prodotto tensoriale risulta uno spazio vettoriale con le stesse dimensioni complesse di H. Inoltre i vettori di base che abbiamo scelto nelle due basi hanno lo stesso significato fisico e quindi i due spazi sono equivalenti (o isomorfi in linguaggio matematico). Le definizioni che qui abbiamo dato valgono per spazi vettoriali di qualunque dimensione. Tornando al problema originario, dato che ogni vettore nello spazio di parcella singola si può espandere in una data base, avremo per generici vettori in H1 e H2 : X X |ψi1 = ci |ii1 , |χi2 = dj |ji2 (3.15) i=± j=± da cui X |ψi1 ⊗ |χi2 = ci dj |ii1 ⊗ |ji2 (3.16) i,j=± dove abbiamo sfruttato la richiesta di linearità per il prodotto tensoriale. Dunque i vettori |ii1 ⊗ |ji2 costituiscono una base per lo spazio prodotto tensoriale e un vettore generico si scriverà nella forma X |ψi = cij |ii1 ⊗ |ji2 (3.17) i,j=± Notiamo che non tutti i vettori del prodotto diretto si possono scrivere in termini del prodotto tensore di due vettori, come nella (3.17). Questo sarà possibile solo quando i coefficienti cij si possono fattorizzare nella forma ci dj . Notiamo anche che, per costruzione, si ha l’identificazione |i, ji = |ii1 ⊗ |ji2 , i, j = ± (3.18) essendo entrambi autostati degli stessi operatori. Anche tutto questo si generalizza facilmente al prodotto tensore di due spazi V1 e V2 di dimensioni dimV1 = n e dimV2 = m. In questo caso il vettore più generale sarà i=n,j=m X Tij |ii ⊗ |ji (3.19) i=1,j=1 Vediamo dunque che per spazi vettoriali finito-dimensionali si ha dim(V1 ⊗ V2 ) = dimV1 · dimV2 59 (3.20) Osserviamo anche che il prodotto diretto di due spazi è cosa diversa dalla somma diretta per cui vale invece dim(V1 ⊕ V2 ) = dimV1 + dimV2 (3.21) Il prodotto interno in V1 ⊗ V2 è definito da (hψ|1 ⊗ hχ|2 )(|φi1 ⊗ |ρi2 ) = hψ|φi1 hχ|ρi2 (3.22) dove i due prodotti scalari sulla destra sono fatti negli spazi V1 e V2 rispettivamente. Il prodotto scalare tra vettori generici si estende per linearità, esprimendo i vettori come combinazione lineare di prodotti tensoriali. È anche utile esprimere gli operatori sugli stati a due particelle in termini di operatori sugli spazi di particella singola. Vogliamo adesso esprimere gli operatori σiz , operanti sullo spazio a due particelle, (i) in termini degli operatori σiz operanti sugli stati di particella singola. ad operatori che agiscono sullo spazio prodotto tensoriale. Chiaramente si deve avere (1) σ1z (|ii1 ⊗ |ji2 ) = i(|ii1 ⊗ |ji2 ), i, j = ± (3.23) Quindi possiamo definire l’azione sul prodotto diretto come (1) σ1z (|ii⊗ |ji2 ) = (σz1 (|ii1 ⊗ I (2) |ji2 ) (3.24) dove I ( 2) è l’identità in H2 . Cioè σz1 agisce di fatto solo sul primo ket. Più generalmente, dati due operatori A(1) e B (2) che agiscono rispettivamente in V1 e V2 , possiamo definire il loro prodotto diretto come (A(1) ⊗ B (2) )|ψ1 i ⊗ |φ2 i = (A(1) |ψ1 i) ⊗ (B (2) |φ2 i) (3.25) Dunque potremo scrivere (1) σz1 = σz1 ⊗ I (2) (3.26) (2) (3.27) In modo analogo si ha σz2 = I (1) ⊗ σz2 L’algebra degli operatori agenti su un dato spazio vettoriale si può estendere al prodotto diretto (A(1) ⊗ B (2) ) · (C (1) ⊗ D(2) ) = (A(1) C (1) ) ⊗ (B (2) D(2) ) (3.28) Segue dunque immediatamente che [A(1) ⊗ I (2) , I (1) ⊗ B (2) ] = 0 (3.29) e (1)⊗(2) (A1 (1)⊗(2) 2 + A2 (1) (2) (1) (2) ) = (A1 )2 ⊗ I (2) + I (1) ⊗ (A2 )2 + 2A1 ⊗ A2 Questa relazione è ovvia, dato che i due operatori commutano. 60 (3.30) Torniamo adesso alla (3.17). Il suo significato è che i coefficienti cij sono le componenti del vettore ψ nella base |ii1 ⊗ |jii . Possiamo allora costruire l’equivalenza tra lo spazio H e H1 ⊗ H2 riordinando le componenti del prodotto tensoriale come un vettore colonna¡ Vediamo un esempio: 1 1 1 0 |+i1 ⊗ |+i2 ↔ ⊗ ↔ (3.31) 0 1 0 2 0 0 Infatti, in questo caso, le componenti del prodotto tensoriale si ottengono moltiplicando tra loro le componenti dei vettori di particella singola e abbiamo scelto di ordinare le componenti del prodotto tensoriale nell’ordine c1 d1 , c2 d1 , c2 d1 , c2 d2 , con ici e di le componenti dei vettori nei due spazi vettoriali. Ovviamente si sarebbe potuto scegliere anche un altro ordine di moltiplicazione, il che sarebbe equivalse solo allo scambio di alcune componenti del vettore prodotto diretto. In maniera analoga si possono costruire tutti i vettori di base nel prodotto diretto: 0 1 1 0 (3.32) ↔ ⊗ |−i1 ⊗ |+i2 ↔ 0 0 2 1 1 0 0 0 0 1 (3.33) ↔ ⊗ |+i1 ⊗ |−i2 ↔ 1 1 2 0 1 0 0 0 0 0 ↔ (3.34) ⊗ |−i1 ⊗ |−i2 ↔ 0 1 2 1 1 1 Vediamo dunque che questi vettori sono effettivamente una base nello spazio prodotto diretto a 4 dimensioni complesse. In maniera assolutamente analoga è possibile costruire, a partire dagli operatori negli spazi di particella singola, gli operatori nello spazio a due particelle. È sufficiente usare la stessa regola di prodotto usata per i vettori2 . Per esempio: 1 0 0 0 0 −1 0 0 1 0 1 0 (1) σ1z = σ1z ⊗ I (2) ↔ ⊗ ↔ (3.35) 0 0 1 0 0 −1 0 1 0 0 0 −1 e (2) σ2z = I (1) ⊗ σ2z 1 0 1 0 1 0 ↔ ⊗ ↔ 0 0 1 0 −1 0 2 0 0 0 1 0 0 0 −1 0 0 0 −1 (3.36) Questo si può giustificare rigorosamente utilizzando la rappresentazione spettrale degli operatori 61 Notiamo infine che la relazione di completezza per lo spazio prodotto tensoriale è data in generale da: i=n,j=m X (|ii1 ⊗ |ji2 ) (hi|1 ⊗ hj|2 ) = I (1) ⊗ I (2) (3.37) i,j=1 In seguito ometteremo di indicare con gli indici 1 e 2 i vettori degli spazi di particella singola in quanto i vettori dei due spazi sono univocamente determinati dall’ordine in cui appaiono nel prorotto tensoriale, il primo a sinistra e il secondo a destra. 3.3 3.3.1 Particelle identiche Il caso classico Definiremo particelle identiche le particelle che sono repliche esatte le une delle altre per quanto concerne le loro caratteristiche intrinseche, cioè massa, spin, momento magnetico, ecc. Per esempio due elettroni sono da considerarsi come identici. Ovviamente non ci riferiamo alle loro caratteristiche contingenti quali la loro posizione o il loro impulso. Questa definizione rimane valida sia nel caso classico che in quello quantistico, ma le implicazioni sono enormemente diverse nei due casi. Classicamente è infatti possibile, almeno in linea di principio, assegnare una descrizione spazio-temporale completa di ciascuna particella del sistema. Pertanto anche particelle identiche possono essere identificate dalla loro storia spazio-temporale. È come se potessimo assegnare a ognuna un segnaposto che le segue in tutta la loro evoluzione. Dunque a livello classico non c’è poi molta distinzione tra particelle identiche e non identiche. Per esemplificare questo punto consideriamo un biliardo e due palle una vicina alla buca 1 e l’altra alla buca 2. Queste palle saranno chiamate rispettivamente palla 1 e palla 2 (vedi Figura 3.1). In questa configurazione le due palle sono chiaramente distinguibili a causa della loro diversa posizione spaziale, se però le scambiassimo troveremmo una configurazione equivalente. Per essere sicuri che le particelle sono distinguibili occorre mostrare che è possibile trovare un esperimento in cui le due configurazioni non sono equivalenti. Immaginiamo allora che due giocatori colpiscano le palle che si urtano al centro del biliardo e finiscono nelle buche 3 e 4, come mostrato in Figura 3.1. Se chiedessimo a due fisici di predirre il risultato avremmo due possibili risposte: o palla 1 in buca 3 A1 : t=T palla 2 in buca 4 o palla 1 in buca 4 A2 : t=T (3.38) palla 2 in buca 3 Ma l’esperimento dice che si verifica A1 e quindi A1 è giusta mentre A2 è errata. Ovviamente le due possibilità a t = T sono completamente equivalenti (cosı̀ come vi erano due possibilità equivalenti a t = 0), cioè se un osservatore osserva solo il risultato a t = T non avrà modo di sapere quale delle due risposte è esatta. Ciò che ci permette di sapere che la risposta giusta è proprio A1 è la conoscenza della storia spazio-temporale delle due palle. 62 t=T 3 4 t=0 1 2 Figura 3.1: L’esempio del tavolo da biliardo discusso nel testo. In modo analogo, le due situazioni apparentemente equivalenti a t = 0 non lo sarebbero per qualcuno che avesse seguito la storia precedente delle due palle. Come conseguenza in meccanica classica è possibile distinguere due particelle identiche dal fatto che le loro storie spazio-temporali non sono identiche. D’altra parte, in meccanica quantistica non è possibile ricostruire la storia spazio-temporale di una particella in modo completo e pertanto due configurazioni che differiscono per lo scambio di due particelle identiche devono essere trattate come la stessa configurazione 3.3.2 Il caso di due particelle identiche. Stati simmetrici ed antisimmetrici Consideriamo, nel caso quantistico, il caso di due particelle distinguibili, 1 e 2. Se si effettua una misura di posizione trovando 1 in x = a e 2 in x = b, il vettore di stato sarà |ψi = |x1 = a, x2 = bi ≡ |a, bi (3.39) Se la particella 1 fosse misurata in b e la 2 in a, a causa della distinguibilità i due vettori di stato sarebbero diversi |ψ 0 i = |x1 = b, x2 = ai ≡ |b, ai = 6 |ψi (3.40) Se invece le due particelle sono identiche e denotiamo il vettore di stato con |ψ(a, b)i, dovremo avere che questo e il vettore che corrisponde allo scambio delle due particelle 63 |ψ(b, a)i sono fisicamente equivalenti, cioè |ψ(a, b)i = α|ψ(b, a)i (3.41) con α un numero complesso. Ovviamente non possiamo identificare il vettore di stato |ψ(a, b)i né con |a, bi né con |b, ai. Questo è cosı̀ sia matematicamente che fisicamente, in quanto nel caso di particelle identiche non possiamo attribuire il risultato x1 = a ed x2 = b rispettivamente alle particelle 1 e 2 e nemmeno alle particelle 2 ed 1, proprio per l’indistinguibilità3 . Ma questo significa che noi non possiamo distinguere tra i due stati |a, bi e |b, ai, e pertanto possiamo assumere che il vettore di stato cercato sia una combinazione lineare di questi due vettori |ψ(a, b)i = β|a, bi + γ|b, ai (3.42) β|a, bi + γ|b, ai = α(β|b, ai + γ|a, bi) (3.43) Richiedendo la (3.41) si ha da cui β = αγ, γ = αβ (3.44) Segue dunque α2 = 1 ⇒ α = ±1 (3.45) Gli stati corrispondenti risultano (a meno della normalizzazione) α = +1, β = +γ, |a, b, Si = |a, bi + |b, ai (3.46) α = −1, β = −γ, |a, b, Ai = |a, bi − |b, ai (3.47) Una data specie di particelle deve necessariamente adeguarsi a una e una sola di queste due possibilità. Se cosı̀ non fosse sarebbe possibile costruire un vettore del tipo α|a, b, Si + β|a, b, Ai che però non ha proprietà di simmetria definita rispetto allo scambio a ↔ b. Le particelle con vettori di stato simmetrici sono dette bosoni, mentre le particelle con vettori di stato antisimmetrici sono dette fermioni. Esempi di bosoni sono i fotoni, i gravitoni, i pioni. Esempi di fermioni sono gli elettroni, i protoni, i neutroni, i quark. È uno dei risultati più importanti della teoria quantistica dei campi il Teorema spin-statistica che asserisce che i bosoni hanno spin intero, mentre i fermioni hanno spin semintero (vedi in seguito per lo spin). Dunque se misuriamo le posizioni di due bosoni con risultati x1 = a e x2 = b, dopo la misura lo stato del sistema sarà certamente |ψi = |a, b, Si = |a, bi + |b, ai 3 (3.48) È come se considerassimo la misura di X1 + X2 con autovalore a + b. Ovviamente questo autovalore non risente del modo in cui siano assegnati a e b. 64 Questo risultato vale per la misura di qualunque osservabile, se misuriamo Ω ottenendo come risultati ω1 e ω2 , il vettore di stato dopo la misura sarà |ω1 , ω2 , Si o |ω1 , ω2 , Ai a seconda che si abbiano due bosoni o due fermioni. Notiamo che per due fermioni si ha |ω, ω, Ai = |ω, ωi − |ω, ωi = 0 (3.49) La conseguenza di questo risultato è il Principio di esclusione che afferma che due fermioni non possono trovarsi nello stesso stato quantico. Tutto questo si generalizza al caso tridimensionale, ma ovviamente lo stato è ora caratterizzato da più variabili. Per esempio potremo avere uno stato di particella singola del tipo |ω, si con ω che caratterizza i gradi di libertà orbitali e s lo spin. In questo caso la funzione d’onda di due fermioni sarà |ω1 , s1 ; ω2 , s2 , Ai = |ω1 , s1 ; ω2 , s2 i − |ω2 , s2 ; ω1 , s1 i (3.50) Questa è zero se ω1 = ω2 e s1 = s2 (3.51) Pertanto due elettroni possono stare nello stesso stato orbitale, ω1 = ω2 , se e solo se gli spin sono diversi, s1 6= s2 . 3.3.3 Quando si può ignorare la simmetrizzazione o l’antisimmetrizzazione della funzione d’onda? Considerando due particelle identiche molto ben separate spazialmente ci aspetteremmo anche nel caso quantistico di poterle pensare come particelle distinte e quindi di poter ignorare la simmetrizzazione o l’antisimmetrizzazione della funzione d’onda. Per esemplificare consideriamo due particelle identiche entrambe descritte da un pacchetto gaussiano, uno centrato sulla terra, ψT (xT ), e l’altro centrato sulla luna, ψL (xL ). Dunque le funzioni d’onda saranno del tipo (xT − aT ) (xL − aL ) ψT (xT ) = AT exp − , ψ (x ) = A exp − (3.52) L L L 2∆2T 2∆2L dove assumeremo che aT sia un punto sulla terra e aL un punto sulla luna. Queste funzioni d’onda implicano che l’elettrone descritto da xT sarà in vicinanza di aT , mentre l’elettrone descritto da xL sarà in vicinanza di aL , dato che la probabilità di trovarli in posti che distano dai punti aT L più di qualche unità di ∆T L è molto piccola. Dunque se le due particelle fossero distinguibili, e l’hamiltoniana che descrive il sistema non contiene interazioni tra queste particelle, la loro funzione d’onda sarebbe ψ(xL , xT ) = ψT (xT )ψL (xL ) (3.53) Se scambiamo tra loro gli argomenti delle funzioni d’onda, si ottiene ψ(xL , xT ) = ψT (xL )ψL (xT ) 65 (3.54) Entrambi i fattori sono molto piccoli, dato che l’elettrone descritto da xT sta in vicinanza della terra, mentre quello descritto da xL sta in vicinanza della luna. Osserviamo che tutto questo ha senso se la particella sulla luna e quella sulla terra rimangono ben separate per tutti i valori di interesse del tempo, altrimenti l’argomento cade non appena le funzioni d’onda hanno un overlapping apprezzabile. Per esempio se considerassimo due bosoni descritti da due gaussiane centrate in punti a e b ben separati all’istante iniziale, dopo qualche tempo cio’ non sarebbe piu’ possibile dato che si puo’ dimostrare che col passare del tempo la larghezza di una gaussiana aumenta e quindi non potremmo piu’ trascurare la sovrapposizione dei pacchetti. Un’altra osservazione è che quando si parla di sovrapposizione di funzioni d’onda ci stiamo sempre riferendo a uno spazio particolare. Nell’esempio precedente le due funzioni non hanno sovrapposizione nello spazio delle configurazioni, ma l’hanno nello spazio degli impulsi, e quindi in questo spazio non possiamo ignorare la simmetrizzazione. Se invece consideriamo due particelle con pacchetti centrati uno a un impulso piccolo e l’altro a impulso grande si può ignorare la simmetrizzazione nello spazio degli impulsi ma non in quello delle coordinate. 66 Capitolo 4 L’equazione di Schrödinger 4.1 Soluzione dell’equazione di Schrödinger Dopo questa lunga discussione sui primi tre postulati prendiamo adesso in esame il 4) postulato, cioè l’esistenza di una equazione che determina l’evoluzione temporale del vettore di stato, l’equazione di Schrödinger / ih ∂ |ψi = H|ψi ∂t (4.1) Divideremo la discussione in tre fasi: 1) - Scrittura dell’equazione di Schrödinger per il problema in esame. 2) - Studio generale della soluzione. 3) - La scelta della base. 4.1.1 Scrittura dell’equazione di Schrödinger Il postulato 4) ci dice che l’operatore H è il corrispondente dell’hamiltoniana classica, quindi ottenibile da essa tramite l’usuale sostituzione x → X, p → P . Per esempio, per un oscillatore armonico unidimensionale Hclas = 1 2 1 p + mω 2 x2 2m 2 (4.2) e quindi H= 4.1.2 1 2 1 P + mω 2 X 2 2m 2 (4.3) Studio generale della soluzione Iniziamo considerando il caso in cui l’operatore H non abbia una esplicita dipendenza dal tempo. In questo caso l’equazione di Schrödinger / |ψ̇i = H|ψi ih 67 (4.4) si puo’ risolvere usando il cosi detto metodo del propagatore. Il metodo consiste nello sfruttare la linearita’ dell’equazione Schrödinger che ci permette di trovare la soluzione applicando un opportuno operatore lineare al vettore di stato iniziale. Questo operatore e’ detto il propagatore o l’operatore di evoluzione temporale. Il fatto che la soluzione dipenda solo dalla funzione d’onda iniziale segue perche’ l’equazione e’ del primo ordine nella derivata temporale. Dunque avremo |ψ(t)i = U (t)|ψ(0)i (4.5) Possiamo determinare U (t) usando gli autovettori dell’hamiltoniana. L’equazione agli autovalori per H sarà H|Ei = E|Ei (4.6) Questa equazione viene anche chiamata l’equazione di Schrödinger indipendente dal tempo. Supponiamo di averla risolta, allora potremo scrivere X X |ψ(t)i = |EihE|ψ(t)i = aE (t)|Ei (4.7) E E con aE (t) = hE|ψ(t)i (4.8) Inserendo la (4.7) nell’equazione di Schrödinger si trova / ih ∂aE (t) / hE|ψ̇(t)i = hE|H|ψ(t)i = EaE (t) = ih ∂t (4.9) che possiamo integrare immediatamente ottenendo −i aE (t) = aE (0)e Et /h , Pertanto −i hE|ψ(t)i = e aE (0) = hE|ψ(0)i Et /h hE|ψ(0)i e |ψ(t)i = X −i |EihE|ψ(0)ie Et /h (4.10) (4.11) (4.12) E o anche U (t) = X −i |EihE|e Et /h (4.13) E Nel caso in cui H abbia autovalori degeneri, la somma andrà su ulteriori indici che dovranno tener conto della degenerazione, cosı̀ come se lo spettro di H (cioè l’insieme dei suoi autovalori) è continuo, al posto della somma avremo un integrale. Si può anche avere il caso di operatori con spettro sia discreto che continuo, in tal caso la somma dovrà essere 68 sostituita da una somma sugli autovalori discreti più un integrale sugli autovalori continui, ecc. In particolari gli stati Et −i /h |E(t)i = |Eie (4.14) sono detti modi normali o stati stazionari del sistema. Questo ultimo nome segue dal fatto che se il sistema si trova in un tale stato, la distribuzione di probabilità di una qualunque osservabile è costante nel tempo: Et 2 −i 2 /h = |hω|E(0)i|2 = P (ω, 0) (4.15) P (ω, t) = |hω|E(t)i| = hω|E(0)ie L’operatore di evoluzione dato in (4.13) può anche essere scritto nella forma Ht −i /h U (t) = e Infatti si ha U (t) = X Et Ht Ht −i −i −i X /h = /h = e /h |EihE|e |EihE|e E (4.16) (4.17) E dove abbiamo usato prima il fatto che gli stati |Ei sono autostati di H (operatore hermitiano) e poi la loro completezza. Si verifica anche immediatamente che −i |ψ(t)i = e Ht /h |ψ(0)i (4.18) soddisfa l’equazione di Schrödinger Ht Ht −i ∂ ∂ −i /h /h |ψ(0)i = H|ψ(t)i / |ψ(t)i = ih / e ih |ψ(0)i = He ∂t ∂t Inoltre, dato che H è un operatore hermitiano, U (t) è un operatore unitario U † (t) = U −1 (t) (4.19) (4.20) Una conseguenza importante di questa relazione è che la norma di un vettore non cambia con il tempo hψ(t)|ψ(t)i = hψ(0)|U † (t)U (t)|ψ(0)i = hψ(0)|ψ(0)i (4.21) Dunque l’evoluzione temporale di uno stato può essere pensata come una rotazione del vettore nello spazio di Hilbert. Questo modo di pensare offre la possibilità di descrizioni diverse della dinamica. Per esempio invece di usare una base fissa potremo usarne una che ruoti come i vettori di stato (cioè ottenuta applicando ai vettori di base l’operatore U (t)). In questo caso il vettore di stato appare fisso, mentre gli operatori si evolvono nel tempo. D’altro canto, avendo a che fare con una trasformazione unitaria, gli elementi di matrice degli operatori sono invarianti. Una tale rappresentazione è detta rappresentazione di Heisenberg, mentre quella fin qui usata è detta di Schrödinger. 69 4.1.3 L’equazione di Schrödinger per una particella libera Consideriamo il caso di una particella libera in una dimensione. L’hamiltoniana e’ data da P2 H= (4.22) 2m E’ evidente che gli autostati dell’impulso diagonalizzano anche l’hamiltoniana. Inoltre l’equazione di Schrödinger stazionaria nello spazio delle coordinate hx|H|Ei = Ehx|Ei (4.23) da luogo alla seguente equazione differenziale /h2 d2 − ψE (x) = EψE (x), 2m dx2 ψE (x) = hx|Ei (4.24) e dato che gli autostati dell’impulso sono dati da 1 /) √ exp(ipx/h 2π (4.25) avremo 1 p2 / ), ψE (x) = √ exp(ipx/h E= (4.26) 2m 2π Evidentemente l’autofunzione dell’impulso con p e quella con −p danno luogo allo stesso autovalore dell’energia. Dunque gli autostati di H sono doppiamente degeneri. L’evoluzione di questi stati sara’ data da 1 /) / )|Ei = exp(−iEt/h / )ψE (x) = √ exp(i(px−Et)/h ψE (x, t) = hx|E, ti = hx| exp(−iHt/h 2π (4.27) Dato che l’esponenziale si puo’ decomporre nella forma / ) = cos((px − Et)/h / ) + i sin((px − Et)/h /) exp(i(px − Et)/h (4.28) vediamo che la soluzione e’ un’onda piana con vettore d’onda k= 2π p = /h λ (4.29) E /h (4.30) e frequenza data dalla relazione ω = 2πν = da queste due formule segue λ= h , p ν= E h (4.31) cioe’ le due relazioni di De Broglie che connettono le caratteristiche di una particella, E e p con quelle dell’onda associata ν e λ. Quindi l’onda di De Broglie altro non e’ che l’autovettore dell’hamiltoniana di particella libera proiettato nella base delle x. 70 Consideriamo una particella libera con una funzione d’onda gaussiana di larghezza ∆ al tempo t = 0 (x − a)2 − 1 2∆2 e (4.32) ψ(x, t = 0) = (π∆2 )1/4 E’ possibile calcolare come questa funzione si evolve con il tempo. Senza entrare in dettagli e’ possibile dimostrare che il pacchetto rimane gaussiano ma con una larghezza che aumenta con il tempo. Per calcolare l’aumento di larghezza, possiamo notare che a causa della indeterminazione sull’impulso e quindi sulla velocita’, questo da’ luogo ad una indeterminazione sulla posizione data da (notiamo che la particella libera si muove di moto uniforme) /ht /ht ∆P ∆X(t) = ∆v(0)t = ≈ t= √ (4.33) m m∆ 2m∆ Questa ultima relazione puo’ essere dimostrata rigorosamente per tempi sufficientemente grandi Notiamo che per una particella macroscopica, con m = 1 gr e ∆ = 10−13 cm, si ha ∆v(0) ≈ 1.05 × 10−34 ≈ 10−16 m/sec 10−3 × 10−15 (4.34) Se assumiamo t ≈ 300, 000 anni (1 anno ≈ 3 × 107 sec) si ha ∆X(t) ≈ 9 × 1012 × 10−16 ≈ 10−3 m (4.35) Dunque la dispersione per una particella macroscopica impiega tempi enormemente lunghi prima di diventare essa stessa macroscopica. Corrispondentemente le particelle macroscopiche possono essere trattate con la meccanica classica. 4.2 Equazione di Schrödinger per due particelle L’equazione di Schrödinger per un sistema a due particelle è 1 1 2 2 / P + P + V (X1 , X2 ) |ψi = H|ψi ih|ψ̇i = 2m1 1 2m2 2 (4.36) Il problema si può dividere in due classi: Classe A: H separabile: V (X1 , X2 ) = V1 (X1 ) + V2 (X2 ) (4.37) H = H1 + H2 (4.38) In questo caso con Hi = 1 2 P + Vi (Xi ), 2mi i 71 i = 1, 2 (4.39) Classicamente le due particelle descritte dalle due hamiltoniane si evolvono in modo del tutto indipendente e le loro energie sono separatamente conservate, mentre l’energia totale del sistema è data da E = E1 + E2 . Consideriamo dunque uno stato stazionario −i |ψ(t)i = |Eie Et /h (4.40) con H|Ei = (H1 (X1 , P1 ) + H2 (X2 , P2 ))|Ei = E|Ei (4.41) Dato che le due hamiltoniane commutano tra loro [H1 (X1 , P1 ), H2 (X2 , P2 )] = 0 (4.42) segue che si possono trovare autostati simultanei del tipo prodotto diretto |E1 , E2 i = |E1 i ⊗ |E2 i (4.43) con (1) H1 |E1 i = E1 |E1 i (2) H2 |E2 i = E2 |E2 i (4.44) Quindi selezionando uno stato |Ei = |E1 i ⊗ |E2 i si ha H|Ei = (H1 + H2 )|E1 i ⊗ |E2 i = (E1 + E2 )|Ei = E|Ei (4.45) E = E1 + E2 (4.46) con Ovviamente |E1 i ⊗ |E2 i ci fornisce una base in V1 ⊗ V2 e si ha −i |ψ(t)i = |E1 ie E2 t E1 t −i /h ⊗ |E ie /h 2 (4.47) Osserviamo che una volta trovate le soluzioni fattorizzate gli autostati più generali sono X |Ei = cE1 ,E2 δE,E1 +E2 |E1 i ⊗ |E2 i (4.48) E1 ,E2 o, nella base delle coordinate ψE (x1 , x2 ) = X cE1 ,E2 δE,E1 +E2 ψE1 (x1 )ψE2 (x2 ) (4.49) E1 ,E2 Classe B: H non separabile: V (x1 , x2 ) 6= V1 (x1 ) + V2 (x2 ) (4.50) In generale non si può fare molto, ma ci sono circostanze in cui la teoria può risultare separabile se espressa in altre coordinate. Un esempio e’ il problema a due corpi con una forza di interazione che dipende solo dalla distanza. In questo caso kl’hamiltoniana è separabile nelle variabili del centro di massa e nelle variabili relative. 72 4.3 Più particelle in più dimensioni Il problema di N particelle in D dimensioni, corrispondendo a N · D gradi di libertà è matematicamente equivalente a quello di tante particelle unidimensionali. D’altra parte risulta conveniente usare un simbolismo un pò diverso e che dipende esplicitamente dal numero di dimensioni che stiamo considerando. Per esempio, gli autostati delle coordinate in 3 dimensioni verranno denotati da |~xi e cosi via. Esempio: La particella libera in 3 dimensioni. 3 H= 1 2 X 1 2 p~ = p 2m 2m i (4.51) i=1 I possibili autovalori dell’energia si ottengono immediatamente e sono dati da E = E1 + E2 + E3 = 3 X p2i p~ 2 = 2m 2m (4.52) i=1 Le autofunzioni dell’energia sono date da ψE (~x) = 3 Y 1 /) ψEi (xi ) = p exp(i~ p · ~x − Et)/h (2π)3 i=1 (4.53) dove ψEi (xi ) sono le autofunzioni della particella libera unidimensionale. Notiamo che qualunque autofunzione dell’impulso con |~ p| fissato e’ autofunzione dell’energia con E = 2 |~ p| /(2m). Quindi si ha una degenerazione infinita. 73 Capitolo 5 Principio di indeterminazione e limite classico 5.1 Principio di indeterminazione Abbiamo fin qui mostrato varie situazioni in cui il principio di indeterminazione esplica i suoi effetti. Passiamo adesso a una dimostrazione formale. Infatti questo principio, sebbene sia uno dei capisaldi fisici su cui si regge la meccanica quantistica, dal punto di vista della formulazione in termini dei postulati risulta una semplice conseguenza del formalismo. Abbiamo già mostrato che due osservabili che non commutano sono incompatibili, cioè non è possibile definire un processo di misura tale da misurare simultaneamente queste osservabili. Questo fatto, che è appunto la base del principio di indeterminazione, può essere espresso in modo più quantitativo in termini delle indeterminazioni sulle osservabili in esame. Consideriamo allora due osservabili hermitiane, A e B, tali che [A, B] = iC (5.1) con C una terza variabile hermitiana. Supponiamo che il sistema si trovi in un dato stato |ψi e definiamo nuove osservabili sottraendo il valore di aspettazione delle precedenti  = A − hAi, B̂ = B − hBi (5.2) Avremo (∆A)2 (∆B)2 = hψ|Â2 |ψihψ|B̂ 2 |ψi = hÂψ|ÂψihB̂ψ|B̂ψi (5.3) Facendo uso della disuguaglianza di Schwarz (vedi Sezione 1.2.2) |v1 |2 |v2 |2 ≥ |hv1 |v2 i|2 dove il segno di uguaglianza vale solo per vettori paralleli, segue 2 1 1 2 2 2 2 [Â, B̂]+ + [Â, B̂] |ψi (∆A) (∆B) ≥ |hÂψ|B̂ψi| = |hψ|ÂB̂|ψi| = hψ| 2 2 74 (5.4) (5.5) dove [A, B]+ = AB + BA (5.6) è l’anticommutatore di due operatori A e B. Ma il commutatore di due operatori hermitiani è antihermitiano, mentre l’anticommutatore è hermitiano. Quindi stiamo calcolando il modulo quadro di un numero complesso la cui parte reale è il valore di aspettazione dell’ anticommutatore e la parte immaginaria il valore di aspettazione del commutatore. Pertanto 2 2 1 1 1 1 2 hψ| [ Â, B̂] + [ Â, B̂] |ψi = hψ|[ Â, B̂] |ψi (5.7) + |hψ|C|ψi| + + 2 2 4 4 Da cui 1 |hψ|C|ψi|2 4 La disuguaglianza si riduce a una uguaglianza se e solo se (∆A)2 (∆B)2 ≥ (5.8) Â|ψi = cB̂|ψi (5.9) hψ|[Â, B̂]+ |ψi = 0 (5.10) e La disuguaglianza (5.8) altro non è che l’espressione del principio di indeterminazione. Infatti se applicata a variabili canonicamente coniugate come X e P , si ha C = /hI e quindi /h ∆X∆P ≥ (5.11) 2 Sebbene il tempo non sia una variabile dinamica, ma un semplice parametro, tuttavia esiste una relazione di indeterminazione tempo-energia ∆E∆t ≥ /h 2 (5.12) pur con interpretazione diversa dalla analoga relazione tra coordinate e impulsi coniugati. Infatti la precedente relazione va intesa nel senso che l’energia di un sistema che sia in un determinato stato per un tempo ∆t non può essere perfettamente definita ma ha uno sparpagliamento pari a ∆E. 5.2 Teorema di Ehrenfest e limite classico In questo capitolo studieremo come si possa riottenere la descrizione classica per i sistemi macroscopici a partire dalla meccanica quantistica. Ovviamente questo si riferisce agli aspetti puramente quantitativi poiché l’interpretazione probabilistica della meccanica quantistica rimane tale in qualunque limite. D’altra parte ci sono situazioni in cui ai fini 75 pratici certe probabilità diventano certezze. Iniziamo allora studiando l’evoluzione temporale del valor medio di un operatore. In generale supporremo anche che l’operatore possa avere una dipendenza esplicita dal tempo. Si ha = d hψ(t)|Ω(t)|ψ(t)i = hψ̇(t)|Ω(t)|ψ(t)i + hψ(t)|Ω̇(t)|ψ(t)i + hψ(t)|Ω(t)|ψ̇(t)i = dt i i hψ(t)|HΩ(t)|ψ(t)i − hψ(t)|Ω(t)H|ψ(t)i + hψ(t)|Ω̇(t)|ψ(t)i (5.13) /h /h Pertanto d i hψ(t)|Ω(t)|ψ(t)i = − hψ(t)|[Ω(t), H]|ψ(t)i + hψ(t)|Ω̇(t)|ψ(t)i /h dt (5.14) o, in notazione più abbreviata d ∂Ω(t) i hΩ(t)i = − h[Ω(t), H]i + h i /h dt ∂t (5.15) Questa equazione è chiamata il teorema di Ehrenfest. È interessante osservare la corrispondenza formale con la formula della meccanica analitica che esprime la variazione nel tempo di una funzione delle variabili dinamiche q e p (ed eventualmente del tempo), in termini della parentesi di Poisson della variabile dinamica con l’hamiltoniana ∂ω dω(q, p, t) = {ω, H} + dt ∂t (5.16) Assumiamo (sempre nel caso unidimensionale) una hamiltoniana della forma H= 1 2 P + V (X) 2m (5.17) Usando il teorema di Ehrenfest possiamo calcolare la variazione nel tempo del valor medio della coordinata i 1 2 i 1 1 d / )P i = hP i hXi = − h[X, P + V (X)]i = − h (2ih / / dt 2m m h h 2m (5.18) Notiamo che in modo formale possiamo scrivere P ∂H d ∂H = ⇒ hXi = h i m ∂P dt ∂P (5.19) La regola per calcolare le derivate di H è come nel calcolo usuale quando l’operatore ammette uno sviluppo in serie di potenze della variabile (operatoriale) che si sta considerando. In modo analogo si ha d i i hP i = − h[P, H]i = − h[P, V (X)]i /h /h dt (5.20) Se V (X) ammette una espansione in serie di X il commutatore si può calcolare, ottenendo per iterazione / X n−1 [P, X n ] = −nih (5.21) 76 Infatti si ha /, [P, X] = −ih /, · · · [P, X 2 ] = −2ih (5.22) Assumendo / X n−2 [P, X n−1 ] = −(n − 1)ih (5.23) segue / )X n−2 −ih / X n−1 = −nih / X n−1 (5.24) [P, X n ] = X[P, X n−1 ]+[P, X]X n−1 = X(−(n−1)ih Pertanto / [P, V (X)] = −ih ∂V (X) ∂X (5.25) se V (X) = X cn X n (5.26) n Dunque ∂V (X) ∂H d hP i = −h i = −h i (5.27) dt ∂X ∂X Abbiamo dunque ottenuto le equazioni (5.19) e (5.27) che sono le equazioni di Hamilton per i valori medi. Cerchiamo adesso di capire come queste equazioni si riducono alle equazioni di Hamilton vere e proprie nel caso di corpi macroscopici. Consideriamo uno stato simile a uno stato classico con la migliore definizione possibile per X e P , diciamo |ψi = |x0 , p0 , ∆i (5.28) con hXi = x0 , hP i = p0 , ∆X = ∆, ∆P ≈ /h ∆ (5.29) Un esempio di un tale stato è il pacchetto gaussiano p0 x (x − x0 )2 i − 1 2∆2 e /h e |x0 , p0 , ∆i ⇔ ψp0 ,x0 ,∆ (x) = (π∆2 )1/4 (5.30) Ovviamente per avere una buona descrizione macroscopica dovremo scegliere ∆ sufficientemente piccola. Per esempio potremmo prendere ∆ ≈ 10−15 m (5.31) cioè dell’ordine di grandezza della dimensione del protone. Questo significa avere una indeterminazione sull’impulso pari a ∆P ≈ /h × 1015 ≈ 10−34 × 1015 Kg · m/s = 10−14 g · cm/s (5.32) nel caso di una particella macroscopica di massa dell’ordine del grammo, segue che l’indeterminazione sulla velocità è ∆v ≈ 10−14 cm/s (5.33) 77 Ogni errore sperimentale concepibile su una misura di velocità è ben al di sopra di un tale valore. L’analogo quantistico delle equazioni di Hamilton è dunque d ∂H hXi = h i, dt ∂P d ∂H hP i = −h i dt ∂X (5.34) Da queste equazioni sarebbe possibile ricavare le equazioni di Hamilton per i valori medi se potessimo sostituire il valor medio di una funzione degli operatori X e P con la funzione delle medie hf (X, P )i ⇒ f (hXi, hP i) (5.35) D’altra parte questo è vero solo se è possibile trascurare le fluttuazione, cioè se vale hX n i = hXin (5.36) Ma a causa del principio di indeterminazione questo non sarà mai rigorosamente vero, dato che ∆X 6= 0. Nel caso in esame avremo comunque d d 1 p0 hXi = x0 = hP i = dt dt m m d d ∂V (X) hP i = p0 = −h i dt dt ∂X Da queste due equazioni si ricava l’analogo dell’equazione di Newton mẍ0 = −h ∂V (X) i ∂X (5.37) (5.38) (5.39) Si puo’ calcolare il secondo membro di questa espressione nella base delle coordinate. Il risultato che si trova e’: ∂V (x) 1 ∂ 3 V (x) mẍ0 = − (5.40) − ∆2 + · · · ∂x x0 2 ∂x3 x0 Il primo termine a secondo membro di questa equazione fornisce la legge di Newton, mentre il termine successivo e tutti gli altri trascurati nascono a causa del fatto che la particella non è localizzata nel punto x0 e quindi risponde al potenziale anche nei punti vicini a x0 . Notiamo che tutti i termini correttivi si annullano nel caso particolare di potenziali quadratici V = ax2 + bx + c (5.41) quindi nel caso dell’oscillatore armonico. In generale le correzioni quantistiche sono piccole per potenziali che variano poco su regioni dell’ordine di grandezza del pacchetto. La condizione precisa è che (vedi equazione (5.40)) ∂2F 2 ∆ F ∂x2 (5.42) dove F = −∂V /∂x è la forza. Nel caso numerico che abbiamo considerato (∆ ≈ 10−13 cm) le fluttuazioni sono trascurabili per qualunque potenziale macroscopico (cioè che coinvolga 78 solo scale macroscopiche). D’altra parte si dimostra che al passare del tempo il pacchetto si allarga. Precisamente si ha che la ’incertezza sulla posizione al tempo t e’ data, per tempi molto lunghi da 1 /ht ∆X(t) ≈ √ (5.43) 2 m∆ Risulta che con una indeterminazione sulla velocità dell’ordine di 10−14 cm occorrono 300,000 anni affinché l’indeterminazione sulla posizione diventi dell’ordine del millimetro. Pertanto in un caso come quello esaminato la descrizione classica è senz’altro buona. Se però partissimo con pacchetti tale che ∆ ≈ 10−27 cm allora le cose sarebbero diverse. D’altra parte stati di questo tipo non occorrono in pratica. Infatti se misuriamo la posizione tramite la luce nel visibile si ha a disposizione una lunghezza d’onda λ ≈ 10−5 cm con analoga indeterminazione ∆. Per misurare X con un ∆ ≈ 10−27 cm occorre una pari λ. Ma per questo sarebbe necessaria radiazione elettromagnetica con impulso p= h 6 × 10−34 ≈ Kg · m/s ≈ 6 gr · cm/s λ 10−29 (5.44) Ma un fotone di questo tipo potrebbe far rinculare un oggetto macroscopico. Notiamo infine che anche se x0 e p0 soddisfano le equazioni di Hamilton in buona approssimazione, non è detto che lo stesso accada per un’altra variabile dinamica Ω dato che hΩ(X, P )i = 6 Ω(x0 , p0 ) = ω(x0 , p0 ) (5.45) Per esempio, se consideriamo Ω = X 2 si ha hx0 , p0 , ∆|X 2 |x0 , p0 , ∆i = hx0 , p0 , ∆|(X 2 − x20 )|x0 , p0 , ∆i + x20 = ∆2 + x20 6= 6= (hXi)2 = x20 5.3 (5.46) La rappresentazione di Heisenberg Le precedenti equazioni derivate per i valori medi degli operatori possono essere rappresentate in modo più suggestivo facendo uso della rappresentazione di Heisenberg. In questa rappresentazione i vettori di stato vengono riportati al tempo t = 0, mentre le osservabili diventano dipendenti esplicitamente dal tempo: Schrödinger : Heisenberg : |ψ(t)iS = U (t)|ψ(0)i, ΩS (5.47) |ψ(t)iS → U −1 (t)|ψ(t)iS = |ψ(0)i ≡ |ψiH ΩS → U (t)−1 ΩS U (t) ≡ ΩH (t) (5.48) / ). Ricordiamo che per hamiltoniane non dipendenti esplicitamente dal tempo U (t) = exp(−iHt/h Notiamo che S hψ(t)|ΩS |ψ(t)iS = hψ(0)|U −1 (t)ΩS U (t)|ψ(0)i = H hψ(0)|ΩH (t)|ψ(0)iH 79 (5.49) Calcoliamo adesso la variazione temporale di una variable dinamica in rappresentazione di Heisenberg1 d d −1 ∂ΩS dU (t) ΩH (t) = U (t) ΩS U (t) + U −1 (t) U (t) + U −1 (t)ΩS = dt dt ∂t dt 1 1 ∂ΩS −1 = −U (t) HU (t) U −1 (t)ΩS U (t) + U −1 (t)ΩS HU (t) + U −1 (t) U (t) = / / ∂t ih ih 1 ∂ΩS = = − U −1 (t)[H, ΩS ]U (t) + U −1 (t) U (t) (5.50) / ∂t ih e infine i dΩH (t) = − [ΩH (t), HH ] + /h dt ∂Ω ∂t (5.51) H con HH = U −1 (t)HU (t) (5.52) Ricordiamo che classicamente un’osservabile ha una evoluzione temporale data da dω ∂ω = {ω, H} + dt ∂t (5.53) Questa relazione formale indusse Dirac a formulare delle parentesi di Poisson quantistiche per due osservabili generiche v1 e v2 dalla regola: i {v1 , v2 }op = − [v1 , v2 ] /h (5.54) e un principio di corrispondenza che asserisce che le parentesi di Poisson quantistiche (e quindi i commutatori) si deducono tramite la regola {v1 , v2 }op = {v1 , v2 }clas (x → X, p → P ) (5.55) Nella pratica, a causa dei problemi già visti sull’ordine delle espressioni, tale principio si applica solo alle variabili cartesiane x e y. Pertanto da {x, p}clas = 1, {x, x}clas = {p, p}clas = 0 (5.56) [X, X] = [P, P ] = 0 (5.57) segue la regola di quantizzazione /, [X, P ] = ih Passando al caso di più gradi di libertà vediamo che in questo modo è possibile sostituire il postulato 2) con / δij , [Xi , Xj ] = [Pi , Pj ] = 0 [Xi , Pj ] = ih (5.58) Per questo calcolo usiamo la proprietà dA−1 /dλ = −A−1 dA/dλA−1 facilmente ricavabile /. differenziando AA−1 = I. Inoltre facciamo uso di dU (t)/dt = HU (t)/ih 1 80 Capitolo 6 Oscillatore armonico 6.1 Oscillatore classico L’ importanza dell’oscillatore armonico nello studio della fisica è dovuta al fatto che ogni sistema che fluttua attorno a una configurazione di equilibrio può essere descritto, in prima approssimazione, come una collezione di oscillatori armonici disaccoppiati. Da qui l’importanza dello studio del comportamento di un singolo oscillatore armonico, sia nella fisica classica, che nella fisica quantistica. Un singolo oscillatore armonico costituito da una massa m attaccata a una molla di costante elastica k è caratterizzato dall’hamiltoniana classica r k 1 2 1 2 2 p + mω x , ω= (6.1) H= 2m 2 m dove ω è la frequenza classica di oscillazione. Più in generale si ha a che fare con un potenziale V (x) con un minimo a x = x0 , come rappresentato in Figura 6.1 V(x) x0 x V( x0) Figura 6.1: Un potenziale unidimensionale con un minimo in x0 . 81 Una particella nell’intorno di x0 effettuerà delle oscillazioni attorno a questo punto che è un punto di equilibrio stabile. Si dimostra facilmente che se il sistema fa delle piccole oscillazioni rispetto al minimo del potenziale, allora si puo’ approssimare V (x) con 1 V (x) = V (x0 ) + (x − x0 )2 V 00 (x0 ) + · · · 2 (6.2) Si può inoltre scegliere il sistema di riferimento in modo che V (x0 ) = 0 e prendere x0 = 01 . In questo riferimento 1 V (x) = x2 V 00 (0) + · · · (6.3) 2 Dunque si arriva ancora all’hamiltoniana H= 1 2 1 p + mω 2 x2 , 2m 2 mω 2 = V 00 (0) (6.4) Un altro esempio è costituito dal potenziale elettromagnetico che soddisfa l’equazione di D’Alembert ~ 2φ = 0 φ̈ − ∇ (6.5) Espandendo il potenziale in onde piane φ= X ~ ak (t)eik · ~x (6.6) k si trova äk + |~k|2 ak = 0 (6.7) Prima di passare allo studio dell’oscillatore quantistico ricordiamo alcune proprietà dell’oscillatore classico. Le equazioni di Hamilton sono ẋ = ṗ = − p ∂H = ∂p m ∂H = −mω 2 x ∂x (6.8) (6.9) da cui ẍ + ω 2 x = 0 (6.10) x(t) = A cos ωt + B sin ωt = x0 cos(ωt + φ0 ) (6.11) La soluzione generale è dove x0 è l’ampiezza dell’oscillazione e φ0 la fase. Si ha anche 1 1 1 E = T + V = mẋ2 + mω 2 x2 = mω 2 x20 2 2 2 1 (6.12) Sarà sufficiente traslare il riferimento in modo da portare il minimo nell’origine delle coordinate. 82 da cui 1/2 2E 2 2 ẋ = = ω(x20 − x2 )1/2 (6.13) −ω x m Pertanto la velocità dell’oscillatore si annulla nei punti ±x0 . Il significato fisico di questi punti, turning points, dovrebbe essere evidente dalla Figura 6.2 V(x) E _x x0 0 x Figura 6.2: Il potenziale dell’oscillatore armonico e i turning points ±x0 . 6.2 Oscillatore quantistico Passiamo adesso allo studio dell’oscillatore quantistico d / |ψ(t)i = H|ψ(t)i ih dt con 1 P2 H= + mω 2 X 2 2m 2 Inizieremo lo studio a partire dall’equazione di Schrödinger stazionaria H|Ei = E|Ei Ricordiamo che l’hamiltoniana e’ data da p2 1 1 H= + mω 2 x2 = /hω P 2 + X 2 2m 2 2 dove abbiamo introdotto operatori adimensionali2 r r mω 1 X= x, P = p /h /hmω 2 (6.14) (6.15) (6.16) (6.17) (6.18) Stiamo qui cambiando le nostre convenzioni usando x e p per gli operatori quantistici e X e P per i corrispondenti operatori adimensionali 83 Notiamo che X e P sono adimensionali poiche’ mω 1 / = (mv)2 = 2, mωh /h ` (6.19) Si vede facilmente che [X, P ] = i (6.20) Si introducono poi gli operatori non hermitiani 1 a† = √ (X − iP ) 2 1 a = √ (X + iP ) , 2 (6.21) Chiaramente a e a† sono l’uno l’hermitiano coniugato dell’altro e prendono il nome di operatore di distruzione (annihilation) e di creazione (creation) rispettivamente. Inoltre soddisfano la regola di commutazione [a, a† ] = 1 (6.22) Invertendo le equazioni (6.21), 1 X = √ a + a† , 2 i P = − √ a − a† 2 (6.23) l’hamiltoniana risulta H= /hω 1 −(a − a† )2 + (a + a† )2 = /hω a† a + 2 2 (6.24) E’ conveniente introdurre l’operatore numero di occupazione N = a† a (6.25) 1 / H = hω N + 2 (6.26) in termini del quale si ha Quindi diagonalizzare N e’ equivalente a diagonalizzare H. Dalle regole di commutazione [N, a] = −a, [N, a† ] = +a† (6.27) segue che a diminuisce di 1 gli autovalori di H, mentre a† li aumenta di 1. Infatti, se N |νi = ν|νi, segue N (a|νi) = (aN − a)|νi = (ν − 1)(a|Ei) (6.28) e N (a† |νi) = (a† N + a† )|νi = (ν + 1)(a† |νi) (6.29) Poiché a diminuisce gli autovalori di N di 1, segue che deve esistere uno stato |0i tale che a|0i = 0. Infatti consideriamo un autostato |νi di N hν|a† a|νi = hν|(a† a)|νi = ||aνi|| ≥ 0 84 (6.30) Dunque l’equazione precedente ci dice che gli autovalori di N sono definiti positivi con la sola eccezione l’autostato |νi tale che a|νi = 0, che corrisponde all’autovettore di N con autovalore nullo. A partire dallo stato |0i (vettore ciclico) si possono poi trovare tutti gli altri autostati applicando ripetutamente a† . Per la normalizzazione, scegliendo h0|0i = 1, si ha h0|aa† |0i = h0|(a† a + 1)|0i = h0|0i = 1 (6.31) h0|a2 a† |0i = h0|a(a† a + 1)a† |0i = h0|aa† (a† a + 1)|0i + 1 = 2 (6.32) inoltre 2 Assumendo allora che 1 n (6.33) |ni = √ a† |0i n! sia correttamente normalizzato ad 1, mostriamo che questo è vero per n + 1. Premettiamo la proprietà n n−1 [a, a† ] = na† (6.34) Infatti 2 [a, a† ] = [a, a† ]a† + a† [a, a† ] = 2a† (6.35) Per induzione segue allora [a, a† n+1 n n ] = [a, a† ]a† + a† [a, a† ] = na† n−1 † n a + a† = (n + 1)a† n (6.36) Segue allora (sempre per induzione) hn + 1|n + 1i = = 1 n+1 h0|an+1 a† |0i = (n + 1)! 1 1 n+1 n n h0|an (a† a + (n + 1)a† )|0i = h0|an a† |0i (n + 1)! n! (6.37) Inoltre si ha n n a† a† a† n n−1 )|0i = n √ |0i = n|ni a a|ni = a a √ |0i = √ (a† a + na† n! n! n! † † (6.38) (Questo seguiva anche dall’osservazione che a† aumenta di un’unità l’autovalore di a† a). Segue che i possibili autovalori dell’energia sono 1 / En = hω n + (6.39) 2 Usando le equazioni (6.33) e (6.34) si ha √ 1 1 1 n n n−1 a|ni = √ aa† |0i = √ [a, a† ]|0i = √ na† |0i = n|n − 1i n! n! n! dove nel secondo passaggio abbiamo usato a|0i = 0. 85 (6.40) Capitolo 7 Momento angolare e spin 7.1 Il momento angolare Classicamente il momento angolare e’ definito dalla relazione ~ = ~x ∧ p~ L (7.1) Tramite la corrispondenza usuale avremo che l’operatore quantistico (che continueremo ~ sara’ dato da ad indicare con L) ~ =X ~ ∧ P~ L (7.2) Non e’ difficile calcolare i commutatori di queste quantita’. Per esempio / Y Px + ih / XPy = ih / Lz [Lx , Ly ] = [Y Pz − ZPy , ZPx − XPz ] = −ih (7.3) Si hanno analoghe relazioni per le altre componenti. In definitiva [Li , Lj ] = iijk Lk (7.4) Le proprietà algebriche dell’operatore di momento angolare permettono di trattare il ~ 2 e Lz in modo molto simile a problema della ricerca degli autovalori e autovettori di L quanto fatto per l’oscillatore armonico. Infatti la positività dell’hamiltoniana dell’oscillatore che ne permetteva la fattorizzazione ci permetterà in questo caso la fattorizzazione ~ 2 in operatori analoghi agli operatori di creazione e distruzione. Iniziamo definendo di L un operatore adimensionale 1~ (7.5) J~ = L /h con regole di commutazione [Ji , Jj ] = iijk Jk , i, j, k = 1, 2, 3 (7.6) Scegliamo poi una base in cui J~ 2 e Jz siano diagonali J~ 2 |λ, mi = λ|λ, mi, Jz |λ, mi = m|λ, mi 86 (7.7) Si può dimostrare che gli autovalori di J~2 sono dati da λ = j(j + 1), j intero o semintero (7.8) ed inoltre gli autovalori di Jz possono prendere 2j + 1 valori: m = −j, −j + 1, · · · , j − 1, j (7.9) Nel caso in cui si realizzi il momento angolare in termini delle variabili dello spazio ~ si parla di momento ~ e P~ = −ih / ∇) delle configurazioni (cioe’ in termini degli operatori X rbitale e si trova che i soli possibili valori del momento angolare sono interi. Questo segue perche’ in questo caso si richiede che la funzione d’onda ritorni allo stesso valore dopo una rotazione di 2π. Per casi più generali in cui la funzione d’onda non è semplicemente una funzione a valori complessi, ma una funzione a valori vettoriali (basta pensare al campo elettromagnetico), la situazione è più complicata, perché nella rotazione non basta calcolare la funzione nel punto ruotato, ma essa stessa può subire una rotazione. In tal caso l’operatore di momento angolare si divide in due parti (vedi nel seguito), una parte di momento orbitale, che agisce sulle coordinate, e una parte che agisce invece sulle componenti della funzione d’onda (parte di spin. È solo sulla parte orbitale che è richiesta la condizione che la funzione ritorni in sé dopo 2π e quindi il momento orbitale potrà avere solo valori interi, mentre la parte di spin (o intrinseca) potrà avere anche valori seminteri. Come abbiamo visto la teoria generale del momento angolare prevede che il momento angolare possa assumere anche valori semiinteri, ma a parte questo risultato è ovvio che la teoria del momento angolare non si può ridurre al solo studio del momento orbitale. Infatti, in generale, la funzione d’onda non si ridurrà a una funzione a valori complessi, ma potrà avere delle ulteriori proprietà. Basta pensare al campo elettromagnetico. Il campo elettrico e magnetico, se calcolati in un sistema di riferimento ruotato non cambiano solo perchè ruotano le coordinate del punto considerato, ma anche perché ruotano le loro componenti. Questo è un fatto del tutto generale e che ci conduce a separare il momento angolare in due parti, la parte orbitale, che tiene conto della rotazione delle coordinate del punto che si sta considerando e la parte di momento angolare intrinseco, o brevemente di spin, che tiene conto delle variazioni che possono subire le componenti delle funzione d’onda. Nel caso fin qui esaminato di una funzione d’onda a valori complessi, questa variazione è nulla e si dice che lo spin è zero. 7.2 Lo spin Dal ragionamento fatto precedentemente segue che lo spin corrisponde a una vera e propria variabile dinamica addizionale, per cui il vettore di stato corrispondente ad uno spin j sarà caratterizzato da una funzione d’onda in una base in cui sono diagonali le coordinate, il quadrato del momento di spin e la sua terza componente ψj (~r, m) = h~r; j, m|ψi, m = −j, −j + 1, · · · , j − 1, j 87 (7.10) Dunque la funzione d’onda dipende non solo dalla posizione ma anche da una ulteriore variabile discreta m che prende 2j + 1 valori. In questa base (la base hj, m|) il momento di spin agisce come una matrice (2j + 1) × (2j + 1) e quindi si può pensare a ψj (~r, m) come a un vettore con 2j + 1 componenti: ψj (~r, j) ψj (~r, j − 1) ··· (7.11) ψj (~r, m) = ψj (~r, −j + 1) ψj (~r, −j) Per momento angolare di spin fissato, la norma di un vettore di stato è data hψ|ψi = +j Z X 3 d ~rhψ|~r; j, mih~r; j, m|ψi = m=−j +j Z X d3~r |ψj (~r, m)|2 (7.12) m=−j Quindi per un vettore normalizzato le probabilità di osservare la particella con proiezione m del momento di spin è data da Z P (m) = d3~r |ψj (~r, m)|2 (7.13) Prima di procedere consideriamo i casi particolari dello spin 1/2 e dello spin 1. Spin 1/2: Sappiamo che i possibili autovalori di Jz sono ±1/2, dunque nella base degli autovalori di Jz avremo 1 1 0 Jz = (7.14) 2 0 −1 Inoltre si dimostra che 1 1 Jx = (J+ + J− ) = 2 2 e i 1 Jy = − (J+ − J− ) = 2 2 0 1 1 0 (7.15) 0 −i i 0 (7.16) In genere si preferisce usare le matrici di Pauli, definite come ~σ = 2J~ (7.17) e quindi date da 0 1 σx = , 1 0 Chiaramente si ha 0 −i σy = , i 0 σz = 1 0 0 −1 (7.18) 1 3 ~σ 2 = 4J~ 2 = 4 · · = 3 2 2 (7.19) σz2 = 1 (7.20) e 88 Dalle espressioni per le matrici di Pauli segue σx2 = σy2 = σz2 = 1 (7.21) Dalle regole di commutazione del momento angolare si trova X [σi , σj ] = 2i ijk σk (7.22) k Si ha anche che le matrici σi anticommutano tra loro, cioè [σi , σj ]+ = 0, i 6= j (7.23) per esempio, [σx , σy ]+ = σx σy + σy σx = = 1 (σx [σz , σx ] + [σz , σx ]σx ) = 2i 1 (σx σz σx − σz + σz − σx σz σx ) = 0 2i (7.24) Pertanto [σi , σj ]+ = 2δij (7.25) Usando il risultato per il commutatore e quello per l’anticommutatore si vede subito che X σi σj = δij + i ijk σk (7.26) k Dunque la funzione d’onda per lo spin 1/2 è una funzione con due componenti ψ+ (~r) ψ(~r, 1/2) ≡ ψ1/2 (~r) = ψ− (~r) ψ(~r, −1/2) (7.27) la ψ1/2 (~r) viene chiamata spinore. Le due componenti con + e − vengono dette con spin up e spin down rispettivamente. Per un vettore di stato normalizzato le probabilità per spin up e spin down sono rispettivamente Z Z 3 2 P (+) = d ~r |ψ+ (~r)| , P (−) = d3~r |ψ− (~r)|2 (7.28) spin 1: Si ha (ancora nella base in cui Jz è diagonale) 1 0 0 Jz = 0 0 0 0 0 −1 (7.29) Inoltre si dimostra che 0 1 0 1 Jx = √ 1 0 1 , 2 0 1 0 0 −i 0 1 Jy = √ i 0 −i 2 0 i 0 89 (7.30) Si ha J~ 2 = 1 · 2 = 2 (7.31) e si verifica immediatamente che Ji3 = Ji , i = x, y, z In questo caso la funzione d’onda è data da ψ(~r, +1) ψ1 (~r) = ψ(~r, 0) ψ(~r, −1) (7.32) (7.33) Dunque, nel caso generale, si ha oltre al momento angolare orbitale un momento angolare intrinseco o di spin. Pertanto quando si effettui una rotazione del sistema di coordinate occorrerà considerare la trasformazione di entrambi. Usando ancora variabili adimensionali, il momento angolare totale J~T sarà dato da ~ +S ~ J~T = L (7.34) ~ S] ~ =0 [X, (7.35) Dato che la base |~r; j, mi si può identificare con il prodotto tensoriale della base delle coordinate e della base di spin |~r; j, mi = |~ri ⊗ |j, mi (7.36) Per finire diciamo come si modifica l’equazione di Schrödinger per funzioni d’onda con spin. Partendo sempre dall’equazione astratta ∂ |ψi = H|ψi ∂t (7.37) ∂ h~x; j, m|ψi = h~x; j, m|H|ψi ∂t (7.38) / ih e proiettando sulla base |~x; j, mi segue / ih da cui (se H commuta con J~ 2 ) X ∂ ∂ / ψj (~x, m) = ih Hmm0 ~x, ψj (~x, m) ∂t ∂~x 0 (7.39) m dove Hmm0 (~x, ∂/∂~x) è un insieme di (2j + 1) × (2j + 1) operatori differenziali nello spazio delle coordinate e ∂ h~x; j, m|H|~x0 ; j, m0 i = Hmm0 ~x, δ(~x − ~x0 ) (7.40) ∂~x 90 Dunque nello spazio degli spinori l’equazione di Schrödinger diventa un insieme di (2j + 1) equazioni accoppiate ∂ / ψj (~x) = Hψj (~x) ih (7.41) ∂t con H una matrice (2j + 1) × (2j + 1). Nel caso particolare dello spin 1/2 usando il fatto che nello spazio delle matrici 2 × 2 le σ di Pauli e la matrice identità formano un set completo1 si può scrivere ~ ·σ H = H0 · I + H (7.42) ~ sono in genere operatori differenziali. Dunque la forma più generale dell’edove H0 e H quazione di Schrödinger per una particella di spin 1/2 è (equazione di Pauli): / ih ∂ ~ · ~σ )ψ1/2 (~x) ψ (~x) = (H0 + H ∂t 1/2 (7.43) Discuteremo successivamente l’interpretazione fisica dei due termini che appaiono a secondo membro in questa equazione. 7.3 Addizione di momenti angolari Consideriamo due momenti angolari commutanti tra loro J~1 e J~2 2 . Consideriamo la somma dei due momenti angolari J~ = J~1 + J~2 (7.44) e notiamo che [Ji , Jj ] = iijk Jk (7.45) e quindi la somma di due momenti angolari soddisfa le stesse regole di commutazione dei due momenti angolari. Dunque potremmo diagonalizzare sia J~2 che Jz che avranno autovalori J(J + 1) e M rispettivamente, con J intero o semintero e −J ≤ M ≤ J (7.46) Quello che vogliamo fare è determinare i possibili valori di J e M quando i due momenti angolari che sommiamo sono caratterizzati dai due numeri quantici (j1 , m1 ) e (j2 , m2 ). Diamo qui i risultati senza dimostrazione. Si trova che M = m1 + m2 (7.47) |1 − j2 | ≤ J ≤ j1 + j2 (7.48) e con J che varia a pasi di uno tra il valore inferiore e quello superiore. 1 Si dimostra facilmente usando le proprietà di prodotto delle matrici di Pauli e le proprietà di traccia T r[I] = 2 e T r[~σ ] = 0 2 Usiamo qui momenti angolari adimensionali, cioè divisi per /h 91 Per esempio per due spin 1/2 il momento angolare totale può essere 0 o 1. Dato che si può dimostrare che con J~2 e Jz si possono diagonalizzare anche ~j12 e ~j22 gli stati saranno caratterizzati da j1 , j2 , J, M e si scriveranno nella forma |j1 , j2 , J, M i (7.49) Gli autostati del momento angolare totale, in termini degli autoscatti dei due momenti angolari, nel caso di due stati di spin 1/2, sono dati da |j1 = 1/2, j2 = 1/2, J = 1, M = +1i = |m1 = 1/2, m2 = 1/2i, 1 |j1 = 1/2, j2 = 1/2, J = 1, M = 0i = √ (|m1 = 1/2, m2 = −1/2i + |m1 = 1/2, m2 = −1/2i) 2 |j1 = 1/2, j2 = 1/2, J = 0, M + −1i = |m1 = −1/2, m2 = −1/2i 1 |j1 = 1/2, j2 = 1/2, J = 0, M = 0i = √ (|m1 = 1/2, m2 = −1/2i − |m1 = 1/2, m2 = −1/2i) 2 (7.50) i primi tre stati, corrispondenti a J = 1 sono detti di tripletto, mentre il quarto stato con spin 0 e’ detto di singoletto. 92 Capitolo 8 Stati entangled Come vedremo, in meccanica quantistica esistono degli stati con caratteristiche molto peculiari e con un comportamento assolutamente non classico. Tipicamente si puo’ avere uno stato composto i cui componenti hanno interagito nel passato e che poi si separano e che se osservati a distanze non connesse da un punto di vista causale preservano una correlazione tra loro. Queste correlazioni appaiono non locali sebbene tutte le interazioni conosciute risultino locali con un grado di accuratezza elevatissimo. Per essere piu’ chiari facciamo un esempio esplicito. Consideriamo un sistema composto da due sottosistemi A e B, descritto da una funzione d’onda X Ψ(x, y) = cn φn (x)ψn (y) (8.1) n con x, y le variabili di posizione che descrivono i due sistemi unidimensionali. Supponiamo inoltre che le due funzioni d’onda φn (x) e ψn (y) siano autofunzioni di due operatori OA e OB ognuno dei quali operante nel proprio sottospazio OA |φi = λnA |φi, OB |ψi = µnB |ψi (8.2) Se misuriamo OA con risultato λnA , il sistema si proietta nel seguente stato Ψ(x, y) → φn (x)ψn (y) (8.3) Se adesso viene misurata l’osservabile OB (senza che nel frattempo vengano effettuata altre operazioni sul sistema) il risultato della misura sara’ con certezza µnB . Questo vale a qualunque distanza dal punto in cui e’ misurata OA , viene misurato OB , cioe’ anche se la distanza tra i due punti, dAB e’ tale da essere maggiore dell’intervallo temporale tra le due misure, tAB moltiplicato per la velocita’ della luce c: dAB > tAB c (8.4) In questo caso la distanza spazio temporale e’ detta di tipo spazio (space-like) e i due eventi non sono casualmente connessi. Infatti, in accordo alla teoria della relativita’ ristretta non 93 e’ possibile trasportare informazioni a distanze di tipo space-like e quindi non e’ possibile influenzare con l’azione in un punto quello che avviene in un altro ad una distanza di questo tipo. Questo e’ il significato di punti non connessi da un punto di vista causale. E’ su questo punto che e’ nata la discussione relativa al paradosso EPR (Einstein, Podolski e Rosen) che riprenderemo in un secondo momento. D’altra parte si puo’ notare che di fatto non c’e’ contraddizione con la relativita’. Infatti l’osservatore che misura OB non ha modo di sapere, istantaneamente, cosa abbia misurato OA . Le due misure possono solo essere confrontate a posteriori. Dunque e’ solo possibile stabilire, a posteriori, una correlazione tra le misure. Gli istanti a cui vengono effettuate le due misure sono irrilevanti, occorre solo essere sicuri di accoppiare bene gli eventi. 8.1 Stati a due particelle di spin 1/2 In questa sezione considereremo gli stati entangled di due particelle di spin 1/2. Lo spazio ad una particella sara’ descritto dai due stati |ui e |di tali che σ3 |ui = +|ui, σ3 |di = −|di (8.5) Gli stati a due particelle sono ottenuti tramite prodotto tensoriale e si hanno quattro stati indipendenti |uui ≡ |ui ⊗ |ui, |ddi ≡ |di ⊗ |di, |udi ≡ |ui ⊗ |di, |dui ≡ |di ⊗ |ui (8.6) Gli operatori di spin (rappresentati da matrici di Pauli) operanti sui due sottospazi saranno indicati rispettivamente con σi e τi . Conviene ricordare come operano le matrici di Pauli nei loro sottospazi ad una particella σ1 |ui = +|di, σ1 |di = +|ui σ2 |ui = +i|di, σ2 |di = −i|ui σ3 |ui = +|ui, σ3 |di = −|di (8.7) Osserviamo che lo spazio vettoriale che descrive lo spin 1/2 e’ uno spazio a due dimensioni complesse e che quindi il vettore piu’ generale dipende da 2 parametri complessi o 4 parametri reali. Se pero’ ci limitiamo a considerare stati fisici, possiamo imporre la condizione di normalizzazione ed abbiamo una fase arbitraria a disposizione. Quindi lo spazio degli stati fisici dipende da due parametri reali. Infatti, dalla normalizzazione di α|ui + β|di (supponendo i due ket di base normalizzati) segue |α|2 + |β|2 = 1 (8.8) la cui soluzione generale e’ α = cos θeiφ1 , 94 β = sin θeiφ2 (8.9) Scegliendo una fase overall tale che α sia reale, segue che lo stato piu’ generale e’ descritto da |ψi = cos θ|ui + sin θeiφ |di (8.10) In modo analogo lo spazio di due spin 1/2 ha quattro dimensioni complesse, ma avendo a disposizione la normalizzazione e la fase complessiva, lo stato fisico piu’ generale dipende da 8 − 2 = 6 parametri reali. Il prodotto tensoriale di due stati fisici ad una particella |ψi = (cos θ1 |ui + sin θ1 eiφ1 |di) ⊗ (cos θ2 |ui + sin θ2 eiφ2 |di) (8.11) dipende invece da soli 4 parametri reali. Esistono pertanto 2 combinazioni reali indipendenti degli stati di base che non sono fattorizzabili. Per esempio, due tali combinazioni sono 1 |ψ± i = √ (|udi ± |dui) (8.12) 2 che sono rispettivamente uno stato del tripletto e lo stato di singoletto. E’ evidente che gli stati fattorizzati sono autostati simultanei di ~σ · ~n e ~τ · m ~ per una opportuna scelta di ~n e m ~ (vedi eq. (1.182)). Come vedremo. la stessa proprieta’ non vale per gli stati non fattorizzati. In uno spazio di tipo VA ⊗ VB , il vettore piu’ generale e’ dato da X |ψi = cij |ii ⊗ |ji (8.13) ij Se B cij = cA i cj (8.14) lo stato si dice fattorizzabile o separabile. In caso contrario lo stato e’ non fattorizzabile o entangled. Consideriamo lo stato |ψ+ i in (8.12). Se misuriamo su questo stato σ3 con risultato +1, lo stato viene proiettato in |udi e misurando τ3 otterremo -1. Se invece σ3 = −1, allora τ3 = +1. dunque in questo stato nessuno dei due spin e’ definito. Anzi, si vede facilmente che hψ± |σi |ψ± i = hψ± |τi |ψ± i = 0 (8.15) Dunque sugli stati entangled non esistono vettori ~n e m ~ lungo i quali gli spin siano diagonali. Infatti, come e’ ovvio dalla loro struttura lo spin delle due particelle non e’ definito. Come sappiamo e’ invece definito lo spin totale. Dato che |ψ− i e’ lo stato di singoletto con J = 0, segue subito (~σ + ~τ )|ψ− i = 0 (8.16) Sullo stato ψ+ il risultato di ~σ + ~τ e’ non nullo, dato che e’ uno stato con J = 1. In particolare sullo stato di singoletto vale l’identita’ ~σ · ~n|ψ− i = −~τ · ~n|ψ− i per qualunque ~n, come segue dalla (8.16). 95 (8.17) 8.2 Matrice densita’ Abbiamo visto in Sezione 2.2 che i processi di verifica della meccanica quantistica richiedono in genere la ripetizione di una misura preparando un numero sufficientemente grande di volte, N , lo stato originale. In pratica in questa preparazione si possono introdurre degli errori che non ci permettono di riprodurre esattamente lo stesso stato. Per esempio, se la temperatura e’ non nulla, i sistemi hanno sempre delle fluttuazioni termiche che sono regolate da una distribuzione di probabilita’ termica. Infatti, se consideriamo autostati dell’energia, e’ noto dalla termodinamica che le probabilita’ (statistiche adesso) di ottenere un certo valore dell’energia dipendono dalla temperatura seguendo la distribuzione di Boltzmann w(E) ∝ e−E/kT (8.18) dove T e’ la temperatura in 0 K, e k e’ la costante di Boltzmann, 1.38×10−23 Joule/Kelvin. Il significato e’ che ad una data temperatura, le energie piu’ probabili sono quelle per cui E ≈ kT . Dunque la probabilita’ di produrre uno stato di energia E e’ data da w(E). Quindi, quando si considera la media di un certo operatore, oltre a considerarne il valore di aspettazione sullo stato considerando, dovremo fare un’ulteriore media statististica. Se indichiamo con wi la probabilita’ statistica di avere il sistema nello stato |ψi i, allora il valor medio di un operatore A sara’ dato da X hAi = wi hψi |A|ψi i (8.19) i Notiamo che si puo’ scrivere hψi |A|ψi i = Tr(Pi A) dove Pi e’ il proiettore sullo stato |ψi i. Infatti X X Tr(Pi A) = hψj |Pi |ψk ihψk |A|ψj i = δji δik hψk |A|ψj i = hψi |A|ψi i j,k (8.20) (8.21) j,k Dunque hAi = X wi Tr(Pi A) (8.22) i Possiamo introdurre un nuovo operatore (matrice densita’) dato da X ρ= wi P i (8.23) i in termini del quale il valor medio di un operatore risulta dato da hAi = Tr(ρA) (8.24) Ricordiamo che se il sistema si trova nello stato |ψi i la probabilita’ di trovarlo dopo una misura in uno stato |φi e’ data da p(φ) = |hφ|ψi i|2 = hψi |Pφ |ψi i 96 (8.25) dove Pφ = |φihφ| e’ il proiettore sullo stato |φi. Se lo stato iniziale e’ una miscela di stati |ψi i allora la probabilita’ di trovare lo stato |φi dopo la misura sara’ X p(φ) = wi hψi |Pφ |ψi i (8.26) i D’altra parte si ha Tr (Pi Pφ ) = X hψj |Pi Pφ |ψj i = hψi |Pφ |ψi i (8.27) j Dunque p(φ) = X wi Tr(Pi Pφ ) = Tr (ρPφ ) (8.28) i Pertanto in generale, si possono riesprimere le probabilita’ ed i valori medi usando la matrice densita’. Talvolta si identifica lo stato del sistema con la matrice densita’ stessa. La matrice densita’ dipende dal processo di preparazione (tramite le probabilita’ wi ) e possiede le seguenti proprieta’ 1. La matrice densita’ ha traccia uguale ad 1: X X X X Tr ρ = hj|ρ|ji = wi hj|Pi |ji = wi δij δij = wi = 1 j ij ij (8.29) i dove l’ultima relazione segue dal significato probabilistico delle wi 2. La matrice densita’ e’ hermitiana. Questo segue dalla hermiticita’ dei proiettori 3. La matrice densita’ e’ un operatore definito positivo. Un operatore A e’ definito positivo se per ogni stato |ψi si ha hψ|A|ψi ≥ 0. L’enunciato segue osservando che i wi sono numeri positivi e i proiettori sono operatori definiti positivi1 4. Vale la seguente diseguaglianza Trρ 2 ≤ 1 (8.30) Infatti Trρ 2 = X wi wj Tr(Pi Pj ) = ij X ij wi wj δij = X wi2 ≤ 1 (8.31) i dove abbiamo sfruttato le proprieta’ dei proiettori ed il fatto che essendo ogni wi ≤ 1 si ha wi2 ≤ wi , da cui prendendo la somma X X wi2 ≤ w1 = 1 (8.32) i i 1 Infatti, se si considera un proiettore Pi ed un generico stato con la seguente decomposizione P sulla base dei proiettori, |ψi = i ci |ψi i, segue hψ|Pi |ψi = |ci |2 > 0 per qualunque |ψi. 97 Quest’ultima proprieta’ permette di distinguere tra quello che si chiama uno stato puro, cioe’ il sistema preparato in un unico stato quantico |ψi, e una miscela statistica. Per uno stato puro wψ = 1 con tutti gli altri wi uguali a zero. Allora si ha ρ = |ψihψ| = Pψ (8.33) ρ2 = Pψ2 = Pψ = ρ (8.34) e quindi e quindi per il caso puro in equazione (8.31) vale l’uguaglianza. Si mostra facilmente che e’ vero anche il viceversa, cioe’ se vale ρ2 = ρ allora lo stato e’ puro. Infatti se vale questa relazione si ha X 0 = ρ2 − ρ = (wi2 − wi )Pi (8.35) i dove i Pi sono i proiettori sugli stati |ii. Segue wi2 = wi (8.36) che ha due soluzioni, wi = 0 o wi = 1. dato che la somma di tutti i wi deve fare P uno, i wi = 1, segue che tutti i wi devono essere nulli eccetto uno, diciamo wĩ = 1 e, corrispondentemente ρ = |ĩihĩ| (8.37) che implica che lo stato e’ puro. Quando lo stato non e’ puro si parla di una miscela di stati. In tal caso nella (8.31) si ha una stretta disuguaglianza. Dunque il caso puro ed il caso di una miscela di stati possono essere distinti in un modo indipendente dalla base di vettori che si sta usando2 , semplicemente guardando alla traccia del quadrato della matrice densita’. Facciamo un esempio semplice. Consideriamo un sistema descritto da due stati |±i. Uno stato puro e’, per esempio, 1 |ψi = √ (|+i − |−i) 2 (8.38) La matrice densita’ e’data da ρψ = |ψihψ| = 1 (|+ih+| + |−ih−| − |+ih−| − |−ih+|) 2 Rappresentando gli stati come vettori colonna avremo 1 0 |+i ⇔ , |−i ⇔ 0 1 e 1 |ψi ⇔ √ 2 2 1 −1 (8.40) Ricordiamo che la traccia di un operatore non dipende dalla base di cui si fa uso 98 (8.39) (8.41) Si trova allora 1 ρψ = 2 1 −1 −1 1 (8.42) che soddisfa ρ2ψ = ρψ (8.43) Se invece consideriamo una miscela in cui lo stato |+i sia presente con probabilita’ 1/2 e quello |−i con uguale probabilita’, la matrice densita’ sara’ data da 1 1 ρ = |+ih+| + |−ih−| 2 2 (8.44) ed in notazioni 2 × 2 1 ρ= 2 1 0 0 1 (8.45) che soddisfa 1 1 ρ2 = ρ ⇒ Trρ2 = < 1 (8.46) 2 2 La differenza tra queste due diverse configurazioni del sistema puo’ essere vista considerando i valori medi delle osservabili. Per un sistema a due componenti, quale quello in esame, un operatore e’ semplicemente una matrice 2 × 2. Possiamo allora considerare le matrici di Pauli3 1 0 0 −i 0 1 (8.47) , σz = , σy = σx = 0 −1 i 0 1 0 per le quali si ha Tr (ρψ σx ) = −1, Tr (ρψ σy ) = 0, Tr (ρψ σz ) = 0 (8.48) e Tr (ρσx ) = 0, Tr (ρσy ) = 0, Tr (ρσz ) = 0 (8.49) Consideriamo ancora l’espressione generale della matrice densita’, nella base in cui e’ diagonale X ρ= wi |iihi| (8.50) i dove wi e’ la probabilita’ che il sistema si trovi nello stato |ii. La dipendenza temporale di ρ segue immediatamente dalla equazione di Schrödinger per gli stati X i X i i ρ̇ = wi − H|iihi| + wi + |iihi|H = − [H, ρ] (8.51) /h /h /h i i 3 Queste tre matrici intervengono nella descrizione delle particelle con spin 1/2. Nel presente contesto la loro rilevanza e’ che assieme alla matrice identita’ costituiscono un set completo di matrici 2 × 2. Cioe’ ogni matrice di questo tipo si puo’ scrivere come combinazione lineare a coefficienti complessi delle matrici di Pauli e della matrice identita’ 99 Notiamo che questa equazione differisce nel segno da quella a cui soddisfano le equazioni del moto per gli operatori in rappresentazione di Heisenberg. Questa equazione (detta di von Neumann) e’ l’equivalente dell’equazione di Liouville della meccanica statistica classica, cioe’ l’equazione per la densita’ nello spazio delle fasi classico. Dall’evoluzione temporale degli stati |ψ(t)i = U (t)|ψ(0)i (8.52) segue subito ρ(t) = U (t)ρ(0)U † (t) (8.53) Da questa equazione si ha il risultato Tr[ρn (t)] = Tr[ρn (0)] (8.54) per qualunque potenza intera. Infatti Tr[ρn (t)] = Tr[U (t)ρ(0)U † (t) · · · U (t)ρ(0)U † (t)] = Tr[ρn (0)] (8.55) come segue dalla unitarieta’ di U (t) e dalla prorieta’ ciclica della traccia. Questo mostra, in particolare. che la proprieta’ fondamentale di ρ Tr[ρ] = 1 (8.56) e’ conservata nel tempo (conservazione della probabilita’) ed inoltre che anche la proprieta’ per uno stato di essere puro o misto, dettata dalla traccia di ρ2 , e’ conservata nel tempo. 8.3 Entropia e entanglement In fisica il concetto di entropia e’ legato al disordine di un sistema fisico e rappresenta il numero dei modi in cui un sistema macroscopico puo’ essere realizzato in termini dei microsistemi componenti. Il concetto di entropia che introdurremo in questo contesto, l’entropia di von Neumann, e’ invece piu’ prossimo a quello introdotto da Shannon nella sua teoria dell’informazione. Consideriamo una collezione classica di stati, cioe’ un insieme di punti che, come abbiamo visto rappresenta lo spazio delle fasi del sistema (vedi Fig. 8.1). L’idea dell’entropia di informazione e’ quella di definire una quantita’ che decresce con l’aumentare dell’informazione. Consideriamo un sottoinsieme Sn dello spazio delle fasi (vedi Fig. 8.2) e supponiamo di sapere che il sistema si trova in uno qualunque degli stati in Sn . Piu’ grande e’ il numero di stati in Sn e minore e’ l’informazione. Se il sottoinsieme contiene un solo stato sappiamo con certezza che il sistema si trova in quello stato. Il minimo di informazione si ha quando il sottoinsieme Sn coincide con tutto lo spazio delle fasi, dato che in questo caso il sistema si puo’ trovare in uno qualunque degli stati. Definiamo allora l’entropia come il logaritmo del numero degli stati in Sn S = log n 100 (8.57) 2 N 3 1 Figura 8.1: Spazio delle fasi classico. Ogni stato e’ rappresentato da un punto. 2 N 3 Sn 1 Figura 8.2: Un sottoinsieme Sn dello spazio delle fasi classico. Dunque S = 0 quando si ha il massimo di informazione ed e’ al valore massimo, S = log N , quando si ha il minimo di iformazione. Consideriamo come caso particolare un sistema (classico) di m spin. In questo caso il sistema ha N = 2m stati e l’entropia massimale (minimo di informazione) risulta S = m log 2 (8.58) In queste considerazioni abbiamo implicitamente assunto che il sistema possa stare in uno qualunque degli stati in Sn con egual probabilita’. Piu’ in generale possiamo definire una funzione probabilita’, P (i), sullo spazio delle fasi, con la condizione N X P (i) = 1, P (i) ≥ 0 (8.59) i=1 Si definisce allora entropia la quantita’ S=− N X P (i) log P (i) (8.60) i=1 La motivazione del segno meno e’ che le P (i) sono quantita’ minori od uguali ad uno e quindi il loro logaritmo e’ negativo, mentre noi vogliamo S positiva. Nel caso esaminato 101 in precedenza le probabilita’ sono scelte come segue P (i) = 1 n if i ∈ Sn , P (i) = 0 if i∈ / Sn (8.61) Infatti gli stati in Sn sono equiprobabili, la probabilita’ che il sistema non sia in Sn e’ zero e la somma dei P (i) deve fare 1. Dunque si ha S=− X 1 X 1 1 log = log n = log n n n n i∈Sn (8.62) i∈Sn Nel caso in cui non si sappia niente dello stato in cui si trova il sistema che equivale a dire che si puo’ trovare in uno qualunque degli N stati con probabilita’ 1/N segue S = log N (8.63) e l’entropia e’ massimale. Dunque quando S e’ massima non si conosce niente sullo stato del sistema. Al contrario, quando S assume il valore minimo, S = 0, allora sappiamo con esattezza in quale stato si trovi il nostro sistema. Come abbiamo visto la quantita’ che in meccanica quantistica generalizza l’idea di probabilita’ e’ la matrice densita’ e quindi von Neumann ha definito l’entropia di uno stato quantistico in termini della matrice densita’ associata S = −Tr[ρ log ρ] (8.64) La matrice densita’ e’ hermitiana e quindi diagonalizzabile con una trasformazione unitaria. Dunque possiamo definire la traccia nella base in cui ρ e’ diagonale. Indicando con ρi gli autovalori di ρ si ha X S=− ρi log ρi (8.65) i Se la matrice densita’ si riferisce allo stato di un sistema in cui siano definiti N operatori di proiezione ortogonali Pi , la matrice densita’ e’ data da ρ= N X wi Pi (8.66) i=1 dove wi sono le probabilita’ di avere lo stato |ii. Nella base in cui i Pi sono diagonali, la matrice densita’ e’ diagonale con autovalori wi e dunque X S=− wi log wi (8.67) i e vediamo che l’entropia di von Neumann coincide con quella definita da Shannon. 102 8.4 Matrice densita’ ridotta e misura dell’entanglement L’ idea di entropia introdotta nella Sezione precedente e’ particolarmente rilevante per i sistemi composti in quanto fornisce, come vedremo, una misura dell’entanglement degli stati. Consideriamo allora un sistema composto da due sottosistemi 1 e 2. Una base ortonormale e’ data da |i, ji ≡ |ii ⊗ |ji, i = 1, 2, · · · , N, j = 1, 2, · · · , M (8.68) dove |ii e |ji sono due basi ortonormali per i due sistemi 1 e 2. Lo stato normalizzato piu’ generale sara’ dunque X X |ψi = cij |i, ji, |cij |2 = 1 (8.69) i,j i,j Consideriamo un operatore O1 che agisca sul solo sistema 1, avremo hi, j|O1 |i0 , j 0 i = (O1 )ii0 δjj 0 , (O1 )ii0 = hi|O1 |i0 i Supponiamo di voler calcolare il valor medio di O1 sullo stato |ψi. Avremo X X X hO1 i = hψ|O1 |ψi = c∗ij ci0 j 0 (O1 )ii0 δjj 0 = (O1 )ii0 ci0 j c∗ij ii0 jj 0 ii0 (8.70) (8.71) j Introduciamo l’operatore densita’ ridotto per il sistema 1 come quell’operatore i cui elementi di matrici sono dati da X (ρrid )i0 i = ci0 j c∗ij (8.72) j Notiamo che se pensiamo ai coefficienti cij come elementi di una matrice c (in generale non quadrata), questa relazione si puo’ anche scrivere nella forma ρrid = cc† (8.73) hO1 i = Tr[O1 ρrid ] (8.74) Vediamo dunque che Formalmente possiamo ottenere la matrice densita’ ridotta anche tracciando la matrice densita’ dell’intero sistema ρ = |ψihψ| sugli stati del sistema 2. In dettaglio X ρ = |ψihψ| = c∗k1 l2 ci1 j2 |i1 i ⊗ |j2 ihk1 | ⊗ hl2 | (8.75) i1 j2 k1 l2 La traccia parziale sul sistema 2 e’ definita nel seguente modo X X X ρrid = Tr2 [ρ] = hm2 |ψihψ|m2 i = c∗k1 l2 ci1 j2 |i1 ihk1 |δj2 m2 δl2 m2 m2 m2 i1 j2 k1 l2 103 (8.76) da cui ρrid = X X ci1 j2 c∗k 1 j2 i1 k1 |i1 ihk1 | = j2 X (ρrid )i1 k1 |i1 ihk1 | (8.77) i1 k1 Che ρ1 sia una matrice densita’ lo si deduce notando che ne ha tutte le proprieta’ formali. Infatti ha traccia 1: XX X Tr[ρrid ] = cij c∗ij = |cij |2 = 1 (8.78) i j ij come segue dalla normalizzazione di |ψi. ρrid e’ hermitiana X X (ρrid )∗ii0 = (cij c∗i0 j )∗ = ci0 j c∗ij = (ρrid )i0 i j (8.79) j ed inoltre e’ definita positiva. Per questo basta mostrare che per un generico stato |φi di 1 si ha hφ|ρ1 |φi ≥ 0: ! X X X X X X hφ|ρrid |φi = b∗i (ρ1 )ii0 bi0 = b∗i cij c∗i0 j bi0 = b∗i cij bi0 ci0 j (8.80) ii0 ii0 j l i i0 e introducendo dj = X b∗i cij (8.81) i la precedente relazione diventa hφ|ρrid |φi = X |dj |2 ≥ 0 (8.82) j Cosi come abbiamo introdotto una matrice densita’ ridotta per il sistema 1, potremmo anche introdurre una matrice densita’ ridotta per il sistema 2. Supponiamo adesso che il vettore di stato |ψi sia fattorizzabile, cioe’ cij = c1i c2j La condizione di normalizzazione diventa X X |c1i |2 = |c2j |2 = 1 i (8.83) (8.84) j e la matrice densita’ sara’ (ρrid )i0 i = X 2∗ 1 1∗ c1i0 c2j c1∗ i cj = ci0 ci (8.85) j ed il valore di aspettazione di O1 hO1 i = Tr[O1 ρrid ] = X c1i c1∗ i0 (O1 )i0 i = hφ|O1 |φi ii0 104 (8.86) con |φi = X c1i |ii (8.87) i e lo stato del sottosistema 1 e’ uno stato puro (cosi come quello del sottosistema 2). Dunque per uno stato complessivo fattorizzato, la matrice ridotta si fattorizza nel prodotto dei coefficienti dello stato puro 1. Notiamo che noi abbiamo supposto che lo stato complessivo sia uno stato puro. In tal caso la matrice densita’ dello stato e’ il proiettore sullo stato stesso e soddisfa ρ2 = ρ, mentre la matrice densita’ ridotta non e’ in generale un proiettore e non soddisfa ρ21 = ρ1 . Facciamo il seguente esempio. Consideriamo lo stato entangled 1 |ψ− i = √ (|udi − |dui) 2 (8.88) Questo e’ uno stato puro del sistema 1 + 2. I coefficient cij sono dati da 1 cud = −cdu = √ 2 cuu = cdd = 0, (8.89) da cui si trova facilmente 1 (ρrid )uu = (ρrid )dd = , 2 (ρrid )ud = (ρrid )du = 0 (8.90) Dunque ρrid 1 = 2 1 0 0 1 1 = 1 2 (8.91) Pertanto 1 ρ2rid = ρrid (8.92) 2 che non e’ un proiettore. Pertanto lo stato che corrisponde a questa matrice densita’ e’ uno stato misto. Infatti corrisponde ad una miscela di spin su e spin giu’, ognuna con probabilita’ 1/2. Possiamo ora calcolare l’entropia associata a ρrid . Si ha 1 1 1 1 S = − log − log = log 2 2 2 2 2 Dunque l’entropia e’ massima (il sistema ha due stati) e non sappiamo in quale stati si trova il sistema 1. Supponiamo invece di sapere che i coefficienti cij , in un di due spin 1/2, sono dati da 1 cij = 2 Segue 1 (ρrid )uu = (ρrid )ud = (ρrid )du = (ρrid )dd = 2 Cioe’ 1/2 1/2 ρrid = 1/2 1/2 105 (8.93) dei due sistema (8.94) (8.95) (8.96) Si verifica immediatamente che questo e’ un proiettore ρ2rid = ρrid (8.97) e dunque il sistema 1 si trova in uno stato puro. Infatti se calcoliamo l’entropia, notando che i due autovalori della matrice densita’ sono necessariamente 0 ed 1, essendo un proiettore ed avendo traccia 1, si trova4 S = −1 log 1 − 0 log 0 = 0 (8.98) il sistema ha entropia minimale e dunque conosciamo con certezza il suo stato. Infatti si verifica immediatamente che lo stato del sistema 1 + 2 e’ uno stato fattorizzato 1 1 |ψi = √ (|ui + |di) ⊗ √ (|ui + |di) 2 2 (8.99) Che questo stato e quello considerato precedentemente siano due stati distinti, lo si puo’ verificare direttamente tramite una misura dello spin del sistema 1. Infatti, nel caso dello stato entangled, come abbiamo visto in precedenza hσi i = 0 (8.100) mentre per lo stato fattorizzato si ha 0 1 1/2 1/2 =1 hσx i = Tr 1 0 1/2 1/2 (8.101) mentre si trova zero per i valori medi di σy e σz . Nel caso in esame e’ possibile esprimere in forma del tutto generale la matrice densita’ ridotta, osservando che la matrice hermitiana 2 × 2 piu’ generale la si puo’ scrivere in termini della matrice identita’ e delle matrici di Pauli nella forma ~ · ~σ ρrid = A + B (8.102) ~ reali. Se imponiamo la condizione di traccia uguale ad 1, segue con A e B Tr[ρrid ] = 2A = 1 → A = 1 2 (8.103) ~ ) Scriviamo allora (posto ~v = 2B ρrid 1 + v3 1 + ~v · ~σ 2 = = 1 2 v 2 + 1 2 v− 1 − v3 2 (8.104) con v± = v1 ± iv2 4 (8.105) qui definiamo la quantita’ 0 log 0 come il limite di log per che tende a zero che e’ zero. 106 Questa matrice ha traccia 1 e determinante det[ρrid ] = 1 − |~v |2 4 (8.106) Dunque gli autovalori della matrice densita’ ridotta sono 1 ± |~v | 2 (8.107) Dato che la matrice densita’ deve essere definita positiva segue |~v | ≤ 1 (8.108) L’entropia e’ data da S=− 1 + |~v | 1 − |~v | 1 − |~v | 1 + |~v | log − log 2 2 2 2 (8.109) Questa funzione e’ rappresentata graficamente in Fig. 8.3 S v Figura 8.3: Il grafico rappresenta l’entropia di eq. (8.109) in funzione di |~v |. Come si vede si tratta di una funzione decrescente con massimo in |~v | = 0 e minimo in |~v | = 1. In particolare, per ~v = 0 si ha il minimo di informazione e 1 ρrid = 1 2 (8.110) in accordo con l’esempio precedente. In maniera analoga per |~v | = 1 si ha il massimo di informazione e quindi entropia nulla. In questo punto l’informazione e’ massima dato che la matrice densita’ diventa un proiettore ρ2rid = 1 + 2~v · ~σ + |~v |2 2 + 2~v · ~σ + |~v |2 − 1 |~v |2 − 1 = = ρrid + 4 4 4 (8.111) Dunque quando ~v e’ un versore la matrice densita’ ridotta diventa un proiettore sugli autostati ~v · ~σ che avranno autovalori ±1. 107 Il significato del vettore ~v che appare nella matrice densita’ e’ molto semplice, infatti rappresenta il valor medio delle matrici σi nello stato corrispondente. Infatti hσi i = Tr[ρrid σi ] = Tr[ X 1X 1 + ~v · ~σ σi ] = vj Tr[σj σi ] = vj δij = vi 2 2 j (8.112) j dove abbiamo usato le seguenti proprieta’ delle matrici di Pauli Tr[σi ] = 0, Tr[σi σj ] = 2δij che seguono dalla proprieta’ (7.26) delle matrici di Pauli X σi σj = δij + i ijk σk (8.113) (8.114) k 8.5 L’esperimento della doppia fenditura e stati entangled . . . n 2 1 1 0 S -1 -1 . . . -2 -n Figura 8.4: La schematizzazione dell’esperiomento di Young usata nel testo. Studieremo adesso una versione semplificata dell’esperimento della doppia fenditura. Questa versione ci permettera’ di mostrare in maniera semplice come il processo di misura si possa interpretare in termini di un processo di entanglement tra sistema da misurare e apparato di misura. La schematizzazione che seguiremo e’ illustrata in Fig. 8.4. Gli elettroni sono prodotti dalla sorgente S e possono passare solo dai punti indicati con 1 e −1. Gli elettroni5 possono solo arrivare nei punti indicati con n, · · · , −1, 0, 1 · · · n dove vengono rivelati (per esempio impressionando una lastra sensibile). 5 In questa sezione considereremo l’esperienza realizzata con elettroni ma analoghe considerazioni si potrebbero fare usando dei fotoni. 108 Come sappiamo l’evoluzione di uno stato e’ una trasformazione lineare sui vettori e quindi se |ψi → |ψ 0 i, |φi → |φ0 i (8.115) una combinazione lineare dei vettori di stato si evolve secondo la legge α|ψi + β|φi → α|ψ 0 i + β|φ0 i (8.116) Iniziamo pensando ad entrambe le fenditure, rappresentate da 1 e −1, aperte. Allora lo stato iniziale si evolvera’ nel seguete modo |Si → |1i + | − 1i (8.117) dove abbiamo indicato con |Si lo stato che descrive l’elettrone alla sorgente e con | ± 1i gli stati dell’elettrone al passaggio delle due fenditure. Se l’elettrone viene rivelato nel punto denotato con n, indicheremo lo stato con |ni e l’evoluzione dell’elettrone dalla fenditura allo schermo di rivelazione sara’ data da X |1i → ψn |ni (8.118) n con probabilita’ di arrivare in n data da |ψn |2 se la fenditura −1 viene chiusa. Analogamente se chiudiamo la fenditura 1 avremo X | − 1i → φn |ni (8.119) n con probabilita’ |φn |2 . Se le fenditure sono entrambe aperte avremo X |1i + | − 1i → (ψn + φn )|ni (8.120) n Dunque la probabilita’ che l’elettrone arrivi in n sara’ data da Pn = |ψn + φn |2 6= |ψn |2 + |φn |2 (8.121) La differenza e’ particolarmente evidente se consideriamo il punto 0. Infatti per simmetria avremo ψ0 = φ0 e P0 = 4|φ0 |2 (8.122) mentre considerando le due fenditure chiuse a turno, la somma delle due probabilita’ e’ 2|φ0 |2 . Ricordiamo anche che le ampiezze ψn e φn descrivono la funzione d’onda dell’elettrone che, nel caso in esame, sara’ un’onda sinusoidale. Se consideriamo le ampiezze per arrivare nel punto n̄ puo’ succedere che le due ampiezze siano sfasate di π. In questo caso sono uguali a parte il segno (ricordiamo che cos(α + π) = − cos α. Corrispondentemente la probabilita’ di rivelare un elettrone nel punto n̄ e’ uguale a zero. Dunque si ottiene una figura di interferenza con dei massimi (per esempio in 0) e dei minimi (per esempio in n̄). 109 Notiamo che la somma delle due probabilita’ che si hanno tenendo chiusa una volta la fenditura 1 ed una volta quella −1, sarebbe |ψn̄ |2 + |φn̄ |2 . Supponiamo adesso di avere entrambe le fenditure aperte, ma di voler determinare da quale fenditura passa l’elettrone. Questo puo’ essere fatto in maniera molto semplice usando una particella di spin 1/2, nello stato |di, posta nella fenditura 1. Se l’elettrone passa dalla fenditura 1 lo spin si ribalta e lo stato fa una transizione a |ui. Se invece passa da −1, lo spin rimane nello stato iniziale |di (vedi Fig. 8.5). Adesso il problema 1 S -1 Figura 8.5: La determinazione del passaggio dell’elettrone da una fenditura o l’altra viene fatta tramite uno spin 1/2, diretto verso il basso, posto nella fenditura 1 e che l’elettrone ribalta quando passa da 1. va pensato nello spazio di Hilbert che e’ il prodotto diretto dello spazio di Hilbert che descrive l’elettrone e lo spazio di Hilbert (a due dimensioni complesse) che descrive lo spin 1/2. Lo stato iniziale sara’ dunque |S, di = |Si ⊗ |di (8.123) Nel caso in cui l’elettrone passi da 1 avremo |S, di → |1, ui (8.124) |S, di → | − 1, di (8.125) mentre se passa da −1 Dato che in questo caso entrambi i fori sono aperti avremo |S, di → |1, ui + | − 1, di (8.126) Dunque, l’effetto della misura, e’ di realizzare uno stato entangled tra l’elettrone e lo spin 1/2, cioe’ tra il sistema e l’apparato di misura. L’evoluzione temporale successiva sara’ X X |1, ui + | − 1, di → ψn |n, ui + φn |n, di ≡ |ψi (8.127) n n Per calcolare la probabilita’ di trovare l’elettrone nel punto 0 e’ conveniente usare il formalismo dei proiettori. Indichiamo con Q0 il proiettore sul sottospazio corrispondente a 0 e teniamo conto del fatto che nello spazio prodotto diretto tale stato e’ degenere, si avra’ Q0 = |0, uih0, u| + |0, dih0, u| 110 (8.128) e la probabilita’ cercata e’ P0 = hψ|Q0 |ψi = |h0, u|ψi|2 + |h0, d|ψi|2 = 2|ψ0 |2 (8.129) dove si e’ tenuto conto del fatto che gli stati di spin sono ortonormali. Dunque il misurare la fenditura da cui passa l’elettrone e’ equivalente a chiudere alternativamente le due fenditure o, se vogliamo, al risultato classico quando si studia questo esperimento facendo uso di particelle classiche invece che di onde. Lo stesso risultato lo si puo’ ottenere usando il formalismo della matrice densita’ ridotta. Dall’espressione della |ψi data in eq. (8.127) ed usando le stesse notazioni usate nella eq. (8.69) si ha cnu = ψn , cnd = φn (8.130) e la matrice densita’ ridotta sara’ data da X ∗ (ρrid )nm = cnj c∗mj = ψn ψm + φn φ∗n (8.131) j=u,d Per calcolare la probabilita’ di trovare l’elettrone in 0, dovremo considerare il proiettore sullo stato 0 che, questa volta, il va preso nello spazio ridotto Q0 = |0ih0| (8.132) La probabilita’ cercata si trova prendendo la traccia della densita’ ridotta con il proiettore X P0 = Tr[ρrid Q0 ] = (ρrid )nm (Q0 )mn ] (8.133) nm D’altra parte (Q0 )nm = hn|0ih0|mi = δn0 δm0 (8.134) P0 = 2|ψ0 |2 (8.135) e dunque Analogamente la probabilita di trovare l’elettrone in un punto generico n̄ si cacola usando il proiettore Qn̄ = |n̄ihn̄| (8.136) e (Qn̄ )nm = δnn̄ δmn̄ (8.137) Pn̄ = |ψn̄ |2 + |φn̄ |2 (8.138) da cui E’ interessante considerare una variante in cui lo spin che serve da apparato di misura non sempre si ribalti ma rimanga invece inalterato al passaggio dell’elettrone con probabilita’ |β|2 e che invece si ribalti, segnalando il passaggio, con probabilita’ |α|2 con |α|2 + |β|2 = 1. In questo caso l’evoluzione dalla sorgente al primo schermo sara’ |S, di → α|1, ui + β|1, di + | − 1, di 111 (8.139) con l’evoluzione temporale successiva data da X (αψn |n, ui + (βψn + φn )|n, ui) α|1, ui + β|1, di + | − 1, di → (8.140) n Questa e’ del tutto analoga alla eq. (8.127) con le sostituzioni ψn → αψn , φn → (βψn + φn ) (8.141) e quindi la probabilita’ di osservare l’elettrone nel punto 0 e’ data da P0 = |α|2 |ψ0 |2 + |β|2 |ψ0 |2 + |φ|2 + β(ψ0∗ φ0 + ψ0 φ∗0 ) = |ψ0 |2 + φ0 |2 + β(ψ0∗ φ0 + ψ0 φ∗0 ) (8.142) dove abbiamo assunto β reale ed usato |α|2 + |β|2 = 1, Dato che per simmetria ψ0 e φ0 sono uguali, si trova P0 = 2(1 + β)|ψ0 |2 (8.143) Notiamo che β = 1 significa che lo spin dell’apparato di misura rimane sempre insensibile al passaggio dell’elettrone e questo caso risulta equivalente al caso in cui non si determina da quale foro passa l’elettrone e infatti P0 = 4|ψ0 |2 . Se invece β = 0, siamo nel caso in cui si determina sempre il foro di passaggio e pertanto si ha P0 = 2|ψ0 |2 come trovato precedentemente. 112 (8.144) Capitolo 9 La critica EPR Fino a non molto tempo fa la maggior parte dei libri di meccanica quantistica non ripoortava nessuna discussione sulla interpretazione della meccanica quantistica. Questo fatto e’ del tutto peculiare ed e’ il contrario di quanto accade in fisica classica in cui, di norma, si inizia discutendo il concetto di misura di una quantita’ fisica e l’interpretazione che si deve dare a queste misure. Questo risulta possibile perche’ l’assunzione fondamentale della fisica classica e’ che, in linea di principio, sia sempre possibile rendere la misura di una quantita’ fisica indipendente dall’apparato di misura. Ovviamente non e’ che non ci siano interferenze tra l’apparato di misura e la quantita’ che si vuole misurare ma, secondo la fisica classica, non ci sono ostacoli di principio a rendere questa interferenza piccola a piacere ed in particolare piu’ piccola delle incertezze tipiche di ogni misura (limitazioni delle scale di lettura, ecc.). Questo non e’ vero nell’ambito quantistico, dove non e’ possibile separare in maniera netta l’apparato di misura dalla quantita’ che si intende misurare. Questo fatto crea ovviamente delle ambiguita’ nella interpretazione delle misure stesse. D’altro canto, ad oggi, la meccanica quantistica e’ stata applicata in un numero enorme di situazioni fisiche diverse e sempre con pieno successo, al di la di ogni interpretazione che si voglia dare del concetto di misura. E’ solo di recente che anche i libri di testo dedicano qualche paragrafo al problema interpretativo. Uno dei motivi e’ che di recente gli esperimenti in situazioni tipicamente quantistiche sono diventati possibili. Pertanto risulta possibile discutere il problema della interpretazione su base quantitativa. Nel passato e’ stata essenzialmente la discussione di due situazioni paradossali, il gatto di Schrödinger1 e la critica di Einstein, Podolsky e Rosen (EPR)2 , che ha polarizzato la discussione. Discuteremo il primo paradosso in seguito. Iniziamo adesso a discutere la critica EPR. Facciamo alcune premesse. Per giudicare il successo di una teoria fisica occorre porsi due domande: 1. La teoria e’ corretta? Il grado di correttezza di una teoria dipende evidentemente dal confronto con i dati sperimentali e quindi solo il confronto tra teoria ed 1 2 Vedi: E. Schrödinger, Die Naturwissenschaften 23 (1935) 807-812, 823-828, 844-849. Vedi: A. Einstein, B. Podolsky e N. Rosen, Physical Review 47 (1935) 777. 113 esperimento può rispondere a questa questione. Inoltre e’ opportuno sottolineare che l’accordo significa che le previsioni teoriche si accordano con i dati sperimentali a disposizione ed entro le incertezze dovute agli strumenti di misura. Può benissimo accadere che la correttezza sia smentita da future misure di precisione superiore, oppure che nuovi esperimenti non siano interpretabili in termini della teoria che abbiamo a disposizione. 2. La descrizione fornita dalla teoria e’ completa? Questa affermazione e’ da intendersi nel seguente senso: ogni elemento della realta’ fisica deve avere una controparte nella descrizione teorica. Ovviamente per rispondere a questa questione dobbiamo essere in grado di decidere quali siano gli elementi di realtà. Noi faremo uso della seguente definizione: Se, senza recare disturbo al sistema in esame, e’ possibile prevedere con certezza (cioe’ con probabilita’ uno) il valore di una quantita’ fisica, esiste un elemento di realta’ fisica corrispondente a questa quantita’ fisica. In meccanica classica tutte le coordinate e tutti gli impulsi sono elementi di realta’. Per illustrare queste considerazioni studiamo un caso unidimensionale. Sappiamo che ad ogni grandezza fisica possiamo associare un operatore, A. Se abbiamo un autovettore di A A|ωi = ω|ωi (9.1) la quantita’ A ha con certezza il valore ω quando il sistema si trova in |ωi. Per esempio se lo stato (nello spazio delle configurazioni) e’ / ψp (x) = N eip0 x/h (9.2) questo e’ un autostato dell’impulso con autovalore p0 . Pertanto l’impulso della particella nello stato ψ(x) e’ un elemento di realta’. Questo stato non e’ ovviamente un autostato della posizione, che dovrebbe essere ψx0 (x) = Cδ(x − x0 ) (9.3) Quello che possiamo calcolare e’ la probabilita’ di trovare la particella, in un autostato d’impulso assegnato, in un intervallo [a, b] dell’asse reale. Questa sara’ data da Z P (a, b) = b |ψp |2 dx = |N |2 (b − a) (9.4) a Poiche’ la probabilita’ dipende solo dalla differenza b − a, tutti i valori della posizione sono equiprobabili. Dunque non possiamo dire quale sia la coordinata della particella in un tale stato. La potremmo misurare, ma in questo caso, come sappiamo, si altererebbe lo stato del sistema immediatamente dopo la misura. Il risultato della meccanica quantistica e’ dunque: se conosciamo con certezza l’impulso di una particella, le sue coordinate non sono elementi della realta’. Questa conclusione si applica a qualunque coppia di variabili A e B che non commutano tra loro, [A, B] 6= 0. Cioe’ quando gli operatori corrispondenti a 114 due quantita’ fisiche diverse non commutano tra loro, le due quantita’ non possono essere elementi di realta’ simultaneamente. La conseguenza e’ che: 1. La descrizione quantistica in termini di funzione d’onda non e’ completa, oppure, 2. quando due operatori non commutano le quantita’ fisiche corrispondenti non possono avere realtà simultanee. Infatti se avessero realtà simultanee entrerebbero nella descrizione completa (per l’ipotesi di completezza). Quindi se la funzione d’onda fornisse una descrizione completa allora i valori delle due osservabili potrebbero essere predetti. L’assunzione della meccanica quantistica e’ che la funzione d’onda fornisce una descrizione completa della realta’, completa nel senso che e’ possibile misurare un set completo di osservabili commutanti. Vedremo che anche questa posizione porta a dei problemi che sono precisamente quelli sollevati da EPR. Ripetiamo qui l’argomento che abbiamo discusso all’inizio del capitolo sugli stati entangled. Supponiamo di avere due sistemi I e II che interagiscono nell’intervallo temporale (0, T ) con l’interazione che si annulla dopo il tempo T . Supponiamo di conoscere gli stati prima del tempo t = 0. Usando l’equazione di Schrödinger possiamo calcolare come si evolvono questi stati per ogni istante successivo ed anche, quindi, per t > T . In questa situazione non saremo pero’ in grado di conoscere lo stato di ciascuno dei sistemi. Per questo dobbiamo procedere alla misura di una qualche osservabile di particella singola. Supponiamo di misurare l’osservabile della particella 1 corrispondente all’operatore A con autovalori ai ed autostati (lavorando ancora nello spazio delle configurazioni) ui (x1 ). Possiamo decomporre lo stato delle due particelle (lavorando ancora nello spazio delle configurazioni) X Ψ(x1 , x2 ) = ψi (x2 )ui (x1 ) (9.5) i Le ψi (x2 ) sono niente altro che i coefficienti dell’espansione sul set completo ui (x1 ). Se misurando A si trova il valore ai allora lo stato collassa in Ψ(x1 , x2 ) ⇒ ψi (x2 )ui (x1 ) (9.6) Chiaramente la scelta delle funzioni ui (x) dipende dalla scelta dell’osservabile A. Se avessimo scelto una diversa osservabile B con autovalori bi ed autostati vi (x1 ) si sarebbe ottenuto X Ψ(x1 , x2 ) = φi (x2 )vi (x1 ) (9.7) i Se adesso misuriamo B e troviamo bi avremo il collasso Ψ(x1 , x2 ) ⇒ φi (x2 )vi (x1 ) (9.8) Pertanto come conseguenza della misura di osservabili diverse fatte sul sistema I, il sistema II puo’ avere funzioni d’onda differenti. Ma dato che i due sistemi non interagiscono 115 il secondo sistema non puo’ cambiare, qualunque cosa si sia fatto sul primo. Pertanto vediamo che e’ possibile assegnare due funzioni d’onda diverse al secondo sistema. E quindi, non potendo assegnare un vettore di stato definito al secondo sistema si dedurrebbe che la descrizione in termini di funzioni d’onda non e’ completa. Ovviamente se A e B commutano non c’e’ alcun problema dato che le funzioni ψ e φ coincideranno. Ma se A e B non commutano abbiamo un problema. 9.1 EPR riformulato da Bohm e Aharanov Discuteremo adesso il paradosso EPR in un ambito più semplice, quello di due sistemi di spin, come formulato da Bohm e Aharonov. Iniziamo discutendo le ipotesi di realtà, di località (le misure sul sistema I non influiscono sul sistema II) e di completezza come assunte da EPR. Iniziamo riformulando i principi di base: • Completezza: Ogni elemento della realta’ fisica deve avere una controparte nella descrizione teorica. • Principio di realta’: Se, senza intervenire sul sistema, si puo’ prevedere con certezza il valore di una grandezza fisica, a questa corrisponde una proprieta’ oggettiva (o elemento di realta’) del sistema, cioe’ una proprieta’ che non dipende da possibili osservatori esterni al sistema. • Principio di localita’: Consideriamo due sistemi fisici che per un certo periodo di tempo siano isolati tra di loro, allora l’evoluzione delle proprieta’ fisiche di un sistema (in tale intervallo temporale) non può essere influenzata da operazioni fatte sull’altro. Questa formulazione della località è anche detta località alla Einstein. L’esempio più semplice, dovuto a Bohm e Aharonov (Phys. Rev. 108 (1957) 1070), e’ diventato la base di molte delle discussioni sul paradosso EPR. Bohm ha considerato il decadimento di una particella di spin totale zero come il π 0 , un mesone, in una coppia elettrone positrone, che sono particelle di spin 1/2. La conservazione del momento angolare richiede che nello stato finale la coppia e+ e− abbia momento angolare nullo3 . Chiamando elettrone e positrone particella 1 e 2 rispettivamente, considereremo le due seguenti possibilita’ 1. Esperimento I - Misura dello spin della particella 1 tramite un apparato di Stern e Gerlach orientato lungo l’asse z. 2. Esperimento II - Misura dello spin della particella 1 tramite un apparato di Stern e Gerlach orientato lungo l’asse x. 3 Seguiremo qui la discussione di C.D. Cantrell e M.O. Scully in Physics Reports, C 43, 500 (1978) 116 Notiamo che le due misure si riferiscono a osservabili incompatibili, la misura dello spin lungo l’asse z e lungo l’asse x rispettivamente. Dunque le osservabili misurate sono S1z e S1x che non commutano tra loro. Vediamo in dettaglio i due casi: Esperimento I Se supponiamo di misurare lo spin della particella 1 al tempo t0 (vedere Fig. 9.1), SG z 1 2 π0 z spin 1 spin 2 y x Figura 9.1: L’esperimento I. La particella 1 passa attraverso lo Stern e Gerlach orientato lungo l’asse z (indicato con la grossa freccia) e subisce una deflessione verso il basso mostrando che lo spin e’ up. conviene descrivere lo stato del sistema in termini degli autostati di S1z e S2z . Dato che lo stato iniziale delle due particelle (dopo il decadimento del π 0 ) ha spin 0, avremo 1 < |ψ12 (I)i = √ (|u1 , d2 i − |d1 , u2 i) 2 (9.9) dove, per esempio, la notazione |ui e’ un abbreviazione per |uiz . Se la misura da come risultato che lo spin della particella 1 e’ up, allora lo spin della particella 2 al tempo t > t0 , cioe’ dopo la misura, sara’ down e lo stato corrispondente |ψ2> (I)i = |d2 i (9.10) A questo punto il ragionamento secondo EPR va come segue. Dato che le due particelle, dopo la disintegrazione del π 0 , non interagiscono piu’, lo stato della particella 2 deve essere lo stesso prima e dopo la misura. Dunque prima della misura dovremmo avere |ψ2< (I)i = |ψ2> (I)i = |d2 i (9.11) La matrice densita’ corrispondente sara’ ρ< 2 (I) = |ψ2< (I)ihψ2< (I)| = |d2 ihd2 | = 117 0 1 0 1 = 0 0 0 1 (9.12) Esperimento II Dato che in questo caso si misura lo spin della particella 1 lungo l’asse x conviene espri- SG x 2 1 spin 1 π0 spin 2 z y x Figura 9.2: L’esperimento I. La particella 1 passa attraverso lo Stern e Gerlach orientato lungo l’asse x (indicato con la grossa freccia) e subisce una deflessione verso la direzione x mostrando che lo spin e’ orientato lungo −x. mere lo stato di spin 0 delle due particelle nella base in cui sono diagonali S1x e S2x . Indicheremo gli autostati nella direzione x con la notazione |uix = |+i e |dix = |−i. Lo stato iniziale (dopo il decadimento) verra’ scritto nella forma 1 < |ψ12 (II)i = √ (|+1 , −2 i − |−1 , +2 i) 2 (9.13) Se ora si misura lo spin della particella 1 tramite lo Stern e Gerlach orientato lungo −x (vedi Fig. 9.2) sappiamo che a t > t0 lo spin 2 sara’ orientato lungo +x e lo stato corrispondente sara’ |ψ2> (II)i = |+2 i (9.14) ed usando l’argomento EPR abbiamo, come nel caso precedente, che questo sara’ anche lo stato a t < t0 . Dunque |ψ2< (II)i = |ψ2> (II)i = |+2 i (9.15) Per la matrice densita’ avremo < < ρ< 2 (II) = |ψ2 (II)ihψ2 (II)| (9.16) Ricordiamo la relazione tra gli auto stati di Sx e Sz . Si ha 1 |±i = √ (|ui ± |di) 2 (9.17) Pertanto ρ< 2 (II) 1 1 = (|u2 i + |d2 i)(hu2 | + hd2 |) = 2 2 118 1 1 1 1 1 = 2 1 1 1 1 (9.18) Come vediamo la matrice densita’ della particella 2 risulta essere diversa nei due diversi esperimenti. Ma dato che abbiamo effettuato misure solo sulla particella 1 con nessuna possibilita’ di interferenza con la particella 2, questo ci porta ad una contraddizione. In questa discussione abbiamo usato il principio di realta’, perche’ la misura di S2z o S2x fatta a t > t0 dara’ con certezza che lo spin 2 e’ down oppure orientato lungo +x, quindi queste sono entrambe due proprieta’ oggettive del sistema. Abbiamo poi usato la localita’ per asserire che queste proprieta’ oggettive a t > t0 lo sono anche per t < t0 dato che le due particelle non interagiscono. Ma dato che le matrici densita’ della particella 2 sono diverse nei due casi, la deduzione alla EPR e’ che la teoria non e’ completa dato che non e’ possibile associare alle proprieta’ oggettive che abbiamo determinato una unica matrice densita’ od una unica funzione d’onda. Quindi queste proprieta’ non hanno una controparte nella descrizione teorica. Vediamo che almeno una di queste proprieta’ e’ in contrasto con la meccanica quantistica. Mostriamo che, al contrario, i risultati dei due esperimenti qui esaminati sono in perfetto accordo con la Meccanica Quantistica ortodossa. A questo scopo occorre osservare che se, in qualunque momento, noi chiediamo informazioni su una sola parte del sistema (in questo caso lo spin della particella 2), questa va caratterizzata in termini della matrice densita’ ridotta. Quindi, in entrambi i casi dovremo calcolare la matrice densita’ tracciata sulla particella 1 < ρ< (9.19) 2 = Tr1 [ρ12 ] Consideriamo ancora i due casi: Esperimento I In questo caso si ha 1 < |ψ12 (I)i = √ (|u1 , d2 i − |d1 , u2 i) 2 (9.20) e < < ρ< 2 (I) = Tr1 [|ψ12 (I)ihψ12 (I)|] = 1h = hu1 | (|u1 , d2 i − |d1 , u2 i) (hu1 , d2 | − hd1 , u2 |) |u1 i + 2 i + hd1 | (|u1 , d2 i − |d1 , u2 i) (hu1 , d2 | − hd1 , u2 |) |d1 i = 1 1 1 1 0 = (|u2 ihu2 | + |d2 ihd2 |) = I2 = 2 2 2 0 1 (9.21) Esperimento II Notiamo che lo stato iniziale 1 < |ψ12 (II)i = √ (|+1 , −2 i − |−1 , +2 i) 2 119 (9.22) e’ identico nel caso dell’esperimento I, salvo che e’ espresso nella base degli autostati di Sx e si ottiene formalmente con le sostituzioni u → + e d → −. Dato che il calcolo di una traccia non dipende dalla base scelta, possiamo calcolare la traccia parziale sugli autostati di Sx e quindi otterremo un risultato analogo a quello di I: 1 1 1 1 0 < ρ2 (II) = (|+2 ih+2 | + |−2 ih−2 |) = I2 = (9.23) 2 2 2 0 1 Il risultato in termini di matrici 2 × 2 e’ identico al precedente, ma si potrebbe obiettare che le due matrici sono espresse in basi diverse, ma occorre osservare che le due espressioni astratte per la matrice ridotta mostrano che e’ proporzionale alla risoluzione dell’identita’ nelle due basi e quindi coincidono tra loro. Dunque abbiamo dimostrato che il risultato dei due esperimenti, dal punto di vista della particella 2, e’ identico e che inoltre la matrice densita’ descrive una miscela statistica. Questo si poteva intuire dal fatto che dopo la misura la particella 2 viene proiettata in uno stato di spin definito e che quindi il risultato di una serie di misure da’ il 50% delle volte −1/2 ed il restante 50% +1/2 quando la particella 1 viene misurata avere rispettivamente spin 1/2 e −1/2. Dunque la teoria ortodossa non da’ luogo a problemi. Rimane il fatto che dal punto di vista EPR le tre proprieta’ di completezza, realismo e localita’ producono una inconsistenza. Una possibile via di uscita potrebbe essere una interpretazione statistica dei risultati. Infatti il problema della correlazione tra osservabili esiste anche in meccanica classica. Per esempio, nel decadimento di una particella si deve conservare l’impulso e quindi misurando l’impulso di una particella si conosce anche quello dell’altra. Ma questo significa semplicemente che l’impulso della seconda particella e’ una proprieta’ oggettiva e non ci porta in nessuna contraddizione perche’ comunque questa proprieta’ e’ effettivamente ben definita a livello classico. Il problema in meccanica quantistica e’ che il ragionamento per cui si puo’ estrapolare all’indietro il valore conosciuto cozza con il fatto che quella variabile non ha un valore ben definito nello stato originario dato che si tratta di uno stato entangled. Ma questo suggerisce che forse e’ possibile concepire un modello di tipo statistico in cui sia possibile assegnare un valore definito alle osservabili, ma le proprieta’ quantistiche derivano dal fatto che non conosciamo esattamente questi valori perche’ dipendono da una variabile non osservata. Questi modelli prendono il nome di modelli di variabili nascoste. Nella Sezione successiva mostreremo un argomento di Bell che permette di distinguere sperimentalmente tra teorie di variabile nascosta e meccanica quantistica e che i risultati sperimentali prediligono la meccanica quantistica. Una successiva definizione di localita’ in Meccanica Quantistica ci mostrera’ che esiste effettivamente una non localita’ associata alle misure di correlazione come quelle presenti nella discussione EPR. Pertanto in Meccanica Quantistica delle tre proprieta’ richieste da EPR solo realismo e completezza sono valide. Faremo anche vedere che la non localita’ non porta pero’ ad una violazione del principio di causalita’ (la causa precede l’effetto). 120 9.2 Le teorie di variabili nascoste e la disuguaglianza di Bell Le teorie di variabili nascoste sono di tipo classico, anche se con trattazione di tipo probabilistico nello stesso senso della meccanica statistica4 . Dunque valgono sia la completezza che la realta’. Inoltre si assume la localita’ per non cadere in contraddizione con la teoria della relativita’ ristretta. Ma nel 1964 John Bell sferro’ un duro colpo a queste teorie perche’ mostro’ che qualunque teoria di variabile nascosta locale e’ incompatibile con la meccanica quantistica. Cominciamo con l’osservare che nell’esperimento descritto nella sezione precedente esiste una chiara correlazione tra i risultati delle misure che vengono effettuate. Infatti se l’osservatore 1 fa molte misure e trova i seguenti risultati risultati per lo spin dell’elettrone (+, +, −, +, −, −, · · · ), l’osservatore 2 misurera’ i seguenti spin del positrone (−, −, +, −, +, +, · · · ). La correlazione e’ tale che i prodotti delle quantita’ misurate dai due osservatori da’ come unico risultato −1. In effetti la correlazione dei risultati ottenuti in diverse misure e’ una quantita’ che si calcola facilmente in meccanica quantistica. Bell suggeri’ dunque una generalizzazione dell’esperimento sugli spin che abbiamo discusso precedentemente: invece di orientare i rivelatori dell’elettrone e del positrone lungo la stessa direzione, assunse una angolazione arbitraria tra i due rivelatori. Il primo rivelatore misura la componente dello spin dell’elettrone lungo la direzione specificata dal versore ~a mentre il secondo misura lo spin del positrone lungo quella specificata da ~b. La meccanica quantistica permette di calcolare questa correlazione prendendo semplicemento il valor medio dei prodotti (~σ1 · ~a)(~σ2 · ~b). Se per esempio, se facessimo una serie di 5 misure con i risultati e− e+ Prodotto +1 +1 −1 +1 −1 −1 +1 +1 −1 −1 −1 +1 −1 −1 +1 (9.24) il valor medio del prodotto delle proiezioni dei due spin lungo le direzioni ~a e ~b risulterebbe 1 1 (−1 + 1 − 1 − 1 + 1) = − = −0.2 5 5 (9.25) D’altra parte noi sappiamo che il valor medio di un operatore e’ dato dal suo valore di aspettazione sullo stato del sistema e dunque avremo per la correlazione spin-spin, P (~a, ~b) P (~a, ~b) = hψ|(~σ1 ·~a)(~σ2 · ~b)|ψi = −hψ|(~σ1 ·~a)(~σ1 · ~b)|ψi = −hψ|(~a · ~b)|ψi = − cos θab (9.26) 4 La meccanica statistica tratta sistemi con un gran numero di gradi di liberta’. Questo comporta, di fatto, l’ignoranza sulle condizioni iniziali del sistema. A questo si ovvia sostituendo alla conoscenza dei dati iniziali dello stato del sistema una funzione di probabilita’ che caratterizzi i possibili stati iniziali 121 Nel primo passaggio abbiamo usato il fatto che |ψi e’ uno stato di spin 0 e quindi 1 ~ ~2 |ψi = (~σ1 + ~σ2 ) |ψi = 0 S1 + S (9.27) 2 dunque ~σ1 |ψi = −~σ2 |ψi (9.28) Nel secondo passaggio abbiamo usato l’algebra delle matrici di Pauli σi σj = δij + iijk σk (9.29) (~σ · ~a)(~σ · ~b) = ~a · ~b + i(~a ∧ ~b) · ~σ (9.30) da cui ed il fatto che nello stato di singoletto il valore di aspettazione di qualunque componente di ~σ e’ nullo hψ|~σ1 |ψi = 0 (9.31) Infine essendo ~a e ~b due vettori unitari il loro prodotto scalare e’ semplicemente il coseno dell’angolo compreso θab . Dunque la correlazione spin-spin quantistica e’ P (~a, ~b) = − cos θab (9.32) Consideriamo ora una teoria di variabili nascoste. Prenderemo in esame solo il caso di una singola variabile nascosta e che supporremo continua. Tutto l’argomento seguente si puo’ pero’ estendere facilmente al caso di piu’ variabili che possono essere sia continue che discrete. Supponiamo dunque che lo stato completo del sistema elettrone-positrone sia caratterizzato da una variabile nascosta λ in maniera per noi incontrollabile. Supponiamo inoltre che il risultato della misura fatta sull’elettrone sia indipendente dall’orientazione ~b del rivelatore del positrone. Infatti essa potrebbe essere scelta dall’osservatore situato dalla parte del positrone appena prima che venga effettuata la misura sull’elettrone, troppo tardi quindi perche’ un qualsiasi segnale a velocita’ inferiore a quella della luce possa tornare indietro al rivelatore dell’elettrone. L’ipotesi e’ che le predizioni delle misure delle due orientazioni di spin siano date da funzioni A(~a, λ) e B(~b, λ). Il fatto che queste funzioni dipendano solo da uno dei vettori ~a o ~b e’ appunto l’ipotesi di localita’. Inoltre queste funzioni possono assumere solo i valori ±1: A(~a, λ) = ±1; B(~b, λ) = ±1 (9.33) Inoltre sappiamo che quando i rivelatori sono allineati i risultati sono perfettamente anticorrelati, e dunque dovremo avere A(~a, λ) = −B(~a, λ) (9.34) per ogni valore di λ. In questa teoria il valor medio del prodotto dei risultati delle due misure e’ dato da Z Z ~ ~ P (~a, b) = dλP(λ)A(~a, λ)B(b, λ) = − dλP(λ)A(~a, λ)A(~b, λ) (9.35) 122 dove la funzione P(λ) e’ la probabilita’ statistica che compete ad ogni valore di λ5 e dunque Z P(λ) ≥ 0, ∀λ, dλP(λ) = 1 (9.36) Consideriamo ora un terzo versore ~c e la differenza Z h i P (~a, ~b) − P (~a, ~c) = − dλP(λ) A(~a, λ)A(~b, λ) − A(~a, λ)A(~c, λ) (9.37) Usando A(~b, λ)2 = 1 (9.38) possiamo riscrivere P (~a, ~b) − P (~a, ~c) = − Z h i dλP(λ)A(~a, λ)A(~b, λ) 1 − A(~b, λ)A(~c, λ) (9.39) Notiamo che −1 ≤ A(~a, λ)A(~b, λ) ≤ +1 h i P(λ) 1 − A(~b, λ)A(~c, λ) ≥ 0 (9.40) (9.41) Prendendo allora il modulo della (9.39) si ha Z h i ~ |P (~a, b) − P (~a, ~c)| = dλP(λ)A(~a, λ)A(~b, λ) 1 − A(~b, λ)A(~c, λ) ≤ Z h i ≤ dλP(λ) 1 − A(~b, λ)A(~c, λ) (9.42) Dunque |P (~a, ~b) − P (~a, ~c)| ≤ 1 + P (~b, ~c) (9.43) Questa e’ la famosa disuaglianza di Bell: vale per qualunque teoria di variabile nascosta locale soggetta solo alle condizioni delle equazioni (9.33) e (9.34). Ricordiamo ancora che non sono state fatte assunzioni ne’ sulla densita’ di probabilita’ P(λ) ne’ sulla natura della variabile nascosta λ. Si puo’ anche mostrare che lo stesso risultato e’ valido per un numero arbitrario di variabili nascoste. E’ facile mostrare che la predizione della meccanica quantistica e’ incompatibile con la disuguaglianza di Bell. Supponiamo per esempio che tutti e tre i vettori ~a, ~b, ~c giacciano in un piano e che ~c formi un angolo di 450 sia con ~a sia con ~b (e quindi θab = 900 ); in questo caso, il risultato della meccanica quantistica e’: P (~a, ~b) = 0, da cui 1 P (~a, ~c) = P (~b, ~c) = − √ ≈ − 0.707 2 1 |P (~a, ~b) − P (~a, ~c)| = √ ≈ 0.707, 2 1 1 + P (~b, ~c) = 1 − √ ≈ 0.293 2 (9.44) (9.45) 5 Se λ e’ discreta questa formula equivale a fare la media pesata delle varie misure, con il peso wi che corrisponde della probabilita’ che si realizzi il valore λi per λ. Cioe’ P (~a, ~b) = P a, λi )B(~b, λi ) i wi A(~ 123 palesemente in contrasto con la disuguaglianza di Bell. Dunque se il mondo microscopico si potesse spiegare con una opportuna teoria di variabile nascosta, la disuguaglianza di Bell sarebbe valida e la meccanica quantistica sarebbe sbagliata. Se invece la MQ e’ corretta allora non c’e’ alcuna teoria di variabile nascosta che ci potra’ venire in soccorso per salvarci dai problemi sollevati da EPR. D’altra parte Bell ci offre, con la sua disuguaglianza, la possibilita’ di verificare quale delle due teorie sia corretta. Sono stati effettuati molti esperimenti negli anni 60 e 70 per mettere alla prova la disuguaglianza di Bell, culminati nel lavoro di Aspect, Grangier e Roger. A dire il vero loro usarono transizioni atomiche a due fotoni e non decadimento di pioni ma la trattazione teorica non differisce dal caso di spin 1/2 qui analizzato. Per escludere la possibilita’ che i due rivelatori fossero sensibili alle loro posizioni reciproche, le due orientazioni furono fissate a caso dopo che i fotoni erano gia’ in volo. I risultati furono in ottimo accordo con le predizioni della MQ e incompatibili con la disuguaglianza di Bell. La conferma sperimentale della MQ arrivo’ come una sorta di mazzata sulla comunita’ scientifica. Infatti dimostrava che la natura in se’ e’ fondamentalmente non locale. Infatti se vogliamo credere alla meccanica quantistica non possiamo non pensarla come una teoria completa. Altrimenti la dovremmo considerare solo una teoria fenomenologica. Analogamente e’ difficile abbandonare il principio di realta’. Questo abbandono significa ammettere che la funzione d’onda non e’ una proprieta’ del sistema ma e’ solo un oggetto matematico che ci permette di prevedere alcune caratteristiche del sistema, ma non lo descrive in modo completo. L’unica alternativa appare essere l’abbandono dell’idea di localita’. Evidentemente nella interpretazione di Copenhagen questa idea e’ implicitamente abbandonata, dato che la localita’ fa a cozzi con la riduzione del pacchetto d’onda. Infatti, la non localita’ nella forma del collasso istantaneo della funzione d’onda era stata da sempre una caratteristica dell’interpretazione ortodossa, ma prima degli esperimenti di Aspect era ancora possibile sperare che la non localita’ quantistica fosse in qualche modo un artefatto privo di significato. Tale speranza risulta ormai priva di fondamento e siamo obbligati a riesaminare la nostra avversione alla non localita’. Perche’ l’idea stessa di influenze superluminali provoca cosi’ tanto allarme fra i fisici? Dopo tutto ci sono molte cose che viaggiano piu’ velocemente della luce. Se una pulce attraversa un fascio di luce di un proiettore la velocita’ della sua ombra e’ proporzionale alla distanza dallo schermo: in linea di principio tale distanza puo’ essere grande quanto si vuole e quindi l’ombra puo’ muoversi con velocita’ arbitrariamente grande. L’ombra pero’ non trasporta alcuna energia e non puo’ trasmettere alcun messaggio da un punto all’altro dello schermo. D’altra parte, un influsso causale che si propagasse piu’ velocemente della luce implicherebbe conseguenze inaccettabili. Infatti, secondo la teoria della relativita’ speciale esistono sistemi di riferimento inerziali in cui un tale segnale si potrebbe propagare all’indietro nel tempo con l’effetto che precederebbe la causa e cio’ darebbe luogo ad anomalie logiche senza via di scampo. La domanda e’: gli influssi superluminali previsti dalla MQ e messi in evidenza in modo concreto dagli esperimenti di Aspect sono in accordo o meno 124 con il principio di causalita’6 ? Consideriamo ancora l’esperimento del decadimento del π 0 . La misura sull’elettrone influenza il risultato che si ottiene nella misura sul positrone? Certo che si’ altrimenti non potremmo spiegare la correlazione fra i dati. Ma possiamo dire che la misura sull’elettrone causi un particolare effetto sulla misura del positrone? No, in nessun senso comune della parola. Infatti l’osservatore dalla parte del positrone non e’ in grado di sapere il risultato della misura dello spin sino al momento in cui la compie. Lo puo’ sapere solo se l’osservatore dell’elettrone gli comunica (con velocita’ inferiore o pari a quella della luce) il valore della sua misura. Chi guarda il positrone ha accesso solo ai dati dalla sua parte dell’esperimento, non puo’ dire se la misura sull’elettrone sia stata effettuata o no, dato che le due liste di dati compilate dalle due parti dell’esperimento, se prese separatamente, sono del tutto casuali. E’ solo quando le si confrontano che si scoprono le notevoli correlazioni. Dunque l’unica manifestazione della non localita’ quantistica sta nella correlazione tra due liste di dati del tutto casuali se presi singolarmente e non produce alcuna violazione della causalita’. Daremo, successivamente, una dimostrazione di questo fatto. È interessante sapere che il teorema di Bell può essere dimostrato assumendo semplicemente che lo spazio delle fasi classico e’ costituito da un insieme di punti . Pertanto le operazioni logiche ammissibili su questi insiemi sono quelle classiche di unione ed intersezione. Dato che le operazioni logiche ammiseibili in uno spazio vettoriale vanno definite in altro modo, si deduce che la distinzione tra fisica classica e meccanica quantistica è dovuta alla diversa struttura dello spazio delle fasi. 9.3 Località Come abbiamo visto nella discussione EPR della Sezione 9.2, le ipotesi di localita’, realismo e completezza sono contraddittorie tra di loro. Cercheremo adesso di definire la localita’ in un modo che non coinvolga elementi al di fuori della Meccanica Quantistica. Consideriamo allora (come nel caso EPR) due sistemi S1 e S2 entangled tra di loro e che siano separati spazialmente in modo da non avere piu’ interazioni. I due sistemi, ad un istante t0 , successivo al loro disaccoppiamento, interagiscono con due apparati di misura X e Y completamente disaccoppiati (vedi Fig. 9.3). Diremo che il principio di localita’ e’ soddisfatto se la misura di una osservabile Q1 del sistema S1 fatta da X non influisce sulle misure di osservabili di S2 fatte da Y. L’hamiltoniana che descrive il sistema dal tempo t0 in poi sara’ H = H1 + H2 , H1 = K1 + KX + V1X , H2 = K2 + KY + V2Y (9.46) dove K1,2 sono le hamiltoniane relative a S1 e S2 rispettivamente ed analogamente per KX,Y . I termini V1X e V2Y descrivono l’interazione tra gli apparati di misura X e Y 6 Il principio di causalita’ dice in sostanza che l’effetto non puo’ precedere la causa 125 entangled states S1 S2 X Y Figura 9.3: I sistemi entangled S1 , S2 e gli apparati di misura X, Y , come descritti nel testo discusse nel testo. rispettivamente con S1 e S2 . E’ importante osservare che dopo il tempo t0 non ci sono interazioni tra i sistemi (S1 , X) e (S2 , Y ) e quindi l’hamiltoniana H e’ separabile: [H1 , H2 ] = 0 (9.47) Corrispondentemente l’operatore di evoluzione fattorizza U = U1 U2 , / Ui = e−i(t − t0 )Hi /h (9.48) Lo stato a t0 e’ descritto da una matrice densita’ ρ0 = ρ0S ⊗ ρ0X ⊗ ρ0Y (9.49) dove ρ0S e’ la matrice densita’ per gli stati entangled S1 e S2 . Supponiamo adesso di misurare una osservabile Q1 del sistema S1 , tramite l’apparato di misura X al tempo t > t0 . Avremo h i h i h i hQ1 i = Tr [Q1 ρ] = Tr Q1 U1 U2 ρ0 U2† U1† = Tr U2† Q1 U1 U2 ρ0 U1† = Tr U1† Q1 U1 ρ0 (9.50) dove abbiamo usato ripetutamente la proprieta’ ciclica della traccia e la commutativita’ di U2 con U1 e Q1 . Come si vede, dal calcolo e’ sparita la dipendenza da U2 e quindi dall’apparato di misura Y che appare solamente nella ρ0Y . Questo significa che lo stato dell’apparato di misura Y non viene toccato da misure fatte su osservabili di S1 . Il discorso e’ diverso per le misure di correlazione che dipendono da osservabili che stanno nel prodotto diretto dei due spazi di Hilbert e saranno di tipo Q1 ⊗ Q2 e che hanno un carattere non-locale. Il teorema di Bell ci dice che questa non-localita’ non puo’ essere riprodotta da teorie di variabili nascoste locali. 126 In definitiva la riduzione del pacchetto non provoca problemi su questo fronte. Vedremo pero’ che questa non e’ la fine della storia, perche’ questa ipotesi appare come una ipotesi ad hoc che si applica solo al momento della misura effettuata con apparati macroscopici. D’altra parte anche l’apparato di misura e’ fatto di elementi microscopici ed in linea di principio lo si potrebbe descrivere in termini di meccanica quantistica. Dunque se la meccanica quantistica e’ corretta e’ naturale porsi la domanda se la riduzione del pacchetto puo’ essere dedotta dalla meccanica quantistica stessa. Se cosi’ non fosse, come vedremo, saremmo portati a dover considerare seriamente un altro paradosso che e’ quello del gatto di Schrödinger. Ed e’ appunto questa analisi che faremo nel capitolo successivo. 127 Capitolo 10 La misura in Meccanica Quantistica Il concetto di misura in Meccanica Quantistica e’ qualcosa di profondamente diverso da quello della Meccanica Classica. In quest’ultimo caso noi sappiamo, a priori, che una quantita’ che si vuole misurare in un determinato sistema ha un valore ben definito e che, tramite una misura ideale1 e’ possibile determinare quel valore. Al contrario, nel caso della Meccanica Quantistica, il valore della osservabile che vogliamo misurare, prima della misura, non e’ definito. Come sappiamo, questo valore puo’ essere uno qualunque degli autovalori dell’osservabile. Quello che fa l’operazione di misura e’ di proiettare lo stato del sistema nell’autostato dell’osservabile che corrisponde al valore misurato. Solo dopo questa procedura di preparazione dello stato conosciamo a priori il valore dell’osservabile, cioe’ prima di una ulteriore misura della stessa osservabile, infatti in questo caso la probabilita’ di ottenere proprio quel valore e’ pari ad 1. Vediamo che in Meccanica Quantistica e’ importante distinguere tra due processi (sebbene entrambi costituiscano una procedura di misura), la preparazione e la misura vera e propria. Nella preparazione si ottiene uno stato con proprieta’ definite rispetto all’osservabile che si misura, ma in generale lo stato cosi’ ottenuto non ha proprieta’ definite rispetto ad altre osservabili (in particolare quelle che non commutano con la nostra osservabile). Possiamo dire che il processo di preparazione e’ contestuale rispetto alla particolare osservabile di riferimento. Notiamo che in Meccanica Classica si assume invece che in un dato sistema tutte le osservabili abbiano un valore ben definito. Possiamo esemplificare con una particella di spin 1/2 che si voglia preparare in uno / /2. Questo puo’ essere fatto usando un apparato di stato di sz definito, per esempio +h Stern-Gerlach con un campo magnetico orientato lungo l’asse z. Noi sappiamo che i due / /2 vengono separati. Bloccando il fascio con sz = −h / /2 otteniamo un fasci con sz = ±h fascio di particelle aventi tutte la polarizzazione desiderata. Ovviamente le particelle cosi’ 1 In MC per misura ideale si intende una misura eseguita con una indeterminazione che puo’ essere resa piccola a piacere. Cioe’ e’ una misura che non perturba il sistema, o comunque lo perturba molto poco e al di sotto della precisione che si vuole realizzare nell’esperimento. 128 preparate non hanno piu’ un valore definito di sx . Infatti sappiamo che se si misura sx si / /2 che sx = −h / /2, ognuno con probabilita’ 1/2. puo’ ottenere come risultato sia sx = +h Dunque la preparazione corrisponde a selezionare uno stato particolare del sistema sottoponendolo ad una determinata procedura di misurazione. Nel processo di misura quantistico noi chiediamo al sistema il valore dell’osservabile. Dunque il risultato della misura non e’ controllabile in alcun modo da parte dello sperimentatore. Nel caso classico la misura ci dice qual’e’ il valore dell’osservabile misurata in un dato stato. Supponiamo adesso che, prima della misura, il sistema si trovi in una sovrapposizione di autostati dell’osservabile Ω che vogliamo misurare X |ψi = ck |ωk i (10.1) k Se il risultato della misura e’ ωk , dopo la misura lo stato verra’ proiettato nel corrispondente autostato |ψi → |ωk i (10.2) Si puo’ dimostrare che, eccetto il caso in cui |ψi sia un autostato di Ω, non esiste nessun operatore unitario che connetta i due stati, cioe’ Uk |ψi = 6 |ωk i, Uk† Uk = I (10.3) |ψi → Pk |ψi (10.4) Infatti i due stati sono connessi dal proiettore Pk = |ωk ihωk |, che e’ un operatore con autovalori 0, 1 e quindi non invertibile, eccetto sul sottospazio corrispondente all’autovalore 1, vale a dire sul sottospazio appartenente all’autovalore ωk . Dunque l’evoluzione che subisce lo stato |ψi durante il processo di misura non puo’ coincidere con l’evoluzione temporale prevista dall’equazione di Schrödinger che e’ una evoluzione prodotta da un operatore unitario. Possiamo riformulare quanto abbiamo detto in termini della matrice densita’. Consideriamo questa matrice prima della misura X X ρprima = |ψihψ| = |ci |2 |ωi ihωi | + ci c∗j |ωi ihωj | (10.5) i i6=j Se vogliamo ottenere un risultato ben definito dalla misura occorre che i termini misti si annullino e che soppraviva solo il termine X ρdopo = |ci |2 |ωi ihωi | (10.6) i La matrice densita’ si deve ridurre ad una miscela statistica il cui significato e’ che avremo una probabilita’ pari a |ci |2 per ottenere come risultato ωi . Ovviamente non esiste un 129 operatore unitario che possa svolgere questa funzione. A tale scopo dobbiamo operare con operatori di proiezione e le due matrici sono connesse dalla seguente operazione X ρprima → ρdopo = Pi ρprima Pi , Pi = |ωi ihωi | (10.7) i Questa operazione prende il nome di postulato di proiezione e la miscela statistica che si ottiene si chiama miscela di Lüders. Ad esempio consideriamo uno spin 1/2 e partiamo dallo stato |ψi = c+ |+i + c− |−i (10.8) Per calcolare la proiezione X Pi ρprima Pi = X i Pi |ψihψ|Pi (10.9) i notiamo che P+ |ψi = c+ |+i, P− |ψi = c− |−i (10.10) ed usando l’hermiticita’ degli operatori di proiezione si trova ρdopo = |c+ |2 |+ih+| + |c− |2 |−ih−| (10.11) Nella interpretazione di Copenhagen, la riduzione del vettore di stato si verifica allorche’ si misuri un’osservabile. Dato che alla fine il risultato della misura deve arrivare all’osservatore si assume che gli apparati usati, od almento gli indici che danno la misura stessa, siano apparati macroscopici. Pertanto il postulato del collasso significa letteralmente che il collasso si verifica allorche’ si effettui una misura con un apparato macroscopico. E’ questa affermazione che fino ad ora non ha mai avuto smentite sperimentali. E’ chiaro pero’ il problema interpretativo dato che qualunque apparato macroscopico puo’ essere analizzato nei suoi componenti microscopici, atomi etc. Pertanto il processo di misura stessa puo’ essere, in linea di principio, analizzato in termini quantistici. Ma se cosi fosse il collasso dovrebbe seguire automaticamente da questa analisi. Altrimenti la meccanica quantistica cosi come e’ formulata mancherebbe di qualche elemento. Il problema principale e’ che, se ignoriamo il collasso, la meccanica quantistica e’ perfettamente deterministica, dato che l’equazione di Schrödinger permette di conoscere completamente il vettore di stato a qualunque istante, una volta che sia assegnato ad un istante iniziale. Invece il collasso e’ un fenomeno assolutamente non deterministico, poiche’ la funzione d’onda puo’ collassare con diverse probabilita’ in diversi vettori di stato senza nessuna possibilita’ di previsione a priori. In altri termini, la formulazione della Meccanica Quantistica, nella sua interpretazione alla Copenhagen, prevede due distinte evoluzioni temporali. Una che avviene attraverso l’equazione di Schrödinger tramite un operatore di evoluzione unitario ed una, al momento della misura, che si postula avvenire attraverso un processo non unitario, cioe’ la riduzione o il collasso del vettore di stato. Il primo a formalizzare in questo senso il problema della misura fu Von Neumann nel 1932. D’altra parte egli si rese conto che non era possibile giustificare quantisticamente il fenomeno del collasso e questo lo porto’ 130 ad introdurre la coscienza dell’osservatore come elemento atto a produrre tale fenomeno. Con le parole di Von Neumann la coscienza individuale dovrebbe costituire un fenomeno extra-osservazionale, quindi non riducibile a termini fisici. Ci sono proposte diverse per uscire da questa situazione, in particolare aggiungendo ulteriori elementi alla meccanica quantistica. In questo corso prenderemo una strada piu’ tradizionale che e’ quella di cercare di risolvere il problema del collasso nell’ambito stesso della meccanica quantistica. Ora e’ evidente che e’ impossibile descrivere un fenomeno non deterministico nell’ambito di una teoria completamente deterministica. Dunque se una soluzione esiste, questa puo’ essere solo una soluzione di tipo efficace, cioe’ dovra’ essere una soluzione deterministica ma che a tutti gli effetti pratici si comporta come non deterministica. Una tale situazione e’ chiamata in inglese FAPP (For All Practical Purposes). Vedremo che la teoria della decoerenza e’ proprio di questo tipo, cioe’ se si misura una certa osservabile, in un tempo assolutamente trascurabile (detto tempo di decoerenza) il sistema viene a trovarsi nell’autostato dell’osservabile corrispondente all’autovalore misurato. Quello che fa la teoria della decoerenza e’ di introdurre uno spazio di Hilbert piu’ grande che comprende, oltre ai gradi di liberta’ del sistema in esame, anche i gradi di liberta’ dell’ambiente esterno che, inevitabilmente interagisce con il sistema. In questo spazio allargato l’evoluzione avviene in modo deterministico tramite un operatore unitario, ma quando restringiamo la nostra osservazione al sistema dobbiamo rivolgere la nostra attenzione allo spazio di Hilbert originario. Ma un operatore unitario in uno dato spazio non e’ necessariamente unitario in un sottospazio. In questo modo viene evitato l’impasse della doppia evoluzione temporale. Le interazioni dei gradi di liberta’ macroscopici dell’apparato di misura (per esempio la posizione di un indice su una scala di misura) con i gradi di liberta’ microscopici dell’apparato stesso ed eventualmente con i gradi di liberta’ che descrivono l’ambiente circostante generano un fenomeno dissipativo per cui i gradi di liberta’ macroscopici cedono energia agli altri gradi di liberta’. Per esempio, un indice viene regolato da una molla che col passare del tempo tende a ritornare nella posizione originaria a causa degli attriti. Quello che succede in modo abbastanza generale e’ che il tempo di decoerenza risulta proporzionale al tempo di dissipazione (il tempo caratteristico dei processi di attrito) con un coefficiente di proporzionalita’ estremamente piccolo. Dunque anche per fenomeni dissipativi molto lenti (e quindi con tempi di dissipazione lunghi) il tempo di decoerenza e’ piccolissimo e praticamente non misurabile. Recentemente sono stati fatti degli esperimenti in cui l’apparato di misura e’ simulato da sistemi mesoscopici2 . Per esempio, un sistema con un numero piccolo di fotoni, dell’ordine di 5-10, puo’ essere considerato mesoscopico. In questi sistemi il tempo di decoerenza e’ sufficientemente grande per poterlo misurare. Ebbene i risultati sperimentali sono molto confortanti, dato che confermano in pieno l’aspettativa teorica. L’argomento e’ ancora sotto discussione, ma certamente quella della decoerenza e’ una 2 Un sistema mesoscopico e’ in qualche modo al limite tra un sistema quantistico ed un sistema classico 131 soluzione brillante del problema ed inoltre, almeno in certe situazioni limite, puo’ ricevere una adeguata conferma sperimentale. 10.1 Sistema e apparato di misura Introdurremo qui il concetto di misura pensata come ad una interazione tra due sistemi, che soddisfano entrambi la meccanica quantistica. Inizieremo con una semplice schematizzazione. Precisamente, considereremo un sistema fisico S in un dato stato quantico. S e’ il sistema sul quale vogliamo misurare una data osservabile OS . La misura viene eseguita tramite un altro sistema fisico A (apparato di misura) che coinvolge degli elementi macroscopici. In particolare si suppone che A sia un sistema macroscopico e quindi il suo comportamento sara’ ben descritto in termini di fisica classica. Pero’ A e’ esso stesso costituito da elementi microscopici che descriveremo in termini quantistici. Ovviamente il comportamento classico riflettera’ quello quantistico sulla base del teorema di Ehrenfest. La misura risulta dunque in un processo di interazione tra sistema fisico S ed apparato di misura A entrambi descritti quantisticamente. La dinamica del sistema complessivo puo’ essere formulata in termini del prodotto tensoriale dei due spazi di Hilbert HS e HA , HS ⊗ HA . Finche’ non interviene l’interazione, che supporremo essere presente solo per un certo intervallo di tempo, il sistema S e’ descritto da una hamiltoniana HS e da uno stato |ψi ∈ HS . Analogamente l’apparato di misura e’ descritto da una hamiltoniana HA e da uno stato |φi ∈ HA . L’osservabile OS che vogliamo misurare agisce sullo spazio HS e, per semplicita’, assumeremo che non sia degenere. Il sistema totale, prima dell’interazione, e’ soggetto alla somma delle due hamiltoniane (commutanti tra loro), HS e HA H0 = HS + HA (10.12) Quando interviene l’interazione l’hamiltoniana sara’ data da H = H0 + HI (10.13) con HI il termine che rappresenta l’interazione tra S e A. Quando l’interazione termina, il sistema sara’ ancora descritto da H0 . Al fine di mostrare che questa descrizione e’ possibile considereremo un tipo di interazione estremamente semplice introdotta da Von Neumann. Supponiamo che l’apparato di misura contenga un quadrante graduato ed un puntatore, come illustrato in Figura 10.1. La posizione del puntatore sara’ individuata dagli autovalori di un operatore di posizione X. Assumeremo che prima dell’interazione il puntatore sia nella sua posizione di equilibrio b0 . A causa dell’interazione il puntatore si spostera’ sulla posizione b1 e li rimarra’. Quindi prima e dopo l’interazione X e’ una costante del moto e pertanto commuta con l’hamiltoniana H0 . Prima della misura potremo rappresentare lo stato del sistema A con una funzione d’onda del tipo φ(x, y) = η(x)χ(y) (10.14) 132 Figura 10.1: Un apparato di misura costituito da un quadrante ed un puntatore. con la funzione η(x) che descrive una gaussiana molto stretta centrata sulla posizione del puntatore a riposo, b0 , che assumeremo corrispondere all’ autovalore x = 0 di X. Le variabili y sono tutte le altre variabili necessarie per descrivere l’apparato di misura M che pero’ giocano un ruolo del tutto accessorio in questa discussione e che quindi ignoreremo. Dunque la funzione d’onda di M puo’ essere semplificata ed assunta essere φ(x). Assumeremo di misurare una osservabile OS del sistema. In genere la misura avviene facendo interagire per un certo tempo l’apparato di misura ed il sistema e separandoli prima e dopo la misura. Assumeremo quindi che la misura abbia luogo nell’intervallo temporale (−, +) e che per effetto della misura il puntatore si sposti dalla posizione di riposo alla posizione b1 corrispondente all’autovalore x = x1 di X. Un modo molto semplice per caratterizzare questa interazione e’ di scrivere la seguente hamiltoniana HI (t) = −g(t)P OS (10.15) con g(t) = g per − ≤ t ≤ +, g(t) = 0, altrimenti (10.16) P l’operatore in HA coniugato canonicamente a X, cioe’ / [X, P ] = ih (10.17) Se prendiamo l’intervallo temporale sufficientemente piccolo e supponiamo che l’interazione sia sufficientemente grande da essere dominante rispetto ad H0 possiamo risolvere l’equazione del moto per l’operatore di evoluzione nell’intervallo temporale della misura / ih dU (t) = H(t)U (t) dt (10.18) / ). Per − ≤ t ≤ Per t ≤ − si ha H = H0 si ha U (t) = exp(−iH0 t/h / ih dU (t) = −gP OS U (t) dt (10.19) che puo’ essere integrata con il risultato / U () = eiλP OS /h 133 (10.20) dove abbiamo definito λ = 2g (10.21) e, dato che stiamo considerando la sola evoluzione connessa con l’interazione abbiamo assunto U = 1 prima di −. Supponendo che prima della misura il sistema si trovi in un autostato |ψi = |ok i di OS , quando agiamo con l’ operatore di evoluzione sulla funzione d’onda di S e A, |ψi ⊗ |φi, l’operatore OS assume il valore ok e quindi sullo stato |φi avremo / eiλP/h φ(x) = eλok d/dx φ(x) (10.22) Ma eλok d/dx φ(x) = ∞ X (λok )n dn φ(x) = φ(x + λok ) n! dxn (10.23) n=0 Dunque / eiλP OS /h φ(x) = φ(x + λok ) (10.24) Vediamo che dopo la misura il puntatore sara’ nella posizione corrispondente al valore x1 = λak . Il fatto che la misura correli la posizione dell’indice con l’autovalore misurato e’ la condizione essenziale della misura. Per descrivere in maniera piu’ accurata l’operazione di misura che abbiamo esemplificato seguendo Von Neumann, introduciamo alcuni concetti correlati all’ apparato di misura. Distingueremo tra le seguenti parti di A • Metro. La parte dell’apparato che interagisce direttamente con il sistema che si misura. • Amplificatore. Trasforma l’input microscopico nel segnale macroscopico. • Puntatore. E’ l’indice o il contatore sul quale si legge il risultato della misura. Supponiamo allora di voler misurare un’osservabile OS del sistema S, con autovalori ok , con l’apparato di misura A. Mantenendo le stesse notazioni del caso precedente, indicheremo con HA lo spazio di Hilbert che descrive le posizioni del puntatore in termini di autostati |ak i i cui autovalori ak danno appunto le posizioni del puntatore che dovranno essere in corrispondenza biunivoca con i valori ok che assume l’osservabile OS . Introdurremo poi lo spazio di Hilbert HS che descrive il sistema che intendiamo misurare. Lo stato iniziale del sistema sara’ assunto essere X |ψ(0)i = cj |oj i (10.25) j Chiaramente dovremo accoppiare l’apparato A e il sistema S in modo che ci sia, come abbiamo visto nel caso di Von Neumann, una corrispondenza biunivoca tra i valori ok dell’osservabile OS che stiamo misurando, e le posizioni dell’indice. Inoltre lo stato che otterremo allo spegnimento dell’accoppiamento dovra’ anche essere tale che la probabilita’ 134 di ottenere come risultato della misura un certo valore oj sia ancora |cj |2 . Questo accoppiamento sara’ dovuto ad una hamiltoniana di interazione tra il sistema e l’apparato di misura, HSA , con un corrispondente operatore di evoluzione USA (t). Assumeremo anche che HSA sia della forma HSA = gOA ⊗ OS (10.26) dove g e’ la costante di accoppiamento che supporremo sufficientemente grande per poter trascurare le hamiltoniane di S e di A durante l’interazione. Supponiamo che lo stato iniziale sia dato da |ψSA (0)i = |ψ(0)i ⊗ |A(0)i (10.27) con |A(0)i corrispondente allo stato di riposo dell’indice dello strumento di misura |a0 i = |A(0)i. Applicando l’interazione per un certo tempo τ , vorremmo ottenere il seguente risultato X |ψSA (τ )i = USA (τ )|ψ(0) ⊗ |ai0 i = (10.28) cj eiφj |oj i ⊗ |aj i j Infatti, se vogliamo che la misura abbia senso, i coefficienti cj dovranno essere gli stessi dello stato iniziale del sistema, salvo un fattore di fase che pero’ non altera le probabilita’. Notiamo anche che per preparare in questo modo lo stato al tempo τ occorrera’, in generale, scegliere opportunamente l’istante τ stesso. In questo modo si realizza una perfetta correlazione tra sistema ed apparato di misura. Notiamo che uno stato del tipo |ψSA (τ )i e’ uno stato entangled. Questo significa che per realizzare il risultato desiderato e’ necessario considerare una sovrapposizione quantistica degli stati (macroscopici) dell’apparato di misura che, come vedremo successivamente, porta a risultati classicamente paradossali. Faremo adesso un esempio molto semplice su come sia possibile realizzare una situazione di questo tipo, considerando un sistema S e, invece dell’intero apparato A, il metro M entrambi a due livelli. Indicando con HM lo spazio di Hilbert relativo al metro, il generico stato composto sara’ dato da una sovrapposizione di stati del tipo, |±, ±i = |±iS ⊗ |±iM (10.29) Scegliamo come osservabile da misurare sul sistema OS = σzS (10.30) Il metro avra’ due posizioni corrispondenti agli stati up e down del sistema. Lo caratterizzeremo in termini di autostati dell’operatore σzM . Supporremo allora che il metro sia nella posizione iniziale corrispondente all’autovalore down |M (0)i = |−iM (10.31) Dunque, se lo spin di S sara’ down al termine dell’interazione, il metro dovra’ rimanere nella posizione down, mentre se diventera’ up, anche il metro dovra’ essere nello stato up. Assumiamo poi come hamiltoniana di interazione HSM = g(1 + σzS )σxM 135 (10.32) dove notiamo che, come nel caso di Von Neumann, l’operatore in A, σxM , che entra in HSM non commuta con σzM che fornisce la posizione del puntatore mentre (1 + σzS ) commuta con σzS . Il significato fisico di HSM e’ che essa e’ zero sullo stato down di S, mentre sullo stato up di S fa flippare lo stato down di M allo stato up. Assumiamo poi come stato iniziale per S, la combinazione |ψ(0)i = c+ |+iS + c− |−iS (10.33) |c+ |2 + |c− |2 = 1 (10.34) con L’hamiltoniana di interazione e’ diagonale nella base in cui σzS e σxM sono diagonali. Dunque occorre riesprimere lo stato |−iM nella base degli autostati di σxM . Gli autostati di questo operatore nella base σzM sono dati da 1 1 1 1 M M |+ix = √ , |−ix = √ (10.35) 2 1 2 −1 da cui 1 |+iM x = √ (|+iM + |−iM ), 2 Pertanto, lo stato iniziale di M sara’ 1 |−iM x = √ (|+iM − |−iM ) 2 1 M |M (0)i = |−iM = √ (|+iM x − |−ix ) 2 (10.36) (10.37) Supponendo che le hamiltoniane che descrivono S e M siano trascurabili rispetto al termine di interazione avremo / |ψ(τ )i = e−iτ HSM /h |ψ(0)i ⊗ |M (0)i = S M / 1 M e−iτ g(1 + σz )σx /h (c+ |+iS + c− |−iS ) ⊗ √ |+iM x − |−ix 2 (10.38) tenendo presente che (1 + σzS )σxM vale 2σxM sullo stato up di S e zero sullo stato down, si trova facilmente 1 h / / +2igτ /h |ψ(τ )i = √ e−2igτ /h c+ |+iS ⊗ |+iM c+ |+iS ⊗ |−iM x −e x + 2 i M + c− |−iS ⊗ |+iM (10.39) x − c− |−iS ⊗ |−ix Infine, riesprimendo gli autostati di σxM in termini degli autostati di σzM , facendo uso della (10.36), si trova / )|+, −i − ic+ sin(2gτ /h / )|+, +i + c− |−, −i |ψ(τ )i = c+ cos(2gτ /h (10.40) Scegliendo il tempo τ in modo da eliminare il termine proporzionale a |+, −i, cioe’ / 2gτ π πh = →τ = /h 2 4g 136 (10.41) si ottiene infine |ψ(τ )i = c− |−, −i − ic+ |+, +i (10.42) Il risultato e’ uno stato entangled del sistema con il metro con le proprieta’ desiderate. Cioe’ se il sistema al tempo τ si trova nello stato up con probabilita’ |c+ |2 , il metro e’ nello stato up. Mentre se si trova in down con probabilita’ |c− |2 , allora il metro e’ down. La conclusione generale e’ che se lo stato iniziale e’ preparato in una combinazione lineare di autostati di OS , possiamo arrangiare la misura in modo tale che lo stato finale complessivo S+M risulti entangled nella maniera desiderata. E’ chiaro che la preparazione dello stato entangled tramite l’interazione di S con M e’ assolutamente necessaria affinche’ la nostra procedura di misura abbia senso. Dunque l’interazione tra il sistema S ed il metro puo’ essere considerata preliminare alla misura vera e propria ed e’ quella necessaria a realizzare l’entanglement tra S ed A. L’interazione tra S e M viene anche descritta come premisura. Notiamo che la matrice densita’ che si riferisce allo stato puro che emerge alla fine della premisura e’ data da ρSM = |ψ(τ )ihψ(τ )| = |c+ |2 |+, +ih+, +| + |c− |2 |−, −ih−, −| + + ic∗− c+ |+, +ih−. − | − ic∗+ c− | − .−ih+, +| (10.43) Questa matrice densita’ ha dei termini misti (termini di interferenza) che derivano dal fatto che lo stato entangled e’ puro e originano dalla possibilita’ di combinare linearmente gli stati quantistici. Questa sovrapposizione non e’ pero’ ammissibile nella fase successiva in cui si passa alla parte macroscopica dell’apparato perche’ porterebbe a sovrapposizione quantistica per un oggetto macroscopico. Abbiamo anche visto che la struttura entangled e’ necessaria al fine di poter definire il processo di misura. Dunque in qualche modo e’ necessario che nella parte dell’operazione di misura che segue dopo il metro, i termini di interferenza si cancellino in modo da ottenere una matrice densita’ che descriva la miscela statistica ρSA = |ψ(τ )ihψ(τ )| = |c+ |2 |+, +ih+, +| + |c− |2 |−, −ih−, −| (10.44) Nell’interpretazione di Copenhagen questo e’ ovviamente conseguenza del postulato sul collasso, ma questa posizione non e’ tenibile se vogliamo descrivere la misura in termini quantistici. Dovremo dunque cercare di capire se la meccanica quantistica stessa ci puo’ offrire una soluzione. 10.2 Misura e sovrapposizione degli stati macroscopici. Il gatto di Schrödinger Ovviamente la descrizione dell’interazione e’ ipersemplificata, ma serve per far capire come tutto il processo di misura si possa descrivere in termini quantistici e tramite l’uso dell’equazione di evoluzione del sistema. Per il futuro ignoreremo i dettagli dell’interazione ma ci limiteremo ad assumere che ci sia una osservabile di M , che denoteremo come metro, 137 i cui autovalori ci forniscono i risultati della misura. I casi discussi nella sezione precedente ci dicono che il processo di misura deve essere tale da far passare lo stato |on i ⊗ |a0 i allo stato |on i ⊗ |an i: |on i ⊗ |a0 i → |on i ⊗ |an i (10.45) Inoltre, per essere piu’ precisi occorre tener conto del fatto che l’apparato consiste anche in un amplificatore ed in un puntatore, gli stati in HA oltre a dipendere dall’autovalore considerato del metro, dipendono anche da altri numeri quantici r che nel corso della misura possono cambiare, dato che nello spostamento del puntatore lo stato microscopico di A certamente cambiera’. Dunque la transizione dovuta al processo di misura sara’ X (n) |on i ⊗ |a0 , ri → crr0 |on i ⊗ |an , r0 i (10.46) r0 E’ importante sottolineare che questa transizione e’ il risultato dell’evoluzione temporale del sistema dovuta all’hamiltoniana di interazione. Segue allora che se lo stato iniziale e’ una combinazione lineare di autostati di OS X |ψi = µn |on i (10.47) n a causa della linearita’ dell’equazione di Schrodinger, lo stato finale sara’ la stessa combinazione lineare degli stati finali dell’equazione (10.46) X XX (n) |ψi ⊗ |a0 , ri = µn |on i ⊗ |a0 , ri → (10.48) µn crr0 |on i ⊗ |an , r0 i n n r0 Come abbiamo gia’ osservato in precedenza, questa espressione per lo stato finale e’ la responsabile dei problemi dovuti al problema della misura in meccanica quantistica, quando si voglia dare una descrizione quantistica anche all’apparato di misura. Il paradosso che ne scaturisce e’ noto come il paradosso del gatto di Schrödinger. Non c’e’ dubbio che Figura 10.2: Il gatto di Schrödinger. ogni verifica sperimentale della meccanica quantistica sia in accordo con il postulato di riduzione. Pero’ se la meccanica quantistica e’ in grado di descrivere tutti i sistemi microscopici deve essere anche in grado di descrivere quelli macroscopici. La conseguenza di 138 questa situazione fu esemplificata da Schrödinger tramite il suo famoso esperimento ideale sul gatto. Si rinchiuda un gatto in una scatola di acciaio (vedi Figura 10.2) insieme con un contatore Geiger ed minuscola porzione di sostanza radioattiva. In un dato intervallo di tempo uno degli atomi si puo’ disintegrare. Se cio’ succede, il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala con del cianuro che avvelena il gatto. Oppure puo’ succedere che non ci siano disintegrazioni e che quindi allo scadere del tempo prefissato il gatto sia vivo. Dagli argomenti precedenti vediamo che il gatto si trova in uno stato sovrapposto dei due stati vivo o morto. Nell’interpretazione di Copenhagen e’ solo al momento dell’apertura della scatola che si decide in quale stato sia il gatto, vivo oppure morto con probabilita’ dipendenti dal meccanismo usato. Torniamo adesso al caso generale e consideriamo la transizione di equazione (10.48). Se assumiamo che lo stato inziale sia normalizzato segue che anche lo stato finale deve esserlo (l’evoluzione temporale e’ descritta da un operatore unitario) e quindi si ha la (n) seguente condizione di normalizzazione per i coefficienti crr0 X (n) |crr0 |2 = 1 (10.49) r0 Se invece consideriamo lo stato iniziale in (10.48) la condizione di normalizzazione sara’ X |µn |2 = 1 (10.50) n Questa assieme alla precedente implicano che anche lo stato finale della (10.48) sia normalizzato. Se, sempre in questa espressione consideriamo la probabilita’ che l’indicatore dello stato finale punti su an (corrispondente appunto al valore on di OS ) si ha che tale probabilita’ e’ data da X (n) (10.51) |µn |2 |crr0 |2 = |µn |2 r0 Questo e’ esattamente cio’ che ci aspettiamo, cioe’ che la probabilita’ che il metro assuma il valore an , sia uguale alla probabilita’ che lo stato iniziale sia nell’autostato |on i dell’osservabile OS . Quindi la probabilita’ per OS di avere l’autovalore on viene trasferita alla probabilita’ di un fenomeno, la posizione del metro, che mostra come risultato il valore an corrispondente appunto ad on . Consideriamo infine una ulteriore semplificazione. Dopo la misura possiamo considerare il sistema microscopico S al quale abbiamo applicato il nostro processo di misura come facente parte dell’apparato di misura A. Chiameremo il nuovo sistema macroscopico A0 . Nel caso dello spin, possiamo pensare che la particella si arresti nell’apparato di misura dopo che sia stata determinata la direzione dello spin. Dunque il nuovo sistema A0 sara’ uguale al sistema A + S . Questo aggiungera’ solo alcune altre variabili (quelle di S) alle moltissime altre che stiamo usando per descrivere A. Potremo allora evitare di scrivere lo 139 stato finale come un prodotto tensoriale3 ma usare invece la notazione X X X (n) (n) µn |on i ⊗ |a0 , ri → µn crr0 |on i ⊗ |an , r0 iM = µn crr0 |an , r0 iM 0 n n,r0 (10.52) n,r0 Come risultato vediamo che lo stato finale e’ una somma di stati distinti macroscopici. Quando effettuiamo una misura, sappiamo che dovremo preparare N copie dello stato iniziale. Nell’esempiodella Sezione precedente (spin con metro a due stati) troveremo (per N sufficientemente grande) |c+ |2 N volte il puntatore in alto ed |c− |2 N volte il puntatore in basso. L’interpretazione e’ che lo spin della particella in esame ha probabilita’ |c+ |2 di essere up e probabilita’ |c− |2 di essere down. Potrebbe sembrare naturale interpretare il risultato dicendo che si ha un insieme statistico con |c+ |2 N particelle di spin up e |c− |2 N particelle di spin down. Abbiamo gia’ visto in un caso simile (vedi Sezione 8.2) che le matrici densita’ di uno stato puro del tipo considerato in precedenza (dove adesso indichiamo gli stati del metro con | ↑i e | ↓i), come per esempio, 1 1 |ψi = √ |+i ⊗ | ↑i + √ |−i ⊗ | ↓i 2 2 (10.53) o in uno stato misto, che in questo caso sarebbe descritto dalla matrice densita’ 1 1 ρ = (|+i ⊗ | ↑i)(h+| ⊗ h↑ |) + (|−i ⊗ | ↓i)(h−| ⊗ h↓ |) (10.54) 2 2 sono profondamente diverse. Calcoliamo la matrice densita’ nei due casi nella rappresentazione in cui 0 1 (10.55) , |−i ⇔ |+i ⇔ 1 0 e 0 1 (10.56) , | ↓i ⇔ | ↑i ⇔ 1 0 Avremo per 1 1 1 |ψi = √ |+i ⊗ | ↑i + √ |−i ⊗ | ↓i ⇔ √ 2 2 2 da cui 1 0 1 0 0 0 1 + |ψi ⇔ √ 2 0 0 0 1 ⊗ 1 0 0 1 1 = √1 0 2 0 1 La corrispondente matrice densita’ e’ data da 1 1 0 1 0 0 1 = 1 ρψ = |ψihψ| ⇔ 0 2 2 1 3 1 +√ 2 ⊗ 0 1 (10.57) 1 0 0 1 0 0 0 0 0 0 0 0 (10.58) 1 0 0 1 (10.59) Questa identificazione e’ dello stesso tipo di quella usata per descrivere lo stato a due particelle in termini di un prodotto tensoriale di stati ad una particella. In questo caso diciamo che scrivere |x1 i ⊗ |x2 i e’ equivalente a scrivere |x1 , x2 i 140 Per la matrice ρ di equazione (10.54) si ha invece 1 1 0 0 0 0 1 0 0 1 1 0 0 0 + 0 0 0 1 = ρ= 0 2 0 0 2 0 0 0 0 1 0 0 0 0 0 0 (10.60) 0 1 Vediamo che tutta la differenza tra le due matrici e’ negli elementi fuori della diagonale principale. Questi elementi, che non sono nulli nella matrice relativa allo stato puro, danno luogo a termini di interferenza che pero’ nel caso macroscopico non sono accettabili. Torniamo adesso al caso generale e calcoliamo la matrice densita’ per lo stato (10.52) X (n) (n0 )∗ ρ= µn µ∗n0 crr0 crr00 |an , r0 ihan0 , r00 | (10.61) n,n0 ,r0 ,r00 Possiamo calcolare il generico elemento di matrice con il risultato: (n) (n0 )∗ han , r0 |ρ|an0 , r00 i = µn µ∗n0 crr0 crr00 (10.62) Dato che gli indici r non giocano nessun ruolo fintanto che ci limitiamo all’osservazione del puntatore, possiamo definire una matrice densita’ ridotta dalla formula X X (n) (n0 )∗ han |ρrid |an0 i = han , r0 |ρ|an0 , r0 i = µn µ∗n0 crr0 crr0 (10.63) r0 r0 Quando n = n0 si ha per la (10.49) han |ρrid |an i = |µn |2 (10.64) come ci aspettiamo per una miscela statistica. Ma in questo caso gli elementi non diagonali dovrebbero dare un risultato nullo, cioe’ si dovrebbe avere han |ρrid |an0 i = |µn |2 δnn0 (10.65) Dunque lo stato finale che si ottiene dopo la misura non e’ costituito da eventi chiaramente distinti, cioe’ abbiamo una sovrapposizione di stati macroscopici. Questo e’ chiaro se pensiamo di misurare un’osservabile C dell’apparato di misura e che non commuta con l’osservabile che definisce il metro. Dalla miscela statistica ci aspetteremmo X hCi = |µn |2 han |C|an i (10.66) n mentre si ha hCi = X µn µ∗n0 han0 |C|an iInn0 (10.67) n,n0 dove Inn0 = X (n) (n0 )∗ crr0 crr0 r0 141 (10.68) Pertanto quando si voglia descrivere l’apparato di misura in termini quantistici, il risultato e’ che si ha interferenza tra stati macroscopicamente diversi associati a diversi risultati della misura. Questa conclusione deriva dall’aver considerato l’apparato di misura come un oggetto descrivibile in termini quantistici. Chiaramente nell’interpretazione di Copenhagen si rinuncia a questa possibilita’ ed il problema non sorge. Infatti il risultato finale dell’esperimento e’ interpretabile in termini di probabilita’, vista la riduzione della funzione d’onda che e’ appositamente postulata perche’ l’interpretazione probabilistica sia consistente. Rimane pero’ il fatto che non e’ evidente a priori il criterio secondo cui un oggetto puo’ considerarsi classico o quantistico. Sebbene caso per caso questa distinzione possa essere fatta, non esiste un criterio generale. D’altra parte una soluzione semplice e’ quella di assumere che la quantita’ Inn0 sia data da δnn0 , cioe’ che sia nulla per n 6= n0 . Ovviamente occorre pero’ far vedere che questo e’ compatibile con la dinamica quantistica. Questo e’ per l’appunto cio’ che accade per l’effetto di decoerenza. In questo caso, a causa della inevitabile interazione con l’ambiente, si puo’ far vedere che in un tempo estremamente piccolo, i diversi stati macroscopici diventano praticamente ortogonali tra loro a causa della dinamica di Schrödinger e quindi gli effetti di interferenza vanno a zero. Un’altra possibilita’, discussa da Von Neumann, e’ quella che un risultato diventi noto solo dopo che la coscienza dell’osservatore lo ha registrato. E’ questo atto che rompe la catena della dinamica quantistica e che da’ luogo alla riduzione della funzione d’onda. L’idea e’ affascinante ma richiede che in qualche modo l’atto di prendere coscienza non sia descrivibile in termini quantistici ed in definitiva non differisce molto dall’interpretazione di Copenhagen. Notiamo anche che la riduzione del pacchetto e’ in accordo con tutte le osservaziioni e gli esperimenti effettuati e che quindi l’uguaglianza Inn0 = δnn0 e’ certamente confermata dai dati. Il punto e’ che trovarne una spiegazione non e’ banale. D’altro canto la difficolta’ principale in una spiegazione teorica generale e’ che un sistema macroscopico non e’ facilmente descrivibile (sia in termini classici che quantistici) a causa dell’immenso numero di gradi di liberta’ da cui e’ composto. 10.3 La decoerenza Negli anni 70 Zeh e all’inizio degli anni 80 Zurek osservarono che era possibile eliminare i termini misti presenti nella matrice densita’ a livello di premisura. L’osservazione cruciale e’ che se il sistema, come in pratica succede sempre, interagisce con l’ambiente circostante, allora i termini misti non desiderati vengono eliminati. In altri termini, contrariamente al caso classico in cui si suppone che un sistema fisico possa sempre considerarsi isolato, cioe’ che si possano sempre rendere trascurabili le interazioni con l’esterno, qui la situazione e’ opposta. Si considera cioe’ un sistema quantistico come un sistema aperto che interagisce con l’ambiente. Come vedremo, quando si voglia considerare la misura di un’osservabile del sistema, si puo’ effettuare una traccia parziale sulla matrice densita’ relativa al sistema 142 piu’ ambiente, sulle variabile di ambiente. Restringendo cosi’ la dinamica complessiva alla dinamica del solo sistema e’ possibile ottenere il fenomeno di cui abbiamo bisogno, cioe’ che l’operatore di evoluzione, unitario nello spazio complessivo, dia luogo ad una operazione non unitaria sul sistema in esame. In pratica la traccia ci fornisce automaticamente la riduzione del vettore di stato, facendo si che la matrice densita’ ridotta (cioe’ tracciata sulle variabili di ambiente) descriva una miscela statistica. Consideriamo adesso l’idea base dell’approccio di Zurek. Il vettore di stato e’ considerato come un vettore nello spazio di Hilbert prodotto diretto di quello del sistema S, di quello dell’apparato di misura A e di quello dell’ambiente E, |ψSAE i. Per semplicita’ identificheremo l’apparato di misura con il metro. Questo ci libera dall’appesantimento delle notazioni della sezione precedente in quanto, come abbiamo visto, le variabili r necessarie per descrivere il puntatore e l’amplificatore non giocano alcun ruolo. Il processo di misura viene diviso idealmente in due fasi. Per semplicita’ supponiamo che lo stato iniziale sia uno stato fattorizzato del tipo |ψSAE (0)i = |ψi ⊗ |a0 i ⊗ |ψE i (10.69) A causa dell’interazione tra il sistema e l’apparato di misura al tempo t = t1 si avra’ l’effetto di entanglement tra S ed A dovuto alla premisura. Successivamente, tra t1 e t2 > t1 l’ambiente E subira’ l’entanglement con S ed A. Quindi avremo # " X |ψi ⊗ |a0 i ⊗ |ψE (0)i → ci |oi i ⊗ |ai i ⊗ |ψE (t1 )i, t = t1 i X → ci |oi i ⊗ |ai i ⊗ |ei i, t > t2 (10.70) i La seconda trasformazione sara’ descritta tramite un operatore di evoluzione unitario che coinvolge l’hamiltoniana di interazione tra i tre sistemi S, A ed E. Chiaramente la matrice densita’ per t > t2 contiene termini misti del tipo visto precedentemente, ma se valutiamo la matrice densita’ ridotta X X ρrid = TrE |ψASE (t)ihψASE (t)| = hej |ρ|ej i = |cj |2 |oj i ⊗ |aj ihoj | ⊗ haj | (10.71) j j vediamo che essa corrisponde ad una miscela statistica in cui ogni autovalore oi , segnalato dal metro con il valore ai , occorre con probabilita’ |ci |2 . Si mostra facilmente che questo risultato continua a valere anche nel caso in cui si considerino le variabili addizionali r purche’ nel definire la matrice ridotta si effettui una traccia anche su queste variabili. Si potrebbe mostrare che l’informazione contenuta nei termini misti non e’ persa nel sistema totale ma e’ trasferita dalla parte S, A all’ambiente E. D’altra parte, dal punto di vista dell’apparato, questa informazione viene completamente perduta. Il fatto che il postulato di proiezione venga riprodotto in questa forma e’ perfettamente consistente con una evoluzione unitaria nello spazio totale ma che diventa non unitaria allorche’ la si esami sul sistema piu’ l’apparato di misura. L’ipotesi che abbiamo fatto nello scrivere la seconda 143 delle formule (10.71) e’ che ci sia una perfetta correlazione tra l’ambiente E e l’apparato di misura A. In genere non e’ cosi’ e questo fa si che la matrice densita’ ridotta non sia perfettamente diagonale ma contenga ancora dei termini misti. Questo porta all’idea di un tempo tipico, detto tempo di decoerenza, tdec , tale che i termini non diagonali decadano esponenzialmente a zero con una legge del tipo e−t/tdec (10.72) L’idea di un tempo di decoerenza fu introdotta da Zurek che ne propose anche una definizione nel caso particolare di sovrapposizione di due gaussiane interagenti con un bagno termico a temperatura T , cioe’ con un ambiente a temperatura fissata. Nel caso particolare di una dimensione spaziale si trova tdec 1 = γ λT ∆x 2 (10.73) dove γ rappresenta l’inverso del tempo di rilassamento, definito dal modo in cui le particelle cedono energia all’ambiente exp (−tγ) ed e’ anche proporzionale all’accoppiamento tra le particelle e l’ambiente. Quindi quanto piu’ piccolo e’ l’accoppiamento e quanto piu’grande e’ il tempo di decoerenza. ∆x e’ la separazione tra i due picchi gaussiani, quindi maggiore e’ la separazione e piu’ piccolo e’ tdec . Infine λT e’ la lunghezza d’onda termica di de Broglie /h (10.74) λT = √ 2mkT dove k e’ la costante di Boltzman. Ricordiamo infatti che a temperatura costante una particella libera ha una energia cinetica media hp2 /2mi = kT e quindi la lunghezza d’onda termica e’ proprio la lunghezza d’onda di De Broglie, dove l’impulso e’ quello corrispondente ad una energia termica pari a kT . Per avere un tdec piccolo, anche λT deve essere piccola, quindi si deve avere una temperatura elevata. Possiamo costruire un semplice modello per capire cosa succede quando non c’e’ perfetta correlazione tra ambiente, ed il sistema piu’ puntatore. Per semplicita’, dato che comunque puntatore e sistema devono essere correlati, descriviamoli entrambi con un unico vettore di stato. A questo punto considereremo sistema +puntatore come descritti da uno spin 1/2, mentre non faremo assunzioni particolari sull’ambiente, salvo assumere che i due stati che si correlano con |±i non sono ortogonali tra loro. Avremo dunque un’evoluzione temporale nello spazio di Hilbert complessivo del tipo |+i ⊗ |Ei → |+it ⊗ |E+ it |−i ⊗ |Ei → |−it ⊗ |E− it (10.75) Definiremo il prodotto scalare come una variabile η che in genere sara’ diversa da zero: η = hE+ |E− i 144 (10.76) Se assumiamo gli stati |E± i normalizzati, segue dalla disuguaglianza di Schwarz e dall’assunzione che η sia reale e positivo hE± |E± i = 1 −→ 0 ≤ η ≤ 1 (10.77) Per trattare il problema, consideriamo due vettori dell’ambiente ortonormali tra loro, |E1,2 i al tempo t, ed espandiamo |E± i su questa base p p |E+ it = λ(t)|E1 i + 1 − λ(t)|E2 i p p |E− it = λ(t)|E2 i + 1 − λ(t)|E1 i (10.78) dove assumiamo λ ≤ 1. La dinamica dell’ambiente e della sua interazione con lo spin e’ stata parametrizzata dalla funzione λ(t). Usando l’ortonormalita’ di |E1,2 i vediamo che gli stati |E± i sono correttamente normalizzati e che p (10.79) η = 2 λ(1 − λ) Dalla condizione iniziale |E+ it=0 = |E− it=0 = |Ei segue p p 1 λ(0) = 1 − λ(0) → λ(0) = 2 (10.80) η(0) = 1 (10.81) e L’idea fondamentale della decoerenza e’ che al passare del tempo gli stati E± dell’ambiente, essendo descritti da molti gradi di liberta’, si differenziano sempre piu’ sino a diventare ortogonali per t → ∞. Quindi, in questa ipotesi e’ sensato parametrizzare η(t) in termini di una funzione esponenziale che ha esattamente queste caratteristiche η(t) = e−t/tdec (10.82) Consideriamo adesso uno stato iniziale dello spin che sia una sovrapposizione dei due stati di spin up e down |ψi = cos(θ/2)|+i + sin(θ/2)|−i (10.83) Dunque l’evoluzione temporale, per linearita’, sara’ data da |ψi ⊗ |Ei → cos(θ/2)|+it ⊗ |E+ it + sin(θ/2)|−it |E− it (10.84) Espandendo |E± i in termini di |E1,2 i si trova |ψi ⊗ |Ei → |ψ1 i ⊗ |E1 i + |ψ2 i ⊗ |E2 i (10.85) p p λ(t) cos(θ/2)|+it + 1 − λ(t) sin(θ/2)|−it p p |ψ2 i = 1 − λ(t) cos(θ/2)|+it + λ(t) sin(θ/2)|−it (10.86) con |ψ1 i = 145 Consideriamo ora una misura dello spin fatta lungo la direzione x. Gli autostati di Sx , nella base in cui e’ diagonale Sz sono 1 |±ix = √ (|+i ± |−i) 2 (10.87) Per calcolare la probabilita’ di misurare lo spin lungo le direzioni ±x, calcoliamo la matrice densita’ ridotta relativa allo spin dalla matrice densita’ del sistema piu’ l’ambiente. Dall’equazione (10.85) si trova ρrid = Tr[ρ] = hE1 |(|ψ1 i ⊗ |E1 i + |ψ2 i ⊗ |E2 i)(hψ1 | ⊗ hE1 | + hψ2 | ⊗ hE2 |)|E1 i + + hE2 |(|ψ1 i ⊗ |E1 i + |ψ2 i ⊗ |E2 i)(hψ1 | ⊗ hE1 | + hψ2 | ⊗ hE2 |)| =i = |ψ1 ihψ1 | + |ψ2 ihψ2 | (10.88) Vediamo che la matrice densita’ ridotta, come ci aspettiamo, non corrisponde ad uno stato puro ma ad una miscela statistica. Pero’ questa matrice non e’ diagonale nella base Sz , ci sono cioe’ dei termini di inerferenza. Infatti si ha p p λ(t) cos(θ/2) 1 − λ(t) cos(θ/2) p , |ψ2 i = (10.89) |ψ1 i = p 1 − λ(t) sin(θ/2) λ(t) sin(θ/2) Pertanto ρrid e’ data da ρrid = 2 p cos (θ/2) λ(t)(1 − λ(t) sin θ p λ(t)(1 − λ(t) sin θ sin2 (θ/2) dove abbiamo usato la relazione sin θ = 2 sin(θ/2) cos(θ/2). proiezione per gli autostati di Sx sono 1 1 ±1 P±x = 2 ±1 1 (10.90) Inoltre gli operatori di (10.91) Dunque le probabilita’, P±x , di trovare la particella con spin lungo l’asse ±x: P(±x) = Tr[ρrid P±x ] = 1 cos2 (θ/2) sin θ η(t)/2 1 ±1 = Tr sin θ η(t)/2 sin2 (θ/2) ±1 1 2 (10.92) dove abbiamo usato la (10.79) per riesprimere λ in funzione di η. Il calcolo di questa traccia e’ immediato e si trova 1 P(±x) = (1 ± η sin θ) 2 (10.93) Il caso di perfetta correlazione tra sistema ed ambiente corrisponde a η = 0, cioe’ quando gli stati |E± i coincidono con |E1,2 i e quindi sono ortogonali tra loro e questa situazione si verifica a t → +∞. Questa situazione asintotica e’ di fatto raggiunta in tempi di qualche unita’ di tdec . Altrimenti gli effetti di interferenza si fanno sentire sulle probabilita’ di 146 P(+x) θ Figura 10.3: La probabilita’ P(+x) in funzione di θ. Il segmento corrisponde a η = 0, cioe’ perfetta correlazione. Le due curve sopra il segmento sono per η = 0.5 e per η = 1 rispettivamente. misurare lo spin lungo la direzione x, modulandole tramite il termine η sin θ, come illustrato in Fig 10.3. Scully, Shea e Mc Cullen (Physics Reports, 43 C, 485, 1978) hanno proposto un semplice modello che mette in luce il fatto che e’ possibile realizzare il collasso senza la necessita’ della coscienza dell’osservatore come richiesto da Von Neumann. Il modello serve anche per illustrare le caratteristiche principali della decoerenza, nel senso che e’ effettivamente possibile realizzare la decoerenza pur di arrangiare i parametri del modello in modo da cancellare i termini di interferenza. Niente ci dice pero’ sul decadimento esponenziale di questi termini, cioe’ del tempo di decoerenza. Vedremo un modello di questo tipo successivamente. Il modello di Scully, Shea e Mc Cullen consiste in uno SG in cui i fasci, dopo essere divisi sono fatti interagire con un atomo con due soli stati, il fondamentale e lo stato eccitato (in pratica e’ sufficiente che le energie in gioco non permettano di eccitare i livelli superiori). Questo atomo puo’ servire da apparato di misura se si decide di osservare il risultato. Se invece non leggiamo il risultato, i nostri fasci interagiscono con questo atomo e questo porta alla distruzione dei termini di interferenza e ad una matrice densita’ ridotta corrispondente ad una miscela statistica. Pertanto, almeno nel modello in esame, il postulato di riduzione e’ una conseguenza della dinamica descritta dall’interazione dei fasci molecolari con un atomo che e’ considerato esterno al sistema. Il modello e’ rilevante dal punto di vista di von Neumann che richiede la partecipazione attiva di un osservatore per provocare il collasso del vettore di stato. Il modello in esame mostra invece che la riduzione e’ possibile anche senza un osservatore attivo ma che e’ sufficiente un’interazione con un oggetto inanimato come un atomo, purche’ questa interazione non venga osservata. In altri termini per la riduzione e’ sufficiente che il sistema S sia un sistema aperto. Si spiega 147 cosi anche la dinamica non unitaria a livello del sistema dei fasci. L’operatore di evoluzione e’ unitario nello spazio complessivo, fasci molecolari + atomo, ma questa proprieta’ non vale piu’ nello spazio ridotto dei fasci molecolari. Infatti una matrice unitario in uno spazio, non lo e’, in genere, in un sottospazio. Basta pensare al caso 2 × 2 ridotto ad una dimensione: cos θ − sin θ U= , UU† = 1 (10.94) sin θ cos θ Chiaramente la sottomatrice U11 = cos θ non e’ unitaria. 10.4 Altre interpretazioni Abbiamo gia’ discusso in precedenza l’interpretazione di Von Neumann che fa riferimento alla coscienza dell’osservatore. Vediamo ora altre interpretazioni che sono state proposte che pero’, al contrario della decoerenza, richiedono una estensione della usuale meccanica quantistica. Daremo qui un breve elenco delle interpretazioni, a giudizio personale, piu’ significative. Interpretazione a molti mondi Nel 1957 Everett propose che in realta’ non ci fosse un collasso del vettore di stato ma che le sue componenti, relative alla decomposizione dell’osservabile in oggetto, si evolvessero ognuna in un mondo differente. Cioe’, se misuriamo Ω e lo stato e’ X |ψi = ck |ωk i (10.95) k ogni componente |ωk i evolve in un mondo diverso. Quindi non c’e’ mai un collasso del vettore di stato in quanto lo stato si evolve in maniera unitaria nell’isieme dei mondi, e’ semplicemente l’osservatore che seguendo una di queste linee mondo e vede solo una componente del vettore, pensa che ci sia stata una riduzione dello stato. In altri termini, ad ogni osservazione, la particolare linea mondo seguita dall’osservatore che fa la misura si ramifica in tante linee monde relative alla varie componenti del vettore di stato. Sebbene su una base interpretativa completamente diversa, anche questa interpretazione usa il fatto che un operatore unitario nello spazio complessivo possa diventare non unitario quando ristretto ad una particolare linea mondo. Uno dei problemi e’ la degenerazione delle basi. Infatti il vettore di stato puo’ decomporsi in basi diverse a seconda dell’osservabile che si vuole misurare. Dunque dovrebbero esistere mondi relativi a tutte le possibili scelte di base che noi desideriamo fare per il vettore di stato. Un altro problema riguarda la spiegazione del perche’ le diverse componenti di una funzione d’onda abbiano probabilita’ diverse di essere realizzate nel mondo del singolo osservatore. Dato che tutte le possibilita’ sono permesse dalla decomposizione del vettore di stato ci si apetterebbe che queste fossero equiprobabili. 148 Modifiche dell’equazione di Schrödinger Alcuni autori, come per esempio Ghirardi Rimini e Weber, hanno proposto delle modifiche ad hoc dell’equazione di Schrödinger dipendenti da un parametro tale che le applicazioni al microcosmo, cioe’ ad oggetti di piccole dimensioni, sono identiche a quelle della Meccanica Quantistica tradizionale. D’altro canto se si considerano oggetti macroscopici questa modifica diventa rilevante e permette la riduzione del pacchetto d’onda. 149 Capitolo 11 Conclusioni Quindi concludendo, abbiamo visto che • La decoerenza fa si che i termini di intereferenza tra stati macroscopici vadano a zero esponenzialmente con un andamento tipico exp(−t/tdec ). Il tempo di decoerenza tdec e’ molto piccolo rispetto al tempo di dissipazione, tdec τ , che a sua volta e’ legato all’interazione tra variabili collettive e d’ambiente. Questo significa che anche per una piccola interazione (cioe’ per un tempo di dissipazione lungo), l’interferenza e’ comunque piccola. Abbiamo pero’ anche detto che in certi sistemi macroscopici in cui l’interazione sia particolarmente piccola, i fenomeni di interferenza possono riemergere. • Il rapporto tdec /τ dipende dal rapporto tra la costante di Planck ed una quantita’, con le dimensioni di un’azione, che e’ costruita con i parametri macroscopici dell’apparato di misura. Da questo segue che il rapporto e’ molto piccolo. Vediamo cosi che il problema della decoerenza e’ profondamente connesso con la transizione tra classico e quantistico che anche, in linea generale, e’ caratterizzata dal rapporto tra la costante di Planck ed una grandezza caratteristica di ogni sistema che e’ la variabile di azione del sistema stesso. • La decoerenza risolve il problema del collasso del vettore di stato nell’ambito della meccanica quantistica stessa. Dunque si ottiene una risposta chiara al paradosso del gatto di Schrödinger. Quando apriamo la scatola il gatto sara’ sempre vivo o morto. In effetti non appena preparato il sistema, la sovrapposizione quantistica dei due stati vivo o morto si riduce in modo quasi immediato alla loro miscela statistica. L’approccio della decoerenza non e’ privo di critiche. Per esempio Bell non era assolutamente soddisfatto da questo tipo di risposta che considerava di tipo FAPP (For All Practical Purposes) e priva di un valore universale. Infatti, data la linearita’ della equazione di Schrödinger, se all’istante iniziale il sistema e’ sovrapposizione lineare di due stati macroscopici lo rimarra’ sempre. D’altra parte abbiamo visto che la risposta della decoerenza e’ quella di considerare un qualunque sistema quantistico come un insieme aperto 150 che si evolve unitariamente nello spazio di Hilbert totale, ma che l’evoluzione puo’ essere non-unitaria quando si restringa l’operatore di evoluzione ad un sottospazio. Ci sarebbe da chiedersi cosa ne penserebbe oggi del problema John Stewart Bell1 se fosse ancora tra noi. 1 John Bell e’ nato a Belfast nel 1928 ed e’ morto a Belfast nel 1990 151