FISICA QUANTISTICA

annuncio pubblicitario
Stefano Forte e Luca Rottoli
FISICA QUANTISTICA
Versione aggiornata al 6 marzo 2017
2
Indice
1 Introduzione
11
I
13
Le basi della fisica quantistica
2 Concetti fondamentali
2.1 Le basi sperimentali della fisica quantistica . . .
2.1.1 L’esperimento della doppia fenditura . . .
2.1.2 Onde e particelle . . . . . . . . . . . . . .
2.1.3 Dall’esperimento ai principi . . . . . . . .
2.2 Stati . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Bra, ket e sovrapposizione . . . . . . . . .
2.2.2 Prodotto scalare . . . . . . . . . . . . . .
2.2.3 Vettori di base e misura . . . . . . . . . .
2.2.4 La relazione di completezza . . . . . . . .
2.3 Operatori . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Operatori e matrici . . . . . . . . . . . . .
2.3.2 Operatore associato ad un’osservabile . .
2.3.3 Operatori di proiezione e misure generali .
2.4 Postulati della meccanica quantistica . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
20
21
21
22
23
24
25
26
26
28
32
34
3 Proprietà quantistiche
3.1 Unitarietà . . . . . . . . . . . . . . . . . . . .
3.1.1 Cambiamenti di base . . . . . . . . . .
3.1.2 Operatori unitari . . . . . . . . . . . .
3.1.3 Trasformazioni unitarie di operatori .
3.2 Indeterminazione . . . . . . . . . . . . . . . .
3.2.1 Osservabili compatibili e incompatibili
3.2.2 Commutazione di operatori . . . . . .
3.2.3 Il principio di indeterminazione . . . .
3.3 Informazione quantistica . . . . . . . . . . . .
3.3.1 L’informazione in un qubit . . . . . .
3.3.2 La matrice densità . . . . . . . . . . .
3.3.3 La più generale misura . . . . . . . . .
3.3.4 Il teorema di no-cloning . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
35
35
36
38
38
39
39
41
44
44
45
49
51
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Fondamenti della meccanica quantistica
4 Quantizzazione canonica: la meccanica quantistica
4.1 La rappresentazione delle coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 L’operatore posizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
55
55
55
4
Indice
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
56
58
59
59
60
61
62
63
64
65
65
66
68
5 Evoluzione temporale
5.1 Il generatore dell’evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Traslazioni temporali e leggi di conservazione quantistiche . . . . . . . .
5.1.2 Il teorema di Noether per trasformazioni dipendenti dal tempo . . . . .
5.1.3 Il postulato dell’evoluzione temporale . . . . . . . . . . . . . . . . . . .
5.2 L’equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Forme alternative dell’equazione di Schrödinger . . . . . . . . . . . . . .
5.2.2 Soluzione dell’equazione di Schrödinger: hamiltoniane commutanti . . .
5.2.3 Soluzione dell’equazione di Schrödinger: hamiltoniane non commutanti .
5.2.4 Stati stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg . . . . . . . . . . . . .
5.3.1 La rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . .
5.3.2 Leggi del moto alla Heisenberg . . . . . . . . . . . . . . . . . . . . . . .
5.3.3 Leggi di conservazione: il teorema di Noether in meccanica quantistica .
5.3.4 Teorema di Ehrenfest e transizione classico-quantistico . . . . . . . . . .
5.3.5 Leggi del moto, parentesi di Poisson e commutatori . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
71
72
74
74
75
76
76
78
79
79
81
82
82
83
4.2
4.3
III
4.1.2 La distribuzione delta di Dirac . . . . . . . .
4.1.3 Relazione di ortonormalizzazione e risoluzione
4.1.4 Operatori . . . . . . . . . . . . . . . . . . . .
L’operatore impulso e le traslazioni . . . . . . . . . .
4.2.1 Il teorema di Noether . . . . . . . . . . . . .
4.2.2 Le traslazioni in meccanica quantistica . . . .
4.2.3 L’operatore impulso . . . . . . . . . . . . . .
4.2.4 Operatori e leggi di conservazione . . . . . .
4.2.5 Il commutatore canonico . . . . . . . . . . . .
Base delle coordinate e base degli impulsi . . . . . .
4.3.1 La base delle coordinate . . . . . . . . . . . .
4.3.2 Autostati dell’operatore impulso . . . . . . .
4.3.3 La base degli impulsi . . . . . . . . . . . . . .
. . . . . . . .
dell’identità
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Meccanica quantistica in una dimensione
85
6 La particella unidimensionale libera
6.1 Autostati dell’hamiltoniana . . . . . . . . . . . . . .
6.1.1 Evoluzione temporale degli stati . . . . . . .
6.1.2 Equazioni del moto per posizione ed impulso
6.1.3 Dipendenza dal tempo dell’indeterminazione
6.2 Pacchetti d’onde . . . . . . . . . . . . . . . . . . . .
6.2.1 Stati di minima indeterminazione . . . . . . .
6.2.2 Indeterminazione del pacchetto d’onde . . . .
6.2.3 Indeterminazione posizione-impulso . . . . .
6.3 Moto di un pacchetto d’onde . . . . . . . . . . . . .
6.3.1 Velocità di fase e velocità di gruppo . . . . .
6.3.2 Allargamento di un pacchetto d’onde . . . . .
6.3.3 L’ordine di grandezza degli effetti quantistici
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 Problemi unidimensionali
7.1 La buca di potenziale infinita . . . . . . . . . . .
7.1.1 Determinazione dello spettro . . . . . . .
7.1.2 Proprietà delle autofunzioni . . . . . . . .
7.1.3 Degenerazione dello spettro e stati legati .
7.2 Il gradino di potenziale . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
. 99
. 99
. 102
. 103
. 104
.
.
.
.
.
.
.
.
.
.
87
87
88
88
89
90
90
92
93
94
94
95
96
Indice
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
104
105
106
108
109
109
109
111
112
113
8 L’oscillatore armonico
8.1 L’oscillatore armonico classico . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Lo spettro di energia dell’oscillatore armonico quantistico . . . . . . . . .
8.2.1 Caratteristiche qualitative dello spettro . . . . . . . . . . . . . . .
8.2.2 Operatori di creazione e distruzione . . . . . . . . . . . . . . . . .
8.2.3 Normalizzazione ed elementi di matrice . . . . . . . . . . . . . . .
8.3 Autofunzioni nella base delle coordinate . . . . . . . . . . . . . . . . . . .
8.3.1 Funzione d’onda per lo stato fondamentale . . . . . . . . . . . . .
8.3.2 Stati eccitati e polinomi di Hermite . . . . . . . . . . . . . . . . .
8.4 Evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Operatore di evoluzione temporale ed evoluzione degli stato . . . .
8.4.2 Evoluzione degli operatori posizione ed impulso e formule di BCH
8.4.3 Evoluzione temporale degli operatori di creazione e distruzione . .
8.5 Stati coerenti e “gatti di Schrödinger” . . . . . . . . . . . . . . . . . . . .
8.5.1 Gli stati coerenti . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.2 Gatti di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
119
119
120
120
121
123
124
125
125
126
126
126
128
129
129
132
7.3
7.4
IV
7.2.1 Funzione a gradino e condizioni di continuità
7.2.2 Autofunzioni di energia: stati di scattering .
7.2.3 Corrente di probabilità . . . . . . . . . . . . .
7.2.4 Soluzione regressiva . . . . . . . . . . . . . .
7.2.5 Autofunzioni di energia: stati di tunneling . .
La barriera di potenziale . . . . . . . . . . . . . . . .
7.3.1 Autofunzioni di energia ed effetto tunnel . . .
7.3.2 Soluzione generale di tunneling . . . . . . . .
7.3.3 Coefficienti di trasmissione e riflessione . . . .
Problemi di stato legato: una discussione qualitativa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Meccanica quantistica in più dimensioni
135
9 Sistemi quantistici in più di una dimensione
9.1 Spazi prodotto diretto . . . . . . . . . . . . . . . . . .
9.1.1 Sistemi di dimensione finita . . . . . . . . . . .
9.1.2 Più dimensioni e più particelle . . . . . . . . .
9.1.3 Sistemi d-dimensionali in coordinate cartesiane
9.2 Separabilità . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Potenziali separabili in coordinate cartesiane .
9.2.2 Hamiltoniane separabili . . . . . . . . . . . . .
9.2.3 Esempi tridimensionali . . . . . . . . . . . . . .
9.3 Problemi a due corpi e problemi centrali . . . . . . . .
9.3.1 Il problema dei due corpi . . . . . . . . . . . .
9.3.2 Cambiamenti lineari di coordinate . . . . . . .
9.3.3 Problemi centrali . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
137
137
138
138
139
140
140
141
142
144
144
146
148
10 Il momento angolare
10.1 Momento angolare e rotazioni . . . . . . . . . . . . .
10.1.1 Il caso classico: teorema di Noether . . . . .
10.1.2 Il caso quantistico: generatore delle rotazioni
10.2 Proprietà del momento angolare . . . . . . . . . . .
10.2.1 Ordinamento . . . . . . . . . . . . . . . . . .
10.2.2 Espressione esplicita in coordinate sferiche . .
10.2.3 Relazioni di commutazione . . . . . . . . . .
10.3 Lo spettro del momento angolare . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
153
153
153
154
155
155
155
155
156
.
.
.
.
.
.
.
.
6
Indice
10.3.1 Costruzione dello spettro . . . . . . . . . . . .
10.3.2 Autofunzioni nella base delle coordinate . . . .
10.4 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1 Spin uno . . . . . . . . . . . . . . . . . . . . .
10.4.2 Spin 12 . . . . . . . . . . . . . . . . . . . . . . .
10.5 Composizione di momenti angolari . . . . . . . . . . .
10.5.1 Sistemi con momento angolare orbitale e spin .
10.5.2 Coefficienti di Clebsch-Gordan e cambi di base
10.5.3 Composizione di due spin 12 . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
157
159
161
162
165
167
167
167
169
11 Problemi tridimensionali
11.1 L’equazione di Schrödinger radiale . . . . . . . . . . . . .
11.1.1 Funzione d’onda radiale . . . . . . . . . . . . . . .
11.1.2 Condizioni al contorno ed andamenti asintotici . .
11.1.3 La particella libera . . . . . . . . . . . . . . . . . .
11.2 L’oscillatore armonico isotropo . . . . . . . . . . . . . . .
11.2.1 Stati con ` = 0 . . . . . . . . . . . . . . . . . . . .
11.2.2 Costruzione degli stati con ` generico . . . . . . . .
11.2.3 Spettro e degenerazione . . . . . . . . . . . . . . .
11.2.4 Il teorema di degenerazione . . . . . . . . . . . . .
11.2.5 Simmetria dell’oscillatore tridimensionale isotropo
11.3 Il potenziale coulombiano . . . . . . . . . . . . . . . . . .
11.3.1 Analisi dimensionale . . . . . . . . . . . . . . . . .
11.3.2 Il modello di Bohr . . . . . . . . . . . . . . . . . .
11.3.3 Il problema di Keplero e le sue simmetrie . . . . .
11.3.4 Leggi di conservazione nel caso quantistico . . . .
11.3.5 Costruzione dello spettro . . . . . . . . . . . . . .
11.3.6 Degenerazione e base fisica . . . . . . . . . . . . .
11.3.7 Autofunzioni nella base delle coordinate . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
173
173
174
175
176
177
177
178
181
182
182
184
184
185
187
188
190
192
193
V
.
.
.
.
.
.
.
.
.
Metodi di approssimazione
197
12 Il limite classico della meccanica quantistica
12.1 L’azione in meccanica classica . . . . . . . . . . . . . . . . . . . . .
12.1.1 Azione e traiettoria classica . . . . . . . . . . . . . . . . . .
12.1.2 La teoria di Hamilton-Jacobi . . . . . . . . . . . . . . . . .
12.2 L’azione in meccanica quantistica . . . . . . . . . . . . . . . . . . .
12.2.1 Il propagatore . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.2 Propagatore ed azione . . . . . . . . . . . . . . . . . . . . .
12.2.3 L’integrale di cammino . . . . . . . . . . . . . . . . . . . . .
12.2.4 L’equazione di Schrödinger dal path integral . . . . . . . . .
12.3 L’approssimazione WKB . . . . . . . . . . . . . . . . . . . . . . . .
12.3.1 Limite semiclassico dell’equazione di Schrödinger . . . . . .
12.3.2 Correzioni al primo ordine ed approssimazione semiclassica
12.3.3 Validità dell’approssimazione semiclassica . . . . . . . . . .
12.3.4 Trattazione semiclassica della buca di potenziale . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
199
199
199
201
203
203
204
206
208
210
210
211
213
213
13 La teoria delle perturbazioni
13.1 Perturbazioni indipendenti dal tempo . .
13.1.1 Spettro non degenere . . . . . . . .
13.1.2 Caso degenere . . . . . . . . . . .
13.2 Perturbazioni dipendenti dal tempo . . . .
13.2.1 La rappresentazione di interazione
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
217
217
218
220
221
221
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Indice
7
13.2.2 Sviluppo perturbativo dipendente dal tempo . . . . . . . . . . . . . . . . . . . . . 222
13.2.3 La regola aurea di Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
13.2.4 Concetti base della teoria dell’urto . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
VI
Sistemi di molti corpi
229
14 Particelle identiche
14.1 Indistinguibilità quantistica . . . . . . . . . . . . . . . . .
14.1.1 L’operatore di scambio . . . . . . . . . . . . . . . .
14.1.2 Sistemi di n particelle e degenerazione di scambio .
14.2 Statistiche quantistiche . . . . . . . . . . . . . . . . . . . .
14.2.1 Stati simmetrici ed antisimmetrici . . . . . . . . .
14.3 Spin e statistica . . . . . . . . . . . . . . . . . . . . . . . .
14.3.1 Bosoni e Fermioni . . . . . . . . . . . . . . . . . .
14.3.2 Il principio di esclusione . . . . . . . . . . . . . . .
14.3.3 Il teorema spin-statistica . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
231
231
232
233
234
234
235
235
235
236
15 Entanglement
15.1 Matrice densità . . . . . . . . . . . . . . . . .
15.1.1 Meccanica statistica . . . . . . . . . .
15.1.2 Matrice densità e misure parziali . . .
15.1.3 Entanglement e media sui sottosistemi
15.2 Meccanica quantistica e realismo locale . . . .
15.2.1 Il paradosso Einstein-Podolsky-Rosen
15.2.2 Variabili nascoste . . . . . . . . . . . .
15.2.3 La disuguaglianza di Bell . . . . . . .
15.3 Il problema della misura . . . . . . . . . . . .
15.3.1 Decoerenza . . . . . . . . . . . . . . .
15.3.2 Misura ed informazione . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
241
241
242
242
244
245
245
246
248
251
252
253
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
Indice
Capitolo 1
Introduzione
La nascita della fisica quantistica segna una netta cesura con tutta la fisica precedente. La traiettoria della
fisica classica, che comprende meccanica ed elettromagnetismo, si conclude all’inizio del Novecento, con la
formulazione dell’elettrodinamica relativistica e della relatività generale, la teoria di campo classica della
gravità. La fisica quantistica cambia completamente il quadro concettuale. Cambia infatti, nell’ambito
delle teorie fisiche, il significato di predittività e di realtà. Cambia il significato di predittività perché uno
dei principi della fisica quantistica è che la fisica non può in generale prevedere gli eventi futuri, ma solo
calcolarne la probabilità. Cambia il concetto di realtà perché la fisica quantistica è incompatibile con il
“realismo locale”, cioè con il principio (in cui Einstein fermamente credeva) per cui i risultati delle misure
eseguite sui sistemi fisici devono essere la manifestazione di proprietà oggettive possedute dagli oggetti
prima della loro misura.
Questi cambiamenti concettuali modificano di fatto anche il concetto di teoria fisica fondamentale,
poichè inevitabilmente superano il riduzionismo meccanico che aveva portato Maxwell a sperare, sulla
falsariga della riduzione della termodinamica a meccanica statistica, che l’elettromagnetismo potesse
essere ricondotto alla meccanica di vortici rotanti. La fisica quantistica sostituisce l’ipotesi che tutta la
fisica sia riducibile alla meccanica con un insieme di principi universali, che devono essere soddisfatti da
qualunque teoria fisica. Da questo punto di vista, la portata della fisica quantistica è simultaneamente
maggiore e minore di quella della meccanica classica. Maggiore, perché la fisica quantistica fornisce una
grammatica universale: un insieme di principi che qualunque teoria fisica deve soddisfare. Minore, dal
momento che è un insieme di regole privo di contenuti: una grammatica, appunto.
L’applicazione del linguaggio della fisica quantistica a specifici sistemi fisici porta alla meccanica
quantistica, alla teoria quantistica dei campi, all’ottica quantistica, e cosı̀ via. Allo stato attuale delle
nostre conoscenze non esiste fisica non quantistica: le sue regole hanno validità universale. Al più, possono
esistere sistemi la cui natura quantistica è nascosta. Per questi sistemi una descrizione classica risulta
adeguata e fornisce una buona approssimazione di un comportamento quantistico che sarebbe visibile,
almeno in linea di principio, grazie a misure sufficientemente precise.
La fisica quantistica è nata all’inizio del Novecento dall’impossibilità di spiegare mediante la fisica
classica alcuni risultati sperimentali relativi alla fisica atomica e all’interazione fra radiazione elettromagnetica e materia alla scala atomica. Ciò è dovuto al fatto che gli effetti quantistici si manifestano in
sistemi con pochi gradi di libertà (in un senso che sarà precisato più avanti), ben isolati dall’ambiente:
gli specifici ambiti in cui la scoperta è avvenuta, per l’appunto quelli della fisica atomica e dell’interazione radiazione-materia, rivestono un ruolo accidentale. L’origine storica della fisica quantistica ha
contribuito a renderla una materia particolarmente ostica; il suo già dirompente contenuto concettuale si
è infatti combinato con un insieme di complicazioni tecniche legate alla natura particolarmente complessa
dei sistemi atomici, nei quali le leggi fondamentali della fisica quantistica si manifestano solo in modo
indiretto.
La meccanica quantistica è spesso giudicata incomprensibile, talvolta citando Feynman: “nessuno
capisce la meccanica quantistica”1 . La citazione è però estrapolata dal contesto; nonostante esprima
1 R.
P. Feynman, The Character of Physical Law (Cambridge, Massachusetts, 1965)
10
Introduzione
un pensiero largamente diffuso nel secolo scorso, ciò che Feynman intendeva realmente dire è piuttosto
espresso da una frase attribuita a Niels Bohr: “chi non è sorpreso dalla meccanica quantistica non l’ha
capita” (forse apocrifa). Per quanto la fisica quantistica resti ancor oggi sorprendente, l’idea che sia
incomprensibile appartiene al passato. Gli sviluppi sperimentali e teorici degli ultimi anni hanno infatti
progressivamente portato non solo alla convinzione della validità universale dei principi quantistici, ma
anche alla loro ingegnerizzazione. Nel ventunesimo secolo, si capisce la fisica quantistica abbastanza
bene da poterla mettere alla prova in modo sottile e raffinato, tanto da sfruttarne proprio gli aspetti
più sorprendenti, come la natura fondamentalmente stocastica e il fallimento del realismo locale, per
sviluppare applicazioni tecnologiche.
Oggi abbiamo la fortuna di poter vedere l’edificio della meccanica quantistica nel suo complesso e di
poter ricostruire la fisica quantistica a partire dai suoi principi primi, che sono stati soggetti a verifiche
sperimentali accurate e convincenti. Qui seguiremo questo cammino: il nostro punto di partenza saranno
alcuni esperimenti recentemente realizzati che espongono in modo inequivocabile i principi della fisica
quantistica. In questo modo seguiremo la strada tracciata proprio da Feynman, per il quale questi
esperimenti erano ancora in gran parte ideali.
Nella prima parte del testo questi esperimenti ci serviranno a formulare i principi della fisica quantistica
nella loro forma matematicamente più semplice: il formalismo sarà sviluppato facendo esplicito riferimento
a sistemi con un numero finito di stati, e spesso a sistemi di un singolo qubit. Nella seconda parte
passeremo quindi alla formulazione della meccanica quantistica, a partire da uno studio del modo in cui
le simmetrie sono realizzate in meccanica classica. Nella terza parte la meccanica quantistica sarà studiata
nel caso unidimensionale, a partire dalla particella libera fino ad arrivare al classico problema delle piccole
oscillazioni attorno ad un minimo stabile, ossia il potenziale armonico. Nella quarta parte introdurremo il
concetto di spazi prodotto diretto che ci permetterà di affrontare problemi multidimensionali, il problema
dei due corpi e, dopo un’ampia discussione del momento angolare, il classico problema dello studio
di potenziali idrogenoidi. Passeremo quindi nella quinta parte ad uno studio dei principali metodi di
approssimazione: l’approssimazione semiclassica, che ci permetterà di introdurre la formulazione alla
Feynman della meccanica quantistica, la teoria delle perturbazioni indipendenti dal tempo, e la teoria delle
perturbazioni dipendenti dal tempo e le basi della teoria dell’urto. Infine, nella sesta parte affronteremo
brevemente le situazioni di problemi multidimensionali non separabili: particelle identiche e statistiche
quantistiche, problema dell’entanglement e disuguaglianze di Bell.
Parte I
Le basi della fisica quantistica
Capitolo 2
Concetti fondamentali
La formulazione della fisica quantistica è storicamente il risultato di un cammino lungo e tortuoso. L’insieme di principi fondamentali risultante tuttavia è semplice e compatto, anche se molto sorprendente.
Come sottolineato da Feynman1 questi principi emergono chiaramente in un esperimento rimasto a lungo
ideale: l’esperimento della doppia fenditura. Solo una modifica delle leggi fondamentali della fisica permette di spiegare i risultati di questo esperimento. L’esperimento della doppia fenditura oggi non è più
ideale. Seguendo Feynman, lo prenderemo come punto di partenza della nostra discussione: dopo una
descrizione dell’esperimento stesso, costruiremo il formalismo che ci permette di descriverne i risultati.
2.1
Le basi sperimentali della fisica quantistica
Dopo essere rimasto a lungo un esperimento ideale, l’esperimento della doppia fenditura fu realizzato
nella seconda metà del Novecento usando fasci di particelle subatomiche. Ciò può lasciare il dubbio
che il controintuitivo comportamento osservato sia legato alle proprietà delle particelle e non alle leggi
fondamentali della fisica e, come vedremo, fa sı̀ che l’esperimento si presti a diverse obiezioni. All’inizio
del XXI secolo, l’esperimento è stato realizzato da A. Zeilinger e collaboratori2 usando molecole giganti,
ossia oggetti semi-macroscopici.
2.1.1
L’esperimento della doppia fenditura
L’esperimento che descriviamo è un esperimento di diffusione. Una sorgente emette delle particelle in
direzione di una parete impermeabile con due fenditure. Ad una certa distanza da questa parete è
posto uno schermo. Le particelle che non vengono fermate dalla parete passano attraverso le fenditure
e colpiscono lo schermo. Possiamo quindi misurare il numero di particelle che arrivano in diversi punti
dello schermo con una, o l’altra, o entrambe le fenditure aperte.
Diffusione classica
Chiediamoci che cosa ci aspettiamo di vedere sullo schermo se le particelle sono oggetti classici — ad
esempio, palline da ping-pong, o granelli di sabbia, sparati uno per uno contro lo schermo. Supponiamo
che la velocità e la direzione iniziale dei granelli non sia nota esattamente, ma ne sia nota solo una
distribuzione di probabilità: ciascun granello di sabbia ha una certa probabilità di essere sparato in una
data direzione con una velocità fissata. A questa distribuzione di probabilità corrisponde una distribuzione
di risultati sullo schermo (vedere la Figura 2.1). Facciamo l’ipotesi che i granelli di sabbia siano sparati
uno per volta, e che interagiscano solo con lo schermo, per esempio realizzando l’esperimento nel vuoto,
in modo che non possano esserci interazioni con l’aria, o con l’ambiente. In tal caso, la distribuzione di
1 R. P.Feynman, The Character of Physical Law, cit.; R. P.Feynman, R. B. Leighton, M. Sands, The Feynman Lectures
on Physics (Reading, Massachusetts, 1965)
2 O. Nairz, M. Arndt, and A. Zeilinger, Am. J. Phys. 71 (2003) 319.
14
Concetti fondamentali
risultati sullo schermo riflette la distribuzione iniziale di velocità, l’urto dei granelli con lo schermo, e
nient’altro.
Ck
B1
A
B2
C
B
Figura 2.1: Distribuzione delle probabilità nel caso di granelli di sabbia
Possiamo misurare questa distribuzione di risultati contando quante particelle arrivano in ogni punto
dello schermo. Basta ripetere l’esperimento un numero molto grande di volte — accertandoci che ogni
ripetizione sia assolutamente identica. Facendo il grafico dei risultati determiniamo la probabilità che
la particella colpisca lo schermo in ogni punto. È chiaro che la distribuzione ottenuta con entrambe le
fenditure aperte è la media delle distribuzioni corrispondenti al caso in cui è aperta ciascuna delle due
fenditura, pesata con la probabilità che la particella passi proprio da quella fenditura.
Se chiamiamo P (A → Ck ) la probabilità che una granello di sabbia arrivi in Ck sullo schermo partendo
dalla sorgente A, P (A → Bi ) la probabilità che arrivi alla fenditura Bi partendo dalla sorgente, e
P (Bi → Ck ) la probabilità che arrivi in Ck partendo dalla fenditura Bi , abbiamo
P (A → Ck ) = P (A → B1 )P (B1 → Ck ) + P (A → B2 )P (B2 → Ck ).
(2.1)
Per dimostrarlo, osserviamo che il numero totale di granelli di sabbia rivelati in un punto qualunque
dello schermo è la somma di quelli che vi sono arrivati passando per la prima fenditura, più quelli che
invece sono passati per la seconda:
N (A → Ck ) =
2
X
N (Bi → Ck ),
(2.2)
i=1
avendo chiamato N (A → Ck ) il numero totali di granelli arrivati in Ck , e N (Bi → Ck ) il numero di quelli
che vi sono arrivati passando per Bi . Ma la probabilità P (A → Ck ) non è altro che il numero di particelle
rivelate in Ci , diviso per il numero totale di particelle
N (A → Ck ) = Ntot P (A → Ck ).
(2.3)
A sua volta, la probabilità che una particella arrivi in Ci passando da Bj si ottiene dividendo il numero
di particelle giunte in Ci attraverso Bj per il numero totale di particelle passate per Bj :
N (Bi → Ck ) = N (A → Bi )P (Bi → Ck ).
(2.4)
La regola di composizione delle probabilità Eq. (2.1) si ottiene immediatamente sostituendo le espressioni
dei numeri di particelle Eq. (2.3-2.4) in termini di probabilità nella Eq. (2.2).
L’esperimento di Zeilinger
Zeilinger ha realizzato questo esperimento usando molecole di fullerene (C60 ). Si tratta di molecole giganti,
fatte di 60 atomi di carbonio disposti lungo i vertici di un icosaedro troncato come mostrato in Fig. 2.2. Il
diametro di ogni molecola è dell’ordine di 10 Å, cioé 1 nm = 10−9 m. Le molecole vengono emesse con una
velocità media di 200 m/s da una sorgente, passano attraverso un primo schermo in cui sono praticate più
of the wavelets that emerge from two neighboring sl
in the United States by the architect Buckminster Fuller.31
path length difference between the two paths is eq
This new modification of pure carbon was discovered in
wavelength. Higher order interference will be spoiled
1985 by Kroto et al.32 and shown to be particularly stable
tudinal coherence in a thermal source. Velocity select
increases the longitudinal coherence length by more
and abundant when exactly 60 carbon atoms are arranged in
therefore permits the observation of higher order inte
one molecule to form the smallest natural soccer ball we
know, the buckyball, as shown in Fig. 2.
Fullerenes are appealing candidates because a successful
2.1 Le basi sperimentali della fisica quantistica
15
quantum experiment with them would be regarded as an imwhere h is Planck’s constant. Accordingly,
portant step toward the realm of our macroscopic world:
with a mass of m!1.2"10#24 kg and a v
Many of the known physical properties of buckyballs are
33
m/s, rivelate.
we find aLawavelength
more infine
closelyuno
related
to a finale,
chunk in
of corrispondenza
hot solid material
tovengono
fenditure e colpiscono
schermo
delthan
quale
distanza of "!2.8 pm.
cold schermo
atoms that
have so
far been
mattere wave
tra la sorgente e the
il primo
è simile
a quella
tra iused
due in
schermi
pari a circa un metro. Lo schermo
interference.
existence
many-particle
è di nitruro di silicio
(SiN), è The
spesso
200 nmofe collective
ha fenditure
larghe di 55states
nm e distanziate tra loro 100 nm.
like dell’esperimento
plasmons and excitons,
richrealizzazione
variety of vibrational
Parte della difficoltà
consistethe
nella
dello schermo,B.
cheThe
deve
avere fenditure
diffractive
element
rotational
modes as
well as the
concept
of anma
internal
sufficientemente and
ampie
da permettere
il passaggio
delle
molecole,
allo stesso tempo sufficientemente
molecular
temperature
are only
thesorgente
clear indicators
strette perché ogni
fenditura
possa essere
vistasome
comeofuna
di molecole puntiforme:
Because the l’ampiezza
de Broglie wavelength is ab
of the multiparticle composition of the fullerenes. And we
della fenditura deve essere quindi dello stesso ordine di grandezza del diametromagnitude
delle molecole
e tale
smaller
thandaany realistic free-s
might wonder whether this internal complexity could spoil
cal structure, we expect the characteristic s
consentirne il passaggio.
the quantum wave behavior of the center of mass motion.
ence phenomena to be small. A sophistic
To answer this question, we have set up a new experiment
therefore necessary to actually show them.
as shown in Fig. 3. It resembles very much the standard
element we used a free-standing silicon nitr
Young’s double-slit experiment. Like its historical counternominal grating constant of d!100 nm,
part, our setup also consists of four main parts: the source,
!55$5 nm and thickness of only 200 nm
the collimation, the diffraction grating, and the detector.
trajectory. These gratings are at the cuttin
technology and only a few specialists world
A. The source
make them.34
We can now calculate the deflection ang
To bringFig.
the2. buckyballs
into the
phase,
fullerene
powThe fullerene molecule
C60 ,gas
consisting
of 60
carbon atoms
arranged
fraction order in the small angle approxim
in
a
truncated
icosahedral
shape,
is
the
smallest
known
natural
soccer
ball.
der is sublimated in a ceramic oven at a temperature of about
the4. wavelength
and
the grating
constan
Fig.
Textbook
approach
to double-slit
diffraction.
First-o
Figura 2.2: I sessanta
di carbonio
cheis formano
la molecola
delmolfullereneofformano
i vertici
di
un
900 K.atomi
The vapor
pressure
then sufficient
to eject
maxima of a monochromatic wave are caused by construc
icosaedro troncato,
il
solido
archimedeo
che
ha
fatto
da
modello
a
numerosi
palloni
da
calcio.
ecules, in a statistical sequence, one by one through a small 31
of the wavelets that emerge#12
from two neighboring slits. Th
in the United States by the architect Buckminster Fuller.
2.8"10
" difference
path length
between m
the two paths is equal to
slit in the oven.
The
molecules
have
a
most
probable
velocity
!28
!
%
!
&spoiled
rad. by t
This new modification of pure carbon was discovered in
wavelength.
Higher order
interference
will be
#7fascio
d
32
La posizione vdelle
molecole
quando
incidono
sullo
schermo
finale
viene
rivelata
utilizzando
un
of
about
200
m/s
and
a
nearly
thermal
velocity
spread
of
msource. Velocity selection in
mp
1985 by Kroto et al. and shown to be particularly stable
tudinal coherence in10
a thermal
laser, diretto parallelamente
schermo
direzione
delle
— coherence
cioé, length by more than a
increasesparticelle
the longitudinal
andallo
abundant
exactly
carbonofatoms
arealla
arranged
in
Here
!when
theperpendicolarmente
full60width
the distribution
! v / v mp!60%.
v isma
therefore
permits
the
observationEq.
of higher
interferen
In
elementary
textbooks
#2$ order
is usually
one
molecule
to
form
the
smallest
natural
soccer
ball
we
facendo riferimento
alla
Figura
2.1,
diretto
perpendicolarmente
al
piano
della
figura,
in
corrispondenza
at half height.
theexpected
buckyball,
as
shownOgni
inangles,
Fig.
2. we
4 and
noting
that the first
dello schermo. Il fascio
haknow,
unathe
larghezza
didiffraction
2 µm.
volta
chefirst
unaneed
molecola
colpisce
lo schermo
in constructive in
To calculate
Fullerenes are appealing candidates because a successful when the difference between two neighbor
to know
de Broglie
wavelength
which
detercorrispondenza del
fasciothe
laser
viene
ionizzata
quest’ultimo;
la molecola
è deflessa da un
quantum
experiment
withda
them
wouldisbeuniquely
regarded
as an im- ionizzata
towhere
one
de
wavelength.
Becausefor
oura
the
momentum
of
the
molecule
campo elettrico emined
generabycosı̀
un
segnale
che
permette
il
conteggio
delle
molecole.
Il
fascio
viene
spostato
h
isBroglie
Planck’s
constant. Accordingly,
portant step toward the realm of our macroscopic world:
#24 the grating, t
at
1.2
m
downstream
from
with a mass
of m!1.2"10
kg and a veloci
Many
of the
known physicaldiproperties
of buckyballs
lungo lo schermo in passi hdi
8 µm:
la distribuzione
probabilità
si ottieneare
dal conteggio
delle
molecole
33
tween
thefind
interference
peaks
at thepm.
detecto
m/s,
we
a
wavelength
of
"!2.8
more
closely
related
to
a
chunk
of
hot
solid
material
than
to
rivelate dal laser in un
certo
intervallo
di
tempo
in
ognuno
dei
punti
campionati.
L’apparato
sperimentale
,
#1$
"!
%
!1.2
m"28
&
rad!34
&
m.
only
L"
the
cold
atoms
that
have
so
far
been
used
in
matter
wave
m
v
è mostrato in Figura 2.3.
interference. The existence of collective many-particle states
like plasmons and excitons, the rich variety of vibrational
and rotational modes as well as the concept of an internal
molecular temperature are only some of the clear indicators
of the multiparticle composition of the fullerenes. And we
might wonder whether this internal complexity could spoil
the quantum wave behavior of the center of mass motion.
To answer this question, we have set up a new experiment
as shown in Fig. 3. It resembles very much the standard
Young’s double-slit experiment. Like its historical counterpart, our setup also consists of four main parts: the source,
the collimation, the diffraction grating, and the detector.
B. The diffractive element
Fig. 3. Setup of the diffraction
are sublimated
in the
Because the demolecules
Broglie wavelength
is about
spectral
can free-stand
be improv
magnitude smaller
than coherence
any realistic
selector.
Two collimating
cal structure, we velocity
expect the
characteristic
size o
limit the angu
ence phenomenatial
to coherence
be small. and
A sophisticated
to smaller
thanshow
the expected
therefore necessary
to actually
them. Asdift
with a 100
nm period
element we used grating
a free-standing
silicon
nitrideag
to diffract
the incident
mole
nominal grating used
constant
of d!100
nm, slit
o
far-field
distribution
o
!55$5 nm andlecular
thickness
of only
200 nmisalo
laser-ionization
trajectory. Thesening
gratings
are at the detector.
cutting ed
technology and only a few specialists worldwid
A. The source
make them.34
321
Am. J. Phys., Vol. 71, No. 4, April 2003
Nairz, Arndt, and
We can now calculate the deflection angle to
To
bring
the
buckyballs
into
the
gas
phase,
fullerene
powFigura 2.3: Apparato sperimentale usato da Zeilinger e collaboratori nell’esperimento
diffrazione
con angle approximatio
fractiondiorder
in the small
der is sublimated in a ceramic oven at a temperature of about
molecole di fullerene.
of the wavelength and the grating constant,
900 K. The vapor pressure is then sufficient to eject molecules, in a statistical sequence, one by one through a small
2.8"10
m
" in
È importante notare che
distribuzione
di probabilità
si probable
riferiscevelocity
ad eventi singoli:
ogni #12
caso,
slit la
in the
oven. The molecules
have a most
!28 & rad.
%! !
#7
si osserva una sola molecola,
rivelata
sullo
schermo
finale.
Il
fatto
che
siano
osservati
eventi
singoli
d
v mp of about 200 m/s and a nearly thermal velocity spread of
10 m è
una caratteristica unica dell’esperimento
di Zeilinger.
di questo genere erano infatti stati
! v is the fullEsperimenti
width of the distribution
! v / v mp!60%. Here
elementary
textbooks Eq. #2$ is usually deriv
half height.
realizzati in precedenza conat fasci
di particelle: in tal caso, può sorgere il dubbioInche
il comportamento
4 and noting that the first constructive interfe
To
calculate
the
expected
diffraction
angles,
we
first
need
osservato sia una proprietà collettiva delle particelle del fascio, che interagiscono fra
loro.
when
the difference between two neighboring p
to know the de Broglie wavelength which is uniquely deterNell’esperimento di Zeilinger,
si
osserva
il
comportamento
di
una
particella
per
volta:
ogni conteggio
to one de Broglie
wavelength. Because our dete
mined by the momentum of the molecule
corrisponde ad una singola molecola, emessa dalla sorgente, passata attraverso lo schermo
le fenditure,
at 1.2 mcon
downstream
from the grating, the s
h
−2 −1 peaks at the detector am
tween
the9 interference
e rivelata in corrispondenza dello
schermo
finale.
Infatti,
il
flusso
di
molecole
è
di
3
×
10
cm
s
,
che
,
#1$
"!
m"28 &rad!34
&m.
only singola
L" % !1.2
v le molecole di 200 µm, 105 volte il raggio della
corrisponde ad una distanza mediamtra
molecola,
e
Fig. 3. Setup of the diffraction exper
molecules are sublimated in the oven
spectral coherence can be improved us
velocity selector. Two collimating slits
tial coherence and limit the angular sp
to smaller than the expected diffracti
grating with a 100 nm period and 50
this attractive
real slit width
molecules th
selected mole
selected beam
be understoo
interaction be
complete des
correct shape
sion function
tion of both
The full li
modified Kir
we also have
in the zeroth
!holes" of the
grating
perio
chopper right behind the source !see Fig. 3". The selection
is
To see more fringes we have to increase the coherence
length and therefore decrease the velocity spread. For this
purpose we have employed a mechanical velocity selector, as
shown after the oven in Fig. 3. It consists of four slotted
disks that rotate around a common axis. The first disk chops
the fullerene beam and only those molecules are transmitted
that traverse the distance from one disk to the next in the
same time that the disks rotateConcetti
from one fondamentali
open slot to the
16
next. Although two disks would suffice for this purpose, the
additional disks decrease the velocity spread even further and
help eliminate velocity sidebands. By varying the rotation
frequency
selector,(forze
the desired
class che
of the
oltre 1000 volte maggiore della massima portata delle
forzeoftrathemolecole
di vanvelocity
der Waals)
è
transmitted
moleculestra
candiverse
be adjusted.
To measure
the time
al massimo di circa 100 nm. È quindi esclusa qualunque
interferenza
molecole:
l’esperimento
of flight
distribution we chopped the fullerene beam with the
è a tutti gli effetti eseguito osservando una molecola
alla volta.
of course accompanied by a significant loss in count rate, but
III. CONCL
we can still retain about 7% of the unselected molecules.
In Fig. 5 both the thermal and the selected velocity distriA. Single pa
butions are shown. In contrast to the width of the thermal
It is impor
spectrum, amounting to # v / v !60%, we are able to reduce
this number to only 17% with the selector. The increaseupinfrom sing
two
longitudinal coherence by a factor of more than 3 allowsbetween
for
apparatus. Si
the observation of diffraction peaks up to at least the second
and possibly the third order, as can be seen in Fig. 7. case by two
The first a
It should also be pointed out that by using the velocity
tween
selector, we can now choose a slow mean velocity centered the mo
of 200 m/s is
about 120 m/s, which corresponds to a de Broglie wavetor. This flux
length of 4.6 pm. It is obvious that this increase in wavelength results in a wider separation of the diffraction peaks,
1.7"1011 m#
Fig. 6. Far-field diffraction of C60 using a thermal beam of v̄ !200 m/sFig.
with7. Far-field
of C60by
using
the slotted Figs.
disk velocity
whichdiffraction
can be seen
comparing
6 and selector.
7.
This is three
The absence of
higher order interference
a Figura
velocity spread
# v / v $60%.
2.4: of
Risultati
sperimentali
dell’esperimento
di Zeilinger
ottenuti
con
molecole
velocità
media
The
mean velocity
was v̄ !117
m/s,
and the aventi
widthpatterns
was
# v / vcan
$17%.
Full
In
principle,
the
diffraction
be
understood
range of mol
fringes
is due
to the
poor spectral coherence.
represent
the experimental
data.
full line is a∆v/v
numerical
model
di 200
m/s
e dispersione
∆v/v ∼ 0.6 (sinistra) e circles
velocità
media
di 117
m/s
e The
dispersione
∼ 0.17
quantitatively
within
the
Fraunhofer
approximation
of Kirchcally confine
on Kirchhoff–Fresnel diffraction theory. The van der Waals interac(destra) confrontati con un modello numerico per based
la figura
di
diffrazione.
L’introduzione
selettore
hoff’s
diffraction
theory
as it
can di
beun
found
inform
any optics
The second
tion between
the molecule
and
the
grating
wall
is
taken
into
account
in
38
However,
Fraunhofer’s
diffraction
theory
in
the
textbook.
di
velocità
riduce
la
dispersione
di
un
fattore
tre
e
permette
di
osservare
un
numero
maggiore
di
massimi
occurs
only
of
a
reduced
slit
width.
Grating
defects
!holes"
additionally
contribute
to
the
improvement of the spectral purity using a velocity filter !see
context
of
optics
misses
an
important
point
that
becomes
molecules
ma
zeroth
order.
nella
figura
di
interferenza,
nonostante
la
statistica
sia
inferiore.
Figs. 3 and 5", thereby also improving the wavelength distrievident in our experiments with matter waves and material
bution.
gratings:
the Vol.
attractive
interaction
molecule and
323
Am.
J.distribuzione
Phys.,
71, No.
April 2003di between
Figure
6 showsdell’esperimento
a typical fullereneè diffraction
pattern
with
Il risultato
rappresentato
in Figura
2.4:
laresults
dei4,conteggi
molecole
sulwall
in
an
additional
phase
of
the
molecular
wave
a lo
thermal
beam.
We sembra
can clearly
discern
first d’interferenza.
interference
schermo
finale
fornire
unathe
figura
Questo
è
il
comportamento
che
si
osserverebbe
function after the passage of the molecule through the slits.39
orders
on
both
sides
of
the
central
peak.
But
the
limited
se attraverso le fenditure passassero le onde di un fluido. Although the details of the calculations are somewhat
coherence is reflected by the fact that we cannot see any
involved,40 it suffices here to say that the qualitative effect of
second or higher order peaks in the interferogram of Fig. 6.
this
attractive force can be understood as a narrowing of the
To see more fringes
we have to increase the coherence
Interferenza
e onde
real
slit
width toward an effective slit width. For our fullerene
length and therefore decrease the velocity spread. For this
molecules
the reduction can be as big as 20 nm for the unpurpose we have employed a mechanical velocity selector, as
selected molecular beam and almost 30 nm for the velocity
shown after the oven in Fig. 3. It consists of four slotted
selected beam. The stronger effect on slower molecules can
disks that rotate around a common axis. The first disk chops
be understood by the longer and therefore more influential
the fullerene beam and only those molecules are transmitted
interaction between the molecules and the wall. However, a
that traverse the distance from one disk to the next in the
complete description would need to take into account the
same time that the disks rotate from one open slot to the
correct shape of the complex !imaginary and real" transmisnext. Although two disks would suffice for this purpose, the
sion function, which implies the position-dependent modulaadditional disks decrease the velocity spread even further and
tion of both the molecular amplitude and phase.
help eliminate velocity sidebands.
By varying the rotation
A
The full lines in Figs. 6 and 7 are fits of our data to this
frequency of the selector, the desired velocity class of the
modified
Kirchhoff–Fresnel theory. To obtain such a good fit
transmitted molecules can be adjusted. To measure the time
we
also
have
to take into account an enhanced contribution
of flight distribution we chopped the fullerene beam with the
in the zeroth order which we attribute to mechanical defects
!holes" of the grating which are significantly larger than the
C
B
grating period.
III. CONCLUDING REMARKS
Figura 2.5: Figura di interferenza generata da onde che si propagano attraverso due fenditure.
A. Single particle interferometry
It is important
to note di
thatgranelli
the interference
Il comportamento ondulatorio di un fluido differisce da quello
di un insieme
di sabbiapattern
nel is built
single, separate
Therediissabbia,
no interference
modo in cui si sovrappongono le sorgenti e si compongonouple from
probabilità.
Nel casoparticles.
dei granelli
between two la
or probabilità
more particles
their evolution
vale la Eq. (2.1): la probabilità di un evento si ottiene componendo
deiduring
sotto-eventi.
Se in the
apparatus. Single particle interference is evidenced in our
il granello di sabbia è arrivato in Ci deve essere passatocase
o da
da B2 e quindi
la probabilità di
1 oindependent
by B
two
arguments.
vederlo in Ci si ottiene sommando la probabilità delle alternative
che
portano
a
questo
The first argument is based onrisultato,
the spatialovvero
separation bela probabilità che arrivi in Ci passando da B1 e quella chetween
vi arrivi
passando
da
B
.
2
the molecules. The molecular flux at an average speed
of 200 m/s is $3"109 cm#2 s#1 at the plane of the detector. This flux corresponds to an average molecular density of
1.7"1011 m#3 or an average molecular distance of 200 %m.
Fig. 7. Far-field diffraction of C60 using the slotted disk velocity selector.
This is three orders of magnitude wider than any realistic
The mean velocity was v̄ !117 m/s, and the width was # v / v $17%. Full
range of molecular !van der Waals" forces, which are typicircles represent the experimental data. The full line is a numerical model
cally confined to several 100 nm.
based on Kirchhoff–Fresnel diffraction theory. The van der Waals interacThe second argument is based on the fact that interference
tion between the molecule and the grating wall is taken into account in form
2.1 Le basi sperimentali della fisica quantistica
17
Ma il caso delle onde è diverso. Se A è la sorgente di un’onda, l’onda passa simultaneamente da B1
e da B2 (si veda la Figura 2.5). Se le due fenditure sono sufficientemente strette, ciascuna di esse può
essere a sua volta interpretata come una sorgente puntiforme, e le due onde che escono dalle due fenditure
si sovrappongono secondo il principio di Fresnel. Per capirlo, ricordiamo che un’onda è caratterizzata da
un’ampiezza A, da una frequenza ω , e da una fase ϕ:
R = A cos(ωt + ϕ),
(2.5)
che possiamo anche scrivere in termini di un numero complesso
W = Aei(ωt+ϕ) .
R = Re W,
(2.6)
Notiamo che l’ampiezza è pari al modulo:
A = |W |.
(2.7)
La sovrapposizione di due onde dipende da tutt’e tre queste caratteristiche. Consideriamo per
semplicità il caso di due onde aventi fasi diverse, ma la stessa ampiezza e la stessa fase:
W1 = Aei(ωt+ϕ1 ) ,
W2 = Aei(ωt+ϕ2 ) .
(2.8)
La sovrapposizione di queste due onde è data da
R = R1 + R2 = Re (W1 + W2 )
= Re Aeiωt eiϕ1 + eiϕ2
ϕ1 −ϕ2
ϕ1 −ϕ2
ϕ1 +ϕ2
= Re Aeiωt+i( 2 ) ei( 2 ) + e−i( 2 )
ϕ1 + ϕ2
ϕ1 − ϕ2
cos
+ ωt
= 2A cos
2
2
ϕ1 +ϕ2
ϕ1 − ϕ2
= Re 2A cos
ei( 2 +ωt) .
2
La sovrapposizione è quindi un’onda di ampiezza
ϕ1 − ϕ2
AR = 2A cos
= |W1 + W2 |.
2
(2.9)
(2.10)
(2.11)
Questo significa che se le due onde hanno la stessa fase, si sommano, ma se hanno fasi diverse possono
interferire sia costruttivamente che distruttivamente, e se sono sfasate in modo che una abbia un massimo
mentre l’altra ha un minimo si cancellano.
Se dalla sorgente dell’esperimento partono onde, l’onda risultante in ogni punto dello schermo finale si
ottiene sovrapponendo le onde che provengono dalle due fenditure. Se le due fenditure sono equidistanti
dalla sorgente le onde arrivano su ciascuna fenditura dalla sorgente con la stessa fase. Quando le onde
arrivano sullo schermo hanno quindi una differenza di fase che dipende dalla diversa distanza del punto
dello schermo da ciascuna delle fenditure:
ϕ1 − ϕ2 =
2π
∆L,
λ
(2.12)
dove λ è la lunghezza d’onda, e ∆L è la differenza della lunghezza dei cammini tra le due fenditure ed il
punto dato dello schermo. Questa è a sua volta
∆L = d sin θ
(2.13)
dove d è la distanza tra le fenditure, θ l’angolo formato dai due cammini con la retta parallela ai due
schermi e abbiamo supposto che tale angolo sia lo stesso per entrambi i cammini nel limite in cui la
distanza fra i due schermi è molto più grande di d (vedi Figura 2.6).
18
Concetti fondamentali
Figura 2.6: Differenza di fase tra i cammini
2.1.2
Onde e particelle
Un attimo di riflessione mostra che i risultati dell’esperimento di Zeilinger dal punto di vista della meccanica classica sono contraddittori. Infatti, nell’esperimento si misura la distribuzione di singole molecole.
Le distribuzioni di oggetti singoli si sommano secondo la Eq. (2.1), come rappresentato nella Figura 2.1.
Questo, come abbiamo visto è conseguenza della Eq. (2.2), ossia del fatto che il singolo oggetto passa o
da una fenditura o dall’altra.
Ma il risultato dell’esperimento di Zeilinger invece mostra il comportamento che corrisponde a distribuzioni che si sommano come le onde, cioè secondo la Eq. (2.10). D’altra parte
q
(2.14)
|R1 + R2 | = |R1 |2 + |R2 |2 + 2Re(R1 R2∗ ) 6= |R1 | + |R2 |,
come è del resto ovvio dalle figure: la sovrapposizione di onde può essere distruttiva, ma quella di conteggi
di particella singola no. Siamo quindi obbligati a concludere che non è vero che la particella è passata
da una fenditura o dall’altra: una conclusione che contraddice un principio di base della meccanica
classica, e cioè che la traiettoria di un oggetto è definita in modo unico, da una posizione ed una velocità
univocamente determinate a tutti i tempi t.
D’altra parte, questo è a sua volta un fatto sperimentalmente verificabile: possiamo immaginare di
mettere un rivelatore nei pressi delle fenditure (o anche solo di una di esse) che ci permetta di vedere
da quale fenditura la molecola è passata prima di essere rivelata. In pratica, questo è stato realizzato
da Zeilinger in un esperimento successivo3 realizzando l’esperimento in una camera a vuoto, e ripetendo
l’esperimento quando nella camera si inietta un gas di pressione crescente: l’interazione delle molecole
con il gas permette di ottenere informazione sul cammino seguito dalla molecola.
R
A
B
C
Figura 2.7: Esperimento con rivelatore
Eseguendo l’esperimento, si osserva che se è possibile osservare da che fenditura è passata la particella,
la figura di interferenza scompare (si veda Figura 2.7) e si trova il risultato classico dell’Eq. (2.1). Non c’è
quindi contraddizione: effettivamente se la particella passa o da una fenditura o dall’altra, le probabilità
si sommano.
3 L.
Hachermüller, K. Hornberger, A. Zeilinger e M. Arndt, and , Appl. Phys. B77 (2003) 781
2.2 Stati
19
Siamo cosı̀ costretti a concludere che quando si osserva la figura di interferenza non ha senso chiedersi
da quale fenditura sia passata la molecola, perché se lo facciamo otteniamo una contraddizione logica.
Il fatto che le probabilità non si sommano quando non sappiamo da che fenditura la molecola è passata
si può solo spiegare dicendo che, se non misuriamo da che fenditura è passata, non possiamo dire che
la particella sia passata da una fenditura o dall’altra. Siamo obbligati a concludere che l’affermazione
(classica) che la particella è passata o da una fenditura o dall’altra quantisticamente non è vera.
2.1.3
Dall’esperimento ai principi
L’esperimento di Zeilinger ci permette di formulare alcuni principi base della fisica quantistica.
1. I sistemi quantistici hanno un comportamento intrinsecamente casuale. Non possiamo predire
il risultato di una misura quantistica (nell’esperimento di Zeilinger, la posizione di arrivo della
particella sullo schermo), ma solo la sua probabilità.
2. Lo stato del sistema, cioè l’informazione che ci permette di calcolare queste probabilità, si comporta
come un’onda. In particolare, sistemi composti da sottosistemi (le due fenditure) si sovrappongono
secondo le leggi di composizione dei fenomeni ondulatori (principio di Fresnel).
3. Le misure rivelano eventi singoli.
4. Le probabilità di eventi singoli si compongono secondo le leggi della probabilità standard.
Un modo di riassumere questi principi è noto come “interpretazione di Copenhagen” della fisica
quantistica: quando si esegue una misura del sistema, il suo stato cambia, “collassando” in uno degli stati
corrispondenti ai risultati possibili della misura. Finchè il collasso non avviene, le diverse alternative (i
diversi stati del sistema, come passare dall’una o dall’altra fenditura in assenza di rivelatore) interferiscono,
ma dopo aver eseguito la misura l’interferenza scompare perché lo stato del sistema è quello corrispondente
all’alternativa che si è effettivamente realizzata. Questo modo di descrivere la situazione è forse idealizzato,
un po’ come i punti materiali, e le palline che rotolano senza strisciare in assenza di attrito che si usano
comunemente nel formulare la meccanica classica. È però del tutto adeguato in pratica: per il momento
lo adotteremo e solo molto più avanti ci interrogheremo sulle sue eventuali limitazioni e sul suo significato
profondo, nella Sezione 8.5.2 e nell’ultimo Capitolo 15.
Per il momento, limitiamoci a capirne con precisione il significato. Lo stato del sistema rappresenta
l’informazione che noi abbiamo su di esso. Visto che gli eventi fondamentali sono casuali, possiamo dire
solo a posteriori quale di essi si è realizzato: a priori lo stato ci permette solo di calcolare la probabilità
che un particolare evento si realizzi. Quando osserviamo quale evento si è realizzato, l’informazione che
abbiamo sul sistema cambia. Questo cambiamento è ciò che descriviamo come “collasso” della funzione
d’onda: il “collasso” della funzione d’onda esprime il fatto che noi osserviamo il verificarsi di uno dei tanti
eventi possibili. In questo contesto che l’evento sia stato “osservato” significa che il sistema ha interagito
con qualche cosa che permette di tenere traccia di ciò che è accaduto. Nell’esempio che abbiamo discusso,
l’evento “particella rivelata in un punto dello schermo” ha una probabilità che possiamo calcolare noto
lo stato del sistema. Questo stato è la sovrapposizione di due stati, corrispondenti al passaggio della
particella da ciascuna delle fenditure. Dopo aver rivelato sullo schermo lo stato diventa, in conseguenza
dell’osservazione, quello corrispondente alla particella nel punto in cui è stata vista. Se però introduciamo
un qualunque apparato che ci permette di rivelare da quale fenditura la particella passa, lo stato del
sistema cambia nel momento in cui la particella passa dall’una fenditura o dall’altra, in conseguenza
di questa prima misura, che ci dice da dove la particella è passata. Poiché lo stato non è più una
sovrapposizione quando facciamo la seconda misura, che dice dove la particella è arrivata sullo schermo,
non osserviamo più l’interferenza.
2.2
Stati
Come abbiamo visto, la natura casuale degli eventi quantistici ci obbliga ad introdurre un concetto nuovo:
quello di stato del sistema. Lo stato è l’oggetto che ci permette di calcolare la probabilità degli eventi, e
20
Concetti fondamentali
contiene quindi l’informazione che abbiamo sul sistena. In termini di stati possiamo formulare in modo
più preciso e quantitativo i principi enunciati nella Sezione 2.1.3.
2.2.1
Bra, ket e sovrapposizione
Per descrivere gli stati di un sistema quantistico, utilizziamo una notazione introdotta da Dirac. Uno stato
del sistema è associato ad un oggetto chiamato ket. Un ket viene rappresentato mediante la notazione
|xi. Gli stati che caratterizzano il sistema sono esclusivi ed esaustivi : ciascuno di essi corrisponde ad
un possibile risultato distinto di una misura (esclusivi), e il loro insieme corrisponde a tutti i risultati
possibili (esaustivi).
In questo capitolo e nel seguente, per semplicità, considereremo in particolare un sistema che può
trovarsi solo in due stati. Questo sistema viene denominato qubit, perchè, come vedremo nel prossimo
capitolo, è il sistema quantistico che contiene la minima quantità di informazione. Tuttavia, tutti i
risultati che discuteremo si generalizzano facilmente a sistemi che si trovano in un numero qualunque di
stati. Un sistema a due stati ha una sola proprietà, e la sua misura può dare uno solo di due risultati
possibili. Nell’esempio della sezione precedente, |+i e |−i potrebbero corrispondere rispettivamente a “la
particella è passata per la fenditura B1 ” e “la particella è passata per la fenditura B2 ”.
Misura
Per descrivere la situazione discussa nel capitolo precedente, supponiamo che il sistema si possa in generale
trovare in una qualunque sovrapposizione dei due stati (ad esempio, se non misuriamo da quale delle due
fenditure è passato). Il più generale stato è una combinazione dei due stati |±i:
|ψi = a+ |+i + a− |−i,
(2.15)
dove a+ e a− sono in generale dei numeri complessi, che interpretiamo nel modo seguente: quando
misuriamo il sistema la probabilità che la misura dia l’uno o l’altro dei due risultati possibili è
P± = |a± |2 .
(2.16)
Se normalizziamo le probabilità a 1 ne segue che a± devono soddisfare la condizione di normalizzazione
|a+ |2 + |a− |2 = 1.
(2.17)
Prima della misura lo stato ci dice qual è la probabilità dei possibili risultati della misura. Dopo la
misura sappiamo con certezza che risultato abbiamo ottenuto. Quindi dopo la misura il sistema si trova o
nello stato |+i, o nello stato |−i. Lo stato del sistema ci dice che informazione abbiamo sui risultati delle
misure: questa informazione è in generale probabilistica. Ma dopo la misura, l’informazione è completa:
sappiamo in che stato si trova il sistema. Si trova nello stato nel quale la misura ci ha detto che è. Quindi
la misura cambia lo stato del sistema. Ripetiamo ancora una volta che è ovvio che l’informazione che
abbiamo sul sistema cambia nel momento in cui lo misuriamo. Ciò che non è ovvio è che in generale
prima di eseguire la misura tale informazione non sia completa, ma solo probabilistica.
Sovrapposizione
Visto che vogliamo che gli stati si possano sovrapporre come onde, supponiamo che valga il principio di
sovrapposizione: dati due stati qualunque |ψ1 i e |ψ2 i, dati da
|ψ1 i = a1+ |+i + a1− |−i
|ψ2 i = a2+ |+i + a2− |−i
(2.18)
anche la loro sovrapposizione |ϕi
|ϕi = N c1 |ψ1 i + c2 |ψ2 i
(2.19)
2.2 Stati
21
è uno stato (e più in generale lo è qualunque loro combinazione lineare); N è una costante di normalizzazione, che introduciamo se vogliamo che anche per lo stato |ϕi valga una condizione di normalizzazione
della forma della (2.17). Lo stato sovrapposizione |ϕi è anch’esso possibile ed è dato da una combinazione
lineare degli stati. Qualunque sovrapposizione di stati genera un nuovo stato possibile.
Come esempio, consideriamo un sistema che si trova in una sovrapposizione, con uguale probabilità,
dei due stati |ψ1 i e |ψ2 i Eq. (2.18):
1
|ϕi = √ |ψ1 i + |ψ2 i
2
1 = √ a1+ + a2+ |+i + a1− + a2− |−i .
2
(2.20)
Quale è la probabilità di |+i e di |−i? Notiamo essa non si ottiene componendo le probabilità, perché
c’è un termine di interferenza:
1
|a1± + a2± |2
2
1
=
|a1± |2 + |a2± |2 + a1± a∗2± + a2± a∗1±
2
P± =
(2.21)
e quindi
P± 6=
1
(P1± + P2± ).
2
(2.22)
Possiamo vedere questo esempio come una realizzazione idealizzata del caso discusso nella situazione
precedente, in cui sullo schermo finale vi siano solo due posizioni C+ e C− . In tal caso i due stati |±i
corrispondono al fatto che la molecola venga rivelata nell’una o nell’altra di queste posizioni sullo schermo.
Gli stati |ψ1 i e |ψ2 i possono essere interpretati come gli stati che corrispondono a rivelare che il sistema
è passato da ciascuna delle due fenditure, mentre lo stato |ϕi Eq. (2.20) è lo stato in cui il sistema si
trova quando entrambe le fenditure sono aperte. Quindi le probabilità P± sono le probabilità di rivelare
la particella sullo schermo, e la Eq. (2.22) ci dice che è violata la legge di composizione classica delle
probabilità Eq. (2.1).
Notiamo che se invece si esegue una misura che determina da che fenditura la particella è passata
essa dopo la misura si trova nello stato |ψ1 i quando passa dalla fenditura superiore, e nello stato |ψ2 i se
passa da quella inferiore. Le probabilità dei risultati di questa misura sulla fenditura sono entrambe 21 ,
come si vede dalla Eq. (2.20). In seguito, le probabilità dei risultati della misura sul secondo schermo si
trovano usando la Eq. (2.16), ma con il sistema posto o nello stato |ψ1 i o nello stato |ψ2 i. Quindi in tal
caso vale la legge di composizione classica delle probabilità. Se, grazie ad una misura precedente, è nota
la fenditura da cui la particella è passata, l’interferenza scompare.
2.2.2
Prodotto scalare
Per descrivere il principio fisico di sovrapposizione abbiamo supposto che lo spazio degli stati fisici sia
uno spazio vettoriale complesso, di cui i ket sono vettori; è naturale supporre che in questo spazio sia
definito il concetto di norma di un vettore, che assoceremo naturalmente alla probabilità di un evento.
Uno spazio vettoriale normato (e completo) è detto spazio di Banach. Ma il fatto che i ket siano associati
a risultati indipendenti di misure porta naturalmente a vederli come vettori di base, e questo a sua volta
suggerisce di introdurre un prodotto scalare.
A questo fine, poniamo ogni ket in corrispondenza con un bra:
|ψi ↔ hψ|
e definiamo il prodotto scalare tra due stati |ψi e |ϕi come
hψ|ϕi.
Il prodotto bra-ket ha le seguenti proprietà:
(2.23)
22
Concetti fondamentali
• hψ|ϕi ∈ C;
• hψ|ϕi = hϕ|ψi∗ (hermitianità o hermiticità);
• hψ|ψi ≥ 0 (positività; notare che la proprietà di hermiticità implica che hψ|ψi è reale);
• se |ϕi = a|+i + b|−i allora hψ|ϕi = ahψ|+i + bhψ|−i (linearità).
Lo spazio dei bra è lo spazio vettoriale duale dello spazio dei ket: infatti se |ψi = a|+i + b|−i allora
hψ| = a∗ h+| + b∗ h−|. Infatti:
†
†
hψ|ϕi = hϕ|ψi = hϕ|+ia + hϕ|−ib = a∗ h+| + b∗ h−| |ϕi
Dal punto di vista matematico, lo spazio dei bra è lo spazio degli operatori lineari a valori complessi
che agiscono sullo spazio dei ket (ossia lo spazio duale a quello dei ket). Come si è visto negli esempi
precedenti, infatti, un elemento dello spazio dei bra agisce su un elemento dello spazio dei ket e restituisce
un numero complesso. Si può mostrare che se lo spazio dei ket è finito-dimensionale, lo spazio dei bra
è isomorfo ad esso; il caso infinito-dimensionale comporta delle complicazioni matematiche in cui non ci
addentriamo. Uno spazio vettoriale lineare con un prodotto scalare è detto spazio di Hilbert. Lo spazio
degli stati fisici della meccanica quantistica è uno spazio di Hilbert.
2.2.3
Vettori di base e misura
I due stati |±i in cui il sistema si può trovare possono essere visti come una base ortonormale rispetto al
prodotto scalare appena introdotto:
h+|+i = h−|−i = 1
(2.24)
h+|−i = h−|+i = 0.
(2.25)
La probabilità Eq. (2.16) del risultato di una misura può ora essere vista come la lunghezza della
proiezione dello stato |ψi in cui il sistema si trova lungo il vettore di base che corrisponde al risultato
della misura stessa. Infatti, se lo stato è dato dalla Eq. (2.15) la probabilità di trovare ciascuno dei due
possibili risultati della misura è
P± = |h±|ψi|2 = |a± |2 .
(2.26)
Notiamo infine che la normalizzazione dello stato, che possiamo fissare secondo la Eq. (2.17), è il
prodotto scalare dello stato con se stesso
hψ|ψi = h+|a∗+ + h−|a∗− (a+ |+i + a− |−i) = |a+ |2 + |a− |2 ,
(2.27)
dove per eseguire il calcolo abbiamo usato l’espressione esplicita Eq. (2.15) dello stato e le condizioni di
ortonormalizzazione Eq. (2.24). La Eq. (2.27) è detta appunto norma dello stato |ψi.
Naturalmente, vi è un’infinità di basi ortonormali possibili. Ad esempio, consideriamo i due stati
1
|ψ1 i = √ |+i + |−i
2
1
|ψ2 i = √ |+i − |−i .
2
(2.28)
Notiamo che
hψ1 |ψ2 i = hψ2 |ψ1 i = 0;
hψ1 |ψ1 i = hψ2 |ψ2 i = 1.
(2.29)
(2.30)
Quindi anche gli stati |ψ1 i e |ψ2 i formano una base ortonormale.
2.2 Stati
23
Finora abbiamo supposto che lo stato del sistema sia scritto in una base di stati corrispondenti a
tutti i risultati di misure. Tuttavia, come abbiamo visto, vi sono infinite basi possibili. In effetti, dato
un qualunque stato |ϕi che corrisponde ad un risultato ben determinato per la misura di una osservabile
possiamo supporre che faccia parte di una base, se combinato con altri stati che corrispondono agli altri
risultati possibili: per esempio, uno dei due stati |ψi i Eq. (2.18) che corrispondono al passaggio della
particella da una delle due fenditure.
Possiamo quindi in generale interpretare il modulo del prodotto scalare
Pϕψ = |hϕ|ψi|2
(2.31)
come la probabilità che un sistema che si trova nello stato |ψi dia sotto misura il risultato associato a
|ϕi. Naturalmente, dopo la misura, il sistema si trova nello stato |ϕi .
Questo dà luogo ad una situazione interessante. Consideriamo gli stati |ψi i Eq. (2.28). Supponiamo
che il sistema si trovi inizialmente nello stato |ψ1 i. Esso quindi non si trova nello stato |ψ2 i, che è ad
esso ortogonale. Eseguiamo ora la misura per determinare se il sistema si trovi in |+i od in |−i. Nel
50% dei casi troveremo che esso si trova in |+i . Dopo la misura il sistema quindi è nello stato |+i. Ora
misuriamo di nuovo se il sistema si trovi nello stato |ψ2 i. È facile vedere che nel 50% dei casi troveremo
che esso si trova in |ψ2 i. Quindi la misura intermedia di |±i ha rigenerato la componente |ψ2 i dello stato
|ψ1 i, inizialmente assente.
2.2.4
La relazione di completezza
Alcune delle manipolazioni che abbiamo compiuto possono essere considerevolmente semplificate mediante
una osservazione semplice, ma di notevole portata. Osserviamo infatti che possiamo scrivere un ket di
stato |ψi come
|ψi = h+|ψi|+i + h−|ψi|−i = |+ih+| + |−ih−| |ψi
Di conseguenza abbiamo che
|+ih+| + |−ih−| = I
(2.32)
lascia invariato lo stato ed è quindi una rappresentazione dell’operatore identità. La Eq. (2.32) è nota
come relazione di completezza o risoluzione d’identità.
Il risultato vale in generale nel caso in cui i risultati possibili per la misura siano n, per cui, data una
base
|ei i i = 1....n
(2.33)
hei |ej i = δij
(2.34)
la condizione di ortonormalità è
dove δij è la delta di Kronecker definita come
(
δij =
0 se i 6= j
1 se i = j
.
(2.35)
In tal caso, la risoluzione dell’identità è
I=
X
|ei ihei |.
(2.36)
i
La risoluzione dell’identità semplifica diversi calcoli, tra cui:
• decomposizione di un vettore su una base: da
X
X
|ψi =
|ei ihei |ψi =
|ei icψ
i
i
(2.37)
i
si ha
cψ
i = hei |ψi;
(2.38)
24
Concetti fondamentali
• calcolo della norma di un vettore
hψ|ψi =
X
X ψ
hψ|ei ihei |ψi =
|ci |2 ;
i
(2.39)
i
• prodotto scalare tra due vettori
hϕ|ψi =
X
hϕ|ei ihei |ψi =
i
2.3
X ϕ ψ
(ci )∗ ci .
(2.40)
i
Operatori
L’operazione di misura come descritta finora presuppone la conoscenza di un insieme esclusivo ed esaustuvo di stati associati ai risultati della misura. Come si è visto, vi possono essere diversi insiemi di stati,
quindi diverse misure possibili, per lo stesso sistema. Per caratterizzare questa situazione, ed in particolare studiare e classificare tutte le possibili misure che possono essere eseguite su un sistema, conviene
introdurre il concetto di operatore.
2.3.1
Operatori e matrici
Un operatore è un oggetto che applicato ad un qualunque stato fisico dà un altro stato fisico
A|ψi = |ψ 0 i,
(2.41)
ossia, più formalmente, un’applicazione dello spazio degli stati fisici in se stesso. Noi considereremo
specificamente operatori lineari, cioè tali che
A a1 |ψ1 i + a2 |ψ2 i = a1 A|ψ1 i + a2 A|ψ2 i
(2.42)
L’azione di un operatore lineare è interamente determinata dalla sua azione su un insieme ket di base.
Infatti, decomponendo uno stato qualunque |ψi su una base di stati ei i, con coefficienti cψ
i = hei |ψi) (si
ricordi la Eq. (2.38)) si ha
X ψ
|ψ 0 i = A|ψi =
ci A|ei i.
(2.43)
i
Ma possiamo anche decomporre ciascuno degli stati ottenuti dall’azione di A sui ket di base:
X
|e0i i ≡ A|ei i =
cA
ji |ej i
(2.44)
j
0
con cA
ji = hej |ei i. Quindi
|ψ 0 i =
X
A
cψ
i cji |ej i.
(2.45)
ij
Nella notazione di Dirac, la linearità è implicita nel formalismo, e questo risultato si può ritrovare
semplicemente utilizzando la risoluzione dell’identità:
X
X
X
A|ψi =
A|ei ihei |ψi =
|ej ihej |A|ei ihei |ψi =
|ej iAji cψ
(2.46)
i
i
ij
ij
L’equazione (2.46) può essere letta come l’affermazione che qualunque operatore lineare può essere
rappresentato come
X
A=
|ei iAij hej |
(2.47)
ij
2.3 Operatori
25
dove abbiamo indicato con
Aij ≡ cA
ij = hei |A|ej i.
(2.48)
gli elementi di matrice dell’operatore. Associamo cosı̀ a qualunque operatore una matrice.
Notiamo che l’azione successiva di due operatori è data da
X
AB|ψi =
|ei ihei |A|ej ihej |ek ihek |B|el ihel |ψi
ijkl
=
X
|ei iAij Bjl cψ
l ,
(2.49)
ijl
dove nel passaggio intermedio abbiamo utilizzato l’ortonormalità Eq. (2.34). Si vede cosı̀ che l’azione
successiva di due operatori è pari a quella dell’operatore la cui matrice è il prodotto (righe per colonne)
delle matrici associate ai due operatori che agiscono successivamente. Si noti che, ovviamente, il risultato
in generale cambia a seconda dell’ordine con cui i due operatori agiscono.
Complemento 1. Potenze e funzioni di una matrice.
Cosı̀ come possiamo definire il prodotto di due matrici, possiamo definire le potenze di una matrice.
Di conseguenza, possiamo anche definire una funzione di una matrice attraverso il suo sviluppo in
serie di Taylor. Per esempio, possiamo definire l’esponenziale di una matrice come
eA =
∞
X
1 n
A .
n!
n=0
(2.50)
Calcoliamolo esplicitamente in un caso concreto: prendiamo ad esempio
0 1
A=
.
1 0
(2.51)
Possiamo calcolare l’esponenziale usandone la definizione, ed osservando che la matrice A ha la
proprietà che A2k = I, A2k+1 = A con k ∈ N. Questo significa che
eA =
X 1
X 1
I+
A = cosh(1)I + sinh(1)A
n!
n!
n pari
(2.52)
n dispari
e quindi abbiamo
eA =
cosh(1)
sinh(1)
sinh(1)
cosh(1)
.
(2.53)
Un altro caso in cui il calcolo si può fare esplicitamente è quando la matrice è diagonale, infatti se
λ1 0
B=
.
(2.54)
0 λ2
allora si vede immediatamente, di nuovo usando la definizione, che
λ
e 1
0
eB =
.
0 eλ2
(2.55)
Osserviamo che questo è vero per qualunque funzione che ammette uno sviluppo in serie di Taylor:
f (λ1 )
0
f (B) =
,
(2.56)
0
f (λ2 )
26
Concetti fondamentali
dove quindi f potrebbe essere ad esempio una funzione trigonometrica come il seno od il coseno.
Quest’ultimo risultato prende una forma particolarmente suggestiva usando la notazione di Dirac.
Se la matrice B è diagonale la possiamo scrivere in notazione di Dirac come
X
B=
λi |ei ihei |.
(2.57)
i
L’Equazione 2.56 in questa notazione diventa
X
f (B) =
f (λi )|ei ihei |.
(2.58)
i
Osserviamo infine che possiamo usare questo fatto per determinare esplicitamente la funzione di
una matrice se siamo in grado di diagonalizzarla. Infatti, se conosciamo una matrice T tale che
C = T −1 C̄T
(2.59)
tale che C̄ sia diagonale, possiamo calcolare l’esponenziale come
1
1
eC = 1 + C + C 2 + . . . = 1 + T −1 C̄T + T C̄ 2 T −1 + . . . = T eC̄ T −1 .
2
2
(2.60)
Visto che C̄ è diagonale possiamo calcolarne l’esponenziale usando l’Eq. (2.55).
Possiamo usare questo metodo per calcolare di nuovo l’esponenziale della matrice A Eq. (2.54).
In questo caso abbiamo che
−1 1
T =
.
(2.61)
1 1
mentre Ā è
Ā =
Troviamo quindi
1
−1 1
A
e
e =
1 1
0
0
e
− 12
1
2
1
2
1
2
−1
0
=
0
1
.
1
e
2e + 2
e
1
2 − 2e
(2.62)
e
1
2 − 2e
1
e
2e + 2
=
cosh(1)
sinh(1)
sinh(1)
,
cosh(1)
(2.63)
come nel caso precedente.
2.3.2
Operatore associato ad un’osservabile
È naturale associare un operatore a ciascuna osservabile fisica, come conseguenza del fatto che un’osservabile è caratterizzata dall’insieme di stati |ei i che corrispondono ai possibili risultati della sua misura,
oltre che, ovviamente, ai valori λi dell’osservabile misurata (come, ad esempio, la posizione sullo schermo,
o l’indice che numera le fenditure). Notare che gli stati |ei i sono sempre una base, se supponiamo che i
risultati delle misure dell’osservabile siano esclusivi ed esaustivi.
Per capire l’origine della relazione tra osservabili ed operatori, supponiamo di voler calcolare il valor
medio di misure ripetute di una certa osservabile O, per un sistema che si trova in un certo stato |ψi.
Esso è solitamente indicato con hOi, ed è dato da
hOi =
X
i
λi Pi =
X
i
λi |hei |ψi|2 .
(2.64)
2.3 Operatori
27
Possiamo interpretare questo risultato definendo l’operatore associato all’osservabile
X
O=
λi |ei ihei |.
(2.65)
i
Il valor medio è quindi l’elemento di matrice di tale operatore nello stato dato:
hOi = hψ|O|ψi,
(2.66)
infatti
hψ|O|ψi =
X
λi hψ|ei ihei |ψi =
X
i
λi |hei |ψi|2 .
i
Possiamo quindi associare ad ogni osservabile un operatore della forma Eq. (2.66). Notiamo che
O|ei i = λi |ei i.
(2.67)
Questo vuol dire che i possibili stati |ei i in cui il sistema si trova dopo la misura sono autostati dell’osservabile, ed i possibili risultati λi della misura sono gli autovalori associati a tali autostati. Visto che
l’osservabile è completamente caratterizzata dalla sua matrice, ma una matrice è a sua volta completamente caratterizzata dai suoi autovalori ed autovettori, la definizione Eq. (2.65) ci permette di associare
(bi)univocamente un operatore ad un’osservabile.
Notiamo tuttavia che la condizione che si tratti di un’osservabile si riflette nella richiesta che gli
autostati |ei i siano ortonormali (risultati della misura esclusivi ed esaustivi) e che gli autovalori λi siano
reali (nessuna di queste due proprietà dipende dalla scelta di base). Quindi gli operatori associati ad
osservabili sono quelli con autovettori ortonormali ed autovalori reali.
La matrice associata Oij , se espressa nella base fornita dagli stati |ei i, è diagonale: infatti
Oij = λi δij .
(2.68)
Quindi in questa base un’osservabile è descritta da una matrice diagonale con elementi reali. Ci chiediamo
quale sia la condizione in una base generica.
Aggiunto di un operatore e operatori hermitiani
A questo fine, introduciamo il concetto di aggiunto di un operatore. Dato un qualunque operatore A tale
che
A|ψi = |ψ 0 i,
(2.69)
il suo aggiunto, che si denota con A† , è l’operatore tale che
hψ 0 | = hψ|A† .
(2.70)
Usando la definizione, possiamo facilmente determinare la relazione tra elementi di matrice di A e di
A† . Abbiamo che
hϕ|A|ψi = hϕ|ψ 0 i,
†
(2.71)
0
hψ|A |ϕi = hψ |ϕi,
(2.72)
ma
∗
hψ 0 |ϕi = (hϕ|ψ 0 i) ,
(2.73)
quindi
∗
hψ|A† |ϕi = (hϕ|A|ψi) .
(2.74)
28
Concetti fondamentali
In particolare, se |ϕi, |ψi sono vettori di base,
hei |A† |ej i = hej |A|ei i∗ ,
(2.75)
cioè
A†
ij
= A∗ji .
(2.76)
Quindi la matrice aggiunta si ottiene prendendo la trasposta, e poi il complesso coniugato di ogni elemento.
Complemento 2. Aggiunto del prodotto di operatori
Possiamo usare la Eq. (2.76) per calcolare l’aggiunto del prodotto di due operatori: se C = AB
allora
∗
C † = (AB)† = (AB)T = (B T AT )∗ = B † A† .
(2.77)
Equivalentemente, possiamo usare la definizione di aggiunto Eq. (2.70): scrivendo
C|φi = AB|φi = A(B|φi) = A|φ0 i = |φ00 i
(2.78)
hφ00 | = hφ0 |A† = hφ|B † A† = hφ|C †
(2.79)
vediamo che
da cui segue lo stesso risultato di prima, Eq. (2.77). In sostanza, dato un operatore che agisce
sullo spazio dei ket il suo aggiunto ne rappresenta l’azione sullo spazio dei bra, e quindi a sinistra.
Perciò se gli operatori agiscono uno dopo l’altro da destra a sinistra, i loro aggiunti agiscono uno
dopo l’altro scambiandone l’ordine, ossia da sinistra a destra.
Definiamo autoaggiunto, o hermitiano, un operatore tale che
A† = A
(2.80)
A∗ij = Aji .
(2.81)
il che quindi implica immediatamente che
Useremo anche, più raramente, il concetto di operatore anti-hermitiano, cioè tale che
A† = −A;
A∗ij = −Aji .
(2.82)
Complemento 3. Parte hermitiana e parte anti-hermitiana di un operatore
Possiamo sempre scrivere un operatore come somma di un operatore hermitiano e di un operatore
antihermitiano. Dato un generico operatore O infatti possiamo sempre riscriverlo come
O=
1
1
(O + O† ) + (O − O† ) = OH + OA ,
2
2
(2.83)
dove abbiamo definito
1
(O + O† )
2
1
OA = (O − O† ),
2
OH =
(2.84)
(2.85)
2.3 Operatori
29
ed è immediato verificare che
†
OH = OH
;
†
OA − OA
,
(2.86)
cioè OH ed OA sono rispettivamente la parte hermitiana e la parte antihermitiana di O. Osserviamo
che gli elementi diagonali di OH sono reali, e quelli di OA sono immaginari puri: la Eq. (2.83) è
l’analogo per un operatore di scrivere un numero complesso come somma della sua parte reale e
della sua parte immaginaria.
Proprietà degli operatori associati ad osservabili
Si vede immediatamente che l’operatore associato ad un’osservabile O Eq. (2.65) è autoaggiunto, infatti
i suoi elementi di matrice Eq. (2.68) soddisfano
†
Oij
= λ∗i δji = λi δij = Oij .
(2.87)
Tale proprietà non dipende dalla scelta di base. Infatti in una base qualunque
X
Oij = he0i |O|e0j i =
he0i |ek iλk hek |e0j i
k
=
X
∗
λk (he0j |ek ihek |e0i i)∗ = (he0j |O|e0i i)∗ = Oji
k
Abbiamo quindi dimostrato che un operatore con autovalori reali ed autovettori ortogonali è hermitiano (condizione sufficiente). Dimostriamo la condizione necessaria, cioè che se un operatore è hermitiano,
allora esso ha autovalori reali ed autovettori ortogonali.
Dimostriamo prima che gli autovalori sono reali. Notiamo che l’equazione agli autovalori Eq. (2.67)
implica immediatamente
hei |O|ei i = λi hei |ei i,
(2.88)
ossia
λi =
hei |O|ei i
.
hei |ei i
(2.89)
Ma
hei |O† |ei i = (hei |O|ei i)∗ ,
(2.90)
hei |O|ei i = (hei |O|ei i)∗ .
(2.91)
quindi per un operatore hermitiano
D’altra parte, ricordiamo che hei |ei i ≥ 0 (reale), e quindi λi è reale perché sia il numeratore che il
denominatore dell’espressione a membro destro della Eq. (2.89) sono reali.
∗
hei |O|ei i
hei |O† |ei i
hei |O|ei i
∗
λi =
=
= λi
∗ =
he
|e
i
hei |ei i
hei |ei i
i i
gli autovalori sono perciò reali.
Mostriamo ora che gli autovettori |ei i sono ortogonali, cioè che hei |ej i = δij (la normalizzazione può
essere fissata a piacere). Abbiamo che
hei |O|ej i = λj hei |ej i
hei |O† |ej i = λi hei |ej i,
(2.92)
30
Concetti fondamentali
e quindi se O = O†
(λi − λj )hei |ej i = 0.
(2.93)
Possiamo quindi distinguere due casi diversi:
• Caso non degenere: λi tutti diversi
La Eq. (2.93) implica immediatamente che se i 6= j, allora hei |ej i = 0, come si voleva dimostrare.
• Caso degenere: λi non tutti diversi
La Eq. (2.93) implica immediatamente che, dato un gruppo di autostati
|e1i i, |e2i i, ...|eni i = |eai ia<N
tutti associati allo stesso λi , essi soddisfano tutti hej |eai i = 0 se |ej i è associato ad un autovalore
diverso (appartengono quindi ad un sottospazio ortogonale a |ej i). Non possiamo dire nulla su
heai |eaj i. Ma se
O|eai i = λi |eai i
(2.94)
allora anche qualunque loro combinazione lineare è ancora autostato
X
X
O
ca |eai i = λi
ca |eai i .
a
(2.95)
a
Possiamo quindi applicare l’ortogonalizzazione di Gramm-Schmidt nel sottospazio dato:
|eai i
1
|e01
i i = c1 |ei i
2
|e02
i i = c2 |ei i
|e0n
i i
= cn
|eni i
→
tale che
−
..
.
−
|e0a
i i
01
1 = he01
i |ei i
01 2
|e01
i ihei |ei i
X
(2.96)
2
= |c1 |
he1i |e1i i
(2.97)
(2.98)
0j n
|e0j
i ihei |ei i
(2.99)
j
dove gli n vettori sono già ortonormalizzati. Verifichiamo che sono ortogonali:
02
01 2
01 01
01 2
01 2
01 2
he01
i |ei i = c2 hei |ei i − hei |ei ihei |ei i = c2 hei |ei i − hei |ei i = 0.
2.3.3
(2.100)
Operatori di proiezione e misure generali
Un ulteriore tipo di operatore, utile per formulare il concetto di misura, è l’operatore di proiezione su
uno stato (o proiettore), definito come
PS ≡ |SihS|
(2.101)
dove |Si è uno stato correttamente normalizzato. La misura può essere descritta in termini di proiezione:
dato un sistema quantistico che si trova nello stato |ψi, se una misura su di esso produce il risultato
associato allo stato |Si, dopo la misura il sistema si trova nello stato
|Si = N PS |ψi,
(2.102)
dove N è una costante di normalizzazione. È importante osservare che anche se lo stato |ψi è correttamente normalizzato, lo stato proiettato PS |ψi in generale non lo è, e quindi la costante N è necessaria
affinché anche |Si sia normalizzato correttamente.
Notiamo anche che la probabilità che la misura riveli il sistema nello stato |Si è
PS = |hS|ψi|2 = hψ|SihS|ψi = hψ|PS |ψi,
(2.103)
2.3 Operatori
31
ossia il valor medio dell’operatore di proiezione dello stato risultato della misura, calcolato nello stato
dato.
Generalizzando opportunamente la definizione di proiettore possiamo di descrivere la misura nel caso
più generale di una misura che non determina completamente lo stato del sistema. Un esempio è, per un
sistema che può trovarsi in più di due stati, una misura che dice solo se il sistema si trova o no in uno di
essi. In tal caso, se la misura dà come risultato che il sistema non è nello stato |Si, allora dopo la misura
il sistema è nello stato
|ψS̄ i = N PS̄ |ψi,
(2.104)
dove PS̄ è il proiettore sullo stato non-S, definito da
PS̄ = I − |SihS| = I − PS̄ .
(2.105)
Naturalmente, la probabilità di questo risultato è
PS̄ = 1 − PS = hψ|PS̄ |ψi,
(2.106)
dove abbiamo usato la Eq. (2.103). Quindi sia l’espressione in termini di proiettori per la probabilità di
una misura Eq. (2.103), che quella per il risultato di una misura Eq. (2.102) valgono in questo caso più
generale.
Definiamo quindi nel caso più generale operatore di proiezione un operatore P tale che, dato un
qualunque stato |ψi, e definita la decomposizione
|ψi = P |ψi + (I − P )|ψi = |αi + |βi
|αi = P |ψi;
|βi = (I − P )|ψi
(2.107)
allora
P |αi = |αi
e
hα|βi = 0.
(2.108)
L’operatore P è quindi definito come l’operatore che estrae dallo stato |ψi le sue componenti in un
sottospazio dello spazio di stati possibili, mettendo a zero le altre componenti.
La più generale misura dice se il sistema si trova in un sottoinsieme di tutti i suoi stati possibili, ossia
in un sottospazio dello spazio complessivo di stati. La probabilità di questa misura è data dalla somma
delle probabilità di tutti gli stati in questo sottospazio, cioè dalla Eq. (2.103), essendo P il proiettore nel
sottospazio dato. Dopo la misura, il sistema si trova nello stato proiettato nel sottospazio, dato dalla
Eq. (2.102).
Complemento 4. Operatori di proiezione: definizione e proprietà
È facile vedere che l’operatore di proiezione su uno stato è idempotente, ossia ha la proprietà che
PS2 = |SihS|SihS| = |SihS| = PS ,
(2.109)
ed inoltre è hermitiano.
Queste proprietà valgono per qualunque operatore di proiezione, cioè seguono dalla definizione
Eq. (2.108). Infatti
hα|βi = hψ|P † (1 − P )|ψi = 0
(2.110)
implica
P †P = P †.
(2.111)
Ma prendendo l’aggiunto di questa equazione abbiamo anche
P †P = P
(2.112)
32
Concetti fondamentali
da cui, confrontando le Eq. (2.111-2.112) segue immediatamente P = P † e quindi, sostituendo
nella Eq. (2.112), P 2 = P .
D’altra parte, possiamo anche dimostrare che se valgono le proprietà di idempotenza e hermiticità
P2 = P;
P† = P
(2.113)
allora vale Eq. (2.108). Infatti, defnendo |αi e |βi secondo l’Eq. (2.107) abbiamo che
P |αi = P P |ψi = P |ψi = |αi
†
(2.114)
2
hα|βi = hψ|P (I − P )|ψi = hψ|P − P |ψi = 0.
Quindi possiamo equivalentemente definire operatore di proiezione un qualunque operatore hermitiano idempotente. Osserviamo infine che se |ψi è un autostato di P con autovalore p,
allora
(p2 − p)|ψi = 0.
(2.115)
Gli autovalori di P sono quindi 0 e 1. Gli autostati corrispondenti all’autovalore 1 sono tutti gli
stati A|αi tale che P |αi = |αi , mentre gli autostati corrispondenti all’autovalore 0 sono tutti gli
stati ortogonali a |αi.
2.4
Postulati della meccanica quantistica
Possiamo ora riassumere i principi di base (o postulati) della meccanica quantistica. I principi enunciati qui sono sufficienti per una formulazione completa della fisica quantistica, con la sola aggiunta
di un postulato sull’evoluzione temporale che vedremo nella sezione 5.1.3 nello specifico contesto della
meccanica.
• Postulato 1 Lo stato di un sistema quantistico è associato ad un vettore (vettore di stato), in uno
spazio in cui vale il principio di sovrapposizione ed è definito un prodotto scalare con le proprietà
elencate nella Sezione 2.2.2 (spazio di Hilbert).
• Postulato 2 Risultati possibili di misure sul sistema sono associati a stati esclusivi ed esaustivi che
costituiscono una base ortonomale. Questo postulato viene a volte formulato (equivalentemente,
come abbiamo visto) dicendo che ad ogni osservabile è associato un operatore hermitiano.
• Postulato 3 La misura di un sistema che si trova in uno stato |ψi produce uno degli stati |ei i associati
all’osservabile, con probabilità data da Pi = |hei |ψi|2 (regola di Born). Dopo la misura il sistema si
trova nello stato |ψi.
La prima ipotesi ci dice quali sono gli stati fisici dei sistemi; la seconda classifica l’informazione che è
possibile acquisire sui sistemi fisici, cioè quali siano le possibili misure, e la terza ipotesi ci dice cosa succede
quando si effettua una misura sul sistema. In tempi sorprendentemente recenti4 è stato dimostrato che
questi postulati possono essere riformulati in un modo equivalente, ma forse concettualmente più chiaro.
In particolare, l’ortogonalità degli stati (secondo postulato) in combinazione con la seconda parte del
terzo (dopo la misura il sistema si trova nello stato), è equivalente a postulare che una misura ripetuta
dia sempre lo stesso risultato, o, ancora equivalentemente, che la misura sia una proiezione, con misure
diverse corrispondenti a proiezioni su sottospazi ortogonali. Possiamo quindi sostituire il secondo ed il
terzo postulato con
• Postulato 2’ La misura proietta lo stato del sistema in un sottospazio; misure che danno risultati
distinti proiettano il sistema in sottospazi ortogonali.
• Postulato 3’ La probabilità della misura è il modulo quadro dell’ampiezza.
4 W.
H. Zurek, Phys. Rev. A76 (2007) 052110
Capitolo 3
Proprietà quantistiche
Abbiamo visto come i principi fondamentali della fisica quantistica richiedano l’introduzione del concetto
di stato: un vettore in uno spazio di Hilbert, che ci permette di calcolare le probabilità dei risultati
delle misure e quindi codifica e contiene tutta l’informazione che abbiamo su di un sistema quantistico.
Per rispondere alle domande “quali sono le misure possibili?” e “che cosa succede allo stato dopo la
misura?” abbiamo introdotto il concetto di operatore lineare, e in particolare, di operatore hermitiano
(che associamo ad un’osservabile) e operatore di proiezione (che trasforma lo stato sotto misura).
Sorgono ora spontanee due domande. L’informazione contenuta in uno stato si può rappresentare in
un modo solo, o in tanti modi equivalenti, e in tal caso quali? Qual è la massima quantità di informazione
che possiamo estrarre da un sistema attraverso la misura? La risposta a ciascuna di queste domande sarà
il tema delle prossime due sezioni. Lo studio dell’informazione che può essere accumulata in uno sistema
quantistico, e dei modi di classificarla, ottimizzarla e manipolarla è oggetto della teoria dell’informazione
quantistica. Si tratta di un insieme di tematiche molto ampio, che sfioreremo appena nella terza sezione
di questo capitolo.
3.1
Unitarietà
In questa sezione ci chiediamo quale sia il modo più generale di rappresentare uno stato quantistico,
e quindi quale sia il più generale insieme di trasformazioni che collegano diverse rappresentazioni dello
stesso stato.
3.1.1
Cambiamenti di base
Abbiamo visto che sia stati che operatori possono essere rappresentati rispetto a diverse basi. Consideriamo uno stato |ψi e le due basi |ei i e |e0i i: nella prima base |ψi ha la forma
X
X
|ψi =
|ei ihei |ψi =
|ei icψ
(3.1)
i ,
i
i
e nella seconda
|ψi =
X
|e0i ihe0i |ψi =
X
i
|e0i ic0ψ
i .
(3.2)
i
Possiamo definire una matrice di cambiamento di base notando che
X
X
0
c0ψ
he0i |ej ihej |ψi =
Uij cψ
i = hei |ψi =
j
j
(3.3)
j
dove abbiamo definito
Uij = he0i |ej i.
(3.4)
34
Proprietà quantistiche
Notiamo che si usa omettere l’indice della sommatoria quando c’è un indice ripetuto, quindi la Eq. (3.3)
viene spesso scritta come
ψ
c0ψ
i = Uij cj .
(3.5)
Possiamo analogamente definire un operatore U di cambiamento di base tale che
he0i |ψi = hei |U |ψi,
(3.6)
cioè tale che, agendo sullo stato |ψi, esso dia lo stato |ψ 0 i ≡ U |ψi le cui componenti nella base vecchia
sono uguali alle componenti dello stato di partenza |ψi nella base nuova:
he0i |ψi = hei |ψ 0 i.
(3.7)
Si vede immediatamente dalla Eq. (3.6) che tale operatore è dato da
X
U=
|em ihe0m |,
(3.8)
m
infatti,
hei |U |ψi =
X
hei |em ihe0m |ψi = he0i |ψi.
(3.9)
m
Notiamo che gli elementi di matrice dell’operatore U Eq. (3.6) sono dati dalla Eq. (3.4) sia nella base
vecchia che nella base nuova:
X
Uij = hei |U |ej i = hei |
|em ihe0m |ej i = he0i |ej i
(3.10)
m
he0i |U |e0j i
Uij =
=
he0i |
X
|em ihe0m |e0j i = he0i |ej i.
(3.11)
m
Infatti
U=
X
|ei iUij hej | =
X
ij
=
X
ij
|e0i iUij he0j | =
X
ij
3.1.2
|ei ihe0i |ej ihej | =
X
|ei ihe0i |
(3.12)
|ei ihe0i |.
(3.13)
i
|e0i ihe0i |ej ihe0j | =
ij
X
i
Operatori unitari
L’operatore U ha la proprietà che
U† =
X
|e0m ihem |
(3.14)
m
da cui segue che
UU† =
XX
m
U †U =
X
|em ihem | = I
(3.15)
|e0i ihe0i | = I,
(3.16)
m
i
XX
m
|em ihe0m |e0i ihei | =
|e0m ihem |ei ihe0i | =
X
m
i
Un operatore che ha la proprietà
U U † = U †U = I
(3.17)
è detto unitario. Ne concludiamo che un cambiamento di base viene realizzato dall’azione di un operatore
unitario.
3.1 Unitarietà
35
Gli operatori unitari conservano il prodotto scalare, e quindi in particolare la norma. Infatti, dati due
stati |ϕi, |ψi, e definita l’azione di un operatore unitario qualunque U su di essi
|ϕ0 i ≡ U |ϕi;
|ψ 0 i = U |ψi,
(3.18)
hψ 0 |ϕ0 i = hψ|U † U |ϕi = hψ|ϕi
(3.19)
abbiamo che
Complemento 5. Operatori unitari ed hermitiani.
Gli autovalori degli operatori unitari sono unimodulari (ossia pure fasi), visto che se se
U |ei i = λi |ei i
(3.20)
hei |ei i = hei |U † U |ei i = |λi |2 hei |ei i
(3.21)
allora
e quindi
|λi |2 = 1;
λ = eiµi ,
(3.22)
con µi reale. In dimensione finita, il teorema spettrale implica che una matrice unitaria è sempre
diagonalizzabile.
Ne segue immediatamente che in operatore unitario U può sempre essere scritto come esponenziale
di i volte un operatore hermitiano H. Infatti, nella base dei propri autovettori, in cui U è diagonale,
X
X
U=
λi |ei ihei | =
eiµi |ei ihei | = eiH
(3.23)
i
i
dove H è l’operatore
H=
X
µi |ei ihei |,
(3.24)
i
ed abbiamo usato la proprietà Eq. (2.58). Ma come abbiamo visto l’unitarietà di U implica che i
µi sono reali e quindi H è hermitiano.
Possiamo riscrivere l’argomento in un modo meno esplicito, e più formale, che però ha il vantaggio
di essere manifestamente vero in qualunque base e non solo in quella in cui H e U sono diagonali.
Se poniamo formalmente U = exp(iH) abbiamo che se H = H † allora
U † = eiH
†
†
= e−iH = e−iH = U −1 ,
(3.25)
e quindi se H è hermitiano U è unitario.
Per dimostrare l’implicazione inversa, osserviamo che se U è unitario anche una qualunque potenza
di U , U α con α reale è maifestamente unitaria. Ma allora
U α = eiαH = I + iαH + . . .
e la condizione di unitarietà di U α
(3.26)
†
(U α ) = (U α )−1
(3.27)
implica
U U † = (I + iαH + . . . )(I − iαH † + . . . ) = I
†
(3.28)
che al primo ordine in α può essere soddisfatta solo se H = H . Quindi concludiamo che se U è
unitario allora H è hermitiano, e la condizione è quindi necessaria e sufficiente.
36
3.1.3
Proprietà quantistiche
Trasformazioni unitarie di operatori
Un cambiamento di base coinvolge sia gli stati che gli operatori. L’azione di un cambiamento di base su
un operatore qualunque A, i cui elementi nella base |ei i sono
Aij = hei |A|ej i,
(3.29)
A0ij = he0i |A|e0j i = hei |U AU † |ej i = hei |A0 |ej i.
(3.30)
è la seguente:
Per ottenere il risultato abbiamo utilizzato il fatto che
hei |U = he0i |,
(3.31)
infatti
hei |U = hei |
X
n
|en ihe0n | =
X
δin he0n | = he0i |
(3.32)
n
e quindi
U † |ei i = |e0i i.
(3.33)
Pertanto sotto cambiamento di base l’operatore si trasforma come
A0 = U AU † = U AU −1 .
(3.34)
Questa è detta azione aggiunta della trasformazione unitaria.
Due operatori collegati da tale trasformazione, cioè due operatori A, B tali che B = U AU † si dicono
unitariamente equivalenti. È facile vedere che due operatori unitariamente equivalenti hanno lo stesso
spettro di autovalori. Consideriamo infatti l’operatore A avente autostati |ek i con autovalori µk
A|ek i = µk |ek i,
(3.35)
e l’operatore B = U AU † unitariamente equivalente ad A. Gli stati |e0k i = U |ek i soddisfano
B|e0k i = U AU † U |ek i = U µk |ek i = |e0k i
(3.36)
e sono quindi autostati di B con gli stessi autovalori di A.
3.2
Indeterminazione
Abbiamo visto nella Sezione 2.3.3 che un’operazione di misura può fornire una informazione incompleta
sullo stato del sistema, proiettando su un sottospazio dello spazio degli stati possibili. Per esempio, per
una particella che passa attraverso uno schermo su cui sono praticate tre fenditure, un rivelatore piazzato
nei pressi di una fenditura non fornisce informazione circa le altre due fenditure: la misura effettuata da
quel rivelatore non ci dà alcuna informazione sulla sovrapposizione di stati relativi al passaggio attraverso
le altre due fenditure in cui il sistema eventualmente si trova. Ma una seconda misura potrebbe dare
informazione più dettagliata: per esempio aggiungendo un secondo rivelatore su un’altra fenditura.
In questa sezione ci chiediamo come determinare il massimo insieme di osservabili che possono essere
misurate simultaneamente su un dato sistema. Questo ci permetterà anche di rispondere alla ovvia
domanda associata, e cioè che cosa possiamo aspettarci circa i risultati di misure di altre osservabili, che
non facciano parte di questo insieme di osservabili misurabili simultaneamente.
3.2 Indeterminazione
3.2.1
37
Osservabili compatibili e incompatibili
Il fatto che una misura proietti il sistema su un autostato dell’operatore associato all’osservabile misurata
implica che la misura di due osservabili distinte, associate ad operatori A e A0 , produce risultati molto
diversi a seconda che essi ammettano o no una base comune di autostati. Supponiamo che
A|ei i = λi |ei i
(3.37)
A0 |e0i i = λ0i |e0i i.
(3.38)
Consideriamo prima il caso in cui |ei i = |e0i i, ossia i due operatori ammettono una base comune di
autostati (seppure, in generale, con diversi autovalori, λ0i 6= λi ). In tal caso, se una misura di A fornisce
il valore λi , dopo la misura il sistema si trova nell’autostato |ei i. Misure ripetute danno sempre lo stesso
valore λi . Se dopo aver fatto questa misura di A si misura A0 , poiché abbiamo supposto che |ei i sia
anche autostato di A0 , ma con autovalore λ0i , la misura di A0 darà anch’essa sempre lo stesso valore λ0i .
Quindi possiamo dire che dopo la misura di A il sistema si trova in uno stato per cui sia l’osservabile A
che l’osservabile A0 hanno un valore ben definito, λi e λ0i , rispettivamente.
Supponiamo invece che |ei i 6= |e0i i, ossia che in generale gli autostati dei due operatori siano diversi
fra di loro. In tal caso, dopo una misura di A il sistema si trova in un suo autostato |ei i. Ma questo non
è un autostato di A0 , quindi deve essere una sovrapposizione dei suoi autostati:
X
|ei i =
|e0k ihe0k |ei i.
(3.39)
k
0
Pertanto se anche in questo caso si misura A dopo aver fatto la misura di A , il sistema verrà rivelato
nello stato |e0k i con probabilità |he0k |ei i|2 . Perciò, in tal caso il sistema non può avere un valore ben
definito di A ed A0 simultaneamente: se si misura A, dopo la misura il sistema è in una sovrapposizione
di stati associati a diversi valori di A0 , e viceversa. In particolare, se anche il sistema era in |ei i, una
misura di A0 rigenera anche componenti |ej i con j 6= i, come abbiamo visto nella Sezione 2.2.3.
Due operatori sono detti compatibili se ammettono una base comune di autostati, ed incompatibili se
non ne ammettono alcuna. Concludiamo quindi che si può dire che un sistema abbia simultaneamente
un valore ben determinato di due osservabili diverse sono se esse sono compatibili.
3.2.2
Commutazione di operatori
Ci chiediamo sotto quali ipotesi due operatori associati ad osservabili (quindi hermitiani) siano compatibili
o no. A tal fine, introduciamo il commutatore di due operatori A e B definito come l’operatore
[A, B] ≡ AB − BA.
(3.40)
Può essere utile anche definire l’anticommutatore fra due operatori A, B come
{A, B} = AB + BA.
(3.41)
Complemento 6. Commutatore ed anticommutatore.
Abbiamo visto che un operatore può sempre essere scritto come somma di un operatore hermitiano
e di un operatore antihermitiano, Eq. (2.83). Il commutatore e l’anticommutatore ci permettono
di scrivere la parte hermitiana e la parte antihermitiana del prodotto di due operatori. Infatti,
AB =
1
1
1
1
(AB − BA) + (AB + BA) = [A, B] + {A, B}.
2
2
2
2
(3.42)
Ma {A, B} è hermitiano mentre [A, B] è antihermitiano:
†
{A, B} = {A, B},
[A, B]
†
= −[A, B].
(3.43)
38
Proprietà quantistiche
Dimostriamo ora che due operatori A e B sono compatibili, cioé diagonalizzabili simultaneamente, se
e solo se il loro commutatore è nullo. Dimostriamo prima la condizione necessaria. Consideriamo dunque
i due operatori A e B tali che
A|ei i = λi |ei i
(3.44)
B|ei i = µi |ei i
(3.45)
Calcoliamo l’elemento di matrice del commutatore:
(AB − BA)ij = hei |AB − BA|ej i = (λi µi − λj µj )hei |ej i = 0.
(3.46)
Concludiamo che il commutatore ha tutti gli elementi di matrice nulli, ossia gli operatori commutano.
Possiamo ora dimostrare la condizione sufficiente. In questo caso, dobbiamo distinguere il caso degenere da quello non degenere. Consideriamo prima il caso non degenere, cioé con λi , µi tutti diversi tra
loro. Siano |ek i autostati di A:
A|ek i = λk |ek i.
(3.47)
Notiamo che allora hek |A = hek |λ∗k = hek |λk . Si ha quindi
0 = hei |[A, B]|ek i = λi hei |B|ek i − λk hei |B|ek i = (λi − λk )hei |B|ek i,
(3.48)
e quindi
(λi − λk )hei |B|ek i =
0
0
se i = k
,
se i =
6 k ⇔ hei |B|ek i = 0
(3.49)
o equivalentemente,
hei |B|ek i = δik hei |B|ek i.
Quindi l’operatore B nella base |ei i è diagonale
X
X
B=
|ei iBij hej | =
|ei ihei |µi ,
ij
(3.50)
(3.51)
i
con
µi = hei |B|ei i.
Ma questo vuol dire proprio che gli |ek i sono anche autostati di B, infatti
X
B|ek i =
µi |ei ihei |ek i = µk |ek i,
(3.52)
(3.53)
i
come si voleva dimostrare.
Consideriamo ora il caso degenere. Sia A un operatore A|ei i = λi |ei i, con un sottospazio di ket |eai i
di dimensione p associati tutti allo stesso autovalore λi . Se B commuta con A si ha
0 = heai |[A, B]|ej i = (λi − λj )heai |B|ej i
(3.54)
Se λi e λj sono diversi fra loro l’argomento si riduce a quello di prima. Che cosa succede invece nel
sottospazio degenere, in cui λi = λj ? In tal caso
0 = heai |[A, B]|ebi i = (λi − λi )heai |B|ebi i,
(3.55)
e l’elemento di matrice di B è dunque arbitrario.
Gli autostati di A non sono necessariamente autostati di B. Possiamo però fabbricare degli autostati,
ricordando che se gli |eai i sono autostati riferiti allo stesso autovalore, anche una loro combinazione lineare
3.2 Indeterminazione
39
lo è, come già visto. Ma allora possiamo diagonalizzare B nel sottospazio, ottenendo cosı̀ autostati |e0c
i i
tali che
X
c 0c
B|e0c
|eai iheai |e0c
(3.56)
i i=B
i i = µi |ei i
adeg
che restano autostati di A
0c
A|e0c
i i = λi |ei i
(3.57)
Se gli autovalori µci trovati sono diversi tra loro, la degenerazione si dice risolta.
Un insieme di operatori si dice completo se riesce a caratterizzare completamente uno stato. Ciò
significa che se un operatore A non permette di assegnare univocamente un determinato autovalore ad
un solo autostato, esiste un operatore B che invece lo permette. Per esempio, dati gli autovalori distinti
λ1 , λ2 , λ01 , λ02 , consideriamo il seguente insieme di operatori:
A = λ1 |e1 ihe1 | + λ2 |e2 ihe2 | + |e3 ihe3 |
(3.58)
0
0
B = λ1 |e1 ihe1 | + |e2 ihe2 | + λ2 |e3 ihe3 |.
(3.59)
Tale insieme di operatori è un insieme completo, perché la coppia di valori (λi , λ0j ) caratterizza completamente lo stato del sistema.
Complemento 7. Commutatore del prodotto di operatori.
Il calcolo del commutatore del prodotto di due operatori può sempre ridotto al calcolo del
commutatore dei fattori applicando le identità
[A, BC] = B[A, C] + [A, B]C
(3.60)
[AB, C] = A[B, C] + [A, C]B,
(3.61)
che si dimostrano svolgendo esplicitamente il calcolo dei vari commutatori
[A, BC] = B[A, C] + [A, B]C = BAC − BCA + ABC − BAC = ABC − BCA,
(3.62)
e cosı̀ via. Applicando le identità ripetutamente si può cosı̀ calcolare il commutatore di qualunque
prodotto di operatori.
3.2.3
Il principio di indeterminazione
Per quantificare la dispersione dei risultati della misura di un’osservabile quando il sistema non si trova in
un suo autostato, definiamo l’indeterminazione dell’operatore nello stato |ψi come la deviazione standard
dei risultati dalla misura, e cioé
2
∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi .
(3.63)
hx2 i − hxi2 = h(x − hxi)2 i
(3.64)
2
∆2 Aψ = hψ| A − hψ|A|ψi |ψi.
(3.65)
Poiché vale la relazione:
possiamo scrivere
40
Proprietà quantistiche
È facile vedere che l’indeterminazione è proprio la deviazione standard, sviluppando su una base di
autostati |ei i di A associati agli autovalori λi :
X
X
X
X
hψ|A|ψi = hψ|A† |ψi =
hψ|A|ei ihei |ψi =
λi hψ|ei ihei |ψi =
λi |hei |ψi|2 =
λi Pi ,
(3.66)
i
i
i
i
e quindi
!2
2
∆ Aψ =
X
λ2i Pi
−
X
i
λi Pi
.
(3.67)
i
L’indeterminazione di un operatore A è nulla se e solo se lo stato |ψi in cui il sistema si trova è un
autostato di A: vale a dire ∆2 Aψ = 0 ⇔ A|ψi = λ|ψi. Dimostriamo prima la condizione sufficiente. Si
ha:
A2 |ψi = λ2 |ψi
(3.68)
2
∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi = λ2 hψ|ψi − λ2 hψ|ψi2 = λ2 − λ2 = 0
(3.69)
quindi
(supponendo che la norma di |ψi sia 1).
Veniamo ora alla condizione necessaria. Supponiamo che ∆2 Aψ = 0. Possiamo sempre supporre che
lo stato |ψi sia un elemento di una base ortonomale |ei i — basta che sia correttamente normalizzato.
2
2
Ricordando che A = A† e che il valor medio di un operatore è un numero reale, hei |A|ej i = hej |A|ei i ,
abbiamo
2 X
2
0 = hei |A2 |ei i − hei |A|ei i =
hei |A|ej ihej |A|ei i − hei |A|ei i
j
X
X
hei |A|ej i2 − hei |A|ei i2 =
hei |A|ej i2
=
j
i6=j
Ma una somma di moduli si può annullare solo se ciascuno di essi è uguale a 0, e quindi necessariamente
Aij si annulla se i 6= j, che significa appunto che |ei i è autostato di A.
Abbiamo visto che se due operatori non commutano, essi non possono essere simultaneamente diagonalizzati. Quindi, il risultato che abbiamo appena dimostrato implica che se due operatori non
commutano, allora il sistema deve necessariamente trovarsi in uno stato in cui almeno uno dei due ha
indeterminazione diversa da zero. Possiamo in effetti dimostrare che l’indeterminazione di una coppia di
operatori deve sempre soddisfare una disuguaglianza: il principio di indeterminazione.
Prima di arrivare al principio di indeterminazione abbiamo bisogno di alcune disuguaglianze preliminari. Per prima cosa, dimostriamo la Disuguaglianza di Schwarz: Dati due operatori autoaggiunti A,
B,
hψ|AB|ψi2 ≤ hψ|A2 |ψihψ|B 2 |ψi,
(3.70)
che possiamo riscrivere definendo gli stati |αi e |βi
A|ψi = |αi e B|ψi = β,
(3.71)
in termini dei quali la Eq. (3.70) prende la forma
hα|βi2 ≤ hα|αihβ|βi.
(3.72)
In questa forma, la disuguaglianza è la consueta disuguaglianza triangolare, che afferma che il prodotto
scalare di due vettori è al più pari al prodotto delle loro lunghezze.
3.2 Indeterminazione
41
Decomponiamo ora il ket |αi separando la parte lungo |βi:
|αi = z|βi + |δi,
(3.73)
hβ|αi = zhβ|βi + hβ|δi = zhβ|βi,
(3.74)
dove |δi è tale che hβ|δi = 0. Ne segue che
e quindi
z=
hβ|αi
.
hβ|βi
(3.75)
Vediamo quindi facilmente che
2
hα|αi = |z| hβ|βi + hδ|δi =
hβ|αi2
hβ|βi
+ hδ|δi,
dove nel secondo passaggio abbiamo usato la Eq. (3.75). Pertanto,
2
2
hα|αihβ|βi = hβ|αi + hδ|δihβ|βi ≥ hβ|αi ,
(3.76)
(3.77)
ossia
hα|βi2 ≤ hα|αihβ|βi,
(3.78)
che è appunto la disuguaglianza di Schwarz.
Dimostriamo quindi una seconda disuguaglianza ausiliaria:
hψ|AB|ψi2 ≥ 1 hψ|[A, B]|ψi2 .
4
(3.79)
Abbiamo visto nel complemento 6 che possiamo decomporre AB nella somma di una parte hermitiana
{A, B}/2 e una parte antihermitiana [A, B]/2. Inoltre osserviamo che gli elementi di matrice diagonali
di un operatore hermitiano sono reali, mentre gli elementi di matrice diagonali di un operatore antihermitiano sono immaginari puri. Infatti se X = X †
hψ|X † |ψi = (hψ|X|ψi)∗ = hψ|X|ψi,
(3.80)
dove nel primo passaggio abbiamo usato la definizione di aggiunto e nel secondo l’hermiticità. Analogamente se Y = −Y †
hψ|Y † |ψi = (hψ|Y |ψi)∗ = −hψ|Y |ψi.
(3.81)
Questo significa che, se indichiamo con z = hψ|AB|ψi,
1
hψ|{A, B}|ψi
2
1
iy ≡ iIm z = hψ|[A, B]|ψi,
2
x ≡ Re z =
(3.82)
(3.83)
e, di conseguenza,
hψ|AB|ψi2 = |z|2 = x2 + y 2 ≥ y 2 = 1 hψ|[A, B]|ψi2 = 1 hψ|[A, B]|ψi2 .
2
4
(3.84)
Combinando le due disuguaglianze Eq. (3.78) ed Eq. (3.79) possiamo dimostrare ora il principio di
indeterminazione, che dice che per ogni coppia di operatori hermitiani C, D,
∆2 Cψ ∆2 Dψ ≥
2
1 hψ|[C, D]|ψi .
4
(3.85)
42
Proprietà quantistiche
Combinando le Eq. (3.78), Eq. (3.79) abbiamo infatti
hψ|A2 |ψihψ|B 2 |ψi ≥
2
1 hψ|[A, B]|ψi
4
(3.86)
valida per ogni coppia A,B di operatori hermitiani. In particolare, definiti
A ≡ C − hCi,
B ≡ D − hDi,
(3.87)
hψ|B 2 |ψi = ∆2 Dψ ,
(3.88)
abbiamo
hψ|A2 |ψi = ∆2 Cψ ;
e
[A, B] = [C − hCi, D − hDi] = [C, D],
(3.89)
da cui
∆2 Cψ ∆2 Dψ ≥
2
1 hψ|[C, D]|ψi ,
4
(3.90)
come si voleva dimostrare.
3.3
Informazione quantistica
La teoria dell’informazione quantistica si pone la domanda di come un sistema quantistico possa essere
utilizzato per accumulare, trasmettere, ed elaborare informazione. Qui ci poniamo le più semplici domande che ne sono alla base, nel caso più semplice possibile di un sistema di un solo qubit: qual è la
maggior quantità di informazione che è possibile estrarre da un sistema quantistico? Come possiamo
codificarla? Qual è la più generale misura? Possiamo determinare lo stato di un sistema quantistico?
3.3.1
L’informazione in un qubit
Consideriamo il ket di stato per un sistema a due livelli
|ψi = a+ |+i + a− |−i.
(3.91)
Quanta informazione contiene, e come possiamo estrarla?
A priori, lo stato Eq. (3.91) è determinato dai due coefficienti complessi a± , quindi da quattro numeri
reali. Di questi però uno è determinato per normalizzazione. Inoltre, osserviamo che la fase globale di
|ψi non è misurabile. Infatti, la probabilità di qualunque misura è
Pi = |hei |ψi|2 ,
(3.92)
e quindi è invariante sotto la trasformazione |ψi → eiθ |ψi. La classe di equivalenza di stati che differiscono
per una fase è nota come raggio in uno spazio di Hilbert. Quindi più propriamente gli stati di un sistema
quantistico non sono vettori, bensı̀ raggi, cioè classi di equivalenza di vettori, in uno spazio di Hilbert.
Ne concludiamo quindi che l’informazione contenuta nello stato |ψi è parametrizzata da due numeri
reali, i due coefficienti complessi a meno della normalizzazione e della fase relativa, che possiamo quindi
scegliere ad esempio come
a+ = ρ
(3.93)
1
2
a− = (1 − ρ2 ) eiθ ,
(3.94)
Questi coefficienti ci danno solo la probabilità dei risultati di misure. Però supponendo di poter preparare
tanti sistemi tutti nello stesso stato (ad esempio, tante molecole nell’esperimento di Zeilinger ed Arndt,
tutte nello stesso stato iniziale), possiamo cercare di determinare questi coefficienti.
3.3 Informazione quantistica
43
Se sappiamo di avere a che fare con un sistema che è appena stato preparato attraverso la misura
di un’osservabile, ci basta eseguire una nuova misura della stessa osservabile per determinare in che
stato è il sistema. Infatti, sappiamo che si deve trovare in un autostato dell’osservabile, e una misura
ripetuta lo rivelerà nell’autostato nel quale la prima misura lo ha posto con probabilità 100%. Nel caso
di degenerazione, naturalmente, servirà un insieme completo di osservabili. Ma se non sappiamo in che
stato il sistema è stato preparato, oppure se il sistema è cambiato nel tempo dopo la preparazione, vi
sarà una distribuzione di probabilità di risultati possibili per la misura di qualunque osservabile.
Consideriamo inizialmente una osservabile A, e scegliamo gli autovettori di base |±i come i suoi
autovettori:
A = λ+ |+ih+| + λ− |−ih−|
(3.95)
Il valor medio di questa osservabile nello stato del sistema è
hψ|A|ψi = hAi = P+ λ+ + P− λ− ,
(3.96)
con
P+ = |a+ |2 ,
P− = |a− |2 .
(3.97)
Queste probabilità sono interamente determinate dal valor medio:
λ+ P+ + λ− P− = hAi
P+ + P− = 1.
(3.98)
(3.99)
Quindi, per un sistema bipartito, la misura del valor medio di un’osservabile determina interamente la
distribuzione di probabilità dei risultati della misura di quella osservabile. Non possiamo però apprendere
nulla sulla fase relativa, visto che qualunque misura di A non ne dipende.
Per avere ulteriori informazioni sul sistema siamo obbligati a effettuare misure di (almeno) un’altra
osservabile, incompatibile con A. Infatti, se consideriamo invece una nuova osservabile A0 compatibile
con A abbiamo
A0 = λ0+ |+ih+| + λ0− |−ih−|,
(3.100)
hA0 i = P+ λ0+ + P− λ0− ,
(3.101)
da cui
che nuovamente ci permette di determinare P+ e P− , ma non la fase relativa. Ci chiediamo quindi quali
misure determinano lo stato completamente.
3.3.2
La matrice densità
Le misure di valor medio che abbiamo visto finora possono essere caratterizzate in termini dell’operatore
densità o matrice densità del sistema. Per un sistema che si trova in uno stato |ψi la matrice (od operatore)
densità è definita come
ρψ = |ψihψ|
(3.102)
ed è ovviamente un operatore hermitiano.
La matrice densità permette di caratterizzare facilmente il valor medio delle misura di osservabili sul
sistema: abbiamo infatti che
hAi = Tr(Aρ),
dove la traccia di un generico operatore O, che denotiamo Tr(O), è definita come
X
Tr(O) =
hei |O|ei i,
i
(3.103)
(3.104)
44
Proprietà quantistiche
dove |ei i è una qualunque base ortonormale per il sistema.
Per vedere questo, supponiamo dapprima che |ei i siano autostati di A, A|ei i = λi |ei i. Allora
X
X
X X
2 X
Tr(Aρ) =
hei |Aρ|ei i =
hei |A|ψihψ|ei i =
λi hei |ψihψ|ei i =
λi hei |ψi =
λi Pi = hAi.
i
i
i
i
i
(3.105)
Ma ora osserviamo che la traccia è indipendente dalla base. Per vederlo, notiamo prima che la traccia è
ciclica, cioé è invariante per permutazioni:
Tr(O1 O2 · · · On ) = Tr(Oσ(1) Oσ(2) . . . Oσ(n) )
(3.106)
dove (σ(1), σ(2), . . . σ(n)) è una permutazione ciclica di (1, 2, . . . n). Questo si dimostra facilmente:
riferendoci per semplicità al al caso di n = 2 operatori abbiamo che
X
X
X
X
= hei |O1 O2 |ei i =
hei |O1 |ej ihej |O2 |ei i =
hej |O2 |ei ihei |O1 |ej i =
hej |O2 O1 |ej i.
(3.107)
i
ij
ij
j
Allora, notando che sotto cambiamenti di base O → U OU † , dove U è un operatore unitario, concludiamo
che
Tr(U OU † ) = Tr(U † U O) = Tr(O),
(3.108)
quindi la traccia non dipende dalla base.
Concludiamo quindi che la proprietà data dalla Eq. (3.105) è vera indipendentemente dalla scelta di
base, e quindi
X
Tr(Aρ) =
he0i | (A|ψihψ|) |e0i i = hψ|A|ψi.
(3.109)
Notiamo infine che la matrice densità soddisfa per definizione la proprietà di normalizzazione sotto traccia
Tr(ρ) = 1.
(3.110)
Infatti
Tr(ρ) =
X
X
X
hei |ψj ihψj |ei iPi =
Pi hψi |ψi i =
Pi = 1.
i,j
i
(3.111)
i
Stati puri e stati misti
Il formalismo della matrice densità permette di descrivere anche la situazione in cui si ha informazione
incompleta sullo stato di un sistema quantistico, cioè la situazione in cui, anziché sapere che il sistema si
trova nello stato |ψi, possiamo solo dire che il sistema ha una certa probabilità Pi di trovarsi in ciascuno
degli stati |ψi i. Questo è l’analogo quantistico della situazione statistica classica, in cui il sistema è un
ensemble di sottosistemi (ad esempio, un insieme di particelle), e sono note solo le proprietà collettive di
questo ensemble.
Distinguiamo quindi due situazioni. Nella prima, il sistema si trova in uno stato puro |ψi, vale a dire
che sappiamo esattamente in che stato si trovi il sistema, nel qual caso la matrice densità è
ρ = |ψihψ|.
(3.112)
La possibilità alternativa è che il sistema si trovi in uno stato misto (o una miscela di stati), cioè in
ciascuno degli stati |ψi i con probabilità Pi . In tal caso, la matrice densità è
X
X
ρ=
Pi |ψi ihψi | =
Pi ρ i ,
(3.113)
i
dove nell’ultimo passaggio abbiamo posto ρi = |ψi ihψi |.
i
3.3 Informazione quantistica
45
In questa situazione più generale, la matrice densità permette di calcolare il valore medio di qualunque
misura, che è sempre dato dalla Eq. (3.103), purchè gli stati |ψi i siano correttamente normalizzati:
hψi |ψi i = 1. Notiamo che questo resta vero anche se gli stati |ψi i non sono ortogonali. Abbiamo infatti
X
X
X
hAi = Tr(Aρ) =
hej |Aρ|ej i =
hej |A|ψi ihψi |ej iPi =
hψi |ej ihej |A|ψi iPi
j
ij
ij
X
=
hψi |A|ψi iPi ,
i
che è la media pesata dalla probabilità Pi della media in ciascuno degli n stati |ψi i.
Questo è vero anche quando gli stati |ψi i non sono ortogonali perché la matrice densità per uno
stato misto corrisponde ad una miscela classica di stati, non ad una sovrapposizione quantistica. In una
sovrapposizione quantistica, il risultato di una misura è o l’uno, o l’altro, e quindi gli stati devono essere
ortogonali. In una sovrapposizione classica, si sta solo dicendo che c’è una certa probabilità che i risultati
siano caratterizzati da un dato valoro medio. In tal caso caso, basta che le corrispondenti probabilità
sommino ad uno, ma ovviamente i risultati delle misure, essendo a loro volta dei valori medi, non devono
necessariamente essere esclusivi.
Possiamo illustrare la differenza tra uno stato sovrapposizione ed una miscela statistica con un semplice
esempio. Un esempio di stato (puro) sovrapposizione è lo stato
1
|ψ1 i = √ |+i + |−i ,
2
ρψ1 = |ψ1 ihψ1 |
Questo stato è autostato dell’operatore la cui matrice nella base degli stati |±i è data da
0 1
A=
1 0
Pertanto una misura di A produce il risultato
Tr(Aρψ1 ) = hAiψ1 = hψ1 |A|ψ1 i = 1
Infatti facendo la misura troviamo sempre l’autovalore corrispondente e tale autovalore è uguale a 1.
Un esempio di stato misto è uno stato che ha il 50% di probabilità di essere in |+i e il 50% di essere
in |−i, per cui
1
1
ρm = |+ih+| + |−ih−|.
2
2
La misura di A in questo stato produce il risultato
Tr(Aρm ) =
1
1
h+|A|+i + h−|A|−i = 0.
2
2
Vediamo quindi che il valor medio della misura di A dà risultati diversi, mostrando cosı̀ la differenza tra
miscela statistica e sovrapposizione quantistica.
È da notare tuttavia che una misura dell’operatore
1 0
B=
,
0 −1
i cui autostati sono gli stati |±i dà invece lo stesso risultato sia per lo stato puro che per lo stato misto
in esame:
Tr(Bρm ) = Tr(Bρψ1 ) = 0.
Infatti, in entrambi i casi una misura ha il 50% di rivelare il sistema nello stato |+i ed il 50% di rivelarlo
il sistema nello stato |−i. Quindi è possibile distinguere tra uno stato puro ed uno stato misto, ma non
è detto che una misura qualunque lo permetta.
46
Proprietà quantistiche
Complemento 8. Unicità della matrice densità.
La matrice densità associata ad un dato stato puro è unica: infatti, se ρ1 = |φ1 ihψ1 | e ρ2 =
|φ2 ihψ2 |, ρ = ρ2 se e solo se φ1 i e φ2 i hanno le stesse componenti. Ma nel caso di stati misti
questo non è vero: la stessa matrice densità può corrispondere a diverse sovrapposizioni di stati
misti. Ad esempio, consideriamo un sistema che si trova con probabilità 12 in ciascuno dei due
stati
r
r
3
1
|φ1 i =
|+i + i
|−i,
4
4
r
r
3
1
|+i +
|−i.
(3.114)
|φ2 i = i
4
4
È facile vedere che questa matrice densità coincide con quella per un sistema che si trova con
probabilità 34 nello stato |+i e con probabilità 14 nello stato |−i. Per verificarlo esplicitamente,
basta riscrivere la matrice ρ in termini di stati |±i. Troviamo infatti
1
1
ρ = |φ1 ihφ1 | + |φ2 ihφ2 |
2
2
√
√
3
1
3i
3i
= |+ih+| + |−ih−| −
|+ih−| +
|−ih+|
8
8
8√
8√
3
3i
3i
1
+ |+ih+| + |−ih−| +
|+ih−| −
|−ih+|
8
8
8
8
3
1
= |+ih+| + |−ih−|.
4
4
(3.115)
Notiamo che gli stati |φ1 i e |φ2 i non sono ortonormali. È P
facile dimostrare P
che due insiemi di stati
0 0
0
|φi i e |φ0i i danno luogo
alla
stessa
matrice
densità
ρ
=
p
|φ
ihφ
|
=
i
i i i
i pi |φi ihφi | se e solo
p 0 0
P
√
se pi |φi i = i Uij pi |φj i dove U è una matrice unitaria. Ne segue immediatamente che una
data matrice densità corrisponde ad un unica sovrapposizione di stati di una base ortonormale, ma
ad infinite sovrapposizioni di stati che non formano una base ortonormale.
Come possiamo caratterizzare la matrice densità, in modo da distinguere il caso di stato puro da
quello di stato misto? Potrebbe infatti non essere immediatamente evidente se una particolare matrice
densità corrisponda a uno stato puro oppure ad uno stato misto. Basta però esaminare ρ2 : è facile vedere
che se il sistema è in uno stato puro, allora ρ2 = ρ. Infatti, per uno stato puro
ρ2 = |ψihψ|ψihψ| = |ψihψ| = ρ.
(3.116)
La condizione è anche necessaria. Ricordiano infatti che la matrice densità soddisfa la condizione di
normalizzazione sotto traccia Eq. (3.110). Ma


X
X
X
Tr(ρ2 ) = Tr 
|ψi ihψi |ψj ihψj | Pi Pj =
hek |ψi ihψi |ψj ihψj |ek iPi Pj =
|hψi |ψj i|2 Pi Pj . (3.117)
ij
ij
ijk
Se lo stato è misto, la sommatoria contiene più di un termine e quindi possiamo scrivere

!
X
X
X
X
X
X
X
Tr(ρ2 ) =
Pi2 +
Pi Pj |hψi |ψj i|2 <
Pi2 +
Pi Pj =
Pi Pj =
Pi 
Pj  = 1,
i
i6=j
i
i6=j
ij
i
j
(3.118)
3.3 Informazione quantistica
47
dove abbiamo sfruttato il fatto che hψi |ψj i < 1 se i 6= j e i due ket sono entrambi normalizzati, in
conseguenza della disuguaglianza triangolare Eq. (3.72). L’unico modo di avere una uguaglianza, anziché
una disuguaglianza stretta, è che il termine con i 6= j sia assente, cioé che la somma abbia un solo termine.
Se vi sono più termini, e quindi lo stato è misto, allora la Eq. (3.118) mostra che ρ2 ha traccia diversa
da ρ, e quindi non può essere uguale a ρ. Dunque per uno stato misto ρ2 6= ρ e la condizione ρ2 = ρ è
necessaria e sufficiente affinché lo stato sia puro.
Concludiamo pertanto che uno stato è puro se e solo se la matrice densità è un operatore di proiezione.
Naturalmente, possiamo in modo del tutto equivalente usare la condizione sulla traccia per caratterizzare
lo stato, in quanto l’argomento precedente implica che
Tr(ρ2 ) = 1 stato puro,
Tr(ρ2 ) < 1 stato misto.
(3.119)
Nel caso particolare di un sistema bipartito vi è un altro criterio. Infatti, in questo caso in ogni base vi
sono solo due vettori. Quindi, un operatore di proiezione è caratterizzato dal fatto di avere un autovettore
pari ad uno (lo stato su cui si proietta) e un altro uguale a zero (lo stato ad esso ortogonale). Quindi,
una matrice densità (cioé una matrice hermitiana con traccia uguale ad uno) con un autovalore nullo é
automaticamente un operatore di proiezione, e perciò corrisponde ad uno stato puro. Ne segue che per
un sistema bipartito uno stato è puro se e solo se
Y
det(ρ) =
Pi = 0.
(3.120)
i
Notiamo che per un sistema con N > 2 stati la condizione è necessaria ma non sufficiente: infatti il determinante potrebbe annullarsi per uno degli stati, ma il sistema potrebbe essere misto, e sovrapposizione
dei restanti N − 1 stati.
3.3.3
La più generale misura
In definitiva, una misura è interamente specificata noto l’operatore associato all’osservabile che viene
misurata, e la matrice densità associata allo stato (puro o misto) in cui il sistema si trova. Ma la più
generale osservabile è il più generale operatore hermitiano, e la più generale matrice densità è il più
generale operatore hermitiano con traccia uguale ad uno (e, per uno stato puro, tale che il suo quadrato
è uguale a se stesso). Per un sistema bipartito è facile caratterizzare questi oggetti nel caso più generale.
Matrici di Pauli
Per un sistema bipartito, sia la matrice densità che un operatore generico possono essere rappresentati
come una matrice hermitiana due per due, in una qualunque base. Una generica matrice hermitiana due
per due Mij è caratterizzata da quattro parametri reali: infatti, i suoi due elementi diagonali sono reali,
Mii = Mii† = Mii∗ , con i = 1, 2, mentre i sue due elementi non-diagonali sono uno il complesso coniugato
†
∗
dell’altro M12 = M12
= M21
. Conviene quindi introdurre un insieme di quattro matrici hermitiane due
per due linearmente indipendenti (tali cioè che nessuna di esse possa essere ottenuta come combinazione
lineare delle altre.
Una scelta conveniente è data dalla matrice identità e della tre matrici di Pauli definite come:
1 0
I=
(3.121)
0 1
0 1
σ1 =
(3.122)
1 0
0 −i
σ2 =
(3.123)
i 0
1 0
σ3 =
,
(3.124)
0 −1
48
Proprietà quantistiche
che indichiamo collettivamente come σi , supponendo che i = 0, 1, 2, 3 e ponendo convenzionalmente
σ0 = I.
Queste quattro matrici hanno l’utile proprietà
0 i 6= j
Tr(σi σj ) =
,
(3.125)
2 i=j
che segue dal fatto che per i = 1, 2, 3 il prodotto di due qualunque di queste matrici diverse fra di loro è
proporzionale ad un’altra di esse mentre
Trσi = 0,
(3.126)
σi2 = I.
(3.127)
e che per i = 0, 1, 2, 3
Possiamo interpretare la Eq. (3.125) come una relazione di ortonormalità, interpretando la traccia del
prodotto di due matrici come un prodotto scalare far di esse.
In termini di matrici di Pauli, una generica matrice hermitiana può essere scritta come
a + b3 b1 − ib2
M = aI + ~b · ~σ = aI + b1 σ1 + b2 σ2 + b3 σ3 =
.
(3.128)
b1 + ib2 a − b3
Questa è dunque la più generale osservabile.
La più generale matrice densità deve soddisfare l’ulteriore condizione che la sua traccia sia pari a 1.
Ma
Tr(M ) = 2a,
(3.129)
quindi la più generale matrice densità può essere scritta nella forma della Eq. (3.128), ma con a =
Possiamo utilmente riscrivere questo risultato nella forma
ρ=
1
(I + p~ · ~σ ),
2
1
2.
(3.130)
dove quindi p~ = 2~b.
Infine, la matrice densità per uno stato puro nel caso bipartito deve soddisfare la condizione che il suo
determinante si annulli. Ma
det(ρ) =
1
1
(1 − p21 − p22 − p23 ) = 1 − |~
p|2
4
4
(3.131)
quindi uno stato puro ha una matrice densità della forma Eq. (3.130), ma con
|~
p| = 1.
(3.132)
Ne segue che generica matrice densità per uno stato puro è caratterizzata da due numeri reali, in
quanto trovati due elementi del vettore p~ il terzo è determinato dalla condizione Eq. (3.132), in accordo
con la nostra conclsuione che un generico stato quantistico (puro) è determinato da due numeri reali.
Determinazione dello stato
Possiamo ora rispondere alla domanda che ci siamo posti al termine della sezione 3.3.1, e cioè come si
può determinare completamente lo stato di un sistema supponendo di poter preparare molti sistemi nello
stesso stato, ed eseguire misure ripetute su di essi. Utilizzando la Eq. (3.125) vediamo immediatamente
che il valor medio della misura di una osservabile il cui operatore è una matrice di Pauli è
1
Tr(ρσi ) = Tr
(I + p~ · ~σ )σi = pi .
(3.133)
2
3.3 Informazione quantistica
49
Quindi per determinare completamente uno stato è sufficiente essere in grado di effettuare misure ripetute
di una coppia di osservabili che siano linearmente indipendenti se sviluppate su una base di matrici di
Pauli.
Le considerazioni fatte fin qui per i sistemi di un qubit possono essere estese a sistemi più complicati
considerando sistemi di molti qubit, ossia sistemi il cui vettore di stato è il prodotto diretto di tanti ket
|ψii , ciascuno dei quali è uno stato che vive in uno spazio a due livelli:
|Ψi = |ψi1 ⊗ |φi2 ⊗ · · · ⊗ |χin ,
(3.134)
ed in generale gli stati nei vari sottospazi sono diversi fra loro.
Complemento 9. Matrice densità in assenza di informazione.
La matrice densità per un sistema su cui non abbiamo alcuna informazione è proporzionale alla
matrice identità, con il coefficiente fissato dalla condizione di normalizzazione Eq. (3.110), e cioè,
per un sistema n-dimensionale
1
(3.135)
ρ = 1.
n
.
Infatti, in assenza di informazione possiamo solo dire che il sistema ha uguale probabilità di trovarsi
in uno qualunque degli n vettori di base:
ρ=
n
X
1
1
|ei ihei | = 1,
n
n
i=1
dove l’ultimo passo segue dalla relazione di completezza.
indipendente dalla scaleta di base.
3.3.4
(3.136)
Ovviamente, questo risultato è
Il teorema di no-cloning
Abbiamo visto che è possibile determinare completamente lo stato di un sistema se si suppone di poter
preparare un numero arbitrariamente grande di sistemi in quello stato, ed effettuando misure ripetute
su di essi. Per esempio, nell’esperimento di Zeilinger possiamo misurare la distribuzione di probabilità
di arrivo delle molecole sullo schermo ripetendo la misura con tante molecole. Se le molecole sono tutte
preparate nello stesso stato, questa probabilità è determinata dal vettore di stato del sistema.
Ci si può chiedere se ciò sia possibile su un sistema unico, “clonando” lo stato. L’idea è la seguente.
Supponiamo che il sistema sia in uno stato di tanti qubit, della forma della Eq. (3.134), e che esso si trovi
in uno stato
|Ψi = |φi1 ⊗ |xi2 ⊗ · · · ⊗ |xin ,
(3.137)
dove gli stati |xii sono stati sconosciuti qualunque. Supponiamo che esista una macchina, ossia un’evoluzione
unitaria, che prende tale stato, e lo fa evolvere nello stato
|Ξi = |φi1 ⊗ |φi2 ⊗ · · · ⊗ |φin .
(3.138)
Chiamiamo questa macchina un quantum cloning device, in quanto essa ha copiato lo stato |φi1 dal primo
sottosistema a tutti gli altri.
Se questa macchina esiste, è chiaro che possiamo eseguire una unica misura sullo stato |Ξi Eq. (3.138)
che determina completamente lo stato |φi, purchè il numero di sottosistemi sia sufficientemente grande,
misurando due osservabili ortogonali (due matrici di Pauli) ciascuno sulla metà dei sottosistemi.
50
Proprietà quantistiche
Ma ciò non è possibile1 , come si vede considerando il caso più semplice di due sottosistemi. In tal
caso, ci chiediamo se esista un operatore unitario tale che per qualunque stato
|αi = U (|ψi ⊗ |xi) = |ψi ⊗ |ψi.
(3.139)
Visto che ciò deve essere vero per qualunque stato, allora anche
|βi = U (|ϕi ⊗ |xi) = |ϕi ⊗ |ϕi.
(3.140)
Ma se l’operatore U che realizza la clonazione è unitario il prodotto scalare tra gli stati |αi e |βi prima e
dopo la “clonazione” deve restare invariato:
hβ|αi = hϕ|ψihx|xi = hψ|ϕihψ|ϕi,
(3.141)
dove il primo risultato è calcolato prima della clonazione, ed il secondo, dopo. Usando la condizione di
normalizzazione hx|xi = 1 si ottiene
2
hϕ|ψi = hϕ|ψi
(3.142)
il che comporta
hϕ|ψi = 1
oppure hϕ|ψi = 0.
(3.143)
Si possono quindi clonare gli stati di una base ortonormale. Ma questo non aggiunge nulla a quanto si
può fare con una misura: se sappiamo che lo stato che ci viene dato è uno o l’altro di una certa base
ortormale, allora possiamo determinare quale eseguendo una misura, e quindi “clonarlo” eseguendo la
stessa misura sugli altri stati e scartando gli stati per i quali la misura non dà il risultato desiderato. Ma
non può esistere un dispositivo che cloni uno stato generico.
Ne concludiamo che le misure quantistiche sono inevitabilmente distruttive. Il singolo stato non ha
una realtà fisica: non contiene nient’altro che informazione sui risultati delle misure ripetute, ciascuna
delle quali è intrinsecamente probabilistica.
1 W.K Wootters e W.H Zurek, A Single Quantum Cannot be Cloned, Nature 299 (1982), 802; D. Dieks, Communication
by EPR devices, Phys. Lett. A92 (1982) 271.
Parte II
Fondamenti della meccanica
quantistica
Capitolo 4
Quantizzazione canonica: la
meccanica quantistica
Giunti a questo punto, possiamo cominciare a costruire la meccanica quantistica. Applichiamo cioè i
principi di base discussi fino ad ora alla meccanica. I sistemi di cui ci occupiamo a partire da questo
momento vivono in uno spazio delle configurazioni: l’osservabile di base è la posizione, da cui possiamo
tentare di derivare l’altra osservabile che caratterizza completamente lo spazio delle configurazioni classico,
ossia la velocità, o l’impulso. Questo comporta qualche complicazione formale perché lo spazio delle
configurazioni ha dimensione infinita, con la potenza del continuo.
Costruiamo dapprima le osservabili posizione ed impulso, secondo un procedimento che va sotto il
nome di quantizzazione canonica (ossia standard), che ci permette di costruire gli operatori quantistici
associati alle osservabili meccaniche. Questo porta naturalmente alla versione quantistica della formulazione Hamiltoniana della meccanica. Costruiamo quindi, con lo stesso procedimento, le leggi del moto
che forniscono la dipendenza temporale del sistema, e sono quindi l’analogo quantistico delle leggi del
moto classiche.
4.1
La rappresentazione delle coordinate
Consideriamo un sistema per il quale l’osservabile è la posizione. Per semplicità, consideriamo il caso
unidimensionale: la posizione del sistema può essere pensata come un punto su una retta, oppure una
posizione descritta da una coordinata lagrangiana generalizzata.
In qualunque situazione realistica, nessuna posizione può essere misurata con accuratezza infinita,
né può essere misurata in tutto lo spazio: quindi strettamente parlando l’insieme delle posizioni è sempre finito, la posizione pùo solo essere assegnata su un segmento di lunghezza finita, diviso in intervalli
di larghezza pari alla risoluzione dell’apparato di miusro. Lavorare con un numero finito di stati comporterebbe un maggiore rigore matematico, ma una notevole complicazione pratica: per esempio, la
velocità, che è una derivata, diventa una differenza finita. Quindi in pratica risulta più comodo supporre
che il sistema vive nel continuo; il prezzo da pagare è una maggior complicazione (od un minor rigore)
del formalismo dal punto di vista matematico
4.1.1
L’operatore posizione
Consideriamo quindi un sistema che vive in uno spazio unidimensionale, per cui l’osservabile è la posizione,
dimodoché il ket di stato |ψi fornisce l’ampiezza di probabilità di misure di posizione. Definiamo quindi
un operatore posizione x̂, i cui autostati |xi corrispondono a stati di definita posizione, ed in cui autovalori
x ad essi relativi forniscono il valore della posizione stessa:
x̂|xi = x|xi.
(4.1)
54
Quantizzazione canonica: la meccanica quantistica
Il significato di questa scrittura è che noi stiamo supponendo che esista un sistema (quantistico) di cui
possiamo misurare la posizione, che chiamiamo x. I postulati della meccanica quantistica ci dicono che
dopo una misura di posizione questo sistema si trova in uno stato ben determinato: chiamiamo |xi lo stato
in cui si trova qujando la misura di posizione dà come risultato x. Definiamo inoltre x̂ come l’operatore
hermitiano i cui autovettori ed autovalori sono rispettivamente |xi ed x. Quindi, la Eq. (4.1) va presa
come la definizione dell’operatore posizione.
La componente di uno stato generico |ψi lungo il vettore |xi, autostato della posizione, è
hx|ψi = ψ(x).
Al solito, il modulo quadro di questa componente
ψ(x)2 = hx|ψi2 = p(x)
(4.2)
(4.3)
è la probabilità che il sistema si trovi nel punto x. Osserviamo tuttavia che, visto che x è una variabile
continua, p(x) è una densità di probabilità, anziché una probabilità vera e propria, che si ottiene da essa
per integrazione. Infatti, la probabilità che il sistema si trovi tra x e x + ∆ è data da
Z x+∆
2
(4.4)
P∆ [x, x + ∆] =
dx0 ψ(x0 ) .
x
La funzione ψ(x) Eq. (4.2) è detta funzione d’onda del sistema. Una descrizione matematicamente
rigorosa dello spazio degli stati fisici per un sistema siffatto richiede il concetto di “ spazio di Hilbert
equipaggiato”. Non approfondiremo questi aspetti matematici, e ci accontenteremo del formalismo introdotto negli anni ’30 da Dirac per descrivere questa situazione, che fu messo su basi matematiche solide
solo molto più tardi, negli anni ’50.
4.1.2
La distribuzione delta di Dirac
Ci chiediamo cosa diventino nel caso infinito-dimensionale la relazione di completezza e la condizione di
ortonormalizzazione degli stati.
Se gli autostati della posizione
fossero un insieme discreto, potremmo scrivere una relazione di
P
completezza della forma |ψi = i |ei ihei |ψi decomponendo |ψi come:
X
X
|ψi =
|xi ihxi |ψi =
ψ(xi )|xi i.
(4.5)
i
i
Nel limite continuo questa diventa
Z
|ψi =
Z
dx|xihx|ψi =
dx ψ(x)|xi :
(4.6)
Questa scrittura ci obbliga ad introdurre un oggetto peculiare, la delta di Dirac. Si tratta di un oggetto
matematico che prende il nome di distribuzione; la teoria fu costruita negli anni ’50, principalmente grazie
a Laurent Schwartz (1925-2002). Per capirne la necessità, scriviamo l’elemento di matrice di |ψi su un
autostato della posizione utilizzando la risoluzione dell’identità appena introdotta:
Z
Z
0
0
0
ψ(x) = hx|ψi = dx hx|x ihx |ψi = dx0 hx|x0 iψ(x0 ).
(4.7)
Ma la funzione d’onda ψ(x) è una qualunque funzione a valori complessi di una variabile reale. Deve
quindi esistere una quantità
hx0 |xi ≡ δ(x0 , x).
(4.8)
tale che
f (x0 ) =
Z
dx f (x)δ(x0 , x),
(4.9)
4.1 La rappresentazione delle coordinate
55
Properietà della delta
La definizione Eq. (4.9) implica diverse proprietà interessanti:
1. Normalizzazione:
Z
dx δ(x, x0 ) = 1.
(4.10)
Dimostrazione: segue dalla Eq. (4.9) quando f (x) = 1.
2. Invarianza per traslazioni:
δ(x0 , x) = δ(x0 + a, x + a)
Dimostrazione:
Z ∞
Z
0
0
0
dx δ(x + a, x + a)f (x ) =
−∞
∞
0
0
0
(4.11)
Z
∞
dx hx + a|x + aif (x ) =
−∞
dx00 hx + a|x00 if (x00 − a)
−∞
(4.12)
avendo posto x00 = x0 + a. Ma
Z ∞
Z
00
00
00
dx hx + a|x if (x − a) = dx00 δ(x + a, x00 )f (x00 − a) = f (x + a − a) = f (x).
(4.13)
−∞
Questa proprietà implica, equivalentemente, che la delta non dipende separatamente da x e da x0 ,
ma solo dalla loro differenza. D’ora in poi quindi scriveremo la delta come funzione di un unico
argomento: δ(x − x0 ).
3. Simmetria
δ(x0 − x) = δ(x − x0 ).
Dimostrazione: usando nuovamente la completezza
Z
Z
0
0
0
hψ|xi = dx hψ|x ihx |xi = dx0 ψ ∗ (x0 )δ(x0 , x) = ψ ∗ (x).
(4.14)
(4.15)
Ma la ψ(x) è una funzione qualunque quindi confrontando con la definizione Eq. (4.9) ne segue
l’asserto.
4.
xδ(x) = 0;
g(x)δ(x) = g(0)δ(x);
g(x)δ(x − x0 ) = g(x0 )δ(x − x0 ).
(4.16)
Dimostrazione: seguono immediatamente dalla definizione Eq. (4.9).
5.
δ(ax) =
1
δ(x),
|a|
con a una costante reale diversa da zero. Dimostrazione:
00 Z
Z
1
x
1
0
0
0
00
00
dx δ(ax )ψ(x ) =
dx δ(x )ψ
=
ψ(0),
|a|
a
|a|
(4.17)
(4.18)
dove il valore assoluto nel secondo passaggio è dovuto al fatto che se a < 0, il cambio di variabile di
integrazione da x0 a x00 = ax scambia i due estremi di integrazione.
Notiamo
che l’ultima proprietà equivale a dire che la δ si comporta come una misura di integrazione.
R
Infatti dx δ(x) = 1, quindi il riscalamento della x comporta che anche la δ debba riscalare come come
il reciproco del proprio argomento.
56
Quantizzazione canonica: la meccanica quantistica
Significato della delta
La delta di Dirac non può essere interpretata come una funzione ordinaria: infatti essa è diversa da zero
solo in un punto di misura nulla e ciononostante il suo integrale vale uno, Eq. (4.10). Noi prendiamo
Eq. (4.9) come definizione della delta. Questo vale a dire che definiamo la delta come un funzionale,
che agendo su una funzione dà un’altra funzione. Un altro modo di definire la delta è come limite. Per
esempio si può considerare una successione di gaussiane
Z
∞
(x−x0 )2
σ
e−
dx √
−∞
πσ
=1
(4.19)
che diventano sempre più piccate su x0 (vedi figura 4.1) Ne segue che in tale limite, la delta è dappertutto
xʹ
Figura 4.1: δ di Dirac come limite di gaussiane.
nulla, eccetto che nel punto in cui il suo argomento si annulla, dove diverge. Evidentemente non si tratta
di una funzione ordinaria.
4.1.3
Relazione di ortonormalizzazione e risoluzione dell’identità
La delta fornisce una generalizzazione al caso continuo della relazione di ortonormalità. Infatti, la relazione
hi|ji = δij
(4.20)
hx|x0 i = δ(x − x0 ).
(4.21)
nel continuo diventa
Si parla in questo caso di ortonormalizzazione impropria. Notiamo infatti che la “normalizzazione” non
è definita, in quanto se x = x0 la delta diverge.
Veniamo ora alla risoluzione dell’identità. Nel caso discreto tale relazione era:
X
|iihi| = I
(4.22)
i
da cui
X
hen |iihi|em i = Inm .
n,m
(4.23)
4.2 L’operatore impulso e le traslazioni
57
Nel caso continuo
Z
dx |xihx| = I,
(4.24)
e se vogliamo vedere i singoli termini di matrice
!
Z
Z
Z
0
hx |
dx |xihx| |x00 i = dx hx0 |xihx|x00 i = dx δ(x0 − x)δ(x − x00 ) = δ(x0 − x00 ) = hx0 |x00 i. (4.25)
Possiamo quindi vedere la delta di Dirac come come una matrice identità infinito-dimensionale continua.
Consideriamo infine il prodotto scalare. Si ha
Z
Z
hϕ|ψi = dx hϕ|xihx|ψi = dx ϕ∗ (x)ψ(x),
(4.26)
e quindi nel caso particolare |ψi = |ϕi
Z
hψ|ψi =
Z
dxhψ|xihx|ψi =
dx|ψ(x)|2 ,
(4.27)
cioè la condizione di normalizzazione della densità di probabilità Eq. (4.3).
4.1.4
Operatori
Qualunque osservabile funzione delle coordinate (ad esempio, il seno oppure il coseno della coordinata)
può essere espressa da un operatore diagonale nella base delle coordinate. Consideriamo Θ(x̂), espresso
come sviluppo in serie di potenze
Θ(x̂) =
∞
X
Θi (x̂)i = Θ0 + Θ1 x̂ + Θ2 x̂2 + ....
(4.28)
i=0
Gli elementi di matrice di Θ(x̂) sono
hx0 |Θ(x̂)|xi = hx0 |
∞
X
i=0
Θi (x̂)i |xi =
∞
X
Θi (x)i hx0 |xi = Θ(x)δ(x0 − x).
(4.29)
i=0
In particolare, se consideriamo l’operatore posizione stesso x̂, si ha:
hx0 |x̂|xi = xδ(x0 − x) = xδ(x0 − x).
4.2
(4.30)
L’operatore impulso e le traslazioni
Come è noto, la descrizione della dinamica di un sistema classico richiede che oltre alla sua posizione
conosciamo la sua velocità (in una formulazione lagrangiana) o, equivalentemente, il suo impulso (in una
formulazione hamiltoniana). Per ragioni che saranno chiare più avanti, è più semplice rendere compatibili
le leggi della meccanica con i principi della fisica quantistica usando il formalismo hamiltoniano. Studieremo quindi per prima la meccanica quantistica in formulazione hamiltoniana; la versione lagrangiana
verrà presentata nel capitolo 12.2.
Dobbiamo perciò capire prima di tutto come definire l’operatore impulso: avendo costruito lo spazio
degli stati fisici per un sistema di cui si possa misurare la posizione, vogliamo costruire l’operatore impulso
per questo sistema. Realizzeremo questo obiettivo richiedendo che la meccanica quantistica e la meccanica
classica abbiano la stessa struttura di simmetria: questa ci fornirà una procedura per la quantizzazione
dei sistemi meccanici che va sotto il nome di quantizzazione canonica.
58
Quantizzazione canonica: la meccanica quantistica
4.2.1
Il teorema di Noether
In meccanica classica i risultati di misure di un sistema sono strettamente legate alle sue simmetrie. La
possibilità di una misura presuppone infatti che una quantità resti invariata almeno per il tempo della
misura, e le invarianze, cioè le leggi di conservazione classiche, sono legate alle sue simmetrie. Questo
legame è dato dal teorema di Noether, che afferma che in un sistema meccanico classico c’è una quantità
conservata per ogni invarianza del sistema. È quindi possibile identificare ogni osservabile classica con la
corrispondente invarianza: ciò permette di caratterizzare le variabili indipendentemente dalla dinamica.
L’asserto del teorema di Noether afferma che se c’è una invarianza nel sistema, allora lungo le traiettorie
descritte dalle soluzioni delle equazioni del moto c’è una quantità che si conserva. Il risultato si dimostra
per un sistema che soddisfa le equazioni del moto di Eulero-Lagrange ottenute a partire da una lagrangiana
L = L(q, q̇)
∂L
d ∂L
=
;
dt ∂ q̇
∂q
(4.31)
q è una coordinata lagrangiana generalizzata, e le equazioni del moto determinano q(t) e q̇(t) in termini
di una condizione iniziale q(t0 ), q̇(t0 ). D’ora in poi, utilizzeremo indifferentemente q o x per indicare la
coordinata. Indichiamo inoltre con il punto la derivata rispetto al tempo, come si fa comunemente nel
d
q. Con invarianza, intendiamo che sotto la trasformazione
formalismo lagrangiano: q̇ ≡ dt
q → q0 ;
q̇ → q̇ 0
(4.32)
la lagrangiana è invariata:
L(q 0 , q̇ 0 ) = L(q, q̇).
(4.33)
Per dimostrare il teorema, consideriamo il caso di trasformazioni infinitesime, cioè
q → q 0 = q + δq;
q̇ → q̇ 0 = q̇ +
d
δq.
dt
(4.34)
La variazione della lagrangiana, e quindi la condizione di invarianza Eq. (4.33) diventa
δL =
∂L
∂L
δq +
δ q̇ = 0.
∂q
∂ q̇
(4.35)
Utilizzando l’equazione del moto Eq. (4.31) e la trasformazione infinitesima della velocità Eq. (4.34) la
condizione di invarianza della Lagrangiana si può riscrivere nella forma
d ∂L
∂L d
d ∂L
δq +
δq =
δq .
(4.36)
0=
dt ∂ q̇
∂ q̇ dt
dt ∂ q̇
Ne segue che la quantità
Q=
∂L
δq,
∂ q̇
(4.37)
detta carica di Noether, si conserva:
d
Q = 0.
dt
(4.38)
È facile vedere che quando la lagrangiana è invariante per traslazioni la carica di Noether conservata
coincide (a meno di una costante) con l’impulso. La trasformazione della coordinata sotto traslazioni è
infatti
q → q 0 = q + δ,
(4.39)
4.2 L’operatore impulso e le traslazioni
59
e quindi
δq = δ.
(4.40)
Perciò
Q=
∂L
δ = pδ.
∂ q̇
(4.41)
Ma δ è una costante arbitraria, quindi la Eq. (4.41) dice che l’impulso p si conserva.
4.2.2
Le traslazioni in meccanica quantistica
In meccanica classica, l’impulso è la quantità conservata quando vi è invarianza per traslazioni. Costruiamo quindi l’operatore impulso quantistico come l’operatore i cui autovalori si conservano quando vi
è invarianza per traslazioni. Sorprendentemente, vediamo che possiamo determinare completamente il
risultato anche senza conoscere ancora le leggi del moto che forniscono l’evoluzione temporale dei sistemi
quantistici, e limitandoci a supporre che valgano i principi della fisica quantistica che abbiamo studiato
finora.
La procedura che seguiremo può essere seguita in generale per costruire l’operatore quantistico i
cui autovalori si conservano in presenza di una data invarianza, ma per semplicità e concretezza noi la
descriveremo nel caso delle traslazioni.
Per realizzare questo programma, iniziamo quindi da uno studio di come si realizzano le traslazioni
per un sistema quantistico definito nello spazio delle coordinate. Possiamo vedere una traslazione come
un cambiamento della base di autostati dell’operatore posizione, realizzata da un operatore T̂ :
T̂ |qi = |q − δi.
(4.42)
Poiché sia gli stati di partenza che quelli trasformati formano una base, e abbiamo visto che un cambiamento di base è realizzato da una trasformazione unitaria, ne segue che l’operatore T̂ è unitario.
L’azione di T̂ su uno stato qualunque |ψi è
Z
Z
Z
T̂ |ψi = dq T̂ |qihq|ψi = dq |q − δiψ(q) = dq 0 |q 0 iψ(q 0 + δ),
(4.43)
dove nell’ultimo passaggio abbiamo cambiato variabile di integrazione da q a q 0 = q − δ. Pertanto
hq|T̂ |ψi = ψ(q + δ).
(4.44)
Si arriva alla stessa conclusione sfruttando l’unitarietà di T̂ :
T̂ −1 |qi = T̂ † |qi = |q + δi =⇒ hq|T̂ = hq + δ|
(4.45)
hq|T̂ |ψi = hq + δ|ψi = ψ(q + δ).
(4.46)
e di conseguenza
L’elemento di matrice dell’operatore traslazione Eq. (4.44) piò essere riscritto attraverso uno sviluppo
in serie di Taylor:
k !
∞
∞
X
X
d
δ k (k)
δk d
ψ (q) =
ψ(q) = eδ dq ψ(q),
(4.47)
ψ(q + δ) =
k!
k! dq
k=0
k=0
dove negli ultimi due passaggi abbiamo ottenuto la serie dall’azione ripetuta dell’operatore di derivazione
rispetto a q, a sua volta rappresentata come esponenziale.
60
Quantizzazione canonica: la meccanica quantistica
Osserviamo che un operatore unitario Û può sempre essere scritto come esponenziale di un operatore hermitiano Ĥ, infatti se poniamo Û = exp(iĤ) e supponiamo che H sia hermitiano ne segue
immediatamente che U è unitario, perché
†
†
U † = eiH = e−iH = e−iH = U −1 .
(4.48)
Poniamo quindi
T̂δ = eik̂δ .
(4.49)
Ma le Eq. (4.44,4.47) ci dicono che
d
hq|eik̂δ |ψi = ψ(q + δ) = eδ dq ψ(q).
(4.50)
Sviluppando al primo ordine in δ quest’ultima equazione possiamo determinare l’elemento di matrice
dell’operatore k̂:
hq|1 + ik̂δ|ψi + O(δ 2 ) = ψ(q) + δ
d
ψ(q) + O(δ 2 )
dq
(4.51)
e quindi
hq|k̂|ψi = −i
d
ψ(q).
dq
(4.52)
Vediamo cosı̀ che l’azione dell’operatore di traslazione T è interamente determinata dagli elementi di
matrice dell’operatore k̂. Questo è generalmente vero quando si sfrutta la rappresentazione di un operatore
di trasformazione unitario in termini di esponenziale di un operatore hermitiano. L’operatore hermitiano,
nel nostro caso k̂, è detto generatore della trasformazione. Nel nostro caso specifico, k̂ è il generatore
delle traslazioni.
4.2.3
L’operatore impulso
Possiamo ora costruire l’operatore impulso in meccanica quantistica come la quantità conservata quando
vi è invarianza per traslazioni. Con “invarianza per traslazioni” intendiamo quanto segue. Supponiamo
che esista un certo operatore unitario S che fornisce l’evoluzione temporale del sistema, cioè che agendo
agendo sullo stato del sistema |ψi dia lo stato evoluto ad un tempo t:
S(t, t0 )|ψ(t0 )i = |ψ(t)i.
(4.53)
Usando questo operatore, possiamo calcolare l’ampiezza di probabilità che un sistema, preparato nello
stato |ψ(t0 )i al tempo t0 , dia lo stato |ϕ(t)i se al tempo t viene eseguita una misura. L’ampiezza di
probabilità corrispondente è
hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i.
(4.54)
Diciamo che vi è invarianza per traslazioni se eseguendo una traslazione dell’intero sistema, cioé una
traslazione di tutti gli stati, e quindi anche dello stato |ψ(t0 )i e dello stato |ϕ(t)i, i risultati delle misure
restano invariati, e quindi l’ampiezza Eq. (4.54) non cambia. L’invarianza per traslazioni corrisponde
quindi alla richiesta che
hϕ(t)|ψ(t)i = hϕ(t)|T̂ † S(t, t0 )T̂ |ψ(t0 )i.
(4.55)
Nel caso particolare di una trasformazione infinitesima, T̂ε = 1 + iεk̂ ( e T̂ε† = 1 − iεk̂) il membro
destro della Eq. (4.55) si può riscrivere come
hϕ(t)|T̂ † S(t, t0 )T̂ |ψ(t0 )i = hϕ(t)|(1 − iεk̂)S(t, t0 )(1 + iεk̂)|ψ(t0 )i
= hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|k̂S(t, t0 ) − S(t, t0 )k̂|ψ(t0 )i + O(ε2 )
= hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i,
4.2 L’operatore impulso e le traslazioni
61
e quindi la condizione di invarianza diventa
hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i.
(4.56)
Si ha quindi invarianza per traslazioni se e solo se
[k̂, S(t, t0 )] = 0.
(4.57)
Consideriamo ora gli autostati ed autovalori dell’operatore (hermitiano) k̂:
k̂|ki = k|ki.
(4.58)
Utilizzando la relazione di completezza rispetto a questi stati nell’equazione Eq. (4.57) abbiamo
Z
0 = hϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i = dkdk 0 hϕ(t)|kihk|[k̂, S(t, t0 )]|k 0 ihk 0 |ψ(t0 )i
Z
= dkdk 0 hϕ(t)|kihk|k̂S(t, t0 ) − S(t, t0 )k̂|k 0 ihk 0 |ψ(t0 )i
Z
= dkdk 0 hϕ(t)|ki(k − k 0 )hk|S(t, t0 )|k 0 ihk 0 |ψ(t0 )i.
Ne segue che
hk|S(t, t0 )|k 0 i = 0 se k 6= k 0 .
(4.59)
Ma la Eq. (4.59) è proprio una legge di conservazione: dice che se il sistema è in un autostato di k al
tempo t0 , resta nello stesso autostato al tempo t1 : l’ampiezza che una misura lo trovi in qualunque altro
autostato è nulla. Quindi abbiamo dimostrato che se il sistema è invariante per traslazioni, qualunque
evoluzione temporale unitaria preserva l’autovalore del generatore delle traslazioni. Possiamo quindi
identificare, a meno di una costante di proporzionalità, l’operatore impulso con l’operatore hermitiano
che genera le traslazioni.
4.2.4
Operatori e leggi di conservazione
È facile vedere che l’argomento che abbiamo presentato nella Sezione 4.2.3 vale in forma del tutto generale:
se una trasformazione unitaria può essere scritta come esponenziale di un generatore hermitiano, allora
gli autovalori di questo operatore si conservano se e solo se esso commuta con l’operatore di evoluzione
temporale. Infatti, in tutto l’argomento dato, a partire dalla Eq. (4.55) fino al risultato finale Eq. (4.59)
non abbiamo mai usato il fatto che k̂ generi le traslazioni, piuttosto che qualunque altra trasformazione.
Osserviamo ora che, per ragioni dimensionali, tra l’operatore impulso ed il generatore delle traslazioni
deve esservi una una costante di proporzionalità. Infatti, le dimensioni di k̂ sono
[k̂] = [L]−1 ,
(4.60)
come si vede dalla Eq. (4.52). D’altra parte le dimensioni di p̂ sono
[p̂] = [E][T ][L]−1
come si vede dal fatto che p =
∂L
∂ q̇
(4.61)
(ricordando che la lagrangiana è la differenza di energia cinetica e
potenziale, e quindi ha le dimensioni di energia). Ne segue che la costante di proporzionalità tra p̂ e k̂,
che chiamiamo ~,
p̂ = ~k̂
(4.62)
[~] = [E][T ],
(4.63)
ha le dimensioni di
62
Quantizzazione canonica: la meccanica quantistica
ossial le dimensioni di una azione.
Facciamo quindi l’ipotesi che la costante ~ sia universale: cioè per ogni osservabile classica, facciamo
l’ipotesi che l’operatore quantistico associato si possa costruire seguendo la procedura che abbiamo seguito
nel caso dell’impulso. Si determina la trasformazione tale per cui l’osservabile classica è conservata quando
vi è invarianza. Si determina il generatore di questa trasformazione sugli stati quantistici. Si identifica
infine l’operatore quantistico associato all’osservabile data come questo generatore, moltiplicato per ~.
La costante ~ è nota come costante di Planck.
Naturalmente, la normalizzazione dell’osservabile classica è convenzionale (se si conserva p si conserva
anche 2p, e cosı̀ via), cosı̀ come è convenzionale la normalizzazione del generatore da cui si ottiene
l’osservabile quantistica (nulla ci vieta di definire la traslazione come la tasformazione q → q + 2δ).
Tuttavia, la normalizzazione relativa dell’osservabile classica e del generatore quantistico ha un significato
assoluto, come possiamo capire studiando l’azione dell’operatore impulso sull’operatore coordinata.
4.2.5
Il commutatore canonico
Consideriamo quindi l’azione dell’operatore di traslazione T̂ sull’operatore q̂. Giacché, come si è detto,
una traslazione può essere vista come un cambiamento di base nello spazio delle coordinate, ci basta
ricordare la forma forma generale della trasformazione di un operatore sotto cambiamento di base, ossia
l’azione aggiunta Eq. (3.34) della trasformazione:
T̂ −1 q̂ T̂ |qi = T̂ −1 q̂|q − δi = T̂ −1 (q − δ)|q − δi = (q − δ)T̂ −1 |q − δi = (q − δ)|qi.
(4.64)
T̂ −1 q̂ T̂ = q̂ − δ.
(4.65)
Ne segue che
Nel caso particolare di una trasformazione infinitesima T̂ε = 1 + iεk̂ = 1 + iε ~1 p̂ si ha
1
1
−1
T̂ε q̂ T̂ε = 1 − iε p̂ q̂ 1 + iε p̂ = q̂ − ε,
h̄
h̄
(4.66)
che implica
1
q̂ − iε (p̂q̂ − q̂ p̂) + O(ε2 ) = q̂ − ε
~
(4.67)
[p̂, q̂] = −i~.
(4.68)
e quindi
Notiamo che anche questo argomento è del tutto generale: per qualunque trasformazione T̂ generata
da un generatore hermitiano G, cioè tale che T̂δ = exp iδ Ĝ la variazione di un operatore  sotto l’effetto
della trasformazione è proporzionale al commutatore del generatore con l’operatore: infatti l’operatore
trasformato è
Â0 = T̂ −1 ÂT̂ = 1 − iεĜ Â 1 + iεĜ = A + i[G, A]
(4.69)
e quindi
δ Â = Â0 − A = i[G, A].
(4.70)
Il commutatore Eq. (4.68) è detto commutatore canonico: il ragionamento che abbiamo fatto qui per
dedurre la forma dell’operatore impulso può essere equivalentemente espresso dicendo che si postula che la
parentesi di Poisson classica tra le variabili p e q sia quantisticamente sostituita dal commutatore canonico.
Questo modo di formulare la quantizzazione dei sistemi meccanici (quantizzazione canonica, appunto) è
dovuto a Dirac: chiedere la sostituzione delle parentesi di Poisson con i commutatori è equivalente a
richiedere l’invarianza della struttura di simmetria perchè le parentesi di Poisson possono essere utilizzate
4.3 Base delle coordinate e base degli impulsi
63
per formulare le trasformazioni di coordinate nel caso classico (trasformazioni canoniche) e quindi le
invarianze sotto di esse. Capiamo quindi che la costante ~ fornisce il fattore di conversione tra parentesi
di Poisson classiche e commutatori quantistici, che, secondo la Eq. (4.70) danno la trasformazione delle
osservabili, cioè degli operatori, nel caso quantistico. Come sappiamo dalla meccanica classica, le parentesi
di Poisson possono essere usate per esprimere i cambi di variabile sullo spazio delle configurazioni classico
attraverso il formalismo delle trasformazioni canoniche. Capiamo quindi che la quantizzazione canonica
fornisce la corrispondenza tra la meccanica classica e la meccanica quantistica traducendo le trasformazioni
sullo spazio delle configurazioni classico (realizzate come trasformazioni canoniche) in trasformazioni sugli
stati quantistici.
Notiamo che il commutatore canonico implica immediatamente che p̂ e q̂ sono operatori incompatibili.
Non possono esser diagonalizzati simultaneamente, e le loro rispettive indeterminazioni devono soddisfare,
per la Eq. (3.85), la disuguaglianza
∆2 p∆2 q ≥
~2
.
4
(4.71)
La relazione di indeterminazione posizione-impulso Eq. (4.71) è nota come principio di indeterminazione
di Heisenberg.
4.3
Base delle coordinate e base degli impulsi
Poiché gli operatori posizione e impulso non commutano, essi non possono essere diagonalizzati simultaneamente. Possiamo quindi scegliere di esprimere la meccanica (quindi, ad esempio, rappresentare stati ed
operatori) nella base degli autostati dell’uno o dell’altro operatore, ma non di entrambi simultaneamente.
4.3.1
La base delle coordinate
Abbiamo costruito esplicitamente gli elementi di matrice degli operatori posizione ed impulso nella base
degli austostati Eq. (4.1) |qi dell’operatore posizione:
hq|q̂|ψi = qψ(q)
d
hq|p̂|ψi = −i~ ψ(q),
dq
(4.72)
(4.73)
dove la seconda equazione segue dall’identificazione Eq. (4.62) dell’operatore impulso con il generatore
delle traslazioni, e dall’espressione Eq. (4.52) dell’azione di quest’ultimo sugli stati. In particolare, gli
elementi di matrice degli operatori posizione ed impulso tra autostati della posizione sono dati da
hq|q̂|q 0 i = qδ(q − q 0 )
d
hq|p̂|q 0 i = −i~ δ(q − q 0 ).
dq
(4.74)
(4.75)
Verifichiamo ora che gli operatori posizione e impulso cosı̀ definiti sono hermitiani. Per l’operatore
posizione si ha
∗
hq 0 |q̂ † |qi = hq|q̂|q 0 i = q 0 δ(q 0 − q) = qδ(q 0 − q) = hq 0 |q̂|qi,
(4.76)
avendo sfruttato l’identità Eq. (4.16) soddisfatta dalla delta di Dirac. Quindi l’operatore q̂ è manifestamente hermitiano e, ovviamente, diagonale nella base delle coordinate.
Per l’operatore impulso si ha
∗
d
d
d
hq 0 |p̂† |qi = hq|p̂|q 0 i = i~ δ(q − q 0 ) = −i~ 0 δ(q − q 0 ) = −i~ 0 δ(q 0 − q) = hq 0 |p̂|qi,
dq
dq
dq
(4.77)
avendo sfruttato la simmetria della delta, e l’ovvio fatto che la derivata di una funzione simmetrica è
antisimmetrica.
64
Quantizzazione canonica: la meccanica quantistica
L’hermiticità dell’operatore impulso ha una interessante implicazione per il prodotto scalare: infatti
si ha da una parte
Z
Z
d
hϕ|p̂|ψi = dq hϕ|qihq|p̂|ψi = dq ϕ∗ (q)(−i~) ψ(q),
(4.78)
dq
mentre l’hermiticità dell’operatore implica che
Z
∗ Z
∗
d
d
dq ψ ∗ (q)(−i~) ϕ(q) = dq ψ(q)i~ ϕ∗ (q).
hϕ|p̂|ψi = hϕ|p̂† |ψi = hψ|p̂|ϕi =
dq
dq
(4.79)
Ricordando la formula dell’integrazione per parti,
Z
b
dx f (x)
a
b Z b
d
d
dx g(x) f (x),
g(x) = f (x)g(x) −
dx
dx
a
a
(4.80)
vediamo che l’hermiticità è soddisfatta e le due espressioni Eq. (4.78,4.79) sono uguali se e solo se si
possono integrare le funzioni d’onda per parti ed il termine di bordo si annulla. Se lo spazio si estende
da −∞ a +∞ questo è sempre vero per stati normalizzabili in senso proprio: infatti
Z ∞
2
1
x→∞
⇔
ψ(x) ∼
dx ψ(x) = 1
.
(4.81)
1
x 2 +ε
−∞
e la stessa considerazione vale per ϕ(x). Più in generale, l’hermiticità dell’operatore impulso è soddisfatta
sotto opportune ipotesi sullo spazio degli stati fisici, ed in particolare sotto l’ipotesi che sia possibile sempre
integrare per parti trascurando il termine di bordo. Fisicamente, questa è un’ipotesi di localizzazione degli
stati. Nel seguito supporremo sempre che questa ipotesi sia soddisfatta.
4.3.2
Autostati dell’operatore impulso
Poiché posizione ed impulso non commutano, l’operatore p̂ non è diagonale nella base delle posizioni.
Determiniamo quindi i suoi autostati, ossia gli stati |ki tali che
p̂|ki = ~k|ki.
(4.82)
Ovviamente, possiamo indifferentemente decidere di etichettare gli stati con l’autovalore di p̂ o del generatore delle traslazioni k̂, visto che i due operatori sono proporzionali. Nella base delle posizioni gli stati
|ki sono delle funzioni della posizione
ψk (q) ≡ hq|ki
(4.83)
hq|p̂|ki = ~khq|ki,
(4.84)
che soddisfano l’equazione
ossia l’equazione differenziale
−i~
d
ψk (q) = ~kψk (q).
dq
(4.85)
ψk (q) = Nk eikq .
(4.86)
La soluzione di tale equazione è
Le autofunzioni sono quindi onde piane.
Vorremmo determinare la costante di normalizzazione Nk . Osserviamo che lo spettro di valori di k è
continuo, e quindi gli stati |ki non possono soddisfare una condizione di normalizzazione in senso proprio.
4.3 Base delle coordinate e base degli impulsi
65
Richiedendo che valga una relazione di completezza, ossia la risoluzione dell’indentità per questi stati,
troviamo che essi devono soddisfare una condizione di normalizzazione impropria
hk 0 |ki = δ(k 0 − k),
(4.87)
dimodoché
Z
ψ(k) = hk|ψi =
dk 0 hk|k 0 ihk 0 |ψi =
Z
dk 0 hk|k 0 iψ(k 0 ).
(4.88)
La costante Nk è quindi determinata dalla condizione di normalizzazione Eq. (4.87). Utilizzando la
completezza della base delle autofunzioni |qi abbiamo
Z ∞
Z ∞
Z ∞
0
0
δ(k 0 − k) = hk 0 |ki =
dq e−ik q eikq = |Nk |2
dq ei(k−k )q ,
dq hk 0 |qihq|ki = |Nk |2
(4.89)
−∞
−∞
Nk∗0 Nk
−∞
2
dove abbiamo posto
= |Nk | sfruttando il fatto che il risultato deve essere proporzionale ad una
δ(k − k 0 ), e dunque f (k)δ(k − k 0 ) = f (k 0 )δ(k = k 0 ).
Quindi, sostituendo l’espressione esplicita Eq. (4.89) nella relazione di completezza Eq. (4.88) si trova
Z ∞
Z ∞Z ∞
0
dkdq ψ(k)ei(k−k )q |Nk |2
ψ(k 0 ) =
dk ψ(k)δ(k 0 − k) =
−∞ −∞
−∞
Z
∞
= lim
λ→∞
λ
−∞
∞
= lim
0
dq |Nk |2 ei(k−k )q ψ(k) = lim
dk
Z
λ→∞
Z
λ→∞
−λ
e
dk |Nk |2
i(k−k0 )λ
−∞
Z
0
∞
dk|Nk |2
−∞
ei(k−k )q λ
ψ(k)
i(k − k 0 ) −λ
−i(k−k0 )λ
−e
i(k − k 0 )
ψ(k).
(4.90)
±i(k−k0 )λ
Ciascuna delle due funzioni e i(k−k0 ) ψ(k) ha un polo semplice per k → k 0 . L’integrale ha quindi un
polo semplice in k = k 0 lungo il cammino di integrazione. Esso può essere definito nel senso del valor
principale di Cauchy, cioè come la media degli integrali in cui la singolarità viene aggirata da sopra e da
sotto:
"Z
#
Z ∞
Z
±i(k−k0 )λ
±i(k−k0 )λ
±i(k−k0 )λ
1
2e
2e
2e
dk |Nk |
dk |Nk |
dk |Nk |
=
+
,
(4.91)
i(k − k 0 )
2 C1
i(k − k 0 )
i(k − k 0 )
−∞
C2
dove i cammini C1 e C2 sono disegnati in Figura 4.2.
Figura 4.2: Cammini di integrazione
In definitiva quindi l’integrale può essere scritto come la somma di quattro integrali, cioè gli integrali
delle due funzioni singolari, ciascuna integrata passando sopra o sotto la singolarità. Ciascuno di essi
può essere semplicemente calcolato mediante il teorema dei residui, osservando che se (k − k 0 )λ > 0 (
(k − k 0 )λ < 0) è possibile chiudere il cammino nel semipiano Re > 0 (Re < 0). Si ha cosı̀
Z ∞
0
e±i(k−k )λ
0
0
2
|Nk |
dk
ψ(k) = πiRes(f± (k), k ) =
,
(4.92)
0)
±π|Nk |2 ψ(k 0 )
i(k
−
k
−∞
66
Quantizzazione canonica: la meccanica quantistica
a seconda che la singolarità sia fuori (esponente positivo cammino C1 o negativo, cammino C2 ) o dentro
il cammino (esponente negativo cammino C1 o positivo, cammino C2 ).
Abbiamo cosı̀ infine
Z ∞
0
i(k−k0 )λ
− e−i(k−k )λ
0
2e
ψ(k ) = lim
ψ(k) = 2π|Nk |2 ψ(k 0 ).
dk |Nk |
(4.93)
λ→∞ −∞
i(k − k 0 )
Ne deduciamo che la costante di normalizzazione cercata è
1
,
2π
(4.94)
1
Nk = √ .
2π
(4.95)
|Nk |2 =
e quindi ponendo arbitrariamente la fase uguale a uno
Possiamo interpretare quindi la Eq. (4.89) come una rappresentazione della δ di Dirac:
Z ∞
1
δ(x) =
dq eiqx .
2π −∞
(4.96)
Questo significa che la δ di Dirac è la trasformata di Fourier dell’identità.
Concludiamo che le autofunzioni ψk (q) sono1 :
1
ψk (q) = √ eiqk
2π
4.3.3
(4.97)
La base degli impulsi
Avendo a disposizione l’espressione degli autostati dell’impulso nella base delle posizioni possiamo costruire anche l’espressione degli autostati della posizione nella base degli autostati dell’impulso. Infatti si
ha
1
hq|ki = √ eikq
2π
1 −ikq
,
hk|qi = √ e
2π
(4.98)
(4.99)
e quindi possiamo usare le hq|ki come matrice di passaggio dalla base degli autostati della posizione alla
base degli autostati dell’impulso.
Per uno stato fisico generico |ψi abbiamo
Z
Z
1
ψ(k) = dq hk|qihq|ψi = dq √ e−ikq ψ(q)
(4.100)
2π
Z
Z
1
ψ(q) = dk hq|kihk|ψi = dk √ eikq ψ(k),
(4.101)
2π
ovvero ψ(q) e ψ(k) sono una la trasformata di Fourier dell’altra. Esse contengono quindi la stessa
informazione: le relazioni (4.100) permettono di ricavare ψ(q) da ψ(k) e viceversa. Questo vuol dire
che impulso e posizione non sono quindi indipendenti, e in effetti lo stesso vettore di stato determina la
distribuzione di probabilità dei risultati delle misure di entrambi.
Possiamo in conclusione scrivere gli autostati degli operatori posizione ed impulso sulla base degli
autostati dell’impulso. Ovviamente l’operatore impulso è diagonale nella base dei suoi autostati:
hk|p̂|ψi = ~kψ(k);
1A
hk|p̂|k 0 i = ~k 0 δ(k − k 0 ).
(4.102)
seconda che scegliamo k̂ o p̂, oppure |ki o |pi come autostati, otteniamo espressioni lievemente differenti in quanto
p̂ = ~k̂. Scegliendo autostati |pi si avrebbe hp|p̂|ψi = pψ(p) e hq|pi =
iqp
√1 e ~
2π~
.
4.3 Base delle coordinate e base degli impulsi
67
Invece hk|q̂|ψi non è diagonale:
Z
Z
Z
dq
1
d
d
√ e−ikq ψ(q)q = i
hk|q̂|ψi = dq hk|q̂|qihq|ψi =
dq √ e−ikq ψ(q) = i ψ(k).
dk
dk
2π
2π
(4.103)
Dalle Eq. (4.103) possiamo immediatamente leggere che nella base degli impulsi gli elementi di matrice
dell’operatore posizione hanno la forma
hk|q̂|ψi = i
d
ψ(k).
dk
In altri termini, l’operatore posizione è proporzionale al generatore delle traslazioni dell’impulso.
(4.104)
68
Quantizzazione canonica: la meccanica quantistica
Capitolo 5
Evoluzione temporale
5.1
Il generatore dell’evoluzione temporale
Abbiamo definito l’operatore di evoluzione temporale S(t, t0 ) Eq. (4.53) come l’operatore unitario che,
agendo sugli stati fisici ad un tempo “iniziale” t0 produce gli stati fisici ad un tempo “finale” t1 . Notiamo
che non è detto che t1 > t0 , ed il fatto che l’operatore sia unitario implica che l’evoluzione temporale è
reversibile. Ora vogliamo costruire questo operatore esplicitamente.
5.1.1
Traslazioni temporali e leggi di conservazione quantistiche
In un contesto non relativistico, il tempo non è un’osservabile, ma un parametro, dal quale dipendono le
configurazioni. Le configurazioni del sistema sono date dai vettori di stato |ψi, pertanto quando diciamo
che consideriamo le evoluzioni temporali i vettori di stato diventano delle famiglie ad un parametro |ψ(t)i
parametrizzate dal tempo1 . Un ket di stato dipendente dal tempo può sempre essere scritto come
|ψ(t + δ)i = eδ dt |ψ(t)i = eiδ(−i dt ) |ψ(t)i,
d
d
(5.1)
d
cioè come il risultato di una traslazione temporale generata dall’operatore −i dt
.
L’esistenza di un operatore unitario S calcolabile che realizza la traslazione temporale rende la meccanica quantistica predittiva. L’unitarietà dell’operatore S implica che esso possa essere scritto come
esponenziale di un opportuno operatore hermitiano OH :
S(t1 , t0 ) = eiOH (t1 ,t0 ) .
(5.2)
Per un’evoluzione temporale infinitesima si ha t1 − t0 = ε e
S(t1 , t0 ) = S(t0 + ε, t0 ) = I + iε
∂
OH (t1 , t0 )
,
∂t1
t1 =t0
(5.3)
ovvero, definendo
∂
0
O
(t
,
t)
0 ,
H
∂t0
t =t
(5.4)
S(t0 + ε, t0 ) = I + iεĤ(t).
(5.5)
Ĥ(t) ≡
Mostriamo ora che un argomento analogo a quello della Sezione 4.2.3 porta immediatamente a concludere che se la dinamica è invariante per traslazioni temporali, allora gli autovalori di Ĥ(t) si conservano.
Invarianza per traslazioni temporali significa che
hϕ|S(t1 , t0 )|ψi = hϕ|S(t1 + δ, t0 + δ)|ψi,
(5.6)
1 Una generalizzazione consistente al caso relativistico della meccanica quantistica richiede il passaggio alla descrizione
di sistemi con infiniti gradi di libertà, cioè alla teoria quantistica dei campi, di cui la meccanica quantistica relativistica può
essere costruita come limite.
70
Evoluzione temporale
e cioè, visto che |ψi, |ϕi sono stati generici,
S(t1 , t0 ) = S(t1 + δ, t0 + δ)
(5.7)
Nel caso infinitesimo, la Eq. (5.7) implica che
I + iεĤ(t) = I + iεĤ(t + δ)
(5.8)
dĤ
= 0.
dt
(5.9)
ovvero che Ĥ non dipende da t:
Ma da questo segue immediatamente che Ĥ commuta con S. Infatti,
S(t1 , t0 ) = S(t1 + δ, t0 + δ) = S(t1 + δ, t1 )S(t1 , t0 )S(t0 , t0 + δ)
= S(t1 + δ, t1 )S(t1 , t0 )S −1 (t0 + δ, t0 )
= S(t1 + δ, t1 )S(t1 , t0 )S † (t0 + δ, t0 ) = (I + iδ Ĥ)S(t1 , t0 )(I − iδ Ĥ)
= S(t1 , t0 ) + iδ[Ĥ, S(t1 , t0 )] + O(δ 2 )
(5.10)
[Ĥ, S(t1 , t0 )] = 0.
(5.11)
e quindi
D’altra parte, lo stesso argomento della Sezione 4.2.3 mostra che se Ĥ commuta con l’operatore di
evoluzione temporale, allora i suo autovalori sono conservati. Supponiamo che Ĥ abbia autostati ed
autovalori
Ĥ|Ei = E|Ei.
(5.12)
La proprietà di commutazione Eq. (5.11) implica che sfruttando quanto determinato sopra
Z
0 =hϕ|[Ĥ, S(t1 , t0 )]|ψi = hϕ|(ĤS(t1 , t0 ) − S(t1 , t0 )Ĥ|ψi = dEdE 0 hϕ|EihE|(ĤS − S Ĥ)|E 0 ihE 0 |ψi
Z
Z
0
0
0
0
0
= dEdE hϕ|Ei EhE|S|E i − E hE|S|E i hE |ψi = dEdE 0 E − E 0 hϕ|EihE|S|E 0 ihE 0 |ψi,
(5.13)
e quindi
hE|S|E 0 i = 0 se E 0 6= E,
(5.14)
che significa che l’evoluzione temporale S collega solo stati che hanno lo stesso valore di E.
5.1.2
Il teorema di Noether per trasformazioni dipendenti dal tempo
Classicamente la quantità che si conserva quando vi è invarianza per traslazioni temporali è l’Hamiltoniana H. Per dimostrarlo, dobbiamo considerare la generalizzazione del teorema di Noether al caso di
trasformazioni dipendenti dal tempo. In tal caso, la quantità la cui invarianza determina la legge di
conservazione è l’azione, ossia l’integrale della Lagrangiana rispetto al tempo. Il teorema afferma che
vi è una quantità conservata ogniqualvolta che per una qualunque trasformazione che agisce sia sulle
coordinate che sui tempi, cioè (nel caso infinitesimo)
q(t) → q 0 (t) = q(t) + δq,
0
t → t (t) = t + δt
(5.15)
(5.16)
5.1 Il generatore dell’evoluzione temporale
71
l’azione è invariante, cioè
L(q 0 (t0 ), q̇ 0 (t0 ), t0 )dt0 = L(q(t), q̇(t), t)dt.
(5.17)
La dimostrazione generalizza quella della sezione 4.2.1. Definita l’azione infinitesima A = L(q, q̇, t)dt,
la condizione di invarianza è
δA = L(q 0 (t0 ), q̇ 0 (t0 ), t0 )dt0 − L(q(t), q̇(t), t)dt.
D’altra parte la variazione dell’azione è esplicitamente data da
∂L
∂L
dL δq +
δ q̇ +
δt dt + Lδdt.
δA =
∂q
∂ q̇
dt
(5.18)
(5.19)
Usando come nella Eq. (4.36) l’equazione del moto Eq. (4.31), ed osservando che
δdt = dt0 − dt =
dt0
d d
dt0
dt − dt =
− 1 dt = (t0 − t)dt =
δt dt,
dt
dt
dt
dt
(5.20)
si ha:
0 = δA =
d ∂L
dL d ∂L d δq +
δq dt +
dt dt + L δt dt,
dt ∂ q̇
∂ q̇ dt
dt
dt
(5.21)
ossia
dQ
dt = 0,
dt
(5.22)
avendo posto
Q=
∂L
δq + Lδt,
∂ q̇
(5.23)
che è la carica di Noether conservata.
Specializziamo al caso di traslazione temporale:
t → t0 = t + δ.
(5.24)
Se la traslazione agisce solo sui tempi si ha che
q(t) = q 0 (t0 ),
(5.25)
q 0 (t + δ) = q 0 (t) + q̇ 0 (t)δ,
(5.26)
q 0 (t) = q(t) − q̇(t)δ
(5.27)
δq = q 0 (t) − q(t) = −q̇(t)δ.
(5.28)
e quindi, nel caso infinitesimo,
che implica
ossia
La carica di Noether Eq. (5.23) nel caso di invarianza sotto traslazioni temporali è quindi data da
∂L
∂L Q=−
q̇δ + Lδ = δ L −
q̇ = −δH,
(5.29)
∂ q̇
∂ q̇
e dunque la quantità conservata è proprio l’Hamiltoniana
H≡
∂L
q̇ − L.
∂ q̇
(5.30)
72
Evoluzione temporale
5.1.3
Il postulato dell’evoluzione temporale
Classicamente quando vi è invarianza per traslazioni temporali l’hamiltoniana si conserva, mentre quantisticamente l’operatore il cui spettro è conservato quando vi è invarianza per traslazioni temporali è il
generatore H Eq. (5.4) dell’evoluzione temporale. Questo suggerisce di identificare, a meno di una costante
di proporzionalità, questo operatore con l’hamiltoniana. Questa viene costruita utilizzando il principio di
corrispondenza, cioè partendo dall’hamiltoniana classica vista come funzione di p e q e sostituendo questi
ultimi con i rispettivi operatori quantistici:
Ĥ = cĤ(p̂, q̂).
(5.31)
Ciò ancora una volta realizza il principio della quantizzazione canonica di Dirac, e cioè che le relazioni
di commutazione dell’hamiltoniana con gli operatori canonici (e quindi le funzioni di essi) riproducano la
struttura delle corrispondenti parentesi di Poisson classiche.
Per determinare la dimensionalità della costante di proporzionalità c notiamo che la Eq. (5.5) implica immediatamente che la combinazione εĤ deve essere adimensionale (tutti i termini a membro
destro dell’equazione devono avere la stessa dimensione), ossia Ĥ ha le dimensioni di [T −1 ]. Quindi,
visto che l’hamiltoniana ha le dimensioni di un’energia (ovviamente, visto che classicamente ha proprio
l’interpretazione di energia) le dimensioni della costante sono
[c] = [E −1 ][T −1 ],
(5.32)
ossia quelle del reciproco di ~. Poniamo cosı̀
1
Ĥ = − Ĥ,
~
(5.33)
dove, come vedremo, il segno meno è necessario per riprodurre il limite classico.
Con la scelta di costante di proporzionalità Eq. (5.33) la struttura di simmetria della meccanica classica
è pienamente riprodotta a livello quantistico: per esempio, l’evoluzione temporale classica può essere vista
come una trasformazione canonica, da cui l’evoluzione temporale quantistica si ottiene rimpiazzando
parentesi di Poisson con parentesi di commutazione. Di questo non daremo una dimostrazione formale,
ma ci limiteremo a mostrare che le equazioni del moto classiche sono riprodotte dai valori medi delle
osservabili quantistiche.
L’esistenza di un operatore di evoluzione temporale può essere vista come l’ultimo dei postulati della
meccanica quantistica, da aggiungere a quelli elencati nella sezione 2.4:
• Postulato 4 Esiste un operatore hermitiano Ĥ(t) che genera l’evoluzione temporale dei sistemi
quantistici, cioè tale per cui l’operatore di evoluzione temporale infinitesima ha la forma Eq. (5.335.5,5.33)
S(t0 + ε, t0 ) = I −
i
Ĥ(t).
~
(5.34)
Questo postulato può essere visto come una proprietà fondamentale della fisica quantistica che va al
di là della meccanica, e della forma specifica che l’operatore di evoluzione temporale assume per sistemi
meccanici, e che consiste nel postulare che l’evoluzione temporale dei sistemi quantistici deterministica e
unitaria, cioè equivalentemente generata da un operatore hermitiano.
5.2
L’equazione di Schrödinger
Eguagliando l’evoluzione temporale identicamente definita come una traslazione del tempo secondo la
Eq. (5.1), con quella dinamicamente ottenuta da S(t1 , t0 ) Eq. (5.2) con il generatore Eq. (5.4), espresso
in termini dell’hamiltoniana mediante la Eq. (5.33) troviamo che l’operatore di evoluzione temporale, e
quindi lo stato fisico, devono soddisfare un’equazione differenziale del primo ordine rispetto al tempo:
l’equazione di Schrödinger.
5.2 L’equazione di Schrödinger
5.2.1
73
Forme alternative dell’equazione di Schrödinger
Per trasformazioni infinitesime abbiamo
i
d
I + (t − t0 )Ĥ(t) |ψ(t0 )i = I + (t − t0 )
|ψ(t)i
~
dt
t=t0
(5.35)
da cui
i~
d
|ψ(t)i = Ĥ(t)|ψ(t)i,
dt
(5.36)
che è appunto l’equazione di Schrödinger. Nella forma data dalla Eq. (5.36) essa è vista come equazione
differenziale soddisfatta dai ket di stato.
È particolarmente interessante considerare una Hamiltoniana Ĥ scritta come somma di un termine
cinetico e di un termine potenziale dipendente solo dalla posizione, Ĥ = T̂ + V̂ , ossia
Ĥ =
p̂2
+ V (q̂).
2m
(5.37)
L’espressione dell’equazione di Schrödinger nella base delle coordinate si trova notando che
∂
d
hq|ψ(t)i = ψ(q, t),
dt
∂t
(5.38)
poichè la derivata agisce sulla dipendenza parametrica dal tempo dei coefficienti della decomposizione del
vettore di stato sui vettori di base (autostati della coordinata indipendenti dal tempo). Inoltre, usando
la Eq. (4.29) si ha immediatamente
hq|V (q̂)|ψ(t)i = V (q)ψ(q, t),
(5.39)
e
hq|p̂2 |ψ(t)i =
Z
dq 0 hq|p̂|q 0 ihq 0 |p̂|ψi =
Z
dq 0
− i~
∂ ∂ψ(q 0 )
∂2ψ
δ(q − q 0 )(−i~)
= −~2 2 .
0
∂q
∂q
∂q
(5.40)
Si ottiene cosı̀ infine
i~
~2 ∂ 2 ψ(q, t)
∂ψ(q, t)
=−
+ V (q)ψ(q, t).
∂t
2m ∂q 2
(5.41)
Questa è la forma più comune dell’equazione di Schrödinger, ed anzi spesso il nome viene usato in
riferimento a questa specifica forma, che però è meno generale della Eq. (5.36) perchè valida solo per
hamiltoniane della forma Eq. (5.37).
Come già detto, l’equazione di Schrödinger può anche essere vista come un’equazione per l’operatore
di evoluzione temporale stesso, come si vede riscrivendo l’Eq. (5.36) come
i~
∂
S(t, t0 )|ψ(t0 )i = Ĥ(t)S(t, t0 )|ψ(t0 )i,
∂t
(5.42)
∂
S(t, t0 ) = Ĥ(t)S(t, t0 ).
∂t
(5.43)
da cui
i~
Possiamo quindi ottenere l’operatore di evoluzione temporale come soluzione formale della Eq. (5.43),
con la condizione inziale
S(t0 , t0 ) = I.
Risolviamo quindi la Eq. (5.43), considerando tre casi di complessità crescente:
(5.44)
74
Evoluzione temporale
1. L’Hamiltoniana è indipendente dal tempo:
dĤ
= 0;
dt
(5.45)
2. l’hamiltoniana dipende dal tempo, ma commuta a tempi diversi:
dĤ
6= 0
dt
ma
[Ĥ(t), Ĥ(t0 )] = 0 ∀ t, t0 ;
(5.46)
3. l’hamiltoniana dipende dal tempo e a tempi diversi non commuta:
dĤ
6= 0
dt
5.2.2
e in generale [Ĥ(t), Ĥ(t0 )] 6= 0.
(5.47)
Soluzione dell’equazione di Schrödinger: hamiltoniane commutanti
Risolviamo dapperima l’equazione differenziale (5.43) con la condizione iniziale (5.44) nel caso
La soluzione è l’esponenziale
S(t, t0 ) = exp
1
(t − t0 )Ĥ.
i~
∂ Ĥ
∂t
= 0.
(5.48)
Verifichiamo che sia una soluzione:
S(t, t0 ) = exp
1 2 1
1
1
(t − t0 )Ĥ = I + (t − t0 )Ĥ +
(t − t0 )2 Ĥ 2 + . . .
i~
i~
i~ 2
e quindi
i~
∂
1
S(t, t0 ) = Ĥ exp (t − t0 )Ĥ.
∂t
i~
Consideriamo ora il caso di hamiltoniane dipendenti dal tempo, ma commutanti. Risolviamo nuovamente l’equazione differenziale (5.43) con la condizione al contorno (5.44). Abbiamo
Z
1 t 0
S(t, t0 ) = exp
dt Ĥ(t0 ),
(5.49)
i~ t0
come possiamo verificare:
Z
Z
Z t
∂
1 t 0
∂
1 1 2 t 0
S(t, t0 ) =
I+
dt Ĥ(t0 ) +
dt Ĥ(t0 )
dt00 Ĥ(t00 ) + . . .
∂t
∂t
i~ t0
2 i~
t0
t0
Z t
2
1
1
1
= Ĥ(t) + 2
Ĥ(t)
dt00 Ĥ(t00 ) + . . .
i~
2 i~
t0
1
= Ĥ(t)S(t, t0 ).
i~
5.2.3
(5.50)
(5.51)
(5.52)
Soluzione dell’equazione di Schrödinger: hamiltoniane non commutanti
Se le hamiltoniane a tempi diversi non commutano si ha:
Z t
Z
Z t
Z t
Z t
d t 0
0
00
00
00
00
0
0
dt Ĥ(t )
dt Ĥ(t ) = Ĥ(t)
dt Ĥ(t ) +
dt Ĥ(t ) Ĥ(t) 6= 2Ĥ(t)
dt0 Ĥ(t0 ),
dt t0
t0
t0
t0
t0
(5.53)
quindi il passaggio Eq. (5.50) non è più corretto, e la soluzione Eq. (5.49) non vale più. Per costruire una
soluzione in questo caso, definiamo il prodotto cronologico di due operatori:
O1 (t1 )O2 (t2 ) se t1 > t2
T [O1 (t1 ), O2 (t2 )] ≡
(5.54)
O2 (t2 )O1 (t1 ) se t2 > t1
5.2 L’equazione di Schrödinger
75
Figura 5.1: Interpretazione geometrica dell’Eq (5.58). L’integranda T (Ĥ(t0 ), Ĥ(t00 )) è simmetrica rispetto
alla retta t0 = t00 .
La soluzione in tal caso è data da
S(t, t0 ) = T exp
1
i~
t
Z
dt0 Ĥ(t0 )
(5.55)
t0
Per dimostrarlo, calcoliamo esplicitamente fino al secondo ordine il prodotto cronologico dell’esponenziale. Troviamo
Z
Z
Z t
Z t
1 t 0
1 1
1 t 0
0
dt Ĥ(t0 ) = I +
dt Ĥ(t0 ) +
dt
dt00 T (Ĥ(t0 ), Ĥ(t00 )) + . . . ,
(5.56)
T exp
i~ t0
i~ t0
2 (i~)2 t0
t0
ma
Z
t
dt0
t0
Z
t
dt00 T (Ĥ(t0 ), Ĥ(t00 )) =
Z
t0
t
dt0
t0
t0
t0
Z
dt00 Ĥ(t0 )Ĥ(t00 ) +
t0
Ma ora notiamo che (vedi Figura 5.1)
Z t
Z
Z t
Z t
0
00
00
0
00
dt
dt Ĥ(t )Ĥ(t ) =
dt
t0
Z
t0
t
Z
dt0
0
00
Z
0
t
0
dt Ĥ(t )Ĥ(t ) =
Z
(5.57)
t0
dt
t0
dt00 Ĥ(t00 )Ĥ(t0 ).
t0
t0
t00
t
t0
dt00 Ĥ(t0 )Ĥ(t00 )
(5.58)
t0
e quindi
Z
t
0
Z
t
0
Z
00
t
dt T (Ĥ(t ), Ĥ(t )) = 2
dt
t0
00
t0
0
t0
t0
t0
t0
dt
t0
dt00 Ĥ(t0 )Ĥ(t00 ).
(5.59)
t0
Iterando lo stesso argomento, si può dimostrare che
Z t
Z t
Z t
Z t
Z
T
dt1 Ĥ(t1 )
dt2 Ĥ(t2 ) · · ·
dtn Ĥ(tn ) = n!
dt1
t0
Z
t1
t0
Z
tn−1
dt2 · · ·
dtn Ĥ(t1 ) · · · Ĥ(tn ), (5.60)
t0
con
tn < tn−1 < · · · < t1 .
Ne segue quindi che S(t, t0 ) Eq. (5.55) può essere riscritta come
Z
Z t
Z t1
1 1
1 t
dt1 Ĥ(t1 ) +
2
dt
dt2 Ĥ(t0 )Ĥ(t1 ) + . . .
S(t, t0 ) =I +
1
i~ t0
2 (i~)2 t0
t0
Z t
Z tn−1
1 1
... +
n!
dt1 · · ·
dtn Ĥ(t1 ) · · · Ĥ(tn ),
n! (i~)n
t0
t0
(5.61)
(5.62)
76
Evoluzione temporale
che è nota come serie di Dyson.
Possiamo ora verificare esplicitamente che la serie di Dyson è una soluzione dell’equazione di Schrödinger:
Z
Z t
Z tn−1
1
∂
1 t
dt2 Ĥ(t2 ) + . . .
Ĥ(t)
dt2 · · ·
dtn Ĥ(t1 ) · · · Ĥ(tn ) (5.63)
i~ S(t, t0 ) = Ĥ(t) +
∂t
i~ t0
(i~)n−1
t0
t0
Z tk−1
Z
Z t
1 t
1
= Ĥ(t) I +
dt1 Ĥ(t1 ) + . . .
dt
·
·
·
dt
Ĥ(t
)
·
·
·
Ĥ(t
)
(5.64)
1
k
1
k
i~ t0
(i~)k t0
t0
= Ĥ(t)S(t, t0 ).
5.2.4
(5.65)
Stati stazionari
Le soluzioni formali dell’equazione di Schrödinger costruite nelle due sezioni 5.2.2-5.2.3 riducono il calcolo dell’evoluzione temporale alla determinazione degli autostati dell’hamiltoniana. Questo è particolarmente utile nel caso di una Hamiltoniana che non dipende dal tempo, in cui la soluzione è espressa
dalla Eq. (5.48). Infatti, in tal caso, l’operatore di evoluzione temporale è funzione di un unico operatore, l’hamiltoniana indipendente dal tempo, ed è perciò diagonale nella base dei suoi autostati, pure
indipendenti dal tempo.
Per dimostrarlo, introduciamo autovettori |ni ed autovalori En dell’hamiltoniana
Ĥ|ni = En |ni.
(5.66)
Suppponiamo per semplicità che lo spettro di autovalori sia discreto; nel caso di spettro continuo l’argomento vale con minime modifiche (come la sostituzione della somma con un integrale). L’operatore di
evoluzione temporale Eq. (5.48), sviluppando sulla base degli autostati di energia, diventa
X
X
1
(t − t0 )En |nihn|.
(5.67)
S(t, t0 ) =
|mihm|S(t, t0 )|nihn| =
exp
i~
n,m
n
Ne segue che S(t, t0 ) è diagonale in questa base:
hi|S(t, t0 )|ji = exp
1
(t − t0 )Ei δij .
i~
(5.68)
Di conseguenza se il sistema si trova in un autostato di energia ci rimane. Sia infatti |ψ(t0 )i = |ki:
1
|ψ(t)i = S(t, t0 )|ki = exp
(t − t0 )Ek |ki
(5.69)
i~
che differisce dallo stato iniziale per una fase. Naturalmente, questa è la verifica esplicita della conservazione dell’energia quando vi è invarianza per traslazioni temporali, da cui siamo partiti per costruire
l’operatore di evoluzione temporale stesso.
Per uno stato qualsiasi si ha:
X
X
X
1
1
|ψ(t)i =
exp
(t − t0 )En |nihn|ψ(t0 )i =
cn (t0 ) exp
(t − t0 )En |ni =
cn (t)|ni (5.70)
i~
i~
n
n
n
e inoltre
Pn (t) = |cn (t)|2 = |cn (t0 )|2 ,
(5.71)
quindi la probabilità che una misura riveli il sistema in uno qualunque degli autostati di energia non
dipende dal tempo.
Questo implica immediatamente che il valor medio di qualunque operatore A in un autostato di energia
non dipende dal tempo; questa conclusione però vale solo nel caso di spettro discreto. Infatti il valor
medio di A è
X
X
hψ|A|ψi =
hψ|nihn|A|mihm|ψi =
c∗n (t)hn|A|micm (t).
(5.72)
n,m
n,m
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
Se |ψi è un autostato dell’energia,
1
1
(t − t0 )En |n(t0 )i = hn(t0 )|A|n(t0 )i.
hn|A|ni = hn(t0 )| exp − (t − t0 )En A exp
i~
i~
77
(5.73)
Per questa ragione gli autostati dell’energia sono detti stati stazionari. Nel caso di spettro continuo non
è possible però raggiungere questa conclusione: infatti in tal caso, come abbiamo visto nel paragrafo 4.3
gli elementi di matrice degli operatori in generale sono ben definiti solo fra stati diversi, nel senso della
distribuzioni. Quindi nel caso di spettro continuo possiamo solo affermare che
1
0
hn |A|ni = exp
(t − t0 )(En0 − En ) hn0 (t0 )|A|n(t0 )i,
(5.74)
i~
ma l’elemento di matrice è in generale mal definito se n0 = n e quindi nulla si può dire. Vedremo
un esempio di questa situazione nello studio della dipendenza dal tempo dell’operatore posizione negli
autostati dell’energia per una particella libera, nel paragrafo 6.
5.3
Evoluzione temporale alla Schrödinger e alla Heisenberg
Mentre in meccanica classica lo stato di un sistema è specificato dai valori di alcune delle osservabili che
lo caratterizzano (ad esempio la posizione e l’impulso, in un formalismo hamiltoniano), abbiamo visto
come in meccanica quantistica sia necessario distinguere lo stato di un sistema (dato dal suo ket di stato)
dai valori delle sue osservabili (che sono i risultati delle misure che possiamo eseguire su di esso, note solo
probabilisticamente). Questo significa che mentre in meccanica classica vi è un unico modo di descrivere
l’evoluzione temporale di un sistema, attraverso la dipendenza dal tempo dei valori delle osservabili
(posizione ed impulso), quantisticamente vi sono due possibilità. La prima è di supporre, come abbiamo
fatto finora, che lo stato dipenda dal tempo, e ci dica come cambiano nel tempo le probabiltà dei risultati
delle misure di osservabili. La seconda è di supporre che siano gli operatori associati ad osservabili a
dipendere dal tempo, e che gli stati restino fissi. La prima formulazione dell’evoluzione temporale, che
abbiamo considerato finora, è detta formulazione (o rappresentazione) di Schrödinger, mentre la seconda,
che ora introduciamo, è detta formulazione (o rappresentazione) di Heisenberg.
5.3.1
La rappresentazione di Heisenberg
La rappresentazione di Heisenberg è basata sull’idea di rendere dipendenti dal tempo gli operatori: quindi,
dato un operatore associato ad un’osservabile, la sua dipendenza dal tempo si può ottenere attraverso
l’azione dell’evoluzione temporale, vista come una trasformazione unitaria dell’operatore. Come abbiamo
visto nella sezione 3.1.3, sotto una trasformazione unitaria un operatore si trasforma per azione aggiunta
Eq. (3.34). Dato un certo operatore A al tempo t0 il suo evoluto temporale a qualunque altro tempo ha
quindi la forma
AH (t) = SH −1 (t, t0 )AH (t0 )SH (t, t0 ),
(5.75)
dove l’indice H su tutti gli operatori ci ricorda che stiamo cercando una nuova forma, diversa da quella
considerata finora sia degli operatori che della dipendenza temporale. È facile vedere che la dipendenza
temporale degli elementi di matrice di A è la stessa di quella alla Schrödinger studiata finora se facciamo
l’ipotesi che
AH (t0 ) = AS ;
|ϕH i = |ϕS (t0 )i SH (t, t0 ) = S(t, t0 ),
(5.76)
cioè:
• che l’operatore al tempo iniziale sia l’operatore alla Schrödinger, ossia l’operatore indipendente dal
tempo considerato finora;
• che gli stati alla Heisenberg in cui si calcolano gli elementi di matrice siano indipendenti dal tempo,
ed eguali agli stati alla Schrödinger considerati finora, ma presi al tempo iniziale t = t0 ;
78
Evoluzione temporale
• che l’operatore di evoluzione temporale sia identico a quello introdotto nella sezione precedente.
Abbiamo infatti che, usando il formalismo di Schrödinger della sezione 5.2,
hψ|A|ϕ(t)i = hψS (t)|A|ϕS (t)i = hψS (t0 )|S −1 (t, t0 )AS(t, t0 )|ϕS (t0 )i.
(5.77)
D’altra parte, la legge di evoluzione alla Heisenberg degli operatori Eq. (5.75) con le identificazioni
Eq. (5.76) implica che
hψ(t)|A|ϕ(t)i = hψ(t0 )|S −1 (t, t0 )AS(t, t0 )|ϕ(t0 )i,
(5.78)
che manifestamente coincide con la Eq. (5.77).
Più in generale, vediamo che la legge di evoluzione alla Heisenberg degli operatori Eq. (5.75), con le
identificazioni Eq. (5.76), fornisce le stesse predizioni delle leggi di evoluzione temporale alla Schrödinger
della sezione precedente per il risultato di qualunque misura. In rappresentazione di Schrödinger, l’ampiezza di probabilità, per un sistema che si trova nello stato |ψS (t0 )i al tempo t0 , di rivelare il sistema
nell’autostato |ni associato all’autovalore λn dell’operatore A,
A|ni = λn |ni
(5.79)
an (t) = hn|S(t, t0 )|ψ(t0 )i.
(5.80)
è
In rappresentazione di Heisenberg lo stato non dipende più dal tempo, ma se vale la Eq. (5.75), sono
gli autostati |nH (t)i di AH (t) a dipendere dal tempo. Notare che ciononostante gli autovalori non ne
dipendono, visto che gli operatori A(t) a tutti i tempi t sono tutti unitariamente equivalenti fra di loro
(si ricordino le Eq. (3.35-3.36)). Si ha
AH (t)|nH (t)i = λn |nH (t)i,
(5.81)
S −1 (t, t0 )AS(t, t0 )|nH (t)i = λn |nH (t)i,
(5.82)
A(t0 )S(t, t0 )|nH (t)i = λn S(t, t0 )|nH (t)i.
(5.83)
che, sfruttando la Eq. (5.75), implica
ovvero
Pertanto, gli stati S(t, t0 )|nH (t)i coincidono con gli autostati di A al tempo t0 , ossia, se A(t0 ) = A, con
gli stati |ni Eq. (5.79):
|ni = |nH (t0 )i = S(t, t0 )|nH (t)i,
(5.84)
|nH (t)i = S −1 (t, t0 )|ni.
(5.85)
ovvero
L’ampiezza di probabilità di una misura che rivela il sistema nello stato associato all’autovalore λn è
quindi
hnH (t)|ψi = hn|S(t, t0 )|ψi,
(5.86)
che manifestamente coincide con la Eq. (5.80). Visto che le ampiezze di probabilità dei risultati di misure
esprimono il contenuto predittivo della meccanica quantistica, ne concludiamo che le formulazioni alla
Schrödinger ed alla Heisenberg delle leggi di evoluzione temporale sono del tutto equivalenti.
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
5.3.2
79
Leggi del moto alla Heisenberg
Analogamente a quanto fatto in rappresentazione di Schrödinger, vogliamo ora scrivere le leggi del moto
alla Heisenberg sotto forma di equazioni differenziali. Visto che in rappresentazione di Heisenberg sono
gli operatori, e non gli stati, a dipendere dal tempo, l’equazione di Schrödinger Eq. (5.36) per gli stati è
rimpiazzata da un’equazione per gli operatori.
Utilizzando la legge Eq. (5.75), che esprime la dipendenza temporale degli operatori alla Heisenberg
attraverso l’operatore di evoluzione temporale, l’identificazione Eq. (5.76) tra operatori alla Schrödinger a
alla Heisenberg, e l’Equazione di Schrödinger Eq. (5.43) soddisfatta dall’operatore di evoluzione temporale,
troviamo che
d −1
d
S (t, t0 )AS S(t, t0 ) =
AH (t) =
dt
dt
(5.87)
∂S −1 (t, t0 )
∂AS
∂S(t, t0 )
=
AS (t, t0 )S(t, t0 ) + S −1 (t, t0 )
S(t, t0 ) + S −1 (t, t0 )AS
.
∂t
∂t
∂t
Notiamo che il primo e l’ultimo termine contengono la dipendenza dal tempo dell’operatore A dovuta alla
sua evoluzione temporale alla Heisenberg Eq. (5.75), mentre il secondo contiene una eventuale dipendenza
parametrica dal tempo già presente nell’operatore alla Schrödinger. Infatti, la legge di evoluzione alla
Heisenberg Eq. (5.75) per gli operatori vale per qualunque operatore: sia quelli che alla Schrödinger non
dipendono dal tempo (come per esempio l’impulso), sia per quelli che ne dipendono (come per esempio
una hamiltoniana alla Schrödinger con un potenziale che dipende dal tempo).
L’equazione di Schrödinger (5.43) fornisce un’espressione per ∂S
∂t , ed inoltre implica che
i~
∂S †
= (ĤS)† ,
∂t
(5.88)
da cui, sfruttando l’unitarietà di S e l’hermiticità di Ĥ,
−i~
∂S −1
= S −1 Ĥ.
∂t
(5.89)
Sostituendo quest’ultima espressione e la Eq. (5.43) nella legge del moto per gli operatori (5.87)
otteniamo
d
1
∂AS
Ĥ(t)
AH (t) = − S(t, t0 )−1 Ĥ(t)AS S(t, t0 ) + S −1 (t, t0 )
S(t, t0 ) + S −1 (t, t0 )AS
S(t, t0 ),
dt
i~
∂t
i~
(5.90)
e quindi, usando di nuovo la Eq. (5.75),
d
1
∂AS
Ĥ(t)
AH (t) = − S(t, t0 )−1 Ĥ(t)S(t, t0 )AH (t) + S −1 (t, t0 )
S(t, t0 ) + AH (t)S −1 (t, t0 )
S(t, t0 )
dt
i~
∂t
i~
(5.91)
che possiamo riscrivere come
d
1
∂AH (t)
AH (t) = [AH (t), ĤH (t)] +
,
dt
i~
∂t
(5.92)
dove abbiamo posto, in accordo con la Eq. (5.75) (l’hamiltoniana è un operatore come gli altri)
ĤH (t) = S(t, t0 )−1 ĤS (t)S(t, t0 ).
(5.93)
Notiamo che l’eventuale dipendenza temporale sia dell’hamiltoniana HS che dell’operatore AS alla
Schrödinger è una dipendenza parametrica: HS = HS (p̂S , q̂S ; t), con p̂S e q̂S indipendenti dal tempo, e
con un’eventuale dipendenza dal tempo contenuta dei parametri del sistema (per esempio, nei coefficienti
che caratterizzano il potenziale). In caso di dipendenza parametrica, AS = A(t) e le Eq. (5.75-5.76)
andrebbero più propriamente riscritte come
AH (p̂H (t), q̂H (t); t) = SH −1 (t, t0 )AH (t0 ; t)SH (t, t0 ),
AH (t0 ; t) = AS (t),
(5.94)
80
Evoluzione temporale
che nel caso particolare dell’hamiltoniana coincide con la Eq. (5.93). La derivata parziale nell’ultimo
termine a membro destro della Eq. (5.92) indica la derivata rispetto al tempo per fissi p̂ e q̂. Naturalmente,
se le hamiltoniane a tempi diversi commutano (e quindi in particolare se il sistema è invariante per
traslazioni temporali) ĤH (t) = ĤS (t).
Per i singoli elementi di matrice dell’operatore abbiamo invece:
d
d
Aϕψ (t) = hϕS (t)|AS |ψS (t)i
dt
dt
d
= hϕH |AH (t)|ψH i
dt
1
∂AH (t)
= hϕH | [AH (t), ĤH (t)]|ψH i + hϕH |
|ψH i
i~
∂t
1
∂AS
= hϕS (t)| [AS , Ĥ]|ψS (t)i + hϕS (t)|
|ψS (t)i.
i~
∂t
5.3.3
(5.95)
(5.96)
(5.97)
(5.98)
Leggi di conservazione: il teorema di Noether in meccanica quantistica
Le equazioni (5.95-5.98) mostrano esplicitamente che tutti gli elementi di matrice di un operatore che
commuta con l’hamiltoniana (e non dipende dal tempo esplicitamente) si conservano. D’altra parte, il
commutatore del generatore di una trasformazione con un operatore fornisce la trasformazione dell’operatore stesso: si ricordi la Eq. (4.70). Quindi un operatore commuta con l’hamiltoniana se e solo se la
trasformazione da esso generata lascia l’hamiltoniana invariata. In tal caso, lo spettro dell’operatore si
conserva. Concludiamo perciò che anche nel caso quantistico ad un’invarianza della dinamica — nel nostro caso un’invarianza dell’hamiltoniana — corrisponde una quantità conservata: condizione necessaria
e sufficiente affinchè l’evoluzione temporale preservi l’autovalore di un operatore è che esso commuti con
l’hamiltoniana.
Questo è il risultato la cui dimostrazione (si ricordi la Sezione 4.2.4) ha motivato la costruzione degli
operatori associati ad osservabili. Ora vediamo che esso è immediata conseguenza delle leggi del moto alla
Heisenberg. Ciò esprime, nella forma più generale e compatta, l’insieme delle leggi di conservazione che
abbiamo già visto, nel caso di trasformazioni indipendenti dal tempo nel paragrafo 4.2, e nel paragrafo 5.1
nel caso delle traslazioni temporali.
5.3.4
Teorema di Ehrenfest e transizione classico-quantistico
Le equazioni del moto per gli operatori in rappresentazione di Heisenberg sono strettamente legate alle
equazioni del moto classiche. Consideriamo in particolare le equazioni del moto per gli operatori posizione
ed impulso alla Heisenerg:
dq̂H
1
= [q̂H , ĤH ]
(5.99)
dt
i~
1
dp̂H
= [p̂H , ĤH ].
(5.100)
dt
i~
Il commutatore tra q̂ ed una funzione f (p̂), o tra p̂ ed una funzione f (q̂), si può calcolare ricordando
che una funzione di un operatore è definita dalla sua serie di Taylor (o di Laurent):
X
X
X
X
k
[q̂, f (p̂)] = q̂,
fk p̂ =
fk [q̂, p̂p̂k−1 ] =
fk p̂[q̂, p̂k−1 ] +
fk [q̂, p̂]p̂k−1
(5.101)
k
=
X
k
=
X
k
k
fk p̂[q̂, p̂k−1 ] + i~
k
X
fk p̂k−1 =
k
fk p̂2 [q̂, p̂k−2 ] + 2i~
X
k
X
fk p̂ p̂[q̂, p̂k−2 ] + [q̂, p̂]p̂k−2 + i~
fk p̂k−1
k
X
(5.102)
k
fk p̂k−1 = · · · = i~
k
X
fk k p̂k−1 .
(5.103)
k
Analogamente
[p̂, f (q̂)] = −i~
X
k
fk k q̂ k−1 .
(5.104)
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
81
Ne segue che
∂f (p̂)
∂ p̂
∂f (q̂)
[p̂, f (q̂)] = −i~
∂ q̂
[q̂, f (p̂)] = i~
(5.105)
(5.106)
Possiamo sfruttare le Eq. (5.105-5.106) per determinare le equazioni del moto (5.99-5.100) per una
hamiltoniana della forma Eq. (5.37):
∂ Ĥ
p̂H
dq̂H
=
=
dt
∂ p̂
m
(5.107)
dp̂H
∂ Ĥ
∂ V̂ (q̂)
=−
=−
,
dt
∂q
∂ q̂
(5.108)
che coincidono con le equazioni classiche del moto nella forma di Hamilton, con la sostituzione delle
variabili canoniche classiche con i corrispondenti operatori quantistici.
Nel caso di potenziali che dipendono anche dalla velocità l’argomento in generale non vale: la funzione
V̂ (p̂, q̂) in generale dipende dall’ordinamento degli operatori p̂ e q̂. Tuttavia, se
V̂ (q̂, p̂) = p̂f (q̂) + f (q̂)p̂
(5.109)
le equazioni del moto continuano ad avere la stessa forma delle equazioni classiche, infatti
p̂
p̂
∂ V̂ (q̂, p̂)
dq̂
=
+ 2f (q̂) =
+
dt
m
m
∂ p̂
dp̂
∂f (q̂) ∂f (q̂)
= − p̂
+
p̂ .
dt
∂ q̂
∂ q̂
(5.110)
(5.111)
Le equazioni del moto Eq. (5.107-5.108) implicano le equazioni per i valori medi
d
hq̂i =
dt
d
hp̂i =
dt
∂ Ĥ
∂ p̂
(5.112)
−
∂ Ĥ
,
∂ q̂
(5.113)
che evidentemente valgono indipendentemente dalla scelta della rappresentazione, visto che i valori medi
degli operatori sono osservabili fisiche, la cui dipendenza temporale è univocamente predetta dalla teoria.
Le Eq. (5.112-5.113) sono note come teorema di Ehrenfest. Esso afferma che i valori medi degli
operatori quantistici soddisfano le leggi del moto classiche. La meccanica classica emerge quindi dalla
meccanica quantistica nel limite in cui l’indeterminazione, ossia la deviazione standard dei risultati di
una misura, è piccola rispetto al tipico valore della misura stessa. Stimeremo questa deviazione standard
nel prossimo capitolo.
5.3.5
Leggi del moto, parentesi di Poisson e commutatori
La legge di evoluzione temporale di una osservabile classica A(q, p) è data da
dA
∂A
∂A
∂A
=
q̇ +
ṗ +
dt
∂q
∂p
∂t
∂A ∂H
∂A ∂H
∂A
=
−
+
∂q ∂p
∂p ∂q
∂t
∂A
= {A, H} +
,
∂t
(5.114)
(5.115)
(5.116)
82
Evoluzione temporale
dove {A, H} è la parentesi di Poisson delle funzioni A e H. Vediamo cosı̀ come le leggi del moto quantistiche nella forma di Heisenberg Eq. (5.92) si possano ottenere da quelle classiche sostituendo le parentesi
di Poisson con un commutatore, a meno di un fattore i~. Questo dimostra esplicitamente quanto affermato al termine della sezione 5.1.3, e cioè che l’evoluzione temporale quantistica si ottiene da quella
classica, rimpiazzando la trasformazione canonica generata dalle parentesi di Poisson con una traslazione
temporale generata dalle parentesi di commutazione.
Parte III
Meccanica quantistica in una
dimensione
Capitolo 6
La particella unidimensionale libera
Studieremo ora gli stati fisici, ed in particolare lo spettro dell’hamiltoniana, per diversi sistemi unidimensionali nello spazio delle coordinate, con hamiltoniane della forma Ĥ = T̂ + V̂ Eq. (5.37). Finora abbiamo
indicato l’operatore posizione con q̂, sottintendendo che il suo autovalore q potesse corrispondere al valore di una coordinata Lagrangiana qualunque. In questo capitolo faremo esplicito rifermiento a sistemi
descritti da una coordinata cartesiana, che chiameremo x: l’operatore p̂ ne genererà le traslazioni, ed il
commutatore canonico sarà quindi
[p̂, x̂] = −i~.
(6.1)
Cominciamo dal caso più semplice, in cui il potenziale è nullo, V̂ = 0 dimodoché
Ĥ =
p̂2
:
2m
(6.2)
la particella libera.
6.1
Autostati dell’hamiltoniana
Gli autostati dell’hamiltoniana per una particella libera possono essere scelti come autostati dell’operatore
impulso, visto che [Ĥ, p̂]=0: se
p̂|ki = ~k|ki
(6.3)
Ĥ|ki = Ek |ki
(6.4)
si ha quindi
2 2
Ek =
~ k
.
2m
(6.5)
Notiamo che vi è una coppia di autostati dell’impulso, | ± ki, associati ad ogni autovalore Ek dell’energia:
si dice in tal caso che lo spettro è degenere (doppiamente degenere). Questo implica in particolare che
qualunque combinazione lineare
|ψE i = c1 |ki + c2 | − ki
(6.6)
di questi due stati è ancora un autostato associato allo stesso autovalore Ek . Poiché una delle due
costanti ci può essere fissata per normalizzazione (essendo al solito inosservabile la fase globale della
funzione d’onda), in questo caso di doppia degenerazione il più generale autostato di fissa energia dipende
da un parametro libero.
Nella base delle coordinate l’equazione agli autovalori
hq|Ĥ|ki = Ek hq|ki
(6.7)
86
La particella unidimensionale libera
ha la forma esplicita
~2 ∂ 2
ψk (x) = Ek ψk (x),
2m ∂x2
e le ψk (x) possono essere scelte come onde piane
−
1
ψk (x) = √ eikx ,
2π
(6.8)
(6.9)
che soddisfano la condizione di normalizzazione impropria
hk|k 0 i = δ(k − k 0 ).
6.1.1
(6.10)
Evoluzione temporale degli stati
La dipendenza dal tempo degli autostati dell’hamiltoniana si determina immediatamente usando la
Eq. (5.69) ed è data da
Ek
1
1
1
hx|k; ti = hx|e i~ Ĥt |k; t0 = 0i = e i~ Ek t hx|k; 0i = √ ei kx− ~ t
(6.11)
2π
che spesso viene riscritta come
1
hx|k; ti = √ ei
2π
kx−ωk t
,
(6.12)
dove si è definita la pulsazione
ωk =
Ek
,
~
(6.13)
e per un’onda piana
~k 2
.
(6.14)
2m
Gli autostati evolvono nel tempo come le onde piane libere dell’elettrodinamica. Contrariamente
alle onde elettromagnetiche, la relazione tra la frequenza di oscillazione nel tempo e la frequenza di
oscillazione nello spazio è di tipo quadratico, mentre nel caso dell’ottica la relazione è di proporzionalità
diretta. L’equazione (6.14) viene chiamata relazione di dispersione non relativistica, in quanto è basata
sulla relazione Eq. (6.5) tra energia cinetica ed impulso per la particella non relativistica libera.
ωk =
6.1.2
Equazioni del moto per posizione ed impulso
In rappresentazione di Heisenberg, lo stato di un sistema di particella libera è l’onda piana Eq. (6.9), a
tutti i tempi, mentre gli operatori dipendono dal tempo. Come abbiamo visto, la dipendenza dal tempo
degli operatori posizione ed impulso soddisfa equazioni del moto che coincidono con quelle classiche. Ne
segue che gli operatori p̂H (t), x̂H (t) dipendono dal tempo secondo le leggi del moto classiche:
p̂H (t) = p̂H (t0 ) = p̂S
(6.15)
p̂H
p̂S
x̂H (t) = x̂H (t0 ) + (t − t0 )
= x̂S + (t − t0 ) .
m
m
(6.16)
È istruttivo chiedersi come lo stesso risultato si possa ritrovare utilizzando la rappresentazione di
Schrödinger: come vedremo, si trova lo stesso risultato, ma in modo più laborioso. Per l’operatore
impulso abbiamo
Z
Z
dx
exp i[(k − k 0 )x − (ωk − ωk0 )t] (6.17)
hk 0 ; t|p̂|k; ti = ~khk 0 ; t|k; ti = ~k dx hk 0 ; t|xihx|k; ti = ~k
2π
Z
0
0
dx i(k−k0 )x
= ~ke−i(ωk −ωk )t
e
= ~ke−i(ωk −ωk )t δ(k − k 0 )
(6.18)
2π
= ~kδ(k − k 0 ),
(6.19)
6.1 Autostati dell’hamiltoniana
87
dove nell’ultimo passaggio abbiamo notato che se k = k 0 allora Ek = Ek0 . Quindi gli elementi di matrice
dell’operatore impulso non dipendono dal tempo
hk 0 ; t|p̂|k; ti = ~kδ(k − k 0 ).
Studiamo ora la dipendenza temporale degli elementi di matrice dell’operatore posizione x̂
Z
Z
hk 0 ; t|x̂|k; ti = dx hk 0 ; t|x̂|xihx|k; ti = dx xhk 0 ; t|xihx|k; ti
Z
dx
=
x exp i[(k − k 0 )x − (ωk − ωk0 )t].
2π
(6.20)
(6.21)
(6.22)
Ora osserviamo che
0
0
1 d i[(k−k0 )x−(ωk −ωk0 )t]
1
dωk i[(k−k0 )x−(ωk −ωk0 )t]
e
= xei[(k−k )x−(ωk −ωk )t] + (−it)
e
i dk
i
dk
0
0
~kt i[(k−k0 )x−(ωk −ωk0 )t]
= xei[(k−k )x−(ωk −ωk )t] −
e
,
m
(6.23)
(6.24)
e di conseguenza
0
0
xei[(k−k )x−(ωk −ωk )t] =
~kt i[(k−k0 )x−(ωk −ωk0 )t]
1 d
+
e
.
i dk
m
(6.25)
Possiamo quindi riscrivere la Eq. (6.22) come
Z
0
~kt i[(k−k0 )x−(ωk −ωk0 )t]
d
~kt
dx 1 d
0
+
e
= −i δ(k − k 0 )ei(ωk −ωk )t +
δ(k − k 0 ),
hk ; t|x̂|k; ti =
2π i dk
m
dk
m
(6.26)
cioè
hk 0 ; t|x̂|k; ti = −i
d
~kt
δ(k − k 0 ) +
δ(k − k 0 ).
dk
m
(6.27)
Pertanto gli elementi di matrice dell’operatore posizione soddisfano
hk 0 |x̂|ki = hk 0 |x̂S |ki +
t 0
hk |p̂S |ki,
m
(6.28)
che è lo stesso risultato che avevamo trovato in rappresentazione di Heisenberg. Notiamo che, come
avevamo osservato nella discussione degli stati stazionari nel paragrafo 5.2, quando, come in questo caso,
lo spettro di energia è continuoo, non possiamo concludere che l’elemento di matrice diagonale degli
operatori in uno stato stazionario è indipendente dal tempo, perché l’elemento di matrice diagonale non
è ben definito, e quindi possiamo solo concludere che l’elemento di matrice tra due autostati dell’energia
dipende daql tempo, come nel caso dell’Eq. (6.28)
6.1.3
Dipendenza dal tempo dell’indeterminazione
Una immediata conseguenza di queste leggi del moto è il fatto forse sorprendente che anche per una
particella libera, quindi non soggetta a forze, gli operatori posizione alla Heisenberg a tempi diversi non
commutano fra loro:
[x̂H (t), x̂H (t0 )] =
i~(t − t0 )
(t − t0 )
[x̂S , x̂S ] =
.
m
m
(6.29)
Quindi se il sistema è preparato in un autostato della posizione al tempo t0 , esso non è più in un autostato
della posizione a tempi successivi.
88
La particella unidimensionale libera
Infatti, il principio di indeterminazione, assieme al commutatore Eq. (6.29), implica
∆2ψ x(t)∆2ψ x(t0 ) ≥
~2 (t − t0 )2
.
4m2
(6.30)
Ciò significa che, per un sistema non soggetto a forze, se si effettua una misura di posizione con una
certa indeterminazione, la dispersione dei risultati di una seconda misura di posizione fatta ad un tempo
successivo è tanto più grande quanto più tempo è passato tra le due misure.
Questo si può capire fisicamente nel modo seguente: se al tempo t si effettua una misura di posizione
2
con indeterminazione ∆2ψ x(t), allora l’impulso ha indeterminazione ∆2ψ p(t) ≥ ~4 ∆2 1x(t) . Ma visto che per
ψ
il teorema di Ehrenfest Eq. (5.112-5.113) le leggi del moto classiche valgono in media, la dispersione di
valori dell’impulso implica una dispersione di valori di posizione che cresce nel tempo secondo la legge
del moto classica. Renderemo questo argomento più quantitativo nella Sez. 6.3.2.
6.2
Pacchetti d’onde
Le autofunzioni dell’impulso, e quindi le autofunzioni dell’hamiltoniana di particella libera, ossia le onde
piane Eq. (4.97), sono stati di definito impulso e quindi posizione completamente indeterminata, come si
vede notando che la densità di probabilità per una misura di posizione che se ne ottiene è una costante
indipendente dalla posizione. Tuttavia, in qualunque situazione realistica, l’impulso viene misurato con
risoluzione finita, su sistemi localizzati in una porzione finita di spazio. Una qualunque particella libera
realistica è cioè in uno stato sovrapposizione di autostati dell’impulso: un pacchetto d’onde.
Il più generale pacchetto d’onde si ottiene costruendo una sovrapposizione di autostati dell’impulso,
ciascuno dei quali evolve nel tempo come onda piana:
Z
Z
Z
1
ψ(x; t) = dk hx|kihk|ψ(t)i = dk hx|kihk|S(t, 0)|ψ(t = 0)i = dk √ ei(kx−ωk t) ψ(k; t = 0). (6.31)
2π
Sapendo come è fatto lo stato sulla base di autostati dell’impulso al tempo iniziale possiamo calcolare la
sua evoluzione per tempi successivi dato che è nota quella dei suoi autostati.
6.2.1
Stati di minima indeterminazione
Ci concentriamo ora su una particolare classe di pacchetti d’onda, cioé quelli di minima indeterminazione,
tali da soddisfare, al tempo iniziale t = 0 la condizione
∆2ψ x∆2ψ p =
~2
,
4
(6.32)
ossia il minimo valore del prodotto delle indeterminazioni posizione-impulso permesso dal principio di
indeterminazione di Heisenberg.
Per costruire uno stato di minima indeterminazione ricordiamo la dimostrazione del principio di indeterminazione presentata nella Sez. 3.2.3: dati due operatori A e B abbiamo ottenuto la relazione di
indeterminazione combinando le due disuguaglianze
2
hψ|A2 |ψihψ|B 2 |ψi ≥ hψ|AB|ψi
hψ|AB|ψi2 ≥ 1 hψ|[A, B]|ψi2 .
4
(6.33)
(6.34)
Pertanto, identifichiamo
A = ∆p̂ = p̂ − hp̂i;
B = ∆x̂ = x̂ − hx̂i,
(6.35)
e chiediamo che le due disuguaglianze Eq. (6.33-6.34) siano soddisfatte come uguaglianze. Attenzione
alla notazione: ∆p̂ e ∆q̂ sono operatori (definiti secondo la Eq. (6.35)). Invece le indeterminazioni ∆2ψ p
6.2 Pacchetti d’onde
89
e ∆2ψ q sono dei numeri — si tratta infatti di deviazioni standard di risultati di misure. Con le nostre
definizioni
2
2
∆2ψ p = hψ| (∆p̂) |ψi∆2ψ q
= hψ| (∆q̂) |ψi.
Cominciamo trovando le condizioni per l’uguaglianza nella disuguaglianza di Schwartz Eq. (6.33).
Come nella Sez. 3.2.3, poniamo
A|ψi = |αi e B|ψi = |βi
(6.36)
hα|βi2 ≤ hα|αihβ|βi
(6.37)
|βi = z|αi.
(6.38)
dimodoché la disuguaglianza
diventa un’uguaglianza se
Per quanto concerne la Eq. (6.34), ricordiamo che
1
1
hψ|{A, B}|ψi + hψ|[A, B]|ψi
2
2
= Re hψ|AB|ψi + iIm hψ|AB|ψi,
hψ|AB|ψi =
(6.39)
(6.40)
quindi, affinché la (6.34) sia soddisfatta come uguaglianza, è necessario che
hψ|{A, B}|ψi = Re hψ|AB|ψi = 0,
(6.41)
che, utilizzando la Eq. (6.38), implica
Re (zhψ|A2 |ψi) = 0,
(6.42)
z = iλ
(6.43)
e quindi
con λ reale, visto che hψ|A2 |ψi = hφ|φi, avendo definito |φi = A|ψi.
Usando la Eq. (6.35), e combinando le Eq. (6.38-6.42) si ha cosı̀ che la condizione necessaria affinché
lo stato |ψi sia di minima indeterminazione è
∆p̂|ψi = iλ∆q̂|ψi.
Nella base delle coordinate, la Eq. (6.44) diventa l’equazione differenziale
hx| p̂ − hp̂i |ψi = iλhx| x̂ − hx̂i |ψi.
(6.44)
(6.45)
Ponendo
x0 ≡ hx̂i;
p0 ≡ hp̂i
(6.46)
la Eq. (6.44) diventa
∂ψ(x)
ip0
λ
=
ψ(x) − (x − x0 )ψ(x),
∂x
~
~
(6.47)
la cui soluzione è
ip0 x
λ
2
ψ(x) = N exp
−
(x − x0 ) ,
~
2~
(6.48)
90
La particella unidimensionale libera
dove la condizione iniziale N è fissata per normalizzazione. Quest’ultima è fissata dalla condizione
r
Z ∞
Z ∞
π~
2 −λ
0
2 −λ
(x−x0 )2
x02
2
~
~
dx |N | e
1 = hψ|ψi =
dx |N | e
=
= |N |
,
(6.49)
λ
−∞
−∞
da cui
|N | =
λ
π~
14
.
(6.50)
Concludiamo che lo stato di minima indeterminazione è una gaussiana, centrata in x0 (che determina
cosı̀ il valor medio della posizione), di larghezza inversamente proporzionale a λ e modulata da un’onda
piana che determina il valore medio p0 dell’impulso.
6.2.2
Indeterminazione del pacchetto d’onde
Vogliamo ora calcolare l’indeterminazione di posizione ed impulso in questo stato. Calcoliamo quindi
∆2ψ x = h(x̂ − hx̂i)2 i e ∆2ψ p = h(p̂ − hp̂i)2 i. Innanzitutto verifichiamo che effettivamente x0 = hx̂i e
p0 = hp̂i:
Z ∞
Z ∞
Z ∞
2
λ 02
λ
dx0 e− ~ x (x0 + x0 ) = x0 ,
hx̂i = hψ|x̂|ψi =
dx |ψ(x)|2 x = |N |2
dx e− ~ (x−x0 ) x = |N |2
−∞
−∞
−∞
(6.51)
dove nell’ultimo passaggio il termine contenente x0 si annulla perché si tratta dell’integrale
R ∞ di unaλfunzione
02
dispari su dominio pari, ed abbiamo usato la condizione di normalizzazione |N |2 −∞ dx0 e− ~ x = 1.
Analogamente
Z ∞
Z ∞
ip0
∂ψ(x)
∗
∗
=
dx ψ (x) (−i~)
hp̂i = hψ|p̂|ψi =
dx ψ (x)(−i~)
ψ(x)
(6.52)
∂x
~
−∞
−∞
Z ∞
Z ∞
λ
2(x − x0 )ψ(x) =
+
dx |ψ(x)|2 p0 = p0 ,
(6.53)
dx ψ ∗ (x)(−i~) −
2~
−∞
−∞
dove nuovamente il secondo termine è nullo in quanto si tratta dell’integrale di una funzione dispari su
dominio pari.
Possiamo ora calcolare le indeterminazioni:
Z ∞
∂
∂
hψ|(p̂ − p0 )2 |ψi =
− p0
− p0 ψ(x)
dx ψ ∗ (x) − i~
− i~
(6.54)
∂x
∂x
−∞
Z ∞
λ
∂
− p0 (−i~) − (x − x0 ) ψ(x)
(6.55)
=
dx ψ ∗ (x) − i~
∂x
~
−∞
Z ∞
2
λ
= ~λ − λ2
dx |N |2 (x − x0 )2 e− ~ (x−x0 )
(6.56)
−∞
Z ∞
λ 02
~λ
= ~λ − λ2
dx0 |N |2 x02 e− ~ x =
.
(6.57)
2
−∞
L’ultimo integrale è stato calcolato a partire da quello gaussiano differenziando sotto il segno di integrale:
r
r
Z ∞
Z ∞
Z ∞
d
d
d
π
1
π
−∆x2
−∆x2
2 −∆x2
dx x e
=
dx −
e
=−
dx e
=−
=
(6.58)
d∆
d∆ −∞
d∆ ∆
2∆ ∆
−∞
−∞
Per la posizione abbiamo
2
Z
∞
2
2
Z
∞
dx|ψ(x)| (x − x0 ) =
hψ|(x̂ − x0 ) |ψi =
−∞
−∞
λ
02
dx0 |N |2 x02 e− ~ x =
~
,
2λ
(6.59)
6.2 Pacchetti d’onde
91
facendo nuovamente uso della Eq. (6.58).
Siamo quindi arrivati a stabilire che
~λ
2
~
2
:
∆ x=
2λ
∆2 p =
(6.60)
(6.61)
di conseguenza, abbiamo confermato che il pacchetto gaussiano che abbiamo trovato è effettivamente un
pacchetto di minima indeterminazione, per cui
∆2 p̂∆2 x̂ =
~2
.
4
(6.62)
Conviene esprimere λ in termini dell’indeterminazione in posizione usando la Eq. (6.60). Otteniamo cosı̀
p0 1 (x − x0 )2
hx|ψi = ψ(x) = N exp i x −
,
(6.63)
~
4 ∆2 x̂
che mostra esplicitamente come l’indeterminazione in posizione ∆2 x determini la larghezza della densità
di probabilità di posizione.
6.2.3
Indeterminazione posizione-impulso
Il fatto che la larghezza del pacchetto gaussiano dia l’indeterminazione in posizione è intuitivamente
chiaro. Che il suo reciproco determini l’indeterminazione in impulso è di nuovo chiaro ricordando che la
funzione d’onda nello spazio degli impulsi è la trasformata di Fourier della funzione d’onda nello spazio
delle posizioni, si ricordi la Eq. (4.100), e che la trasformata di Fourier di una gaussiana è anch’essa una
gaussiana, di larghezza reciproca:
Z ∞
Z ∞
dx
dx i( p0 −k)x− λ (x−x0 )2
2~
√ e−ikx ψ(x) = N
√
ψ(k) =
e ~
(6.64)
2π
2π
−∞
−∞
Z ∞
(k0 −k)2 ~
dx0 i(k0 −k)x0 − λ x02
2~
√
e
= N 0 e−ikx0 e 2λ
(6.65)
= N ei(k0 −k)x0
2π
−∞
dove
|N 0 | =
~
πλ
14
.
(6.66)
Alternativamente, possiamo ottenere ψ(k) ricordando che abbiamo ottenuto ψ(x) come soluzione dell’equazione differenziale ottenuta scrivendo l’Eq. (6.44) nella base delle posizioni. Ma se invece scriviamo
la stessa equazione nella base degli impulsi abbiamo
hk| p̂ − hp̂i |ψi = iλhk| x̂ − hx̂i |ψi,
(6.67)
ossia, ponendo di nuovo hx̂i = x0 e hp̂i = p0 ,
i~2
∂
+ ~x0 ψ(k) =
(k − k0 )ψ(k),
− i~
∂k
λ
(6.68)
che ha per soluzione
~
ψ(k) = N 0 exp − ikx0 −
(k − k0 )2 ,
2λ
in accordo con la Eq. (6.65) trovata prima.
(6.69)
92
La particella unidimensionale libera
Il fatto che la trasformata di Fourier di un pacchetto d’onde localizzato in un punto abbia larghezza
reciproca di quella del pacchetto originario è qualitativamente vero per qualunque pacchetto. Per capirlo,
consideriamo la trasformata di Fourier
Z ∞
Z ∞
ikx
ψ(k) =
dx e ψ(x) =
dx(cos kx + i sin kx)ψ(x)
(6.70)
−∞
−∞
di una funzione ψ(x) che supponiamo localizzata attorno ad un punto x = 0 (si veda la Fig. 6.1). L’onda
piana ha una parte reale ed una parte immaginaria, che oscillano in x con periodo 2π
k . Se la frequenza
delle oscillazioni è elevata rispetto alla scala della variazione della ψ(x), cioè se la ψ(x) è circa costante
lungo un periodo, allora l’integrale in x si annulla. Infatti, la media del seno o del coseno su un periodo è
zero. Se il seno od il coseno sono modulati da una funzione circa costante, l’integrale è circa zero. Visto
che il periodo di oscillazione è 2π
k , se la scala di variazione della ψ(x) è ∆x, ne concludiamo che ψ(k) ≈ 0
2π
se k ∆x
. Quindi, la ψ(k) è localizzata intorno a k = 0, con larghezza circa proporzionale al reciproco
della larghezza della ψ(x). Il coefficiente di proporzionalità esatto dipende dalla forma esplicita della
funzione.
Figura 6.1: Onda piana rapidamente oscillante rispetto alla scala della variazione della funzione d’onda
ψ(x).
L’argomento è facilmente generalizzabile al caso di funzioni d’onda ψ(x) e ψ(k) localizzate attorno a
x0 e k0 rispettivamente, sfruttando l’invarianza per traslazioni sia rispetto a x che rispetto a k.
6.3
Moto di un pacchetto d’onde
In un pacchetto d’onda generalizzato la dipendenza dal tempo è data da
Z
ψ(x; t) = dk ei(kx−ωk (k)(t−t0 )) ψ(k; t0 ),
(6.71)
ossia dalla dipendenza dal tempo dei fattori di fase che compaiono nello sviluppo in autostati di energia,
ciascuno dei quali oscilla nel tempo con pulsazione ωk .
6.3.1
Velocità di fase e velocità di gruppo
Ciascuno degli autostati di energia di cui il pacchetto è sovrapposizione si muove nel tempo con impulso
k e velocità di fase definita da:
k
vk = .
(6.72)
m
6.3 Moto di un pacchetto d’onde
93
Tuttavia, il pacchetto può essere considerato come un oggetto singolo, che si muove con un’unica velocità,
detta velocità di gruppo, che identifichiamo con la velocità con cui si sposta il valor medio (che possiamo
interpretare come il “centro”) del pacchetto:
vg =
d
hx̂i .
dt
(6.73)
La velocità di gruppo può essere determinata facilmente ricordando che, come visto nella Sez. 5.3, gli
operatori canonici alla Heisenberg x̂ e p̂ soddisfano le leggi del moto classiche, ovvero
p̂H (t) = p̂S ,
(6.74)
x̂H (t) = x̂S +
t
p̂S .
m
(6.75)
Ne segue che
hx̂(t)i = hψ|x̂H |ψi = hψ|x̂S |ψi + hψ|
t
~k0
p̂S |ψi = x0 +
t
m
m
hp̂(t)i = hψ|p̂H |ψi = ~k0 ,
(6.76)
(6.77)
e quindi
vg =
6.3.2
~k0
.
m
(6.78)
Allargamento di un pacchetto d’onde
Abbiamo visto nella Sez. 6.1.3 che gli operatori posizione alla Heisenberg a tempi diversi non commutano,
e che ciò implica che, oltre allo spostamento del centro del pacchetto, si assiste in generale anche ad un suo
allargamento. Vogliamo ora determinare esattamente il tasso di allargamento del pacchetto (anziché solo
una maggiorazione su di esso), sia in generale che per i pacchetti gaussiani. Data la forma esplicita della
funzione d’onda al tempo iniziale, la Eq. (6.71) permette di determinarne la forma a tutti i tempi, che
può essere utilizzata per calcolare l’indeterminazione. Risulta tuttavia più generale ed efficiente utilizzare
la rappresentazione di Heisenberg per calcolare
∆2 p(t) = hp̂2H (t)i − hp̂H (t)i2
2
∆ x(t) =
hx̂2H (t)i
2
− hx̂H (t)i .
(6.79)
(6.80)
Utilizzando le equazioni del moto (6.75-6.74) troviamo immediatamente che
∆2 p̂(t) = hp̂2S i − hp̂S i2 = ∆2 p̂(0)
(6.81)
cioè l’indeterminazione in impulso non dipende dal tempo. Questa è una conseguenza del fatto che
l’operatore impulso commuta con l’hamiltoniana, e quindi si conserva: il potenziale non dipende dalla
posizione, e quindi il sistema è invariante per traslazioni.
L’indeterminazione in posizione dipende dal tempo come
2
t
t
∆2 x(t) = h x̂S + p̂S i − hx̂S + p̂S i2
m
m
t2
t
= hx̂2S i − hx̂S i2 + 2 hp̂2S i − hp̂S i2 +
(hx̂S p̂S + p̂S x̂S i − 2hx̂S ihp̂S i)
(6.82)
m
m
t2
t
= ∆2 x(0) + 2 ∆2 p̂ +
(h∆x̂S ∆p̂S + ∆p̂S ∆x̂S i) ,
(6.83)
m
m
dove ∆2 x(0) e ∆2 p̂ sono le indeterminazioni in posizione ed impulso al tempo iniziale (quest’ultima pari
all’indeterminazione in impulso a qualunque tempo, secondo la Eq. (6.81)), e ∆x̂S e ∆p̂S sono gli operatori
definiti nella Eq. (6.35). Si vede quindi che, al crescere di t in modulo, l’indeterminazione in posizione
94
La particella unidimensionale libera
aumenta, e per grandi t cresce quadraticamente. Notiamo che mentre t → ∞ il termine quadratico domina
e quindi l’indeterminazione cresce sempre, per piccoli tempi potrebbe dominare il termine lineare in t, ed
in tal caso l’indeterminazione può anche diminuire, visto che possiamo sempre considerare intervalli di
tempo sia positivi che negativi.
Consideriamo ora il caso particolare di un pacchetto gaussiano Eq. (6.48). Osserviamo che la condizione Eq. (6.41), avendo identificato gli operatori A e B con ∆p̂ e ∆x̂ rispettivamente, secondo la
Eq. (6.35), implica
h∆p̂∆x̂ + ∆x̂∆p̂i = 0.
(6.84)
hx̂S p̂S + p̂S x̂S i = 2Re hx̂S p̂S i,
(6.85)
Possiamo verificarlo esplicitamente:
ma ricordiamo che il ket di stato per un pacchetto gaussiano soddisfa la condizione Eq. (6.44), che, con
le definizioni Eq. (6.46) e usando la Eq. (6.60) ha la forma
p̂|ψi = p̂0 |ψi + i
~
(x̂S − x̂0 )|ψi.
2∆2 x̂
(6.86)
Di conseguenza
2Re hψ|x̂S p̂S |ψi = 2Re
~
p0 hψ|x̂S |ψi + i 2 hψ|x̂S (x̂S − x0 )|ψi = 2x0 p0 .
2∆ x
(6.87)
Quindi il termine lineare in t nella Eq. (6.82) si annulla, e per un pacchetto gaussiano abbiamo
∆2 x(t) = ∆2 x(0) +
t2 2
∆ p.
m2
(6.88)
Quindi il pacchetto è di minima indeterminazione esclusivamente al tempo t = 0, mentre a tutti gli
altri tempi l’indeterminazione è maggiore. Il secondo termine a membro destro della Eq. (6.88) può essere
interpretato come un termine di diffusione: se al tempo t = 0 l’impulso è indeterminato di ∆p, allora la
velocità è indeterminata di ∆p
m , e quindi in assenza di forze (e quindi per moto uniforme) la posizione finale
∆p
è indeterminata di t m . L’incertezza quadratica sulla posizione è perciò data dalla somma in quadratura
di tale incertezza, e dell’incertezza sulla posizione iniziale.
Notiamo inoltre che, usando la condizione di minima indeterminazione al tempo iniziale, possiamo
riscrivere l’Eq. (6.88) come
∆2 x(t) = ∆2 x(0) +
~2 t2
4m2 ∆2 x(0)
(6.89)
Ma ricordando che il principio di indeterminazione applicato a misure di posizione a tempi diversi
Eq. (6.29) implica
∆2 x(t) ≥
~2 t2
4m2 ∆2 x(0)
(6.90)
vediamo che per t grande l’indeterminazione del pacchetto gaussiano cresce, ma con il minimo valore
compatibile con la Eq. (6.30).
6.3.3
L’ordine di grandezza degli effetti quantistici
Possiamo chiederci quanto questi effetti di indeterminazione ed allargamento siano rilevanti in situazioni
realistiche. La relazione tra indeterminazione in posizione ed impulso è fissato dal valore della costante
~.
In contesti in cui gli effetti quantistici sono rilevanti si usano solitamente unità di misura tipiche della
fisica atomica o nucleare. Le energie si misurano in elettronvolt (eV): 1 eV è l’energia cinetica acquisita
6.3 Moto di un pacchetto d’onde
95
da un elettrone sottoposto ad una differenza di potenziale di 1 Volt. Le distanze vengono misurate in
Fermi (Fm), che è dell’ordine di grandezza del raggio di un protone. In questo contesto è conveniente
utilizzare la stessa unità di misura per masse, energie, ed impulsi, utilizzando la velocità della luce
c = 3 · 1010 cm s−1
(6.91)
come fattore di conversione. La relazione tra queste unità di misura per energia e lunghezza e le consuete
unità macroscopiche è
1 eV = 1.6 · 10−19 J = 1.8 · 10−36 kg c2 ,
(6.92)
(infatti una massa per una velocità al quadrato ha le dimensioni di un’energia), mentre
1 Fm = 10−13 cm.
(6.93)
La conversione tra lunghezza e energie si effettua facilmente ricordando che
~c = 197 MeV Fm.
(6.94)
Supponiamo ora di misurare l’energia o l’impulso di una particella con un’accuratezza
∆p ∼ 100 eV.
(6.95)
Per riferimento, la massa di un elettrone è circa 0.5 MeV, mentre quella di un protone è circa 1 GeV: si
~
.
tratta quindi di una misura piuttosto accurata. In una condizione di minima indeterminazione ∆x ∼ 21 ∆p
Usando ~c come fattore di conversione, possiamo dire che vale
1 Fm '
1
200 MeV
(6.96)
e quindi
∆x ∼
1 ~
~
=
= 106 Fm = 10−7 cm = 10−3 µm
2 ∆p
200 eV
(6.97)
In Fig. 6.2 si mostrano le tracce lasciate da particelle cariche in un’emulsione nucleare. La tipica
energia ceduta dalla particella alle molecole dell’emulsione (energia di ionizzazione) è dell’ordine della
Eq. (6.95), quindi la minima indeterminazione con cui è possibile misurare la posizione della particella è
data dalla Eq. (6.97). Si vede che la traccia inizia a mostrare fluttuazione che sono dell’ordine di almeno
uno o forse due ordini di grandezza più grandi rispetto a questo limite.
Figura 6.2: Tracce di particelle (nuclei di O e C e protoni) in un’emulsione nucleare.
Veniamo ora all’indeterminazione a tempi successivi. Si è detto che l’allargamento è dovuto all’incertezza che si ha sull’impulso. Supponiamo di misurare la posizione di un oggetto a tempi diversi che ha
96
La particella unidimensionale libera
lasciato una traccia in un rivelatore. La posizione finale ha sia una indeterminazione che riflette quella
iniziale, sia una indeterminazione dovuta al fatto che l’impulso iniziale avesse una sua indeterminazione.
Dopo un tempo t, una particella di impulso costante si è spostata di una lunghezza
l=
p
t,
m
(6.98)
e l’indeterminazione extra dovuta all’allargamento del pacchetto è
∆t x =
∆p
t.
m
(6.99)
Quindi l’incertezza sulla posizione della particella, in percentuale della lunghezza della traccia, è
∆t x
∆p
=
.
l
p
(6.100)
In situazioni come quella discussa prima, in cui l’indeterminazione relativa in impulso è piccola l’effetto
di allargamento è trascurabile: nell’esempio precedente, l’indeterminazione relativa per un protone p ∼
−7
, quindi l’allargamento della traccia è di un fattore 10−7 più piccolo della sua lunghezza.
1 GeV è ∆p
p ∼ 10
Capitolo 7
Problemi unidimensionali
Affronteremo ora la determinazione dello spettro dell’hamiltoniana per alcuni semplici potenziali, che
possono essere usati per modellizzare schematicamente alcune situazioni realistiche. Ci limiteremo per il
momento alla trattazione di problemi unidimensionali, e considereremo in particolare potenziali costanti
a tratti, come buche rettangolari, gradini e barriere. Saremo in particolare interessati a descrivere due
classi di problemi: quelli in cui si possono formare degli stati legati in una buca di potenziale (mostrata
schematicamente in a sinistra in Fig. 7.1), e quelli in cui la presenza di un potenziale localizzato (per
esempio un gradino, mostrato schematicamente a destra in Fig. 7.1) influenza il moto di una particella
altrimenti libera. Essi costituiscono rispettivamente il prototipo di problemi di stato legato, e di problemi
d’urto (o diffusione).
Figura 7.1: Buca di potenziale e gradino di potenziale.
7.1
La buca di potenziale infinita
Il primo problema che affrontiamo è il più semplice dei problemi di stato legato: consideriamo una buca
rettangolare centrata nell’origine con un potenziale
(
0
se |x| < a
V (x) =
.
(7.1)
V0 se |x| > a con V0 → ∞
Dal punto di vista classico i moti consentiti sono quelli di particella libera all’interno della buca; ogni
volta che il sistema urta contro le pareti rimbalza elasticamente. I moti sono quindi moti liberi con velocità
v
, e possono assumere ogni valore di energia cinetica permesso.
v uniforme, periodici con periodo 4a
7.1.1
Determinazione dello spettro
Come nella maggior parte dei problemi che seguiranno, utilizziamo la rappresentazione delle coordinate.
L’equazione agli autovalori per l’Hamiltoniana Ĥ
Ĥ|ψE i = E|ψE i
diventa
(7.2)
98
Problemi unidimensionali
Figura 7.2: Buca di potenziale
1. regione |x| < a:
~2 ∂ 2 ψE (x)
= EψE (x)
2m ∂x2
(7.3)
~2 ∂ 2 ψE (x)
= (E − V0 )ψE (x)
2m ∂x2
(7.4)
−
2. regione |x| > a:
−
Le soluzioni si determinano facilmente in entrambe le regioni.
1. regione |x| > a
Le soluzioni dell’Eq. (7.4) sono
r
ψE (x) = NE exp ±x
!
2m
(V0 − E) .
~2
(7.5)
Poichè siamo interessati al limite V0 → ∞, l’argomento della radice è reale positivo per ogni valore
dell’energia E. Ne segue che solo una delle due soluzioni Eq. (7.5) è normalizzabile, mentre l’altra
diverge all’infinito. Abbiamo quindi che l’unica soluzione fisicamente accettabile è
r
2m
ψE (x) = NE exp −k|x|;
k=
(V0 − E).
(7.6)
~2
Nel limite V0 → ∞, ψE (x) = 0 identicamente in questa regione.
2. regione |x| < a
In questa regione l’hamiltoniana è quella di particella libera, quindi le soluzioni generale dell’equazione agli autovalori (7.3) per fissata energie E è (ricordando la sezione 6.1)
0 −ikE x
ψE (x) = A0E eikE x + BE
e
;
E=
2
~2 k E
,
2m
(7.7)
che possiamo equivalentemente riscrivere come
ψE (x) = AE sin kE x + BE cos kE x.
(7.8)
7.1 La buca di potenziale infinita
99
La soluzione generale dell’equazione agli autovalori (7.3) nel limite V0 → ∞ è quindi data dalla
Eq. (7.8), con la condizione al contorno
ψE (±a) = 0,
(7.9)
necessaria per raccordare le soluzioni nelle due regioni. Notiamo che nella regione |x| > a si annullano
la funzione d’onda e tutte le sue derivate, quindi il problema va considerato come un problema agli
autovalori formulato in una regione finita. L’equazione agli autovalori Eq. (7.4) fornisce una condizione
sulla derivata seconda della funzione (quindi in particolare la condizione al contorno Eq. (7.9) implica
che anche la derivata seconda si annulla). Non vi sono ulteriori condizioni in quanto nel punto x = a
il potenziale ha una discontinuità di ampiezza infinita. Ora, è facile vedere, integrando in un intorno
della discontinuità ,che se la derivata seconda ha una discontinuità di ampiezza finita, la derivata prima
è continua, ma se la discontinuità è infinita anche la derivata prima diventa discontinua.
Le uniche soluzioni Eq. (7.8) compatibili con la condizione Eq. (7.9) corrispondono al caso in cui il
coefficiente davanti al seno oppure al coseno si annulla: infatti, il seno ed il coseno non possono mai essere
entrambi nulli in x = a per fisso k. Abbiamo quindi due classi di soluzioni:
• BE = 0
In tal caso
I
ψE
(x) = AE sin kx
(7.10)
e imponendo sin(ka) = sin(−ka) = 0 otteniamo la condizione ka = πn, ossia
kn =
2nπ
;
2a
En =
~2 kn2
.
2m
(7.11)
• AE = 0
In tal caso
II
ψE
(x) = BE cos kx
(7.12)
e imponendo cos(ka) = cos(−ka) = 0 otteniamo la condizione ka =
kn =
(2n + 1)π
;
2a
En =
~2 kn2
.
2m
π
2
+ πn = (2n + 1) π2 , ossia
(7.13)
Lo spettro di autovalori di eneregia è quindi:
En =
~2 kn2
2m
(7.14)
con
kn =
nπ
con
2a
n pari
n dispari
soluzione I
soluzione II
(7.15)
Di conseguenza possiamo riscrivere
En =
~2 n2 π 2
~2 n 2 π 2
=
2
8a m
2L2 m
(7.16)
dove L è la larghezza della buca. Osserviamo che lo spettro è non-degenere, ovvero per ogni autovalore
di energia vi è una sola autofunzione.
Determiniamo infine la normalizzazione delle autofunzioni:
Z a
Z a
2nπ
(2n + 1)π
dx cos2
x=
dx sin2
x = a,
(7.17)
2a
2a
a
−a
quindi AE = BE =
√1 .
a
100
Problemi unidimensionali
7.1.2
Proprietà delle autofunzioni
Lunghezza d’onda
Le autofunzioni Eq. (7.10,7.12) oscillano con lunghezza d’onda
λn =
2π
2π2a
2L
=
=
kn
nπ
n
(7.18)
Ciò significa che la buca contiene un numero intero di semiperiodi: le funzioni d’onda si comportano come
una corda vibrante fissa alle estremintà. Vi è uno stato di energia minima, o stato fondamentale, che
corrisponde ad una soluzione di tipo II ed ha energia
k=
π
;
2a
E=
~2 π 2
.
8a2 m
(7.19)
Gli stati con n > 1, o stati eccitati, corrispondono alle armoniche della frequenza fondamentale del
sistema. Ne concludiamo che una particella quantistica libera vincolata su un segmento può assumere
valori discreti di impulso, corrispondenti, secondo la Eq. (7.18), alle lunghezze d’onda permesse per un
sistema oscillatorio classico della stessa lunghezza (si veda la Fig. 7.3). Vedremo più avanti che per
un’ampia classe di potenziale le autofunzioni normalizzabili dell’hamiltoniana danno sempre luogo ad
uno spettro discreto di autovalori di energia.
𝑎
-𝑎
Figura 7.3: Stato fondamentale e primi due stati eccitati per una buca di potenziale infinita
Parità
Le soluzioni che abbiamo trovato hanno tutte parità definita. Infatti, definendo l’operatore parità P
come
hx|P|ψi = h−x|ψi
(7.20)
che ha come autovalori 1 e -1 e le cui autofunzioni sono le funzioni pari (con autovalore 1) e le funzioni
dispari (con autovalore -1), si ha che:
P|ψE i = ±|ψE i =
+1 soluzione tipo II
.
−1 soluzione tipo I
(7.21)
7.1 La buca di potenziale infinita
101
Il fatto che le autofunzioni di energia siano anche autofunzioni della parità è conseguenza del fatto che
il potenziale è simmetrico attorno all’origine, e quindi l’hamiltoniana è invariante sotto una trasformazione
di parità:
P −1 ĤP = Ĥ,
(7.22)
[P, Ĥ] = 0.
(7.23)
il che implica immediatamente che
Poichè l’hamiltoniana e la parità commutano, i due operatori possono essere diagonalizzati simultaneamente. Ma poiché lo spettro è nondegenere le autofunzioni dell’energia devono essere automaticamente
autofunzioni della parità.
Energia di punto zero ed indeterminazione
Abbiamo visto che lo spettro ammette uno stato fondamentale di minima energia, pari a E0 Eq. (7.19).
La ragione per cui l’energia dello stato fondamentale non può essere nulla è legato al principio di indeterminazione. Infatti, poiché il sistema è localizzato nell’intervallo |x| < a, l’indeterminazione in posizione
non può crescere indefinitamente, ed ha un valore massimo dell’ordine di ∆2 x . a2 . Ma il principio di
indeterminazione implica quindi che l’indeterminazione in impulso è vincolata inferiormente:
~2
,
4a2
(7.24)
∆2 p
~2
∼
,
2m
8ma2
(7.25)
∆2 p &
e quindi
Emin ∼
in accordo qualitativo con la Eq. (7.19).
È importante notare che l’indeterminazione in impulso per ciascun autostato dell’hamiltoniana non è
mai nulla, in seguito al fatto che la condizione al contorno ci obbliga a scegliere le autofunzioni di energia
come sovrapposizioni di coppie di autostati dell’impulso con valore dell’impulso uguale e contrario, anzichè
come autostati dell’impulso, che darebbero luogo ad indeterminazione ∆p = 0.
7.1.3
Degenerazione dello spettro e stati legati
Lo spettro di energia della buca di potenziale infinita non è degenere. Questa in realtà è una proprietà
generale dello spettro per qualunque hamiltoniana della forma Eq. (5.37) in una dimensione quando le
autofunzioni sono normalizzabili. Possiamo dimostrare cioè che due autofunzioni normalizzabili di una
hamiltoniana unidimensionale del tipo Eq. (5.37) associate allo stesso autovalore differiscono al più per una
costante moltiplicativa (e quindi corrispondono allo stesso stato del sistema, visto che la normalizzazione
è convenzionale e la fase è inosservabile).
Supponiamo che siano date due autofunzioni ψI (x), ψII (x) di un’hamiltoniana della forma standard
Eq. (5.37) associate allo stesso autovalore di energia E:
2m
d2 ψI (x)
= 2 (V (x) − E)ψI (x)
dx2
~
2m
d2 ψII (x)
= 2 (V (x) − E)ψII (x).
dx2
~
(7.26)
(7.27)
Le Eq. (7.26-7.27) implicano immediatamente che
ψII (x)
d2 ψI (x)
d2 ψII (x)
− ψI (x)
= 0,
2
dx
dx2
(7.28)
102
Problemi unidimensionali
ossia
d
dx
dψI (x)
dψII (x)
ψII (x)
− ψI (x)
=0
dx
dx
(7.29)
che implica
ψII (x)
dψI (x)
dψII (x)
− ψI (x)
= k,
dx
dx
(7.30)
dove k è una costante arbitraria.
Ma affinché gli stati ψI e ψII siano normalizzabili,
lim ψI (x) = lim ψII (x) = 0,
(7.31)
ψI0 (x)
ψ 0 (x)
= II
,
ψI (x)
ψII (x)
(7.32)
d
d
ln ψI (x) =
ln ψII (x),
dx
dx
(7.33)
ln ψI (x) = ln ψII (x) + λ,
(7.34)
ψI (x) = eλ ψII (x),
(7.35)
x→±∞
x→±∞
e quindi k = 0. Pertanto
ossia
da cui
dove λ è una costante arbitraria, cioé
e quindi ψI (x) ψI (x) sono proporzionali, come si voleva dimostrare.
7.2
Il gradino di potenziale
Il potenziale a gradino è la schematizzazione più semplice di una situazione fisica reale in cui il potenziale
varia in modo spazialmente localizzato. Nel nostro modello il potenziale vale:
(
0
se x < 0
V (x) = V0 Θ(x) =
(7.36)
V0 se x > 0
dove Θ è la funzione detta theta di Heaviside (si veda la Figura 7.4).
7.2.1
Funzione a gradino e condizioni di continuità
Per affrontare questo problema, conviene fare alcune considerazioni preliminari sulla theta di Heaviside.
Può essere utile vedere la theta come una distribuzione, anziché come una funzione discontinua, ossia
interpretarla attraverso la sua azione su una funzione di prova sotto integrazione. In tal caso, possiamo
mostrare che la theta soddisfa l’equazione
dΘ(x)
= δ(x).
dx
Questo significa che sotto integrazione con una funzione di prova f (x)
Z ∞
Z ∞
dΘ(x)
dx
dx δ(x)f (x).
f (x) =
dx
−∞
−∞
(7.37)
(7.38)
7.2 Il gradino di potenziale
103
Figura 7.4: Potenziale a gradino
Per dimostrare la Eq. (7.38) osserviamo dapprima che
Z ∞
Z ∞
dx Θ(x)f 0 (x) =
dx f 0 (x) = f (∞) − f (0).
−∞
D’altra parte, integrando per parti,
Z ∞
Z
∞
0
dx Θ(x)f (x) = Θ(x)f (x)
−
−∞
(7.39)
0
∞
dΘ(x)
dx
f (x) = f (∞) −
dx
−∞
−∞
Z
∞
dx
−∞
dΘ(x)
f (x),
dx
(7.40)
Uguagliando i membri di destra delle Eq. (7.39-7.2.1) si ottiene immediatamente la Eq. (7.38).
La Eq. (7.37) implica immediatamente alcune interessanti conclusioni circa la forma delle autofunzioni
per potenziali del tipo di quello della Fig. 7.4, ossia in generale dei potenziali continui a tratti e con
discontinuità isolate. Osserviamo che l’equazione agli autovalori dell’hamiltoniana
∂ 2 ψE (x)
2m
= − 2 (E − V0 Θ(x))ψE (x)
∂x2
~
(7.41)
implica che nell’origine la derivata seconda della funzione d’onda è discontinua. Possiamo però concludere
che la funzione d’onda e la sua derivata sono funzioni continue nell’origine. Se infatti la funzione d’onda
avesse derivata discontinua, allora la derivata seconda dovrebbe essere proporzionale ad una δ, e se
ad essere discontinua fosse la funzione d’onda stessa, allora la sua derivata seconda dovrebbe essere
proporzionale alla derivata di una δ: ma nessuno di questi casi è compatibile con la Eq. (7.41). Dobbiamo
quindi risolvere il problema separatamente nelle regioni x < 0 ed x > 0, imponendo quindi le condizioni
di raccordo
lim ψ(x + ) = lim ψ(x − )
→0
→0
0
0
lim ψ (x + ) = lim ψ (x − ).
→0
→0
(7.42)
(7.43)
È chiaro che questo vale per qualunque potenziale che abbia una discontinuità localizzata, cioè un
contributo proporzionale ad una funzione a gradino: la corrispondente equazione agli autovalori per
l’hamiltoniana andrà risolta separatamente a sinistra ed a destra della discontinuità, e la continuità della
funzione e della derivata prima dovrà quindi essere imposta nel punto in cui il potenziale è discontinuo.
Ricordiamo che, come già osservato, nel caso della buca infinita discusso nella sezione precedente il
coefficiente della discontinuità, ossia il coefficiente della funzione a gradino, è infinito: perciò non vi è una
condizione di continuità della derivata prima nel punto di discontinuità.
7.2.2
Autofunzioni di energia: stati di scattering
Possiamo ora determinare le autofunzioni di energia che soddisfano la Eq. (7.41). Distinguiamo due
casi E > V0 e E < V0 , che chiamiamo rispettivamente caso di urto (scattering) e caso di penetrazione
(tunneling), per ragioni che saranno chiare fra breve.
104
Problemi unidimensionali
Discutiamo dapprima il caso E > V0 . In tal caso, le autofunzioni di energia Eq. (7.41) nelle due
regioni I (x < 0) e II (x > 0) (vedi Fig. 7.4) sono

q
ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m
2 E
E
q~
,
(7.44)
0
0
ψ II (x) = CE eikE x + DE e−ikE x , k 0 = 2m
E
E
~2 (E − V0 )
con le condizioni di raccordo
(
I
II
ψE
(0) = ψE
(0)
I
∂ψE
(0)
∂x
=
II
∂ψE
(0)
∂x
,
(7.45)
che implicano i vincoli
(
AE + BE = CE + DE
0
0
ikE AE − ikE BE = ikE
CE − ikE
DE
.
(7.46)
Le soluzioni sono cioè onde piane in entrambe le regioni, con diversi valori dell’impulso, determinati
in modo che l’energia rimanga la stessa, e normalizzazione relativa fissata dalle condizioni di raccordo.
Osserviamo che le condizioni di raccordo Eq. (7.46) forniscono due condizioni sui quattro coefficienti
(complessi) AE , BE , CE , DE da cui dipende la soluzione Eq. (7.44). Di questi quattro coefficienti
uno non è significativo, in quanto il suo modulo è fissato per normalizzazione, mentre al solito la fase
complessiva della funzione d’onda è inosservabile. Pertanto, la più generale soluzione per fissato valore
di energie dipende da un parametro libero. Questo significa che (come nel caso della particella libera
Eq. (6.6)) per fissata energia vi è una famiglia ad un parametro di soluzioni, ovvero vi sono due soluzioni
indipendenti, di cui la soluzione generale può essere scritta come combinazione lineare.
Determiniamo quindi una soluzione ponendo a zero una delle quattro costanti, e mostrando che con
questa scelta la soluzione esiste. Discuteremo in seguito come costruire un’altra soluzione linearmente
indipendente da essa. Poniamo quindi DE = 0, sicché la Eq. (7.46) diventa
(
AE + BE = CE
(7.47)
0
CE .
ikE AE − ikE BE = ikE
Abbiamo tre incognite e due equazioni, che usiamo per esprimere BE e CE in funzione di AE :
(
k −k0
BE = kEE +kE0 AE
E
CE =
2kE
0 AE .
kE +kE
(7.48)
Queste condizioni fissano completamente la soluzione Eq. (7.44) a meno della costante di normalizzazione AE :

ψ I (x) = A eikE x + kE −kE00 e−ikE x
E
E
kE +kE
(7.49)
0
II
ψE
(x) = AE 2kE 0 eikE x .
kE +kE
7.2.3
Corrente di probabilità
Per interpretare fisicamente la soluzione che abbiamo trovato introduciamo il concetto di corrente di
probabilità, definita come
∗
i~
∂ψ(x, t)
∂ψ (x, t)
j(x, t) ≡ −
ψ ∗ (x, t)
−
ψ(x, t) .
(7.50)
2m
∂x
∂x
La corrente j(x, t) soddisfa l’equazione di continuità
∂j(x, t) ∂ρ(x, t)
+
= 0,
∂x
∂t
(7.51)
7.2 Il gradino di potenziale
105
dove
2
2 ρ(x, t) = hx|ψ(t)i = ψ(x, t)
(7.52)
è la consueta densità di probabilità per il risultato di una misura di posizione. Abbiamo infatti che
∂j(x, t)
i~
∂ 2 ψ(x, t) ∂ 2 ψ ∗ (x, t)
∗
−
ψ(x, t) ,
(7.53)
=−
ψ (x, t)
∂x
2m
∂x2
∂x2
ma l’equazione di Schrödinger nella base delle coordinate
∂ 2 ψ(x, t)
2m
∂ψ(x, t)
=
−
i~
−
V
(x)ψ(x,
t)
∂x2
~2
∂t
(7.54)
implica appunto che
∂j(x, t)
∂ψ(x, t) ∂ψ ∗ (x, t)
∂ρ(x, t)
= − ψ ∗ (x, t)
+
ψ(x, t) = −
.
∂t
∂t
∂t
∂t
(7.55)
L’equazione (7.51) implica che j(x, t) è il flusso spaziale della densità di probabilità di posizione, nel
senso che
Z b
Z b
dx ∂t ρ(x, t) = −
dx ∂x j(x, t) = −(j(b, t) − j(a, t)),
(7.56)
a
a
ovvero j(a, t) − j(b, t) misura la “quantità di probabilità” integrata nell’intervallo [a, b] che fluisce entro
di esso dai suoi estremi. Osserviamo inoltre che valor medio della corrente di probabilità vale
Z
Z
1
1
dx hψ|xihx|p̂|ψi = hψ|p̂|ψi,
(7.57)
dx j(x, t) =
m
m
che vuol dire che il valor medio della corrente corrisponde al valor medio dell’impulso diviso per m,
consistentemente con l’interpretazione di j come flusso di probabilità.
Infine, notiamo che, in un autostato dell’impulso hx|ki,
j(x, t) =
~k
1
|hx|ki|2 ≡ jk |hx|ki|2 =
jk ,
m
2π
(7.58)
indipendente dal tempo e dalla posizione. Inoltre, in una sovrapposizione di onde piane con impulsi uguali
e opposti
ψ(x, t) = exp(iωt) [A exp(ikx) + B exp −(ikx)]
(7.59)
si ha
i~
j(x, t) = −
2m
=
"
#
∗ −ikx
A e
∗ ikx
+B e
ik Ae
ikx
− Be
−ikx
∗ −ikx
− ik −A e
~k
|A|2 − |B|2 = |A|2 jk + |B|2 j−k ,
m
∗ ikx
+B e
Ae
ikx
+ Be
−ikx
(7.60)
dove nell’ultimo passaggio usando la Eq. (7.58) abbiamo identificato i due contributi a membro destro della
Eq. (7.59) come correnti di probabilità associate alle due componenti della funzione d’onda (indipendenti
dal tempo e dalla posizione). In altri termini se il vettore di stato |ψi è la sovrapposizione di due autostati
dell’impulso associati ad autovalori eguali in modulo ed opposti in segno
|ψi = |kihk|ψi + | − kih−k|ψi,
(7.61)
106
Problemi unidimensionali
allora la corrente di probabilità è la somma di due termini, corrispondenti ciascuno al flusso di probabiltà
associato alle due componenti:
j(x, t) =
~k
|hk|ψi|2 − |h−k|ψi|2 ,
m
(7.62)
dove |hk|ψi|2 e |h−k|ψi|2 sono due coefficienti costanti.
Possiamo finalmente usare questi risultati per interpretare fisicamente la soluzione Eq. (7.44). Vediamo
che nella regione I (x < 0) vi è una sovrapposizione di due onde piane, e quindi la corrente di probabilità
ha la forma Eq. (7.60), mentre nella regione II la soluzione è una singola onda piana, e la corrente ha
la forma Eq. (7.58). Notiamo inoltre che nel nostro caso manifestamente la densità di probabilità non
dipende dal tempo (si tratta di uno stato stazionario), quindi la densità di corrente non dipende da x, e
l’equazione di continuità implica che
|A|2 jk + |B|2 j−k = |C|2 jk0 ,
(7.63)
ossia, usando l’espressione esplicita Eq. (7.58)
|A|2 jk = |B|2 jk + |C|2 jk0 ,
(7.64)
dove abbiamo notato che la Eq. (7.58) implica j−k = −jk . È facile verificare, utilizzando le condizioni di
raccordo Eq. (7.48), che quest’ultima condizione è soddisfatta.
Possiamo quindi interpretare la corrente
ji ≡ |A|2 jk
(7.65)
come corrente di probabilità incidente sul gradino da sinistra, e le correnti
jt ≡ |C|2 jk0 ;
jr ≡ |B|2 jk
(7.66)
rispettivamente come corrente trasmessa dalla regione I alla regione II e come corrente riflessa all’indietro
dal gradino nella regione I, con impulso opposto. La Eq. (7.64) esprime la conservazione della corrente di
probabilità, ossia il fatto che la corrente incidente è pari alla somma della corrente trasmessa e di quella
riflessa. Possiamo infine identificare i coefficienti
2
2
0
0
2kE kE
jr
kE − kE
jt
=
;
R
=
=
(7.67)
T ≡
0
0
ji
kE + kE
ji
kE + kE
rispettivamente come dei coefficienti di trasmissione e riflessione, che esprimono la percentuale di corrente
incidente che è stata trasmessa attraverso la barriera o riflessa all’indietro.
7.2.4
Soluzione regressiva
Abbiamo finora determinato solo una delle due soluzioni indipendenti che sono a priori permesse dal fatto
che uno dei parametri della soluzione generale Eq. (7.44) è libero. Una soluzione indipendente può essere
costruita ponendo A = 0 e usando le condizioni di raccordo Eq. (7.46) per determinare C e D in termini
di B. Seguendo la discussione della sezione 7.2.3, interpretiamo questa soluzione fisicamente come la
situazione in cui la particella che interagisce con il potenziale ora proviene da destra, essendone in parte
riflessa ed in parte trasmess.
Si vede immediatamente che questa situazione corrisponde a eseguire le sostituzioni x → −x e V0 (x) →
V0 (−x) nell’equazione di Schrödinger. Quindi, la soluzione si ottiene dalla forma esplicita della soluzione
0
Eq. (7.49) scambiando le regioni I e II e scambiando dappertutto x → −x e kE ↔ kE
. I nuovi coefficienti
0
di trasmissione e riflessione si ottengono scambiando kE ↔ kE nell’espressione Eq. (7.67), e sono quindi
invariati. Quindi i coefficient di trasmissione e riflessione sono gli stessi sia che l’onda arrivi da sinistra,
sia che arrivi da destra.
7.3 La barriera di potenziale
7.2.5
107
Autofunzioni di energia: stati di tunneling
Passiamo ora al caso E < V0 . La soluzione ora ha la forma

q
ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m
E
~2 E
q
0
ψ II (x) = CE e−βE x , βE = 2m
E
~2 (V0 − E)
:
(7.68)
nella regione I ovviamente non è cambiato nulla, mentre nella regione II la soluzione ora è esponenzialmente smorzata. Notare che abbiamo scartato la soluzione esponenzialmente crescente, che divergerebbe
all’infinito, come già fatto nel caso della buca Eq. (7.6). Le condizioni di raccordo Eq. (7.47) e la soluzione
Eq. (7.48) restano invariate con l’identificazione
0
kE
= iβE .
(7.69)
Ne segue che in questo caso vi è una soluzione sola per ogni valore di energia.
Si vede immediatamente che in questo caso la corrente nella regione II si annulla identicamente, infatti
jC (x, t) = −
i~ ∗ −βE x
C e
(−βE )Ce−βE x − C ∗ (−βE )e−βE x Ce−βE x = 0.
2m
(7.70)
Ne segue che l’equazione di continuità implica
jA = −jB ,
(7.71)
ed in effetti, usando le condizioni di raccordo Eq. (7.48) con l’identificazione Eq. (7.69) troviamo
2 k − iβE 2
B = 1.
R= =
A
k + iβE (7.72)
Osserviamo che la densità di probabilità a destra della barriera non è nulla: vi è penetrazione attraverso
la barriera, con una densità di probabilità esponenzialmente soppressa di rivelare il sistema al di là
della barriera stessa. Tuttavia, il flusso di probabilità a destra della barriera si annulla, e la corrente di
probabilità subisce una riflessione totale.
Ovviamente, quando il gradino è di altezza infinita V0 → ∞ questa è l’unica soluzione. In tal caso si
ha che βE → ∞, e
(
limβE →∞ BE = −AE
.
(7.73)
limβE →∞ CE = 0
Questo significa che la funzione d’onda e la densità di probabilità si annullano sotto la barriera, e l’onda
viene interamente riflessa. Notiamo che in questo limite le condizioni di raccordo sono analoghe a quelle
della buca infinita: ψ(0) = 0, ma la derivata nell’origine diventa discontinua.
7.3
La barriera di potenziale
Un problema d’urto leggermente più complesso è quello che si ha in presenza di un potenziale a barriera
(
0
se |x| > a
V (x) =
.
(7.74)
V0 se |x| < a
7.3.1
Autofunzioni di energia ed effetto tunnel
In questo caso, vi sono tre regioni (si veda la Fig. 7.5). La soluzione generale può assumere due forme
diverse, a seconda che nella regione II l’energia sia maggiore o minore del potenziale V0 :
108
Problemi unidimensionali
Figura 7.5: Barriera di potenziale
1. V0 < E Si ha

I
ikE x

+ BE e−ikE x
ψE (x) = AE e
0
0
II
ik
x
ψE (x) = ψE (x) = CE e E + DE e−ikE x

 III
ψE (x) = FE eikE x + GE e−ikE x
se x < −a
se − a < x < a ,
se x > a
(7.75)
con
r
2mE
kE =
~2
r
2m(E − V0 )
0
kE
=
;
~2
(7.76)
(7.77)
2. V0 > E Si ha

I
ikE x

+ BE e−ikE x
ψE (x) = AE e
II
ψE (x) = ψE
(x) = CE e−βE x + DE eβE x

 III
ψE (x) = FE eikE x + GE e−ikE x
se x < −a
se − a < x < a
se x > a
(7.78)
con
r
2mE
kE =
~2
r
2m(V0 − E)
βE =
.
~2
(7.79)
(7.80)
Le soluzioni con E > V0 sono una semplice generalizzazione del problema del gradino di potenziale
discusso nella sezione precedente. Gli andamenti che si trovano sono simili a quelli di onde luminose
che si propagano tra mezzi con diversi indici di rifrazione: in particolare, come nel caso della luce, per
opportuni valori dell’energia si possono avere fenomeni di riflessione totale.
Il caso V0 > E è particolarmente interessante: in questo caso si vede come una particella incidente,
ad esempio dalla regione I, su una barriera di altezza finita non ne venga completamente riflessa anche se
l’altezza della barriera è maggiore dell’energia cinetica della particella. In generale, vi è una componente
di onda che viene trasmessa al di là della barriera, e si propaga quindi nella regione III, dove continua a
propagarsi come una particella libera. Questa situazione (rappresentata schematicamente in Fig. 7.6) è
detta effetto tunnel.
7.3 La barriera di potenziale
109
V0
-­‐𝑎
𝑎
Figura 7.6: Effetto tunnel
7.3.2
Soluzione generale di tunneling
Consideriamo quindi in dettaglio la costruzione della soluzione nel caso E < V0 . Abbiamo quattro
condizioni di raccordo:
 I
II
(−a)
ψE (−a) = ψE



ψ 0 I (−a) = ψ 0 II (−a)
E
E
.
(7.81)
III
II

(a)
(a)
=
ψ
ψ

E
E

0
 0 II
ψE (a) = ψEIII (a)
In questo caso vi sono quindi quattro equazioni e sei costanti, quindi, con una costante fissata per
normalizzazione, abbiamo una famiglia ad un parametro di soluzioni, ossia due soluzioni linearmente
indipendenti, come nel caso del gradino di potenziale. Ad esempio, potremmo determinare la soluzione
ponendo GE = 0: questa scelta corrisponde ad un’onda incidente sulla barriera da sinistra.
Per risolvere il sistema di condizioni di raccordo Eq. (7.81) conviene far uso di una notazione matriciale:
le prime due condizioni implicano
−ik a
eβE a
e−βE a
e E
eikE a
AE
CE
=
.
(7.82)
βE βE a
βE −βE a
BE
DE
− ik
e
e−ikE a −eikE a
ikE e
E
Ora, osserviamo che se si moltiplica la matrice a primo membro per un fattore √12 si ottiene una
matrice unitaria, e quindi possiamo riscrivere il sistema Eq, (7.82) come
ik a
eβE a
e−βE a
1
AE
e E
e−ikE a
CE
CE
=
=
M
(a)
,
(7.83)
βE βE a
βE −βE a
BE
DE
DE
− ik
e
e−ikE a −eikE a
2
ikE e
E
dove la matrice M (a) è esplicitamente data da
 iβE
(βE +ikE )a
1
+
1
kE e
M (a) =  2
1 − iβE e(βE −ikE )a
kE
1−
1+
iβE
(−βE +ikE )a
kE e
iβE
e(−βE −ikE )a
kE
Osserviamo ora che la simmetria del problema implica che
FE
CE
= M (−a)
GE
DE

.
(7.84)
(7.85)
110
Problemi unidimensionali
da cui
AE
BE
= M (a)M −1 (−a)
FE
GE
=T
FE
GE
.
(7.86)
La soluzione generale viene cosı̀ espressa in termini di una cosiddetta matrice di trasferimento T , che
fornisce i coefficienti nella regione III in termini dei coefficienti nella regione I, raccordando le soluzioni
nelle due regioni in cui l’onda si propaga come una particella libera.
Utilizzando la forma esplicita Eq. (7.84 della matrice M (a) abbiamo che
 M −1 (−a) =
1−
1 2
1+
iβE
(βE +ikE )a
kE e
iβE
e(−βE +ikE )a
kE
1+
1−
iβE
(βE −ikE )a
kE e
iβE
e(−βE −ikE )a
kE

,
(7.87)
e quindi
1
T =
2
cosh 2βE a + i 2 sinh 2βE a e2ikE a
− iη
2 sinh 2βE a
iη
2
sinh 2βE a cosh 2βE a − i 2 sinh 2βE a e−2ikE a
,
(7.88)
dove abbiamo posto
kE
βE
−
kE
βE
βE
kE
η=
+
.
kE
βE
(7.89)
=
7.3.3
(7.90)
Coefficienti di trasmissione e riflessione
Costruiamo ora una soluzione particolare ponendo GE = 0. Come nel caso del gradino di potenziale,
possiamo definire densità e correnti di probabilità, e conseguentemente coefficienti di trasmissione e
riflessione
FE 2
jt
;
T ≡
=
ji
AE BE 2
jr
.
R≡
=
ji
AE (7.91)
Abbiamo
−1
i
FE
= cosh 2βa + sinh 2βE a
e−2ikE a
AE
2
BE FE
BE
η
BE
=
;
= −i sinh 2βE a.
AE
FE AE
FE
2
(7.92)
(7.93)
Troviamo cosı̀
T =
1+ 1+
ε2
4
1
;
sinh2 (2βE a)
R = 1 − T,
(7.94)
avendo usato la conservazione della corrente. Notiamo infine che nel limite in cui βE a 1 si ha
T ∼ e−4βE a .
(7.95)
Questo significa che la probabilità di attraversare la barriera resta finita, ma è esponenzialmente soppressa
al crescere della larghezza della barriera.
7.4 Problemi di stato legato: una discussione qualitativa
7.4
111
Problemi di stato legato: una discussione qualitativa
Ci chiediamo ora in generale quali siano le caratteristiche qualitative dello spettro per una
Ĥ =
p̂2
+ V̂ (x̂).
2m
(7.96)
Osserviamo che l’equazione di Schrödinger
∂ 2 ψ(x)
2m
= 2 (V (x) − E)ψ(x)
∂x2
~
(7.97)
lega in ogni punto la derivata seconda della funzione al valore della funzione stessa. Ne segue che
l’andamento qualitativo delle soluzioni è determinato dal segno di V (x) − E.
Questo ci permette innanzitutto di capire quando le autofunzioni di energia sono normalizzabili in
senso proprio. Infatti, osserviamo che se, per x → ±∞, V (x) > E, allora le soluzioni all’infinito hanno
un andamento di tipo esponenziale, mentre se V (x) < E esse hanno un andamento oscillante. Ne segue
che possiamo avere soluzioni normalizzabili, ossia stati legati, se e solo se V (x) > E sia quando x → ∞
che quando x → −∞. Questo, a sua volta, è possibile solo se il potenziale ha un minimo al finito. Quindi
solo un potenziale con un minimo ammette stati legati, che possono quindi esistere per valori dell’energia
E < limx→±∞ V (x).
Consideriamo quindi per semplicità il caso particolare di un potenziale simmetrico con un unico
minimo al finito un minimo, tale cioè che V (x) < 0, V (x) = V (−x), limx→±∞ = 0 (si veda la Fig. 7.7).
Questo è il caso più semplice di potenziale attrattivo. Il potenziale è definito a meno di una costante,
che scegliamo imponendo che il potenziale si annulli all’infinito. Nel caso più generale naturalmente il
potenziale non è simmetrico.
Figura 7.7: Generico potenziale attrattivo
L’andamento qualitativo delle soluzioni nelle varie regioni è determinato dalla Eq. (7.97). I casi
possibili sono i seguenti:
1. V (x) − E > 0 Questo è il caso in cui E < V (x) (Fig. 7.8). Ne segue che ψ 00 ha lo stesso segno di ψ,
cioè la funzione è concava.
Se ψ(x) > 0 allora anche ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.9:
per x > 0
• se ψ(x) decresce, continua a decrescere tendendo a 0 sempre più lentamente;
• se ψ(x) cresce, continua a crescere sempre più velocemente,
112
Problemi unidimensionali
Figura 7.8: Regione E < V (x)
Figura 7.9: Forma qualitativa delle soluzioni se V (x) > E e ψ > 0
7.4 Problemi di stato legato: una discussione qualitativa
113
Gli andamenti per x < 0 si determinano per simmetria.
Se ψ(x) < 0 allora anche ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in
Fig. 7.10: per x > 0
• se ψ(x) cresce, continua a crescere sempre più lentamente;
• se ψ(x) decresce, continua a decrescere sempre più velocemente.
Figura 7.10: Forma qualitativa delle soluzioni se V (x) > E e ψ < 0
2. V (x) − E < 0 Questo è il caso in cui V (x) < E. Ne segue che ψ 00 ha il segno opposto a ψ, cioè la
funzione è convessa.
Figura 7.11: Regione E > V (x). I punti x0 in cui V (x) = E sono detti punti di inversione.
Se ψ(x) > 0 allora ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.12:
per x > 0
• se ψ(x) decresce, continua a decrescere tendendo a 0 sempre più velocemente;
• se ψ(x) cresce, continua a crescere sempre più lentamente.
Se ψ(x) < 0 allora ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.13:
per x > 0
• se ψ(x) decresce, continua a decrescere sempre più lentamente;
• ψ(x) cresce, continua a crescere sempre di più velocemente.
Le soluzioni per l’equazione agli autovalori si determinano raccordando gli andamenti descritti sopra
nelle varie regioni. Definendo Vmin il valore del potenziale al minimo, possiamo considerare tre casi:
114
Problemi unidimensionali
Figura 7.12: Forma qualitativa delle soluzioni se V (x) < E e ψ > 0
Figura 7.13: Forma qualitativa delle soluzioni se V (x) < E e ψ < 0
1. V (x) − E > 0 ∀x
In questo caso non possono esistere soluzioni normalizzabili, in quanto la soluzione dovrebbe avere
la forma mostrata nelle Fig. (7.9-7.10) per ogni x. Si vede quindi che la soluzione o ha derivata
discontinua nell’origine, o non è normalizzabile. Questo corrisponde all’aspettativa fisica che non
possano esistere soluzioni aventi energia minore del minimo del potenziale.
2. Vmin < E < 0
In questo caso, esistono due punti (detti punti di inversione, si veda la Fig. 7.11) x = ±x0 , in cui
l’energia è uguale al potenziale, V (±x0 ) = E, e quindi E > V (x) all’interno dell’intervallo |x| <
x0 . La funzione d’onda ha quindi l’andamento delle figure Fig. 7.12-7.13 all’interno dell’intervallo
compreso tra i punti di inversione, e l’andamento delle figure Fig. 7.9-7.10 all’esterno di questo
intervallo. I punti di inversione sono punti di flesso per la funzione d’onda (la derivata seconda
si annulla). All’aumentare dell’energia i punti di inversione si muovono verso l’esterno, mentre,
avvicinandosi all’origine, a seconda che la derivata della funzione sia negativa o positiva per x > 0
(rispettivamente figura di sinistra o di destra nella Fig. 7.12) la curvatura rispettivamente cresce, o
decresce.
Le soluzioni per x < 0 e x > 0 si possono raccordare solo se nell’origine sono continue sia ψ(x) che
ψ 0 (x). Questo può essere fatto in due modi, nei due casi appena visti: se la curvatura nell’origine
è massima, la derivata prima cambia segno e la funzione d’onda nell origine è diversa da zero.
In tal caso si raccordano due soluzioni della forma Fig. 7.12 oppure due soluzione della forma
Fig. 7.13: la derivata prima si annulla nell’origine. Questa è la soluzione di tipo pari mostrata in
Fig. 7.14. Se invece la curvatura nell’origine è minima questo vuol dire che la funzione d’onda si deve
annullare, mentre la derivata nell’origine è diversa da zero. In tal caso si raccorda una soluzione
della forma Fig. 7.12 con una della forma Fig. 7.13: la funzione d’onda, e la derivata seconda ad
essa proporzionale, si annullano. Questa è la soluzione di tipo dispari mostrata in Fig. 7.14.
È facile convincersi del fatto (che si può dimostrare rigorosamente) che almeno una soluzione
pari è sempre possibile. Infatti, per quanto sia poco profondo il potenziale, possiamo sempre
scegliere un valore di |E| sufficientemente prossimo a zero per cui i punti di inversione si allontanino
arbitrariamente, finché la curvatura nell’origine si raccorda.
Al crescere dell’energia compaiono quindi soluzioni in cui la derivata cambia segno, ed il numero
di tali soluzioni dipende dalla profondità del potenziale. All’interno della regione compresa tra i
punti di inversione si hanno cosı̀ delle soluzioni di tipo oscillante. All’esterno della regione compresa
7.4 Problemi di stato legato: una discussione qualitativa
115
Figura 7.14: Soluzioni di stato legato: caso pari (sinistra) e caso dispari (destra).
tra i punti di inversione si hanno soluzioni della forma Fig. 7.9-7.10, che quindi all’infinito hanno
sempre andamenti di tipo esponenziale: sarà quindi sufficiente scegliere la soluzione esponenzialmente smorzata, raccordandola opportunamente alla soluzione oscillante all’interno dell’intervallo
tra i punti di inversione.
Si vede cosı̀ che si ottiene uno spettro discreto e di stati legati, cioè localizzati al finito e normalizzabili.
3. E > 0
In questo caso, le soluzioni non sono mai esponenzialmente smorzate, ed all’infinito si riducono a
stati di particella libera. Si ottiene cosı̀ uno spettro continuo di autostati di energia, normalizzabili
solo in senso improprio.
116
Problemi unidimensionali
Capitolo 8
L’oscillatore armonico
Figura 8.1: Il potenziale armonico
Il potenziale armonico è di grande importanza in quanto descrive la situazione generica di piccole
oscillazioni attorno ad un minimo stabile. Infatti, qualunque potenziale V (x) che abbia un minimo in
x = x0 , cioè tale che dVdx(x) x=x = 0, può essere sviluppato attorno al minimo
0
1
d2 V (x) V (x) = V (x0 ) + (x − x0 )2
+ O((x − x0 )2 ).
2
dx2 x=x0
(8.1)
Il potenziale Eq. (8.1) è detto potenziale armonico (Fig. 8).
8.1
L’oscillatore armonico classico
L’oscillatore armonico classico è descritto dall’Hamiltoniana
H=
p2
1
+ mω 2 x2 .
2m 2
(8.2)
118
L’oscillatore armonico
L’equazione del moto che governa il sistema è:
ẍ(t) = −ω 2 x(t),
(8.3)
x(t) = A sin ωt + B cos ωt
(8.4)
x(t) = C cos(ωt + ϑ).
(8.5)
p(t) = −mωC sin(ωt + ϑ).
(8.6)
la cui generica soluzione è:
che possiamo anche riscrivere come
Poiché p(t) = mẋ(t), si ottiene
Il potenziale è invariante per traslazioni temporali, ma non per traslazioni spaziali. Di conseguenza
si ha conservazione dell’energia totale, mentre l’energia cinetica e quella potenziale non si conservano
separatamente. Infatti
T +V =
1
1
mω 2 C 2 (cos2 (ωt + ϑ) + sin2 (ωt + ϑ)) = mω 2 C 2
2
2
(8.7)
è indipendente dal tempo, mentre manifestamente p(t) Eq. (8.6) dipende dal tempo, e quindi ne dipendono
l’energia cinetica e perciò anche quella potenziale.
8.2
Lo spettro di energia dell’oscillatore armonico quantistico
Quantisticamente, la dinamica dell’oscillatore armonico è descritta dall’hamiltoniana
Ĥ =
1
p̂2
+ mω 2 x̂2 .
2m 2
(8.8)
Determineremo dapprima lo spettro di autovalori di energia, quindi le autofunzioni, e studieremo infine
l’evoluzione temporale.
8.2.1
Caratteristiche qualitative dello spettro
Visto che il potenziale armonico ha la forma di una buca infinitamente profonda, la discussione qualitativa
della sezione precedente suggerisce che lo spettro è discreto e consiste di un numero infinito di stati legati.
Possiamo dimostrare facilmente che gli autovalori di energia sono tutti positivi, e che lo spettro è discreto,
manipolando l’equazione agli autovalori
Ĥ|ni = En |ni.
(8.9)
• Autovalori positivi
Gli autovalori di energia soddisfano
X hn|p̂|kihk|p̂|ni 1
2
En =
+ mω hn|x̂|kihk|x̂|ni
2m
2
k
X
X
1
1
=
|hn|p̂|ki|2 + mω 2
|hn|x̂|ki|2 ,
2m
2
k
(8.10)
(8.11)
k
sicché En ≥ 0. Osserviamo inoltre che En = 0 richiederebbe hn|p̂|ki = hn|x̂|ki = 0 per ogni k. Ma
questo è vietato dal principio di indeterminazione, in quanto
X
[hn|x̂|kihk|p̂|ni − hn|p̂|kihk|x̂|ni] = i~ > 0.
(8.12)
k
Pertanto En > 0.
8.2 Lo spettro di energia dell’oscillatore armonico quantistico
119
• Spettro discreto
Osserviamo che
[x̂, Ĥ] = i~
p̂
;
m
[p̂, Ĥ] = −i~ω 2 mx̂.
(8.13)
Ne segue che
p̂
|ki
m
hn|p̂|ki(Ek − En ) = −i~hn|mω 2 x̂|ki.
hn|x̂|ki(Ek − En ) = i~hn|
(8.14)
(8.15)
Sostituendo la prima equazione nella seconda abbiamo
(Ek − En )2 hn|x̂|ki = ~2 ω 2 hn|x̂|ki,
(8.16)
che implica che hn|x̂|ki = 0 a meno che En − Ek = ±~ω. Concludiamo che le matrici degli operatori
x̂ e p̂ hanno elementi nonnulli solo tra autostati di energia associati ad autovalori che differiscono di
±~ω. Poichè l’hamiltoniana è un polinomio in x̂ e p̂, questo implica immediatamente che lo spettro
deve essere discreto.
8.2.2
Operatori di creazione e distruzione
La struttura delle matrici degli operatori x̂ e p̂ suggerisce di definire gli operatori
r
mω
ip̂
x̂ +
a=
2~
mω
r
ip̂
mω
x̂ −
,
a† =
2~
mω
che sono l’uno l’aggiunto dell’altro.
L’hamiltoniana si scrive facilmente in termini di questi operatori notando che
p̂2
mω
i
x̂2 + 2 2 +
[x̂, p̂],
a† a =
2~
m ω
2~
(8.17)
(8.18)
(8.19)
e quindi
1
Ĥ = ~ω a a +
2
†
.
(8.20)
Conviene cosı̀ definire l’operatore
N = a† a
(8.21)
in termini del quale
1
Ĥ = ~ω N +
2
.
(8.22)
Ma lo spettro dell’operatore N , che a sua volta determina facilmente lo spettro dell’hamiltoniana, si
può ottenere notando che
[a, a† ] =
p̂
mω
2i[x̂,
] = 1,
2~
mω
(8.23)
che implica
[N, a] = −a;
[N, a† ] = a† .
Lo spettro di N è quindi determinato dalle due seguenti osservazioni:
(8.24)
120
L’oscillatore armonico
• Dato un autostato |zi di N con autovalore z
N |zi = λz |zi
(8.25)
anche a† |zi ed a|zi sono autostati di N , aventi rispettivamente autovalori più grandi o più piccoli
di una unità. Infatti, usando le relazioni di commutazione Eq. (8.24) , si vede immediatamente che
N a† |zi = (a† N + a† )|zi = (λz + 1)a† |zi
(8.26)
N a|zi = (aN − a)|zi = (λz − 1)a|zi.
(8.27)
• Deve esistere un autostato |0i di N tale che
a|0i = 0.
(8.28)
Infatti, gli autovalori λz sono non-negativi:
λz =
hz|N |zi
hz|a† a|zi
hz − 1|z − 1i
=
=
≥ 0,
hz|zi
hz|zi
hz|zi
(8.29)
dove abbiamo definito |z − 1i ≡ a|zi. Ma la Eq. (8.27) implica che
N ak |zi = (λz − k) |zi.
(8.30)
Questo comporta che per k sufficientemente grande lo stato ak |zi sia un autostato di N con autovalore negativo, e quindi una contraddizione con la Eq. (8.29), a meno che non esista un valore di
k0 < λz tale per cui lo stato
|0i = ak0 |zi
(8.31)
N |0i = 0.
(8.32)
soddisfi la Eq. (8.28) e
In altri termini, deve esistere uno stato |0i = 0, autostato di N associato all’autovalore nullo.
Osserviamo inoltre che la Eq. (8.28) (e la sua aggiunta h0|a† = 0) implicano immediatamente che
gli elementi di matrice diagonali degli operatori a ed a† si annullano tutti:
h0|ap |0i = h0|(a† )p |0i = 0
(8.33)
Concludiamo quindi che gli autostati di N sono
|ni = Kn (a† )n |0i
(8.34)
(dove Kn è una costante di normalizzazione) con autovalori
N |ni = n|ni.
(8.35)
Lo stato fondamentale |0i è comunemente detto “vuoto”, gli operatori a† ed a sono detti rispettivamente operatori di creazione e distruzione (o di innalzamento ed abbassamento), e l’operatore N è detto
operatore numero.
Noto lo spettro dell’operatore numero, la Eq. (8.22) determina immediatamente lo spettro dell’hamiltoniana:
1
En = ~ω n +
.
(8.36)
2
Lo stato fondamentale ha quindi energia
E0 =
~ω
.
2
(8.37)
8.2 Lo spettro di energia dell’oscillatore armonico quantistico
8.2.3
121
Normalizzazione ed elementi di matrice
La costante di normalizzazione degli stati Kn si determina usando ripetutamente le relazioni di commutazione
1 = hn|ni = |Kn |2 h0|(a)n (a† )n |0i = |Kn |2 h0|(a)n−1 (aa† )(a† )n−1 |0i
2
n−1
= |Kn | h0|(a)
2
† n−1
(a a + 1)(a )
n−1
= |Kn | nh0|(a)
†
† n−1
(a )
2
n−1
|0i = |Kn | h0|a
2
† n−1
(N + 1)(a )
n−2
|0i = |Kn | n(n − 1)h0|(a)
† n−2
(a )
(8.38)
|0i
|0i
2
= · · · = |Kn | n!h0|0i.
(8.39)
(8.40)
(8.41)
Notiamo che lo stesso argomento implica immediatamente che
hn|mi = 0,
se n 6= m,
(8.42)
in quanto, se n 6= m, nell’ultimo passaggio resta sempre l’elemento di matrice di una potenza di a o di a†
nel vuoto, che si annulla per la Eq. (8.33).
Supponendo che il vuoto sia normalizzato
h0|0i = 1
(8.43)
1
Kn = √ .
n!
(8.44)
si ha
Con questa normalizzazione la Eq. (8.42) implica che lo spettro di autostati è ortonormalizzato:
hn|mi = δnm .
(8.45)
La normalizzazione determina completamente l’azione degli operatori di creazione e distruzione sugli
autostati di energia:
√
Kn
|n + 1i = n + 1|n + 1i
Kn+1
√
a|ni = n|n − 1i,
a† |ni =
da cui si ottengono immediatamente gli elementi di matrice
√
hm|a† |ni = δm,n+1 n + 1
√
hm|a|ni = δm,n−1 n.
(8.46)
(8.47)
(8.48)
(8.49)
Invertendo l’espressione Eq. (8.17-8.18) degli operatori di creazione e distruzione in termini di posizione
ed impulso abbiamo
r
~
x̂ =
(a + a† )
(8.50)
2mω
r
mω~
p̂ = −i
(a − a† ),
(8.51)
2
e quindi anche gli elementi di matrice di posizione ed impulso negli autostati di energia sono completamente determinati:
r
√
√
~
hm|x̂|ni =
δm,n−1 n + δm,n+1 n + 1
(8.52)
2mω
r
√
√
m~ω
hm|p̂|ni = −i
δm,n−1 n − δm,n+1 n + 1 .
(8.53)
2
122
L’oscillatore armonico
Possiamo rappresentare la matrice dell’operatore x̂ come:
√

1 √
√0
 1 0
2

√

r
2
0
~ 
 .
hm|x̂|ni =
 .
2mω  .



0

...
0
√




.. 
. 




..
3
.
...
(8.54)
0
e analogamente per l’operatore p̂. Naturalmente, questa è la proprietà che avevamo dimostrato in precedenza (si ricordi la Eq. (8.16)), per cui gli elementi di matrice dell’operatore x̂ sono nonnulli solo tra
autostati di energia associati ad autovalori che differiscono di ~ω. Notiamo in particolare che
hn|x̂|ni = 0;
hn|p̂|ni = 0.
(8.55)
Calcoliamo infine i valori medi delle indeterminazioni di posizione ed impulso in un autostato di
energia. Osserviamo che
~ 2
~ 2
2
2
x̂2 =
a + a† + aa† + a† a =
a + a† + 2N + 1
(8.56)
2mω
mω
~mω 2
2
2
p̂2 =
−a − a† + aa† + a† a = ~mω −a2 − a† + 2N + 1 .
(8.57)
2
Pertanto
1
n+
2
1
2
hn|p̂ |ni = ~mω n +
.
2
~
hn|x̂ |ni =
mω
2
Ne segue che i valori medi di energia cinetica e potenziale sono eguali fra loro, e dati da
p2
~ω
1
hT i = h
i=
n+
,
2m
2
2
1
~ω
1
2 2
hV i = mω hx i =
n+
.
2
2
2
(8.58)
(8.59)
(8.60)
(8.61)
L’indeterminazione in posizione ed impulso si calcola utilizzando le equazioni Eq. (8.55,8.58,8.59):
1
~
n+
(8.62)
∆2n x =
mω
2
1
∆2n p = ~mω n +
(8.63)
2
da cui segue che
∆2n x̂∆2n p̂
=~
2
1
n+
2
2
.
(8.64)
Questo significa che lo stato fondamentale è uno stato di minima indeterminazione, mentre il prodotto
delle indeterminazioni cresce al crescere dell’energia.
8.3
Autofunzioni nella base delle coordinate
Vogliamo ora determinare le autofunzioni nella base delle coordinate.
8.3 Autofunzioni nella base delle coordinate
8.3.1
123
Funzione d’onda per lo stato fondamentale
Osserviamo innanzitutto che la condizione Eq. (8.28), ovvero che l’operatore di distruzione annichili
il vuoto, determina completamente la funzione d’onda dello stato fondamentale. Infatti, utilizzando
l’espressione Eq. (8.17) dell’operatore di distruzione in termini di operatori posizione ed impulso, e le
note espressioni di questi ultimi nella base delle coordinate, e definendo
hx|ψi = ψ0 (x)
(8.65)
mω
∂ψ0 (x)
= −xψ0 (x)
,
∂x
~
(8.66)
la Eq. (8.28) implica
la cui soluzione è
x2 mω
ψ0 (x) = N0 exp −
2~
cioè una gaussiana di larghezza ∆x =
~
mω .
,
(8.67)
La condizione di normalizzazione Eq. (8.43) fissa
N0 =
mω 41
π~
.
(8.68)
Notiamo che il fatto che lo stato fondamentale sia una gaussiana è in accordo con la Eq. (8.64) che
dice che lo stato fondamentale è di minima indeterminazione.
8.3.2
Stati eccitati e polinomi di Hermite
Gli stati eccitati si ottengono utilizzando la Eq. (8.34), cioè agendo sul vuoto con l’operatore di creazione.
In particolare il primo stato eccitato è
r
r
mω
~ ∂
mωx2
mω
mωx2
ψ1 (x) = N0
x−
exp −
=
2xN0 exp −
.
(8.69)
2~
mω ∂x
2~
2~
2~
Agendo ripetutamente con l’operatore di creazione si trovano potenze crescenti di x e ulteriori derivate,
che agendo sull’esponenziale si riducono a potenze di x che moltiplicano l’esponenziale. Si vede cosı̀ che
la funzione d’onda per l’n-esimo stato eccitato ha la forma
ψn (x) = hx|ni = ψ0 (x)Hn (x)
(8.70)
dove Hn (x) è un polinomio di grado n (si veda la Fig. 8.2).
I polinomi Hn (x) sono noti come polinomi di Hermite. La condizione di ortonormalizzazione Eq. (8.45)
implica che essi devono soddisfare
Z
hn|mi = dx|ψ0 (x)|2 Hn∗ (x)Hm (x) = δnm .
(8.71)
Essi sono cioè ortonormali rispetto ad una misura di integrazione con un peso gaussiano. Si dimostra
inoltre che essi soddisfano la relazione di completezza
X
|nihn| = I,
(8.72)
n
che noi abbiamo finora supposto essere valida senza dimostrazione. È interessante osservare che la
relazione di completezza Eq. (8.72), scritta nella base delle coordinate, può essere vista come una
rappresentazione esplicita della delta di Dirac
X
hx|nihn|x0 i = δ(x − x0 ).
(8.73)
n
124
L’oscillatore armonico
8
6
4
2
4
2
2
4
Figura 8.2: Rappresentazione delle autofunzioni dell’oscillatore armonico unidimensionale.
8.4
8.4.1
Evoluzione temporale
Operatore di evoluzione temporale ed evoluzione degli stato
L’operatore di evoluzione temporale nella base delle coordinate ha la forma
S(t, 0) =
∞
X
hx|nihn|x0 ie−
iEn t
~
=
k=0
∞
X
ψn∗ (x)ψn (x0 )e−iω(n+ 2 )t ,
1
(8.74)
k=0
dove le autofunzioni ψn (x) sono date dalla Eq. (8.70). L’evoluzione temporale di un vettore di stato
qualunque in rappresentazione di Schrödinger è quindi data da
X
1
(8.75)
ψ(x, t) = hx|ψ(t)i =
Cnψ e−iω(n+ 2 )t |ni,
n
con
Cn = hn|ψ(0)i.
8.4.2
(8.76)
Evoluzione degli operatori posizione ed impulso e formule di BCH
È interessante studiare l’evoluzione temporale degli operatori posizione ed impulso in rappresentazione
di Heisenberg. Ricordiamo le equazioni del moto
dx̂H
p̂H
=
dt
m
dp̂H
= −mω 2 x̂H .
dt
(8.77)
(8.78)
La dipendenza temporale può ora essere determinata in vari modi, di cui il più diretto è la risoluzione di
questo sistema accoppiato di equazioni differenziali. Discutiamo però altri due metodi, ciascuno dei quali
presenta aspetti istruttivi.
Il primo metodo consiste nell’osservare che la soluzione formale delle equazioni di Hisenberg in termini
dell’operatore di evoluzione temporale, e cioè
1
1
x̂H (t) = e− i~ Ĥt x̂S e i~ Ĥt
p̂H (t) = e
1
− i~
Ĥt
p̂S e
1
i~ Ĥt
(8.79)
(8.80)
8.4 Evoluzione temporale
125
può essere resa esplicita se si è in grado di determinare espressioni del tipo
exp(−Â)B̂ exp(Â).
(8.81)
Questo si può fare usando le cosiddette formule di Baker-Campbell-Hausdorff. Abbiamo in primo
luogo che
e− B̂e =B̂ + [−Â, B̂] +
+
1
1
[−Â, [−Â, B̂]] + [−Â, [−Â, [−Â, B̂]]] + . . .
2!
3!
1
[−Â, [−Â, · · · [−Â, B̂]] · · · ]
n!
(8.82)
(prima formula di BCH). Per dimostrarlo, notiamo che, sviluppando in serie di Taylor, possiamo scrivere
#
"∞
X (λ)n d
−λÂ
λÂ
−λÂ
λ e
e
B̂e |λ=1 =
B̂e
n
n!
dλ
λ=0 n=0
λ=1
= B̂ + e
−λÂ
(−ÂB̂ + B̂ Â)e
= B̂ + [−Â, B̂] +
λÂ
+ ... + +
1
(−Â . . . B̂ + . . . B̂ Â)
n!
(8.83)
1
[−Â, . . . B̂].
n!
Utilizzando questo risultato, si può ulteriormente dimostrare la seconda formula di BCH,
1
e eB̂ = eÂ+B̂ e 2 [Â,B̂] e . . .
(8.84)
di cui omettiamo la dimostrazione.
Usando la formula di BCH Eq. (8.82) troviamo quindi
x̂H (t) = e
1
ĤS t
− i~
1
xS e
1
i~ ĤS t
1
p̂H (t) = e− i~ ĤS t p̂S e i~ ĤS t
h
i 1 it 2 h h
ii
it
= x̂S +
Ĥ, x̂S +
Ĥ, Ĥ, x̂S + . . .
~
2 ~
h
2
i
ii
it
1 it h h
= p̂S +
Ĥ, p̂S +
Ĥ, Ĥ, p̂S + . . . .
~
2 ~
(8.85)
(8.86)
I commutatori si calcolano facilmente:
i p̂
ih
S
Ĥ, x̂S =
~
m
2 h h
ii
i
p̂S
i
Ĥ,
Ĥ, Ĥ, x̂S =
= −ω 2 x̂S
~
~
m
2 h h h
iii
i
i h
p̂S
i
Ĥ, Ĥ, Ĥ, x̂S
= − ω 2 Ĥ, x̂S = −ω 2
~
~
m
(8.87)
(8.88)
(8.89)
e
i
ih
Ĥ, p̂S = −mω 2 x̂S
~
2 h h
ii
i
i
i mω 2 h
Ĥ Ĥ, p̂S =
Ĥ, x̂S = −ω 2 p̂S
~
~ i~
"
#
3 h h h
iii
h
i
i
i
iĤ
2
Ĥ, Ĥ, Ĥ, p̂S
=
, −ω p̂S = − (ω 2 ) Ĥ, p̂S = (ω 2 )2 mx̂S .
~
~
~
(8.90)
(8.91)
(8.92)
Vediamo quindi come commutando un numero pari di volte Ĥ con x̂S si trovi x̂S volte una potenza
di ω 2 , e commutando un numero dispari di volte Ĥ con x̂S si trovi p̂S volte una potenza di ω 2 , ed
126
L’oscillatore armonico
inversamente scambiando p̂S con x̂S . Troviamo cosı̀
p̂S
ω 3 t3
ω 5 t5
t2 2
t4 2 4
x̂H (t) =
t−
+
+ . . . + x̂S 1 − (ω ) + (ω ) + . . .
mω
3!
5!
2!
4!
p̂S
=x̂S cos(ωt) +
sin(ωt);
mω3 3
ω t
ω 5 t5
t2
t4
p̂H (t) = − mωxS t −
−
+ . . . + p̂S 1 − ω 2 + ω 4 + . . .
3!
5!
2!
4!
= − mωx̂S sin(ωt) + p̂S cos(ωt).
(8.93)
(8.94)
(8.95)
Naturalmente, queste coincidono con le equazioni classiche del moto.
8.4.3
Evoluzione temporale degli operatori di creazione e distruzione
Il secondo metodo di soluzione consiste nell’osservare che gli operatori di creazione e distruzione soddisfano
equazioni del moto disaccoppiate. Usando i commutatori Eq. (8.24) abbiamo infatti che
1
da
= [a, Ĥ] = −iωa
dt
i~
1
da†
= [a† , Ĥ] = iωa† .
dt
i~
(8.96)
(8.97)
La soluzione è perciò immediata:
aH (t) = exp(−iωt)aS
(8.98)
a†H (t)
(8.99)
=
exp(iωt)a†S .
L’evoluzione temporale degli operatori di creazione e distruzione è consistente con il fatto che essi
aggiungono o tolgono un quanto di energia. Infatti
√
hn + 1|a†H (t)|ni = eiωt hn + 1|a†S |ni = eiωt n + 1,
(8.100)
ma d’altra parte
hn + 1; t|a†S |n; ti = hn + 1|e− i~ a†S e i~ |n; ti = hn + 1|e− i~ ~ω(n+1+ 2 )t a†S e~ω(n+ 2 )t |ni
√
ωt
= e− i hn + 1|a†S |ni = eiωt n + 1.
Ht
Ht
1
1
1
(8.101)
Possiamo usare questo risultato per determinare l’evoluzione temporale degli operatori posizione ed
impulso: usando le loro espressioni Eq. (8.50) in termini degli operatori di creazione e distruzione abbiamo
r
r
~
~
†
x̂(t) =
(a(t) + a (t)) =
(e−iωt aS + eiωt a†S )
2mω
2mω
r
r
r
~
mω
ip̂S
mω
ip̂S
=
e−iωt
x̂S +
+ eiωt
x̂S −
(8.102)
2mω
2~
mω
2~
mω
p̂S
= x̂S cos(ωt) +
sin(ωt)
mω
r
r
mω~
mω~ −iωt
p̂(t) = −i
(a(t) − a† (t)) = −i
(e
aS − eiωt a†S )
2
2
r
r
r
mω~ −iωt mω
ip̂S
mω
ip̂S
iωt
= −i
e
x̂S +
−e
x̂S −
2
2~
mω
2~
mω
= −mωx̂S sin(ωt) + p̂S cos(ωt),
che naturalmente riproduce il risultato Eq. (8.93).
(8.103)
8.5 Stati coerenti e “gatti di Schrödinger”
8.5
127
Stati coerenti e “gatti di Schrödinger”
Possiamo ora descrivere un tipico esperimento di interferenza quantistica, come l’esperimento in Zeilinger
visto nella Sez. 2.1 utilizzando opportuni stati, realizzati come sovrapposizioni di stati di energia di
oscillatore armonico: gli stati coerenti.
8.5.1
Gli stati coerenti
In presenza di un potenziale armonico, è possibile costruire dei pacchetti d’onda di minima indeterminazione che non si allargano nel tempo, e tali per cui il centro del pacchetto oscilla con il periodo
dell’oscillatore armonico classico, sia nella base delle posizioni che nella base degli impulsi. Questi stati
sono detti stati coerenti, e possono essere cosrtuiti come autostati dell’operatore di distruzione, come ora
vediamo. Consideriamo un’Hamiltoniana di oscillatore armonico,
1
p̂2
+ mω 2 x̂2 .
2m 2
Ĥ =
Cerchiamo degli stati |zi in modo che si abbia:
a|zi = z|zi
(8.104)
con z ∈ C.
In particolare, dato |ni autostato dell’Hamiltoniana (ovvero dell’operatore numero):
|zi =
∞
X
|nihn|zi.
(8.105)
n=0
si ha:
a|zi =
∞
X
a|nihn|zi =
∞
X
√
n|n − 1ihn|zi =
n0 + 1|n0 ihn0 + 1|zi.
(8.106)
n0 =0
n=0
n=0
∞
X
√
Tuttavia abbiamo imposto che |zi sia un autostato di a. Quindi posssiamo scrivere:
a|zi = z
∞
X
|nihn|zi.
(8.107)
n=0
Le due espressioni devono essere uguali: quindi otteniamo che il coefficiente dell’n-esimo stato è:
√
(8.108)
zhn|zi = n + 1hn + 1|zi.
Ne segue che
z
z
z
zn
hn|zi = √ hn − 1|zi = √ √
hn − 2|zi = . . . = √ h0|zi.
n
n n−1
n!
(8.109)
Lo stato coerente |zi è quindi
|zi =
∞
∞
X
X
†
|niz n
(za† )n
√ h0|zi =
|0ih0|zi = eza |0ih0|zi.
n!
n!
n=0
n=0
(8.110)
La condizione di normalizzazione dello stato è
∞
X
2
z n (z ∗ )n
|z|n
√
hz|zi = |h0|zi|
hm|ni
=
|h0|zi|2 = e|z| |h0|zi|2 ,
n!
n!m!
n,m=0
n=0
2
∞
X
(8.111)
128
L’oscillatore armonico
da cui segue
1
2
h0|zi = e− 2 |z| .
(8.112)
L’espressione generale di uno stato coerente è dunque
1
2
†
|zi = e− 2 |z| eza |0i.
(8.113)
Calcoliamo i valori medi di x̂ e p̂ a tempo t = 0, servendoci degli operatori di creazione e distruzione
e ricordando la Eq. (8.50):
r
r
r
~
~
2~
†
∗
hz|x̂|zi =
hz|(a + a )|zi =
(z + z ) =
Re z
2mω
2mω
mω
r
r
√
m~ω
~
hz|p̂|zi = −i
hz|(a − a† )|zi = −i
(z − z ∗ ) = 2m~ω Im z.
2
2mω
(8.114)
(8.115)
Al tempo t invece si ha
|z; ti = e
− 12 |z|2
∞
∞
X
X
2
1
1
1
1
zn
(ze−iωt )n
√ e−iω(n+ 2 )t |ni = e− 2 |z| −i 2 ωt
√
|ni = e−i 2 ωt |ze−iωt i.
n!
n!
n=0
n=0
(8.116)
1
Quindi, a meno di un fattore di fase globale e−i 2 ωt
|z; ti = |ze−iωt i.
(8.117)
Vediamo quindi che l’evoluzione temporale di uno stato coerente può essere espressa in termini della
dipendenza dal tempo del parametro z che lo caratterizza: z(t) = ze−iωt si muove in senso orario sulla
circonferenza di raggio |z| nel piano complesso. Vediamo ora conme questo implichi che lo stato coerente
non si allarga durante l’evoluzione temporale.
A questo fine, calcoliamo l’indeterminazione:
∆2 x̂ = hz|(x − hxi)2 |zi =
~
hz|((a + a† ) − (hai + ha† i))2 |zi.
2mω
(8.118)
Tuttavia, essendo |zi autostato di a si ha che
hai = z;
ha† i = z ∗ .
(8.119)
Perciò
~
hz|(a + z ∗ − z − z ∗ )(z + a† − z − z ∗ )|zi
2mω
~
~
=
hz|(a − z)(a† − z ∗ )|zi =
hz|(a† − z ∗ )(a − z) + [(a − z), (a† − z ∗ ))]|zi
2mω
2mω
~
~
hz|[a, a† ]|zi =
.
=
2mω
2mω
∆2 x̂ =
(8.120)
(8.121)
(8.122)
Allo stesso modo si ha:
~mω
hz|((a − a† ) − (hai − ha† i))2 |zi
2
~mω
=−
hz|((a − a† ) − (hai − ha† i))((a − a† ) − (hai − ha† i))|zi
2
~mω
~mω
=
hz|[a, a† ]|zi =
.
2
2
∆2 p̂ = −
(8.123)
(8.124)
(8.125)
8.5 Stati coerenti e “gatti di Schrödinger”
129
Di conseguenza, riassumendo
~
2mω
~mω
2
∆ p̂ =
.
2
Vediamo quindi che gli stati coerenti sono effettivamente stati di minima indeterminazione:
∆2 x̂ =
(8.126)
(8.127)
~2
.
(8.128)
4
Inoltre, abbiamo visto che la dipendenza temporale dello stato può essere espressa come una dipendenza
dal tempo del parametro z. Ma le indeterminazioni Eq. (8.126) non dipendono da z, quindi ne concludiamo
che lo stato coerente non si allarga.
Possiamo quindi riscrivere in termini delle indeterminazioni, indipendenti dal tempo, le leggi del moto
per i valori medi di posizione ed impulso, Eq. (8.114), ricordando che
∆2 x̂∆2 p̂ =
hx̂i = 2∆x̂ Re z
hp̂i = 2∆p̂ Im z.
(8.129)
Si ha cosı̀
r
hx̂(t)i = 2∆x̂ Re z(t) =
2~
Re ze−iωt =
mω
r
2~
Re
mω
r
mω
2~
ip0
−iωt
x0 +
e
mω
p0
sin ωt
mω
r
√
√
ip0
mω
hp̂(t)i = 2∆p̂ Im z(t) = 2~mω Im ze−iωt = 2~mω Im
x0 +
e−iωt
2~
mω
= x0 cos ωt +
= p0 cos ωt − mωx0 sin ωt.
Vediamo quindi che il centro del pacchetto oscilla sia nello spazio delle posizioni che nello spazio degli
impulsi, mantenendo costante l’indeterminazione:
p0
hx̂(t)i = x0 cos ωt +
sin ωt
(8.131)
mω
hp̂(t)i = p0 cos ωt − mωx0 sin ωt.
(8.132)
Notiamo anche che le Eq. (8.129) ci dicono che l’interpretazione fisica del parametro z è di fornire il valor
medio di impulso e posizione (a seconda che se ne considerino la parte reale o la parte immaginaria) in
unità di indeterminazione. Questo vuol dire che uno stato coerente con le parti reale ed immaginaria di
z sufficientemente grandi può essere visto come uno stato ben localizzato sia in posizione che in impulso.
Consideriamo infine il prodotto scalare tra due stati coerenti |z1 i e |z2 i. Si ha
hz1 |z2 i =
∞
X
∗
2
2
1
1
(z1∗ z2 )n − 1 |z1 |2 − 1 |z2 |2
e 2
e 2
= ez1 z2 e− 2 |z1 | − 2 |z2 | .
n!
n=0
(8.133)
Quindi gli stati coerenti sono normalizzati, ma non sono ortogonali. Tuttavia, consideriamo per esempio
il caso in cui se |z1 i = |zi e |z2 i = | − zi,
2
1
2
hz| − zi = e−|z| e− 2 |z|
− 12 |z|2
= e−2(Re
2
+Im2 z)
.
(8.134)
Ricordando che
1 hx̂i
2 ∆x̂
1 hp̂i
Im z =
2 ∆p̂
vediamo che se gli stati coerenti sono localizzati in punti lontani in unità di indeterminazione, nello spazio
delle posizioni o degli impulsi, il loro prodotto scalare è sopresso esponenzialmente e quindi gli stati sono
quasi rtogonali.
Re z =
130
8.5.2
L’oscillatore armonico
Gatti di Schrödinger
Possiamo riprodurre molte delle idee dell’esperimento di Zeilinger considerando uno stato sovrapposizione
della forma
|ψcat i = eiα1 |z1 i + eiα2 |z2 i,
(8.135)
che chiamiamo “gatto di Schrödinger”. Nel caso dell’espemento di Zeilinger, i due stati |zi i corrispondono
ad aver fatto passare il sistema attraverso fenditure, in esperimenti di ottica quantistica essi possono
corrispondere a far passare il sistema attraverso un interferometro di Mach-Zender (si veda la Figura 8.3),
nel qual caso i due stati corrispondono al sistema che si è propagato attraverso ciascuno dei due bracci
dell’interferometro.
Figura 8.3: Interferometro di Mach-Zender
Per fabbricare un gatto a partire da uno stato coerente |zi lo si fa interagire con un potenziale opportuno per un tempo opportuno. Al termine dell’interazione si ottiene uno stato |ψcat i. Un esempio
semplice consiste nell’introdurre un potenziale di interazione dato dalla somma di un termine di interazione libero (di oscillatore armonico) e del prodotto di un termine di accoppiamento per il quadrato
dell’operatore numero, cosa che si può realizzare mediante campi elettrici appositamente calibrati (effetto
Kerr):
Ĥ = Ĥ0 + ~gN 2 .
(8.136)
L’evoluzione temporale dello stato coerente iniziale è
2
1
|ψ; ti = e i~ ~gN t |z(t)i,
(8.137)
dove l’effetto del termine H0 è già contenuta nell’evoluzione temporale che trasforma z in z(t). Si ha
quindi
1
2
|ψ; ti = e i~ ~gN t |zi =
∞
X
1
2
e i~ ~gN t |nihn|zi =
n=0
∞
X
1
2
e i~ ~gn t |nihn|zi.
(8.138)
n=0
Possiamo ora fabbricare uno stato di tipo gatto scegliendo t in modo che
|ψ; ti =
∞
X
n=0
π
e−i 2
n2
|nihn|zi.
(8.139)
8.5 Stati coerenti e “gatti di Schrödinger”
131
Si ha:
e
−i π
2
n2
= (−i)n
2
(
1 n pari
=
−i n dispari
,
(8.140)
e quindi
π
e−i 2
n2
π
π
1
= √ e−i 4 + ei 4 (−1)n .
2
(8.141)
Lo stato “gatto” Eq. (8.139) è quindi
1
|ψ; ti = √
2
e
−i π
4
iπ
4
|zi + e
∞
X
!
|nihn|zi(−1)
n
n=0
π
π
1
= √ e−i 4 |zi + ei 4 | − zi .
2
(8.142)
Vediamo ora come questo stato ci permetta di riprodurre la situazione che abbiamo visto negli esperimenti di misura quantistica, come l’esperimento di Zeilinger. Inizialmente, eseguiamo una misura di
posizione sullo stato. Supponiamo di partire con uno stato avente z = ip0 , co p0 reale, dimodoché
hx̂i = 2∆x̂ Re z = 0,
(8.143)
hp̂i = 2∆p̂ Im z = 2p0 ∆p̂.
(8.144)
Lo stato gatto in tal caso è la sovrapposizione di due stati aventi impulso medio eguale ed opposto.
Calcoliamo la probabilità di posizione |hx|ψcat i|2 . Le funzioni d’onda nello spazio delle posizioni sono
della forma
hx| ± zi = N e±
ip0 x
~
1
x2
e− 4 ∆2 x̂ ,
(8.145)
visto che si tratta di stati di minima indeterminazione. Si ha perciò:
2
2
ip0 x
ip0 x
1 x2
1 x2 π
π
1 −i π
1 π
e 4 hx|zi + ei 4 hx| − zi = e−i 4 N e ~ e− 4 ∆2 x̂ + ei 4 N e− ~ e− 4 ∆2 x̂ 2
2
2
p x π
2 2
π
i
i
1
0
−1 x
p
x
i
p
x
2 − 12 ∆x2 x̂ −i π
−
= |N | e
−
.
(8.146)
e 4 e ~ 0 + e 4 e ~ 0 = 2|N |2 e 2 ∆2 x̂ cos2
2
~
4
P (x) = |hx|ψcat i|2 =
Troviamo quindi la figura di interferenza tipica di esperimenti tipo Zeilinger, in cui lo stato del sistema è
una sovrapposizione di stati sfasati: specificamente, troviamo una probabilità gaussiana modulata da un
coseno. La lunghezza d’onda di oscillazione del coseno è
λ=
~
~
∆x
=
=
,
p0
2∆pIm z
Im z
(8.147)
mentre la larghezza della gaussiana è ∆x.
Pertanto, saranno visibili dell’ordine di Im z oscillazioni prima che la gaussiana smorzi l’interferenza,
che è quindi visibile purchè Im z sia abbastanza grande, cioè purché i due stati di cui stiamo considerando
la sovrapposizione siano abbastanza ben separati nello spazio degli impulsi. Lo stato “gatto” descrive
quindi la situazione in cui si ha uno stato che è sovrapposizione di due stati ben distinti, come gli stati
dell’esperimento di Zeilinger corrispondenti alla particella passata dalla prima o dalla seconda fenditura.
Vediamo ora come una misura fa sparire l’interferenza: in questo caso quindi l’interferenza scompare
se si esegue una misura di impulso che ci dice in quale dei due stati di cui il gatto è sovrapposizione esso
si trova. Nel caso dell’esperimento di Zeilinger, questo corrisponde ad avere un rivelatore che ci dice da
che fenditura sia passata la particella.) Un rivelatore, per definizione, è un ulteriore grado di libertà del
sistema, al quale perciò è associato un ket di stato. In presenza di rivelatore, quindi, il ket di stato del
sistema è
|ψcat idet = |ψcat i|ψdet i
(8.148)
132
L’oscillatore armonico
dove |ψdet i è lo stato in cui si trova il rivelatore.
Lo stato gatto in presenza di rivelatore è quindi
π
π
1
|ψcat idet = √ e−i 4 |zi|+det i + ei 4 | − zi|−det i ,
2
(8.149)
dove ±det i sono due stati in cui il rivelatore si trova, che supponiamo ben distinti,
h+det |−det i = 0,
(8.150)
per definizione di cioò che intendiamo con rivelatore
La probabilità di una misura di posizione è ora
1
2
|hx|ψcat idet |
2
π
π
1
=
|hx|zi|2 |h+det |+det i|2 + |hx| − zi|2 |h−det |−det i|2 + e−i 2 hz| − zih+det |−det i + ei 2 h−z|zih−det |+det i
2
(8.151)
2
2
2
2
= |hx|zi| |h+det |+det i| + |hx| − zi| |h−det |−det i| ,
P (x) =
dove nell’ultimo passaggio abbiamo usato la Eq. (8.150). L’interferenza è quindi scomparsa perchè i
termini di interferenza sono pesati dal prodotto h+det |−det i.
Possiamo ad esempio supporre che gli stati |±i siano anch’essi stati coerenti, cui gli stati di cui il
“gatto” è sovrapposizione cede una frazione del proprio impulso:
|±i = | ± µpi,
(8.152)
dove µ è una costante sufficientemente piccola che dopo la misura gli stati ±pi non siano eccessivamente
perturbati, ma sufficientemente grande perché valga la Eq. (8.150).
Vediamo cosı̀ che il “collasso della funzione d’onda”, ossia il fatto che dopo una misura la funzione
d’onda si riduca a quella dello stato in cui il sistema è stato rivelato è inevitabile conseguenza dell’aver
trattato anche il rivelatore in modo quantistico.
Parte IV
Meccanica quantistica in più
dimensioni
Capitolo 9
Sistemi quantistici in più di una
dimensione
9.1
Spazi prodotto diretto
Introduciamo problemi quantistici in spazi rappresentabili come prodotto diretto. Consideriamo sinonimi
prodotto diretto o prodotto tensoriale: dati due spazi vettoriali lineari H, K, ne denotiamo il prodotto
diretto con H ⊗ K, e lo definiamo nel modo seguente. Prima di tutto, dati due insiemi di stati di base
|ei i ∈ H e |fi i ∈ K, definiamo gli stati prodotto diretto |ei i ⊗ |fj i. Il prodotto scalare tra due stati
prodotto diretto è definito come
(hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) ≡ hei0 |ei ihfi0 |fj i.
(9.1)
Si noti che il prodotto scalare cosı̀ definito eredita le consuete proprietà di linearità e hermiticità dai
prodotti scalari relativi agli spazi H e K. Se le basi sono ortonormali si ha cosı̀
(hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) = δii0 δjj 0 .
(9.2)
Lo spazio prodotto diretto H ⊗ K è definito come lo spazio lineare ricoperto dagli stati
|ψi =
X
cij |ei i ⊗ |fj i,
(9.3)
i,j
dove cij sono numeri complessi. Bisogna prestare attenzione al fatto che anche se gli stati di base sono
un prodotto diretto, gli stati generici sono una sovrapposizione di stati prodotto diretto, ma non sono in
generale scrivibili come prodotti: uno stato della forma
!
|φi =
X
i
ai |ei i


X
⊗
bj |fj i
(9.4)
j
può essere sempre sempre essere scritto nella forma Eq. (9.3) sviluppando il prodotto, ma naturalmente
non tutti gli stati Eq. (9.3) possono essere scritti nella forma fattorizzata Eq. (9.4). Vedremo molto più
avanti, nella sezione 15, come questo fatto sia alla base del fenomeno fisico dell’entanglement.
136
9.1.1
Sistemi quantistici in più di una dimensione
Sistemi di dimensione finita
Come primo semplice esempio, consideriamo un sistema formato da 2 qubit1 . In questo caso abbiamo i
4 stati complessivi possibili
|ψ1 i =|+i ⊗ |+i
|ψ2 i =|+i ⊗ |−i
|ψ3 i =|−i ⊗ |+i
(9.5)
|ψ4 i =|−i ⊗ |−i.
Possiamo usare questo insieme di stati per descrivere una situazione fisica in cui lo stato del sistema è
caratterizzato da due osservabili, ciascuna delle quali può assumere due valori possibili.
Per semplicità di notazione useremo nel seguito, qualora non ci siano ambiguità, una notazione in cui
il segno di prodotto tensoriale viene omesso, scrivendo i quattro stati come nella Eq. (9.6) ma senza il
segno di prodotto diretto, oppure anche come
|ψ1 i =| + +i
|ψ2 i =| + −i
|ψ3 i =| − +i
(9.6)
|ψ4 i =| − −i.
Osserviamo che un operatore che agisce sullo spazio degli stati fisici non è la somma di due matrici
2 × 2, ma un’unica matrice 4 × 4, i cui elementi sono
hmn|A|iji = Amn,ij .
(9.7)
Ponendo |mni = |ai e |iji = |bi possiamo scrivere
hmn|A|iji = Aa,b ,
(9.8)
chiamando i 4 stati, per esempio, 1, 2, 3, 4. Nel caso finito-dimensionale generale, il prodotto diretto di
due spazi di dimensione n è uno spazio di dimensione n × n. Gli operatori su tale spazio sono matrici il
cui rango è pari alla dimensione del nuovo spazio prodotto diretto.
9.1.2
Più dimensioni e più particelle
Il concetto di spazio prodotto diretto ci permette di estendere al caso d-dimensionale la trattazione dei
sistemi meccanici sviluppata nel Capitolo 4 della prima parte.
ˆ».
Definiamo la versione d-dimensionale dell’operatore di posizione x̂, ossia il vettore di operatori #x
Esso è una collezione di operatori:


x̂1
 x̂2 

#x
ˆ» = 
(9.9)
 .. 
 . 
x̂d
dove ogni coordinata è indipendente dalle altre. Come in geometria, si può preferire una rappresentazione
ˆ», una rappresentazione esplicita in cui si rappresentano
di tipo vettoriale, in cui si manipolano dei vettori #x
i vettori come colonne e si indicano le loro componenti od ancora una notazione per componenti in cui si
denota l’i-esima componente con x̂i .
Notiamo una potenziale ambiguità terminologica che potrebbe essere fonte di confusione. Abbiamo
spesso usato il termine “vettore” per indicare gli stati nello spazio di Hilbert (come nell’espressione
ˆ» è invece un vettore nel senso della Eq. (9.9), ossia una collezione di
“vettore di stato”). L’operatore #x
1 Ricordiamo
che un qubit è il sistema formato da una particella che può trovarsi in due stati |+i o |−i.
9.1 Spazi prodotto diretto
137
operatori etichettati da un indice, che corrisponde al fatto che ciascun x̂i è l’operatore posizione relativo ad
un diverso spazio unidimensionale — quello relativo alla i-esima coordinata. Non vi è in generale alcuna
relazione tra lo spazio vettoriale cui appartiene questo vettore di operatori — lo spazio delle coordinate
— e lo spazio vettoriale cui appartengono i vettori di stato — lo spazio degli stati fisici. Ad esempio,
lo spazio delle coordinate è uno spazio vettoriale reale, mentre lo spazio degli stati fisici è uno spazio di
Hilbert, cioè uno spazio vettoriale complesso.
Dato un vettore di operatori posizione, possiamo introdurre lo spazio degli stati fisici costruito a
partire dai risultati di misure di ciascuna delle componenti di questo operatore, in analogia con il caso
unidimensionale, dove gli autostati |xi i della posizione rispetto alla i-esima coordinata soddisfano
x̂i |xi i = xi |xi i.
(9.10)
In d dimensioni il vettore di operatori agisce su stati fisici costruiti a partire dagli autostati della posizione d-dimensionale. Effettuando una misura del vettore posizione riveliamo il sistema in un autostato
del vettore di operatori:
#x
ˆ»| #»
x i = #»
x | #»
x i.
(9.11)
La notazione compatta | #»
x i indica lo stato prodotto diretto
| #»
x i = |x1 i ⊗ |x2 i ⊗ · · · |xd i,
(9.12)
ossia lo stato in cui il sistema sia simultaneamente in un autostato della posizione lungo ciascuno dei d assi
ˆ», ossia l’operatore x̂i è l’operatore
coordinati. Notiamo qundi che la componente i−esima del vettore #x
che agisce come l’operatore posizione sul vettore di base |xi i che entra a costituire il prodotto diretto
Eq. (9.12), e come l’identità su tutti gli altri vettori |xi i
La densità di probabilità di rivelare in #»
x un sistema d-dimensionale che si trova in nello stato |ψi è
data da
2 #»
#»
dP #»
x = |h x |ψi| d x ,
(9.13)
h #»
x |ψi = ψ(x1 , x2 , . . . , xd ) = ψ( #»
x ).
(9.14)
dove ψ( #»
x ) è la funzione d’onda
La funzione d’onda è quindi una funzione a valori complessi di d variabili reali. Il fatto che, come
abbiamo già osservato, lo stato fisico generico non si possa scrivere nella forma fattorizzata Eq. (9.4)
equivale a dire che in generale non è detto che la funzione d’onda si possa fattorizzare in tante sottofunzioni d’onda: generalmente
ψ( #»
x ) 6= ψ1 (x1 )ψ2 (x2 ) · · · ψd (xd ),
(9.15)
anche se naturalmente questo può succedere in casi particolari.
Oltre che per descrivere sistemi in più di una dimensione, gli spazi prodotto tensoriale servono a
descrivere il caso di sistemi di più di una particella. Lo spazio degli stati fisici per un sistema di n
particelle è il prodotto diretto degli n spazi di stati ad una particella. Indichiamo con |mk i i vettori di
base della k-esima particella: ad esempio, autostati di energia associati all m-esimo autovalore Em . In
questo casi, possiamo costruire descrivere un sistema di n particelle come
X
|ψi =
cm1 ,...,mn |m1 i ⊗ |m2 i ⊗ · · · |mn i.
(9.16)
m1 ,...,mm
9.1.3
Sistemi d-dimensionali in coordinate cartesiane
Consideriamo ora il caso di un sistema di una particella soggetta ad un potenziale in d dimensioni, descritto da un vettore di stato che nello spazio delle posizioni ha la forma della funzione d’onda d-dimensionale
138
Sistemi quantistici in più di una dimensione
ψ( #»
x ) Eq. (9.14). Gli operatori canonici, posizione ed impulso, si possono costruire generalizzando direttamente al caso d dimensionale la costruzione unidimensionale vista nella prima parte: ad esempio, la
componente dell’impulso lungo l’i-esimo asse si costruisce a partire dal generatore delle traslazioni lungo
quell’asse:
 ∂ 
#» #»

ˆ»|ψi = −i~∇ψ(
h #»
x | #p
x ) = −i~ 
∂x1
..
.
∂
∂xd
 #»
 ψ( x ).
(9.17)
L’evoluzione temporale del sistema è generata da un’hamiltoniana che possiamo scrivere per sistemi
meccanici come somma di un termine cinetico d-dimensionale e di un potenziale, generalizzando in modo
ovvio il caso unidimensionale:
Ĥ =
#p
ˆ»2
ˆ»).
+ V̂ ( #x
2m
(9.18)
Esplicitamente, il termine cinetico è dato da
2
d #p
ˆ»2
1 #» #ˆ» #ˆ»
1 #»
1 X
∂
2
2
2
#»
ψ( #»
x)
|ψi =
h x | p · p |ψi =
h x |(p1 ) + (p2 ) + · · · + (p )d |ψi =
−i~
hx|
2m
2m
2m
2m j=1
∂xj
d
=−
~2 X ∂ 2
~2 #» #» #»
#»
ψ(
x
)
=
−
∇ · ∇ψ( x ).
2m j=1 ∂(xj )2
2m
(9.19)
In particolare se d = 3
#p
ˆ»2
~2
#»
|ψi = −
4ψ( #»
x ),
hx|
2m
2m
(9.20)
dove con 4 si intende il Laplaciano.
9.2
Separabilità
In molti casi, la trattazione di un problema in più di una dimensione può essere ridotta alla risoluzione
di un problema definito in uno spazio di dimensione meno elevata. Un caso particolarmente semplice è
quello di hamiltoniane separabili.
9.2.1
Potenziali separabili in coordinate cartesiane
Consideriamo una particella d-dimensionale soggetta ad un hamiltoniana della forma della Eq. (9.18), ma
con un potenziale della forma
ˆ») = V̂1 (x̂1 ) + V̂2 (x̂2 ) + . . . V̂d (x̂d ) =
V̂ ( #x
d
X
V̂i (x̂i ).
(9.21)
i=1
In tal caso, l’Hamiltoniana può essere scritta come somma di hamiltoniane unidimensionali. Infatti
n
#p
X
ˆ»2 X
+
V̂i (x̂i ) =
Ĥi ,
Ĥ =
2m
i
i=1
(9.22)
dove
Ĥi =
#p
ˆ»2
i
+ V̂i (x̂i ).
2m
(9.23)
9.2 Separabilità
139
La determinazione dello spettro dell’hamiltoniana si riduce cosı̀ alla determinazione dello spettro di
hamiltoniane unidimensionali:
h #»
x |Ĥ|ψi = h #»
x |Ĥ1 |ψi + h #»
x |Ĥ2 |ψi + . . .
2
2
~2 ∂ 2
~
∂
#»
+ V (x1 ) ψ( x ) + −
+ V (x2 ) ψ( #»
x) + ....
= −
2m (∂x1 )2
2m (∂x2 )2
(9.24)
Una hamiltoniana che può essere scritta come somma di hamiltoniane unidimensionali si dice separabile
in coordinate cartesiane.
Se conosciamo gli autostati |ψik i della i-esima hamiltoniana
Ĥi |ψik i = Eik |ψik i;
hxi |ψ k i = ψik (xi )
(9.25)
si verifica facilmente che lo stato prodotto
ψk1 k2 ···kd ( #»
x ) = ψk1 (x1 )ψk2 (x2 ) · · · ψkd (xd )
(9.26)
è autostato dell’hamiltoniana complessiva Eq. (9.22). Infatti
~2 ∂ 2 ψk1 (x1 )
ψk2 (x2 ) · · · ψkn (xd ) + V (x1 )ψk1 k2 ···ks ( #»
x)
2m ∂x1 2
~2
∂ 2 ψk2 (x2 )
−
ψk1 (x1 )
· · · ψkd (xd ) + V (x2 )ψk1 k2 ···kd ( #»
x) + ··· ,
2m
∂x2 2
h #»
x |Ĥ|ψk1 k2 ···kd i = −
(9.27)
ma le ψki sono autofunzioni di Ĥi :
−
~2 ∂ 2
ψk (xi ) + Vi (xi )ψki (xi ) = Eki ψki (xi ),
2m ∂x1 2 i
(9.28)
e quindi
h #»
x |Ĥ|ψk1 k2 ···kd i = Ek1 ψk1 k2 ···kd ( #»
x ) + Ek2 ψk1 k2 ···kd ( #»
x ) + · · · + Ekd ψk1 k2 ···kd ( #»
x)
#»
= (E + E + . . . E )ψ
( x ).
k1
9.2.2
k2
kd
k1 k2 ···kd
(9.29)
Hamiltoniane separabili
È facile vedere che le autofunzioni Eq. (9.26) sono le più generali, cioè che tutte e sole le autofunzioni
dell’hamiltoniana hanno questa forma. L’argomento ci fornisce inoltre un metodo generale per capire
quando una hamiltoniana è separabile, e che cosaq questo comporta.
Notiamo preliminarmente che la generalizzazione d-dimensionale del commutatore canonico
[p̂, x̂] = −i~
(9.30)
è
[p̂i , x̂j ] = −i~δ ij
[x̂i , x̂j ] = 0
[p̂i , p̂j ] = 0.
(9.31)
Infatti, la i-esima componente del vettore impulso genera le traslazioni lungo l’i-esimo asse lasciando tutte le altre coordinate invariate. Dal commutatore Eq. (9.31) segue che le singole hamiltoniane
unidimensionali commutano tra loro
[Ĥi (x̂i , p̂i ), Ĥj (x̂j , p̂j )] = 0
se i 6= j,
(9.32)
e di conseguenza, possono essere diagonalizzate simultaneamente (e simultaneamente alla Ĥ Eq. (9.22),
che ne è la somma).
140
Sistemi quantistici in più di una dimensione
Ne segue immediatamente che
Ek = Ek1 + Ek2 + . . . Ekd .
(9.33)
Inoltre, la dipendenza dell’autofunzione h #»
x |ψi = ψ( #»
x ) da ciascuna delle d variabili xi è fissata dal fatto
che la funzione è autofunzione dell’Hamiltoniana relativa a tale variabile.
Questo argomento si generalizza immediatamente a qualunque hamiltoniana che può essere scritta
come somma di hamiltoniane che commutano. Infatti, se
Ĥ = Ĥ1 + · · · + Ĥn
(9.34)
[Ĥi , Ĥj ] = 0
(9.35)
e
le hamiltoniane sono diagonalizzabili simultaneamente
Ĥi |ki i = Eik |ki i,
(9.36)
e una base di autofunzioni per l’hamiltoniana d-dimensionale H Eq. (9.34) è
|k1 . . . kd i = |k1 i ⊗ · · · ⊗ |kd i.
(9.37)
L’argomento precedente implica inoltre che gli autostati dell’hamiltoniana Eq. (9.34) sono gli stati fattorizzati Eq. (9.37), con autovalore dato da
Ek1 ...kd = Ek1 + · · · + Ekd .
(9.38)
Una hamiltoniana H che si può scrivere come somma di hamiltoniane che commutano è detta separabile, e vediamo cosı̀ che i suoi autovalori e le sue autofunzioni possono sempre essere scritti rispettivamente usando la Eq. (9.33) e la Eq. (9.37) in termini delle autofunzioni e degli autovalori Eq. (9.36) delle
hamiltoniane Hi in termini delle quali è stata separata.
9.2.3
Esempi tridimensionali
Buca di potenziale cubica
Consideriamo l’Hamiltoniana
Ĥ =
#p
ˆ»2
ˆ»),
+ V̂ ( #x
2m
(9.39)
con
ˆ») =
V̂ ( #x
3
X
V̂i (x̂i ),
(9.40)
i=1
dove
(
0
Vi (x ) =
∞
i
se |xi | < ai
.
se |xi | > ai
(9.41)
Essa corrisponde ad una buca di potenziale parallelepipedale (sistema confinato all’interno di un parallelepipedo nello spazio tridimensionale).
Possiamo scomporre il problema in tre sottoproblemi come visto prima:
i2
p̂
i
+ V̂i (x̂ ) |ψni i = Eni |ψni i
(9.42)
2m
9.2 Separabilità
141
dove
~2 kn2 i
2m
Eni =
k ni =
ni π
2ai
(9.43)
con ni = 1, 2 . . . ∞. Ricordiamo che la forma esplicita delle autofunzioni è:
(
Ani cos kni xi ni = 2n + 1
i
.
hx |ψni i =
Bni sin kni xi ni = 2n
(9.44)
Lo spettro dell’Hamiltoniana totale è definito dall’equazione agli autovalori
Ĥ|ψn1 n2 n3 i = En1 n2 n3 |ψn1 n2 n3 i
(9.45)
con
En1 n2 n3 =
~2 π 2
8m
n2
n2
n21
+ 22 + 23
2
a1
a2
a3
.
(9.46)
n1 , n2 , n3 sono detti numeri quantici.
Se i valori di ai sono commensurabili, è possibile che lo spettro presenti delle degenerazioni. Consideriamo ad esempio il caso a1 = a2 = a3 = a (buca cubica). In questo caso si ha
En1 n2 n3 =
~2 π 2 2
(n + n22 + n23 ).
8ma2 1
(9.47)
Lo stato fondamentale è
E111 =
~2 π 2 3
ma2 8
(9.48)
e non presenta degenerazioni. Per il primo stato eccitato si ha invece
E211 = E121 = E112 =
~2 π 2 3
,
ma2 4
(9.49)
e lo stato è quindi 3 volte degenere. Al crescere dell’energia aumenta il numero di stati diversi associati
al medesimo autovalore. Calcolare il livello di degenerazione al crescere di E è un problema complesso
di algebra combinatoria, che si può risolvere per n1 + n2 + n3 tendente ad infinito: in questo limite il
numero di stati cresce come la superficie di una sfera.
Oscillatore armonico tridimensionale
Consideriamo ora l’hamiltoniana
#p
ˆ»2
ˆ»)
Ĥ =
+ V̂ ( #x
2m
(9.50)
con
ˆ») =
V̂ ( #x
3
X
V̂i (x̂i )
(9.51)
i=1
e dove
V̂i (x̂i ) =
1
mωi2 (x̂i )2 .
2
(9.52)
Lo spettro di energia ha la forma
Ĥ|ψn1 n2 n3 i = En1 n2 n3 |ψn1 n2 n3 i,
(9.53)
142
Sistemi quantistici in più di una dimensione
e la ψ( #»
x ) è il prodotto di tre autofunzioni dell’oscillatore armonico in x, y, z. Gli autovalori sono
1
En1 n2 n3 = ~ n2 ω1 + n2 ω2 + n3 ω3 + (ω1 + ω2 + ω3 ) .
(9.54)
2
Supponiamo ora che ω1 = ω2 = ω3 = ω (oscillatore isotropo). Il potenziale è quindi
3
X
1
ˆ») = 1 mω 2
ˆ»2 .
V̂ ( #x
(x̂i )2 = mω 2 #x
2
2
i=0
(9.55)
ˆ»). In tale
Si vede quindi che il potenziale ha simmetria sferica (dipende solo dalla norma del vettore #x
caso si ha
3
3
= ~ω N +
(9.56)
En1 n2 n3 = ~ω n1 + n2 + n3 +
2
2
con N = 0, 1, . . . ∞.
Lo spaziamento dei livelli è quindi identico a quello del caso unidimensionale, pur essendo cambiata
l’energia dello stato fondamentale. Inoltre, l’N -esimo livello energetico ora è degenere. La degenerazione
si calcola notando che possiamo scegliere n1 in N + 1 modi diversi (n1 = 0, 1, 2, . . . , N ). Una volta scelto
n1 possiamo scegliere n2 in N − n1 + 1 modi diversi (n2 = 0, 1, . . . , N − n1 ). Una volta scelti n1 ed n2 ,
n3 è fissato: n3 = N − n1 − n2 . La degenerazione è quindi
d=
N
X
(N − n1 + 1) = (N + 1)
n1 =0
9.3
9.3.1
N
X
n1 =0
1−
N
X
n1
1
1
n1 = (N + 1)2 − N (N + 1) = (N + 1)(N + 2). (9.57)
2
2
=0
Problemi a due corpi e problemi centrali
Il problema dei due corpi
Un sistema di due corpi che interagiscono attraverso un potenziale che dipende solo dalla loro separazione
fornisce un esempio classico di problema separabile attraverso un semplice cambio di coordinate. Il
sistema è descritto dall’Hamiltoniana:
#p
#p
ˆ»2
ˆ»2
1
ˆ»1 − #x
ˆ»2 ) :
Ĥ =
+ 2 + V̂ ( #x
2m1
2m2
(9.58)
il potenziale dipende solo dalla differenza delle coordinate. Le variabili canoniche per questo problema
soddisfano le regole di commutazione
[p̂ia , x̂jb ] = −i~δ ij δab
[p̂ia , p̂jb ]
=
[x̂ia , x̂jb ]
= 0,
(9.59)
(9.60)
dove a, b = 1, 2 etichettano le due particelle mentre i, j = 1, 2, 3 etichettano le tre coordinate spaziali.
Il problema si separa definendo le coordinate relative e quelle del baricentro
#ˆr» = #x
ˆ»1 − #x
ˆ»2
ˆ»1 + m2 #x
ˆ»2
#ˆ» m1 #x
.
R=
m1 + m2
(9.61)
(9.62)
A queste vanno associate i rispettivi impulsi coniugati
#ˆ»
#ˆ»
#p
ˆ» = m2 p 1 − m1 p 2
m1 + m2
#ˆ» #ˆ»
ˆ» .
P = p + #p
1
2
(9.63)
(9.64)
9.3 Problemi a due corpi e problemi centrali
143
Si verifica facilmente che le coordinate e gli impulsi Eq. (9.61-9.63) soddisfano relazioni di commutazione
canoniche;
[p̂i , r̂j ] = −i~δ ij
[P̂ i , R̂j ] = −i~δ ij
[p̂i , p̂j ] = [r̂i , r̂j ] = [P̂ i , P̂ j ] = [R̂i , R̂j ] = [r̂i , P̂ j ] = [p̂i , R̂j ] = 0.
(9.65)
(9.66)
Ad esempio,
1
m2 p̂i1 − m1 p̂i2 j
, x̂1 − x̂j2 =
(m1 (−i~)δ ij + m2 (−i~)δ ij ) = −i~δ ij ;
m1 + m2
m1 + m2
#
"
1
m2 p̂i1 − m1 p̂i2 m1 x̂j1 + m2 x̂j2
i
j
,
=
(m1 m2 δ ij − m1 m2 δ ij ) = 0,
[p̂ , R̂ ] =
m1 + m2
m1 + m2
m1 + m2
[p̂i , r̂j ] =
(9.67)
(9.68)
e cosı̀ via.
Si verifica facilmente con il calcolo esplicito che nelle nuove coordinate Eq. (9.61-9.63) il termine
cinetico nell’hamiltoniana Eq. (9.58) si separa
#ˆ»2
#p
ˆ»2
P
+
=
+
,
T =
2m1
2m2
2M
2µ
#p
ˆ»2
1
#p
ˆ»2
2
(9.69)
dove la massa totale M e la massa ridotta µ sono rispettivamente
M = m1 + m2
1
1
1
=
+
,
µ
m1
m2
(9.70)
(9.71)
sicché l’hamiltoniana diventa
#ˆ»2
#p
ˆ»2
P
+
+ V̂ ( #ˆr»),
Ĥ =
2M
2µ
(9.72)
Il problema dei due corpi è perciò separabile in due problemi ad un corpo,
#ˆ» #ˆ»
ˆ»)
Ĥ = ĤB ( R, P ) + Ĥr ( #ˆr», #p
(9.73)
con
#ˆ»2
P
ĤB =
2M
#p
ˆ»2
Ĥr =
+ V̂ ( #ˆr»)
2µ
(9.74)
(9.75)
e con
[ĤB , Ĥr ] = 0.
(9.76)
Lo spettro può quindi essere determinato come discusso nella Sez. 9.2.
È importante capire la logica con cui il cambiamento di coordinate viene costruito. Innanzitutto, è
ˆ»1 − #x
ˆ»2 affinché il potenziale dipenda da una coordinata sola. Inoltre, data una
necessario scegliere #ˆr» = #x
scelta di cambiamento di coordinate posizione, il cambiamento delle coordinate impulso è interamente
fissato dalle relazioni di commutazione canoniche, come dimostreremo nella prossima sezione. Quindi per
#ˆ»
#ˆ» ˆ»
#ˆ»
ogni scelta di R sono completamente fissati P e #p
. D’altra parte, per ogni scelta di P , c’è una sola
#
»
ˆ che separa il termine cinetico nella somma di due termini secondo la Eq. (9.69): questo è
scelta di p
facile dimostrare con un argomento identico a quello classico, visto che tutti gli operatori che compaiono
nel termine cinetico commutano fra loro e quindi possono essere trattati come oggetti classici. Quindi la
#x
#ˆ»
ˆ»1 +m2 #x
ˆ»2
è fissata dalla richiesta che si separi il termine cinetico.
scelta R = m1 m
1 +m2
144
9.3.2
Sistemi quantistici in più di una dimensione
Cambiamenti lineari di coordinate
Il passaggio dalle coordinate dei due corpi alle coordinate relative e del baricentro discusso nella sezione
precedente è un caso particolare di un cambiamento lineare di coordinate della forma
!
#» #x
ˆ»0
ˆ1
x
1
=
M
(9.77)
0
#
ˆ»2 ,
#x
ˆ»
x
2
tale che la matrice M sia invertibile. il cambio di coordinate Eq. (9.61) ne è un caso particolare: usando
la notazione più compatta
#x
ˆ»0 ≡ #ˆr»
1
#ˆ»
#x
ˆ»0 ≡ R,
2
(9.78)
(9.79)
esso corrisponde alla scelta
M=
1
−1
m1
m1 +m2
m2
m1 +m2
.
(9.80)
Si dimostra facilmente che, per un cambiamento di coordinate della forma generale Eq. (9.77), la
trasformazione associata degli impulsi che preserva le relazioni di commutazione canoniche, ovvero tale
che
i
j
[p̂0 a0 , x̂0 b0 ] = −i~δ ij δa0 b0 .
(9.81)
ˆ»0 #p
ˆ»0 ) = ( #p
ˆ» #p
ˆ» )N
( #p
1
2
1
2
(9.82)
N = M −1 ,
(9.83)
#p
ˆ»0 0 = #p
ˆ» Naa0
a
a
(9.84)
è data da
con
ovvero, in componenti
dove sottintendiamo che gli indici ripetuti vanno sommati.
Infatti:
i
j
[p̂0 a0 , x̂0 b0 ] = [p̂ia , x̂jb ]Naa0 Mb0 b = −i~δ ij δ ab Naa0 Mb0 b = −i~δ ij (M N )b0 a0 .
(9.85)
Di conseguenza si ha:
i
j
[p̂0 a0 , x̂0 b0 ] = −i~δ ij (I)b0 a0 ⇔ N = M −1 .
(9.86)
Possiamo ricavare la trasformazione degli impulsi Eq. (9.82-9.83) da principi primi, costruendo gli
impulsi come generatori delle traslazioni. Questo può essere semplicemente fatto utilizando la rappresentazione delle coordinate, dove
#» #»
ˆ»|ψi = −i~∇ψ(
h #»
x | #p
x)
(9.87)
#»
0
0
ˆ»| #»
h #»
x | #p
x i = −i~∇ δ( #»
x − #»
x ).
(9.88)
x
Per semplificare la notazione, scriviamo
pi = −i~
∂
,
∂xi
(9.89)
9.3 Problemi a due corpi e problemi centrali
145
osservando tuttavia che questo è un abuso di notazione: gli elementi di matrice dell’operatore impulso
hanno la forma Eq. (9.87) nella base delle coordinate, ma non possiamo identificare l’operatore impulso
con l’operatore derivata (sono operatori che agiscono su spazi diversi: l’uno sullo spazio dei vettori di
stato, l’altro sulle funzioni). Possiamo però vedere la Eq. (9.89) come una notazione abbreviata per
l’operatore differenziale −i~∂i , che scegliamo di indicare, con abuso di notazione, con lo stesso simbolo
usato per l’operatore impulso.
Come esercizio, calcoliamo il commutatore canonico con questa notazione. Il calcolo standard è
h #»
x |[p̂i , x̂j ]|ψi = −i~ (∂i xj − xi ∂j ) ψ( #»
x ) = −i~δij ψ( #»
x ).
(9.90)
Con la notazione Eq. (9.89) scriviamo
[pi , xj ] = −i~ (∂i xj − xi ∂j ) = −i~δij .
(9.91)
Visto che nella notazione Eq. (9.89) gli operatori pi sono operatori differenziali, si sottintende che essi
agiscano (a destra) su una funzione d’onda. Questo spiega l’ultimo passaggio: nel termine ∂i xj la derivata
agisce sia su xj (producendo il risultato finale), sia sulla funzione d’onda (non scritta), e il termine in cui
si agisce sulla funzione d’onda si elide con −xi ∂j .
Quindi, con questa notazione compatta, tutti gli operatori posizione sono rimpiazzati dai loro autovalori, gli operatori impulso sono rimpiazzati da derivate, ed infine ogni derivata va fatta su tutti gli oggetti
che si trovano alla sua destra, sottintendendo sempre un’ultima derivata della funzione d’onda (anche
quando questa non viene scritta).
Avendo introdotto questa notazione semplificata, abbiamo che i generatori delle traslazioni nelle nuove
variabili sono
p0 a0 = −i~
∂
.
∂x0 ia0
∂
∂xa
i
(9.92)
Usando la regola della derivata composta
−i~
(i)
(i)
∂x0 a0
= −i~
(i)
∂x0 a0
∂
(i)
,
(9.93)
∂xa
dove la parentesi attorno all’indice i indica che esso, pur essendo ripetuto, non va sommato (la trasformazione di coordinate viene infatti eseguita separatamente per ciascuna coordinata i). Ma per il cambio
di coordinate Eq. (9.77)
(i)
∂x0 a0
(i)
∂xa
= Ma0 a ,
(9.94)
−1
= Maa
0.
(9.95)
e perciò
(i)
∂xa
(i)
∂x0 a0
Quindi
i
p0 a0 = −i~
∂
∂
−1
−1
i
0i
= −i~ i Maa
0 = pa Maa0 = p a0 ,
i
0
∂xa
∂x a0
(9.96)
in accordo con le Eq. (9.82-9.83).
Notiamo infine che il caso discusso qui, in cui il cambio di coordinate rimescola le coordinate delle
due particelle, ma non diverse componenti cartesiane della coordinate di ciascuna particella, ed inoltre il
cambio è lo stesso per tutte le coordinate, è un caso particolare di un più generale cambio di coordinate
in cui la matrice M è una matrice generale sei per sei. La generalizzazione a questo caso è ovvia ed
immediata.
146
9.3.3
Sistemi quantistici in più di una dimensione
Problemi centrali
Avendo separato il moto relativo da quello del baricentro ci concentriamo ora su una hamiltoniana ad
un corpo. Per non appesantire la notazione, indichiamo la massa con m anche se nel caso del problema
ottenuto riducendo un problema a due corpi si tratta della massa ridotta. Consideriamo inoltre il caso di
potenziali che dipendono solo dal modulo dell’operatore posizione, ossia
#p
ˆ»2
ˆ»||).
+ V̂ (|| #x
Ĥ =
2m
(9.97)
Potenziali di questo tipo sono detti centrali.
In analogia con il caso classico, vogliamo separare il moto angolare dal moto radiale. A questo scopo,
introduciamo coordinate sferiche:


x1 = r sin ϑ cos ϕ
(9.98)
x2 = r sin ϑ sin ϕ


x3 = r cos ϑ
In coordinate sferiche si ha V = V (r), quindi il problema si separa se siamo in grado di separare il
termine cinetico. In meccanica classica, il termine cinetico in coordinate sferiche si separa
#»
L2
#»
(9.99)
p 2 = p2r + 2
r
utilizzando l’identità vettoriale
#»
#»
#»
( #»
a · b )2 = || #»
a ||2 || b ||2 − || #»
a × b ||2 ,
(9.100)
da cui la Eq. (9.99) segue immediatamente ponendo
#»
a = #»
x;
#» #»
b = p;
#»
#»
L = #»
a× b
(9.101)
ˆ» e #p
ˆ» sono operatori non
e definendo pr = ||~x1|| ~x · p~. Quantisticamente dobbiamo tuttavia ricordare che #x
commutanti.
Ricordiamo dapprima la dimostrazione dell’identità Eq. (9.100). Introduciamo il tensore completamente antisimmetrico εijk , definito dalle relazioni
εijk = −εjik = εkij = −εikj
ε123 = 1.
(9.102)
La definizione implica che εijk si annulla quando due indici sono uguali, è pari a +1 per ogni permutazione
ciclica degli indici rispetto all’ordinamento 123, ed è pari a −1 per ogni permutazione anticiclica. Il
prodotto esterno di due vettori si può scrivere in termini del tensore completamente antisimmetrico come
#»
( #»
a × b )i = εijk aj bk .
(9.103)
Si verifica facilmente che
εijk εiab = (δ ja δ kb − δ jb δ ka ),
(9.104)
da cui la Eq. (9.100) segue immediatamente:
#»
a × b ||2 = εimn εijk am bn aj bk = (δ mj δ nk − δ mk δ nj )am bn aj bk = aj aj bk bk − aj bj ak bk
|| #»
#»
#»
= || #»
a ||2 || b ||2 − ( #»
a · b )2 .
(9.105)
Nel caso quantistico, identifichiamo innanzitutto la componente radiale dell’operatore impulso. In
coordinate cartesiane si ha
#»
#»
p = −i~∇
(9.106)
9.3 Problemi a due corpi e problemi centrali
147
(continuando ad usare la notazione introdotta in Eq. (9.89)). Proiettiamo tale impulso lungo la componente radiale. Chiamiamo quindi
#»
x #»
· p.
r
(9.107)
#»
∂
x #»
·∇=
,
r
∂r
(9.108)
∂
∂r
(9.109)
p̃r :=
È facile vedere che
per cui
p̃r = −i~
e
[p̃r , r] = −i~,
(9.110)
dimodoché p̃ˆr genera le traslazione della coordinata radiale. Vedremo tuttavia più avanti che esso non
può essere direttamente identificato con l’impulso radiale, in quanto non è hermitiano, e perciò non è
associabile ad una osservabile fisica.
Per dimostrare la Eq. (9.108), notiamo che
∂
∂
∂
.
(9.111)
+ ∂i ϑ
+ ∂i ϕ
∂i = ∂i r
∂r
∂ϑ
∂ϕ
Il secondo e il terzo termine sono dei termini trasversali a r: se li proiettiamo lungo la direzione radiale
troviamo 0.
∂ϕ i
∂ϑ i
x =
x = 0.
i
∂x
∂xi
(9.112)
Questo può essere dimostrato esplicitamente ma si può vedere senza eseguire alcun calcolo: se conside∂ϕ
∂ϑ
riamo ϑ( #»
x ) e ϕ( #»
x ) come funzioni a valori reali nell spazio tridimensionale, ∂x
i e ∂xi sono i gradienti di
tali funzioni, e quindi sono perpendicolari alle superfici di ϑ e ϕ costante. Ma ovviamente la direzione di
variazione della coordinata radiale, a ϑ e ϕ invariati, è parallela in ogni punto al vettore xi , che è quindi
ortogonale alla direzione di entrambi questi gradienti. Troviamo quindi
xi
xi ∂r ∂
xi ∂ p 1 2
xi
xi
∂
∂
∂
2 )2 + (x3 )2
p
∂i =
=
=
=
.
(x
)
+
(x
i
i
1
2
2
2
3
2
r
r ∂x ∂r
r ∂x
∂r
r (x ) + (x ) + (x ) ∂r
∂r
(9.113)
ˆ», #»
ˆ» dove #x
ˆ» e #p
ˆ» sono
Possiamo ora ripetere il calcolo Eq. (9.3.3) con l’identificazione #»
a = #x
b = #p
operatori quantistici che soddisfano relazioni di commutazione canoniche
[p̂i , x̂j ] = i~δij .
(9.114)
Si ha:
εijk εilm xj pk xl pm = (δ jl δ km − δ jm δ kl )xj pk xl pm = xj pk xj pk − xj pk xk pj
p 2 − i~xj pj − (xj pj pk xk + xj pk [xk , pj ])
= r2 #»
= r2 #»
p 2 − i~xj pj − (xj pj xk pk + xj pj [pk , xk ] + i~xj pj )
#
»
= r2 #»
p 2 − i~ #»
x · #»
p − (x · p)(x · p) − (x# · »
p(−i~)3 + i~x# · »
p)
= r2 #»
p 2 − i~ #»
x·
2 #»2
#»
= r p + i~ x ·
#»
p + 2i~ #»
x · #»
p − ( #»
x · #»
p )2
#»
p − ( #»
x · #»
p )2 .
(9.115)
148
Sistemi quantistici in più di una dimensione
Definiamo ora l’operatore
#ˆ»
ˆ» × #p
ˆ»,
L = #x
(9.116)
che, come vedremo più avanti, può essere legato al momento angolare quantistico, e nella base delle
coordinate prende la forma
Li = −i~εijk xj ∂k .
(9.117)
#»
Si vede immediatamente che L è ortogonale ad #»
x:
1
#»
#»
x · L = xi Li = εijk xi xj pk = εijk [xi , xj ]pk = 0.
2
(9.118)
Di conseguenza si tratta di un operatore differenziale che proiettato lungo la direzione radiale si annulla,
e quindi non può contenere derivate rispetto ad r:
#» #» ∂ ∂
L=L
, , ϑ, ϕ .
(9.119)
ϑ ϕ
Mantenendo l’ordinamento, possiamo quindi riscrivere la Eq. (9.115) come
1
#»2 #»
x · #»
p )2 − i~( #»
x · #»
p) + L .
p 2 = 2 ( #»
r
(9.120)
Abbiamo cosı̀ espresso #»
p 2 come la somma di un termine dipendente dalla componente radiale ed uno che
non contiene derivate rispetto ad essa. Possiamo usare la Eq. (9.120) per separare l’operatore cinetico,
in analogia alla separazione classica Eq. (9.99):
#»
1
∂
p2
#»2
2 ∂
2 ∂
=
r
+
(−i~)
r
+
L
(−i~)
r
2m
2mr2
∂r ∂r
∂r
!
2
#»
L
~2
∂2
2 ∂
+
,
+
=−
2
2m ∂r
r ∂r 2mr2
(9.121)
avendo fatto uso del fatto che ∂r r = r∂r + 1. Nell’ultimo passaggio abbiamo inoltre tenuto conto del fatto
#»
#»
che L non contiene derivate rispetto a r e quindi l’ordinamento di L e r è irrilevante.
Possiamo riscrivere la Eq. (9.121) in modo particolarmente elegante in termini di impulso radiale.
Come si è detto, p̃ˆr non è hermitiano. Infatti:
p̃ˆ†r =
#x
ˆ»
r̂
ˆ»
· #p
!†
=
#ˆ»†
#p
ˆ»† · x
r̂†
!
che non può essere identificato con p̃ˆr perché r̂ e p̃ˆr non commutano. Troviamo cosı̀
xi
xi
xi
3
1
2i~
p̃†r = −i~∂i = −i~ ∂i − i~ ∂i
= p̃r − i~
+ xi ∂ i
= p̃r −
.
r
r
r
r
r
r
(9.122)
(9.123)
A questo punto è possibile definire un impulso radiale autoaggiunto come
p̂r =
1 ˆ
i~
(p̃r + p̃ˆ†r ) = p̃ˆr − ,
2
r̂
(9.124)
ovvero
pr = −i~
∂
1
+
∂r
r
.
(9.125)
9.3 Problemi a due corpi e problemi centrali
149
Notiamo ora che
p2r
= −~
2
∂
1
+
∂r r
∂
1
+
∂r
r
2
= −~
2
#ˆ»2
2 ∂
L
2 ∂
∂2
∂ 1
1
∂
2
+
+
=
−~
+
+
,
+
.
∂r2
r ∂r
∂r r
r2
2mr2
∂r2
r ∂r
(9.126)
Confrontando con la Eq. (9.121) vediamo quindi che il termine cinetico può essere scritto come


#ˆ»2
#p
ˆ»2
1  2 L 
p̂r + 2
(9.127)
=
2m
2m
r̂
che quindi coincide con l’espressione classica.
150
Sistemi quantistici in più di una dimensione
Capitolo 10
Il momento angolare
Lo studio del momento angolare in meccanica quantistica è, anche storicamente, il prototipo per lo studio
delle simmetrie nella fisica teorica. La sua importanza va quindi al di là del suo pur significativo ruolo
nella descrizione dei sistemi quantistici tridimensionali.
10.1
Momento angolare e rotazioni
Viene spontaneo definire l’operatore momento angolare quantistico a partire da quello classico usando il
principio di corrispondenza, e cioè definendo, come in Eq. (9.116),
#ˆ»
ˆ» × #p
ˆ»,
L = #x
(10.1)
ˆ» e #p
ˆ» sono gli operatori posizione ed impulso. D’altra parte, abbiamo visto che in generale un’osservdove #x
abile quantistica viene costruita a partire dalla legge di conservazione classica corrispondente. Ricordiamo
quindi che in meccanica classica il momento angolare è la quantità che si conserva quando la dinamica è
invariante per rotazioni. Verifichiamo quindi che l’espressione dell’operatore momento angolare in meccanica quantistica che si ottiene a partire dal generatore delle rotazioni, il cui spettro si conserva quando
c’e’ invarianza per rotazioni, coincide con l’espressione Eq. (10.1) che si ottiene usando il principio di
corrispondenza.
10.1.1
Il caso classico: teorema di Noether
Ricordiamo innanzitutto che il momento angolare classico è la carica di Noether conservata quando vi
#»
è invarianza per rotazioni: specificamente, la componente di L lungo un asse si conserva quando c’è
invarianza per rotazioni attorno a tale asse, ossia se il problema è invariante per rotazioni sul piano ad
esso ortogonale.
Per dimostrarlo, consideriamo per semplicità un vettore che si trova nel piano xy e che ruota attorno
all’asse z: il vettore è
r cos ϕ
#»
x =
.
(10.2)
r sin ϕ
e sotto una rotazione infinitesima di angolo diventa
r cos(ϕ + )
r(cos ϕ − sin ϕ)
#»
x → #»
x0 =
=
+ O(2 ).
r sin(ϕ + )
r(sin ϕ + cos ϕ)
(10.3)
Di conseguenza
δ #»
x 0 = #»
x 0 − #»
x =
−r sin ϕ
r cos ϕ
(10.4)
152
Il momento angolare
vale a dire
δx1 = −x2
2
(10.5)
1
δx = x .
(10.6)

−x2
δ 3 #»
x =  x1 
0
(10.7)
Passando ora al caso tridimensionale

che possiamo scrivere in componenti come
(3)
δ 3 xi = εi3j xj = εikj nk xj ,
dove #»
n (3) = (0, 0, 1) è il versore lungo il terzo asse, e nk
vettoriale
(3)
(10.8)
ne è la k-esima componente. In notazione
δ 3 #»
x = #»
n (3) × #»
x.
(10.9)
Naturalmente, non vi è nulla di speciale nella scelta del terzo asse, e la Eq. (10.9) per la rotazione
attorno ad un asse generico #»
n prende la forma
δ (n) #»
x = #»
n × #»
x,
(10.10)
δ (n) xi = εijl nj xl .
(10.11)
ossia, in componenti
Il versore diretto lungo il k-esimo asse è
(k)
nj
= δjk ,
(10.12)
perciò la variazione della i-esima coordinata per rotazioni attorno al k-esimo asse è
δ k xi = εijl δjk xl = εkli xl .
(10.13)
La carica di Noether conservata quando vi è invarianza rispetto a tale rotazione è quindi data da
Qk =
∂L k i
δ x = pi εikl xl = εkli xl pi = Lk
∂ ẋi
(10.14)
con
Lk = εkij xi pj ,
(10.15)
cioè il consueto momento angolare classico.
10.1.2
Il caso quantistico: generatore delle rotazioni
#ˆ»
Verifichiamo ora che che l’operatore L Eq. (9.116) è proprio il generatore delle rotazioni a meno di un
fattore ~. Questo significa verificare che l’operatore
#»
#ˆ»
R̂ = ei n ~· L = I +
i #»
n #ˆ»
· L + O(2 ),
~
(10.16)
i cui elementi di matrice nella base delle coordinate sono
h #»
x |R̂ |ψi = 1 + εijk ni xj ∂k ψ( #»
x ) + O(2 )
(10.17)
10.2 Proprietà del momento angolare
153
realizza una rotazione, ossia ha la proprietà che
h #»
x |R̂ |ψi = ψ( #»
x + δ(n) #»
x ),
(10.18)
dove #»
x + δ(n) #»
x è il vettore #»
x trasformato sotto una rotazione infinitesima di attorno all’asse #»
n , secondo
la Eq. (10.10-10.11).
Calcoliamo il membro di destra della Eq. (10.18):
#»
ψ( #»
x + δ(n) #»
x ) = ψ( #»
x ) + δ(n) #»
x · ∇ψ( #»
x ) + O(2 ).
(10.19)
Ricordando la forma Eq. (10.11) di δ(n) #»
x si ha
ψ( #»
x + δ(n) #»
x ) = εijl nj xl ∂i ψ( #»
x ) + O(2 )
(10.20)
che coincide appunto con la Eq. (10.17).
10.2
Proprietà del momento angolare
10.2.1
Ordinamento
La definizione dell’operatore momento angolare Eq. (9.116) non dipende dall’ordinamento: infatti
εijk x̂j p̂k = εijk p̂k x̂j + [x̂j , p̂k ] = εijk p̂k x̂j + i~δ kj = εijk p̂k x̂j .
(10.21)
Questo implica in particolare che il momento angolare è hermitiano, infatti
(L̂i )† = εijk p̂k x̂j = εijk x̂j p̂k .
10.2.2
(10.22)
Espressione esplicita in coordinate sferiche
Le espressioni esplicite delle tre componenti del momento angolare in coordinate sferiche si possono
determinare dalla definizione, con il risultato
cos ϑ
∂
∂
+
cos ϕ
(10.23)
L̂x = i~ sin ϕ
∂ϑ
sin ϑ
∂ϕ
∂
cos ϑ
∂
L̂y = i~ − cos ϕ
+
sin ϕ
(10.24)
∂ϑ
sin ϑ
∂ϕ
∂
L̂z = −i~ .
(10.25)
∂ϕ
Solo la terza componente, che genera rotazioni dell’angolo azimutale, ha un’espressione semplice. Diamo
per completezza anche l’espressione del quadrato del momento angolare
2
∂
cos ϑ ∂
1
∂2
#ˆ»2
2
L = −~
+
+
.
(10.26)
∂ϑ2
sin ϑ ∂ϑ sin2 ϑ ∂ϕ2
10.2.3
Relazioni di commutazione
Per un sistema invariante per rotazioni, il momento angolare commuta con l’hamiltoniana. Tuttavia, le
diverse componenti del momento angolare non commutano tra loro. Si ha infatti che
[L̂i , L̂j ] = [εiab x̂a p̂b , εjlm x̂l p̂m ] = εiab εjlm [x̂a p̂b , x̂l p̂m ] = εiab εjlm x̂l [x̂a , p̂m ]p̂b + x̂a [p̂b , x̂l ]p̂m
= εiab εjlm (i~δ am x̂l p̂b − i~δ bl x̂a p̂m ) = i~(εbia εjla x̂l p̂b − εiab εmjb x̂a p̂m )
ˆ» · #p
ˆ»δ ij − x̂j p̂i + #x
ˆ» · #p
ˆ»δ ij )
= i~[(δ bj δ il − δ bl δ ij )x̂l p̂b − (δ im δ aj − δ ij δ am )x̂a p̂m ] = i~(x̂i p̂j − #x
= i~(x̂i p̂j − x̂j p̂i ).
(10.27)
154
Il momento angolare
Dove abbiamo fatto uso dell’identità Eq. (9.104). Notiamo inoltre che
x̂i p̂j − x̂j p̂i = εijk L̂k ,
(10.28)
εijk L̂k = εijk εkab x̂a p̂b = εijk εabk x̂a p̂b = (δia δjb − δib δja )x̂a p̂b = x̂i p̂j − x̂j p̂i .
(10.29)
infatti
Di conseguenza
[L̂i , L̂j ] = i~εijk L̂k .
(10.30)
Notiamo, confrontando con la Eq. (10.11), che il membro destro del commutatore è pari alla variazione
di un vettore sotto una rotazione attorno all’i-esimo asse. D’altra parte, abbiamo visto che Li è il
generatore delle rotazioni, e sappiamo (si ricordi l’Eq. (4.70) che il commutatore di un generatore di
una trasformazione con un operatore fornisce la variazione dell’operatore sotto la trasformazione stessa.
Quindi, possiamo interpretare il commutatore Eq. (10.30) come la variazione dell’operatore Lj sotto una
trasformazione generata da Li . Il fatto che questa variazione sia eguale a quella di un vettore sotto una
rotazione ci dice che il momento angolare sotto rotazioni si trasforma come un vettore.
#ˆ»
Questo suggerisce immediatamente che invece il modulo di L sia invariante sotto rotazioni, e quindi
i
commuti con ciascuna delle componenti L̂ , come è facile verificare esplicitamente:
#ˆ»2
[ L , L̂i ] = L̂k [L̂k , L̂i ] + [L̂k , L̂i ]L̂k = i~L̂k εkij L̂j + i~εkij L̂j L̂k = i~εkij (L̂k L̂j + L̂j L̂k ) = 0.
10.3
(10.31)
Lo spettro del momento angolare
Poiché le componenti del momento angolare non commutano fra di loro, non possono essere diagonalizzate
simultaneamente. Possiamo tuttavia diagonalizzare simultaneamente una delle componenti del momento
angolare ed il momento angolare totale. Convenzionalmente si sceglie di diagonalizzare la terza componente del momento angolare L̂z , essenzialmente per la semplicitá della sua espressione in coordinate
sferiche Eq. (10.23). Come in altri casi già studiati (ad esempio l’oscillatore armonico) è possibile determinare lo spettro sia usando la rappresentazione esplicita degli operatori nella base delle coordinate, sia
sfruttando le relazioni di commutazione. Utilizziamo questo secondo metodo, non solo per la sua semplicità, ma anche perché, come vedremo, ci permetterà di studiare una classe più ampia di autofunzioni
del momento angolare di quelle che si ottengono dalla rappresentazione nella base delle coordinate.
Determiniamo quindi lo spettro di autofunzioni comuni ad L2 ed Lz (d’ora in poi ometteremo l’indicazione esplicita che si tratti di operatori, e che L2 è il modulo quadro di un vettore), ossia gli stati |` mi
tali che
Lz |` mi = ~m|` mi
(10.32)
L2 |` mi = λ` |` mi,
(10.33)
dove il fattore ~ nella definizione dell’autovalore di Lz è stato introdotto per futura comodità, e ` è un
indice che numera le autofunzioni di L2 . Supponiamo che gli stati siano normalizzati in senso proprio
come
hλ`0 m0 |λ` mi = δ`0 ` δm0 m .
(10.34)
Che una normalizzazione in senso proprio sia possibile si può dedurre dal fatto che gli operatori di momento
angolare, visti come operatori differenziali, agiscono su un dominio compatto: l’insieme di valori possibili
per le variabili angolari, o, equivalentemente, la superficie di una sfera di fisso raggio.
10.3 Lo spettro del momento angolare
10.3.1
155
Costruzione dello spettro
Introduciamo gli operatori
L± = Lx ± iLy ,
(10.35)
che commutano con il momento angolare totale:
[L2 , L± ] = 0.
(10.36)
[Lz , L± ] = [Lz , Lx ] ± i[Lz , Ly ] = ±~(Lx ± iLy ) = ±~L±
(10.37)
[L+ , L− ] = [Lx + iLy , Lx − iLy ] = 2~Lz .
(10.38)
Osserviamo che
e inoltre
La Eq. (10.37) implica immediatamente che L± sono operatori di innalzamento ed abbassamento per
lo spettro di Lz : ossia, dato uno stato |` mi, autostato simultaneo di L2 e Lz , gli stati L± |` mi sono
autostati di Lz con autovalore rispettivamente abbassato od aumentato di una unità. Infatti
Lz (L± |` mi) = L± Lz |` mi ± ~L± |` mi = ~(m ± 1)L± |` mi.
(10.39)
Inoltre, la Eq. (10.36) implica che gli stati L± |` mi continuano ad essere autostati di L2 associati allo
stesso autovalore `.
Osserviamo ora che la serie di stati che si ottengono per azione di questi operatori di innalzamento ed
abbassamento è necessariamente limitata. Infatti
L+ = (L− )†
(10.40)
hψ|L+ L− |ψi ≥ 0
(10.41)
hψ|L− L+ |ψi ≥ 0,
(10.42)
per cui
come si vede dal fatto che se si definisce |ϕi ≡ L+ |ψi, allora hϕ| = hψ|L− , e quindi le Eq. (10.41,10.42)
sono norme di vettori.
D’altra parte,
L+ L− = (Lx + iLy )(Lx − iLy ) = L2x + L2y − i[Lx , Ly ] = L2 − L2z + ~Lz
L− L+ = (Lx − iLy )(Lx + iLy ) = L2x + L2y + i[Lx , Ly ] = L2 − L2z − ~Lz .
Combinando queste due relazioni arriviamo al risultato che ci interessa:
L+ L− + L− L+
|` mi = (λ` − ~2 m2 ),
h` m|(L2 − L2z )|` mi = h` m|
2
(10.43)
(10.44)
avendo supposto gli stati normalizzati ad uno, secondo la Eq. (10.34). Quindi le condizioni Eq. (10.4110.42) implicano
(λ` − ~2 m2 ) ≥ 0.
(10.45)
Ne segue inevitabilmente che, per fisso λ` , m non può aumentare o diminuire indefinitamente senza violare
la Eq. (10.45). Devono perciò esistere due stati |` mmax i e |` mmin i tali che
L+ |` mmax i = 0,
L− |` mmin i = 0.
(10.46)
156
Il momento angolare
Imponendo che la serie di stati termini sia superiormente che inferiormente, i valori ammessi di λ` e
m sono determinati univocamente. Infatti, possiamo riscrivere la coppia di relazioni Eq. (10.46) come
L− L+ |` mmax i = 0,
L+ L− |` mmin i = 0,
(10.47)
che, utilizzando le Eq. (10.43) forniscono la coppia di condizioni
0 = (L2 − L2z − ~Lz )|` mmax i = (λ` − ~2 m2max − ~2 mmax )|` mmax i
0 = (L2 − L2z + ~Lz )|` mmin i = (λ` − ~2 m2min + ~2 mmin )|` mmin i.
(10.48)
Sostituendo una equazione nell’altra otteniamo
~2 mmax (mmax + 1) − ~2 mmin (mmin − 1) = 0
(10.49)
m2max + mmax − m2min + mmin = 0.
(10.50)
e quindi
La soluzione di questa equazione di secondo grado è
mmax =
−1 ± (2mmin − 1)
.
2
(10.51)
L’unica soluzione accettabile è
mmax = −mmin .
(10.52)
Ma ovviamente
mmax = mmin + N,
N ∈ N,
(10.53)
quindi
mmax =
N
.
2
(10.54)
Ne concludiamo che gli autovalori m sono interi o seminteri. Inoltre fissato mmax la Eq. (10.48)
implica
λ` = ~2 mmax (mmax + 1),
(10.55)
e quindi definendo
`≡
N
2
λ` = ~2 `(` + 1).
(10.56)
(10.57)
Abbiamo quindi determinato l’insieme degli autovalori possibili:
con ` =
N
2,
L2 |` mi = ~2 `(` + 1)|` mi
(10.58)
Lz |` mi = ~m|` mi,
(10.59)
N ∈ N e −` ≤ m ≤ `. Gli stati sono ortonormalizzati come
h`0 m0 |`mi = δ``0 δmm0 .
(10.60)
10.3 Lo spettro del momento angolare
157
Possiamo costruire tutti gli stati per azione degli operatori di innalzamento ed abbassamento, con la
normalizzazione fissata da
L+ L− |` mi = ~2 (`(` + 1) − m(m − 1))|` mi
L− L+ |` mi = ~2 (`(` + 1) − m(m + 1))|` mi,
(10.61)
dimodochè se h` m|` mi = 1 allora anche
1
L+ |` mi
|` m + 1i = p
~ `(` + 1) − m(m + 1)
(10.62)
è normalizzato come h` m + 1|` m + 1i. Analogamente
1
|` m − 1i = p
L− |` mi
~ `(` + 1) − m(m − 1)
10.3.2
(10.63)
Autofunzioni nella base delle coordinate
Avendo costruito lo spettro partendo dalle relazioni di commutazione, possiamo determinare la forma
esplicita delle autofunzioni in una specifica rappresentazione. Per prima cosa, studiamo la base delle
coordinate. In tal caso, ricordiamo che gli operatori di momento angolare sono operatori differenziali, la
cui forma esplicita in coordinate sferiche è stata data nelle Eq. (10.23-10.25). In coordinate sferiche, le
autofunzioni sono quindi funzioni degli angoli ϑ e ϕ:
hϑ ϕ|` mi = Y`,m (ϑ, ϕ).
(10.64)
Usando la Eq. (10.25) l’equazione agli autovalori per la terza componente del momento angolare
hϑ ϕ|Lz |` mi = ~mhϑ ϕ|` mi
(10.65)
diventa l’equazione differenziale
∂
Y`,m (ϑ, ϕ) = ~mY`,m (ϑ, ϕ).
∂ϕ
(10.66)
Y`,m (ϑ, ϕ) = eimϕ N`,m P`,m (cos ϑ).
(10.67)
−i~
La soluzione è banale:
Le funzioni Y`,m (ϑ, ϕ) sono dette armoniche sferiche.
Possiamo costruire esplicitamente le armoniche sferiche senza risolvere l’equazione agli autovalori per
L2 (che è un’equazione a derivate parziali del second’ordine), ma utilizzando invece la condizione
hϑ ϕ|L− |` mmin i = 0
(Lx − iLy )Y`,−` (ϑ, ϕ) = 0,
(10.68)
che è del primo ordine, in analogia a quanto si è fatto quando si è costruito lo stato fondamentale
dell’oscillatore armonico nella base delle coordinate. Ricordando l’espressione Eq. (10.23-10.24) di Lx e
Ly in coordinate sferiche si ha
cos ϑ
∂
∂
cos ϑ ∂
∂
−iϕ
+
(i cos ϕ − sin ϕ)
= ~e
−
+i
.
(10.69)
L− = ~ (i sin ϕ − cos ϕ)
∂ϑ
sin ϑ
∂ϕ
∂ϑ
sin ϑ ∂ϕ
Ricordando la forma esplicita Eq. (10.67) si vede immediatamente che il prefattore e−iϕ nell’espressione
dell’operatore di abbassamento fa sı̀ che esso abbassi di un’unità l’autovalore m di Lz .
La condizione Eq. (10.68) corrisponde quindi all’equazione differenziale del primo ordine
∂
∂
−iϕ
~e
−
+ i cot ϑ
Y`,−` (ϑ, ϕ) = 0
(10.70)
∂ϑ
∂ϕ
158
Il momento angolare
ossia
∂
+ ` cot ϑ e−iϕ` P`,−` (cos ϑ) = 0.
−
∂ϑ
(10.71)
∂
P`,−` (cos ϑ) = cot ϑ `P`,−` (cos ϑ).
∂ϑ
(10.72)
∂ sin ϑ ∂
∂
∂
=
= cos ϑ
.
∂ϑ
∂ϑ ∂ sin ϑ
∂ sin ϑ
(10.73)
Possiamo scrivere di conseguenza
Notiamo poi che
Possiamo quindi riscrivere l’equazione differenziale come:
∂
`
P`,−` (cos ϑ) =
P`,−` (cos ϑ)
∂ sin ϑ
sin ϑ
(10.74)
d sin ϑ
dP`,−` (cos ϑ)
=`
P`,−` (cos ϑ)
sin ϑ
(10.75)
P`,−` = (sin ϑ)` .
(10.76)
Y`,−` (ϑ, ϕ) = e−i`ϕ (sin ϑ)` N`,−` .
(10.77)
vale a dire
da cui segue
Di conseguenza
Tutte le altre armoniche sferiche si possono ottenere per azione dell’operatore di innalzamento. Per
esempio
∂
Y`,−`+1 = KL+ Y`,−` = Keiϕ −
− cot ϑ ` e−i`ϕ (sin ϑ)` N`,−` ,
(10.78)
∂ϑ
dove K è un’opportuna costante di normalizzazione, e cosı̀ via. Vediamo quindi che le armoniche sferiche
sono polinomi in sin ϑ e cos ϑ. In particolare
P`,−`
P`,−`+1
..
.
∼
(sin ϑ)`
∼ (sin ϑ)`−1 cos ϑ
P`,0
..
.
∼
(cos ϑ)` .
P`,`
∼
(sin ϑ)` .
(10.79)
Le armoniche sferiche Eq. (10.67) sono una base ortonormale completa per lo spazio delle funzioni
definite sulla sfera. Questo significa che per le armoniche sferiche valgono le relazioni di ortonormalità
Eq. (10.60) sotto integrazione sulla sfera
Z
Z
0 0
dΩ h` m |ϑϕihϑϕ|`mi = d cos θdφ Y`∗0 ,m0 (ϑ, ϕ)Y`,m (ϑ, ϕ) = δ``0 δmm0 ,
(10.80)
e la relazione di completezza
X
`m
|` mih` m| = I
(10.81)
10.4 Lo spin
159
sulla sfera, cioè
X
X
∗
hϑ ϕ|` mih` m|ϑ0 ϕ0 i =
Y`,m
(ϑ0 , ϕ0 )Y`,m (ϑ, ϕ) = δ(cos ϑ − cos ϑ0 )δ(ϕ − ϕ0 ).
`m
(10.82)
`m
Quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono con P`,0 (cos ϑ), a meno della
normalizzazione. Le P`,0 (cos ϑ) a loro volta sono polinomi in cos θ. I polinomi corrispondenti al caso
m = 0, ossia le P`,0 (ϑ) possono essere scritti come polinomi in cos ϑ, P`,0 (cos ϑ). Inoltre, la Eq. (10.67)
implica che quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono con P`,0 (cos ϑ), a meno
della normalizzazione. Ne segue che in tal caso le condizioni di ortonormalità Eq. (10.80) e completezza
Eq. (10.82) diventano rispettivamente
Z
Z
0
dΩ h` 0|ϑϕihϑϕ|`0i = 2π d cos θ|N`,0 |2 P`∗0 ,0 (cos ϑ)P`,0 (cos ϑ) = δ``0
(10.83)
e
X
X
∗
hϑ|` 0ih` 0|ϑ0 i =
|N`,0 |2 P`,0
(cos ϑ0 )P`,0 (cos ϑ) = δ(cos ϑ − cos ϑ0 ).
`
(10.84)
`
I polinomi P`,0 (cos ϑ) sono cioé una base ortonormale completa sul cerchio. Essi sono noti come polinomi
di Legendre, e possono essere equivalentemente visti come un sistema ortonormale completo sul segmento
cos ϑ ∈ (−1, 1).
Possiamo chiederci su che valori deve correre la somma su `, m affinché la Eq. (10.82) sia vera. Abbiamo
visto che dal punto di vista algebrico, tutti i valori interi o semi-interi di ` sono ammissibili, mentre m
prende i 2` + 1 valori −` ≤ m ≤ `: di conseguenza se ` è semintero anche m è semintero. Ora, se
imponiamo che la funzione d’onda sia monodroma, essa deve soddisfare la condizione al contorno
Y`,m (ϑ, ϕ + 2π) = Y`,m (ϑ, ϕ).
(10.85)
Ma se ` e quindi m sono semi-interi, quando si confronta il valore dell’autofunzione in π con quello in
φ + 2π il fattore di fase nella Eq. (10.67) vale
eim(ϕ+2π) = −1.
(10.86)
Pertanto, imponendo che sia soddisfatta la condizione al contorno Eq.(10.85) i valori semi-interi di m e
quindi di ` sono proibiti. Che la Eq. (10.82) valga quando la somma corre su tutti i valori interi di ` può
naturalmente essere dimostrato con il calcolo esplicito.
Il momento angolare realizzato su funzioni monodrome nella base delle coordinate è detto momento
angolare orbitale.
10.4
Lo spin
Ci si può quindi chiedere se gli stati con ` semintero abbiano un significato fisico. A questo fine, ricordiamo
che abbiamo introdotto il momento angolare studiando la trasformazione del vettore di stato del sistema
sotto rotazioni. Quindi, il modo più generale per realizzare il momento angolare si ottiene chiedendosi
quale sia il modo più generale per realizzare le rotazioni.
Finora, abbiamo considerato la possibilità di avere funzioni d’onda h #»
x |ψi = ψ( #»
x ), e abbiamo identificato il momento angolare studiando le realizzazioni dell’operatore di rotazione su un autostato della
posizione | #»
x i. Abbiamo quindi realizzato il momento angolare su uno spazio infinito-dimensionale, in
cui le rotazioni agiscono ruotando le coordinate. Tuttavia, anche classicamente, possiamo considerare
un’altra classe di sistemi che si trasformano sotto rotazioni: si tratta di tutti i sistemi fisici il cui stato
contiene l’informazione su una direzione nello spazio, come ad esempio i sistemi rappresentati da variabili
vettoriali. Come semplice esempio possiamo pensare alla direzione del vento in un punto: la direzione in
cui punta la direzione del vento è un vettore sul quale le rotazioni possono agire. Se cambiamo il sistema
di coordinate la direzione del vento cambierà nel senso che le coordinate che corrispondono ad una certa
160
Il momento angolare
direzione del vento fissata cambieranno. Tale cambiamento è diverso dal cambiamento di posizione. Una
cosa sono le coordinate di un certo punto che a loro volta sono soggette a rotazioni, una cosa diversa è
#»
#»
la direzione del vento in quel punto. Un altro esempio è un campo elettrico classico E = E( #»
x ). Esso
#»
dipende dalla coordinata x e quindi le rotazioni possono agire sulla coordinata del punto in cui noi diamo
il campo elettrico. Tuttavia il campo elettrico è una campo vettoriale; se consideriamo come si trasforma
il campo sotto rotazioni dobbiamo ricordarci del fatto che si trasforma non solo perché si trasforma la
coordinata sotto rotazioni ma perché cambia anche la direzione del vettore. Se consideriamo poi la ro#»
tazione del campo elettrico nel punto #»
x = 0 otteniamo una rotazione del vettore che però non cambia
la coordinata.
Nei sistemi classici e di conseguenza anche in sistemi quantistici possiamo pensare di realizzare le
rotazioni in due modi diversi: sullo spazio delle coordinate ma anche sullo spazio che corrisponde ad un
indice portato dalla quantità di cui stiamo parlando; se la quantità di cui stiamo parlando è un vettore,
possiamo studiare l’azione delle rotazioni su tale vettore. In quest’ultimo caso, stiamo considerando
l’azione delle rotazioni su sistemi che hanno dimensione finita, la cui base consiste in un numero finito di
stati
10.4.1
Spin uno
Per costruire un primo esempio di sistema in cui le rotazioni si realizzano sugli stati, consideriamo un
sistema tripartito, cioè su cui può essere effettuata una misura che ha tre risultati possibili, corrispondenti
agli stati |1i, |2i e |3i. Con un leggero abuso di notazione scriviamo questi stati di base come vettori:
 
 
 
0
0
1
(10.87)
|1i =  0  ; |2i =  1  ; |3i =  0  .
0
1
0
Strettamente parlando questo è un abiuso di notazione perché la notazione di Dirac non comporta una
scelta di base, mentre la rappresentazione vettoriale sı̀: essa value appunto avento scelto i tra stati dati
come vettori di base. Tuttavia in questa sezione useremo sempre questa particolare scelta di base. Lo
stato generico |vi si può scrivere in notazione vettoriale come


c1
|vi = c1 |1i + c2 |2i + c3 |3i =  c2  ,
(10.88)
c3
dove naturalmente ci sono numeri complessi, |c1 |2 + |c2 |2 + |c3 |2 è fissato per normalizzazione, e la fase
complessiva è inosservabile.
Possiamo definire un momento angolare su questo spazio di stati se supponiamo che i tre stati di base
possano agire le rotazioni. Questa naturalmente è un’ipotesi fisica: per esempio, i tre stati potrebbero
corrispondere a tre possibili direzioni in cui può puntare una variabile vettoriale. Le rotazioni in tal caso
corrispondono semplicemente ad un cambiamento del sistema di riferimento in cui esprimiamo queste
direzioni. In tal caso, gli stati si trasformano sotto rotazioni come vettori in uno spazio tridimensionale. Costruiamo quindi il generatore della trasformazione infinitesima, ed in termini di esso costruiamo
l’operatore momento angolare.
Consideriamo dapprima il caso particolare dello stato


cos ϕ
#»
(10.89)
v =  sin ϕ 
0
e studiamo l’effetto su di esso di una rotazione infinitesima attorno all’asse z. Si ha:
 


cos(ϕ + )
cos ϕ − sin ϕ
#»
#»
v 0 = R(z)
v =  sin(ϕ + )  =  sin ϕ + cos ϕ  + O(2 ).
0
0
(10.90)
10.4 Lo spin
161
Vogliamo vedere ciò come ottenuto dall’azione di un generatore:
i
0
2
#»
v = I − Lz + O( ) #»
v.
~
(10.91)
Notiamo che il segno nella Eq. (10.91) è coerente con quello della definizione del momento angolare
orbitale: infatti le Eq. (10.16-10.17) possono essere riscritte come
i
(10.92)
ψ( #»
x 0 ) = h #»
x 0 |ψi = h #»
x | I + Lz |ψi,
~
che implica che la quantità sottoposta a rotazioni è il bra h #»
x 0 |. Si ha perciò:
i
0
#»
#»
h x | = h x | I + Lz ,
~
(10.93)
ossia
| #»
x 0i =
i
I + Lz
~
†
| #»
xi =
i
I − Lz | #»
x i,
~
(10.94)
coerentemente con la Eq. (10.91).
Abbiamo quindi



− sin ϕ
0
δ #»
v = #»
v 0 − #»
v =  cos ϕ  = −  −1
0
0


1 0
cos ϕ
0 0   sin ϕ  .
0 0
0
(10.95)
Possiamo perciò identificare Lz come:

0
Lz = −i~  −1
0

1 0
0 0 .
0 0
(10.96)
Il generatore è una matrice 3 × 3 che possiamo scrivere come (Lz )ij = hi|Lz |ji.
Possiamo generalizzare l’argomento scrivendo l’azione di una rotazione sullo stato generico nella forma


cos − sin 0
v
|v 0 i = R(z)
|vi =  sin cos 0  #»
0
0
0





1 + O(2 ) − + O(2 ) 0
0 1 0
=  + O(2 ) 1 + O(2 ) 0  #»
v = I −  −1 0 0  #»
v.
(10.97)
0
0
0
0 0 0
Vediamo cosı̀ che il risultato non dipende dalla forma particolare dello stato |vi, e segue dall’ipotesi che
sotto rotazioni lo stato si trasformi secondo le consuete matrici di rotazione.
Analogamente, i generatori delle rotazioni attorno agli altri due assi sono le matrici:




0 0 0
0 0 −1
Lx = −i~  0 0 1  Ly = −i~  0 0 0  .
(10.98)
0 −1 0
1 0 0
Possiamo quindi in scrivere (Lz )ij come
(Lz )ij = −i~εzij ,
(10.99)
(Lk )ij = −i~εkij .
(10.100)
e, in generale,
162
Il momento angolare
Possiamo verificare esplicitamente che gli operatori Eq. (10.100) cosı̀ costruiti soddisfino le relazioni
di commutazione del momento angolare:
(Li )ab (Lj )bc − (Lj )ab (Li )bc = −~2 (εiab εcjb − εjab εcib ) = −~2 (δ ic δ aj − δ ij δ ac − δ jc δ ai + δ ji δ ac )
= −~2 (δ ic δ aj − δ jc δ ai ).
(10.101)
D’altra parte
i~εijk (Lk )ac = i~εijk (−i~)εkac = −~2 εijk εcak = −~2 (δ ic δ aj − δ jc δ ai ),
(10.102)
e quindi il commutatore Eq. (10.30) è riprodotto.
Determiniamo ora gli autovalori e autovettori degli operatori di momento angolare appena definiti.
Possiamo diagonalizzare simultaneamente L2 e Lz , poiché valgono le usuali relazioni di commutazione.
Per prima cosa determiniamo l’autovalore di L2 . Usando l’espressione esplicita degli operatori si trova






0 0
0
−1 0 0
−1 0 0
(10.103)
L2x = −~2  0 −1 0  L2y = −~2  0 0 0  L2z = −~2  0 −1 0 
0 0 −1
0 0 −1
0
0 0
e quindi

1
L2 = L2x + L2y + L2z = 2~2  0
0
0
1
0

0
0  = 2~2 I.
1
(10.104)
Gli autovettori di questa matrice sono tutti i vettori dello spazio: infatti la matrice identità applicata
ad ogni vettore dà il vettore stesso
L2 |vi = 2~2 |vi.
(10.105)
Poiché l’autovalore di L2 in generale è uguale a ~2 `(` + 1) si ottiene `(` + 1) = 2 e quindi ` = 1.
Abbiamo quindi scoperto che la realizzazione del momento angolare che abbiamo costruito corrisponde
all’insieme di stati con momento angolare pari ad uno. Qualunque stato in questo spazio ha ` = 1. Uno
stato di questo tipo viene chiamato stato di spin uno. La dimensione dello spazio è data dal numero dei
possibili valori di m, che deve variare in passi interi da -1 a 1. I valori di m permessi sono (−` ≤ m ≤ `)
1, 0 e -1. Ciò spiega perchè lo spazio sia tridimensionale: lo spazio degli stati fisici per un sistema di spin
uno ha dimensione tre, poiché il più generale stato è la sovrapposizione dei tre autostati con autovalori
1, 0 e -1 di una delle componenti del momento angolare.
Possiamo determinare esplicitamente la forma degli autovettori, ovvero dei vettori #»
v + , #»
v − e #»
v 0 tali
che
Lz #»
v ± = ±~
L #»
v = 0.
z
(10.106)
(10.107)
0
Si verifica facilmente che gli autovettori sono


1
1
#»
v ± = √  ±i  ;
2
0


0
#»
v0 =  0 .
1
(10.108)
Notiamo che i vettori #»
v ± corrispondono ai vettori di polarizzazione circolare noti dall’elettromagnetismo
classico.
Osserviamo in conclusione che le rotazioni , che abbiamo usato per definire il momento angolare,
possono essere viste come un cambiamento di base sullo stato degli stati fisici, ma non sono il più generale
cambiamento di base. Questo è dovuto al fatto che il generico vettore nello spazio degli stati fisici ha
componenti complesse, e quindi il più generale cambiamento di base è dato da una trasformazione untiaria,
mentre le rotazioni sono date da matrici a componenti reali, e quinei ortogonali, in quanto una matrice
10.4 Lo spin
163
unitaria reale è ortogonale. Per esempio, potremmo scegliere di utilizzare i tre vettori Eq. (10.108) come
vettori di base. La base da cui siamo partiti Eq. (10.87) è solitamente chiamata base cartesiana, mentre i
tre vettori di cui le Eq. (10.108) forniscono le componenti in base cartsiana costituiscono la base sferica.
Il passaggio dalla base cartesiana alla base sferica è manifestamente realizzato da una trasformazione
unitaria che non è una rotazione.
10.4.2
Spin
1
2
Possiamo ora costruire uno spazio con spin 21 . Per un sistema di 12 i possibili valori per la terza componente
sono 12 e − 12 : si tratta quindi di un sistema bipartito. Lo spazio degli stati fisici è lo spazio delle
sovrapposizioni degli stati | 12 12 i e | 21 − 12 i. La notazione per i due stati può essere semplificata ulteriormente
scrivendo semplicemente |+i e |−i.
Il più generale stato fisico può essere espresso come combinazione lineare dei due stati di base |±i:
|ψi = c+ |+i + c− |−i, e può essere equivalentemente rappresentato come un vettore colonna a due
componenti complesse, detto spinore, rappresentano i due stati di base come
1
0
u+ =
; u− =
,
(10.109)
0
1
sicché lo stato generico è
u=
h+|ψi
h−|ψi
c+
c−
=
.
(10.110)
Vogliamo ora vedere come si rappresentino gli operatori di momento angolare sulla base degli stati
Eq. (10.110). Partiamo dall’osservazione che la terza componente dello spin sz è diagonale sugli stati
dati, cioè
~
sz |±i = ± |±i,
2
(10.111)
e quindi
~
h±|sz |±i =
2
1
0
0
.
−1
(10.112)
Possiamo quindi costruire gli operatori sx e sy . Per fare ciò ci serviamo degli operatori di innalzamento
e abbassamento che nel caso specifico sono:
s± = sx ± isy .
(10.113)
Poiché la loro azione è di alzare ed abbassare l’autovalore sz si ha
|+i = N+ s+ |−i.
(10.114a)
|−i = N− s− |+i.
(10.114b)
La normalizzazione si calcola ricordando le Eq. (10.62-10.63), da cui
N+ = p
N− = p
In particolare nel caso spin
1
2
1
~2 (`(`
+ 1) − m(m + 1))
1
~2 (`(` + 1) − m(m − 1))
(10.115)
.
(10.116)
si ha
N+ = N− = ~,
(10.117)
164
Il momento angolare
e quindi
s+ |−i = ~|+i
(10.118)
s− |+i = ~|−i.
(10.119)
Otteniamo infine gli elementi di matrice degli operatori sx e sy esprimendoli in termini di operatori
di innalzamento e abbassamento
1
1
sx = (s+ + s− ), sy = (s+ − s− ).
(10.120)
2
2i
Visto che nella base degli stati |±i
0 1
0 0
h±|s+ |±i = ~
; h±|s− |±i = ~
(10.121)
0 0
1 0
si ha
sx =
Gli operatori di spin
1
2
~
2
0
1
1
0
;
sy =
~
2
0
i
−i
0
.
(10.122)
possono quindi essere scritti come
si =
~
σi ,
2
(10.123)
dove σi sono le matrici di Pauli.
Ricordando le relazioni tra le matrici di Pauli
σi σj = iεijk σk ,
σi σj = −σj σi ,
σk2 = I.
(10.124)
è immediato verificare le relazioni di commutazione
~2
~
(σi σj − σj σi ) = i~εijk σk = i~εijk sk .
4
2
L’operatore spin totale infine è uguale a
~2
3
1 1
s2 = s2x + s2y + s2z =
3I = ~2 I = ~2
+ 1 I,
4
4
2 2
[si , sj ] =
(10.125)
(10.126)
coerentemente con il fatto che lo spazio degli stati fisici è lo spazio degli autostati dello spin totale associato
a spin totale uguale a 12 , dimodoché tutti gli stati del sistema sono suoi autostati associati allo stesso
autovalore
3
(10.127)
s2 |ψi = ~2 |ψi.
4
Gli stati di spin semi-intero hanno un comportamento peculiare sotto rotazioni. Consideriamo infatti
uno stato |ψi = c+ |+i + c− |−i e compiamo una rotazione di 2π di tale stato attorno all’asse z:
Rz2π |ψi = e−iπσz c+ |+i + c− |−i ,
(10.128)
ma |±i sono autostati di σz , e quindi
Rz2π |ψi = c+ e−iπ |+i + c− eiπ |−i = −|ψi.
◦
(10.129)
Questo significa che ruotando il sistema di 360 uno stato di spin semi-intero ritorna in meno sé stesso.
Questo impedisce di rappresentare il vettore di stato di un sistema di spin semi-intero come una funzione
d’onda sullo spazio delle coordinate, ma non viola alcun principio fondamentale, ed anzi dà luogo ad
effetti sperimentalmente osservabili: per esempio, la funzione d’onda del sistema di partenza e di quello
ruotato possono essere fatte interferire fra di loro.
Notiamo in conclusione che in tutta questa discussione dei sistemi di spin 21 abbiamo scelto di rappresentare i vettori di stato come spinori Eq. (10.110), cioè in termini di autostati della terza componente
del momento angolare, ossia in una base che è l’analogo della base sferica Eq. (10.108) vista nel caso di
spin uno.
10.5 Composizione di momenti angolari
165
10.5
Composizione di momenti angolari
10.5.1
Sistemi con momento angolare orbitale e spin
Possiamo considerare sistemi fisici che portano sia momento angolare orbitale che spin: gli elettroni ed
i nuclei atomici sono esempi di sistemi di questo tipo. La funzione d’onda per un sistema siffatto può
essere scritta come
h #»
x |ψi =
s
X X
h #»
x |` m sz ihsz ` m|ψi =
`m sz =−s
Nel caso particolare di spin
X
z
Y`,m (ϑ, ϕ)usz cs`m
(r).
(10.130)
`msz
1
2
possiamo scrivere la funzione d’onda di spin come uno spinore Eq. (10.109,10.110):
X
X
1
0
1
−1
2
(r) +
Y`,m (ϑ, ϕ)
h #»
x |ψi =
Y`,m (ϑ, ϕ)
c`m2 (r)
c`m
1
0
`m
`m
!
1
P
1
2
ψ 2 (r, ϑ, ϕ)
`m Y`,m (ϑ, ϕ))c`m (r)
=
=
.
(10.131)
1
1
P
−
ψ − 2 (r, ϑ, ϕ)
Y`,m (ϑ, ϕ)c 2 (r)
`m
`m
Al solito, i vettori di base sono fattorizzati, visto che lo spazio è un prodotto diretto:
hθ φ|` m sz i = hθ φ| (|` mi ⊗ |sz i) = Y`,m (ϑ, ϕ)usz ,
(10.132)
ma lo stato generico non lo è:
u( #»
x) =
ψ + ( #»
x)
.
ψ − ( #»
x)
(10.133)
La densità di probabilità che una misura di posizione riveli il sistema in #»
x è il modulo quadro della
funzione d’onda sommata su tutti gli spin:
X
ρ( #»
x ) = | #»
u ( #»
x )|2 =
|usz ( #»
x )|2 ,
(10.134)
sz =−,+
mentre la probabilità che una misura di spin lungo l’asse z dia come risultato ± 12 è
Z
± 21
P
= d3 #»
x |ψ ± ( #»
x )|2 .
10.5.2
(10.135)
Coefficienti di Clebsch-Gordan e cambi di base
Se un sistema porta sia momento angolare orbitale che spin può essere utile descriverne la dinamica in
termini di momento angolare totale, anziché utilizzare separatamente il momento angolare e lo spin: la
situazione tipica è quella in cui il momento angolare e lo spin sono accoppiati fra loro. Si definisce quindi
un operatore momento angolare totale
#» #» #»
J = S + L,
(10.136)
e se ne studiano le proprietà. Con lo stesso formalismo è possibile descrivere anche un sistema di due
corpi, ciascuno con un suo momento angolare (orbitale o di spin), del quale si può quindi considerare
il momento angolare totale. Manterremo quindi per la semplicità la notazione Eq. (10.136), intendendo
#»
#»
che S ed L siano generalmente due operatori di momento angolare che vivono in spazi diversi (spin e
momento angolare di una stessa particella, spin oppure momenti angolari di due diverse particelle).
#» #»
Poiché vivono in spazi diversi, gli operatori L e S commutano tra loro:
[Li , Sj ] = 0
(10.137)
166
Il momento angolare
per ogni i, j. Le componenti dell’operatore momento angolare totale Eq. (10.136) soddisfano le regole di
commutazione del momento angolare
[Ji , Jj ] = i~εijk Jk ,
(10.138)
[Ji , Jj ] = [Si + Li , Sj + Lj ] = [Li , Lj ] + [Si , Sj ] = i~εijk (Lk + Sk ).
(10.139)
infatti
Ne segue quindi che
[J 2 , Ji ] = 0.
(10.140)
Pertanto possiamo diagonalizzare simultaneamente J 2 e Jz .
Ci chiediamo ora se sia possibile diagonalizzare simultaneamente il momento angolare totale ed i due
momenti angolari che lo compongono. Osserviamo che
[J 2 , L2 ] = [(L + S)2 , L2 ] = [L2 + S 2 + 2Li Si , L2 ] = 0,
(10.141)
visto che [L2 , Li ] = 0. Analogamente,
[J 2 , S 2 ] = 0.
(10.142)
Si ha inoltre
[Jz , L2 ] = [Lz + Sz , L2 ] = 0,
2
2
[Jz , S ] = [Lz + Sz , S ] = 0,
(10.143)
(10.144)
e quindi, simultaneamente a J 2 e Jz è possibile diagonalizzare anche S 2 e L2 .
Notiamo invece che
[J 2 , Lz ] = [L2 + 2Li Si + S 2 , Lz ] = 2[Li Si , Lz ] = 2[Li , Lz ]Si = 2i~εizk Lk Si 6= 0.
(10.145)
Un discorso analogo vale per il commutatore [S 2 , Sz ]. Pertanto non è possibile diagonalizzare simultaneamente anche questi due operatori. Concludendo, se scegliamo di diagonalizzare J 2 ed una delle sue
componenti possiamo anche diagonalizzare L2 ed S 2 ma non le loro singole componenti.
Possiamo quindi fare due diverse scelte di base per gli stati del sistema: gli stati |j jz ` si, caratterizzati
dagli autovalori degli operatori J 2 , Jz , L2 e S 2 , oppure gli stati |` s `z sz i, caratterizzati dagli autovalori
degli operatori L2 , Lz , S 2 e Sz . Possiamo passare da una base all’altra attraverso una trasformazione
unitaria introducendo una risoluzione dell’identità:
X
|` s `z sz i =
|j jz ` sihj jz ` s|` s `z sz i
(10.146)
jjz
|j jz ` si =
X
|` s `z sz ih` s `z sz |j jz ` si.
(10.147)
`z sz
I coefficienti hj jz ` s|` s `z sz i e h` s `z sz |j jz ` si sono noti come coefficienti di Clebsch-Gordan.
Per determinare i coefficienti di Clebsch-Gordan, dobbiamo prima capire quali sono i valori possibili
di j e jz per tali ` ed s. Naturalmente, per fissi ` ed s, vi sono (2` + 1)(2s + 1) stati di base |` s `z sz i.
Dobbiamo quindi capire quali valori di j e jz ci forniscono un insieme di (2` + 1)(2s + 1) stati |` s `z sz i
che possiamo esprimere come combinazioni lineari di stati |` s `z sz i ottenendo cosı̀ una nuova base.
A tal fine, osserviamo innanzitutto che
h` s sz `z |j jz ` si ∝ δjz ,`z +sz .
(10.148)
Infatti per costruzione Jz = Lz + Sz e quindi
0 = h` s sz `z |Jz − Lz − Sz |j jz ` si = (jz − `z − sz )~h` s sz `z |j jz ` si,
(10.149)
10.5 Composizione di momenti angolari
167
che implica appunto che o jz = `z + sz , oppure h` s sz `z |j jz ` si = 0. Questo significa che per ogni
dato valore di jz lo stato |j jz ` si è una combinazione lineare esclusivamente degli stati |` s sz `z i tali
che jz = `z + sz .
Ne segue in particolare che il massimo valore accessibile di jz è pari alla somma dei massimi valori
accessibili di `z ed sz
jzmax = `max
+ smax
,
z
z
(10.150)
ma `max
= `, smax
= s e quindi da un lato, il massimo valore possibile di j è j = ` + s, dall’altro, lo stato
z
z
|j = ` + s jz = j ` si può essere ottenuto in un modo solo
|j = ` + s jz = j ` si = |` s `z = ` sz = si.
(10.151)
Notiamo però che il valore jz = ` + s − 1 può essere ottenuto in due modi diversi nella base |` s sz `z i,
e quindi lo stato |j = ` + s jz = ` + s − 1`si è una sovrapposizione degli stati |` s `z = ` sz = s − 1i e
|` s `z = ` − 1 sz = si. Possiamo a questo punto rispondere alla domanda di partenza: quali e quanti
valori di j e jz forniscono una base, attraverso un semplice conteggio degli stati. Dimostriamo infatti che
se
|` − s| ≤ j ≤ ` + s
(10.152)
allora il numero di stati della base |j jz ` si è pari a (2` + 1)(2s + 1), ossia al numero di stati nella base
|` s sz `z i. Si ha
`+s
X
(2j + 1) =
j=`−s
2s
X
(2(k + ` − s) + 1)
k=0
= (1 + 2(` − s))
2s
X
+2
k=0
2s
X
k=0
1
k = (2s + 1)(2` − 2s + 1) + 2 2s(2s + 1) = (2` + 1)(2s + 1).
2
(10.153)
Visto che gli stati |j, jz , `, si sono tutti linearmente indipendenti ed ortonormali (infatti sono associati
a diversi autovalori di operatori commutanti), e possono essere scritti come combinazioni lineari degli stati
|`, `z , s, sz i, essi possono essere scelti come nuovi vettori di base. Concludiamo quindi che per fissi `, s gli
stati |j jz ` si forniscono una base ortonormale completa purché j vari nell’intervallo Eq. (10.152), con
−j ≤ jz ≤ j. I coefficienti di Clebsch-Gordan possono essere a questo punto determinati per costruzione
esplicita, come vediamo in un esempio esplicito.
10.5.3
Composizione di due spin
1
2
Consideriamo ora in particolare l’esempio di un sistema composto da due sottosistemi di spin
esempio un sistema di due elettroni. Gli stati possibili sono quindi gli stati
1
2
1
|s1 =
2
1
|s1 =
2
1
|s1 =
2
|s1 =
1
2
1
s2 =
2
1
s2 =
2
1
s2 =
2
s2 =
1 z
1
s2 = i ≡ | + +i
2
2
1 z
1
z
s1 = s2 = − i ≡ | + −i
2
2
1 z
1
z
s1 = − s2 = i ≡ | − +i
2
2
1 z
1
z
s1 = − s2 = − i ≡ | − −i,
2
2
sz1 =
1
2:
ad
(10.154)
(10.155)
(10.156)
(10.157)
dove nell’ultimo passaggio si è introdotta per semplicità una notazione compatta.
Definiamo ora gli operatori di momento angolare totale
S i = S1i + S2i ,
(10.158)
168
Il momento angolare
e costruiamo gli stati che sono autostati simultanei di S 2 , Sz , S12 ed S22 . La condizione |s1 − s2 | ≤ S ≤
s1 + s2 implica immediatamente che i valori permessi dello spin totale sono S = 0, 1. I quattro stati,
nella base in cui è diagonale lo spin totale, sono quindi i tre stati di spin uno
|1 1i;
|1 0i
|1 − 1i,
(10.159)
(tripletto) e lo stato di spin zero
|0 0i
(10.160)
(singoletto).
Vogliamo ora determinare i coefficienti di Clebsch-Gordan. L’Eq. (10.151) implica immediatamente
che
|1 1i = | + +i
(10.161)
poiché entrambi gli stati sono normalizzati a 1, e ponendo arbitrariamente ad uno la fase relativa (questa
è una scelta del tutto convenzionale). Possiamo costruire lo stato |1 0i osservando che la Eq. (10.158)
implica
S ± = S1± + S2± ,
(10.162)
dove S ± , S1± e S2± sono rispettivamente gli operatori di innalzamento ed abbassamento per lo spin totale
e per ciascuno dei due spin. Ma combinando la Eq. (10.162) con la Eq. (10.161) si ha che
S − |1 1i = (S1− + S2− )| + +i.
Ricordando che per qualunque operatore di momento angolare
p
S − |S Sz i = ~ S(S + 1) − Sz (Sz − 1)|S Sz − 1i
(10.163)
(10.164)
troviamo subito che
√
~ 2|1 0i = ~(| − +i + | + −i)
(10.165)
1
|1 0i = √ (| − +i + | + −i).
2
(10.166)
ossia
Lo stato |1 − 1i potrebbe essere costruito agendo ancora con l’operatore di abbassamento, ma è più
semplice osservare che
|1 − 1i = | − −i.
(10.167)
Infine, lo stato |0 0i è, per la Eq. (10.148) necessariamente una combinazione di | + −i e | − +i, come lo
stato |1 0i.
|0 0i = a| + −i + b| − +i.
(10.168)
Inoltre deve essere ortogonale a tutti gli altri autostati. In particolare
h1 0|0 0i = 0.
(10.169)
1
|0 0i = √ (| − +i − | + −i),
2
(10.170)
Questo è sufficiente a determinare
10.5 Composizione di momenti angolari
169
a meno di una fase arbitraria. Questo metodo può essere utilizzato in generale per combinare momenti
angolari: si parte dallo stato più alto e poi si agisce con gli operatori di innalzamento e abbassamento.
Concludiamo con una osservazione. In questo esempio, siamo partiti da un sistema di due particelle
aventi spin 12 , che a priori sono completamente identiche, nel senso che lo spazio degli stati fisici per i due
sottosistemi è lo stesso. Gli stati |s1z s2z i distinguono le due particelle assegnando a ciascuna delle sue un
valore ben definito della terza componente dello spin. Quando però si passa agli autostati di spin totale
|s sz i si perde l’informazione circa la singola particella: lo stato del sistema complessivo è univocamente
determinato, ma non è più possibile distinguere le due particelle. Abbiamo cioè fabbricato un sistema
collettivo, i cui stati sono simmetrici o antisimmetrici sotto lo scambio delle particelle:
• |1 1i, |1 0i e |1 − 1i sono simmetriche
• |0 0i è antisimmetrica.
Come vedremo più avanti nel Capitolo 14, questo non è un fatto accidentale: il fatto che la funzione
d’onda di un sistema quantistico di oggetti identici sia simmetrica oppure antisimmetrica sotto scambio
è una proprietà generale.
170
Il momento angolare
Capitolo 11
Problemi tridimensionali
Abbiamo ora tutti gli strumenti per affrontare il problema della determinazione dello spettro di un’hamiltoniana tridimensionale invariante per rotazioni. Dopo una discussione generale della struttura dell’equazione di Schrödinger radiale e della forma delle sue soluzioni, affronteremo due problemi tridimensionali, e cioé l’oscillatore armonico isotropo, e l’atomo di idrogeno.
11.1
L’equazione di Schrödinger radiale
Il nostro punto di partenza è una generica hamiltoniana tridimensionale invariante per rotazione, che
possiamo ad esempio pensare come il risultato di una separazione di variabili di un problema a due corpi
con potenziale centrale
H=
p2
L2
p2
+ V (r) = r +
+ V (r)
2m
2m 2mr2
(11.1)
dove nell’ultimo passaggio abbiamo separato il termine cinetico in parte angolare e parte radiale secondo
la Eq. (9.127), e con l’impulso radiale pr definito nella Eq. (9.125).
Il nostro obiettivo è di risolvere l’equazione agli autovalori
H|ψi = E|ψi
(11.2)
sfruttando l’invarianza per rotazioni ([Li , H] = 0, V = V (r)), che implica la possibilità di diagonalizzare
contemporaneamente gli operatori H, L2 , Lz . Poiché le autofunzioni del momento angolare sono un
insieme completo nello spazio delle funzioni sulla sfera (si ricordino le Eq. (10.81,10.82)) la richiesta che
la funzione d’onda sia un’autofunzione del momento angolare, cioè che abbia valori definiti di `, m, ne
fissa completamente la dipendenza angolare. In altri termini, possiamo sempre decomporre la funzione
d’onda secondo la Eq. (10.130) (di cui ora stiamo considerando il caso particolare in cui lo spin è nullo e
quindi non vi è somma sugli spin), e se `, m sono fissi solo un termine contribuisce alla sommatoria.
Una autofunzione simultanea di energia e momento angolare è quindi fattorizzabile
ψE`m ( #»
x ) = Y`m (ϑ, ϕ)φE`m (r).
L’equazione agli autovalori prende quindi la forma
2
pr
L2
+
+ V (r) Y`m (ϑ, ϕ)φ(r) = EY`m (ϑ, ϕ)φE`m (r),
2m 2mr2
da cui discende immediatamente l’equazione di Schrödinger radiale
2
pr
~2 `(` + 1)
+
+ V (r) φE` (r) = EφE` (r),
2m
2mr2
(11.3)
(11.4)
(11.5)
172
Problemi tridimensionali
dove abbiamo rimosso la dipendenza da m dell’autofunzione in quanto manifestamente l’autovalore di
energia non dipende da m: vi sarà quindi degenerazione 2` + 1 rispetto a m per fissi E, `. Notiamo
che il problema non è però separabile in senso stretto, secondo la definizione data nella Sezione 9.2.2:
l’hamiltoniana non può essere scritta come somma di due hamiltoniane commutanti, in quanto il termine
angolare proporionale ad L2 dipende da r, che non commuta con pr . La conseguenza di questo fatto è che
benché le autofunzioni sono fattorizzabili secondo la Eq. (11.3), le autofunzioni radiali φE` (r) dipendono
dal valore del momento angolare `, cioè a differenza che nel caso di una hamiltoniana fattorizzabile in
senso stretto le autofunzioni non possono essere scritte come prodotto di autofunzioni di due hamiltoniane
indipendenti l’una dall’altra.
11.1.1
Funzione d’onda radiale
L’equazione di Schrödinger radiale Eq. (11.5) si semplifica notevolmente definendo
u(r)
r
φ(r) =
(11.6)
in seguito al fatto che
pr φ(r) = −i~
1
∂
+
∂r r
u(r)
1 ∂u
= −i~
,
r
r ∂r
(11.7)
da cui discende immediatamente che
pnr φ(r) = (−i~)n
1 ∂nu
.
r ∂rn
(11.8)
Quindi l’azione dell’operatore impulso radiale sulla funzione u è particolarmente semplice.
La ragione della semplificazione può essere capita osservando che il prodotto scalare tra due vettori di
stato corrispondenti ad autofunzioni del momento angolare φ( #»
x ) = Y`0 m0 (ϑ, ϕ)τ (r) e ψ = Y`m (ϑ, ϕ)χ(r)
ha la forma
Z ∞
Z
Z ∞
hφ|ψi =
dr r2 τ ∗ (r)χ(r) d cos ϑdϕ Y`∗0 m0 (ϑ, ϕ)Y`m (ϑ, ϕ) = δ``0 δmm0
dr r2 τ ∗ (r)χ(r). (11.9)
0
0
Ponendo ora
χ(r) =
χ̄
;
r
τ (r) =
τ̄
r
(11.10)
si trova
Z
hφ|ψi = δ``0 δmm0
∞
dr τ̄ ∗ (r)χ̄(r),
(11.11)
0
ossia la ridefinizione della funzione d’onda radiale assorbe il fattore dovuto alla misura di integrazione.
∂
Questo in particolare implica che l’operatore −i ∂r
sulle funzioni ridefinite è hermitiano, il che spiega
∂
perché sulle funzioni ridefinite l’impulso radiale agisca proprio come −i ∂r
, secondo la Eq. (11.7).
Possiamo ora risolvere l’equazione agli autovalori con la sostituzione appena introdotta, in modo tale
da trasformarla in una equazione unidimensionale. In termini della funzione d’onda radiale ridefinita u(r)
l’equazione di Schrödinger radiale diventa
~2 ∂ 2
~2 `(` + 1)
−
+
+ V (r) u(r) = Eu(r).
(11.12)
2m ∂r2
2mr2
Questa ha la forma di un’equazione di Schrödinger unidimensionale, con un potenziale efficace dato dalla
somma di un termine radiale e di un termine centrifugo repulsivo (barriera centrifuga di potenziale), il cui
effetto aumenta al crescere di `. Tuttavia, l’Eq. (11.12) differisce da un’equazione di Schrödinger unidimensionale standard perché la coordinata radiale é r ≥ 0, ed inoltre perché la soluzione deve soddisfare le
condizioni che corrispondono alla sua interpretazione come funzione d’onda radiale, e che ora discutiamo.
11.1 L’equazione di Schrödinger radiale
11.1.2
173
Condizioni al contorno ed andamenti asintotici
In primo luogo, ci chiediamo quali debbano essere i comportamenti asintotici u(r) per r → 0 e r → ∞.
La funzione d’onda deve poter essere normalizzabile, ossia l’integrale
Z ∞
Z ∞
2
2
dr |u(r)|2 = K
(11.13)
dr r |φ(r)| =
0
0
deve essere convergente: la |u(r)|2 deve avere nell’origine al più una singolarità integrabile. La condizione
affinché questo accada è
1
r→∞ 1
u(r) ∼ β ; β < .
(11.14)
r
2
Tuttavia, per potenziali non eccessivamente singolari nell’origine la u(r) soddisfa una condizione più
restrittiva. Infatti, si dimostra che ∆ 1r ∝ δ (3) (~x). Ne segue che, se φ(r) nell’origine diverge almeno come
1
r è possibile soddisfare l’equazione di Schrödinger solo se il potenziale diverge almeno come una delta di
Dirac. Per potenziali che si comportano come una funzione anziché come una distribuzione quindi φ(r)
deve divergere meno di 1r e quindi la u soddisfa la condizione al contorno
u(r) = 0.
(11.15)
Andamento nell’origine
Per r → 0 domina il termine centrifugo, a meno che il potenziale non cresca più rapidamente che r12 .
Un potenziale attrattivo che cresca come r12 o più è patologico: si dimostra infatti che esso dà luogo ad
uno spettro di energia che non è limitato inferiormente. Un potenziale repulsivo che cresca come r12 non
ha nulla di intrinsecamente patologico e può semplicemente essere visto come una correzione al termine
centrifugo, che ha lo stesso andamento. Un potenziale repulsivo che cresca più che r12 dà luogo a funzioni
d’onda che quando r → 0 decrescono in modo molto rapido, dipendente dalla forma del potenziale.
Consideriamo quindi il caso in cui domina il termine centrifugo `(`+1)
r 2 . L’equazione di Schrödinger
diventa in tal caso
~2 00
~2 `(` + 1)
−
u (r) = −
u(r)
(11.16)
2m
2mr2
la cui soluzione generale è
u(r) = Ar`+1 + Br−` .
(11.17)
La richiesta che u(r) si annulli nell’origine, ma anche la più debole richiesta di integrabilità Eq. (11.14),
implicano quindi che le uniche soluzioni accettabili siano della forma
u(r) = Ar`+1 .
(11.18)
Troviamo quindi che per qualunque valore di ` vale la Eq. (11.15).
Andamento all’infinito
L’andamento all’infinito è sempre del tipo di quello di particella libera purché il potenziale all’infinito si
annulli. Se limr→∞ V (r) = 0 allora l’equazione di Schrödinger al limite diventa
~2 00
u (r) = Eu(r).
(11.19)
2m
Questo implica che qualunque stato legato (cioè avente autovalore di energia negativo) ha un andamento
−
u(r) = Ce−βr
(11.20)
con
r
2m|E|
.
(11.21)
~
Se il potenziale all’infinito non si annulla l’andamento all’infinito è determinato da quello del potenziale
e va studiato caso per caso.
β=
174
Problemi tridimensionali
Stati legati
Ci si può infine chiedere quando siano da aspettarsi stati legati per un potenziale tridimensionale che si
annulli all’infinito. Si è visto che nel caso unidimensionale esiste sempre almeno uno stato legato. Lo stato
fondamentale è pari e gli stati eccitati erano una successione di stati a parità alternata. Il problema radiale
associato ad un problema tridimensionale può essere interpretato come un problema unidimensionale con
r ≥ 0. Tuttavia abbiamo visto che si deve avere u(r) → 0. Quindi solo le soluzioni dispari del problema
unidimensionale associato (che si annullano nell’origine) sono accettabili, e quindi in generale non è detto
che lo stato fondamentale esista. Osserviamo infine che, visto che il potenziale centrifuo è repulsivo, in
generale il numero di stati legati decresce al crescere di `.
11.1.3
La particella libera
L’equazione agli autovalori per l’Hamiltoniana per la particella libera assume la forma
−~2
∆
ψ( #»
x ) = Eψ( #»
x ).
2m
(11.22)
Le soluzioni si determinano facilmente in coordinate cartesiane, dove hanno la forma di onde piane
tridimensionali
#»
ψ #»
k (x) =
#» #»
1
(2π)
3
2
ei k · x ,
(11.23)
normalizzabili in senso improprio
Z
(3) #»
#»
( x − #»
x 0 ),
d3 k ψ ∗#»
( #»
x 0 )ψ #»
k (x) = δ
k
(11.24)
con autovalori
E=
#»
~2 k 2
.
2m
(11.25)
Il problema tuttavia, oltre ad un’invarianza per traslazioni, presenta una invarianza per rotazioni; è
possibile quindi ridurre il problema a un problema radiale ed a un problema angolare, esprimendo le
autofunzioni nella forma
uE` (r)
ψE`m ( #»
x ) = Y`m (ϑ, ϕ)
,
r
(11.26)
dove uE` (r) soddisfa l’equazione
−
~2 ∂ 2 uE` (r) ~2 `(` + 1)
+
uE` (r) = EuE` (r),
2m ∂r2
2mr2
(11.27)
ossia
~2
`(` + 1)
−u00E` (r) +
u
(r)
− uE` (r) = 0.
E`
2mE
r2
q
~2 1
1
Ponendo ora r0 = kr, con k = 2mE
~2 , in modo che 2mE r 2 = r 0 2 , l’equazione diventa
d2 uE` (r0 ) `(` + 1)
−
uE` (r0 ) + uE` (r0 ) = 0.
dr0 2
r0 2
(11.28)
(11.29)
Questa è la cosiddetta equazione di Bessel. Date le condizioni al contorno, è possibile scrivere le soluzioni
di tale equazione come
φE` (r) =
uE` (r0 )
= j` (rk),
r
(11.30)
11.2 L’oscillatore armonico isotropo
175
dove nell’ultimo passaggio si è introdotta la funzione di Bessel j` , e la dipendenza dall’energia è contenuta
del fattore k nell’argomento di quest’ultima.
Le autofunzioni di particella libera possono pertanto essere scritte come
ψE`m ( #»
x ) = Y`m (ϑ, ϕ)j` (kr).
(11.31)
È noto che l’andamento asintotico della funzione di Bessel è proprio
r→0
j` (r) ∼ r` .
11.2
(11.32)
L’oscillatore armonico isotropo
Il potenziale armonico isotropo
V (r) =
1
1
mω 2 (x2 + y 2 + x2 ) = mω 2 r2 .
2
2
(11.33)
è fattorizzabile in coordinate cartesiane, come abbiamo visto nella sezione 9.2.3. Tuttavia, esso può
essere anche pensato come un potenziale centrale, e quindi l’equazione agli autovalori è anche trattabile
separando il moto angolare e risolvendo l’equazione agli autovalori per l’hamiltoniana radiale.
Cerchiamo quindi autofunzioni di energia |E ` mi fattorizzate, della forma Eq. (11.3). Per queste
autofunzioni, il problema agli autovalori prende la forma
H|n ` mi = H` |n ` mi = En` |n ` mi,
(11.34)
dove n numera le autofunzioni e gli autovalori per fisso `, e l’hamiltoniana H` è data da
H` =
11.2.1
p2r
~2 `(` + 1) 1
+
+ mω 2 r2 .
2m
2mr2
2
(11.35)
Stati con ` = 0
Notiamo che nel caso ` = 0 l’hamiltoniana Eq. (11.35) diventa
H0 =
p2r
1
+ mω 2 r2 .
2m 2
(11.36)
ed è quindi identica a quella di un oscillatore armonico unidimensionale, anche se le funzioni d’onda
soddisfano diverse condizioni al contorno. Basandoci su questa osservazione, esploriamo la possibilità di
determinare lo spettro con metodi algebrici come nel caso unidimensionale.
Osserviamo innanzitutto che impulso e coordinata radiali soddisfano la relazione di commutazione
canonica
[pr , r] = −i~.
(11.37)
Definiamo perciò:
r
mω
2~
r
mω
d†0 =
2~
d0 =
pr mω
pr r−i
.
mω
r+i
(11.38)
dimodoché possiamo scrivere
H0 = ~ω
d†0 d0
1
+
2
,
(11.39)
176
Problemi tridimensionali
Visto che
[d0 , d†0 ] = 1
(11.40)
lo stesso argomento del caso unidimensionale porta a concludere che d0 e d†0 agiscono come operatori di
abbassamento ed innalzamento, ed a riprodurre lo spettro trovato nel caso unidimensionale.
Ricordiamo però che la funzione d’onda radiale deve soddisfare la condizione al contorno Eq. (11.15), ed
inoltre che l’equazione agli autovalori soddisfatta dalla u(r), Eq. (11.12) coincide con quella del corrispondente problema unidimensionale. Ma le autofunzioni di energia per l’oscillatore armonico unidimensionale
sono
2
ψk (x) = N e−cx Hk (x);
ψk (x) = (−1)k ψk (−x).
(11.41)
Pertanto, solo se k è dispari, k = 2n + 1, si ha ψ2n+1 (0) = 0. Dobbiamo perciò scartare tutti gli autostati
di energia con k pari del problema unidimensionale, e troviamo che lo spettro di autovalori En` con ` = 0
è dato da
1
.
(11.42)
En0 = ~ω 2n + 1 +
2
Osserviamo che il caso ` = 0 è il caso maggiormente attrattivo, a causa dell’annullarsi del potenziale
centrifugo. Lo stato E00 è pertanto lo stato fondamentale, con energia
3
E00 = ~ω .
2
(11.43)
Il fatto che le condizioni al contorno selezionino un sottoinsieme degli autostati algebricamente permessi non ci sorprende. Si tratta di una situazione analoga a quella che abbiamo incontrato nel caso
di del momento angolare, dove l’analisi delle relazioni di commutazione ci ha portato a concludere che
sia i valori interi che quelli semi-interi del momento angolare sono permessi. Tuttavia, imponendo la
condizione al contorno Eq. (10.85) i valori interi del momento angolare semi-interi vengono esclusi.
11.2.2
Costruzione degli stati con ` generico
Quando ` 6= 0 nell’hamiltoniana compare anche un termine proporzionale a 1r , quindi ci serve anche il
commutatore di tale operatore con pr . Questo può essere determinato facilmente ricordando che per una
funzione generica f (r) si ha [pr , f (r)] = −i~ ∂f
∂r , da cui
i~
1
= 2.
pr ,
r
r
(11.44)
Vogliamo costruire degli operatori di creazione e distruzione che generalizzino gli operatori d0 e d†0
al caso di ` generico, e ci permettano di scrivere una relazione analoga alla (11.39). A questo scopo,
definiamo gli operatori
r
~`
pr
mω
d` =
r+
+i
2~
mωr
mω
r
mω
~`
pr
†
d` =
r+
−i
,
(11.45)
2~
mωr
mω
che per ` = 0 si riducono agli operatori Eq. (11.38) definiti in precedenza.
Definiamo quindi una generalizzazione dell’operatore numero del caso unidimensionale, ossia
D` ≡ d†` d` .
(11.46)
11.2 L’oscillatore armonico isotropo
177
La sua espressione esplicita è
d†` d`
)
p2r
i
~`
+ 2 2−
pr , r +
m ω
mω
mωr
2
2 2
mω 2
pr
2~`
~ `
i
~` i~
=
r + 2 2 2+ 2 2+
−
−i~ +
2~
m ω r
m ω
mω mω
mω r2
2
2
1
1
pr
1
~ `(` + 1)
=
+`− ,
+ mω 2 r2 +
2
~ω 2m 2
2mr
2
(11.47)
1
1
H` + ` − .
~ω
2
(11.48)
mω
=
2~
(
~`
r+
mωr
2
che implica
D` =
Pertanto, gli operatori D` ed H` hanno i medesimi autostati, e, detti En` gli autovalori di D`
D` |n `i = En` |n `i
(11.49)
la Eq. (11.48) implica
1
1
En` + ` − .
(11.50)
~ω
2
Naturalmente, nel caso ` = 0, B` è il consueto operatore numero, ed il suo spettro si ottiene combinando
la Eq. (11.42) con la Eq. (11.50):
En` =
En0 = 2n + 1,
(11.51)
che, come si è detto, contiene metà degli stati del problema unidimensionale associato in conseguenza
della condizione al contorno.
Per determinare lo spettro per ` generico introduciamo ora anche l’operatore
D` ≡ d` d†` .
Un calcolo analogo al precedente ci porta a concludere che
(
2
)
~`
p2r
i
~`
mω
r+
+ 2 2+
pr , r +
D` =
2~
mωr
m ω
mω
mωr
2
1
pr
1
~2 `(` − 1)
1
=
+ mω 2 r2 +
+`+ ,
~ω 2m 2
2mr2
2
(11.52)
(11.53)
che implica ora
D` =
1
1
H`−1 + ` + .
~ω
2
(11.54)
Usando questi risultati, possiamo mostrare che operatori d†` e d` agiscono come operatori di creazione
e distruzione. Osserviamo innanzitutto che D` e D` sono collegati, in quanto
1
3
H` + ` +
~ω
2
1
1
D` =
H` + ` −
~ω
2
D`+1 =
(11.55)
da cui
D`+1 = D` + 2,
(11.56)
178
Problemi tridimensionali
o, equivalentemente
D` = D`−1 + 2.
(11.57)
Notiamo poi che
d` d†` d` = d` D` = D` d` = (D`−1 + 2) d`
d†` d` d†` = D` d†` = d†` D` = d†` (D`−1 + 2) ,
(11.58)
dove nell’ultimo passaggio abbiamo usato le Eq. (11.56-11.57).
Le Eq. (11.58) sono sufficienti a mostrare che d†` e d` agiscono come operatori di creazione e distruzione.
Infatti, supponiamo di conoscere un autostato |n `i di D` . Si vede immediatamente che d†`+1 |n `i è
anch’esso un autostato, ma di D`+1 . Infatti
D`+1 d†`+1 |n `i = d†`+1 (D` + 2) |n `i = (En` + 2)d†`+1 |n `i,
quindi
d†`+1 |n
(11.59)
`i è autostato di D`+1 con autovalore E = En` + 2. Analogamente
D`−1 d` |n `i = d` (D` − 2) |n `i = (En` − 2)d` |n `i,
(11.60)
quindi lo stato d` |n `i è autostato di D`−1 con autovalore En` − 2.
Gli operatori che abbiamo costruito quindi collegano tra loro spettri di operatori diversi. Cominciamo
dal caso ` = 0, per il quale già sappiamo che l’autovalore di energia associato allo stato |n 0i è dato dalla
Eq. (11.51). La Eq. (11.59) implica che
D1 d†1 |n 0i = (En0 + 2) d†1 |n 0i = (2n + 3)d†1 |n 0i
D2 d†2 d†1 |n 0i = (En0 + 4) d†2 d†1 |n 0i = (2n + 5)d†2 d†1 |n 0i
...
Dk+1 d†k+1 . . . d†1 |n 0i = (2n + 2k + 1)d†k+1 . . . d†1 |n 0i
(11.61)
e cosı̀ via. Quindi per ogni autostato di energia con ` = 0 ed En0 = 2n + 1, ossia En0 = ~ω(2n + 3/2),
possiamo costruire una sequenza di autostati |n `i della sequenza di operatori D` aventi autovalori
En1 = 2n + 3
En2 = 2n + 5
..
..
.
.
En` = 2n + 2` + 1.
(11.62)
Dato lo spettro degli autovalori E, possiamo determinare lo spettro degli autovalori di energia,
ricordando la Eq. (11.50), che implica
1
En` = ~ω En` − ` +
,
(11.63)
2
dimodochè gli stati che abbiamo costruito sono anche autostati dell’`-esima hamiltoniana H` Eq. (11.35),
associati ad autovalori (di energia)
3
3
En` = ~ω 2n + ` +
= ~ω N +
,
(11.64)
2
2
avendo posto
N = 2n + `.
(11.65)
Possiamo infine chiederci se gli stati costruiti siano tutti e soli i possibili autostati dell’`-esima hamiltoniana H` . Supponiamo per assurdo che vi sia un altro autostato, associato ad un autovalore diverso
da quelli della sequenza sopra determinata Eq. (11.62). Agendo su questo stato ripetutamente con gli
operatori di distruzione d` è sempre possibile ottenere da esso uno stato con ` = 0. Ma se questo stato
non fosse contenuto nella sequenza originaria, allora avremmo costruito un nuovo autovalore dell’hamiltoniana H0 : ciò è assurdo perchè lo spettro di autovalore En0 Eq. (11.42) contiene tutti gli autovalori di
H0 . Ne concludiamo che lo spettro dell’`-esima H` è proprio dato dalla Eq. (11.64).
11.2 L’oscillatore armonico isotropo
11.2.3
179
Spettro e degenerazione
Abbiamo concluso che l’insieme di autovalori di energia Eq. (11.64) contiene tutti e soli gli autovalori
dell’insieme di hamiltoniane Eq. (11.35) per ` ≥ 0 intero, e quindi fornisce lo spettro dell’oscillatore
armonico isotropo. Possiamo rappresentare graficamente la struttura dello spettro nel modo seguente:
En`
`=0
11
2 ~ω
|2 0i
`=1
|1 1i
d
..
.
|0 3i
|1 0i
|0 2i
5
2 ~ω
3
2 ~ω
`=3
|1 2i
9
2 ~ω
7
2 ~ω
`=2
10
6
|0 1i
3
|0 0i
1
Nell’ultima colonna abbiamo indicato la degenerazione di ogni livello, ottenuta ricordando che per
ogni valore fissato di n, ` vi sono 2` + 1 valori possibili di m. Confrontiamo ora la degenerazione totale
trovata con il valore ottenuto nel caso delle coordinate cartesiane, Eq. (9.57), e cioè d = 12 (N + 1)(N + 2).
Possiamo verificare come questo valore possa essere riottenuto in coordinate sferiche. Distinguiamo il
caso di N pari o dispari:
(
2M
` = 0, 2 . . . 2M
N=
(11.66)
2M + 1 ` = 1, 3 . . . 2M + 1
Nel primo caso possiamo porre ` = 2`0 con 0 ≤ `0 ≤ M . La degenerazione totale è pari al numero di valori
possibili che assume `, facendo attenzione che per ` fissato esiste però anche una ulteriore degenerazione
dovuta ad m, che può assumere 2` + 1 valori. Si ha quindi:
d=
2M
X
(2` + 1) =
M
X
(4`0 + 1).
(11.67)
`0 =0
`=0
Nel caso di N dispari in modo del tutto analogo si ha, ponendo ` = 2`0 + 1 con 0 ≤ `0 ≤ M :
d=
2M
+1
X
M
X
`=0
`0 =0
(2` + 1) =
(4`0 + 3).
(11.68)
In generale
M
X
(4`0 + k) = 4
`0 =0
M
X
`0 =0
`0 + k
M
X
1 = (M + 1)(2M + k).
(11.69)
`0 =0
Se specializziamo il calcolo per i casi in cui N è pari o dispari si ottiene:
N
1
pari (M + 1)(2M + k) =
+ 1 (N + 1) = (N + 1)(N + 2)
2
2
N −1
1
dispari (M + 1)(2M + k) =
+ 1 (N − 1 + 3) = (N + 1)(N + 2).
2
2
(11.70)
(11.71)
Vediamo quindi come il numero di stati associati ad un medesimo valore di energia sia sempre lo stesso,
ma come essi possano essere realizzati o come autostati cartesiani, o come autostati sferici. Naturalmente,
è sempre possibile passare da una base di autostati all’altra attraverso una trasformazione unitaria, in
ciascun sottospazio di energia fissata.
180
11.2.4
Problemi tridimensionali
Il teorema di degenerazione
Il risultato che abbiamo trovato fornisce un esempio del teorema di degenerazione, che afferma che, data
una Hamiltoniana H e due operatori A, B, tali che
[H, A] = [H, B] = 0
(11.72)
[A, B] 6= 0
(11.73)
ma
allora lo spettro dell’hamiltoniana è necessariamente degenere.
La dimostrazione è immediata. Supponiamo per assurdo che lo spettro di H non sia degenere. In tal
caso, per ogni autovalore di energia En vi è un solo autostato |ni tale che
H|ni = En |ni.
Ma poichè A e H commutano, sono diagonalizzabili simultaneamente, e quindi necessariamente
A|ni = an |ni.
(11.74)
B|ni = bn |ni.
(11.75)
D’altra parte, lo stesso vale per B, quindi
Ne segue che gli autostati di A sono anche autostati di B: ma due operatori aventi una base comune di
autostati sono simultaneamente diagonalizzabili, e quindi commutano, [A, B] = 0, contro l’ipotesi.
Vediamo cosı̀ che è solo grazie all’esistenza di più autostati diversi associati ad uno stesso autovalore
di energia che è possibile costruire degli stati che siano autostati sia dell’hamiltoniana che dell’uno o
dell’altro degli operatori con cui questa commuta, ma non di entrambi: in ogni sottospazio degenere di
autostati dell’hamiltoniana diverse combinazioni lineari degli stati associati ad un medesimo autovalore
diagonalizzano l’uno o l’altro degli operatori. Ad esempio, qualunque hamiltoniana invariante per rotazioni commuta con ciascuno dei generatori del momento angolare, i quali però non commutano fra loro.
Quindi l’hamiltoniana può contenere un termine proporzionale ad L2 (che commuta con tutti gli Li ) ma
non un termine proporzionale ad uno degli Li , ad esempio Lz . Ne segue che se scegliamo di diagonalizzare
l’hamiltoniana simultaneamente ad L2 ed Lz , tutti gli stati associati allo stesso valore di `, ma a diversi
valori di m, sono degeneri.
Questo suggerisce inoltre un modo di legare il grado di degenerazione alla simmetria complessiva
dell’hamiltoniana. Nell’esempio del momento angolare, se l’hamiltoniana non ha nessun’altra simmetria,
ossia se non ci sono altri operatori oltre ai tre generatori del momento angolare che commutano con
l’hamiltoniana, la degenerazione complessiva è data dal numero di stati corrispondenti a diversi valori di
m, ma associati allo stesso valore di `; infatti una rotazione cambia il valore di m, ma lascia ` invariato.
Nel caso più generale, determiniamo tutti gli operatori diagonalizzabili simultaneamente all’hamiltoniana. Poi determiniamo tutti gli insiemi di stati che si possono ottenere l’uno dall’altro attraverso
trasformazioni ottenute esponenziando questi operatori. La degenerazione è il numero di stati contenuti
in ciascun insieme di stati di questo tipo: tecnicamente, questa è la dimensione della rappresentazione
irriducibile del gruppo di trasformazioni ottenuto esponenziando i generatori.
Nell’esempio del momento angolare, il gruppo è il gruppo delle rotazioni SO(3) (se si ammettono solo
momenti angolari interi) o SU(2) (se si ammettono valori sia interi che semi-interi), le cui rappresentazioni
irriducibili sono classificate dal valore di `: ciò significa che per ogni ` fissato gli stati con diversi m si
ottengono l’uno dall’altro per azione delle trasformazioni del gruppo, ma non c’è nessuna trasformazione
che può cambiare il valore di `. Il numero di stati per fisso ` fornisce la degenerazione.
11.2.5
Simmetria dell’oscillatore tridimensionale isotropo
Nel caso dell’oscillatore armonico tridimensionale isotropo, abbiamo visto che il grado di degenerazione è
maggiore di quello dovuto all’invarianza per rotazioni: infatti, per ogni valore di N vi sono in generale più
11.2 L’oscillatore armonico isotropo
181
valori di ` che corrispondono allo stesso valore di energia, si ricordino le Eq. (11.67-11.68). Quindi devono
esistere altri operatori, oltre agli operatori di momento angolare, che commutano con l’hamiltoniana, ma
non fra loro.
Per capire quali sono, torniamo alle coordinate cartesiane, e scriviamo
1
1
1
H = Hx + Hy + Hz = ~ω a†x ax +
+ ~ω a†y ay +
+ ~ω a†z az +
2
2
2
3
X †
1
= ~ω
ai ai +
2
i=1
(11.76)
con
r
ai =
mω
2~
xi + i
pi
mω
.
(11.77)
È facile vedere che tutti i nove operatori
Oij ≡ a†i aj
(11.78)
commutano con H. Infatti, ricordando che [a†i , aj ] = −δij , si ha
!
[Oij , H] =
~ω[a†i aj ,
X
a†k ak ]
= ~ω
k
[a†i ,
X
a†k ak ]aj
+
a†i [aj ,
X
k
a†k ak ]
= ~ω(−a†i aj − a†i aj ) = 0.
k
(11.79)
D’altra parte, gli Oij in generale non commutano tra di loro:
[Oij , Oab ] = [a†i aj , a†a ab ] = a†i [aj , a†a ab ] + [a†i , a†a ab ]aj = −δib Oaj + δja Oib .
(11.80)
L’hamiltoniana è una combinazione lineare di tre di questi operatori
3
X
1
H=
~ω Oii +
2
i=1
,
(11.81)
e quindi abbiamo otto operatori che commutano con l’hamiltoniana ma non tra di loro. Le relazione di
commutazione soddisfatte dagli operatori dati sono quelle dei generatori del gruppo SU (3).
È facile vedere che il momento angolare è un sottogruppo del gruppo appena trovato. I momenti
angolari sono infatti proporzionali a differenze tra gli operatori Oij : ad esempio
mω h
px py py px i
x−i
y+i
− y−i
x+i
2~
mω
mω
mω
mω
i
i
= (xpy − ypx ) = Lz ,
(11.82)
~
~
O12 − O21 = (a†1 a2 − a†2 a1 ) =
ed in generale
Li = −i~εijk Ojk .
(11.83)
Questi operatori generano il gruppo SU(2); si può verificare esplicitamente che la degenerazione che
abbiamo trovato è la dimensione delle rappresentazioni irriducibili del gruppo SU(3). Essa è più grande
di quella del gruppo delle rotazioni, che ne è un sottogruppo.
182
11.3
Problemi tridimensionali
Il potenziale coulombiano
La trattazione del potenziale coulombiano (o newtoniano) ha un ruolo molto importante sia in meccanica
classica che in meccanica quantistica. Nel caso classico, porta alla discussione delle orbite dei pianeti: il
problema di Keplero. Nel caso quantistico porta alla determinazione dello spettro di energia degli atomi
idrogenoidi, ed è quindi alla base della struttura della materia.
L’equazione di Scrödinger radiale (11.12) in presenza di potenziale coulombiano è
~2 `(` + 1) Ze2
~2 ∂ 2
+
−
u(r) = Eu(r),
(11.84)
−
2m ∂r2
2mr2
r
dove e è la carica dell’elettrone, e Z la carica del nucleo in unità di carica dell’elettrone, o più generalmente
−e e +Ze sono le due cariche che si attraggono attraverso un potenziale coulombiano.
11.3.1
Analisi dimensionale
La dipendenza dagli autovalori di energia E dai parametri del problema nella Eq. (11.84) è interamente
fissata da considerazioni di natura dimensionale. Per vederlo, riscriviamo il termine cinetico ed il termine
di potenziale sostituendo la variabile radiale r con una sua controparte adimensionale. A questo fine,
definiamo il parametro
a≡
~2
mZe2
(11.85)
detto raggio di Bohr (se e è la carica dell’elettrone). È facile vedere dall’equazione di Schrödinger che
il raggio di Bohr ha le dimensioni di una lunghezza: infatti dimensionalmente il termine cinetico ed il
2
termine di potenziale ci dicono rispettivamente che [ ~m ] = [E][L2 ], e [e2 ] = [E][L]. Definiamo quindi la
variabile adimensionale
r0 = r/a,
in termini della quale l’equazione agli autovalori (11.84) prende la forma
E
1 ∂2
`(` + 1)
1
−
−
+
u(r0 ) = 0
−
2 ∂r0 2
r0
W0
2r0 2
(11.86)
(11.87)
dove
m(Ze2 )2
(11.88)
~2
ha manifestamente le dimensioni di energia, visto che ogni termine nella Eq. (11.87) è adimensionale.
Questo è sufficiente a concludere che gli autovalori di energia hanno la forma
W0 ≡
En = W0 cn
(11.89)
dove cn è un numero puro, e quindi la dipendenza dai parametri del problema è interamente specificata
dalla costante W0 Eq. (11.88).
La determinazione esplicita dei valori di cn si può ottenere mediante la risoluzione dell’equazione
differenziale, ma anche attraverso uno studio delle simmetrie del problema. Quest’ultima è la strada che
seguiremo noi. Diamo tuttavia un breve cenno alla soluzione dell’equazione. A tal fine conviene porre
E
1
= k2
W0
2
(11.90)
∂2
`(` + 1) 2
2
−
+ − k u(r) = 0.
∂r2
r2
r
(11.91)
−
riscrivendo cosı̀ la (11.87) come
11.3 Il potenziale coulombiano
183
Tale scrittura risulta essere particolarmente conveniente ricordando la discussione dei comportamenti
asintotici. Quando r → ∞ l’equazione si riduce infatti a
u00 (r) = k 2 u(r).
(11.92)
r→∞
Di conseguenza u(r) ∼ e−kr , mentre per r → 0 il comportamento della autofunzione deve essere del
tipo r`+1 , ricordando la Eq. (11.18).
Si scrive quindi la soluzione nella forma
u(r) = e−kr r`+1 f (r)
(11.93)
con
f (r) =
∞
X
an rn
(11.94)
n=0
e si determinano i coefficienti an per ricorrenza, sostituendo l’Ansatz Eq. (11.93-11.94) nell’equazione
differenziale (11.91). Si trova che affinché la soluzione sia normalizzabile è necessario che la serie di
potenze ad un certo punto si arresti (cioè che tutti i coefficienti an con n > n0 si annullino), e che questo
a sua volta avviene solo se
k=
1
,
n̄ + `
(11.95)
dove n̄ > 0 è intero. Ne segue che
E=−
1 (Ze2 )2 m 1
,
2
~2
n2
(11.96)
dove si è posto
n = n̄ + `.
(11.97)
Questo spettro è rappresentato graficamente nella Fig. 11.1.
11.3.2
Il modello di Bohr
Prima di affrontare la determinazione dello spettro di energia nel caso quantistico sfruttando le simmetrie
del problema, ricordiamo brevemente come Niels Bohr spiegò i dati sperimentali sullo spettro dell’atomo
di idrogeno attraverso una trattazione intuitiva basata su un’ipotesi di quantizzazione ad hoc.
Specificamente, Bohr suppose che l’elettrone dell’atomo di idrogeno, la cui Lagrangiana dipende da
un potenziale coulombiano, potesse compiere delle orbite semiclassiche circolari e che inoltre il momento
angolare fosse quantizzato in multipli interi di ~. Dal punto di vista della meccanica quantistica non ha
significato parlare di orbite, cosı̀ come non è esatto affermare che il momento angolare sia cosı̀ quantizzato,
poiché sappiamo che la dipendenza del modulo quadro del momento angolare non dipende dal quadrato di
un numero intero, bensı̀ da `(` + 1). Tuttavia, questo semplice modello riproduce esattamente lo spettro
di energia per questo problema.
Seguiamo il ragionamento fatto da Bohr facendo l’ipotesi che la dinamica sia descritta dalla Lagrangiana
L=
Ze2
1
m(ṙ2 + (rϑ̇)2 ) +
.
2
r
(11.98)
Le equazioni di Lagrange sono quindi
d ∂L
∂L
=
dt ∂ ṙ
∂r
d ∂L
∂L
=
.
dt ∂ ϑ̇
∂ϑ
(11.99)
(11.100)
184
Problemi tridimensionali
Figura 11.1: Livelli energetici per l’atomo di idrogeno
Il nostro obuettivo è di esprimere l’energia in termini del momento angolare, eliminando la dipendenza
esplicita dal raggio.
Questo può essere fatto in due passi. In primo luogo, osserviamo che se l’orbita è circolare, ṙ = 0, e
quindi la prima equazione del moto si riduce a
∂L
= 0.
∂r
(11.101)
Dalla Eq. (11.101) possiamo immediatamente dedurre che E = −T . Essa infatti implica che
mrϑ̇2 =
Ze2
,
r2
(11.102)
ma se ṙ = 0 l’energia cinetica si riduce al puro termine radiale T = 21 mr2 θ̇2 e quindi 2T = −V , da cui
E = T + V = −T.
(11.103)
Avendo espresso l’energia totale in termini di energia cinetica, è facile esprimere quest’ultima in termini
del momento angolare sfruttando la seconda equazione del moto, che implica che il momento angolare
l=
∂L
= mr2 θ̇
∂ ϑ̇
(11.104)
è costante. Sostituendo questo risultato nella prima equazione del moto Eq. (11.102)
l2
Ze2
= 2 ,
3
mr
r
(11.105)
esprimiamo il raggio in termini di momento angolare
r=
l2
,
mZe2
(11.106)
11.3 Il potenziale coulombiano
185
da cui troviamo l’espressione per l’energia cinetica indipendente dal raggio
1
1 m(Ze2 )2
1 l2
E = −T = − mr2 ϑ̇2 = −
=−
.
2
2
2 mr
2
l2
(11.107)
Imponendo la condizione di quantizzazione
l = n~
(11.108)
1 m(Ze2 )2 1
,
2
~2
n2
(11.109)
si ottiene cosı̀
E=−
che coincide con lo spettro Eq. (11.96).
11.3.3
Il problema di Keplero e le sue simmetrie
Prima di affrontare il problema quantistico, studiamo le simmetrie del problema classico, usando il
formalismo hamiltoniano, che useremo poi anche nel caso quantistico. L’Hamiltoniana è
H=
#»
p2
Ze2
−
.
2m
r
(11.110)
Abbiamo tuttavia visto che tutta la dipendenza dalle costanti del problema può essere predetta usando
l’analisi dimensionale. Studiamo quindi l’hamiltoniana
H=
#»
p2
1
− ,
2
r
(11.111)
da cui si ricavano le equazioni del moto
#»
x˙ = #»
p
#»
x
#»
p˙ = − 3 .
r
(11.112)
(11.113)
Studiamo ora le simmetrie del problema, attraverso le leggi di conservazione ad esse associate. Sappiamo già che, poiché il potenziale è invariante per rotazioni, il momento angolare si conserva. Si ha
infatti
d #»
d
L = ( #»
x × #»
p ) = 0,
dt
dt
(11.114)
d #» #»
x × #»
p˙ + #»
x˙ × #»
p = 0,
( x × p ) = #»
dt
(11.115)
in quanto
per le Eq. (11.113-11.112).
Inoltre, è possibile esibire un altro vettore le cui componenti si conservano: si tratta del vettore di
Laplace-Runge-Lenz. Per determinarne l’espressione, osserviamo che
#»
d #» #»
x
1
1
#»
#»
#»
˙
( p × L) = ( p × L)i = − 3 × L = − 3 εijk xj Lk = − 3 εijk xj εkab xa pb
dt
r
r
r
i
i
1 ia jb
1
= − 3 (δ δ − δ ib δ ja )xj xa ẋb = − 3 (xi #»
x · #»
x˙ − ẋi r2 )
(11.116)
r
r
ẋi
xi #»
x · #»
x˙
d xi
=
−
=
.
3
r
r
dt r
186
Problemi tridimensionali
Ne segue che il vettore di Laplace-Runge-Lenz
#»
x
#»
#»
M = ( #»
p × L) − ,
r
(11.117)
#»
dM
= 0.
dt
(11.118)
è una costante del moto
Vi sono di conseguenza sette quantità conservate: il momento angolare, il vettore di Lenz, e l’energia.
Tuttavia, un’orbita classica è completamente determinata da sei quantità, e quindi vi possono essere al
massimo sei costanti del moto indipendenti. Infatti, l’orbita può essere interamente ricostruita note tre
velocità e tre posizioni al tempo iniziale. Inoltre, se il sistema è invariante per traslazioni temporali la
scelta del tempo iniziale è irrilevante, e quindi ci si riduce a cinque quantità conservate. Ne segue che delle
sette quantità elencate (le tre componenti del vettore di Lenz, le tre componenti del momento angolare,
e l’energia) solo cinque sono indipendenti.
In effetti, osserviamo che il vettore di Lenz per costruzione giace nel piano dell’orbita, il quale a sua
volta è ortogonale al momento angolare: infatti,
# » #»
M · L = 0,
(11.119)
e pertanto una delle sue componenti non è indipendente. Inoltre, il modulo del vettore di Lenz è
#»
#»
L2
x
#»
#»
#»
#»
p × L) = #»
p 2 L2 + 1 − 2
(11.120)
||M ||2 = || #»
p × L||2 + 1 − 2 · ( #»
r
r
in quanto
#»
#» #»
#»
x · ( #»
p × L) = εijk xi pj Lk = ( #»
x × #»
p ) · L = L 2.
(11.121)
Si ha quindi
#»
#»
||M ||2 = 1 + 2 L 2 H,
(11.122)
e quindi anche il modulo del vettore di Lenz non è indipendente.
Si dimostra che per un’orbita ellittica il vettore di Lenz è diretto lungo l’asse maggiore dell’ellisse.
#»
Si dimostra inoltre che ||M ||2 = 2 , dove è l’eccentricità dell’orbita, che è < 1 per orbite chiuse. Si
vede perciò dalla Eq. (11.122) che l’orbita è chiusa quando l’energia (cioé l’hamitoniana valutata sulla
traiettoria) è H < 0.
11.3.4
Leggi di conservazione nel caso quantistico
Anche in meccanica quantistica, ovviamente, per una hamiltoniana idrogenoide Eq. (11.111) si conservano
il momento angolare e l’energia. Mostriamo ora che anche in questo caso si conserva pure il vettore di
Lenz. Notiamo innanzitutto che poiché pi e Lj non commutano, εijk Lk pj 6= εijk pj Lk . Dati due operatori
che non commutano, il loro anticommutatore è hermitiano. Definiamo quindi l’operatore vettore di Lenz
come
1
xi
pj Lk + Lk pj
xi
pj Lk − Lj pk
xi
= εijk
−
= εijk
− ,
(11.123)
Mi = εijk {pj , Lk } −
2
r̂
2
r̂
2
r̂
ovvero, in notazione vettoriale
#»
#»
#»
p × L) − ( L × #»
p)
x
# » ( #»
M=
− .
2
r
(11.124)
Vogliamo ora dimostrare che il vettore di operatori Eq. (11.124) commuta con l’hamiltoniana. Ricordiamo innanzitutto che
[Li , pj ] = [εiab xa pb , pj ] = εiab [xa , pj ]pb = i~εijb pb
i
j
[L , x ] = i~ε
ijb
xb .
(11.125)
(11.126)
11.3 Il potenziale coulombiano
187
I moduli dei vettori commutano con L e con le sue componenti:
[Li , r] = [Li , || #»
p ||] = 0.
(11.127)
Possiamo ora calcolare il commutatore di ciascuno dei termini che compongono il vettore di Lenz con
l’hamiltoniana. Calcoliamo per primo il commutatore
1
1 ijk
1
ε {pj , Lk }, H = εijk [pj , H]Lk + Lk [pj , H] = εijk [pj , H], Lk .
(11.128)
2
2
2
Abbiamo
j
εijk
1
εijk
x
εijk
,
L
{pj , Lk }, H =
pj , − , Lk =
(−i~)
k
2
2
r
2
|| #»
x ||3
j
i~
x
xj
xa p b + p b xa 3
= − εijk εkab
#»
3
2
|| x ||
r
j
j
i~
x a b
b ax
= − (δ ia δ jb − δ ib δ ja )
x
x
+
p
x
2
r3
r3
i
i~ x #» #» 1 i #» #» xi
i1
=−
x · p − p + p · x 3 −p
.
2 r3
r
r
r
(11.129)
Calcoliamo quindi il commutatore con l’hamiltoniana del secondo termine che compone il vettore di
Lenz:
i
i
i
x j j
x j j
1
j x
j
,p p =
p
,p +
,p p
r
2
r
r
1
xi
xj j
j
=
p i~∂j + i~∂j p
2
r
r
ij
ij
i j
i~
δ
x
x
δ
xi xj
j
=
p
− 3
− 3
+
pj
2
r
r
r
r
i
x
1
xi
i~
1
− 3 #»
x · #»
p + pi − #»
p · #»
x 3 + pi
.
(11.130)
=
2
r
r
r
r
Confrontando le Eq. (11.129) e (11.130) con la definizione del vettore di Lenz Eq. (11.124) concludiamo
che il vettore di Lenz commuta con l’hamiltoniana:
[M, H] = 0.
(11.131)
Vi sono quindi sei operatori che commutano con l’hamiltoniana: le tre componenti del momento
angolare e le tre componenti del vettore di Lenz. Anche nel caso quantistico abbiamo quindi sei costanti
del modo, in aggiunta alla hamiltoniana. Si può inoltre verificare che anche nel caso quantistico vi sono
due relazioni che legano all’hamiltoniana ed al momento angolare le sei componenti del vettore di Lenz.
In primo luogo, si era osservato che classicamente
# » #» #» # »
M · L = L · M = 0.
(11.132)
Mostriamo che anche quantisticamente vale lo stesso risultato. A questo fine, conviene riscrivere il vettore
di Lenz sfruttando l’identità Lk pj = pj Lk + [Lk , pj ] = pj Lk + εkja i~pa :
M i = εijk pj Lk +
xi
εijk εkja
i~pa − ,
2
r
(11.133)
e poiché
εijk εkja = −εijk εajk = −2δ ia
(11.134)
188
Problemi tridimensionali
si ha
M i = εijk pj Lk − i~pi −
xi
.
r
(11.135)
Ne segue quindi che
#»
# » #»
#» 1
x·L
M · L =M i Li = εijk pj Lk Li − i~ #»
p · L − #»
r
=i~εijk εkia pj La = 0,
(11.136)
#»
dove abbiamo sfruttato il fatto che L è ortogonale come operatore sia a #»
x che a #»
p , e abbiamo espresso
il primo termine a membro destro come commutatore di due momenti angolari e nel secondo passaggio
#» # »
abbiamo usato di nuovo l’identità Eq. (11.134) . Le stesse considerazioni valgono per L · M .
Classicamente il modulo del vettore di Lenz è esprimibile in termini di hamiltoniana e momento
angolare. Quantisticamente si ha
xi o
1
εijk n
1
{pj , Lk },
.
M i M i = εijk {pj , Lk }εiab {pa , Lb } + 1 −
2
2
2
r
(11.137)
Un calcolo tedioso che omettiamo porta al risultato
M 2 = 2H(L2 + ~2 ) + I.
(11.138)
Possiamo quindi determinare le relazioni di commutazione tra tutti gli operatori che commutano
con l’hamiltoniana, e chiederci quali di essi possno essere diagonalizzati simultaneamente. Le relazioni
di commutazione degli operatori di momento angolare sono note. Il commutatore tra componenti del
momento angolare e del vettore di Lenz segue dal fatto che il vettore di Lenz si trasforma come un
vettore sotto rotazioni, essendo la somma di un vettore, e di un prodotto esterno fra vettori (che è
anch’esso un vettore):
[Li , M j ] = i~εijk M k .
(11.139)
Resta infine da calcolare il commutatore tra le diverse componenti di M . Anche in questo caso, ci
limitiamo a dare il risultato del calcolo:
[M i , M j ] = −2Hi~εijk Lk .
(11.140)
Le equazioni Eq. (11.139-11.140), assieme alle consuete relazioni di commutazione Eq. (10.30) tra
componenti del momento angolare ci danno l’insieme completo di relazioni di commutazione tra i sei
operatori che commutano con l’hamiltoniana (di cui cinque sono indipendenti fra loro). Queste relazioni
ci permettono di determinare lo spettro nonché un insieme di costanti del moto.
11.3.5
Costruzione dello spettro
Possiamo ora determinare lo spettro utilizzando i risultati ottenuti. Il punto di partenza è l’osservazione
che la Eq. (11.138) lega lo spettro dell’hamiltoniana a quelli degli operatori M 2 e L2 . Pertanto, il problema
della determinazione dello spettro dell’hamiltoniana si riduce al problema della determinazione dello spettro di L2 ed M 2 . Notiamo che la relazione di commutazione Eq. (11.140) mescola gli operatori momento
angolare e vettore di Lenz, e quindi non è a priori ovvio che sia possibile diagonalizzare simultaneamente
H, L2 ed M 2 .
Per ottenere questo risultato, innanzitutto semplifichiamo queste relazioni di commutazione studiandone gli elementi di matrice in un autostato di energia
H|Ei = E|Ei,
(11.141)
che non abbiamo ancora determinato ma di cui supponiamo l’esistenza. Agendo su questo stato
[M i , M j ] = −2Ei~εijk Lk .
(11.142)
11.3 Il potenziale coulombiano
189
Ricordando che E < 0 per stati legati, ciò suggerisce di introdurre dei nuovi operatori definiti come
Mi
Ni = √
.
−2E
(11.143)
Le relazioni di commutazione di questi operatori ridefiniti con gli operatori di momento angolare hanno
la semplice forma
[Li , N j ] = i~εijk Nk
i
j
ijk
[N , N ] = i~ε
Lk ,
(11.144)
(11.145)
che, assieme alle relazioni di commutazione fra generatori del momento angolare tra loro, ricordano quelle
dei generatori del gruppo di Lorentz, con gli operatori Ni identificati con i generatori dei boost. In termini
#»
del vettore N la relazione Eq. (11.138) che lega l’energia a momento angolare totale e quadrato del vettore
di Lenz diventa
−2EN 2 = 2E(L2 + ~2 ) + 1,
(11.146)
−1 = 2E(N 2 + L2 + ~2 ).
(11.147)
ossia
Ma ora notiamo che le relazioni di commutazione Eq. (11.144-11.145), insieme a quelle degli operatori
di momento angolare, possono essere poste in una forma ben nota definendo gli operatori
F±i =
1 i
(L ± N i ).
2
(11.148)
Ovviamente, possiamo considerare come costanti del moto equivalentemente i sei operatori Li ed N i ,
oppure i sei operatori F±i . Ma gli operatori F±i soddisfano le stesse relazioni di commutazione di due
operatori di momento angolare indipendenti! Si ha infatti
1 i
εijk k
[L ± N i , Lj ± N j ] = i~
(L + Lk ± N k ± N k ) = i~εijk F±k
4
4
1
εijk k
[F±i , F∓j ] = [Li ± N i , Lj ∓ N j ] = i~
(L − Lk ± N k ∓ N k ) = 0.
4
4
[F±i , F±j ] =
(11.149)
(11.150)
Capiamo quindi in definitiva che l’insieme di leggi di conservazione corrisponde ad avere due insiemi
di operatori, le cui regole di commutazione sono come quelle di momenti angolari che commutano con
l’hamiltoniana: gli operatori F±i . Un insieme completo di operatori diagonalizzabili simultaneamente
all’hamiltoniana è quindi dato dai quattro operatori F+2 , F−2 , F+z , F−z . Nel linguaggio della Sezione 11.2.4,
diciamo che la simmetria dell’hamiltoniana è data dal gruppo O(3)×O(3). Si dimostra che questo gruppo
coincide con il gruppo O(4) - questa è la ragione dell’analogia delle relazioni di commutazione Eq. (11.144)
con quelle del gruppo di Lorentz. Il gruppo O(4) è infatti il gruppo di trasformazioni che conservano la
norma di un vettore in uno spazio quadridimensionale, ossia r2 = x21 + x22 + x23 + x24 ; il gruppo di Lorentz
è il gruppo di trasformazioni che conservano la norma di un vettore quadridimensionale, ma con un segno
cambiato, ossia d2 = x21 + x22 + x23 − x20 .
Ricordiamo ora che solo cinque delle sei costanti del moto sono indipendenti dalla hamiltoniana, per
via della relazione sulle componenti del vettore di Lenz Eq. (11.136). Questa implica che gli autovalori
di F+ e F− non sono indipendenti. Infatti
1 2
(L + N 2 ) = F−2
(11.151)
4
#» #» #» #»
#» # » # » #»
dato che L · N = N · L = 0, essendo L · M = M · L = 0. Pertanto gli autostati di F+2 sono anche autostati
di F−2 con lo stesso autovalore.
F+2 =
190
Problemi tridimensionali
Possiamo ora riscrivere in termini degli operatori F±2 l’espressione Eq. (11.147) per l’autovalore di
energia:
−1 = 2E(N 2 + L2 + ~2 ) = 2E(4F+2 + ~2 ).
(11.152)
Il problema della determinazione dello spettro di energia è cosı̀ ridotto al problema della determinazione
dello spettro di due operatori di momento angolare, con il vincolo che il loro autovalore sia il medesimo.
z z
Gli autostati ed autovalori sono quindi gli stati |f f+
f− i tali che
z z
z z
z z
F+2 |f f+
f− i = F−2 |f f+
f− i = ~2 f (f + 1)|f f+
f− i
z z
F±z |f f+
f− i
=
z
~f±
|f fz+ fz− i,
(11.153)
(11.154)
con
z
−f ≤ f±
≤ f.
(11.155)
Le Eq. (11.137-11.146) implicano che gli stati |f fz+ fz− i sono anche autostati dell’hamiltoniana, con
autovalore dato da
Ef = −
1
1
1
=− 2
.
2(~2 + 4~2 f (f + 1))
2~ (1 + 2f )2
(11.156)
Quindi lo spettro dell’hamiltoniana è
En = −
1 1
2~2 n2
(11.157)
con
n = 2f + 1,
(11.158)
intero ≥ 1; n è detto numero quantico principale. Gli autostati sono completamente determinati dagli
z z
autovalori di H, F+z e F−z e possono quindi essere scritti equivalentemente come |nf+
f− i, tali che
z z
z z
H|nf+
f− i = En |nf+
f− i,
(11.159)
con En dato dalla Eq. (11.157).
Possiamo infine ripristinare i fattori finora eliminati per comodità, sfruttando le Eq. (11.88,11.96):
troviamo cosı̀
En = −
11.3.6
m(Ze2 )2 1
.
2~2 n2
(11.160)
Degenerazione e base fisica
z z
Avendo stabilito che gli autostati di energia del sistema sono gli stati |nf+
f− i, possiamo facilmente
z
determinarne la degenerazione, osservando che tutti gli stati aventi diversi valori di f±
sono associati allo
stesso autovalore di energia; ma fisso n corrisponde a fisso f secondo la Eq. (11.158), e per dato f i valori
z
ammessi di f±
sono dati dalla Eq. (11.155) e sono quindi pari a
d = (2f + 1)(2f + 1) = (2f + 1)2 = n2 ,
(11.161)
È naturalmente preferibile esprimere gli autostati di energia in una base in cui sono diagonali degli
operatori aventi un’interpretazione fisica immediata. Ora, osserviamo che
F+ + F− = L.
(11.162)
Quindi, gli autostati di F+2 = F−2 , F+z , F−z possono essere scritti come autostati di F+2 = F−2 , L2 , Lz
mediante l’uso di coefficienti di Clebsch-Gordan:
X
z z
z z
|n f+
f− i =
|n`mihn`m|n f+
f− i,
(11.163)
`m
11.3 Il potenziale coulombiano
191
dove
F+2 |n`mi = F−2 |n`mi = ~2 f (f + 1)|n`mi
L2 |n`mi = ~2 `(` + 1)|n`mi
(11.164)
Lz |n`mi = ~m|n`mi.
I valori possibili di ` si ricavano dalle regole di composizioni dei momenti angolari: ricordando la
Eq. (10.152) sono
0 ≤ ` ≤ 2f = n − 1.
(11.165)
Ne segue che per fisso n, tutti e soli i valori del momento angolare 0 ≤ ` ≤ n − 1 sono permessi.
Naturalente, questo vuol dire che per fisso ` tutti e soli i valori del numero quantico principale n ≥ ` + 1
sono permessi, come si era affermato nella Eq. (11.97). La degenerazione totale del livello n-esimo è
ovviamente sempre la stessa, come possiamo verificare esplicitamente. Fissato f , abbiamo 2f + 1 = n
possibili valori per `, e, fissato quest’ultimo, 2` + 1 possibili valori per m. Si ha quindi
d=
n−1
X
`=0
11.3.7
1
(2` + 1) = 2 (n − 1)n + n = n2 .
2
(11.166)
Autofunzioni nella base delle coordinate
Il metodo algebrico ci ha permesso di determinare completamente lo spettro senza risolvere l’equazione
differenziale Eq. (11.84), tuttavia non ci ha dato nessuna informazione sulla forma delle autofunzioni
hr ϑ ϕ|n ` mi = Y`m (ϑ, ϕ)φn` (r).
(11.167)
Queste possono però essere costruite come autofunzioni degli operatori F + e F − , che a loro volta hanno
la forma di operatori di momento angolare. Le loro autofunzioni possono quindi essere determinate con
una procedura analoga a quella che ha portato alla costruzione delle armoniche sferiche, utilizzando la
forma esplicita degli operatori F + e F − nella base delle coordinate.
La costruzione dello stato fondamentale |1 0 0i è particolarmente semplice: infatti esso ha f = 0, e
corrisponde quindi ad un autofunzione di autovalore nullo di (F + )2 = (F − )2 . Ha quindi autovalore nullo
della componente di F + e F − lungo qualunque asse:
N |1 0 0i = (F + − F − )|1 0 0i = 0.
(11.168)
L|1 0 0i = (F + + F − )|1 0 0i = 0.
(11.169)
Inoltre, esso ha ` = 0 e quindi
Le Eq. (11.168,11.169) determinano completamente la forma dell’autofunzione Eq. (11.167).
Ricordando (Eq. (11.143)) che N è proporzionale al vettore di Lenz, e la definizione di quest’ultimo
in termini di operatori canonici Eq. (11.124), ed in particolare la sua forma Eq. (11.135), si ha
xi
|1 0 0i = 0,
(11.170)
εijk pj Lk − i~pi −
r
ossia, usando la Eq. (11.169),
xi
i
i~p +
|1 0 0i = 0,
r
(11.171)
#»
x #»
i~ · p + 1 |1 0 0i = 0,
r
(11.172)
da cui
192
Problemi tridimensionali
#»
∂
cioè, ricordando che nella base delle coordinate, Eq. (9.108), xr · #»
p = −i~ ∂r
, si riduce a
∂
~2
+ 1 φ10 (r) = 0.
∂r
(11.173)
La soluzione è immediata:
φ10 (r) = N exp −
r
.
~2
La costante di normalizzazione si determina dalla condizione
Z ∞
Z ∞
2r
2
2
2
dr r2 exp − 2 = 1,
dr r |φ10 (r)| = |N1 |
~
0
0
(11.174)
(11.175)
da cui, ricordando che
∞
Z
dx xn e−σx =
0
n!
,
σ n+1
(11.176)
si ha
φ10 (r) =
2
r
exp − 2 .
~3
~
(11.177)
L’autofunzione completa Eq. (11.167) si trova immediatamente osservando che l’armonica sferica
Y00 (ϑ, ϕ) è costante, ed è quindi completamente determinata dalla normalizzazione
1
Y00 (ϑ, ϕ) = √ ,
4π
(11.178)
1 1
r
hr ϑ ϕ|100i = ψ100 (ϑ, ϕ, r) = Y00 (ϑ, ϕ)φ10 (r) = √ 3 exp − 2 .
~
π~
(11.179)
da cui infine
Possiamo infine ripristinare le costanti dimensionali: ricordando le Eq. (11.85,11.86), ma notando
che la dipendenza da ~ è stata mantenuta nei calcoli precedenti, abbiamo che la dipendenza da esse si
ripristina sostituendo nella Eq. (11.179) il raggio adimensionale con la sua espressione in termini di raggio
di Bohr, ossia r → r/a0 = r(Ze2 m). Troviamo cosı̀
3
1 (Ze2 m) 2
Ze2 mr
ψ100 (ϑ, ϕ, r) = √
exp −
.
3
~
~2
π
(11.180)
Per costruire gli stati eccitati si può procedere in vari modi equivalenti. Una possibilità è di costruirli
come autostati di (F ± )2 e fz± , e poi determinare da essi gli autostati di L2 e Lz utilizzando i coefficienti
di Clebsch-Gordan. Una possibilità alternativa è di usare un metodo analogo a quello seguito nel caso
dell’oscillatore armonico isotropo tridimensionale, ossia di definire opportuni operatori di creazione e
distruzione generalizzati
d` = ipr +
`~
1
− .
r
~`
(11.181)
Con argomenti analoghi a quelli usati per l’oscillatore armonico, si dimostra che essi hanno la proprietà
che
d†`+1 |n ` mi = K+ |n ` + 1 mi,
(11.182)
dl |n ` mi = K+ |n ` − 1 mi.
(11.183)
Per ogni n, lo stato con il massimo valore di ` = n − 1 è annichilato dall’operatore di innalzamento
d†n |n n − 1 mi = 0,
(11.184)
11.3 Il potenziale coulombiano
193
da cui, nella base delle coordinate,
∂
1
~n
1
−~
+
+
−
φn,n−1 (r) = 0,
∂r r
r
~n
(11.185)
ossia
dφn,n−1
dr
dr
= (n − 1) − 2 ,
φ
r
n~
(11.186)
la cui soluzione è
φn,n−1 (r) = N rn−1 exp −
r
r
= Ln,n−1 (r) exp − 2
n~2
n~
(11.187)
dove N è una costante di normalizzazione e nell’ultimo passaggio abbiamo estratto il fattore polinomiale
in un’opportuna funzione Ln,n−1 (r).
Figura 11.2: Andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno
Gli stati successivi si costruiscono agendo con d` sullo stato con ` = `max :
|n n − 2i = dn1 |n n − 1i.
(11.188)
Manifestamente, l’azione dell’operatore dn−1 sull’autofunzione (11.187) produce termini proporzionali a
rn−1 e rn−2 volte l’esponenziale, quindi non cambia il grado del polinomio, che resta determinato dal
valore di n. L’autofunzione generica per l’n-esimo livello è quindi un polinomio Ln,` (r) di grado n − 1
volte un esponenziale della forma Eq. (11.187). L’ortonormalità degli stati
Z
2r
hn0|n0 0i = dr r2 exp − 2
Ln,0 (r)Ln0 ,0 (r) = δnn0
(11.189)
~ n
implica che i polinomi Ln,0 (r) associati a ` = 0 formano una base ortonormale completa sotto integrazione nell’intervallo [0, ∞] con un peso esponenziale. Essi sono legati ad una nota famiglia di polinomi
ortogonali, i polinomi di Laguerre.
L’andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno è mostrato in Fig. 11.2,
mentre in Fig. 11.3 sono mostrate le autofunzioni corrispondenti allo stato fondamentale e ad alcuni dei
primi livelli eccitati.
194
Problemi tridimensionali
Figura 11.3: Alcune autofunzioni radiali dell’atomo di idrogeno
Parte V
Metodi di approssimazione
Capitolo 12
Il limite classico della meccanica
quantistica
L’approssimazione semiclassica della meccanica quantistica, al di là del suo interesse per talune applicazioni, è di grande rilevanza concettuale in quanto permette di capire il legame tra la formulazione
classica e quella quantistica della meccanica.
12.1
L’azione in meccanica classica
Finora, la meccanica quantistica è stata formulata da un punto di vista hamiltoniano. Nel caso classico,
un sistema hamiltoniano è descritto da un punto nello spazio delle fasi (p, q) per una singola particella
unidimensionale, con ovvia generalizzazione al caso di molte particelle in molte dimensioni. I suoi moti
sono traiettorie nello spazio delle fasi, ottenute risolvendo le equazioni di Hamilton, del primo ordine nelle
derivate temporali di p e q. Nel caso quantistico p e q sono operatori non commutanti, quindi il vettore di
stato del sistema può essere espresso in termini di una base di autofunzioni dell’uno o dell’altro operatore,
e fornisce la probabilità di risultati delle misure dell’una o dell’altra osservabile.
Da un punto di vista classico è molto naturale la formulazione lagrangiana, in cui le leggi del moto
vengono date specificando una traiettoria q(t), e scrivendo una equazione differenziale del secondo ordine
che determina tale traiettoria, date condizioni iniziali per le posizioni e le velocità: questo punto di
vista differisce da quello hamiltoniano perché si determina una traiettoria q(t) risolvendo un’equazione
differenziale del secondo ordine, mentre nel caso hamiltoniano di risolvono due equazioni differenziali del
primo ordine accoppiate che determinano le traiettorie p(t) e q(t).
Il punto di vista hamiltoniano sembra prestarsi male ad una estensione al caso quantistico, in quanto
il principio di indeterminazione ci impedisce di dare quantisticamente un senso al concetto di traiettoria,
e quindi condizioni iniziali per la posizione e la velocità non possono simultaneamente essere assegnate. Questa difficoltà può essere superata utilizzando un approccio in cui le traiettorie classiche sono
determinate assegnando il punto iniziale ed il punto finale di una traiettoria.
12.1.1
Azione e traiettoria classica
Un moto classico che congiunge due punti nello spazio delle configurazioni a tempi dati, q0 (t0 ) e q1 (t1 ), è
completamente determinato dal principio di minima azione. Come è noto, l’azione classica è una funzione
del punto iniziale, del punto finale, del tempo iniziale e del tempo finale, ed è pari all’integrale in dt della
Lagrangiana del sistema:
Z
t1
S(q1 , t1 , q0 , t0 ) =
dt L(q, q̇, t)
t0
(12.1)
198
Il limite classico della meccanica quantistica
con le condizioni al contorno q(t0 ) = q0 e q(t1 ) = q1 . L’azione cosı̀ definita è un funzionale, ossia una
quantità che associa ad una funzione, la traiettoria classica nello spazio delle configurazioni, un numero,
il valore dell’azione stessa.
Possiamo calcolare la variazione della azione sotto una variazione della traiettoria, variando cioè la
posizione q(t) e la velocità q̇(t) ad ogni tempo t:
t1
Z
dt
δS =
∂L
∂q
t0
Poiché δ q̇ =
d
dt δq,
∂L δ q̇ .
∂ q̇
(12.2)
∂L d δq
∂ q̇ dt
(12.3)
δq +
si ha
t1
Z
dt
δS =
∂L
t0
∂q
δq +
ed integrando per parti
Z t1 Z t1 h
d ∂L i
∂L t1
d ∂L ∂L
d ∂L ∂L
δq +
δq +
−
δq =
dt
−
δq .
δS =
dt
∂q
dt ∂ q̇
dt ∂ q̇
∂q
dt ∂ q̇
∂ q̇
t0
t0
t0
(12.4)
Se imponiamo che il punto iniziale e finale della traiettoria siano fissi, δq(t0 ) = δq(t1 ) = 0, la variazione
è
Z
t1
δS =
dt
∂L
t0
∂q
−
d ∂L δq.
dt ∂ q̇
(12.5)
Si vede cosı̀ che le traiettorie classiche corrispondono alle curve lungo le quali l’azione è stazionaria, ossia
δS = 0: infatti la Eq. (12.5) mostra che tale condizione è soddisfatta se la traiettoria classica soddisfa le
equazioni del moto di Lagrange
d ∂L
∂L
−
= 0.
∂q
dt ∂ q̇
(12.6)
L’azione classica fornisce quindi uno strumento per calcolare la traiettoria classica per date posizioni inziali
e finali: essa corrisponde al cammino che congiunge fisse e date posizioni iniziali e finali minimizzando
l’azione stessa.
Inoltre, l’azione se valutata lungo la traiettoria classica stessa ha un’interpretazione suggestiva, che ci
fonisce una formulazione “ondulatoria” della meccanica classica. Per capirlo, osserviamo che l’Eq. (12.5)
determina anche la variazione dell’azione lungo una traiettoria classica al variare del tempo t1 . Infatti
lungo una traiettoria classica il termine in parentesi nell’ultimo passaggio della Eq. (12.4) si annulla e, se
q(t0 ) è fisso ma q(t1 ) varia, si ha
δS(t1 ) =
∂L
δq(t1 ).
∂ q̇
(12.7)
Stiamo quindi vedendo l’azione da un punto di vista differente. Quando abbiamo ricavato le equazioni
del moto, abbiamo considerato l’azione come un funzionale sullo spazio di tutte le possibili traiettorie
classiche, con fissate condizioni al contorno: le traiettorie classiche sono quelle che minimizzano l’azione.
Invece nella Eq. (12.7) vediamo l’azione come funzione della traiettoria classica, S = S(q(t), t) avente
una certa condizione iniziale fissata e valutata non più sullo spazio di tutte le traiettorie, ma solo sulla
traiettoria che minimizza l’azione stessa. Allo scorrere del tempo, la traiettoria viene percorsa, e l’azione
assume valori numerici differenti (si veda la Fig. 12.1), dipendendo dal tempo sia direttamente, sia
attraverso q(t). Essa è una funzione della posizione q e del tempo t, perché essa è l’integrale definito
della lagrangiana rispetto al tempo fino a t (da cui quindi l’azione dipende perché è il limite superiore
d’integrazione), eseguito lungo la traiettoria classica, e soggetto alla condizione al contorno che al tempo t
la particella si trovi in q, da cui quindi l’azione dipende perché questa condizione al contorno individua la
particolare traiettora classica lungo la quale si integra. Naturalmente, l’azione dipende anche dal tempo
12.1 L’azione in meccanica classica
199
Figura 12.1: Variazione dell’azione lungo la traiettoria classica: q0 è fissato, mentre q(t1 ) varia lungo la
traiettoria classica.
inziale t0 e dalla posizione q0 , infatti la traiettoria classica è determinata noti la posizione iniziale e quella
finale ai tempi iniziale e finale, ma noi ne consideriamo la variazione per fissi t0 e q0 .
Avendo capito il significato della variazione dell’azione lungo la traiettoria osserviamo ora che ∂L
∂ q̇ = p,
e quindi la Eq. (12.7) dice che
p(t1 ) =
∂S
(q1 , t1 ),
∂q1
(12.8)
in altri termini, l’impulso può essere visto come la derivata parziale dell’azione, vista come funzione del
tempo e della coordinata lungo una traiettoria classica, per fissa condizione iniziale. Tutto l’argomento
si generalizza in modo immediato al caso in cui le coordinate lagrangiane siano più d’una, e quindi in
particolare al caso multidimensionale, per cui troviamo che
pi (t1 ) =
∂S
(q1 , t1 ),
∂q1i
(12.9)
vale a dire che l’impulso è il gradiente dell’azione classica lungo la traiettoria.
La Equazione (12.9) esprime l’impulso classico come gradiente dell’azione e ricordare quindi l’azione
dell’operatore impulso quantistico sulle funzioni d’onda nella base delle coordinate. Fa quindi pensare
all’azione come una sorta di “onda” che determina la traiettoria classica. L’analogia può resa ancora più
precisa riformulando la meccanica classica in modo opportuno.
12.1.2
La teoria di Hamilton-Jacobi
La formulazione di Hamilton-Jacobi della meccanica classica permette di spingere un po’ oltre l’interpretazione che abbiamo appena suggerito, dell’azione come una sorta di onda che determina i moti classici.
In questa formulazione, si sfrutta la Eq. (12.8) per ricavare una equazione alle derivate parziali che determina completamente l’azione lungo le traiettorie classiche come funzione di q e del tempo t. Nota l’azione
gli impulsi e quindi le traiettorie classiche possono essere derivati da essa per differenziazione usando la
Eq. (12.8) stessa.
Considerando dapprima per semplicità un caso unidimensionale, la variazione dell’azione nel tempo
lungo una traiettoria classica è
dS
∂S
∂S
∂S
=
+
q̇ =
+ pq̇.
dt
∂t
∂q
∂t
(12.10)
dS
= L(q, q̇, t)
dt
(12.11)
Ma
e poiché L = pq̇ − H
∂S
+ pq̇,
∂t
(12.12)
∂S
+ H(q, p, t) = 0.
∂t
(12.13)
pq̇ − H =
vale a dire
200
Il limite classico della meccanica quantistica
Data la relazione Eq. (12.8) tra l’Hamiltoniana e gli impulsi possiamo scrivere l’equazione (12.13)
come
∂S
∂S
+ H q,
, t = 0,
(12.14)
∂t
∂q
nota come equazione di Hamilton-Jacobi). La funzione S(q, t) determinata risolvendo tale equazione,
ovvero l’azione classica valutata in funzione del tempo lungo una traiettoria classica, è nota come funzione
principale di Hamilton.
Facciamo un esempio esplicito per capire il senso di queste manipolazioni. Consideriamo l’Hamiltoniana dell’oscillatore armonico
H=
1
p2
+ mω 2 q 2 .
2m 2
In tal caso, l’equazione di Hamilton-Jacobi (12.14) diventa
2
∂S
1
1
∂S
+ mω 2 q 2 = 0.
+
∂t
2m ∂q
2
(12.15)
(12.16)
Poiché l’hamiltoniana non dipende dal tempo, l’energia (che coincide con la hamiltoniana valutata su
una traiettoria classica) è conservata, e quindi la Eq. (12.14) immediatamente implica che anche ∂S
∂t non
dipende dal tempo:
∂S
= −E.
∂t
(12.17)
È quindi possibile risolvere l’equazione differenziale per separazione di variabili: la soluzione generale
della Eq. (12.17) è manifestamente
S(q(t), t) = −Et + W (q(t))
dove W è detta funzione caratteristica di Hamilton. Sostituendo nella Eq. (12.14) si ha perciò
2
1
dW
1
+ mω 2 q 2 = E,
2m dq
2
(12.18)
(12.19)
da cui otteniamo
√
Z
r
q
W (q) = ± 2mE
dq
0
1−
q0
1
mω 2 q 0 2 .
2E
(12.20)
Possiamo quindi determinare la funzione caratteristica di Hamilton calcolando l’integrale Eq. (12.20).
Nota quest’ultima come funzione di q ne ricaviamo immediatamente l’impulso al tempo t mediante la
Eq. (12.8), e da questo risaliamo immediatamente alla traiettoria classica ponendo p = mq̇ ed integrando
l’equazione del primo ordine.
Le Eq. (12.16,12.20) si generalizzano facilmente al caso di un generico potenziale indipendente dal
tempo: ponendo
H=
p2
+ V (q)
2m
(12.21)
otteniamo
p=
dW
dq
=±
p
2m[E − V (q)].
(12.22)
Infine, possiamo generalizzare al caso tridimensionale, dove
H=
#»
p2
+ V ( #»
q ).
2m
(12.23)
12.2 L’azione in meccanica quantistica
201
In tal caso si ha
#»
(∇W )2 = 2m(E − V ( #»
q ))
(12.24)
#»
#»
p = ∇W ( #»
q ).
(12.25)
e
Quindi è possibile determinare il gradiente di W prendendo la radice quadrata di tale espressione e
integrando l’espressione ottenuta lungo un arco.
Vi sono tecniche più efficienti per risolvere le equazioni del moto usando il metodo di Hamilton-Jacobi,
ma quello che preme osservare qui è che il metodo consiste nel determinare una funzione, la funzione
principale di Hamilton, ossia la azione valutata lungo le traiettorie classiche, a partire dalla quale gli
impulsi si possono ottenere per differenziazione. In questo senso la funzione principale di Hamilton
S(q; t), e, nel caso di sistemi invarianti per traslazioni temporali, la funzione caratteristica W (q) che la
determina completamente, possono essere viste come “funzioni d’onda” classiche. Notiamo infatti che le
Eq. (12.25-12.24) ci dicono rispettivamente che il vettore tangente alla traiettoria classica è diretto lungo
il gradiente di W ( #»
q ), e che la sua lunghezza (cioè il modulo della velocità classica) è pari alla lunghezza
del gradiente, cioè sostanzialmente alla pendenza. La situazione è quindi analoga a quella di un oggetto
sospinto da un onda.
La velocità dell’oggetto sospinto dall’onda può essere quindi interpretata come una “velocità di gruppo”, distinta dalla velocità di fase con cui si muovono i fronti d’onda. Quest’ultima si trova notando
facilmente per un sistema invariante per traslazioni temporali, per il quale vale la Eq. (12.18). Infatti,
una superficie q0 (t) su cui S costante si muove a velocità fissata dalla condizione dS
dt |q0 (t) = 0 da cui
dW
q̇0 − E = 0,
dq
(12.26)
e quindi usando la Eq. (12.19)
q̇0 =
E
p
= vf ,
± 2m[E − V (q0 (t))]
(12.27)
che è quindi la velocità di fase. La velocità della singola traiettoria si trova invece usando la Eq. (12.22),
ed è data da
r
2[E − V (q)]
q̇ = ±
.
(12.28)
m
12.2
L’azione in meccanica quantistica
Passiamo al caso quantistico studiando i “moti” in meccanica quantistica. Nel caso quantistico, non è
possibile definire una traiettoria, però è possibile calcolare la probabilità che un sistema che al tempo t0
si trova in q0 al tempo t venga rivelato in q. L’insieme di tali probabilità al variare del tempo t fornisce
l’analogo quantistico della traiettoria classica. Vedremo che anche queste probabilità, e le ampiezze che
le determinano, possono essere calcolate in termini della azione del sistema.
12.2.1
Il propagatore
Sappiamo già che l’evoluzione temporale di uno stato quantistico è deterministica, ed è data dall’azione
di un operatore di evoluzione temporale S(t, t0 ) che, agendo sullo stato al tempo t0 , |ψ(t0 )i, fornisce lo
stato al tempo t:
|ψ(t)i = S(t, t0 )|ψ(t0 )i.
(12.29)
La funzione d’onda al tempo finale si ottiene proiettando |ψ(t)i sugli autostati della posizione:
ψ(q; t) = hq|ψ(t)i = hq|S(t, t0 )|ψ(t0 )i,
(12.30)
202
Il limite classico della meccanica quantistica
che possiamo riscrivere come
Z
Z
0
0
0
ψ(q; t) = dq hq|S(t, t0 )|q ihq |ψ(t0 )i = dq 0 hq|S(t, t0 )|q 0 iψ(q 0 ; t0 ).
(12.31)
Vediamo cosı̀ che la funzione d’onda al tempo t si può ottenere facendo agire per convoluzione sulla
funzione d’onda iniziale l’elemento di matrice dell’operatore di evoluzione temporale tra autostati della
posizione:
K(qf , tf ; qi , ti ) ≡ hqf |S(tf , ti )|qi i.
(12.32)
La K(qf , tf ; qi , ti ) è detta propagatore, ed ha un ruolo analogo alla funzione di Green dell’elettrodinamica
classica, che permette di determinare il campo (elettrico o magnetico) generato da una distribuzione di
carica o corrente: il propagatore permette di determinare la funzione d’onda “finale” determinata da una
funzione d’onda “iniziale”. Notare che non necessariamente tf > ti , cioé il tempo finale può anche essere
antecedente a quello iniziale, perché l’evoluzione temporale quantistica è deterministica, unitaria e quindi
reversibile.
Possiamo interpretare fisicamente il propagatore calcolando la Eq. (12.30) nel caso in cui al tempo t0
il sistema si trova in un autostato della posizione, ossia
hq 0 |ψ(t0 )i = δ(q0 − q 0 ).
(12.33)
In tal caso si ha
Z
ψ(q; t) =
dq 0 K(q, t; q 0 , t0 )δ(q0 − q 0 ) = K(q, t; q0 , t0 ).
(12.34)
Il propagatore è quindi la funzione d’onda nello spazio delle posizioni q al tempo t, per un sistema che
al tempo iniziale t0 si trova in un autostato della posizione q0 . Da questo punto di vista è definito
analogamente alla funzione principale di Hamilton, che è stata anch’essa costruita come una quantità (la
azione) definita per un sistema (classico) che al tempo t si trova in q, mentre al tempo iniziale t0 si trova
in q0 .
Una importante proprietà del propagatore, che esprime la causalità dell’evoluzione temporale, è la sua
associatività. Si ha infatti che, applicando ripetutamente l’operatore di evoluzione temporale,
|ψ(t)i = S(t, t1 )|ψ(t1 )i = S(t, t1 )S(t1 , t0 )|ψ(t0 )i = S(t, t0 ))|ψ(t0 )i,
(12.35)
S(t, t0 ) = S(t, t1 )S(t1 , t0 )
(12.36)
da cui
e quindi, introducendo una risoluzione dell’identità,
Z
K(q, t; q0 , t0 ) = hq|S(t, t0 )|q0 i = dq1 hq|S(t, t1 )|q1 ihq1 |S(t1 , t0 )|q0 i
Z
= dq1 K(q, t; q1 , t1 )K(q1 , t1 ; q0 , t0 ),
(12.37)
che mostra come il propagatore sia associativo sotto convoluzione.
12.2.2
Propagatore ed azione
Vogliamo ora calcolare il propagatore esplicitamente. Ovviamente, ne conosciamo già l’espressione in
forma hamiltoniana: per hamiltoniane indipendenti dal tempo,
1
S(t, t0 ) = e i~ H(t−t0 ) .
(12.38)
Ora ne vogliamo determinare un’espressione in forma lagrangiana. Affrontiamo il problema dapprima per
un’evoluzione temporale infinitesima, da t0 a t = t0 +ε. Consideriamo per semplicità un’hamiltoniana della
12.2 L’azione in meccanica quantistica
203
2
p̂
forma Ĥ = 2m
+ V̂ (q̂) (la generalizzazione ad hamiltoniane dipendenti dal tempo e potenziali dipendenti
dalle velocità è possibile, ma richiede un po’ di lavoro in più). Utilizzando la definizione Eq. (12.32)
del propagatore, con la forma Eq. (12.38) dell’operatore di evoluzione temporale, e sviluppando al primo
ordine in ε, si ha
2
p̂
ε
+ V (q̂) |qi
K(q , t + ε; q, t) = hq | exp
i~ 2m
2
Z
p̂
ε
0
0 0
0
= dpdp hq |p ihp | 1 +
+ V (q̂) |pihp|qi
i~ 2m
Z
i
ε
d
dp0 dp i q0 p0
ε p2
e~
δ(p − p0 ) + V i~ 0 δ(p0 − p) e− ~ qp , (12.39)
=
δ(p0 − p) +
2π~
i~ 2m
i~
dp
0
0
dove abbiamo sfruttato il fatto che le autofunzioni dell’impulso, correttamente normalizzate come hp|p0 i =
1
exp( ~i pq), e, nell’ultimo passaggio, del fatto che nella base degli impulsi
δ(p − p0 ), sono hq|pi = √2π~
∂
δ(p − p0 ),
∂p0
∂
0
hp |V̂ (q̂)|pi = V i~ 0 δ(p − p0 ).
∂p
hp0 |q̂|pi = i~
(12.40)
(12.41)
Ma ora, osservando che
i 0
∂ − i p0 q
e ~
= qe− ~ p q ,
∂p0
n
i 0
i 0
∂
i~ 0
e− ~ p q = q n e− ~ p q ,
∂p
i 0
i 0
∂
V i~ 0 e− ~ p q = V (q)e− ~ p q ,
∂p
i~
(12.42)
(12.43)
(12.44)
troviamo immediatamente
2
i
ε
dp0 dp i q0 p0
p
∂
e~
1+
+ V i~ 0
δ(p0 − p)e− ~ qp
2π~
i~ 2m
∂p
2
Z
dp i (q0 −q)p
p
ε
=
e~
1+
+ V (q)
.
2π~
i~ 2m
K(q 0 , t + ε; q, t) =
Z
(12.45)
Notiamo ora che, per una evoluzione temporale infinitesima, possiamo porre
q 0 = εq̇ + q :
(12.46)
infatti, la velocità è per definizione
q̇ = lim
∆t→0
∆q
.
∆t
(12.47)
Si ha perciò
2
dp i pq̇ε
p
ε
e~
1+
+ V (q)
2π~
i~ 2m
Z
p2
dp iε
pq̇− 2m −V (q)
=
e~
,
2π~
K(q 0 , t + ε; q, t) =
Z
(12.48)
dove nel secondo passaggio abbiamo esponenziato il termine in ε, a meno di infinitesimi di ordine superiore.
204
Il limite classico della meccanica quantistica
Ma l’integrale in p può ora essere eseguito come integrale gaussiano:
r
Z
Z
√ 2
p
2
1
iε 2 m
1 − i εV (q)
1 iε
2~m
√
− iε
−q̇ m
mq̇ 2 −V (q))
q̇ 2
(
~
2
2m
~
2
~
~
K(q , ε, q) =
=
e
dp e
e
e
dλ e−λ
2π~
2π~
iε
r
2
1
m iε
(12.49)
e ~ ( 2 mq̇ −V (q)) .
=
2πiε~
0
Ricordando che dt = t − t0 = ε, riconosciamo il fattore di fase ad esponente come l’elemento di azione
infinitesima lungo l’evoluzione temporale data, infatti
1 2
ε
mq̇ − V (q) = dtL(q, q̇) = idS,
(12.50)
2
da cui troviamo immediatamente che per un’evoluzione temporale infinitesima
r
m idS(t)
e ~ .
K(q 0 , ε, q) =
2πiε~
(12.51)
L’elemento di matrice del propagatore tra due autostati della posizione è quindi dato da una fase, pari
alla azione misurata in unità di ~. Notiamo che il fattore di normalizzazione è fissato dalla richiesta che
lim K(q 0 , ε, q) = hq 0 , t|q, ti = δ(q 0 − q) :
ε→0
(12.52)
infatti il membro destro della Eq. (12.51) fornisce una rappresentazione della delta di Dirac nel limite
ε → 0 in quanto
r
(∆q)2 2
i
m
0
lim K(q , ε, q) = lim
e 2m~ ε q̇ ,
(12.53)
ε→0
ε→0
2πiε~
che nel limite è una gaussiana di larghezza decrescente, ma con fissa normalizzazione
Z r
(∆q)2 2
i
m
e 2m~ ε q̇ = 1.
2πiε~
12.2.3
(12.54)
L’integrale di cammino
Possiamo ora determinare il propagatore per un’evoluzione temporale finita combinando una sequenza di
0
evoluzioni temporali infinitesime mediante la proprietà associativa Eq. (12.37). Poniamo ora ∆t = t n−t
con limn→∞ ∆t = ε. L’associatività implica che
n termini
}|
{
z
hqf |S(t0 , t)|qi i = hqf | S(tf , tn−1 )S(tn−1 , tn−2 ) · · · S(t1 , t) |qi i,
(12.55)
Z
K(qf , tf ; qi , ti ) =
Z
=
dq1 dq2 · · · dqn−1 hqf |S(tf , tn−1 )|qn−1 i . . . hq2 |S(tn2 , t1 )|q1 ihq1 |S(t1 , t)|qi i
r
r
r
m idS(tn−1 )
m idS(t1 )
m idS(t)
~
~
dq1 dq2 · · · dqn−1
e
...
e
...
e ~
2πiε~
2πiε~
2πiε~
(12.56)
Questa equazione esprime in modo compatto il principio fondamentale della meccanica quantistica
secondo cui le ampiezze di transizione (il cui modulo quadro dà la probabilità) si compongono secondo
il principio di sovrapposizione. L’ampiezza di probabilità che un certo stato iniziale termini in un certo
stato finale si calcola considerando tutti i possibili stati intermedi a tutti gli istanti intermedi e sommando
su tutte le traiettorie.
Possiamo capire il significato di questo risultato ricordando l’esperimento di Zeilinger, cioè considerando una particella che al tempo t1 passa attraverso uno schermo S1 attraverso il quale sono praticate k
fenditure, al tempo t2 attraverso uno schermo S2 , e cosı̀ via (si veda la Figura 12.2). In questo caso, a
12.2 L’azione in meccanica quantistica
205
ciascun tempo ti il sistema può trovarsi in un numero finito k di posizioni, che corrispondono a ciascuna
delle fenditure. In tal caso, gli n integrali dqi sono sostituiti da n sommatorie sui k diversi stati. Tutte
le possibili storie del sistema corrispondono quindi a tutte le possibili k n diverse traiettorie che passano
attraverso una qualunque delle fenditure: la Eq. (12.56) ci dice che l’ampiezza di trovare un sistema in un
qualunque punto a valle delle fenditure si trova sommando su tutte le traiettorie possibili, ciascuna pesata
dall’esponenziale immaginario dell’azione valutata per quel cammino, espressa in unità di ~. L’espressione
Eq. (12.56) corrisponde al limite in cui le k fenditure diventano una variabile continua di posizione, e la
sommatoria diventa quindi un integrale.
Figura 12.2: Traiettorie seguite da un sistema quantistico con due schermi ciascuno con quattro fenditure.
Il propagatore è ulteriormente definito come il limite in cui n tende a infinito dell’espressione Eq. (12.56),
cioè anche il tempo diventa una variabile continua. In questo caso l’integrale multiplo dell’Eq. (12.56)
diventa un nuovo oggetto, chiamato integrale di cammino (path integral) o anche integrale di Feynman.
Dal punto di vista matematico, esso è un integrale funzionale, o integrale di Kac.
Si tratta di un integrale in cui la funzione integranda è un funzionale ossia una funzione che associa un
numero ad una funzione: nel nostro caso, essa associa ad una traiettoria l’esponenziale di i volte l’azione
valutata su tale traiettoria, in unità di ~. L’integrale viene fatto su uno spazio di funzioni, nel nostro caso
tutte le traiettorie che uniscono il punto iniziale a quello finale, tenuti fissati. La misura di integrazione
è pertanto il differenziale di una funzione, indicato con Dq(t), e l’integrale funzionale viene scritto come
Z
K(qf , tf ; qi , ti ) =
q(ti ) = qi Dq(t)e
q(tf ) = qf
i
~ S[q(t)]
,
(12.57)
p m
dove la misura di integrazione va definita prendendo il limite ε → 0, ed include perciò i i fattori 2πiε~
in modo che resti vera la condizione di normalizzazione Eq. (12.54).
Possiamo ora porci nuovamente il problema del limite semiclassico. In meccanica quantistica, l’ampiezza di transizione si trova integrando su tutte le traiettorie secondo l’integrale di Feynman: tutti i cammini
che portano dal punto iniziale a quello finale contribuiscono. Notare che vengono quindi inclusi cammini
discontinui, non differenziabili, e cosı̀ via: infatti nella Eq. (12.56) le risoluzioni dell’identità ai tempi
intermedi prevedono che si integri in ogni caso su tutte le possibili posizioni. L’ampiezza è quindi una
media pesata su tutti i cammini, con un peso che è dato dall’esponenziale dell’azione espressa in unità
di ~. Notare che l’azione è qui vista proprio nel senso della funzione principale di Hamilton, cioè come
un’integrale della lagrangiana per fissi tempo e posizione iniziali, valutata in funzione ti tempo e posizione
finali.
In meccanica classica, invece, contribuisce solo la traiettoria di minima azione. Possiamo capirne il
senso supponendo di definire l’integrale di cammino Eq. (12.57) per continuazione analitica a partire da
206
Il limite classico della meccanica quantistica
quello calcolato per tempo immaginario, cioè ponendo t → it nella Eq. (12.57) dimodoché
Z
1
K(qf , itf ; qi , iti ) = Dq(t) N (q(t))e− ~ S[q(t)] .
(12.58)
L’integrale di cammino pesa quindi ciascun cammino con l’esponenziale di −S in unità di ~. Nel limite
classico il cammino che dà maggior contributo è proprio il cammino classico, che ha il peso statistico
maggiore. Tutti i cammini in cui l’azione è maggiore (ad esempio, i cammini discontinui) sono esponenzialmente soppressi. Nel limite in cui ~ → 0 l’unico cammino a sopravvivere è quello classico. Definendo
il path integral per continuazione analitica, ciò resta vero anche per tempi reali.
Figura 12.3: Cammini che congiungono due punti: la traiettoria di minima azione è indicata in neretto,
mentre le frecce indicano direzioni in cui l’azione è crescente.
Che il cammino di minima azione dia il contributo dominante può essere anche capito direttamente,
senza ricorrere alla continuazione analitica. L’integrale funzionale viene eseguito sui cammini: possiamo
pensare di integrare in un intorno del cammino di minima azione, includendo via via il contributo di
cammini di azione sempre più grande (si veda la Figura 12.3). Ma l’integranda, ossia il contributo di
ogni cammino, è dato da una fase, che diventa sempre più grande man mano che ci allontaniamo dal
cammino di minima azione. Stiamo quindi integrando una funzione che oscilla sempre più rapidamente.
Ma l’integrale di un seno o un coseno su un periodo è nullo. Quindi, se l’azione è grande in unità di
~, anche piccole deformazioni del cammino intorno a quello classico fornisco contributi all’integrale di
cammino che si cancellano, e solo il cammino classico e quelli vicinissimi ad esso contribuiscono. Se
invece il valore dell’azione classica è paragonabile ad ~, molti cammini contrbuiscono dando cosı̀ luogo
agli effetti di interferenza quantistica.
Siamo cosı̀ infine in grado di dare un preciso significato quantitativo all’affermazione che abbiamo più
volte fatto, per cui la fisica quantistica descrive sistemi con un numero sufficientemente piccolo di gradi di
libertà: gli effetti quantistici si manifestano quando il valore numerico dell’azione, che possiamo pensare
come il volume di spazio delle fasi occupato dal sistema, e quindi come un conteggio di gradi di libertà,
è piccolo in unità di ~.
12.2.4
L’equazione di Schrödinger dal path integral
Combinando la relazione Eq. (12.34) tra propagatore e funzione d’onda per un autostato della posizione
evoluto nel tempo, e l’espressione Eq. (12.57) del propagatore in termini di integrale di cammino, vediamo
che la funzione d’onda può essere espressa come
Z
i
~ S[q(t)] .
ψ(q; t) = K(qf , tf ; qi , ti ) =
(12.59)
q(t ) = q Dq(t)e
i
i
q(tf ) = qf
12.2 L’azione in meccanica quantistica
207
Naturalmente, se lo stato iniziale non è un autostato della posizione, la funzione d’onda al tempo t è data
da un path integral in cui si sovrappongono tutte le condizioni iniziali corrispondenti a diverse posizioni
q al tempo iniziale, ciascuna pesata con la funzione d’onda iniziale:
Z
Z
i
~ S[q(t)] ψ(q ).
(12.60)
ψ(q; t) = K(qf , tf ; qi , ti ) = dqi
i
q(t ) = q Dq(t)e
i
i
q(tf ) = qf
L’espressione Eq. (12.60 della funzione d’onda in termini di path integral è, nella formulazione di
Feynman, l’ipotesi fondamentale da cui tutta la meccanica quantistica viene ricavata, semplicemente
postulando che la funzione d’onda fornisca l’ampiezza di probabilità degli eventi. Questa ipotesi equivale
all’insieme dei principi enunciati nella Sezione 2.4, poich`’ avendo espresso in termini di path integral
la “regola di Born” per il calcolo delle probabilità, gli altri postulati esprimono delle proprietà della
funzione d’onda che sono automaticamente soddisfatte dal path integral: in particolare, il principio di
sovrapposizione, e l’ortonormalità degli stati fisici.
Anche l’ultimo postulato della meccanica quantistica, formulato nella Sezione 5.1.3, e cioé la legge di
evoluzione temporale, può essere ricavato dal path integral. Possiamo cioè dimostrare direttamente che la
funzione d’onda la funzione d’onda Eq. (12.60) soddisfa l’equazione di Schrödinger. A tal fine, osserviamo
che possiamo vedere la funzione d’onda come il risultato di una evoluzione temporale infinitesima della
funzione d’onda ad un tempo immediatamente precedente:
Z
ψ(q, ; t) = dq 0 hq t|q 0 t0 ihq 0 t0 |ψi
"
#
2
Z
r
∆q
m
i
1
0
0
exp (t − t ) m
− V (qf ) ψ(q 0 ; t0 ),
(12.61)
= dq
2πi(t − t0 )~
~
2
t − t0
dove abbiamo posto ∆q = q − q 0 . Consideriamo il limite in cui ∆t = t − t0 = ε → 0. In questo limite
anche ∆q → 0, perchè
lim hq t|q 0 t0 i = hq|q 0 i = δ(q − q 0 ).
∆t→0
(12.62)
Al tendere a zero di ε, possiamo quindi sviluppare il risultato simultaneamente in potenze di ∆t e in
potenze di ∆q, considerando entrambe come quantità di ordine ε.
Sviluppiamo quindi la funzione d’onda ψ(q 0 , t0 ) in serie di Taylor attorno a q:
ψ(q 0 ; t0 ) = ψ(q; t0 ) − ∆q
∂
1
∂2
ψ(q; t0 ) + (∆q)2 2 ψ(q; t0 ) + O((∆q 3 )).
∂q
2
∂q
(12.63)
A meno di termini di ordine superiore, cambiando la variabile di integrazione da q 0 a ∆q, si ha
r
Z
2
(∆q)2
i 1
m
∂
1
0
− ~i ∆tV (qf )
m ∆t
0
0
2 ∂
~
2
ψ(q; t ) .
ψ(q; t) = e
d∆q
e
ψ(q; t ) − ∆q ψ(q; t ) + (∆q)
2πi∆t~
∂q
2
∂q 2
(12.64)
Restano quindi da calcolare tre integrali:
r
Z
d∆q
(∆q)2
i 1
m
e ~ 2 m ∆t = 1
2πi∆t~
che è la condizione di normalizzazione Eq. (12.54);
r
Z
(∆q)2
i 1
m
d∆q
e ~ 2 m ∆t ∆q = 0
2πi∆t~
poiché è l’integrale di una funzione dispari su un dominio pari; ed infine
r
r
Z
Z
(∆q)2
2
i 1
1
m
1 ∂
m
i ~∆t
m ∆t
2
~
2
d∆q
e
(∆q) =
d∆q
eα(∆q) =
,
2
2πi∆t~
2 ∂α
2πi∆t~
2 m
(12.65)
(12.66)
(12.67)
208
Il limite classico della meccanica quantistica
im
dove nel secondo passaggio abbiamo posto α = 2~∆t
.
La Eq. (12.64) diventa cosı̀
i
i ~∆t ∂ 2
0
ψ(q; t) = ψ(q, t0 ) +
ψ(q,
t
)
e− ~ ∆tV (q) .
2 m ∂q 2
(12.68)
Ma
ψ(q; t0 ) = ψ(q; t) − ∆t
∂
ψ(q; t) + O((∆t)2 )
∂t
(12.69)
e
i
e− ~ ∆tV (q) = 1 −
i
∆tV (q) + O((∆t)2 ),
~
(12.70)
quindi tenendo solo termini al primo ordine la (12.68) diventa
ψ(q; t) = ψ(q; t) − ∆t
i
i ~∆t ∂ 2
∂
ψ(q, t) − ∆tV (q)ψ(q; t),
ψ(q; t) +
∂t
2 m ∂q 2
~
(12.71)
e cioé
i~
∂ψ(q; t)
~2 ∂ 2 ψ(q; t)
=−
+ V (q)ψ(q; t),
∂t
2m ∂q 2
(12.72)
che è proprio l’equazione di Schrödinger per la funzione d’onda ψ(q; t). Ne segue che la formulazione
alla Schrödinger dell’evoluzione temporale nella base delle coordinate è segue dall’espressione dell’azione
dell’operatore di evoluzione temporale per un tempo infinitesimo.
12.3
L’approssimazione WKB
L’espressione Eq. (12.59) della funzione d’onda in termini di path integral suggerisce come si possa costruire
il limite semiclassico dell’equazione di Schrödinger: in tale limite, solo un cammino contribuisce, e la
funzione d’onda è una pura fase, eguale all’azione valutata lungo tale camino: ψ ∼ exp ~i S. Questo
suggerisce che il limite classico dell’equazione di Schrödinger si può ottenere scrivendo la funzione d’onda
in forma esponenziale come
i
ψ( #»
x ; t) = exp Θ( #»
x , t),
(12.73)
~
studiando l’equazione soddisfatta dalla funzione Θ( #»
x , t), e trattando ~ come parametro di uno sviluppo
perturbativo. Questo porta alla cosiddetta approssimazione WKB (Wentzel, Kramers, Brillouin), che fu
in effetti sviluppata negli anni ’20 del novecento, ben prima della formulazione di Feynman, a partire da
manipolazioni formali dell’equazione di Schrödinger.
12.3.1
Limite semiclassico dell’equazione di Schrödinger
Sostituendo la funzione d’onda scritta nella forma Eq. (12.73) nell’equazione di Schrödinger (supponendo
#ˆ»2
ˆ», t)) si trova immediatamente che la funzione Θ( #»
al solito una hamiltoniana della forma Ĥ = p + V̂ ( #x
x , t)
2m
deve soddisfare l’equazione
∂Θ( #»
x , t)
1 #» #»
i~
#»
=
∇Θ( x , t) · ∇Θ( #»
x , t) + V ( #»
4Θ( #»
x , t).
x , t) −
∂t
2m
2m
Possiamo ora costruire l’approssimazione semiclassica sviluppando Θ( #»
x , t) in serie di ~
2
~
~
#»
#»
#»
Θ( x , t) = S( x , t) + S1 ( x , t) +
S2 ( #»
x , t) + . . . ,
i
i
−
(12.74)
(12.75)
12.3 L’approssimazione WKB
209
dove i fattori di i sono stati introdotti per convenienza dei successivi calcoli, ed abbiamo chiamato S il
termine di ordine zero dello sviluppo ricordando il limite classico del path integral. Sostituendo questo
sviluppo nell’equazione di Schrödinger Eq. (12.74) soddisfatta dalla Θ( #»
x , t), e identificando i coefficienti
delle successive potenze di ~ troviamo cosı̀ una sequenza di equazioni che determinano i termini successivi
dello sviluppo Eq. (12.75).
All’ordine zero in ~ troviamo
−
∂S
1 #» 2
=
(∇S) + V ( #»
x)
∂t
2m
(12.76)
che è l’equazione di Hamilton-Jacobi per la funzione S. Si vede cosı̀ che nel limite ~ → 0 la funzione
d’onda quantistica è l’esponenziale della funzione principale di Hamilton. In questo limite la funzione
d’onda è una pura fase perchè S è reale.
Risolvendo la Eq. (12.76) ritroviamo la funzione di Hamilton della meccanica classica: se il potenziale
non dipende dal tempo, come abbiamo visto nella sezione 12.1.2 (si ricordi la Eq. (12.18), possiamo porre
Θ( #»
x , t) = −Et + σ0 ( #»
x ),
(12.77)
dove σ0 ( #»
x ), indipendente dal tempo, è la funzione caratteristica di Hamilton, che soddisfa l’equazione
E=
1 #» 2
(∇σ0 ) + V
2m
(12.78)
da cui
p
#»
∇σ0 ( #»
x ) = ± 2m(E − V ( #»
x )),
(12.79)
che nel caso unidimensionale si riduce ulteriormente a
p
dσ0
= ± 2m(E − V ( #»
x )),
dx
(12.80)
e quindi
Z
x
σ0 (x) = ±
dx0
p
2m(E − V ( #»
x )).
(12.81)
x0
Vediamo cosı̀ come la traiettoria classica emerga nel limite in cui ~ → 0.
12.3.2
Correzioni al primo ordine ed approssimazione semiclassica
Per capire la relazione tra traiettoria classica e funzione d’onda quantistica consideriamo ora la correzione del primo ordine in ~. Osserviamo innanzitutto che per una hamiltoniana indipendente dal
tempo possiamo scrivere le soluzioni dell’equazione di Schrödinger nella forma di stati stazionari, ossia
i
x ),
ψ( #»
x ; t) = e− ~ Et ψ( #»
(12.82)
dove ψ( #»
x ) è un autostato della hamiltoniana. Ne segue immediatamente che, per uno stato stazionario,
a tutti gli ordini in ~ possiamo porre
~
Θ( #»
x , t) = −Et + σ0 ( #»
x ) + σ1 ( #»
x) +
i
2
~
σ2 ( #»
x) + ...,
i
(12.83)
ossia tutti i contributi ad S Eq. (12.75) al di là del primo ordine sono indipendenti dal tempo.
Al primo ordine in ~ troviamo cosı̀
#» #»
0 = 2∇σ0 ∇σ1 + 4σ0 ,
(12.84)
210
Il limite classico della meccanica quantistica
al secondo ordine
#»
#»
#»
0 = 2∇σ0 · ∇σ2 + (∇σ1 )2 + 4σ1 ,
(12.85)
e cosı̀ via. Queste equazioni ci permettono di determinare ordine per ordine la σi in termine delle σj
calcolate agli ordini precedent: nota la σ0 , la Eq. (12.84) è un’equazione differenziale del primo ordine
che determina la σ1 , e cosiı̀ cia.
Vediamo ora esplicitamente la correzione al primo ordine nel caso unidimensionale. Ponendo
d
σ0 (x)
dx
(12.86)
dσ1
1 dp/dx
=−
dx
2 p
(12.87)
1
σ1 (x) = − ln |p(x)| + K.
2
(12.88)
p(x) ≡
l’equazione (12.84) diventa
che ha per soluzione
La soluzione semiclassica al primo ordine in ~ è quindi
Z x
i
~
1
0
0
ψ± (x; t) = exp
−Et ±
dx p(x ) +
−
ln |p(x)| + K
~
i
2
x0
Z x
N
1
i
=p
exp Et exp ±
dx0 p(x0 ),
i~
~
|p(x)|
x0
(12.89)
dove N è una costante di normalizzazione.
Vi sono quindi due soluzioni linearmente indipendenti, corrispondenti a due stati di definito impulso
semiclassico ±p(x) Eq. (12.86): infatti l’azione dell’operatore impulso su di esse è
−i~
d
ψ± (x, t) = ±p(x)ψ± (x, t) + O(~),
dx
(12.90)
che, come abbiamo visto nella sezione 12.1.2, Eq. (12.22), è proprio l’impulso della traiettoria classica.
La soluzione generale è la sovrapposizione
Z
Z
1
1
i x 0
i x 0
ψ(x; t) = p
exp Et A exp
dx p(x0 ) + B exp −
dx p(x0 ) ,
(12.91)
i~
~ x0
~ x0
|p(x)|
La soluzione Eq. (12.91) dell’equazione di Schrödinger al primo ordine non-banale dell’approssimazione
semiclassica è di solito chiamata approssimazione WKB tout court.
Nel caso E > V , p è reale; se consideriamo una soluzione di definito impulso (tale cioè che A = 0
dx
oppure B = 0) la probabilità di trovare la particella tra x e x + dx è proporzionale a p(x)
, ossia, ponendo
dx
p = mv, a v(x) = dt. Questo significa che la probabilità di trovarsi in un intervallo dx è proporzionale
al tempo impiegato a percorrerlo, proprio come nel caso classico. La soluzione generale, quando A = 0 e
B = 0, può anche essere scritta come
Z x
1
1
1
ψ(x; t) = p
exp Et C sin
dx0 p(x0 ) + δ .
(12.92)
i~
~ x0
p(x)
Se invece E < V p = iβ con β = ±
p
2m(V − E) e la soluzione generale è
Z
Z
1
1
1 x 0
1 x 0
ψ(x; t) = p
exp Et A exp
dx β(x0 ) + B exp −
dx β(x0 ) .
i~
~ x0
~ x0
β(x)
(12.93)
12.3 L’approssimazione WKB
12.3.3
211
Validità dell’approssimazione semiclassica
Discutiamo ora le condizioni di validità dell’approssimazione semiclassica. È chiaro dall’Eq. (12.74) che
le correzioni quantistiche all’equazione del moto classica sono dovute al fatto che il termine cinetico
nell’equazione di Schrödinger oltre al primo termine a membro destro della Eq. (12.74), contiene l’ultimo
termine, propozionale a ~. L’approssimazione semiclassica richiede quindi che il secondo termine sia
piccolo rispetto al primo, ossia che
#»
|~4Θ| |∇Θ2 |.
(12.94)
Considerando per sempicità il caso unidimensionale la condizione diventa
dp ~ |p2 |.
dx (12.95)
In termini della lunghezza d’onda (di de Broglie), definita come
λ≡
2π~
.
p
la condizione Eq. (12.95) ha la forma particolarmente semplice
d(λ/2π) dx 1.
(12.96)
(12.97)
Quindi l’approssimazione vale quando la scala di variazione della lunghezza d’onda delle oscillazioni della
funzioni d’onda è piccola rispetto alla lunghezza d’onda stessa espressa in unità di 2π, in altri termini
quando la lunghezza d’onda varia poco nel corso di un periodo di oscillazione.
Possiamo riscrivere
p la condizione Eq. (12.95) in termini di energia cinetica e potenziale ricordando la
forma esplicita p = 2m(E − V ) come
~
p
2m[E − V (x)]
2|E − V (x)|
.
dV /dx
(12.98)
L’approssimazione è buona quando l’energia è molto maggiore o molto minore del valore del potenziale
nel punto: può quindi essere usata per descrivere gli stati legati di minore energia in un potenziale molto
profondo, oppure l’effetto tunnel sotto una barriera molto alta. Fallisce invece quando E ∼ V (x), cioè in
prossimità dei punti di inversione (si ricordi la Fig. 7.11 nel Capitolo 7.4).
12.3.4
Trattazione semiclassica della buca di potenziale
Una classica applicazione dell’approssimazione semiclassica è la determinazione dello spettro di una buca
di potenziale di forma generica (si veda la Fig. 12.4). Come si è visto, il metodo WKB è accurato se
|E − V (x)| 0, ossia lontano dai punti di inversione E = V (x). Possiamo pertanto risolvere il problema
in approssimazione semiclassica in queste regioni (indicate come regioni I, II e III in figura).
Per raccordare queste soluzioni occorre però procedere in un altro modo: occorre determinare una
soluzione nell’intorno dei punti di inversione (si veda la Fig. 12.5), e quindi raccordare l’andamento di
questa soluzione nella regione I di Fig. 12.5 con l’andamento della soluzione semiclassica nella regione II
di Fig. 12.4, ed il suo andamento nella regione II di Fig. 12.5 con l’andamento della soluzione semiclassica
nella regione III di Fig. 12.4. Al termine di questa doppia operazione di raccordo, si ottengono delle
condizioni che legano la soluzione semiclassica nella regione II a quella della regione III di Fig. 12.4.
Un’analoga operazione permette di raccordare le soluzioni semiclassiche nelle regioni I e II della medesima
figura.
La soluzione nell’intorno del punto di inversione può essere determinata sviluppando il potenziale in
serie di Taylor:
V (x) = V (a) + V 0 (a)(x − a) + O((x − a)2 ),
(12.99)
212
Il limite classico della meccanica quantistica
Figura 12.4: Buca di potenziale generica. Sono indicate le regioni in cui vale l’approssimazione semiclassica
per data energia E.
e quindi risolvendo esattamente l’equazione di Schrödinger con il potenziale lineare che se ne ottiene.
Non entriamo nei dettagli di questa trattazione, ci limitiamo a ricordare che la soluzione dell’equazione di
Schrödinger con potenziale lineare può essere determinata esattamente in termini di funzioni note come
funzioni di Airy.
Diamo quindi direttamente le condizioni di raccordo tra soluzioni semiclassiche che se ne ottengono.
La soluzione nella regione II di Fig. 12.5 è della forma tipo oscillante Eq. (12.92), ed è parametrizzata
dalla normalizzazione C e dalla fase δ, mentre la soluzione nella regione I è della forma esponenziale
Eq. (12.93) ed è parametrizzata dalla normalizzazione A. Le condizioni di raccordo sono al solito due
(continuità della funzione e della derivata) e fissano quindi C in termini di A e la fase δ. Nel caso di un
potenziale che cresce da sinistra a destra con un punto di inversione in a (Figura 12.5), si ha
R

0
)
π
 √2N sin xa dx0 p(x
+
xa
~
4
p(x)
ψ(x) =
(12.100)
R
x
β(x)
 √N exp −
xa
dx0 ~
a
β(x)
La condizione per un potenziale decrescente da sinistra a destra si ottiene da questa con ovvi cambiamenti
di segno.
La coppia di condizioni che legano la soluzione nella regione II a quella delle regioni I e III determinano
completamente lo spettro di una buca di potenziale (Figura 12.4) in approssimazione WKB. Notiamo
infatti che nella regione II la soluzione può essere scritta in due modi diversi, o raccordandola alla I
Z a
N
0 β(x)
exp −
ψI (x) = p
dx
(12.101)
~
β(x)
x
Z x
2N
p(x0 ) π
ψII (x) = p
sin
dx0
+
,
(12.102)
~
4
p(x)
a
o raccordandola alla III
!
p(x0 ) π
dx
+
~
4
x
Z x
0
N
β(x)
ψIII (x) = p
exp −
dx0
.
~
β(x)
b
0
ψII
(x)
2N 0
=p
sin
p(x)
Z
b
0
(12.103)
(12.104)
0
Ma ψII (x) e ψII
(x) devono essere uguali. L’equazione sin α = sin β ammette le due soluzioni α = β
ed α = π − β: è facile vedere che non è possibile soddisfare la condizione che gli argomenti del seno
0
nella ψII (x) e ψII
(x) siano uguali per ogni x, mentre possiamo imporre che la loro somma valga π.
12.3 L’approssimazione WKB
213
Figura 12.5: Potenziale nell’intorno del punto di inversione.
Troviamo inoltre un’altra soluzione quando la somma dei due argomenti vale 2π: in tal caso c’è un segno
di differenza che possiamo riassorbire nella normalizzazione. Ovviamente entrambe le condisioni possono
0
essere soddisfatte a meno di 2π, e troviamo cosı̀ che, nel caso più generale, le soluzioni ψII (x) e ψII
(x)
coincidono imponendo
N 0 = (−1)n+1 N ;
Z x
p(x0 ) π
+
+
dx0
~
4
a
(12.105)
Z
b
x
dx0
p(x0 ) π
+
~
4
!
= nπ.
(12.106)
La Eq. (12.106) può essere viosta come una condizione di quantizzazione sull’integrale
Z
a
b
dx0
π
p(x0 )
= nπ −
~
2
dove a, b sono i punti di inversione classici. Poiché
p
p(x) = 2m(E − V (x)),
(12.107)
(12.108)
l’integrale è determinato dalla forma del potenziale, e si ottiene la condizione di quantizzazione
Z b
p
1
dx 2m(E − V (x)) = ~ n +
π,
(12.109)
2
a
con n intero.
Questa condizione era stata già postulata da Bohr e Sommerfeld sulla base di considerazioni analoghe a
quelle viste nella sezione 11.3.2 nella discussione del modello di Bohr dell’atomo di idrogeno, ed in particolare facendo l’ipotesi che che ogni sistema hamiltoniano dovesse soddisfare la condizione di quantizzazione
(nota appunto come condizione di Bohr-Sommerfeld):
I
pdq = 2~πn
(12.110)
che per n sufficientemente grande coincide la condizione da noi trovata applicando il metodo WKB. In
questo caso l’integrale è valutato su un intero periodo del moto classico, da a a b e ritorno (questo spiega
il fattore 2 aggiuntivo).
214
Il limite classico della meccanica quantistica
Osserviamo infine che l’andamento delle soluzioni semiclassiche trovate è in accordo con le conclusioni
della discussione qualitativa dello spettro di una buca di potenziale generica che abbiamo già visto.
Infatti, nella regione II ha un andamento sinusoidale ψ(x) ∼ sin(f (x) + δ), con le condizioni f (a) + δ = π4
e f (b) + δ = π4 + nπ. Ne segue che nell’intervallo tra i punti di inversione l’argomento del seno compie
un semiperiodo di oscillazione quando il sistema è nello stato fondamentale, un periodo nel primo stato
eccitato, un periodo e mezzo nel secondo e cosı̀ via: il numero di nodi della funzione d’onda cresce al
crescere dell’energia, come si era trovato nella discussione qualitativa.
Capitolo 13
La teoria delle perturbazioni
I metodi perturbativi sono usati in pratica per risolvere la maggior parte dei problemi di fisica quantistica,
ma anche classica, visto che i problemi risolubili esattamente sono molto pochi. La meccanica quantistica
fornisce un contesto particolarmente semplice per introdurre e discutere questi metodi. Discuteremo
in particolare la teoria delle perturbazioni indipendenti dal tempo, particolarmente utili nel risolvere
problemi di stato legato, e la teoria delle perturbazioni dipendenti dal tempo, che trova la sua applicazione
principale nella descrizione dei fenomeni d’urto.
13.1
Perturbazioni indipendenti dal tempo
I metodi perturbativi indipendenti dal tempo vengono usati in tutti i casi in cui si cerca di determinare
lo spettro di un operatore (e specificamente una hailtoninana) che si può scrivere come la somma di un
operatore il cui spettro è esattamente noto, più una correzione.
Consideriamo quindi un sistema la cui hamiltoniana H può essere scritta come la somma di una
hamiltoniana Ĥ0 di spettro noto
Ĥ0 |n0 i = En(0) |n0 i,
(13.1)
hm0 |n0 i = δnm ,
(13.2)
Ĥ = Ĥ0 + εĤ 0 .
(13.3)
e ortonormale
ed una hamiltoniana Ĥ 0 :
Il parametro ε non è necessariamente piccolo, ma serve per organizzare lo sviluppo perturbativo: l’idea
del metodo perturbativo è infatti di determinare autofunzioni ed autovalori dell’hamiltoniana completa
Ĥ|ni = En |ni
(13.4)
come uno sviluppo in serie di ε, sviluppando in serie autostati ed autovalori Eq. (13.4) dell’hamiltoniana
completa Eq. (13.3):
En = En(0) + εEn(1) + ε2 En(2) + . . .
2
|ni = |n0 i + ε|n1 i + ε |n2 i + . . . .
(13.5)
(13.6)
È importante osservare che, in generale, nulla garantisce che la serie perturbativa per l’autovalore o
l’autostato converga.
216
13.1.1
La teoria delle perturbazioni
Spettro non degenere
Consideriamo innanzitutto il caso in cui lo spettro dell’hamiltoniana imperturbata Eq. (13.1) sia non(0)
(0)
degenere, ovvero En 6= Ek quando n 6= k. Sostituendo gli sviluppi Eq. (13.5-13.6) nell’equazione agli
autovalori (13.4) si ottiene
(Ĥ0 + εĤ 0 ) |n0 i + ε|n1 i + ε2 |n2 i + . . . = En(0) + εEn(1) + ε2 En(2) + . . . |n0 i + ε|n1 i + ε2 |n2 i + . . . .
(13.7)
Identificando termini dello stesso ordine in ε si ottiene una sequenza di equazioni
ε0 (Ĥ0 − En(0) )|n0 i = 0
(13.8)
ε1 (Ĥ0 − En(0) )|n1 i = (En(1) − Ĥ 0 )|n0 i
2
ε (Ĥ0 −
..
.
En(0) )|n2 i
=
(En(1)
0
− Ĥ )|n1 i +
..
.
(13.9)
En(2) |n0 i
εk (Ĥ0 − En(0) )|nk i = (En(1) − Ĥ 0 )|nk−1 i + En(2) |nk−2 i + . . . En(k) |n0 i.
(13.10)
(13.11)
La correzione al k-esimo ordine all’autovalore può essere estratta dalle Eq. (13.8-13.11) proiettando
ciascuna equazione sugli autostati |n0 i dell’hamiltoniana imperturbata. A questo fine, osserviamo che
tutti i termini successivi al primo nello sviluppo perturbativo dello stato Eq. (13.6) possono essere scelti
ortogonali al primo, ovvero tali che
hn0 |ni i = 0.
(13.12)
Questo segue dall’osservazione che se |ni i è soluzione della i-esima equazione (13.8-13.11) allora lo è anche
|ñi i = |ni i + λ|n0 i. Infatti
(Ĥ0 − E (0) )|ñ1 i = λ(Ĥ0 − En(0) )|n0 i + (Ĥ0 − En(0) )|n1 i = (Ĥ0 − En(0) )|n1 i,
(13.13)
e quindi il membro sinistro dell’i-esima equazione valutato per la |ni i e la |ñi i coincidono. Pertanto, data
una soluzione |ñi i dell’i-esima equazione tale che
hñi |n0 i =
6 0
(13.14)
ne possiamo costruire una nuova, |ni i, pure soluzione dell’i-esima equazione, tale che sia soddisfatta la
condizione (13.12), ponendo |ni i = |ñi i + λi |n0 i e scegliendo
λi = −hn0 |ñi i.
(13.15)
Proiettando come si è detto su |n0 i le equazioni (13.8-13.11), tutti i membri di sinistra si annullano,
(k)
cosı̀ come tutti i contributi a membro destro proporzionali a En . Supponendo gli stati |n0 i normalizzati,
Eq. (13.2), troviamo immediatamente che
En(1) = hn0 |Ĥ 0 |n0 i
En(2)
0
(13.16)
= hn0 |Ĥ |n1 i
..
.
(13.17)
En(k) = hn0 |Ĥ 0 |nk−1 i.
(13.18)
Quindi, la correzione all’ordine k − 1 dello stato determina immediatamente la correzione all’ordine k
(1)
per l’autovalore. In particolare, la correzione al primo ordine all’autovalore En è immediatamente data
dalla Eq. (13.16).
La correzione al k-esimo ordine all’autostato si trova invece moltiplicando entrambi i membri di
(0)
ciascuna delle Eq. (13.8-13.11) per l’inverso dell’operatore Ĥ0 − En . Notiamo tuttavia che nello spazio
13.1 Perturbazioni indipendenti dal tempo
217
(0)
degli stati fisici questo operatore non è invertibile, in quanto manifestamente Ĥ0 − En |n0 i = 0, e quindi
tale operatore ha un autovalore nullo. Tuttavia, la Eq. (13.12) implica che tutte le |nk i appartengono al
sottospazio ortogonale ad |n0 i, e quindi possiamo invertire l’equazione nel sottospazio come ora vederemo
esplicitamente.
In sostanza dunque possiamo vedere ciascuna delle Eq. (13.8-13.11), che sono equazioni tra vettori,
e quindi ne legano tutte le componenti, come due equazioni indipendenti. Una lungo la direzione del
(k)
vettore |n0 i, che determina la correzione di ordine k, En , all’autovalore: la Eq. (13.18). Ed una nel
sottospazio ortogonale al vettore |n0 i, che determina la correzione di ordine k all autovettore, |nk i, e che
ora studiamo.
Iniziando da primo ordine, sfruttiamo il fatto che |n1 i appartiene al sottospazio ortogonale a |n0 i per
scriverlo come
X
X
|n1 i =
|k0 ihk0 |n1 i =
|k0 ihk0 |n1 i :
(13.19)
k
k6=n
alla risoluzione dell’identità contribuiscono tutti gli stati tranne |n0 i. Vediamo quindi che anche se
1
(0) non esiste nello spazio degli autostati di Ĥ0 , ma esiste nello spazio ortogonale a |n0 i. Infatti, in
Ĥ0 −En
questo sottospazio
1
Ĥ0 −
=
(0)
En
1
X
(0)
k6=n
Ĥ0 − En
|k0 ihk0 |.
(13.20)
Poiché in generale
(0) f (Ĥ0 )|k0 i = f Ek
|k0 i
(13.21)
si ha
1
Ĥ0 −
(0)
En
|k0 i =
1
(0)
Ek
|k0 i
(13.22)
|k0 ihk0 |.
(13.23)
(0)
− En
e quindi
1
Ĥ0 −
(0)
En
=
X
1
(0)
k6=n Ek
− En
(0)
Possiamo cosı̀ determinare la prima correzione all’autostato:
|n1 i =
1
X
(0)
k6=n Ek
(0)
En
−
X
|k0 ihk0 | En(1) − Ĥ 0 |n0 i =
(0)
k6=n Ek
1
−
(0)
En
h
i
|k0 i δkn En(1) − hk0 |Ĥ 0 |n0 i
0
=
X hk0 |Ĥ |n0 i
(0)
k6=n
(0)
En − Ek
|k0 i.
(13.24)
Notiamo che la perturbazione modifica lo stato di partenza, aggiungendo ad esso componenti lungo tutte
le altre direzioni (tutti gli altri autostati imperturbati) nello spazio di Hilbert. La componente lungo una
direzione è tanto più piccola quanto l’autovalore di energia è diverso.
La correzione a qualunque ordine perturbativo può essere determinata iterando questa procedura. Per
completezza, determiniamo le correzioni ad autovalore ed autostato fino al secondo ordine. Sostituendo
l’espressione esplicita Eq. (13.24) nella Eq. (13.17) troviamo
En(2) = hn0 |Ĥ 0
X hm0 |Ĥ 0 |n0 i
(0)
m6=n
=
En − Em
X |hm0 |Ĥ 0 |n0 i|2
(0)
m6=n
|m0 i =
(0)
(0)
En − Em
.
X hn0 |Ĥ 0 |m0 ihm0 |Ĥ 0 |n0 i
(0)
m6=n
(0)
En − Em
(13.25)
218
La teoria delle perturbazioni
Notiamo che la correzione al secondo ordine all’energia dello stato fondamentale (ossia di minima energia)
è sempre negativa, poiché in tale caso il denominatore è sempre negativo.
La correzione al secondo ordine all’autostato è
|n2 i =
1
X
k6=n
Ĥ0 −
(0)
En
|k0 ihk0 | (En(1) − Ĥ 0 )|n1 i + En(2) |n0 i

=
13.1.2
1
X
(0)
(0)
k6=n Ek − En
|k0 ihk0 |  hn0 |Ĥ 0 |n0 i − Ĥ
X hm0 |Ĥ 0 |n0 i
0
(0)
(0)
m6=n En − Em

|m0 i .
(13.26)
Caso degenere
Il caso di spettro degenere è più complesso in seguito al fatto che la base di autostati di partenza e
quella dopo aver applicato la perturbazione in generale non coincidono. Ricordiamo ad esempio il caso
dell’oscillatore armonico isotropo. Abbiamo visto che gli autostati di energia possono essere scritti in due
basi differenti:
3
N = n1 + n2 + n3
(13.27)
|n1 n2 n3 i
En = ~ω N +
2
3
N = 2n + `.
(13.28)
|n ` mi
En = ~ω N +
2
Queste sono solo due dell’infinità di basi possibili per il sistema. La perturbazione tuttavia potrebbe
selezionare una di queste due basi: per esempio, una perturbazione lungo l’asse x seleziona la prima base
come privilegiata, mentre una perturbazione che dipende dal momento angolare seleziona la seconda base,
o magari la perturbazione potrebbe selezionare una terza base.
Possiamo formalizzare la situazione come segue. Supponiamo che allo stesso autovalore di energia
(0)
(0)
En dell’hamiltoniana imperturbata H0 corrispondano d autostati |nk i, k = 1, 2, . . . , d. Per effetto
della perturbazione, le energie di questi stati in generale possono diventare diverse fra di loro riducendo
od eliminando la degenerazione (od anche, eventualmente, lasciandola invariata). Pertanto, gli stati
perturbati
(0)
(1)
|nk i = |nk i + ε|nk i + . . .
(13.29)
avranno in generale energia diversa fra loro. Ne segue quindi che, mentre qualunque combinazione lineare
(0)
(0)
degli stati |nk i è ancora autostato di H0 , solo certe particolari scelte di stati |nk i corrisponderanno al
primo ordine del risultato perturbato Eq. (13.29).
(0)
Per capire quali, osserviamo che la Eq. (13.9), moltiplicando a sinistra per il bra hnj | si riduce a
(0)
(0)
(1)
hnj |Ĥ 0 |nk i = En,k δjk .
(0)
(13.30)
Questo vuol dire che gli stati |nk i devono essere autostati dell’hamiltoniana perturbante; le correzioni
al primo ordine all’energia forniscono i rispettivi autovalori. Per determinare la perturbazione al primo
ordine all’energia dell’n-esimo autostato k volte degenere bisogna quindi diagonalizzare la matrice k × k
della perturbazione nel sottospazio degenere.
In seguito alla presenza della perturbazione, la degenerazione può essere rimossa del tutto od in parte,
(1)
a seconda che gli autovalori En,k nella Eq. (13.30) siano tutti diversi fra si loro (degenerazione rimossa
completamente) o alcuni siano uguali fra loro. Se è rimossa del tutto, ci riduce al calcolo delle correzioni
successive del caso non degenere. Può accadere invece che la degenerazione non sia rimossa o sia rimossa
solo parzialmente. In tal caso, ad ogni nuovo ordine dello sviluppo è quindi necessario ridiagonalizzare
l’Hamiltoniana nel sottospazio che è rimasto degenere dopo aver introdotto la perturbazione all’ordine
precedente.
13.2 Perturbazioni dipendenti dal tempo
13.2
219
Perturbazioni dipendenti dal tempo
La teoria delle perturbazioni dipendenti dal tempo permette di affrontare in particolare i fenomeni d’urto
(o diffusione), in cui il problema consiste nel valutare la probabilità che un sistema subisca una transizione
tra un certo stato iniziale ed un certo stato finale per effetto di un potenziale, come quando una particella
incide sul potenziale stesso, e ne viene deflessa. In questa situazione si usa la teoria perturbativa dipendente dal tempo anche quando il potenziale è indipendente dal tempo stesso. Si suppone infatti che lo
stato iniziale sia preparato, e lo stato finale sia rivelato, in regioni lontane dal potenziale, in cui l’effetto
del potenziale stesso è trascurabile. Si può quindi supporre, con buona approssimazione, che il potenziale
sia attivo per un tempo intermedio, e solo alla fine, come vedremo, prendere il limite in cui questo tempo
diventa infinito. Di conseguenza, la teoria delle perturbazioni dipendenti dal tempo è di fatto il metodo
usato per trattare problemi d’urto.
13.2.1
La rappresentazione di interazione
Per descrivere le perturbazioni dipendenti dal tempo conviene introdurre una nuova rappresentazione
dell’evoluzione temporale, per cosı̀ dire intermedia tra la rappresentazione di Heisenberg e quella di
Schrödinger. Scriviamo l’Hamiltoniana del sistema come la somma di un termine imperturbato non
dipendente dal tempo H0 e di un termine di perturbazione, in generale dipendente dal tempo, V (t):
H = H0 + V (t).
(13.31)
In rappresentazione di interazione, il contributo dei due termini all’evoluzione temporale viene trattato in
modo diverso: in sostanza, H0 viene trattato in rappresentazione di Heisenberg, e V (t) in rappresentazione
di Schrödinger.
Esplicitamente, definiamo la rappresentazione di interazione nel modo seguente. Supponiamo che
|ψ; tiS siano gli stati in rappresentazione di Schrödinger la cui evoluzione temporale è data dall’hamiltoniana Eq. (13.31). Gli stati in rappresentazione di interazione sono definiti come
|ψ; tiI ≡ exp −
1
H0 t|ψ; tiS = S0−1 (t, 0)|ψ; tiS ,
i~
(13.32)
(avendo scelto per semplicità t0 = 0 come tempo iniziale) mentre gli operatori in rappresentazione di
interazione sono collegati a quelli in in rappresentazione di Schrödinger da
AI = S0−1 (t, 0)AS S0 (t, 0).
(13.33)
Segue immediatamente dalla definizione che la dipendenza dal tempo degli stati in rappresentazione
di interazione è data solo da V (t). Infatti si ha:
1
1
∂
i~ |ψ; tiI = − exp − H0 t H0 |ψ; tiS + exp − H0 t (H0 + V (t))|ψ; tiS
∂t
i~
i~
1
= exp − H0 t V (t)|ψ; tiS = S0−1 (t, 0)V (t)S0 (t, 0)|ψ; tiI
i~
= VI (t)|ψ; tiI ,
(13.34)
dove VI (t) è il potenziale in rappresentazione di interazione, ottenuto da quello in rappresentazione di
Schrödinger mediante la Eq. (13.33) La soluzione dell’equazione di evoluzione temporale per gli stati in
rappresentazione di interazione Eq. (13.34) è cosı̀
Z
1 t 0
|ψ; tiI = SI (t, t0 )|ψ; 0i = T exp
dt VI (t0 ) |ψ; 0i,
(13.35)
i~ t0
dove T è il prodotto cronologico, introdotto studiando l’evoluzione temporale per hamiltoniane dipendenti
dal tempo. Notare che il tempo t0 al quale si prende lo stato iniziale è generalmente diverso dal tempo
t = 0 al quale abbiamo definito la rappresentazione di interazione secondo la Eq. (13.32).
220
La teoria delle perturbazioni
Possiamo verificare esplicitamente che la dipendenza temporale determinata usando la rappresentazione di Schrödinger coincida con quella che si trova in rappresentazione di interazione: in particolare
che sia la stessa la probabilità dei risultati di misure, che fornisce il contenuto predittivo della meccanica quantistica. Ricordiamo che nella sezione 5.3 abbiamo già visto come questo sia vero nel caso delle
reppresentazioni di Schrödinger e di Heisenberg: se al tempo iniziale il sistema si trova in uno stato
|ψ; 0i, l’ampiezza di probabilità che al tempo t una misura dell’operatore hermitiano A riveli il sistema
nell’autostato |ni di A è pari a
hn|ψ; ti = hn|S(t, 0)|ψ; 0i.
(13.36)
In rappresentazione di Schrödinger questo si ottiene notando che
|ψ; ti = S(t, 0)|ψ; ti,
(13.37)
mentre in rappresentazione di Heisenberg lo stato |ψi non dipende dal tempo, mentre è l’operatore A a
dipendere dal tempo, sicché i suoi autostati soddisfano l’equazione
|n(t)i = S −1 (t, 0)|ni,
(13.38)
che porta nuovamente all’eq. Eq. (13.36).
In rappresentazione di interazione gli autostati di AI (t) soddisfano
AI (t)|n(t)iI = λn |n(t)iI
(13.39)
con AI (t) dato dalla Eq. (13.33). Un procedimento identico a quello che porta alla Eq. (13.38) troviamo
che
|n(t)iI = S0−1 (t, 0)|ni.
(13.40)
D’altra parte, lo stato in rappresentazione di interazione soddisfa la Eq. (13.32), e quindi l’ampiezza di
probabilità che la misura dia come risultato λn è
I hn(t)|ψiI
= hn|S0 (t, 0)|ψ; tiI = hn|S0 (t, 0)S0−1 (t, 0)|ψ; tiS = hn|S(t, 0)|ψ; 0i,
(13.41)
che ancora una volta coincide con quella calcolata alla Schrödinger, Eq. (13.36).
13.2.2
Sviluppo perturbativo dipendente dal tempo
Discutiamo ora il prototipo di problema che si tratta usando la teoria delle perturbazioni dal tempo:
quello di un sistema che al tempo iniziale si trova in un autostato |ni dell’Hamiltoniana H0
H0 |ni = E|ni
(13.42)
(in generale degenere) e, interagendo con un potenziale V (t), compie una transizione ad un altro autostato
|mi dell’hamiltoniana, che potrebbe essere associato ad una diversa energia, od anche, se l’hamiltoniana è
degenere, essere un altro stato associato alla stessa energia. Questa è la situazione tipica di un problema
di urto.
L’ampiezza di probabilità per la transizione è
Ānm (t) = hm|S(t, t0 )|ni,
(13.43)
dove supponiamo per semplicità t0 fisso e quindi vediamo l’ampiezza come funzione del tempo t al quale
si esegue la misura finale. In rappresentazione di interazione, possiamo riscrivere l’ampiezza come
Ānm (t) = I hm|SI (t, t0 )|niI = hm|S0 (t, 0)SI (t, t0 )S0−1 (t0 , 0)|ni
1
1
= e− i~ (En t0 −Em t) hm|SI (t, t0 )|ni = e− i~ (En t0 −Em t) Amn ,
(13.44)
13.2 Perturbazioni dipendenti dal tempo
221
dove abbiamo indicato con |niI e |ni gli autostati di energia rispettivamente in rappresentazione di interazione e in rappresentazione di Schrödinger, nel secondo passaggio abbiamo usato la relazione Eq. (13.40)
tra gli autostati nelle due rappresentazioni, abbiamo quindi sfruttato il fatto che gli stati |mi, |ni sono
autostati di H0 , ed infine abbiamo posto
Amn (t) = hm|SI (t, t0 )|ni.
(13.45)
Notare, di nuovo, che il tempo t0 al quale si prepara lo stato iniziale è diverso dal tempo t = 0 al quale
abbiamo scelto di definire la rappresentazione di interazione, e questo spiega i diversi argomenti degli
operatori di evoluzione temporale.
Ai fini della determinazione della probabilità di transizione il fattore di fase nella Eq. (13.44) è
irrilevante: infatti
Pnm = |Āmn |2 = |Amn |2 ,
Calcoliamo quindi Amn (t). Si ha
Z
Z t
1
1 t 0
dt VI (t0 ) +
T
dt0 dt00 VI (t0 )VI (t00 ) + . . . |ni
Amn (t) = hm|I +
i~ t0
2(i~)2
t0
Z
1 t 0
= δnm +
dt hm|S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)|ni+
i~ t0
Z t
Z t0
1
0
hm|
dt
dt00 S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)S0−1 (t00 , 0)VS (t00 )S0 (t00 , 0)|ni + . . .
(i~)2 t0
t0
(13.46)
(13.47)
(13.48)
Possiamo interpretare la Eq. (13.47) come uno sviluppo perturbativo per l’ampiezza Amn (t):
Amn (t) =
∞
X
A(i)
mn (t),
(13.49)
i=0
con
A(0)
mn (t) = δmn
Z
0
1
1 t 0
(1)
Amn (t) =
dt hm|VS (t0 )|nie ih (En −Em )t
i~ t0
Z t
Z t0
X
0
00
1
1
1
0
A(2)
(t)
=
dt
dt00
hm|VS (t0 )|kie ih (Ek −Em )t hk|VS (t00 )|nie ih (En −Ek )t ,
mn
2
(i~) t0
t0
(13.50)
k
..
.
(13.51)
avendo introdotto una risoluzione dell’indentità rispetto agli autostati dell’hamiltoniana imperturbata.
La serie di contributi Eq. (13.50) è nota come serie di Dyson per l’ampiezza di transizione, ed è il risultato
della teoria perturbativa dipendente dal tempo nella sua forma più generale.
13.2.3
La regola aurea di Fermi
Consideriamo ora il caso particolare in cui la perturbazione è attiva solo a partire dal tempo t = 0, ma è
per il resto indipendente dal tempo:
V (t) = V Θ(t),
(13.52)
dove abbiamo scelto t = 0 come tempo cui accendere la perturbazione per semplicità. Come già discusso,
questo ci permette di trattare la situazione generica in cui il sistema viene preparato in uno stato iniziale
in una regione in cui il potenziale è trascurabile, lasciato interagire con quest’ultimo, ed infine di nuovo
rivelato in una regione in cui il potenziale è trascurabile. Si tratta della situazione tipica degli esperimenti
222
La teoria delle perturbazioni
in cui si usa un fascio di particelle per studiare la struttura della materia, oppure la struttura delle
interazioni fondamentali.
In questo caso, determiniamo l’ampiezza di transizione tra due stati diversi al primo ordine: se m 6= n,
(0)
(1)
Amn (t) = 0, per cui il primo ordine nonnullo è Amn (t). Abbiamo cosı̀
Z
1 t 0 1 (En −Em )t0
(1)
dt e i~
hm|V |ni
(13.53)
Amn =
i~ 0
dove abbiamo definito l’elemento di matrice
Vmn = hm|V |ni
(13.54)
indipendente dal tempo, in quanto tutta la dipendenza temporale è nella funzione Θ(t). Riscriviamo la
Eq. (13.53) come
Z t
1
1
0 it0 (ωm −ωn )
(1)
dt e
Vmn = −
eit(ωm −ωn ) − 1 Vmn ,
(13.55)
Amn =
i~
(ωm − ωn )~
0
dove abbiamo posto En = ~ωn .
La probabilità di transizione per unità di tempo, calcolata al primo ordine, è quindi data da
it(ω −ω )
1
1
|Vmn |2
e m n − 12 .
Pnm =
2
t
t [(ωn − ωm )~]
(13.56)
Ma notiamo che
(ωm −ωn ) it (ωm −ωn )
(ωm −ωn ) 2
= 4 sin2 (ωm − ωn )t ,
2
2
2
|eit(ωm −ωn ) − 1|2 = eit
e
− e−it
2
(13.57)
quindi
1
|Vmn |2
4
2 (ωm − ωn )t
Pnm =
sin
.
t
[(ωm − ωn )~]2 t
2
(13.58)
Consideriamo ora il limite di grande t: il caso cioè in cui, appunto, la particella incidente arriva da
una regione lontana, e quindi la perturbazione agisce per un tempo molto lungo rispetto alla scala di
2
tempi tipici del potenziale stesso. Osserviamo che la funzione sinx(xt)
è una funzione che nel limite di
2
grande t diventa sempre più piccata nell’origine, mantenendo costante il suo integrale
Z ∞
sin2 (xt)
dx
= tπ
(13.59)
x2
−∞
(si veda la Fig. 13.1). Ne segue che
1 sin2 xt
= δ(x),
t→∞ πt
x2
(13.60)
n
sin2 ωm −ω
4
ωm − ωn
2
lim
=
δ
.
t→∞ [(ωn − ωm )]2 πt
2
(13.61)
lim
e quindi
Possiamo quindi riscrivere l’equazione (13.58) come:
1
ωm − ωn π
δ(ωm − ωn )
2π
Pnm = |Vmn |2 δ
= |Vmn |2 2π
= |Vmn |2 δ(Em − En ).
t
2
~2
~2
~
(13.62)
L’equazione (13.62) è nota come regola aurea di Fermi: essa fornisce la la probabilità di transizione per
unità di tempo, ed esprime la conservazione dell’energia nei fenomeni d’urto. È particolarmente utile nel
caso di spettro continuo di energia, come vediamo immediatamente.
13.2 Perturbazioni dipendenti dal tempo
223
y
5
4
3
2
1
x
-3
-2
-1
Figura 13.1: La funzione
13.2.4
1
1 sin2 xt
πt x2
2
3
per t pari a 3, 5, 10, 15.
Concetti base della teoria dell’urto
La teoria dell’urto (o della diffusione) è un capitolo molto ampio della meccanica quantistica, ricco di
applicazioni che vanno dalla fisica atomica alla fisica nucleare ed alla fisica delle particelle. Ci limitiamo
qui ad introdurre alcuni concetti fondamentali.
Sezione d’urto
L’osservabile fondamentale in teoria dell’urto è la sezione d’urto σ. È definita, per problemi in cui vi è
un flusso costante di particelle che incidono su un bersaglio, come il numero di particelle diffuse (vale a
dire il numero di particelle che hanno interagito con il bersaglio) per unità di flusso entrante e per unità
di tempo.
Il numero di particelle diffuse dipende da tre fattori: il numero di particelle proiettile per unità di
superficie, la velocità delle particelle e la forma del bersaglio. I primi due fattori determinano il flusso
di particelle. La sezione d’urto contiene l’informazione relativa al terzo fattore, e quindi descrive le
proprietà del bersaglio. Essa generalizza la sezione geometrica di un bersaglio. Infatti, se un flusso
dn
costante di particelle j = dtds
incide su un bersaglio, il numero totale di particelle che incide sul bersaglio
N
avente area S in un certo intervallo di tempo ∆T è N = j∆T S. Quindi S = j∆T
: il numero di particelle
che interagiscono per unità di flusso per unità di tempo è l’area S del bersaglio. Questo vuol dire
che la probabilità che una particella interagisca è pari alla superficie intercettata dalla particella stessa.
La sezione d’urto generalizza questa definizione: per esempio, al caso di un bersaglio “parzialmente
trasparente”, cioé tale che una particella abbia solo una probabilità finita di interagire con il bersaglio.
È utile definire una sezione d’urto differenziale per unità di spazio delle fasi dello stato finale, ddσ#»
k
#»
dσ
o dΩ o in generale ddσ#»
a , dove a è un vettore di osservabili che caratterizza la cinematica dello stato
finale: questo vuol dire che anziché contare il numero totale di particelle diffuse (sezione d’urto totale) si
conta il numero di particelle diffuse aventi un certo valore di un’osservabile, per esempio un certo valore
dell’impulso ~k (sezione d’urto differenziale). In meccanica quantistica, naturalmente, questo vuol dire che
si suppone che vi siano molte copie di un sistema quantistico, tutte descritte dalla stessa hamiltoniana, e
224
La teoria delle perturbazioni
tutte nello stesso vettore di stato, su cui vengono effettuate misure ripetute: la sezione d’urto ci permette
di calcolare la probabilità del risultato di queste misure, per esempio di trovare una particella uscente in
una certa direzione diversa da quella del flusso di particelle entranti.
La sezione d’urto è quindi definita come
dσ = lim
1
t→∞ ja ∆t
|hb|S(t, −t)|ai|2 db
(13.63)
dove j è il flusso di particelle incidenti, aventi tutte vettore di stato |ai, |bi è lo stato finale (il risultato della
misura) e S(t, −t) è l’operatore di evoluzione temporale dal tempo −t in cui il sistema è preparato nello
stato |ai al tempo t in cui esso viene rivelato nello stato |bi — dove “rivelare nello stato” significa “eseguire
una misura il cui risultato rivela il sistema in questo stato”, e ∆t = 2t è la lunghezza dell’intervallo di
tempo tra la preparazione iniziale e la misura finale. L’elemento di matrice dell’evoluzione temporale nel
limite di grandi tempi
Sab ≡ lim hb|S(t, −t)|ai
t→∞
(13.64)
è detto elemento di matrice S (da “scattering”, una terminologia dovuta a Heisenberg.).
Spazio delle fasi e fattore di flusso
Vogliamo ora ottenere un’espressione esplicita per la sezione d’urto differenziale, nella situazione tipica
in cui sia lo stato iniziale che lo stato finale sono stati di definito impulso
#»
#»
h #»
x | k i = ψ #»
k (x) =
#» #»
1
(2π)
3
2
ei k · x .
(13.65)
Essi soddisfano la condizione di normalizzazione
#» #»
#» #»
h k | k 0 i = δ (3) ( k − k 0 ).
(13.66)
Per le applicazioni risulta di norma più conveniente parametrizzare l’impulso in coordinate sferiche,
cioé in termini del suo modulo k e di un elemento angolare dΩk = d cos θk dφk ), dove θk e φk sono gli angoli
#»
che parametrizzano la direzione di k in coordinate sferiche. Inoltre, visto che la regola aurea di Fermi
dà la probabilità di transizione tra autostati dell’energia, conviene ulteriormente esprimere il modulo di
impulso in termini dell’energia, che per una particella libera è
E=
#»
~2 k 2
.
2m
(13.67)
che determina il suo modulo.
Vogliamo quindi scrivere la sezione d’urto in termini di stati |EΩk i, che differiscono dagli stati |~ki
esclusivamente per una costante di normalizzazione. Per determinarla, osserviamo che
2
m
~
0
2
02
(k − k ) = 2 δ(k − k 0 ).
(13.68)
δ(E − E ) = δ
2m
~ k
Abbiamo quindi che
hEΩk |E 0 Ωk0 i = δ(E − E 0 )δ (2) (Ωk − Ωk0 ) =
m
δ(k − k 0 )δ (2) (Ωk − Ωk0 ).
~2 k
(13.69)
D’altra parte la delta di Dirac in cordinate sferiche soddisfa
1
#» #»
δ (3) ( k − k 0 ) = 2 δ(k − k 0 )δ (2) (Ωk − Ωk0 ).
k
(13.70)
13.2 Perturbazioni dipendenti dal tempo
225
Quindi, usando questa relazione per confrontare le due diverse condizioni di normalizzazione Eq. (13.66)
e Eq. (13.69) troviamo che
hEΩk |E 0 Ωk0 i =
mk #» #»0
h k | k i.
~2
(13.71)
Ne segue che gli stati |EΩk i, che soddisfano la condizione di normalizzazione Eq. (13.69), sono legati
#»
agli autostati dell’impulso | k i Eq. (13.65) che soddisfano la condizione di normalizzazione Eq. (13.66),
da
r
mk #»
|EΩk i =
| k i,
(13.72)
~2
e quindi nella rappresentazione delle posizioni si ha
r
r
#»
mk #» #»
mk 1
i k · #»
x
#»
h x |EΩk i =
hx|k i =
.
3 e
2
2
~
~ (2π) 2
(13.73)
#»
Possiamo ora calcolare esplicitamente il flusso j = | j |, pari al modulo del vettore flusso delle particelle entranti, nell’ipotesi che le particelle entranti siano tutte particelle libere nello stesso autostato
dell’impulso. Ricordiamo che il vettore flusso è definito come
i~ ∗ #»
#»
#»
[ψ ∇ψ − ∇ψ ∗ ψ].
j =−
2m
(13.74)
Sostituendo la funzione d’onda Eq. (13.73) in questa espressione troviamo immediatamente che
#»
#» ~ k mk 1
j =
m ~2 (2π)3
(13.75)
e quindi
#»
|j | =
k2
.
~(2π)3
(13.76)
Utilizzando questa espressione per il flusso, e supponendo che gli stati |ai e |bi siano stati di particella
libera di definito impulso scritti nella forma della Eq. (13.72), la sezione d’urto Eq. (13.63) diventa cosı̀
2
(2π)3 ~ 1 0
hE Ωk0 |S(t, −t)|EΩk i dE 0 dΩk0 .
2
t→∞
k
∆t
dσ = lim
(13.77)
L’approssimazione di Born
Possiamo ora calcolare la sezione d’urto al primo ordine in teoria delle perturbazioni utilizzando la regola
aurea di Fermi. Infatti, il limite per grande ∆t del modulo quadro dell’elemento di matrice S diviso per
∆t che compare nell’espressione Eq. (13.77) per la sezione d’urto è proprio la probabilità di transizione
per unità di tempo Eq. (13.62). Sostituendo l’espressione di quest’ultima troviamo cosı̀
dσ =
2
(2π)4 0
hE Ωk0 |V |EΩk i δ(E 0 − E)dE 0 dΩk0 .
2
k
(13.78)
Capiamo ora l’utilità della regola aurea di Fermi: nell’Eq. (13.77) compare il modulo quadro dell’ampiezza
di transizione. Quest’ultima, per interazioni invarianti per traslazioni temporali, conserva necessariamente
l’energia, e quindi si potrebbe pensare che l’ampiezza fosse proporzionale ad una delta di Dirac che esprime
la conservazione dell’energia. Ma se cosı̀ fosse, la probabilità di transizione risulterebbe proporzionale al
quadrato di una delta, che non ha senso. La soluzione del problema consiste nell’osservare che gli stati
sono preparati e quindi rivelati come autostati dell’hamiltoniana libera; essi non sono quindi autostati
dell’hamiltoniana totale, ed il potenziale può indurre transizioni tra di essi. Il calcolo eseguito nella
226
La teoria delle perturbazioni
Sez. 13.2.3 mostra che ciononostante, se il tempo durante il quale il potenziale agisce è molto lungo
(dimodoché la dipendenza temporale dovuta al fatto che il potenziale viene “acceso” e poi “spento”
diventa trascurabile), allora l’energia, ma la delta compare a livello di probabilità, non di ampiezze.
Possiamo quindi integrare la sezione d’urto su tutte le energie dello stato finale. La sezione d’urto
differenziale per unità di angolo è quindi
2
(2π)4 0
dσ
=
hE Ωk0 |V |EΩk i .
2
dΩk0
k
(13.79)
La Eq. (13.79), ossia l’espressione della sezione d’urto al primo ordine perturbativo, è nota come approssimazione di Born per la sezione d’urto.
Utilizzando l’espressione esplicita Eq. (13.72-13.73) degli stati |EΩk i, l’elemento di matrice che compare nella Eq. (13.79) diventa
Z
#» #»
mk
hEΩk0 |V |EΩk i = 2
d3 x ei q · x V ( #»
x ),
(13.80)
~ (2π)3
dove
#» #»
#»
q = k − k0
(13.81)
#»
#»
è l’impulso trasferito, e | k | = | k 0 | = k visto che E 0 = E.
Si ha cosı̀
dσ
(2π)4 m2
=
|f ( #»
q )|2 ,
dΩ
~4
(13.82)
dove
f ( #»
q) ≡
1
(2π)3
Z
#» #»
d3 #»
x V ( #»
x )ei q · x .
(13.83)
è detto fattore di forma del bersaglio, ed abbiamo sottinteso che l’elemento angolare dΩ si riferisca
#»
all’impulso dello stato finale k 0 . Per potenziali centrali possiamo ulteriormente scrivere
Z ∞ Z 1
Z ∞
1
sin qr
1
2
iqr cos θ
#»
f( q ) =
dr
d cos θ r V (r)e
=
dr r
V (r).
(13.84)
2
4π 2 0
2π
q
−1
0
Sostituendo nella Eq. (13.82) troviamo infine
Z
2
4m2 ∞
dσ
= 2 4 dr r sin qrV (r) .
dΩ
q ~
0
(13.85)
Parte VI
Sistemi di molti corpi
Capitolo 14
Particelle identiche
Nella discussione dei sistemi quantistici il cui spazio degli stati si ottiene prendendo un prodotto diretto
di spazi di stati di dimensione inferiore ci siamo finora concentrati su problemi separabili. Abbiamo cioé
sempre tentato di ridurre problemi multidimensionali a più problemi unidimensionali, il problema dei due
corpi a due problemi ad un corpo, e cosı̀ via. In questi casi il vettore di stato si fattorizza completamente,
anche se sappiamo che in generale non sempre questo è possibile. Un caso particolarmente sorprendente
in cui questo succede è quello delle particelle identiche.
14.1
Indistinguibilità quantistica
La meccanica statistica, sia nel caso classico che nel caso quantistico, è basata sul conteggio degli stati di
un sistema meccanico. Anche quando non si può completamente osservare lo stato di un sistema, se ne
possono descrivere molte proprietà in termini di medie, e per questo è ovviamente necessario contare gli
stati che hanno una certa proprietà (per esempio, tutti gli stati che hanno energia in un certo intervallo).
Il conteggio degli stati in meccanica quantistica differisce profondamente dalla sua controparte classica
perché quantisticamente è diverso il concetto di identità di stati fisici.
In meccanica classica, infatti, due oggetti non sono mai completamente indistinguibili: classicamente,
è sempre possibile (in linea di principio, se non in pratica) eseguire qualche misura che permetta di
distinguerli. Anche due palle da biliardo perfettamente identiche possono essere distinte semplicemente
definendo come prima, o seconda, quella che ad un certo tempo occupa una certa posizione. Ma in
meccanica quantistica il principio di indeterminazione fa sı̀ che il concetto di traiettoria di un oggetto
perda di significato: quindi, assegnarne la posizione non permette di identificarlo a tutti i tempi successivi
senza ambiguità.
È quindi possibile che in meccanica quantistica esistano oggetti completamente indistinguibili, nel
senso che non esiste alcuna misura che permette di dire qual è il primo e qual è il secondo. Per definire pù
precisamente questa situazione, e capirne le implicazioni, consideriamo un sistema che vive in uno spazio
prodotto diretto: ad esempio un sistema di due particelle. Il vettore di stato ha quindi la forma
X
|ψi =
cnm |ni ⊗ |mi,
(14.1)
nm
dove |ni, |mi sono basi per gli spazi degli stati delle due particelle. Ad esempio, |ni, |mi potrebbero
essere i valori della terza componente dello spin per due particelle, oppure valori dell’energia e del modulo
dell’impulso per ciascuna particella. Quantisticamente, diciamo che due particelle sono identiche quando:
1. gli spazi degli stati |ni, |mi sono copie dello stesso spazio degli stati (ossi se i due spazi sono
isomorfi): ad esempio, se si tratta di stati di terza componente dello spin, per particelle che hanno
lo stesso spin;
2. lo scambio dei numeri quantici relativi alla prima ed alla seconda particella lascia invariati i risultati
di qualunque misura che può essere eseguita sul sistema.
230
14.1.1
Particelle identiche
L’operatore di scambio
Per studiare le proprietà delle particelle identiche, introduciamo un operatore di scambio P12 , tale che
P12 |mi ⊗ |ni = |ni ⊗ |mi.
Agendo su uno stato della forma Eq. (14.1) l’operatore di scambio produce il nuovo stato
X
|ψ 0 i = P12 |ψi =
cmn |ni ⊗ |mi.
(14.2)
(14.3)
nm
Ricordando che la fase di uno stato quantistico è inosservabile, diciamo quindi che due particelle sono
identiche se per ogni stato del sistema
|ψ 0 i = P12 |ψi = eiα |ψi.
(14.4)
2
P12
=I
(14.5)
2
|ψi = P12
|ψi = (eiα )2 |ψi
(14.6)
eiα = ±1.
(14.7)
Poiché, ovviamente
ne segue che
quindi
In altri termini, due particelle sono identiche se tutti i loro stati sono autostati dell’operatore di scambio,
ed i possibili valori dell’autovalore sono ±1.
È facile dimostrare che l’operatore di scambio è l’inverso di se stesso:
2
I = P12
= P12 P12
(14.8)
−1
P12 = P12
.
(14.9)
e quindi
Inoltre l’operatore di scambio è autoaggiunto: infatti usando la definizione Eq. (14.2) vediamo che i suoi
elementi di matrice sono (usando la sonsueta notazione compatta in cui omettiamo il simbolo di prodotto
diretto)
hm0 , n0 |P12 |m, ni = δmn0 δmn0 ,
(14.10)
†
hm0 , n0 |P12
|m, ni = hm, n|P12 |m0 , n0 i)∗ = δmn0 δmn0
(14.11)
e quindi manifestamente
†
. Assieme alla Eq. (14.9), ciò implica immediatamente che esso è anche unitario.
da cui segue P12 = P12
Poiché dopo la misura di un’osservabile qualunque il sistema si trova in un autostato dell’osservabile,
la Eq. (14.4) implica immediatamente che un sistema di particelle indentiche è un sistema tale per cui
qualunque operatore Ô associato ad un’osservabile soddisfa la condizione
P12 ÔP12 = Ô.
(14.12)
Infatti, misurando Ô possiamo porre il sistema in un qualunque autostato di |nO i di Ô, che soddisfa
Ô|nO i = λO |nO i.
(14.13)
14.1 Indistinguibilità quantistica
231
Pertanto lo stato |nO i deve soddisfare la Eq. (14.4) e quindi
P12 ÔP12 |nO i = eiα P12 Ô|nO i = P12 eiα λO |nO i = λO |nO i = Ô|nO i.
(14.14)
Ma questo deve essere vero per qualunque autostato, e quindi qualunque osservabile relativa al sistema
deve essere invariante sotto lo scambio degli spazi su cui agiscono gli operatori relativi alle due particelle.
Per esempio, per un sistema di due particelle meccaniche avente hamiltoniana
#p
#p
ˆ»2
ˆ»2
1
ˆ»1 , #x
ˆ»2 ) + W (1) ( #x
ˆ»1 ) + W (2) ( #x
ˆ»2 )
Ĥ =
+ 2 + V̂ ( #x
2m1
2m2
(14.15)
si ha
−1
P12 HP12
=
#p
#p
ˆ»2
ˆ»2
2
ˆ»2 , #x
ˆ»1 ) + W (1) ( #x
ˆ»2 ) + W (2) ( #x
ˆ»1 ),
+ 1 + V ( #x
2m1
2m2
(14.16)
quindi la condizione Eq. (14.12) è soddisfatta solo se m1 = m2 , W (1) (x) = W (2) (x) e V (x, y) = V (y, x).
Naturalmente, se la Eq. (14.17) vale per qualunque operatore, tutti gli stati accessibili al sistema soddisfano la condizione di indistinguibilità Eq. (14.4), quindi possiamo equivalentemente dire che due particelle
sono identiche se per qualunque osservabile Ô vale la Eq. (14.17).
L’ Eq. (14.12) può essere equivalentemente riscritta come
[P12 , Ô] = 0,
(14.17)
pertanto l’operatore di scambio è diagonalizzabile simultaneamente a qualunque osservabile del sistema,
ed in particolare all’hamiltoniana. Un’osservazione importante è che sullo spazio degli autostati dell’operatore di scambio, anche il risultato della misura di un’osservabile relativa ad una singola particella non
permette di distiguere di che particella si tratti: infatti, la Eq. (14.4) implica che
Cmn = eiα Cnm .
Ma la probabilità che una misura riveli il sistema nell’i-esimo stato della prima particella è
X
Pi =
|Cin |2
(14.18)
(14.19)
n
che è quindi uguale alla probabilità che una misura riveli il sistema nello stesso stato della seconda
particella. Quindi, ad esempio, sullo spazio delle funzioni simmetriche o antisimmetriche se la misura di
spin di una particella la rivela, poniamo, con spin su questo mi permette di dire che c’è una particella
con spin su, ma non quale particella abbia spin su. Quindi anche l’operatore di spin di una singola
particella, se definito sullo spazio degli stati simmetrici o sullo spazio degli stati antisimmetrici soddisfa
la Eq. (14.17): l’operatore non è simmetrico sullo spazio di tutti gli stati prodotto diretto possibili, ma
lo è sul sottospazio degli stati simmetrici o antisimmetrici.
14.1.2
Sistemi di n particelle e degenerazione di scambio
Quando le particelle identiche diventano più di due la situazione si complica in modo interessante. Per
un sistema di k particelle, il vettore di stato ha la forma
X
|ψi =
cn1 ...nk |n1 i ⊗ |n2 i · · · ⊗ |nk i.
(14.20)
n1 ...nk
Si possono quindi definire 21 k(k−1) operatori di scambio Pij che scambiano i numeri quantici della i-esima
e della j-esima particella,
X
Pij |ψi =
cn1 ...nj ...ni ...nk |n1 i ⊗ . . . |ni i · · · ⊗ |nj i . . . |nk i.
(14.21)
n1 ...nk
232
Particelle identiche
Saremmo quindi portati a dire che k particelle sono tutte identiche fra loro se gli stati fisici sono
autostati di tutti gli operatori di scambio:
Pij |ψi = eiαij |ψi.
(14.22)
Osserviamo tuttavia che gli operatori di scambio non commutano fra di loro. Possiamo capire questo con
un semplice esempio. Consideriamo uno stato a tre particelle, completamente fattorizzato, della forma
|k1 k2 k3 i. È facile verificare che
P12 P13 |k1 k2 k3 i = P12 |k3 k2 k1 i = |k2 k3 k1 i,
(14.23)
P13 P12 |k1 k2 k3 i = P13 |k2 k1 k3 i = |k3 k1 k2 i =
6 P12 P13 |k1 k2 k3 i.
(14.24)
mentre
Quindi gli operatori di scambio non commutano nello spazio prodotto diretto. Ne segue che per più
di due particelle le due condizioni Eq. (14.17) ed Eq. (14.4) non sono in generale equivalenti: possiamo
sempre soddisfare la prima, chiedendo che qualunque osservabile commuti con lo scambio di qualunque
coppia di particelle, ma non possiamo in generale soddisfare la seconda, chiedendo che gli stati siano
simultaneamente autostati di tutti i 1−2
k (k − 1) operatori di scambio, in quanto questi non commutano
fra loro.
Nello spazio prodotto diretto possiamo quindi solo chiedere che valga la Eq. (14.4): questo vorrebbe
dire che vi sono 1−2
k (k − 1) operatori di scambio che non commutano fra di loro ma che commutano
con l’hamiltoniana, e con qualunque altra osservabile. Poiché vi sono sono k! permutazioni dello stato
fattorizzato |k1 k2 k3 i questo vuol dire che nello spazio prodotto diretto vi sono k! autostati degeneri per
qualunque osservabile fisica. Questa degenerazione è detta degenerazione di scambio. Per esempio, se
consideriamo una hamiltoniana per un sistema di tre particelle in una buca di potenziale unidimensionale,
lo spettro di autovalori di energia è lo stesso di quello della buca di potenziale cubica, dato dagli En1 n2 n3 ,
Eq. (9.47). Ma è ovvio che tutti i sei (3!) stati |n1 n2 n3 i che differiscono per una permutazione dei tre
indici sono associati allo stesso autovalore.
14.2
Statistiche quantistiche
Anche se gli operatori di scambio non commutano nello spazio di tutti gli stati fisici, esistono due sottospazi
dello spazio prodotto diretto nei quali gli operatori di scambio commutano. Se facciamo quindi l’ipotesi
che gli unici stati fisicamente realizzati appartengano a questi sottospazi, allora è possibile diagonalizzare
simultaneamente tutti gli operatori di scambio e tutte le osservabili fisiche, e la degenerazione di scambio
sparisce
14.2.1
Stati simmetrici ed antisimmetrici
Il sue sottospazi per cui gli operatori di scambio sono quelli degli stati a definita simmetria, cioè completamente simmetrici o completamente antisimmetrici, ovvero tali che per ogni i, j
Pij |ψi = ±|ψi.
(14.25)
È ovvio che in questi sottospazi gli operatori di scambio commutano. Infatti, sia per stati simmetrici che
per stati simmetrici si ha, usando ripetutamente la Eq. (14.25),
Pij Pi0 j 0 |ψi = Pi0 j 0 Pij |ψi = |ψi
(14.26)
per ogni scelta di i, j, i0 , j 0 . Ma anche per stati antisimmetrici
Pij Pi0 j 0 |ψi = |ψi = Pi0 j 0 Pij |ψi.
(14.27)
Che sia possibile costruire stati completamente simmetrici o completamente antisimmetrici è garantito
dal fatto che essi sono un sottospazio dello spazio di tutti gli stati prodotto diretto. Che gli stati simmetrici
14.3 Spin e statistica
233
lo siano è ovvio. Che lo siano anche gli stati antisimmetrici è meno ovvio: infatti, una qualunque
permutazione di n oggetti può essere ottenuta attraverso un numero finito di scambi di due oggetti. In
generale, vi sono più sequenze di scambi che portano alla stessa permutazione, e quindi potrebbe sorgere il
dubbio che l’antisimmetria non sia univocamente definita, visto che lo stesso scambio può essere ottenuto
con diverse sequenze di permutazioni. Tuttavia, di può dimostrare che se una permutazione può essere
ottenuta attraverso una sequenza di un numero pari di scambi, qualunque altra sequenza che porti alla
stessa permutazione deve contenere un numero pari di scambi, e analogamente se può essere ottenuta
attraverso un numero dispari di scambi qualunque altra sequenza che porta alla stessa permutazione è
fatta di un numero dispari di scambi. Quindi la parità (o segnatura) di una qualunque permutazione è
univocamente definita, o come pari, o come dispari. Quindi uno scambio è una permutazione dispari, e
qualunque altra seuqenza di scambi che porti al medesimo risultato deve contenere un numero disparti
di scambi. È inoltre facile vedere che una combinazione lineare di stati simmetrici o antisimmetrici è
anch’essa rispettivamente simmetrica o antisimmetrica. Gli stati simmetrici e antisimmetrici sono quindi
un sottospazio dello spazio di partenza. È facile costruire questi spazi esplicitamente: nel caso simmetrico,
basta aggiungere ad ogni stato |n1 . . . nk i tutti gli stati che differiscono da esso per una permutazione, e
nel caso antisimmetrico, basta aggiungere tutte le permutazioni pesate con un fattore (−1)s , dove s è la
segnatura della permutazione.
È facile verificare che questi sono gli unici due sottospazi per cui gli operatori di scambio commutano,
cioè che in qualunque sottospazio a simmetria mista gli operatori di scambio non commutano: se vi sono
almeno due autovalori diversi per due operatori di scambio diversi, allora si vede facilmente che l’ipotesi
che gli stati siano autostati di entrambi porta ad una contraddizione. Possiamo dare il controesempio
nel caso di tre particelle visto prima, Eq. (14.23-14.24). Supponiamo che l’autovalore di P12 sia +1 e
l’autovalore di P13 sia −1, e consideriamo uno stato della forma |k1 k2 k3 i. Abbiamo che
|k1 k2 k3 i = |k2 k1 k3 i = −|k3 k1 k2 i = −|k1 k3 k2 i = |k2 k3 k1 i = |k3 k2 k1 i = −|k1 k2 k3 i,
(14.28)
che è una contraddizione.
Concludiamo che gli spazi degli stati completamente simmetrici o completamente antisimmetrici sono
tutti e soli gli spazi su cui gli operatoi di scambio commutano. Per un sistema di particelle identiche
definito nell’uno o nell’altro di questi sottospazi non c’e’ degenerazione di scambio.
14.3
Spin e statistica
14.3.1
Bosoni e Fermioni
Per quanto ne sappiamo, la natura ha scelto di non far uso della degenerazione di scambio: i sistemi di
particelle identiche realizzati in natura sono o completamente simmetrici, o completamente antisimmetrici.
La proprietà di trasformazione sotto scambio del vettore di stato per un sistema di n particelle identiche
è nota come statistica delle particelle. Le particelle simmetriche sotto scambio sono dette bosoni, o,
equivalentemente si dice che esse soddisfano la statistica di Bose-Einstein. Le particelle antisimmetriche
sotto scambio sono dette fermioni, o equivalentemente si dice che esse soddisfano la statistica di FermiDirac. In natura, tutte le particelle di spin intero sono bosoni e quelle di spin semi-intero sono fermioni.
Ciò va sotto il nome di relazione spin-statistica.
14.3.2
Il principio di esclusione
L’obbligo di simmetrizzare od antisimmetrizzare la funzione d’onda per un sistema di n particelle identiche
ha immediate conseguenze sullo spettro di energia per un sistema di n particelle, e può essere visto come
un’interazione efficace non separabile tra le particelle anche in assenza di forze. Infatti, la funzione
d’onda per un sistema di due particelle identiche soggette ad un medesimo potenziale V , cioè descritte
dall’hamiltoniana completamente separabile
H = H1 + H2 ,
Hi =
p2i
+ V (xi )
2m
(14.29)
234
Particelle identiche
(come, ad esempio, due particelle in una buca di potenziale) non è mai fattorizzabile nel caso di fermioni,
e non è in generale fattorizzabile nel caso di bosoni.
Supponiamo infatti noto lo spettro di Hi :
Hi |ni = E|ni;
hxi |ni = ψn (xi ).
(14.30)
Supponiamo inoltre che n sia intero, con n = 0 stato fondamentale. Nel caso di bosoni, lo stato
fondamentale per il sistema di due particelle è quindi
ψgB (x1 , x2 ) = ψ0 (x1 )ψ0 (x2 )
(14.31)
ma per un sistema di due fermioni esso è
1
ψgF (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) − ψ0 (x2 )ψ1 (x1 )) .
2
(14.32)
Infatti, se si antisimmetrizza la funzione d’onda di stato fondamentale essa si annulla. Questo è il principio
di esclusione (di Pauli): per un sistema di n fermioni identici in un potenziale, non è possibile avere due
fermioni nello stesso stato. Inoltre, anche nel caso di bosoni, il primo stato eccitato è dato da
1
ψ1B (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) + ψ0 (x2 )ψ1 (x1 )) ,
2
(14.33)
che pure non è fattorizzabile. Quindi anche in assenza di interazioni la funzione d’onda non è fattorizzabile,
come se vi fosse un potenziale non separabile.
14.3.3
Il teorema spin-statistica
La relazione spin-statistica è un fatto sperimentale, cosı̀ come il fatto che non esista degenerazione di
scambio, cioè che la simmetria mista in natura non sia realizzata. Tuttavia, ci si può chiedere se vi
siano motivazioni teoriche per la relazione spin-statistica, ossia se essa si possa dedurre da altri principi
fisici. In effetti, un “teorema spin-statistica” fu dimostrato negli anni ’50 da Streater e Wightman, due
fisici matematici interessati a dare una formulazione rigorosa alla teoria quantistica dei campi. Streater
e Wightman dimostrarono che la relazione spin-statistica è necessaria perché una teoria quantistica di
campo abbia uno stato fondamentale stabile, e simultaneamente soddisfi una serie di assiomi ritenuti
irrinunciabili, in particolare la causalità (unitarietà) e la località.
Esistono tuttavia anche argomenti più semplici che portano alla relazione spin-statistica, alcuni dei
quali si possono riformulare nell’ambito della meccanica quantistica non relativistica. Esiste in particolare un’ampia letteratura sulla relazione spin-statistica in spazi bidimensionali. Il caso bidimensionale
è particolarmente interessante perché in due dimensioni sono possibili altre statistiche oltre a quelle di
Bose e Fermi, che sono di interesse per fenomeni di fisica della materia condensata, come l’effetto Hall
frazionario.
Discutiamo quindi la relazione spin-statistica in due dimensioni. Ricordiamo innanzitutto che si è
costruito lo spin studiando le rappresentazioni delle rotazioni. In tre dimensioni ci sono tre generatori di
rotazioni, le rotazioni attorno ai tre assi; in due dimensioni c’è un solo generatore delle rotazioni, l’asse
perpendicolare allo spazio bidimensionale. Il gruppo delle rotazioni è pertanto il gruppo abeliano SO(2)
delle rotazioni dei vettori bidimensionali. Esso è isomorfo al gruppo delle trasformazioni di fase: possiamo
sempre ad associare ad una rotazione di angolo θ la fase eiθ .
Pertanto, la più generale funzione d’onda bidimensionale è
h #»
x |ψi = ψ(r, ϑ),
(14.34)
e una rotazione di angolo α di tale funzione d’onda è
h #»
x |Rα |ψi = ψ(r, ϑ + α) = eα ∂ϑ ψ(r, ϑ)
∂
(14.35)
14.3 Spin e statistica
235
che possiamo anche esprimere in termini dell’operatore di momento angolare L
i
h #»
x |Rα |ψi = h #»
x |e ~ αL̂ |ψi,
(14.36)
dato da
∂
h #»
x |L̂| #»
x 0 i = −i~ δ (2) ( #»
x − #»
x 0 ).
∂ϑ
(14.37)
Ovviamente, le autofunzioni di L sono le funzioni
hθ|ni = einθ
(14.38)
L|ni = ~n|ni
(14.39)
tali che
e la richiesta che la funzione d’onda sia ad un valore implica che n è intero.
Cosı̀ come nel caso tridimensionale si può definire uno spin. Lo spin è un momento angolare intrinseco
che in questo caso è generato dall’unico generatore s. Su una funzione d’onda |si, che vive in uno spazio
i
astratto, può agire un operatore e− ~ αŝ tale che
i
e− ~ αŝ |si = e−iαs |si,
(14.40)
ŝ|si = ~s|si.
(14.41)
dove |si sono autofunzioni
Notiamo che in questo caso s potrebbe prendere qualunque valore (non c’è condizione di quantizzazione). Tuttavia, visto che desideriamo in seguito immergere il piano in uno spazio tridimensionale,
concentriamoci sui casi di s intero e semi-intero che ammettono la generalizzazione a tre dimensioni.
La funzione d’onda totale di un sistema avente sia momenti angolare orbitale che spin è quindi
|ψsi = |ψi ⊗ |si.
(14.42)
Sotto una rotazione di angolo θ essa si trasforma come
eiθ(L+ŝ) |ψsi = eiθs eiθL |ψsi
(14.43)
h #»
x |ψsi = ψs ( #»
x ),
(14.44)
e quindi
dove la ψs differisce dalla funzione d’onda spaziale ψ( #»
x ) per una pura fase.
Consideriamo ora la funzione d’onda per un sistema di due particelle in due dimensioni, con spin. La
funzione d’onda |ψsi è data da
h #»
x 1 #»
x 2 |ψsi = ψs ( #»
x 1 , #»
x 2 ),
(14.45)
dove ora sotto una rotazione di angolo α si ha
h #»
x 1 #»
x 2 |Rα |ψsi = e2iαs Rα ψs ( #»
x 1 , #»
x 2 ),
(14.46)
dove Rα realizza la rotazione spaziale, ed abbiamo supposto che lo spin sia s per entrambe le particelle.
Osserviamo ora che la funzione d’onda spaziale per un sistema di due particelle si può scrivere in
termini di coordinata del baricentro e coordinata relativa come
#»
x 1 + #»
x2
#»
#»
#»
#»
#»
#»
#»
h x 1 x 2 |ψi = ψ( x 1 , x 2 ) = ψ x 1 − x 2 ,
= ψ( #»
r , R) = ψ(r, ϑ, ϕ)
(14.47)
2
236
Particelle identiche
Figura 14.1: Scambio di due particelle identiche A e B in due dimensioni tramite una rotazione attorno
al loro baricentro.
dove nell’ultimo passaggio abbiamo ulteriormente parametrizzato coordinata del baricentro e coordinata
relativa in coordinate polari:
r cos ϑ
#»
r (ϑ) =
(14.48)
r sin ϑ
#»
R(ϕ) =
R cos ϕ
R sin ϕ
.
(14.49)
Osserviamo ora che ne segue che l’operatore di scambio può essere semplicemente realizzato da una
rotazione intorno al baricentro del sistema, o più in generale da una rotazione seguita da una traslazione
(si veda la Fig. 14.1): infatti una rotazione di π manda la coordinata relativa #»
r in − #»
r , ma ovviamente
#»
ψ( #»
x 2 , #»
x 1 ) = ψ(− #»
r , R) = ψ(r, ϑ + π, ϕ).
(14.50)
P12 |ψi = Rπ |ψi.
(14.51)
Pertanto
Ora calcoliamo l’azione di una rotazione di π su un sistema di particelle identiche, supponendo che
siano in uno stato di momento angolare orbitale relativo nullo. Usando la Eq. (14.46) abbiamo che
h #»
x 1 #»
x 2 |Rπ |ψsi = e2iπs Rα ψ( #»
x 1 , #»
x 2 ) = e2iπs ψ( #»
x 1 , #»
x 2 ),
(14.52)
dove l’ultimo passaggio segue dall’ipotesi di momento angolare orbitale relativo nullo. Ma se le particelle
sono identiche abbiamo anche che
h #»
x 1 #»
x 2 |Rπ |ψsi = h #»
x 1 #»
x 2 |P12 |ψsi = e2iπs h #»
x 1 #»
x 2 |ψsi,
(14.53)
dove nell’ultimo passaggio abbiamo usato la Eq. (14.52). Ma questo ci dice immediatamente che la ψs è
un autostato dell’operatore di scambio con autovalore ±1 a seconda che s sia intero o semi-intero.
D’altra parte, abbiamo visto che la simmetria della funzione d’onda deve essere una proprietà universale per un sistema di particelle identiche, e quindi essa non può dipendere dal valore del momento angolare
orbitale. Ne deduciamo che la funzione d’onda deve essere necessariamente simmetrica (antisimmetrica)
se lo spin è intero (semi-intero), cioè il teorema spin-statistica.
Questo stabilisce il teorema spin statistica in due dimensioni nel caso non relativistico. In più dimensioni la dimostrazione comporta qualche complicazione tecnica, legata al fatto che in più di due dimensioni
14.3 Spin e statistica
237
vi sono diversi modi di scambiare due particelle mediante una rotazione. Ma la motivazione profonda
della relazione spin-statistica resta una conseguenza del fatto che scambiare tra loro due particelle è simile
ad effettuare una rotazione di π, e quindi per spin seminteri lo scambio di due particelle si porta dietro
una fase di -1. Questo è l’argomento che sta alla base del teorema anche in teoria quanto-relativistica dei
campi, dove vengono introdotti operatori di creazione e distruzione che dipendono dalla coordinata (ce
ne sono per ogni punto dello spazio). Tali operatori per i fermioni devono anticommutare, e si vede che
ciò dà luogo appunto ad una fase di -1.
238
Particelle identiche
Capitolo 15
Entanglement
Abbiamo visto come per sistemi di due o più particelle identiche, anche in assenza di interazione, la
necessità di simmetrizzare od antisimmetrizzare il vettore di stato impedisca di scriverlo come prodotto
diretto: sempre, per i fermioni, e tutte le volte che almeno due delle particelle si trovano in stati diverse,
per i bosoni. Gli stati che non si possono scrivere come prodotto diretto sono detti stati entangled, ovvero
intrecciati: il termine originale, dovuto a Heisember, è verschränkt, che significa conserto.
Gli stati entangled rivelano la natura non-locale della funzione d’onda e sono quindi, come vedremo
in questo capitolo, al cuore della meccanica quantistica. Da un lato, è in presenza di entanglement che
si manifesta la differenza tra descrizione classica e descrizione quantistica dei fenomeni fisici. D’altra
parte, è il comportamento dei sistemi entangled quando vengono eseguite delle misure che ci permette di
capire la transizione tra la descrizione quantistica e quella classica dei fenomeni fisici, ed in particolare
come la descrizione classica emerga quando la perdita di informazione sullo stato del sistema fa sı̀ che
l’interferenza quantistica non sia più rilevabile.
Come abbiamo visto nella Sezione 3.3.2, l’informazione contenuta in un sistema quantistico è codificata nella sua matrice densità. La struttura della matrice densità permette cosı̀ di caratterizzare
l’entanglement, e di dedurne le conseguenze.
15.1
Matrice densità
Come abbiamo già visto la matrice densità permette di caratterizzare in modo del tutto generale la
situazione in cui vi è informazione incompleta circa lo stato di un sistema. In fisica quantistica, a
differenza che nel caso classico, è possibile prevedere gli eventi solo in modo statistico (cioé se ne può solo
calcolare la probabilità) anche quando si è in possesso di informazione completa sullo stato del sistema.
Il formalismo della matrice densità permette di distinguere tra informazione probabilistica classica e
quantistica.
Ricordiamo che per un sistema che si trova in uno stato quantistico |ψi ben definito, ossia in uno stato
puro, la matrice densità è definita come il proiettore su tale stato:
ρ = |ψihψ|.
(15.1)
Se tuttavia si conosce solo l’insieme delle probabilità Pi che il sistema si trovi in uno degli stati |ψi i si
dice che il sistema si trova in uno stato misto, anziché in uno stato puro, e la matrice densità è
X
X
ρ=
Pi |ψi ihψi |;
Pi = 1.
(15.2)
i
i
Notare che Pi sono probabilità, quindi numeri reali tali che 0 ≤ Pi ≤ 1.
Il formalismo della matrice densità rende chiara la profonda differenza tra sovrapposizione quantistica
e la sovrapposizione statistica. Nella sovrapposizione quantistica, lo stato puro |ψi è generalmente scritto
come sovrapposizione di altri stati. La matrice densità contiene quindi tutti i termini di interferenza tra
gli stati: se |ψi = c1 |φ1 i + c2 |φ2 i chiaramente ρ Eq. (15.1) è la somma di quattro termini, sia quelli
240
Entanglement
contenenti le combinazioni |φ1 ihφ1 | e |φ2 ihφ2 |, sia i termini di interferenza |φ1 ihφ2 | e |φ2 ihφ1 |. Invece la
sovrapposizione statistica classica Eq. (15.2) contiene solo termini diagonali, senza interferenze. Questa è
la ragione per la quale la meccanica quantistica è diversa dalla meccanica statistica classica: in entrambi
i casi le le predizioni sono predizioni probabilistiche, però nel caso quantistico, a differenza che nel caso
classico, ciò che si sovrappone non sono probabilità, bensı̀ ampiezze. Le probabilità sono il modulo quadro
delle ampiezze e di conseguenza compaiono dei termini di interferenza.
Ricordiamo che, sia che il sistema si trovi un uno stato puro, sia che si trovi in uno stato misto,
cioè una sovrapposizione statistica, la matrice densità è un operatore autoaggiunto ρ† = ρ avente traccia
Trρ = 1, e il valor medio di una qualunque osservabile associata ad un operatore  è dato da
hÂi = TrÂρ.
(15.3)
Ricordiamo inoltre (si confronti la Eq. 3.119) che la matrice densità descrive uno stato puro se e solo se
ρ2 = ρ, ossia se e solo se Trρ2 = 1, mentre per uno stato misto si ha sempre Trρ2 < 1.
15.1.1
Meccanica statistica
La meccanica statistica quantistica può essere formulata in termini delle proprietà della matrice densità.
In particolare, la matrice densità per l’ensemble canonico, ossia per una sovrapposizione termica di stati,
è data da
P −βEk |kihk|
ke
,
(15.4)
ρ= P
−βEk
ke
1
in termini della temperatura T e della costante di Boltzmann k, e la somma corre su tutti gli
dove β = kT
autostati di energia del sistema. L’evoluzione temporale della matrice densità segue dalla sua definizione
Eq. (15.2): utilizzando l’equazione di Schrödinger si ha
d
d
d
ρ=
|ψihψ| + ψi hψ|
dt
dt
dt
1
=
(H|ψi ihψi iψi | − |ψi ihψi iψi |H)
(15.5)
i~
1
= [H, ρ],
i~
che ricorda l’equazione del moto per gli operatori in rappresentazione di Heisenberg, ma col segno cambiato. L’Eq. (15.5) è l’analogo quantistico dell’equazione di Liouville che fornisce la dipendenza temporale
di una distribuzione di probabilità classica, dalla quale si ottiene sostituendo le parentesi di Poisson con
commutatori divisi per i~, come già si è visto per le equazioni di Hamilton nella Sezione 5.3.5.
15.1.2
Matrice densità e misure parziali
È un principio fondamentale della meccanica quantistica che dopo la misura di un’osservabile un sistema
si trova in un autostato di quell’osservabile. Questo peroò non necessariamente vuol dire che dopo
una misura un sistema si trovi in uno stato puro: infatti, questo è vero solo se il risultato della misura
caratterizza completamente lo stato del sistema. Come è noto (si ricordi la discussione nella Sezione 2.3.3)
la misura proietta lo stato del sistema sul sottospazio (eventualmente degenere) di stati associati al valore
dell’osservabile misurata.
Una situazione particolarmente interessante si ha quando la misura determina solo le proprietà di una
parte del sistema complessivo. Per capirlo, consideriamo il caso di un sistema che vive in uno spazio di
prodotto diretto, dove quindi si ha
|ψi =
X
mn
cmn |m1 i ⊗ |n2 i;
(15.6)
15.1 Matrice densità
241
|m1 i sono vettori di base del sistema 1, mentre |n2 i sono vettori di base del sistema 2. La matrice densità
ha la forma:
X
(15.7)
c∗m0 n0 cmn |m1 i|n2 ihm01 |hn02 |.
ρ = |ψihψ| =
mnm0 n0
Ci chiediamo ora cosa succede quando viene effettuata una misura in uno solo dei due sottospazi, ossia
una misura di un’osservabile che dipende soltanto dai gradi di libertà di uno dei due sottospazi. Questa
è naturalmente una situazione fisica tipica: in linea di principio, l’intero universo è descritto da un’unica
funzione d’onda, ma in pratica qualunque misura le proprietà di un sotto-sistema più o meno piccolo.
Data una osservabile Â2 che agisce solo nel secondo sottospazio, il suo valor medio è dato da:
X
hÂ2 i =
c∗mn0 cmn hn02 |Â2 |n2 i.
(15.8)
mnn0
Il risultato può essere espresso come
hÂ2 iTrÂ2 ρ2 ,
(15.9)
avendo definito una matrice densità ρ2 relativa al solo sottospazio ridotto, data da
X
X
ρ2 = Tr1 ρ =
c∗mn0 cmn |n2 ihn02 | =
dnn0 |n2 ihn02 |
(15.10)
dove nel primo passaggio Tr1 indica la traccia eseguita solo nel primo sottospazio, e
X
dnn0 =
cmn c∗mn0 .
(15.11)
2
mnn0
nn0
2
m
La matrice densità ρ2 è dunque la matrice densità ottenuta prendendo la matrice di partenza e tracciando
solo rispetto al sottospazio 1, dove non misuriamo.
Consideriamo per esempio un sistema di due particelle di spin 21 , che si trova in uno stato di spin
totale uguale ad 1, e terza componente uguale a 0:
1
|ψi = √ |+i|−i + |−i|+i .
2
(15.12)
Supponiamo che le due particelle non siano identiche (ad esempio, consideriamo un protone ed un elettrone) e supponiamo di misurare lo spin dell’elettrone. Vogliamo misurare, ad esempio, lo spin lungo
l’asse #»
n per l’elettrone. Consideriamo quindi l’operatore
σn = #»
n · #»
σ (2)
(15.13)
dove #»
σ (2) rappresenta il vettore delle matrici di Pauli che agiscono nel secondo sottospazio.
L’operatore σn agisce solo nel secondo sottospazio. Si ha
1
h+1 |h−2 | + h−1 |h+2 | σn |+1 i|−2 i + |−1 i|+2 i
2
1
= h+1 |+1 ih−2 |σn |−2 i + h−1 |+1 ih+2 |σn |−2 i + h+1 |−1 ih−2 |σn |+2 i + h−1 |−1 ih+2 |σn |+2 i
2
1
= h−2 |σn |−2 i + h+2 |σn |+2 i .
(15.14)
2
2
Tr σn ρ =
Abbiamo quindi
ρ2 = Tr1 ρ = Tr1
1
(|+1 i|−2 i + |−1 i|+2 i) (h+1 |h−2 | + h−1 |h+2 |) .
2
(15.15)
Notiamo che ρ2 è la matrice densità per uno stato misto completamente non polarizzato. Quindi, in
questo caso, benché il sistema si trovi in uno stato puro, l’impossibilitá di misurarne completamente le
caratteristiche fa sı̀ che esso appaia come uno stato misto. In altri termini, si può passare da uno stato
sovrapposizione quantistica ad uno stato sovrapposizione classica facendo delle medie dei gradi di libertà
che non si misurano.
242
15.1.3
Entanglement
Entanglement e media sui sottosistemi
Si dimostra che condizione necessaria e sufficiente affinché la matrice densità di uno stato puro resti puro
quando si misura solo un sottosistema è che lo stato si possa scrivere come prodotto diretto. Questo vuol
dire che data ρ2 = Tr1 ρ, se e solo se
|ψi = |ψ1 i|ψ2 i
(15.16)
ρ22 = ρ2
(15.17)
|ψi =
6 |ψ1 i|ψ2 i
(15.18)
ρ22 6= ρ2 .
(15.19)
allora
mentre se
allora
Verifichiamo esplicitamente che la condizione è sufficiente, omettendo la dimostrazione della condizione
necessaria. Il quadrato della matrice densità è:
X
X
X
ρ22 =
cmn c∗mn0 |nihn0 |
cij c∗ij 0 |jihj 0 | =
cmn c∗mn0 cij c∗ij 0 |nihn0 |jihj 0 |
mnn0
ijj 0
mnn0 ijj 0
!
=
X
cmn c∗mj cij c∗ij 0 |nihj 0 | =
mnijj 0
=
XX
nj 0
XX X
nj 0
cmn c∗mj
m
j
X
cij c∗ij 0
|nihj 0 |
i
0
(fnj fjj 0 ) |nihj |.
(15.20)
j
Ci chiediamo quando valga
ρ22 =
X
fnj 0 |nihj 0 |.
(15.21)
nj 0
Ipotizziamo che lo stato di partenza sia fattorizzato:
X
|ψi =
cmn |m1 i|n2 i.
(15.22)
mn
Esso è non entangled se cmn = bm dn . In questo caso, infatti,
X
|ψi =
bm |m1 i dn |n2 i = |ϕ1 i|ϕ2 i,
(15.23)
mn
avendo definito
|ϕ1 i =
X
bm |m1 i;
(15.24)
dn |n2 i.
(15.25)
m
|ϕ2 i =
X
n
Il fatto che
hϕ1 |ϕ1 i = hϕ2 |ϕ2 i = 1
(15.26)
implica che
X
m
|bm |2 =
X
n
|dn |2 = 1.
(15.27)
15.2 Meccanica quantistica e realismo locale
243
Mostriamo ora che queste ipotesi sono sufficienti a stabilire ρ2 descrive uno stato puro. Si ha infatti
!
!
XX X
X
2
∗ ∗
∗ ∗
ρ2 =
bm d n bm d j
bi dj bi dj 0 |nihj 0 |
nj 0
m
j
=
XX
=
X
nj 0
i
dn d∗j dj d∗j 0 |nihj 0 |
j
dn d∗j 0 |nihj 0 |
(15.28)
nj 0
ma dn d∗j 0 è proprio uguale a fnj 0 =
∗
m cmn cmj 0 ,
P
fnj 0 =
X
in quanto:
bm dn d∗j 0 b∗m = dn d∗j 0
(15.29)
m
e quindi effettivamente il quadrato della matrice densità è uguale alla matrice densità dalla quale eravamo
partiti.
Questa proprietà garantisce che sia frequentemente possibile descrivere un sistema quantistico in
termini della dinamica, e quindi dell’hamiltoniana, del sottosistema su cui si eseguono le misure. Se
anche in linea di principio l’intero universo è descritto da un’unica funzione d’onda, in pratica, purché il
vettore di stato di un certo sottosistema fattorizzi rispetto, è possibile descrivere il sottosistema ignorando
il resto dell’universo. Questo vuol dire che il sottosistema in esame è disaccoppiato dall’ambiente.
Ma, al contrario, per un sistema entangled se si prescinde dall’ambiente, la natura del sistema cambia:
sotto misura, un sistema che si trovava in uno stato puro si trasforma in una sovrapposizione statistica.
15.2
Meccanica quantistica e realismo locale
La descrizione quantistica della realtà per sistemi entangled porta a conclusioni che appaiono essere in
conflitto con il principio del cosiddetto realismo locale. Questo conflitto è stato espresso da Einstein
attraverso la descrizione di un esperimento inizialmente ideale, e poi in seguito realizzato, seppure con
qualche modifica.
15.2.1
Il paradosso Einstein-Podolsky-Rosen
Nel suo lavoro1 Einstein considera un caso particolare di un sistema entangled formato da due sottosistemi.
Usando una formulazione più moderna dovuta a Bell2 , l’esperimento si può formulare nel modo seguente.
Consideriamo due particelle di spin 12 che si trovano in uno stato di spin totale uguale a 0. La funzione
d’onda del sistema è quindi
1
|ψi = √ |+i|−i − |−i|+i .
2
(15.30)
Le due particelle vengono quindi allontanate senza che l’evoluzione temporale ne modifichi la funzione
d’onda di spin, e, quando le due particelle sono sufficientemente lontane, su di esse vengono eseguite
misure causalmente disconnesse, cioé tali che nessun segnale che viaggia alla velocità della luce possa
trasmettere l’informazione relativa alla misura di una particella quando viene eseguita la misura sull’altra
particella. L’ipotesi di realismo locale è che, essendo le particelle causalmente disconnesse, non c’è nulla
che può succedere alla prima particella in conseguenza di quello che facciamo sulla seconda particella, e
viceversa. Nelle parole di Einstein
...since at the time of measurement the two system no longer interact, no real change can take
place in the second system in consequence of anything that may be done in the first system.
1 Einstein A., Podolsky B., Rosen N., “Can Quantum-Mechanical Description of Physical Reality Be Considered
Complete?”, Phys. Rev. 47, 777-780 (May 15, 1935).
2 Bell J. S. “On the Einstein-Podolsky-Rosen paradox”, Physics 1, 195-200 (1964).
244
Entanglement
Secondo la meccanica quantistica, se eseguiamo la misura di spin di una delle due particelle per un
sistema che si trova nello stato Eq. (15.30), dopo la misura il sistema viene proiettato su un autostato
che corrisponde al risultati della misura che abbiamo fatto. Se quindi la misura della prima particella la
rivela in uno stato con spin su, dopo la misura la funzione d’onda del sistema totale è proiettata sullo
stato
|ψ 0 i = |+i|−i
(15.31)
Lo spin della seconda particella è quindi obbligatoriamente giù.
Ciò sembra paradossale in quanto sembra ci sia trasferimento di informazione ad una velocità maggiore
di quella della luce. In realtà sembrerebbe esserci una via d’uscita, come messo in luce da Bell attraverso
il esempio delle “calze di Bertlsmann”3 . Questo corrisponde alla situazione di due gemelli con due paia di
calze, l’una rossa e l’altra blu. Alla mattina non è noto chi si metta le calze rosse e chi si metta quelle blu,
ma c’è il 50% di chance che siano dell’uno o dell’altro colore. Osservando il colore delle calze dell’uno,
poniamo rosse, si deduce immediatamente che l’altro ha le calze blu. In ciò non c’è nulla di paradossale,
in quanto la scoperta di ciò che avviene al sistema avviene a posteriori della scelta operata dai gemelli.
Il problema tuttavia nasce quando si osserva che il sistema in uno stato di spin totale uguale a 0 può
essere equivalentemente visto come sovrapposizione di spin opposti lungo un asse qualunque. In altri
termini, lo stato può anche essere scritto come
1
|ψi = √ |+ix |−ix − |−ix |+ix
2
(15.32)
1
|±ix = √ |+i ± |−i ,
2
(15.33)
dove
e cosı̀ via, usando autostati dello spin in una direzione qualunque. In effetti, ricordando che il proiettore
su uno stato di spin ± 12 lungo l’asse #»
n , | #»
n | = 1 è
P± =
1
(I ± #»
n · #»
σ),
2
(15.34)
si dimostra facilmente che la matrice densità per questo sistema ha la forma
ρ=
1
(I − #»
σ 1 #»
σ 2)
4
(15.35)
dove #»
σ 1 #»
σ 2 sono operatori di spin scritti sotto forma di matrici di Pauli che agiscono sullo spazio della
particella 1 e sulla particella 2. La forma Eq. (15.35) della matrice densità mostra chiaramente che non
vi è alcuna direzione privilegiata.
Quindi, se misuriamo lo spin della prima particella lungo l’asse z allora l’altra particella ha spin
opposto lungo l’asse z. Ma se misuriamo lo spin lungo l’asse x allora la seconda particella ha spin
opposto lungo l’asse x, e cosı̀ via. Ma gli operatori di spin lungo diverse direzioni non commutano.
Quindi la seconda non può trovarsi, prima della misura, in uno stato ben determinato di spin sia rispetto
all’asse x che rispetto all’asse z. Dobbiamo quindi concludere che è solo dopo la misura dello spin della
prima particella, ed in conseguenza di essa, che la seconda particella acquisisce un valore ben definito
dello spin lungo un asse. Questo dunque contraddice l’ipotesi di realismo locale, ovvero che non possa
esserci influenza della misura della prima particella sullo stato della seconda particella quando le due
particelle sono causalmente disconnesse.
15.2.2
Variabili nascoste
Una possibile via d’uscita è di supporre che la meccanica quantistica sia una teoria incompleta, e che il
realismo locale sia una caratteristica di una teoria più completa. L’apparente violazione del realismo locale
3 Bell
J. S., “Bertlmann’s socks and the nature of reality”, CERN-TH-2926 (1980).
15.2 Meccanica quantistica e realismo locale
245
in questa interpretazione è dovuta all’ignoranza di alcuni dei gradi di libertà della teoria soggiacente. Per
capire come questo possa funzionare, consideriamo un sistema di spin 12 che si trova in uno stato puro
|ψi. Sappiamo che la più generale matrice densità per un sistema che su trovi in uno stato puro si può
scrivere come
1
ρ = |ψihψ| = (I + #»
σ · #»
n );
(15.36)
2
dove | #»
n | = 1. Quindi tutta l’informazione sullo stato del sistema è determinata dalla conoscenza del
vettore #»
n.
Consideriamo ora una generica osservabile  per questo sistema. Essa si può generalmente scrivere
come
 = a I + #»
a · #»
σ.
(15.37)
0
La meccanica quantistica ci dice che una misura dell’osservabile  produce come risultati gli autovalori
λ± di  e che dopo la misura il sistema si trova nell’autostato associato. Gli autovalori sono
λ± = a0 ± | #»
a |,
(15.38)
e gli autostati soddisfano
#»
a · #»
σ |ψ± i = ±| #»
a ||ψ± i.
(15.39)
La probabilità P± che la misura
dia come risultato λ± è data dalla traccia della matrice densità per il
#»
#»
a
1
sul corrispondende autostato:
proiettore P̂± = 2 I ± σ · | #»
a|
#»
1
1
a
#»
#»
#»
P± = TrρP̂± = Tr (I + σ · n )
I ± σ · #»
2
2
|a|
#»
1
a · #»
n
1
=
1 ± #»
= (1 ± cos ϑna ),
(15.40)
2
|a|
2
dove nel penultimo passaggio abbiamo sfruttato il fatto che TrI = 2, Trσi = 0, Trσi σj = 2δij .
Possiamo dare una descrizione di questa operazione di misura compatibile con il realismo locale supponendo che lo stato completo del sistema sia descritto non solo dal vettore #»
n , ma anche da un ulteriore
#» a noi sconosciuto, ossia una variabile nascosta. Se si conoscesse la variabile nascosta allora per
vettore m
ogni suo valore si sarebbe in grado di predire con certezza il risultato della misura di qualunque operatore
(e quindi anche di operatori non commutanti).
A questo fine, supponiamo quindi che esista una funzione v dell’osservabile, dello stato del sistema (e
#» tale per cui, se si
quindi del vettore #»
n che ne caratterizza lo stato), ma anche della variabile nascosta m
conoscesse m, allora la funzione v varrebbe o λ+ o λ− . È facile vedere che possiamo riprodurre i risultati
della meccanica quantistica supponendo che
(
#» · #»
λ+ se m
a < #»
n · #»
a
#»
#»
v(Â; n , m) =
(15.41)
#»
#»
#»
#»
λ
se m · a > n · a
−
#» il risultato della misura è indeterminato, ma il suo valor
Infatti, se non conosciamo il valore di m,
#» Basta allora
medio può essere calcolato mediando sui risultati determinati da tutti i possibili valori di m.
#»
supporre che la distribuzione di probabilità di m sia uniforme per ritrovare la meccanica quantistica.
#» e #»
Infatti, in tal caso si trova il valore λ+ quando l’angolo θma tra m
a soddisfa −1 < cos θma < cos θna
ϑ
e λ− se cos θna < cos θma < 1 (si veda la Fig. 15.1): ne segue che la probabilità di trovare λ± è 1±cos
,
2
come nel caso della meccanica quantistica.
#» fosse noto, potremmo predire il risultato della misura di
Se il valore della variabile nascosta m
qualunque operatore, ed in particolare di operatori non commutanti. Naturalmente, sappiamo che se
la misura viene eseguita, allora la meccanica quantistica ci dice che lo stato del sistema deve cambiare:
#» In questa
ma questo lo possiamo descrivere dicendo che la misura cambia il valore della variabile m.
interpretazione, prima di eseguire la misura il sistema ha valori ben definiti anche per osservabili non
commutanti, che potremmo conoscere se in aggiunta allo stato del sistema (dato da #»
n ) conoscessimo
#» È la misura a distruggere questa informazione, in seguito al fatto che non
anche la variabile nascosta m.
#»
sappiamo come la misura influisca su m.
246
Entanglement
Figura 15.1: Esempio di variabile nascosta
15.2.3
La disuguaglianza di Bell
Possiamo chiederci se una costruzione basata sulle variabili nascoste sia sempre possibile. In effetti, per
sistemi più complessi di quelli di spin 12 emergono delle difficoltà. In particolare, si può dimostrare che
per sistemi tripartiti (ad esempio sistemi di spin 1) non è in generale possibile assegnare simultaneamente
valori a tutte le osservabili possibili, anche in presenza di variabili nascoste (teorema di Bell-KochenSpecker). Questo però si dimostra solo sotto opportune ipotesi teoriche: ad esempio, che lo spazio degli
stati fisici sia uno spazio di Hilbert. È molto difficile escludere che ciò si possa fare rilassando alcune
ipotesi, e non contraddicendo i dati sperimentali. Si dimostra tuttavia che se l’interpretazione realistica
locale vale, allora debbono essere soddisfatte delle disuguaglianze, a prescindere da come l’eventuale
teoria realistica locale sia di fatto realizzata. Se il realismo locale valga o no diventa cosı̀ decidibile
sperimentalmente.
Per capirlo, supponiamo di avere un sistema che si trova in uno stato EPR, cioè nello stato di singoletto
di spin
1
|ψi = √ (| + −i − | − +i),
2
(15.42)
quindi con matrice densità
ρ=
1
(I − #»
σ 1 #»
σ 2 ).
4
(15.43)
Chiediamoci quale sia la probabilità congiunta di una misura di spin che riveli la particella 1 con spin su
lungo l’asse #»
n 1 , la particella 2 con spin giı̀u lungo un certo altro asse #»
n 2.
La meccanica quantistica ci permette di calcolarla: la probabilità è data da
N+− ( #»
n 1 , #»
n 2 ) = |h #»
n 1↑ |h #»
n 2↓ |ψi|2 = TrρP̂ n#»1↑ n#»2↓
(15.44)
dove il proiettore P̂ n#»1↑ n#»2↓ è:
P̂ n#»1↑ n#»2↓ =
(I + #»
n 1 · #»
σ 1 ) (I − #»
n 2 · #»
σ 2)
.
2
2
(15.45)
Quindi
1
(I + #»
n 1 · #»
σ 1 ) (I − #»
n 2 · #»
σ 2)
1
N+− ( #»
n 1 , #»
n 2 ) = Tr (I − #»
σ 1 #»
σ 2)
= (1 + #»
n 1 · #»
n 2 ),
4
2
2
4
(15.46)
dove stiamo nuovamente usando la proprietà che Trσi σj = 2δij e che la traccia della matrice identità è
uguale a 2, e ricordando che la traccia rispetto alla particella 1 si effettua sulle matrici #»
σ 1 , mentre la
traccia rispetto alla particella 2 si effettua sulle matrici #»
σ 2.
15.2 Meccanica quantistica e realismo locale
247
Da questo risultato possiamo calcolare una famiglia di risultati collegati. N++ ( #»
n 1 , #»
n 2 ), in particolare,
è uguale a quanto appena trovato a meno di un segno in quanto cambia il segno di uno dei due proiettori,
quindi
1
N++ ( #»
n 1 , #»
n 2 ) = (1 − #»
n 1 · #»
n 2 ).
4
(15.47)
1
n 1 · #»
n 2)
N−− ( #»
n 1 , #»
n 2 ) = N++ ( #»
n 1 , #»
n 2 ) = (1 − #»
4
(15.48)
1
N−+ ( #»
n 1 , #»
n 2 ) = N+− ( #»
n 1 , #»
n 2 ) = (1 + #»
n 1 · #»
n 2 ).
4
(15.49)
Inoltre, ovviamente,
Cerchiamo ora di interpretare questa situazione da un punto di vista di realismo locale. Secondo tale
punto di vista, se si conoscesse la teoria completa, si potrebbe predire il risultato di una misura di spin
delle particelle lungo qualunque asse. Se si accetta ciò, per ogni configurazione delle variabili nascoste
ciascuna delle due particelle ha spin ben definito rispetto a qualunque asse. Possiamo quindi chiederci,
per esempio, qual è la probabilità che la particella 1 abbia simultaneamente spin su rispetto all’asse #»
n1
e rispetto all’asse #»
n 2 , o spin su rispetto all’asse #»
n 1 e spin giù rispetto all’asse #»
n 2 , e cosı̀ via. Notare
che dal punto di vista della meccanica quantistica questo non ha senso, perché lo spin rispetto a due
assi corrisponde a variabili incompatibili, e quindi non ha senso chiedersi quale sia la probabilità di una
misura simultanea: o misuriamo lo spin di una particella rispetto ad un asse, o rispetto ad un altro asse.
Ma in una teoria realistica locale sı̀: se conoscessimo le variabili nascoste sapremmo qual è lo spin della
particella 1 rispetto a qualunque asse, ed è solo la misura che rovina questa informazione perché non
sappiamo come la misura influisce sulle variabili nascoste.
Quindi, supponiamo che valga il realismo locale, e definiamo M++ ( #»
n 1 , #»
n 2 ), la probabilità che la
particella 1 abbia spin su rispetto ad entrambi i due assi, ed analogamente per gli altri valori, su o giù,
dello spin. Ma noi sappiamo che nello stato dato, lo spin della particella 1 rispetto a qualunque asse è
sempre opposto allo spin della particella 2 rispetto allo stesso asse. Quindi, in tale stato
M++ ( #»
n 1 , #»
n 2 ) = N+− ( #»
n 1 , #»
n 2 ),
#»
#»
#»
#»
M ( n , n ) = N ( n , n ).
+−
1
2
++
1
2
(15.50)
Notiamo ora che da un punto di vista realistico locale è definito il valore dello spin della particella 1
rispetto a qualunque asse. Possiamo quindi introdurre un ulteriore asse #»
n 3 , ed osservare che
M+− ( #»
n 1 , #»
n 2 ) = M+−+ ( #»
n 1 , #»
n 2 , #»
n 3 ) + M+−− ( #»
n 1 , #»
n 2 , #»
n 3 ),
(15.51)
dove M+−+ ( #»
n 1 , #»
n 2 , #»
n 3 ) è la probabilità che lo spin sia su rispetto al primo asse, giù rispetto al secondo,
e su rispetto al terzo, e cosı̀ via. Naturalmente, però, Ma ora osserviamo che ovviamente
Mijk ( #»
n 1 , #»
n 2 , #»
n 3 ) ≤ Mij ( #»
n 1 , #»
n 2)
#»
#»
#»
#»
M ( n , n , n ) ≤ M ( n , #»
n )
ijk
1
2
3
ik
1
3
Mijk ( #»
n 1 , #»
n 2 , #»
n 3 ) ≤ Mjk ( #»
n 2 , #»
n 3) :
(15.52)
l’aggiunta di una condizione non può che diminuire o al più lasciar invariata la probabilità.
Usando la Eq. (15.52) per maggiorare ciascuno dei due termini a membro destro della Eq. (15.51) si
ottiene quindi
M+− ( #»
n 1 , #»
n 2 ) ≤ M−+ ( #»
n 2 , #»
n 3 ) + M+− ( #»
n 1 , #»
n 3 ),
(15.53)
che può essere riscritta riordinando gli argomenti mediante l’identità
M−+ ( #»
n 2 , #»
n 3 ) = M+− ( #»
n 3 , #»
n 2 ),
(15.54)
248
Entanglement
con il risultato
M+− ( #»
n 1 , #»
n 2 ) ≤ M+− ( #»
n 3 , #»
n 2 ) + M+− ( #»
n 1 , #»
n 3 ),
(15.55)
che la struttura di una disuguaglianza triangolare.
Possiamo infine la Eq. (15.50) per convertire quest’ultima relazione in una disuguaglianza soddisfatta
dalle probabilità congiunte N , ossia
N++ ( #»
n 1 , #»
n 2 ) ≤ N++ ( #»
n 3 , #»
n 2 ) + N++ ( #»
n 1 , #»
n 3 ).
(15.56)
Mentre la disuguaglianza (15.55) è sensata soltanto nel quadro di una teoria realistica locale, in cui è ben
definita la probabilità di una misura di spin lungo assi diversi, la disuguaglianza (??), che ne discende, è
ben definita anche in meccanica quantistica standard, perché si riferisce alla probabilità congiunta dello
spin di particelle diverse lungo diversi assi. Questa è la disuguaglianza di Bell (in una delle sue forme);
altre forme si possono ottenere esprimendo le probabilità in termini di valori medi di misure di spin.
Possiamo ora confrontare la disuguaglianza con il risultato della meccanica quantistica con il calcolo
prima effettuato, dato dalla Eq. (15.47):
1
1
ϑ2 − ϑ 1
1
(15.57)
N++ ( #»
n 1 , #»
n 2 ) = (1 − cos ϑ12 ) = (1 − cos(ϑ2 − ϑ1 )) = sin2
4
4
2
2
con ϑ12 angolo polare nel piano che i due versori #»
n 1 e #»
n 2 definiscono. Questa forma si presta facilmente
alla verifica della disuguaglianza di Bell. Ci mettiamo ad esempio nella situazione in cui #»
n 3 è nel piano
definito da #»
n e #»
n ed è la bisettrice dell’angolo ϑ (si veda la Fig. 15.2).
1
2
12
Figura 15.2: Violazione della disuguaglianza di Bell.
La disuguaglianza di Bell è:
sin2
ϑ 2 − ϑ1
ϑ 2 − ϑ3
ϑ 3 − ϑ1
≤ sin2
+ sin2
.
2
2
2
(15.58)
Poniamo
ϑ2 − ϑ1
= 2ϕ
2
(15.59)
ϑ3 − ϑ1
ϑ2 − ϑ3
=
=ϕ
2
2
(15.60)
sin2 2ϕ ≤ 2 sin2 ϕ
(15.61)
e quindi, nella configurazione della figura.
e la disuguaglianza di Bell diventa
15.3 Il problema della misura
249
ovvero
4 sin2 ϕ cos2 ϕ ≤ 2 sin2 ϕ.
(15.62)
Si arriva alla condizione
?
cos2 ϕ ≤
1
.
2
(15.63)
Ma ovviamente, nulla ci vieta di scegliere ϕ < π4 , ed in tal caso la disuguaglianza di Bell è violata. Di
conseguenza la disuguaglianza di Bell in meccanica quantistica può essere violata, e pertanto ne dobbiamo
concludere che non esiste una interpretazione realistica locale della meccanica quantistica consistente con
le predizioni della meccanica quantistica per l’esperimento EPR.
Esperimenti di verifica delle disuguaglianze di Bell sono stati fatti nel corso degli anni in modo via
via più raffinato. Sono degli esperimenti molto difficili, in quanto bisogna essere certi di misurare una
singola particella di una coppia e non, invece, delle proprietà medie di un insieme di particelle che
possono dipendere dall’ambiente. Inoltre bisogna essere certi del fatto che non ci sia trasmissione di
informazione. Esperimenti di questo tipo furono fatti dal gruppo di A. Aspect4 ad una distanza tale da
non permettere che i due eventi di misura fossero causalmente connessi, rendendo inoltre completamente
casuale la scelta dell’asse da misurare. Attualmente non sembra esserci dubbio che la disuguaglianza di
Bell è sperimentalmente violata, nel modo predetto dalla meccanica quantistica.
15.3
Il problema della misura
La verifica sperimentale della violazione delle disuguaglianze di Bell fornisce forte evidenza della correttezza di alcuni degli aspetti più contro-intuitivi della meccanica quantistica. In particolare, suggerisce
che il realismo locale sia semplicemente falso, e quindi la sua incompatibilità con la meccanica quantistica
non sia un sintomo dell’incompletezza di quest’ultima. Resta tuttavia un aspetto della meccanica che ne
potrebbe suggerire l’incompletezza concettuale: il problema della misura.
Il problema è il seguente. In meccanica quantistica il vettore di stato evolve in maniera deterministica:
|ψ(t)i = S(t, t0 )|ψ(t0 )i.
(15.64)
Non ci può essere violazione di causalità perché l’evoluzione quantistica è unitaria e causale. Tuttavia,
quando il sistema viene misurato esso cambia in un modo che non è più descritto dall’evoluzione temporale.
Dato un operatore  con autovalore λA , tale per cui
Â|ψA i = λA |ψA i
(15.65)
se il risultato della misura è λA , allora la funzione d’onda dopo la misura è nello stato in |ψA i. L’operazione
di misura non è più una evoluzione temporale unitaria. Il cambiamento della funzione d’onda durante
l’operazione di misura è spesso chiamato “collasso della funzione d’onda”: esso è manifestamente non
unitario ed irreversibile.
Il problema della misura è il seguente: questo “collasso” della funzione d’onda può essere descritto
dalla meccanica quantistica o no? Se no, allora la meccanica quantistica sembrerebbe incompleta, se sı̀,
come è possibile ottenere un comportamento non unitario da un’evoluzione unitaria?
Chiediamoci quindi più approfonditamente in che cosa consista una misura. Per esempio, che cosa
significa misurare che lo spin di una particella è in su o in giù? Un tipico modo di eseguire la misura
è di accoppiare le particelle ad un campo magnetico, che deflette le particelle in due direzioni diverse a
seconda del loro spin. Se la funzione d’onda di spin della particella è
|ψi = c+ |+i + c− |−i,
(15.66)
4 Aspect A., Grangier P., Roger G., “Experimental tests of realistic local theories via Bell’s theorem”, Phys. Rev. Lett., 47
p.460 (1981); Aspect A., Grangier P., Roger G., “Experimental realization of Einstein-Podolsky-Rosen gedankenexperiment;
a new violation of Bell’s inequalities”, Phys. Rev. Lett., 49 p.91 (1982); Aspect A., Dalibard J., Roger G., “Experimental
test of bell’s inequalities using time-varying analyzers”, Phys. Rev. Lett., 49 p.1804 (1982).
250
Entanglement
per misurare lo spin si assoggetta il sistema ad un’evoluzione temporale
S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i + c− |−i|x− (t)i,
(15.67)
dove |x± (t)i sono autostati di posizione che si propagano in direzioni diverse, e corrispondono al fatto
che la particella viene individuata in posizioni diverse, e che sono macroscopicamente distinti, cioè
hx± |x± i = 1,
hx± |x∓ i = 0.
(15.68)
±
Dopo la misura, il sistema viene rivelato in uno degli stati |x i e la sua funzione d’onda diventa cosı̀
|ψi = |+i|x+ i
(15.69)
|ψi = |−i|x− i.
(15.70)
con probabilità |c+ |2 oppure
con probabilità |c− |2 . Questo corrisponde alla situazione del “gatto di Schrödinger”. L’apparato di
misura è macroscopico: per esempio un rivelatore in cui compare una traccia su di uno schermo. Nella
versione originaria del paradosso, la particella se viene rivelata in |x+ i innesca un meccanismo che uccide
un gatto. Quindi il rivelatore diventa il gatto: se è morto lo spin è su, se è vivo è giù. Prima della misura
il sistema è nello stato entangled Eq. (15.67). Dunque, c subito prima della misura il sistema è in una
sovrapposizione di stati macroscopici (una sovrapposizione di “gatto vivo” e “gatto morto”), e la misura
fa collassare lo stato in quello di gatto vivo o gatto morto.
15.3.1
Decoerenza
La risoluzione del paradosso del gatto è che la descrizione dello stato del sistema in termini della funzione
d’onda entangled Eq. (15.67) non può essere completamente corretta. Infatti, se si accoppia il sistema ad
un rivelatore esterno, questo è necessariamente a sua volta accoppiato all’ambiente esterno (ad esempio,
il gatto se è vivo, respira). Del resto, se non fosse accoppiato all’ambiente esterno sarebbe impossibile
vedere il risultato della misura. Perciò più propriamente la funzione d’onda del sistema prima della misura
è
S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i|A+ i + c− |−i|x− (t)i|A− i
(15.71)
dove |A± i descrive lo stato dell’ambiente, ossia del resto dell’universo con cui il sistema è accoppiato
attraverso il rivelatore.
Ma, ovviamente, lo stato dell’ambiente non è osservabile nel suo complesso. Quindi, nel momento in
cui il sistema viene accoppiato ad un apparato di misura, la matrice densità del nostro sistema cambia.
Se all’inizio la matrice densità era data da
ρ = |ψihψ| = (c+ |+i + c− |−i)(c∗+ h+| + c∗− h−|)
(15.72)
dopo l’interazione con il rivelatore, essa diventa
ρ(t) = TrA (S(t)|ψihψ|S † (t)),
(15.73)
dove TrA indica la traccia sulle variabile di ambiente, inosservate. Ma inevitabilmente
hA|Ai = 1,
hA|A0 i = 0 :
(15.74)
stati di ambiente diversi sono macroscopicamente diversi, e quindi ortogonali. Ne segue quindi che
ρ(t) = |c+ |2 |+i|x+ (t)ih+|hx+ (t)| + |c− |2 |−i|x− (t)ih−|hx− (t)|,
(15.75)
che è la matrice densità per uno stato misto. Un esempio esplicito di meccanismo perché questo possa
accadere è stato discusso nell’ambito degli stati coerenti nella sezione 8.5.2.
L’accoppiamento del sistema all’ambiente trasforma la sovrapposizione quantistica in una miscela
statistica. Questo fenomeno che avviene quando si accoppia l’ambiente ad un sistema quantistico viene
chiamato decoerenza. Una teoria completa della decoerenza ancora non esiste. Esserne in possesso
significherebbe che sono stati compresi perfettamente i processi di misura quantistici.
15.3 Il problema della misura
15.3.2
251
Misura ed informazione
Questo tuttavia suggerisce fortemente che quello che noi chiamiamo misura in meccanica quantistica sia
caratterizzato dalla decoerenza. Infatti, la misura è caratterizzata dal fatto che accoppiando il sistema al
rivelatore l’interferenza scompare. Nel linguaggio dell’esperimento di Zeilinger, se un rivelatore ci dice dqa
che fenditura è passata la molecola, l’interferenza scompare. Ma questo lo possiamo capire in termini di
coerenza: la miusura è cosı̀ un’approssimazione del fenomeno molto complicato per cui le matrici densità
di sistemi quantistici diventano matrici densità di sistemi statistici. La natura non unitaria dell’evoluzione
è in questa interpretyazione dovutalla decoerenza, cioè alla perdita di informazione che deriva dalla nostra
incapacità di effettuare una misura sul sistema completo.
Una volta scomparsa l’interferenza, il “collasso” della funzione d’onda non ha nulla di paradossale o
concettualmente insoddisfacente. Se si accetta il fatto che la realtà non è deterministica, noi possiamo
solo assegnare una probabilità agli eventi. Ma dopo la decoerenza, il sistema si trova in una sovrapposizione statistica, la cui matrice densità descrive la nostra informazione incompleta su di esso. Dopo
aver effettuato la misura (dopo aver letto il rivelatore) la nostra informazione sullo stato del sistema è
cambiata: il sistema si trova in uno stato puro. L’apparentemente paradossale “collasso” della funzione
d’onda descrive il fatto che prima dell’operazione di misura abbiamo una certa quantità di informazione,
mentre dopo la misura abbiamo delle informazioni diverse. Nel momento della misura l’informazione
che abbiamo cambia in modo discontinuo. Il vettore di stato non è una proprietà dei sistemi, bensı̀ di
quello che noi sappiamo dei sistemi fisici. Quindi la misura è semplicemente un’approssimazione della
combinazione di decoerenza, più il cambiamento della nostra informazione quando vediamo quale degli
eventi possibili si è effettivamente realizzato.
Ci si può naturalmente porre la domanda se sia possibile scrivere un vettore di stato dell’universo, che
quindi descrive tutta la realtà, anziché la nostra informazione su un sottosistema. Se questo sia possibile,
e se sı̀ come, è controverso: vi sono diverse proposte, ma non vi è un consenso generalizzato. Questo è
il problema dei fondamenti della meccanica quantistica: allo stato attuale delle cose, tuttavia, non vi è
alcun modo di decidere sperimentalmente questo problema. L’atteggiamento per cui solo l’informazione
che abbiamo sul sistema è descritta dalla meccanica quantistica appare essere, allo stato attuale delle
cose, tutto quanto possiamo verificare sperimentalmente.
Scarica