Appunti di Struttura della Materia II

Appunti di Struttura della Materia II
Giovanni Moruzzi
Anno accademico 2009/2010
2
Indice
Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Informazione mancante
1.1 Impostazione del problema . . . . . . . . . . . . . . . . . . . . . . .
1.2 Informazione mancante per un numero finito di scelte equiprobabili
1.3 Scelta tra possibilità con probabilità note . . . . . . . . . . . . . . .
1.4 Informazione mancante per una scelta nel continuo . . . . . . . . .
2 Meccanica statistica
2.1 Statistica classica . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Stato di un sistema classico e grandezze fisiche . .
2.1.2 Trasformazioni attive e passive . . . . . . . . . .
2.1.3 Evoluzione temporale . . . . . . . . . . . . . . . .
2.1.4 Trattamento statistico . . . . . . . . . . . . . . .
2.1.5 Rappresentazione di Schrödinger . . . . . . . . .
2.1.6 Rappresentazione di Heisenberg . . . . . . . . . .
2.2 Statistica quantistica . . . . . . . . . . . . . . . . . . . .
2.2.1 Stato di un sistema quantistico e grandezze fisiche
2.2.2 Evoluzione temporale . . . . . . . . . . . . . . . .
2.2.3 Trattamento statistico e matrice densità . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Scelta della probabilità
3.1 I postulato: probabilità a priori . . . . . . . . . . . . . . . . . .
3.2 Informazione disponibile (utilizzabile) . . . . . . . . . . . . . . .
3.3 II postulato: massimo condizionato dell’informazione mancante
3.4 Massimi condizionati: metodo dei moltiplicatori di Lagrange . .
3.5 Informazione disponibile in statistica classica . . . . . . . . . . .
3.6 Particelle identiche in fisica classica . . . . . . . . . . . . . . . .
3.7 Informazione disponibile in statistica quantistica . . . . . . . . .
3.8 Particelle identiche in meccanica quantistica . . . . . . . . . . .
3.9 Funzione di partizione . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
.
.
.
.
9
9
10
11
12
.
.
.
.
.
.
.
.
.
.
.
15
15
15
16
17
17
18
19
19
19
19
20
.
.
.
.
.
.
.
.
.
23
23
24
24
25
26
28
29
31
31
4 Informazione mancante e entropia
33
4.1 Costanti del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Gas perfetto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3
4
INDICE
5 Insieme gran canonico
5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Caso classico . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Numero non noto, o variabile, di particelle identiche
5.2.2 La grandezza “numero delle particelle” . . . . . . .
5.2.3 Entropia . . . . . . . . . . . . . . . . . . . . . . . .
5.2.4 Gas perfetto monoatomico classico nell’insieme gran
5.3 Caso quantistico . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Impostazione del problema, gas perfetto quantistico
5.3.2 Potenziale chimico . . . . . . . . . . . . . . . . . .
5.3.3 Numeri di occupazione . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
canonico
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
37
37
38
38
40
41
41
44
44
6 Fluttuazioni delle grandezze statistiche
47
6.1 Ampiezza delle fluttuazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Fluttuazioni dei numeri di occupazione . . . . . . . . . . . . . . . . . . . . . . . 48
7 Interazione radiazione-materia, I
7.1 Derivazione della formula di Planck da parte di Einstein . . . . . .
7.2 Propagazione di un fascio di radiazione in un mezzo materiale . . .
7.3 Equazioni di bilancio per l’effetto laser . . . . . . . . . . . . . . . .
7.3.1 Inversione di popolazione . . . . . . . . . . . . . . . . . . . .
7.3.2 Equazioni di bilancio per i fotoni . . . . . . . . . . . . . . .
7.3.3 Equazioni di bilancio per le densità di popolazione dei livelli
7.3.4 Altri possibili schemi di pompaggio . . . . . . . . . . . . . .
7.4 Laser a semiconduttore . . . . . . . . . . . . . . . . . . . . . . . . .
8 Fluttuazioni della radiazione e interferenza
8.1 Instaurazione del regime oscillatorio . . . . . . . .
8.2 Formalismo dei campi complessi . . . . . . . . . .
8.3 Interferenza . . . . . . . . . . . . . . . . . . . . .
8.4 Interferometro di Michelson e coerenza temporale
8.5 Interferometro di Young e coerenza spaziale . . .
8.6 Volume di coerenza . . . . . . . . . . . . . . . . .
9 Processi stocastici
9.1 Introduzione . . . . . . . . . . . . .
9.2 Medie sull’ensemble . . . . . . . . .
9.3 Autocorrelazione e densità spettrale
9.3.1 Definizioni matematiche . .
9.3.2 Processi stocastici stazionari
9.3.3 Shot noise . . . . . . . . . .
9.3.4 Rumore 1/f . . . . . . . . .
9.3.5 Fotoconteggi . . . . . . . . .
9.4 Equazione di Fokker-Planck . . . .
9.5 Moto browniano . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
51
54
56
56
57
58
60
62
.
.
.
.
.
.
65
65
66
69
70
71
74
.
.
.
.
.
.
.
.
.
.
77
77
79
79
79
81
83
85
86
88
90
5
INDICE
10 Interazione radiazione-materia, II
10.1 Perturbazioni dipendenti dal tempo . . . . . .
10.1.1 Introduzione . . . . . . . . . . . . . . .
10.1.2 Probabilità di transizione . . . . . . . .
10.1.3 Perturbazioni costanti . . . . . . . . .
10.1.4 Perturbazioni periodiche . . . . . . . .
10.1.5 Transizioni in uno spettro continuo . .
10.1.6 Regola d’oro di Fermi . . . . . . . . . .
10.2 Perturbazioni periodiche al secondo ordine . .
10.3 Transizioni di dipolo elettrico . . . . . . . . .
10.4 Assorbimento, emissione stimolata e spontanea
10.5 Interazione con campo forte . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
11 Matrice densità
11.1 Rate equations e bilancio dettagliato . . . . . .
11.2 Matrice densità . . . . . . . . . . . . . . . . . .
11.3 Modello di Feynman-Vernon-Hellwarth . . . . .
11.4 Rilassamento e equazioni di Bloch ottiche . . . .
11.5 Indice di rifrazione e coefficiente di assorbimento
11.6 Equazioni di rate e forme di riga . . . . . . . . .
11.7 Accoppiamento atomo-bagno termico . . . . . .
11.8 Allargamento omogeneo . . . . . . . . . . . . .
11.9 Allargamento disomogeneo: effetto Doppler . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
95
95
98
100
101
102
104
107
109
112
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
119
. 119
. 120
. 123
. 126
. 130
. 133
. 134
. 136
. 137
12 Regole di selezione
139
12.1 Considerazioni di simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.2 Transizioni di dipolo elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
13 Superconduttività
13.1 Un richiamo di magnetismo classico . . . . . . . .
13.2 Lavoro di magnetizzazione . . . . . . . . . . . . .
13.2.1 Lavoro “meccanico” sul campione . . . . .
13.2.2 Lavoro effettuato dal generatore . . . . . .
13.3 Un richiamo di termodinamica . . . . . . . . . . .
13.4 Superconduttività e campo magnetico critico . . .
13.5 L’effetto Meissner . . . . . . . . . . . . . . . . . .
13.6 Diamagnetismo perfetto . . . . . . . . . . . . . .
13.7 Corrente di superconduttività . . . . . . . . . . .
13.7.1 Correnti superficiali . . . . . . . . . . . . .
13.7.2 Correnti superficiali nei conduttori normali
13.7.3 Correnti superficiali nei superconduttori .
13.8 Campo magnetico critico . . . . . . . . . . . . . .
13.9 Teoria microscopica . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
. 145
. 147
. 147
. 148
. 150
. 151
. 152
. 153
. 156
. 156
. 157
. 158
. 159
. 160
6
INDICE
14 Raffreddamento magnetico
163
14.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
14.2 Energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
14.3 Entropia e raffreddamento magnetico . . . . . . . . . . . . . . . . . . . . . . . . 165
Bibliografia
166
7
INDICE
Premessa
Allo stato attuale questi appunti sono solo in fase di prima stesura, quindi non sono assolutamente completi, e vengono scritti prevalentemente per aiutare me stesso a preparare le lezioni
del corso. Il loro scopo non è sostituire il libro di testo, ma, eventualmente, integrarlo in qualche
punto.
Alcune parti possono essere scritte in modo non chiaro e comunque migliorabili, e sicuramente sono presenti numerosi errori, in particolare errori di battitura. Sarò grato a chi suggerirà
correzioni o miglioramenti.
Pisa, 29 dicembre 2009
Giovanni Moruzzi
8
INDICE
Capitolo 1
Informazione mancante
1.1
Impostazione del problema
Consideriamo un sistema fisico costituito da Np particelle.
Se il sistema può essere descritto mediante la dinamica classica, in un certo istante il suo
(i)
(i)
stato è completamente determinato se conosciamo le coordinate q1 . . . qf di ogni particella che
(i)
(i)
compone il sistema, oltre ai corrispondenti momenti coniugati p1 . . . pf , dove i è l’indice della
particella ed f il numero dei suoi gradi di libertà. Questo equivale a conoscere con precisione
il punto dello spazio delle fasi Γ che rappresenta il nostro sistema. Se le Np particelle hanno
tutte lo stesso numero di gradi di libertà, lo spazio delle fasi avrà 2NP f dimensioni.
Analogamente, se il nostro sistema di Np particelle deve essere descritto quantisticamente,
in un certo istante è completamente determinato se conosciamo la sua funzione d’onda
(Np )
(Np )
(1)
(1) (2)
(2)
,
ψ q1 , . . . , qf , q1 , . . . , qf , . . . , q1 . . . qf
o, in altra notazione, lo stato |ψi in cui il sistema stesso si trova.
In ambedue i casi, la conoscenza dell’hamiltoniana classica H(q, p), o dell’hamiltoniana
quantistica Ĥ ci permette di calcolare l’evoluzione temporale del sistema.
Per un sistema macroscopico, Np è dell’ordine del numero di Avogadro (NA = 6.022 × 1023 ),
e questo esclude ogni possibilità di arrivare a determinare il punto dello spazio delle fasi che lo
rappresenta nel caso classico, o la sua funzione d’onda nel caso quantistico. Non ci resta che
tentare di descrivere il sistema, e la sua evoluzione temporale, utilizzando invece che parametri
microscopici, come le coordinate e i momenti delle singole particelle, parametri macroscopici
come, per esempio, pressione, volume, temperatura, posizione del baricentro, impulso totale. . .
Questo corrisponde a usare una quantità di informazione molto minore di quella necessaria per
una descrizione dinamica. Ci troveremo cosı̀ a lavorare in presenza di un difetto di informazione,
o informazione mancante. Nei paragrafi seguenti cercheremo di definire il concetto, appunto,
di informazione mancante.
9
10
1.2
CAPITOLO 1. INFORMAZIONE MANCANTE
Informazione mancante per un numero finito di scelte
equiprobabili
Cominciamo considerando un sistema che possa trovarsi in un numero finito di stati. Un esempio può essere lo spin di una particella. Supponiamo che il numero degli stati possibili sia W .
Supponiamo poi di non sapere in quale stato si trovi il sistema, ma solo che il sistema ha la
stessa probabilità 1/W di trovarsi in uno qualunque degli stati possibili. Quanta informazione
ci manca per sapere lo stato del sistema? La stessa informazione che ci mancherebbe se volessimo trovare una pallina nascosta in una di W scatole chiuse, esternamente tutte uguali.
Consideriamo prima il caso in cui W è una potenza di 2.
Definiamo quantitativamente l’informazione mancante I come il miniB
A
mo numero di domande, a cui è permesso rispondere solo con un sı̀ o con
A
B
un no, che dobbiamo fare per arrivare
a sapere in quale scatola si trovi la
A
B
pallina. E’ quindi proibita la domanda “in quale scatola si trova la pallina?”. Dobbiamo scegliere una strateA B
gia. Per esempio, è vero che una domanda del tipo “la pallina si trova
A
nella scatola iesima?” mi permetFigura 1.1: Informazione mancante per la localizzazione terebbe di arrivare alla soluzione in
di una pallina nascosta in una di 16 scatole.
un colpo solo nel caso più fortunato,
ma mi porterebbe a fare W domande nel caso meno fortunato. In media, ci porterebbe a fare
(W + 1)/2 domande.
Si può fare di meglio. La migliore strategia è dividere le scatole in due insiemi A e B, ognuno
di W/2 scatole, e poi chiedere, come prima domanda, “la pallina si trova nell’insieme A?”. Sia
che la risposta sia sı̀, o che sia no, abbiamo dimezzato il numero delle scatole in cui la pallina può
trovarsi. Cioè abbiamo diminuito l’informazione mancante. Iterando il procedimento arriviamo
a trovare la pallina con log2 W domande. Notate che, se il numero di scatole raddoppia, il
numero di domande da fare aumenta solo di una. Data la corrispondenza tra una risposta del
tipo sı̀/no ed un bit di informazione, l’informazione mancante I del problema, misurata in bit,
è
I = log2 W.
(1.1)
Nel caso generale, il numero delle scatole W non sarà una potenza di 2, quindi log2 W non sarà
un numero intero. Se ripetiamo l’esperimento più volte, arriveremo sempre a trovare la pallina
con un numero intero di iterazioni, ma, in ogni esperimento, in alcune di queste iterazioni ci
troveremo di fronte ad un numero Wr dispari di scatole residue, che non potremo dividere in
parti uguali, ma solo in una parte contenente (Wr + 1)/2 scatole, e l’altra (Wr − 1)/2. Come
conseguenza, il numero di domande necessarie per trovare la pallina varierà da esperimento a
esperimento, a seconda di come dividiamo le scatole ad ogni iterazione. Ma si può dimostrare
che, in media, il numero di domande sarà log2 W .
11
1.3. SCELTA TRA POSSIBILITÀ CON PROBABILITÀ NOTE
1.3
Scelta tra possibilità con probabilità note
Supponiamo adesso di avere ancora una pallina nascosta in una di W scatole, ma di avere un
po’ di informazione in più. Ogni scatola ha una probabilità diversa Pi di contenere la pallina,
e noi conosciamo queste probabilità. Ovviamente sarà
W
X
Pi = 1.
(1.2)
i=1
Prima di procedere ci conviene riscrivere l’equazione (1.1) sotto la forma
I = log2 W = r2 log W.
(1.3)
dove log indica il logaritmo naturale, e abbiamo posto r2 = log2 e = 1/ log 2.
La legge dei grandi numeri ci dice che, se il numero degli esperimenti NE tende all’infinito,
il numero degli esperimenti in cui troveremo la pallina nella scatola i-esima tenderà a NE Pi .
Ma non sappiamo ancora in che ordine si presentano i risultati degli NE esperimenti. Quali
degli NE sono gli NE Pi esperimenti in cui la pallina si trova nella scatola i? I risultati degli
esperimenti si possono presentare in qualunque
ordine con uguale probabilità. Il numero di modi
Q
di ordinare gli esperimenti vale NE !/ W
(N
E Pi )!, poiché, per ogni i, tutti gli esperimenti in
i=1
cui la pallina si trova nella scatola i sono equivalenti. Una volta specificato l’ordine dei risultati
degli esperimenti, non ci manca più informazione. L’informazione mancante INE relativa a NE
esperimenti è cosı̀
"
#
W
X
NE !
= r2 log NE ! −
log(NE Pi )!
(1.4)
INE = r2 log QW
i=1 (NE Pi )!
i=1
Volendo applicare la legge dei grandi numeri, INE ci interessa solo al limite NE → ∞, quindi
possiamo usare l’approssimazione di Stirling
log N ! ≈ N log N − N
per ottenere
"
INE ≈ r2 NE log NE − NE −
W
X
NE Pi (log NE + log Pi ) +
i=1
(1.5)
W
X
i=1
#
NE Pi = −NE r2
W
X
Pi log Pi .
i=1
(1.6)
L’informazione mancante complessiva è cosı̀ proporzionale al numero NE degli esperimenti, e
l’informazione mancante per ogni esperimento è
W
X
1
Pi log Pi .
I N E = − r2
NE →∞ NE
i=1
I = lim
(1.7)
Se tutti i casi sono equiprobabili, abbiamo Pi = 1/W per ogni i, e l’eq. (1.7) coincide con la
(1.3).
12
CAPITOLO 1. INFORMAZIONE MANCANTE
Passiamo adesso ad un numero di scatole che tende all’infinito. Se tutte le scatole hanno la
stessa probabilità di contenere la pallina, l’informazione mancante sarà
I = lim r2 log W = +∞.
(1.8)
W →∞
Cioè, l’informazione che ci manca per scegliere tra infinite possibilità equiprobabili è infinita. Ma se è data una distribuzione di probabilità non uniforme, l’equazione (1.7) ci dà per
l’informazione mancante
∞
X
I = − r2
Pi log Pi ,
(1.9)
i=1
che può essere tranquillamente finita.
1.4
Informazione mancante per una scelta nel continuo
Adesso il nostro compito non è più individuare una pallina nascosta in una scatola, ma individuare la posizione di un punto nell’intervallo a ≤ x ≤ b. Supponiamo anche di conoscere una
funzione di distribuzione della probabilità P (x) tale che la probabilità che il punto si trovi tra
x1 e x2 , con a ≤ x1 ≤ x2 ≤ b sia data da
W (x1 , x2 ) =
Z
x2
P (x) dx,
con
P (x) > 0 e
x1
Z
b
P (x) dx = 1.
(1.10)
a
Per calcolare l’informazione mancante in questo caso possiamo partire dai risultati precedenti
per il caso discreto, e fare un passaggio al limite. Dividiamo il segmento [a, b] in W celle uguali,
e calcoliamo quanta informazione ci manca per sapere in quale cella si trova il nostro punto.
La cella i-esima avrà estremi
ai (W ) = a + (i − 1)
b−a
W
e
bi (W ) = a + i
b−a
,
W
(1.11)
e la probabilità che contenga la nostra x sarà
Pi (W ) =
Z
bi (W )
P (x) dx.
(1.12)
ai (W )
L’informazione mancante per determinare la cella in cui si trova il nostro punto vale cosı̀
"Z
#
"Z
#
W
W
bi (W )
bi (W )
X
X
I(W ) = −r2
Pi (W ) log Pi (W ) = −r2
P (x) dx · log
P (x) dx . (1.13)
i=1
i=1
ai (W )
ai (W )
Per passare al caso continuo dobbiamo far tendere W all’infinito e, quindi, l’ampiezza delle
singole celle a zero. Possiamo quindi scrivere per la probabilità di trovare x nella cella i-esima
Pi (W ) =
Z
bi (W )
P (x) dx = P i
ai (W )
b−a
,
W
(1.14)
1.4. INFORMAZIONE MANCANTE PER UNA SCELTA NEL CONTINUO
13
dove P i è un valore che P (x) assume all’interno dell’i-esima cella. Sostituendo la (1.14) nella
(1.13) otteniamo
I(W ) = −r2
W
X
i=1
W
X
b−a
b−a
b−a
b−a
log P i
= −r2
.
Pi
P i log P i − r2 log
W
W
W
W
i=1
(1.15)
L’ultimo termine a destra si ottiene ricordando che
W
X
b−a
W
i=1
P i = 1.
Se adesso facciamo separatamente il limite per W → ∞ dei due addendi dell’ultimo membro
della (1.15) otteniamo
W
X
b−a
Z
b
b−a
= +∞.
W →∞
W →∞
W
W
a
i=1
(1.16)
Quindi, l’informazione mancante per individuare un punto in un intervallo continuo è infinita.
Ma il termine che diverge nella (1.16) dipende solo dalla dimensione della cella, ed è del tutto
indipendente da come è fatta la distribuzione di probabilità. Per cui la differenza di informazione
mancante tra due distribuzioni di probabilità diverse P1 (x) e P2 (x) conserva un significato e
vale
Z
Z
lim −r2
P i log P i = −r2
P (x) log P (x) dx e
b
∆I = −r2
lim −r2 log
b
P1 (x) log P1 (x) dx + r2
a
P2 (x) log P2 (x) dx
a
Possiamo quindi rinormalizzare l’informazione mancante per la scelta nel continuo sottraendo
la costante infinita
b−a
lim −r2 log
W →∞
W
e definire
Z
b
I = −r2
P (x) log P (x) dx.
(1.17)
a
Vedremo che questa rinormalizzazione ci permetterà di trattare in maniera perfettamente
coerente la fisica statistica classica. Ci sono però due prezzi da pagare
1. L’informazione mancante non è nulla, come dovrebbe, se la risposta è nota. Se sappiamo
che la risposta è x0 , P (x) tende a δ(x − x0 ), che sostituita nella (1.17) porta a I → −∞.
2. L’integrale al secondo membro della (1.17) contiene il logaritmo di P (x), che non è un
numero puro, ma ha dimensioni [x−1 ]. A parte l’aspetto matematicamente poco elegante,
questo ha una conseguenza più seria. La risposta al nostro problema di scelta sul continuo avrebbe potuto essere scritta, invece che in termini della variabile x, in termini
della variabile η = η(x), con η(x) continua e monotona nell’intervallo tra η(a) e η(b). La
distribuzione di probabilità da usare sarebbe stata P (η) = P [x(η)](dx/dη). Ma in questo
caso, a seconda della funzione η = η(x), a celle uguali in η non corrispondono necessariamente celle uguali in x, e a celle equiprobabili in η non corrispondono necessariamente
14
CAPITOLO 1. INFORMAZIONE MANCANTE
celle equiprobabili in x, come si può facilmente controllare. Vedremo in seguito che, per
il caso continuo, dovremo scegliere una variabile per la quale celle di estensione uguale
possano essere considerate equiprobabili a priori, cioè equiprobabili quando non abbiamo
alcuna informazione sul sistema.
Capitolo 2
Meccanica statistica
2.1
2.1.1
Statistica classica
Stato di un sistema classico e grandezze fisiche
In meccanica classica lo stato di un sistema è completamente specificato da un insieme di
coordinate generalizzate qi e dall’insieme dei corrispondenti momenti coniugati pi , con 1 ≤ i ≤
Nf , dove Nf è il numero di gradi di libertà del sistema. L’esempio più semplice è costituito da
un sistema di N punti materiali, per il quale le coordinate canoniche {qi } sono
q1 , q2 , q3 , q4 , q5 , q6 , . . . , q3j−2 , q3j−1 , q3j , . . . , q3N −2 , q3N −1 , q3N =
(1) (1) (1)
(2) (2) (2)
(j) (j) (j)
(N ) (N ) (N )
x ,y ,z ,x ,y ,z ,...,x ,y ,z ,...,x
,y
,z
,
(2.1)
p1 , p2 , p3 , p4 , p5 , p6 , . . . , p3j−2 , p3j−1 , p3j , . . . , p3N −2 , p3N −1 , p3N =
m(1) ẋ(1) , m(1) ẏ (1) , m(1) ż (1) , m(2) ẋ(2) , m(2) ẏ (2) , m(2) ż (2) , . . . ,
m(j) ẋ(j) , m(j) ẏ (j) , m(j) ż (j) , . . . , m(N ) ẋ(N ) , m(N ) ẏ (N ) , m(N ) ż (N ) ,
(2.2)
ed i corrispondenti momenti coniugati {pi } sono
dove l’indice (j) corre su tutte le particelle che compongono il nostro sistema, ed i gradi di libertà
sono Nf = 3N . L’insieme delle coordinate e dei momenti (q, p) = (q1 , . . . , qNf , p1 , . . . , pNf )
determina un vettore posizione in uno spazio delle fasi a 2Nf dimensioni. In altre parole, ad
ogni possibile stato del sistema corrisponde un punto (o vettore posizione) nello spazio delle
fasi.
Ricordiamo che le coordinate e i momenti obbediscono alle equazioni del moto canoniche
q̇i =
∂H
,
∂pi
ṗi = −
∂H
,
∂qi
(2.3)
dove H è l’hamiltoniana del sistema.
Ogni grandezza fisica relativa al nostro sistema sarà rappresentata da una funzione delle
coordinate canoniche e dei momenti del tipo G(q, p). Per esempio, la quantità di moto totale
P
P
sarà scritta P~ = N
~j , e la sua componente Px sarà Px = N
j=1 p
j=1 p3j−2 , dove l’indice j corre
su tutte le particelle.
15
16
CAPITOLO 2. MECCANICA STATISTICA
Trasformazioni attive e passive
y
y
′
v~′ = ~v
~v
′
vy
α
′
vx
vx
x
x′
ϑ
x
b)
a)
Figura 2.1: a) Situazione iniziale.
y
′
vy
vy
y
y
′
ϑ
vy′′
2.1.2
~v ′ ~v
x′
ϑ
x
′
vx′′
vx
c)
b) Trasformazione passiva.
c) Trasformazione attiva.
Nel seguito incontereremo i concetti di trasformazione attiva e trasformazione passiva in
uno spazio vettoriale. Ne diamo una rapida definizione in questo paragrafo. Per semplicità,
consideriamo un vettore ~v in R2 , come in figura 2.1a). Prendiamo {x̂, ŷ} come base ortonormale iniziale (con l’accento circonflesso indichiamo i versori degli assi). Su questa base ~v ha
componenti vx = ~v · x̂ = v cos α e vy = ~v · ŷ = v sin α, dove α è l’angolo che ~v forma con l’asse
x̂. Come esempio di trasformazione prendiamo una rotazione antioraria di un angolo ϑ attorno
all’origine, data da
cos ϑ − sin ϑ
,
Rϑ =
sin ϑ
cos ϑ
Rϑ può corrispondere sia a una trasformazione passiva che a una trasformazione attiva.
Una trasformazione passiva lascia invariato il vettore ~v , mentre ruota la base di ϑ, trasformandola in {x̂′ , ŷ ′ }, come in figura 2.1b). L’angolo che v~′ = ~v forma con il nuovo versore di
base x̂′ vale α′ = α − ϑ. Quindi le componenti di ~v relative alla nuova base sono
vx′ = ~v · x̂′ = vx cos ϑ + vy sin ϑ,
vy′ = ~v · ŷ ′ = −vx sin ϑ + vy cos ϑ,
Poiché in una trasformazione passiva ~v resta fisso, mentre la base subisce la rotazione generata
da Rϑ le componenti di ~v subiscono una rotazione generata da Rϑ−1 . In altre parole, una
trasformazione passiva è semplicemente un cambiamento di coordinate, cui non corrisponde un
cambiamento fisico del sistema.
In una trasformazione attiva, invece, la trasformazione Rϑ ruota sia ~v che la base, come
in figura 2.1c). Cambia cosı̀ effettivamente lo stato fisico del sistema, ma le componenti di ~v
non cambiano passando dalla vecchia base alla nuova: vx′ = vx , vy′ = vy . Il vettore trasformato
forma quindi con l’asse x originario un angolo α + ϑ, e le sue componenti rispetto alla base
originaria diventano
vx′′ = v~′ · x̂ = vx cos ϑ − vy sin ϑ,
vy′′ = v~′ · ŷ = vx sin ϑ + vy cos ϑ,
subendo la rotazione generata da Rϑ . Quindi una trasformazione attiva cambia effettivamente
lo stato fisico del sistema, ed ha senso anche in assenza di un sistema di riferimento.
17
2.1. STATISTICA CLASSICA
2.1.3
Evoluzione temporale
Le equazioni del moto (2.3) possono essere integrate, ottep
nendo delle soluzioni del tipo qi (q0 , p0 , t), pi (q0 , p0 , t), che
soddisfano le condizioni iniziali
qi (q0 , p0 , 0) = qi0 ,
pi (q0 , p0 , 0) = p0i .
(q(t), p(t))
(2.4)
La legge secondo cui il valore di una generica grandezza
fisica G(q, p) varia al passare del tempo si scrive
(q0, p0)
Nf X
d
∂G ∂qi ∂G ∂pi
(2.5)
G(q, p) =
+
q
dt
∂qi ∂t
∂pi ∂t
i=1
Nf Figura 2.2:
Traiettoria nello
X
∂G ∂H
∂G ∂H
=
= {G, H} ,
−
spazio delle fasi.
∂qi ∂pi
∂pi ∂qi
i=1
dove il termine {G, H} indica la parentesi di Poisson dell’hamiltoniana del sistema con la
grandezza G(q, p). In altre parole, il punto dello spazio delle fasi che rappresenta il nostro
sistema descrive una certa traiettoria al passare del tempo, come in figura, e il valore della
nostra grandezza G è dato, istante per istante, dal valore che l’espressione analitica G(q, p)
assume nel punto (qi (q0 , p0 , t), pi (q0 , p0 , t)).
L’Eq. (2.5) rappresenta una trasformazione attiva della grandezza G: durante l’evoluzione
temporale manteniamo immutata la dipendenza analitica dalle coordinate dello spazio delle fasi
espressa da G = G(q, p), senza cioè introdurre alcuna dipendenza esplicita di G da t.
2.1.4
Trattamento statistico
Abbiamo già detto che una trattazione dinamica di un sistema composto da un numero di
particelle dell’ordine del numero di Avogadro, implicando la conoscenza esatta del punto rappresentativo nello spazio delle fasi, richiede la disponibilità di una quantità di informazione
non realisticamente pensabile. Descriveremo quindi il sistema, e la sua evoluzione temporale,
mediante variabili macroscopiche come il volume, la pressione, la temperatura . . . anziché variabili microscopiche come le posizioni e i momenti delle singole particelle. Lavoreremo quindi
disponendo di una quantità di informazione inferiore a quella necessaria per una trattazione
dinamica, trovandoci cosı̀ in presenza di informazione mancante.
Supponiamo che l’informazione a nostra disposizione si limiti alla conoscenza non del punto
rappresentativo, ma solo di una funzione di distribuzione f (q, p) che ci dia, punto per punto
dello spazio delle fasi, la densità di probabilità che quello sia effettivamente il nostro punto
rappresentativo.
In altre parole, la probabilità che il punto rappresentativo stia all’interno di un elemento di
volume τ dello spazio delle fasi vale
Z
Z
W (τ ) = f (q, p) dq dp = f (q1 , . . . , qNf , p1 . . . , pNf ) dq1 dq2 . . . dqNf dp1 dp2 . . . dpNf (2.6)
τ
τ
18
CAPITOLO 2. MECCANICA STATISTICA
con le condizioni
Z
f (q, p) ≥ 0 ∀ qi , pi .
f (q, p) dq dp = 1,
tutto lo spazio delle fasi
(2.7)
L’informazione contenuta nella funzione di distribuzione di probabilità f (p, q) ci permette di
calcolare, per ogni grandezza fisica G(q, p), non più il “valore esatto”, ma solo una media
statistica (media pesata), o valore di aspettazione,
Z
hGi = G(q, p)f (q, p) dq dp
(2.8)
con l’integrale esteso a tutto lo spazio delle fasi.
Le equazioni del moto canoniche (2.3) impongono un’evoluzione temporale al valore d’aspettazione hGi della (2.8). Questa può essere trattata secondo due rappresentazioni equivalenti,
descritte nei paragrafi seguenti.
2.1.5
Rappresentazione di Schrödinger
Se all’istante t = 0 il punto rappresentativo del nostro sistema fosse stato sicuramente (q0 , p0 ),
all’istante t sarebbe sicuramente (q(q0 , p0 , t), p(q0 , p0 , t)), dopo aver descritto una traiettoria
nello spazio delle fasi del tipo schematizzato in Figura 2.2.
Se la probabilità che a t = 0 il punto rappresentativo fosse in un piccolo elemento di volume
dello spazio delle fasi τ (0) attorno a (q0 , p0 ) era W = f (q0 , p0 , 0)τ (0), all’istante t avremo che
W sarà ancora la probabilità che il punto rappresentativo si trovi nell’elemento di volume τ (t)
attorno a (q(q0 , p0 , t), p(q0 , p0 , t)), dove ogni punto di τ (0) è stato portato in un punto di τ (t)
dall’evoluzione temporale. Avremo cosı̀
W = f (q0 , p0 , 0)τ (0) = f (q(q0 , p0 , t), p(q0 , p0 , t))τ (t).
(2.9)
Ma le trasformazioni canoniche conservano gli elementi di volume dello spazio delle fasi, ed
avremo quindi τ (t) = τ (0), da cui segue immediatamente che
f (q(q0 , p0 , t), p(q0 , p0 , t)) = f (q0 , p0 , 0) ∀t.
(2.10)
Dovremo quindi avere
Nf
df
∂f X
=
+
dt
∂t
i=1
∂f X
+
=
∂t
i=1
∂f ∂H
∂f ∂H
−
∂qi ∂pi
∂pi ∂qi
∂f ∂qi
∂f ∂pi
+
∂qi ∂t
∂pi ∂t
da cui segue
Nf
X
∂f
=−
∂t
i=1
Nf
∂f ∂H
∂f ∂H
−
∂qi ∂pi
∂pi ∂qi
= −{f, H}.
= 0,
(2.11)
(2.12)
L’evoluzione temporale della nostra distribuzione di probabilità è quindi descritta da una
trasformazione passiva, che può essere usata per ottenere l’evoluzione temporale del valore
di aspettazione di una grandezza fisica attraverso la relazione
Z
hG(t)i = G(q, p)f (q, p, t) dq dp.
(2.13)
19
2.2. STATISTICA QUANTISTICA
2.1.6
Rappresentazione di Heisenberg
L’alternativa è trasferire la dipendenza temporale dalla distribuzione di probabilità f alla
grandezza fisica G. Se a t = 0 avevamo una probabilità dW = f (q0 , p0 )dτ che il nostro punto
rappresentativo fosse nell’intorno dτ di (q0 , p0 ), questo corrispondeva a una probabilità dW che
il valore della grandezza fosse G(q0 , p0 ). Dopo un tempo t avremo la stessa probabilità dW che
il valore della grandezza sia diventato G(q(q0 , p0 , t), p(q0 , p0 , t)). Per il valore di aspettazione
avremo quindi
Z
hG(t)i =
G(q(q0 , p0 , t), p(q0 , p0 , t))f (q0 , p0 )dq0 dp0 ,
(2.14)
dove G subisce la trasformazione attiva ottenuta integrando la (2.5).
2.2
2.2.1
Statistica quantistica
Stato di un sistema quantistico e grandezze fisiche
In meccanica quantistica lo stato di un sistema è completamente specificato da un vettore |ψi
in uno spazio di Hilbert, normalizzato in modo che
hψ|ψi = 1.
(2.15)
Alle grandezze fisiche osservabili corrispondono operatori Ĝ che operano su questo spazio. Il
valore di aspettazione di un grandezza Ĝ quando il sistema si trova nello stato |ψi è
hĜi = hψ|Ĝ|ψi.
(2.16)
La grandezza assume un valore definito Gi (autovalore) solo se il sistema si trova in un autostato
|ii di Ĝ
Ĝ|ii = Gi |ii.
(2.17)
Se un sistema è confinato in un volume finito, gli autostati di ogni grandezza fisica costituiscono
un insieme normalmente infinito, ma discreto. Autostati corrispondenti ad autovalori diversi
sono ortogonali tra loro. In presenza di autovalori degeneri, è comunque possibile scegliere gli
autostati in modo che formino un insieme ortonormale completo. Questo significa che hi|ji = δij
e che l’operatore identità Ê può essere scritto
X
Ê =
|iihi|.
(2.18)
i
2.2.2
Evoluzione temporale
L’evoluzione temporale dello stato |ψi di un sistema quantistico è data dall’equazione di
Schrödinger dipendente dal tempo
d
i
|ψi = − Ĥ|ψi,
dt
~
(2.19)
20
CAPITOLO 2. MECCANICA STATISTICA
dove Ĥ è l’hamiltoniana (operatore hamiltoniano) del sistema. L’equazione (2.19) può essere
integrata formalmente per dare
i
(2.20)
|ψ(t)i = e− ~ Ĥt |ψ(0)i.
Nella (2.20) per esponenziale di un operatore  si intende
1
1
1
e = Ê +  + Â2 + Â3 + . . . + Ân + . . .
2
6
n!
(2.21)
dove Ê è, come al solito, l’operatore identità.
L’evoluzione temporale del valore di aspettazione di una grandezza fisica Ĝ può cosı̀ essere
scritta
hĜ(t)i = hψ(t)|Ĝ|ψ(t)i,
(2.22)
questa è la rappresentazione di Schrödinger, in cui l’operatore Ĝ viene considerato costante nel
tempo mentre evolve lo stato |ψ(t)i.
D’altra parte, inserendo la (2.20) nella (2.22) otteniamo
i
i
hĜ(t)i = hψ(0)|e+ ~ Ĥt Ĝe− ~ Ĥt |ψ(0)i = hψ(0)|Ĝ(t)|ψ(0)i.
(2.23)
Questa è la rappresentazione di Heisenberg, in cui i vettori dello spazio di Hilbert sono considerati costanti nel tempo, mentre gli operatori rappresentanti le osservabili fisiche evolvono
secondo la legge
i
i
(2.24)
Ĝ(t) = e+ ~ Ĥt Ĝ(0)e− ~ Ĥt .
Calcolando la derivata temporale della (2.24) otteniamo
i
d
ih
Ĝ(t) =
Ĥ, Ĝ(t) .
dt
~
(2.25)
Sia che usiamo la rappresentazione di Schrödinger, sia che usiamo quella di Heisenberg, l’evoluzione
temporale del valore di aspettazione di Ĝ rimane ovviamente la stessa.
2.2.3
Trattamento statistico e matrice densità
Quando abbiamo a che fare con un sistema quantistico composto da un grande numero di
particelle diventa impossibile determinare esattamente in quale stato |ψi il sistema si trovi.
Anche qui ci troviamo quindi ad operare in assenza di un’informazione completa. L’ipotesi che
faremo sarà quella di avere una base ortonormale completa {|ii} dello spazio di Hilbert, per
ogni vettore |ii
Pdella quale sia nota la probabilità Wi che esso corrisponda allo stato del sistema.
Dovrà essere i Wi = 1 e Wi ≥ 0 ∀i. Tenendo presente che se fossimo sicuri che il sistema si
trova nello stato |ii il valore d’aspettazione dell’osservabile Ĝ sarebbe hi|Ĝ|ii, la stima migliore
che possiamo fare per il risultato di una misura di Ĝ è
X
hĜi =
Wi hi|Ĝ|ii.
(2.26)
i
Se costruiamo un operatore ρ̂ diagonale sulla base {|ii} definito dalla relazione
hi|ρ̂|ji = Wi δij
(2.27)
21
2.2. STATISTICA QUANTISTICA
l’equazione (2.26) può essere riscritta
hĜi =
X
i
hi|ρ̂|iihi|Ĝ|ii =
X
i
hi|ρ̂Ĝ|ii = Tr ρ̂Ĝ
(2.28)
E’ da notare che, se le Wi non sono tutte uguali tra loro e cambiamo base, ρ̂ non rimane
necessariamente diagonale. Però
un
cambiamento di coordinate conserva il valore della traccia,
quindi la relazione hĜi = Tr ρ̂Ĝ rimane valida indipendentemente dalla base scelta.
Per quel che riguarda l’evoluzione temporale del valore di aspettazione, la rappresentazione
di Schrödinger considera l’operatore Ĝ costante nel tempo, mentre fa evolvere l’operatore ρ̂,
detto matrice densità. E’ da notare che, nella base in cui è diagonale, ρ̂(t) può essere scritto
X
X i
i
i
i
ρ̂(t) =
|i(t)iWi hi(t)|, da cui ρ̂(t) =
e− ~ Ĥt |iiWi hi|e+ ~ Ĥt = e− ~ Ĥt ρ̂(0)e+ ~ Ĥt . (2.29)
i
i
La rappresentazione di Heisenberg, invece, considera la matrice densità costante nel tempo,
facendo evolvere l’operatore Ĝ(t) secondo la relazione (2.24). E’ da notare che, rispetto alla
(2.24), la (2.29) fa evolvere la matrice densità “all’indietro nel tempo”.
22
CAPITOLO 2. MECCANICA STATISTICA
Capitolo 3
Scelta della probabilità
3.1
I postulato: probabilità a priori
Per lavorare utilizzando una quantità di informazione molto inferiore a quella necessaria ad
una trattazione dinamica del problema, dobbiamo introdurre due principi, o postulati, relativi
all’informazione mancante. Questi postulati riguardano i criteri di scelta della funzione di
distribuzione di probabilità sullo spazio delle fasi nel caso classico, e della matrice densità nel
caso quantistico. Come tutti i postulati della fisica non sono ricavabili da principi preesistenti,
ma saranno ritenuti giustificati a posteriori se porteranno a risultati in accordo con l’esperienza.
Nel caso della statistica classica il primo postulato assegna uguale probabilità a priori - cioè
in assenza di altra informazione sul sistema - a uguali volumi dello spazio delle fasi. E’ da notare
che questa scelta, nel caso di un sistema fisico costituito da particelle non identiche, privilegia
una trattazione hamiltoniana rispetto, per esempio, ad una trattazione lagrangiana. Infatti,
in una trattazione hamiltoniana le variabili sono le qi e le pi , in una trattazione lagrangiana
le variabili sono le qi e le q̇i . Se le particelle del sistema sono tutte identiche, a uguali volumi
nello spazio qp corrispondono uguali volumi nello spazio q q̇, essendo pi = mq̇i ∀i, ma se il
sistema contiene particelle di massa diversa questo non è più vero. In assenza di informazione
sul sistema, la funzione di distribuzione f (q, p) deve quindi avere la proprietà
Z
Z
f (q, p) dq dp =
f (q, p) dq dp,
(3.1)
τ1
τ2
dove τ1 e τ2 sono diversi domini dello spazio delle fasi aventi lo stesso volume. L’informazione
mancante sarà
Z
I = −r2 f (q, p) log f (q, p) dq dp.
(3.2)
Nel caso della statistica quantistica il primo postulato assegna uguale probabilità a priori
a tutti gli stati di un insieme che formi una base ortonormale completa. Se gli stati di questa
base sono N , e li etichettiamo |ii, con 1 ≤ i ≤ N , avremo Wi = 1/N ∀i. Questo corrisponde
ad una matrice densità diagonale
1
ρ̂ =
Ê,
(3.3)
N
dove Ê è la matrice identità, indipendentemente dalla base scelta.
23
24
CAPITOLO 3. SCELTA DELLA PROBABILITÀ
Per quel che riguarda l’informazione mancante nel caso quantistico, usando la base dello
spazio di Hilbert su cui ρ̂ è diagonale abbiamo
X
X
I = −r2
Wi log Wi = −r2
ρii log ρii = −r2 Tr (ρ̂ log ρ̂) .
(3.4)
i
3.2
i
Informazione disponibile (utilizzabile)
Una volta stabilito che, in totale assenza di informazione disponibile, vogliamo che
i) nel caso classico la nostra funzione di distribuzione f (q, p) attribuisca uguali probabilità
ad uguali volumi dello spazio delle fasi,
ii) nel caso quantistico la nostra matrice densità ρ̂ attribuisca la stessa probabilità a tutti
gli elementi di una base ortonormale completa dello spazio di Hilbert relativo al nostro
sistema,
dobbiamo decidere che cosa richiediamo a f (q, p) e ρ̂ quando invece disponiamo di informazione
sul sistema che vogliamo descrivere.
La prima richiesta ovvia è che, se esistono n grandezze fisiche il cui valore è noto, i loro
valori di aspettazione coincidano con questi valori noti. Se nel caso classico abbiamo n grandezze
fisiche Gi (q, p) di ognuna delle quali conosciamo con certezza il valore gi , la f (q, p) dovrà essere
tale che
Z
hGi i = Gi (q, p)f (q, p) dq dp = gi ∀i.
(3.5)
Analogamente, se nel caso quantistico abbiamo n osservabili Ĝi di ognuna delle quali conosciamo
con certezza il valore gi , la matrice densità ρ̂ dovrà essere tale che
hGi i = Tr Ĝi ρ̂ = gi ∀i.
(3.6)
3.3
II postulato: massimo condizionato dell’informazione
mancante
La condizione del paragrafo precedente ci lascia ancora molta libertà. Consideriamo, nel caso
classico, due funzioni di distribuzione f1 (q, p) e f2 (q, p) che riproducano ambedue, come valori
di aspettazione, gli n valori noti sperimentalmente gi delle n grandezze fisiche Gi (q, p)
Z
Z
hGi i = Gi (q, p)f1 (q, p) dq dp = Gi (q, p)f2 (q, p) dq dp = gi ∀i.
(3.7)
In base a quale criterio preferiremo f1 rispetto a f2 , o vice versa? Diamo un’occhiata alle
informazioni mancanti relative alle due distribuzioni:
Z
Z
I1 = −r2 f1 (q, p) log f1 (q, p) dq dp,
I2 = −r2 f2 (q, p) log f2 (q, p) dq dp,
(3.8)
3.4. MASSIMI CONDIZIONATI: METODO DEI MOLTIPLICATORI DI LAGRANGE
25
e supponiamo che sia I1 > I2 . Tutte e due le funzioni di distribuzione riproducono l’informazione
nota, perché i valori di aspettazione delle grandezze di cui disponiamo di misure coincidono con
i valori sperimentali, ma f2 , avendo un’informazione mancante minore, contiene una quantità
di informazione maggiore. Questo eccesso di informazione non ha niente a che fare con l’informazione disponibile sperimentalmente. Quindi, preferiremo f1 , che ci riproduce tutti i dati
sperimentali inventandosi meno cose.
Arriviamo cosı̀ al nostro secondo postulato: in statistica classica sceglieremo la funzione di
distribuzione di probabilità sullo spazio delle fasi f (q, p) che massimizza l’informazione mancante, rispettando la condizione di riprodurre tutta l’informazione sperimentale a noi nota. In
statistica quantistica sceglieremo la matrice densità ρ̂ che massimizza l’informazione mancante,
sempre rispettando la condizione di riprodurre tutta l’informazione sperimentale a noi nota.
3.4
Massimi condizionati: metodo dei moltiplicatori di
Lagrange
Per semplicità, supponiamo di dover cercare il massimo di una funzione di due variabili f (x, y)
soggetto alla condizione g(x, y) = k. L’equazione g(x, y) = k rappresenta una linea sul piano,
indicata dalla linea continua in figura 3.1, e noi dobbiamo cercare gli estremi di f (x, y) su
questa linea. Le equazioni del tipo f (x, y) = h, con h costante, rappresentano, per diversi
valori di h, un famiglia di curve sul piano, del tipo delle linee tratteggiate in figura 3.1. Alcune
di queste non incontrano mai la curva g(x, y) = k, come la f (x, y) = h1 , alcune la intersecano,
come le f (x, y) = h3 , f (x, y) = h4 e f (x, y) = h5 , e alcune le possono essere tangenti, come
la f (x, y) = h2 nel punto P4 . Se noi percorriamo la curva g(x, y) = k punto per punto o
intersechiamo delle linee del tipo f (x, y) = h, come in P1 , P2 , P3 , P5 , P6 e P7 , o ci troviamo in
un punto in cui la curva è tangente ad una linea del tipo f (x, y) = h, come in P4 . Gli estremi
di f (x, y) soggetti alla condizione g(x, y) = k possono trovarsi solo in punti del tipo P4 .
f (x
Infatti, nei punti P3 e P5 la funzione f (x, y)
, y)
=h
5
assume lo stesso valore h3 , mentre nel punto inf (x
, y)
=
P7
f (x
h4
termedio P4 ha un valore diverso h2 . Ci trovere, y)
f (x
=h
, y)
P
6
3
=h
mo quindi in presenza di un massimo condizionk
2
f (x
=~
, y)
=h
y) ∇g(
ato se h2 > h3 , o di un minimo condizionato
~ (x, y)
,
∇f
1
x
x,
g(
y)
se h2 < h3 . Il problema di trovare estremi condizionati di f (x, y) soggetti al vincolo g(x, y) = k
P4
P5
si risolve quindi individuando i punti in cui una
P
3
curva del tipo f (x, y) = h è tangente alla curva
P2
g(x, y) = k.
P1
~
Il gradiente di f (x, y) è un vettore ∇f (x, y)
sempre perpendicolare alle curve f (x, y) = h,
~
mentre ∇g(x,
y) è sempre perpendicolare alla
curva g(x, y) = k. Quindi, nei punti in cui Figura 3.1: Ricerca di estremo condizionato.
f (x, y) = h e g(x, y) = k sono tangenti, i vet~ (x, y) e ∇g(x,
~
~ (x, y) = λ∇g(x,
~
tori ∇f
y) sono paralleli. Questo implica ∇f
y), dove λ è un
valore opportuno.
26
CAPITOLO 3. SCELTA DELLA PROBABILITÀ
Introduciamo una nuova funzione F (x, y, λ) = f (x, y) − λ [g(x, y) − k]. Cerchiamo adesso i
punti in cui F (x, y, λ) ha estremi incondizionati. In questi punti le sue derivate parziali rispetto
a x, y e λ sono tutte nulle:
∂f (x, y)
∂g(x, y)
∂f (x, y)
∂g(x, y)
∂F (x, y, λ)
=
−λ
= 0, da cui
= λ
∂x
∂x
∂x
∂x
∂x
∂f (x, y)
∂g(x, y)
∂f (x, y)
∂g(x, y)
∂F (x, y, λ)
=
−λ
= 0, da cui
= λ
(3.9)
∂y
∂y
∂y
∂y
∂y
∂F (x, y, λ)
= −[g(x, y) − k] = 0, da cui g(x, y) = k,
∂λ
ci troviamo quindi in punti in cui i gradienti di f (x, y) e g(x, y) sono paralleli, ed è soddisfatta
la condizione g(x, y) = k.
La ricerca degli estremi condizionati della funzione di due variabili f (x, y) con il vincolo
g(x, y) = k si riduce quindi alla ricerca degli estremi incondizionati della funzione di tre variabili
F (x, y, λ). Al parametro λ si dà il nome di moltiplicatore di Lagrange. Ma attenzione, i punti
cosı̀ trovati sono punti stazionari di F , non necessariamente estremi: potrebbero essere punti
di sella. Quindi, in generale, bisognerà controllare che corrispondano effettivamente a estremi
condizionati di f .
Consideriamo adesso la ricerca degli estremi di un funzione di n variabili f (x1 , x2 , . . . xn )
sottoposti ad m vincoli (con, ovviamente, m < n) g1 (x1 , x2 , . . . xn ) = k1 , g2 (x1 , x2 , . . . xn ) = k2
. . . gm (x1 , x2 , . . . xn ) = km . Si può dimostrare che il problema può essere risolto cercando gli
estremi incondizionati della nuova funzione di n + m variabili
F (x1 , x2 , . . . xn , λ1 , λ2 , . . . λm ) = f (x1 , x2 , . . . xn ) −
dove i λi sono moltiplicatori di Lagrange.
3.5
m
X
i=1
λi [gi (x1 , x2 , . . . xn ) − ki ] ,
Informazione disponibile in statistica classica
R
RDobbiamo massimizzare l’informazione mancante I = −r2 Rf (q, p) log f (q, p) dq dp con i vincoli
f (q, p) dq dp = 1 (condizione di normalizzazione di f ) e f (q, p) Gi (q, p) dq dp = gi con i =
1, . . . n, dove G1 . . . Gn sono le grandezze fisiche di cui conosciamo il valore. Introduciamo
quindi gli n + 1 moltiplicatori di Lagrange −r2 (Ω + 1) e r2 λi per i = 1, . . . n, e cerchiamo la
funzione di distribuzione di probabilità f (q, p) che dia il massimo della funzione
Z
Z
n
X
′
I = I + r2 (Ω + 1)
λi
f (q, p) dq dp − 1 − r2
f (q, p)Gi (q, p) dq dp − gi
= −r2
−r2
= −r2
Z
i=1
f (q, p) log f (q, p) dq dp + r2 (Ω + 1)
n
X
i=1
Z
λi
Z
f (q, p)Gi (q, p) dq dp − gi
"
f (q, p) log f (q, p) − Ω − 1 +
n
X
i=1
Z
f (q, p) dq dp − 1
(3.10)
#
λi Gi (q, p) dq dp + r2
Ω+1−
n
X
i=1
!
λi g i ,
27
3.5. INFORMAZIONE DISPONIBILE IN STATISTICA CLASSICA
senza vincoli per l’espressione analitica di f . I valori dei moltiplicatori di Lagrange verranno
poi determinati in modo da imporre le condizioni sulla normalizzazione di f e sui valori di
aspettazione delle grandezze note. Per la variazione di I ′ abbiamo, tenendo presente che la
variazione dell’ultimo termine tra parentesi tonda della (3.10) è nulla perché indipendente da
f (q, p)
"
#
Z
Z
n
X
δf (q, p)
′
δI = −r2 δf (q, p) log f (q, p) − Ω − 1 +
λi Gi (q, p) dq dp − r2 f (q, p)
dq dp
f (q, p)
i=1
"
#
Z
n
X
= −r2 δf (q, p) log f (q, p) − Ω +
λi Gi (q, p) dq dp,
(3.11)
i=1
dove δf (q, p) è una variazione infinitesima arbitraria di f (q, p). Poiché δI ′ deve essere nulla per
δf arbitraria, deve essere
log f (q, p) = Ω −
n
X
ovvero f (q, p) = eΩ−
λi Gi (q, p),
Pn
i=1
λi Gi (q,p)
.
(3.12)
i=1
Questa soluzione soddisfa la condizione f (q, p) > 0. Adesso determiniamo i moltiplicatori di
Lagrange. La condizione di normalizzazione impone
Z
Z
Z
P
Pn
Ω− n
λ
G
(q,p)
Ω
i
i
i=1
1 = f (q, p) dq dp = e
dq dp = e
e− i=1 λi Gi (q,p) dq dp
da cui otteniamo
Z
−1
P
Ω
− n
λi Gi (q,p)
i=1
e =
e
dq dp
,
e Ω = − log
Dagli altri vincoli otteniamo
gi =
Z
f (q, p)Gi (q, p) dqdp =
Z
eΩ−
Pn
j=1
λj Gj (q,p)
Z
e−
Pn
Gi (q, p) dq dp =
i=1
Z
λi Gi (q,p)
e−
Z
Pn
j=1
e
−
dq dp.
λj Gj (q,p)
(3.13)
Gi (q, p) dq dp
,
Pn
j=1 λj Gj (q,p)
dq dp
(3.14)
che, guardando la (3.13), può essere riscritta nella forma
∂Ω
= gi ,
∂λi
i = 1, . . . n.
(3.15)
Le equazioni (3.13) e (3.15) ci permettono di ottenere Ω e gli altri moltiplicatori di Lagrange λi
in funzione dei valori noti delle grandezze fisiche gi e delle espressioni analitiche delle grandezze
Gi (q, p).
Per quel che riguarda l’informazione mancante abbiamo
"
#
Z
Z
n
X
Pn
I = −r2 f (q, p) log f (q, p) dq dp = −r2 eΩ− i λi Gi (q,p) Ω −
λi Gi (q, p) dq dp
i
= −r2 Ω + r2
Z X
n
i
λi Gi (q, p) e
Ω−
Pn
i
λi Gi (q,p)
dq dp = −r2 Ω + r2
n
X
i
λi g i .
(3.16)
28
CAPITOLO 3. SCELTA DELLA PROBABILITÀ
Nel caso importante in cui l’unica grandezza fisica di cui conosciamo il valore è l’energia,
chiamando β il moltiplicatore di Lagrange relativo all’hamiltoniana H(q, p), ed U il valore
dell’energia stesso, abbiamo
Z
Ω−βH(q,p)
f (q, p) = e
, Ω = − log e−βH(q,p) dqdp, I = −r2 Ω + r2 βU
(3.17)
3.6
Particelle identiche in fisica classica
Finora abbiamo trattato le particelle come distinguibili. Questo non vuole solo dire attribuire ad
ogni singola particella i la sua posizione ~qi ed il suo momento coniugato p~i . Questo vuole anche
dire considerare come distinti due punti dello spazio delle fasi che si ottengono scambiando tra
loro simultaneamente le posizioni e i momenti di una o più coppie di particelle.
Ma in natura particelle dello stesso tipo (cioè, per esempio, due atomi di 4 He, ma non
un atomo di 4 He e uno di 3 He) sono indistinguibili. Non esiste un esperimento che permetta
di distinguere un atomo di 4 He dall’altro. Questo non è solo un limite alle nostre capacità,
ma ha un significato più profondo. Questo implica anche che punti diversi dello spazio delle
fasi che si trasformano l’uno nell’altro per una qualunque permutazione di particelle identiche
corrispondono in realtà ad un unico stato del sistema.
In altre parole, l’informazione che ci manca perché non sappiamo se è la particella A che si
trova nella posizione ~q1 con momento p~1 , e la particella B nella posizione ~q2 con momento p~2 ,
o viceversa, non è vera informazione mancante e non va contata. Questa corrisponde ad una
informazione che non potremmo mai avere.
In altre parole, punti dello spazio delle fasi che si trasformano l’uno nell’altro per permutazioni di particelle identiche non devono essere considerati come diverse possibilità a priori
della nostra trattazione statistica.
Consideriamo un sistema di N particelle classiche identiche. Esistono N ! permutazioni di
N particelle, quindi ogni singolo stato possibile del sistema è rappresentato da N ! punti dello
spazio delle fasi. L’informazione mancante relativa ad una scelta tra N ! casi equiprobabili è
IN ! = r2 log N !
(3.18)
che dovremmo sottrarre dalla (3.16)
I = −r2 Ω + r2
n
X
i
λi gi − r2 log N !,
(3.19)
o, se l’unica grandezza nota è l’energia
I = −r2 Ω + r2 βU − r2 log N !
(3.20)
In realtà, cosı̀ facendo sovraestimiamo la correzione a I ogni volta che ci sono due o più
particelle che hanno gli stessi ~q e p~. Questo, però, succede solo su di un insieme di misura zero.
Il termine −r2 log N ! della (3.20) non dipende dalle variabili canoniche q e p, e può essere
incorporato in Ω, vedi (3.13)
Z
Pn
Ωindist = Ωdist + log N ! = − log e− i=1 λi Gi (q,p) dqdp + log N !
(3.21)
29
3.7. INFORMAZIONE DISPONIBILE IN STATISTICA QUANTISTICA
in modo che l’informazione mancante continui a essere
Iindist = −r2 Ωindist +r2
n
X
i=1
λi g i ,
o, se è nota solo l’energia Iindist = −r2 Ωindist +r2 βU. (3.22)
Per la funzione di distribuzione f (q, p) avremo
findist (q, p) = eΩindist +βH(q,p) = eΩdist +log N !+βH(q,p) = N ! eΩdist +βH(q,p) = N ! fdist (q, p).
Avremo quindi
Z
findist (q, p) dqdp = N !
Z
(3.23)
fdist (q, p) dqdp = N !,
(3.24)
ed il valore di aspettazione di una grandezza G(q, p) sarà
Z
1
G(q, p)findist (q, p) dqdp,
hGi =
N!
(3.25)
dove il fattore 1/N ! tiene conto che ad ogni stato del sistema corrispondono non uno, ma N !
punti distinti dello spazio delle fasi. E’ da notare che, fin che il numero N delle particelle è
costante, il tener conto dell’indistinguibilità delle particelle non altera i risultati ottenuti precedentemente. La correzione all’informazione mancante moltiplica semplicemente la funzione di
distribuzione per N !, mentre, quando vengono calcolate le medie sullo spazio delle fasi viene
introdotto un fattore 1/N ! per tener conto degli N ! punti che corrispondono ad un singolo
stato fisico. L’importanza dell’indistinguibilità delle particelle apparirà quando introdurremo
l’insieme gran canonico per trattare sistemi con numero di particelle non costante.
3.7
Informazione disponibile in statistica quantistica
Anche qui dobbiamo massimizzare l’informazione mancante I, la cui espressione questa
volta
è data dalla (3.4), con i vincoli Tr(ρ̂) = 1 (condizione di normalizzazione di ρ̂) e Tr ρ̂ Ĝi = gi
con i = 1, . . . n, dove Ĝ1 . . . Ĝn sono gli operatori relativi alle osservabili di cui conosciamo il
valore. Introduciamo ancora gli n+1 moltiplicatori di Lagrange r2 (Ω+1) e r2 λi per i = 1, . . . n,
e cerchiamo la matrice densità che dia il massimo non vincolato della funzione
I
′
= I + r2 (Ω + 1) [Trρ̂ − 1] − r2
n
X
i=1
h
i
λi Tr ρ̂Ĝi − gi
= −r2 Tr (ρ̂ log ρ̂) + r2 (Ω + 1) Trρ̂ − r2
"
= −r2 Tr ρ̂ log ρ̂ − Ω − 1 +
n
X
i=1
λi Ĝi
n
X
i=1
!#
λi Tr ρ̂Ĝi + r2
+ r2
Ω+1−
n
X
i=1
Ω+1−
λi g i
!
.
n
X
i=1
λi g i
!
(3.26)
P
Si può dimostrare che la stazionarietà di I ′ richiede che gli operatori ρ̂ e ni=1 λi Ĝi commutino,
P
per cui potremo lavorare su una base {|αi} su cui sia ρ̂ che ni=1 λi Ĝi sono diagonali. Per
30
CAPITOLO 3. SCELTA DELLA PROBABILITÀ
“stenografia”, definiamo l’operatore Ĝ
Ĝ =
e introduciamolo nella (3.26)
I ′ = −r2
= −r2
X
α
X
α
n
X
λi Ĝi =
i=1
X
α
|αiGαα hα|,
h i
hα| ρ̂ log ρ̂ − Ω − 1 + Ĝ |αi + r2
Ω+1−
Ω+1−
[ραα (log ραα − Ω − 1 + Gαα )] + r2
n
X
λi g i
i=1
n
X
i=1
λi g i
!
!
,
che deve essere stazionario rispetto a piccole variazioni arbitrarie δραα . La variazione dell’ultimo
termine tra parentesi tonda della (3.26) è nulla perché non vi compare la ρ̂. Avremo quindi
X
δραα
′
0 = δI = −r2
δραα (log ραα − Ω − 1 + Gαα ) + ραα
ραα
α
X
= −r2
[δραα (log ραα − Ω + Gαα )] ,
α
che ci porta a
ovvero
log ραα − Ω + Gαα = 0,
ρ̂ =
X
α
ραα = eΩ−Gαα ,
che implica
|αieΩ−Gαα hα| = eΩ−
P
i
λi Ĝi
.
(3.27)
Notiamo che tutti gli autovalori ραα di ρ̂ sono positivi, e che l’ultimo membro della (3.27) è
invariante per cambio di base. La condizione di normalizzazione impone che
P
(3.28)
Ω = − log Tr e− i λi Ĝi ,
che è l’anologo quantistico della (3.13). Anche le (3.15) hanno l’analogo quantistico:
X ∂Gαα
!
e−Gαα
∂λi
X
∂Ω
∂
− log
e−Gαα = α X
.
=
∂λi
∂λi
e−Gαα
α
α
D’altra parte, per definizione
Gαα = hα|
n
X
i=1
λi Ĝi |αi,
da cui
∂Gαα
= hα|Ĝi |αi.
∂λi
Sostituendo nell’equazione precedente otteniamo
X
e−Gαα hα|Ĝi |αi
P
∂Ω
= e−Ω Tr e− i λi Ĝi Ĝi = Tr ρ̂Ĝi = gi .
= α X
∂λi
e−Gαα
α
(3.29)
3.8. PARTICELLE IDENTICHE IN MECCANICA QUANTISTICA
3.8
31
Particelle identiche in meccanica quantistica
Nel caso quantistico l’indistinguibilità delle particelle implica che si incontrano solo funzioni
d’onda completamente simmetriche (statistica di Bose-Einstein) o completamente antisimmetriche (statistica di Fermi-Dirac) per scambio di particelle.
3.9
Funzione di partizione
La funzione di partizione Z è legata al moltiplicatore di Lagrange Ω dalle relazioni
Z = e−Ω ,
Ω = − log Z.
(3.30)
λi Gi (q,p)
(3.31)
In statistica classica abbiamo cosı̀
Z=
Z
e−
Pn
i=1
dq dp,
mentre in statistica quantistica abbiamo
P
Z = Tr e− i λi Ĝi .
(3.32)
Sia in statistica classica che in statistica quantistica abbiamo, per il valor medio di una
grandezza hGi i
∂
log Z.
(3.33)
hGi i = −
∂λi
32
CAPITOLO 3. SCELTA DELLA PROBABILITÀ
Capitolo 4
Informazione mancante e entropia
4.1
Costanti del moto
Se le uniche grandezze fisiche di cui conosciamo il valore sono costanti del moto, ci aspettiamo
che la nostra funzione di distribuzione f (q, p), o la nostra matrice densità ρ̂, siano costanti nel
tempo. Le più importanti costanti del moto che conosciamo sono l’energia, la quantità di moto
ed il momento angolare. Avremo quindi una matrice densità del tipo
~
~ ~
f (q, p) = eΩ−βH(q,p)−~σ·P (q,p)−λ·L(q,p) ,
(4.1)
dove β è il moltiplicatore di Lagrange relativo all’energia, ~σ quello relativo alla quantità di
moto, e ~λ quello relativo al momento angolare. Analogamente, nel caso quantistico avremo
ˆ
~ ~ ~ˆ
ρ̂ = eΩ−β Ĥ−~σ·P −λ·L ,
(4.2)
ˆ
~ˆ è l’operatore momento angolare
dove P~ è l’operatore quantità di moto totale del sistema e L
totale. Se ci mettiamo nel sistema di riferimento del baricentro del nostro sistema, la quantità
di moto complessiva sarà nulla. Se supponiamo che anche il momento angolare totale sia nullo,
possiamo scrivere
F (q, p) = eΩ−βH(q,p)
nel caso classico, e ρ̂ = eΩ−β Ĥ
nel caso quantistico.
(4.3)
Non comparendo né ~σ né ~λ nelle espressioni, le derivate parziali di Ω rispetto ad una qualunque
loro componente saranno infatti tutte nulle, e quindi, in base alle (3.15) e (3.29), saranno nulli
i valori di aspettazione delle grandezze fisiche corrispondenti.
4.2
Gas perfetto
Il gas perfetto è schematizzabile come un insieme di N punti materiali, ognuno di massa m,
non interagenti tra loro. Se escludiamo la presenza di forze esterne, ma teniamo conto del fatto
che il gas è confinato in un volume V , nel caso classico l’hamiltoniana è
H(p, q) =
N
X
p~i 2
i=1
33
2m
+ U (q),
(4.4)
34
CAPITOLO 4. INFORMAZIONE MANCANTE E ENTROPIA
dove l’indice i corre su tutte le particelle che compongono il sistema, e U (q) è l’energia potenziale. Mentre la sommatoria dipende solo dalle quantità di moto, l’energia potenziale dipende
solo dalle coordinate spaziali e, nel nostro caso, avrà la forma
0
se tutte le particelle sono all’interno del volume permesso
U (q) =
(4.5)
+∞ se almeno una particella è al di fuori del volume permesso
La funzione di distribuzione diventa cosı̀
f (q, p) = e
Ω−β
N
X
p~i 2
i=1
2m
− βU (q)
(4.6)
dove l’indice i corre su tutte le particelle del sistema. Considerando le particelle “uguali ma
distinguibili” (considereremo il caso delle particelle indistinguibili più avanti) abbiamo per Ω
−β
Z
3
3
−βU
(q)
d p1 . . . d pN e
Ω(β) = − log d q1 . . . d qN e
n
o
= − log V N [ϕ(β)]N = −N log V − N log ϕ(β),
Z
3
3
X p~i 2
i
2m
(4.7)
dove V è il volume occupato dal gas, e abbiamo posto
ϕ(β) =
Z
3
d pe
−β
p~ 2
3/2
2πm
2m =
,
β
Analogamente, nel caso quantistico abbiamo

ricordando che
−β
X

Ω(β) = − log 
hα|e
 α
X p~ˆi 2
i
2m
Z
+∞
e
−∞
−ax2
dx =
r



|αi

π
.
a
(4.8)
(4.9)
dove gli |αi costituiscono un insieme ortonormale e completo di autostati simultanei di tutti
i p~ˆi . Per sistemi di grandi dimensioni la traccia può essere sostituita da un integrale su uno
“spazio delle fasi quantizzato”, con celle di volume h3 per ogni particella


X p~ˆi 2
−β
V N Z
2m 


3
3
i
Ω(β) = − log  3N
d p1 . . . d pN e

h

= − log
VN
[ϕ(β)]N
h3N
= −N log V − N log ϕ(β) + log h3N ,
(4.10)
che differisce dalla (4.7) solo per la presenza del termine additivo log h3N , differenza dovuta alla
rinormalizzazione (1.17). L’informazione mancante per un gas perfetto diventa cosı̀
I = −r2 Ω + r2 βU = r2 N log V + r2 N log ϕ(β) − 3N r2 log h + r2 βU,
(4.11)
35
4.2. GAS PERFETTO
dove U è il valore di aspettazione dell’energia, ed il termine −3N r2 log h è presente solo nel
caso quantistico. Per il valore di aspettazione dell’energia U abbiamo
U=
3
∂Ω
=N ,
∂β
2β
(4.12)
3
che, confrontato con il valore noto dalla termodinamica classica U = N kT , ci porta a
2
β=
1
,
kT
(4.13)
dove k è la costante di Boltzmann. Sostituendo la (4.12) nella (4.11) otteniamo per l’informazione mancante
3
I = r2 N log V + r2 N log ϕ(β) + r2 N − 3N r2 log h,
2
(4.14)
E’ anche possibile ottenere dalla nostra trattazione statistica l’equazione del gas perfetto
classico. Per il valore di aspettazione della pressione p abbiamo
Z
∂H Ω−βH(q,p)
∂H
=−
e
dq dp.
(4.15)
p=−
∂V
∂V
Z
La condizione di normalizzazione eΩ−βH(q,p) dq dp = 1 impone che sia
∂
0=
∂V
Z
e
Ω−βH(q,p)
dq dp =
Z ∂Ω
∂H
−β
∂V
∂V
eΩ−βH(q,p) dq dp.
(4.16)
Di qui segue che
Z
∂H Ω−βH(q,p)
1 ∂Ω
e
dq dp =
∂V
β ∂V
Z
eΩ−βH(q,p) dq dp =
1 ∂Ω
,
β ∂V
(4.17)
mentre dalla (4.7) otteniamo
∂
N
∂Ω
=−
[N log V + N log ϕ(β)] = − ,
∂V
∂V
V
da cui
1N
, e, ricordando la (4.13), otteniamo pV = N kT
(4.18)
βV
che è l’equazione del gas perfetto classico monoatomico.
Per vedere la relazione tra la nostra informazione mancante I e l’entropia S definita dalla
termodinamica classica, cominciamo considerando una trasformazione reversibile (molto lenta)
isoterma (T , e quindi β, costanti) da un volume iniziale Vi a un volume finale Vf . Dalla
termodinamica classica abbiamo, per la variazione di entropia
Z
Z
Z
δQ
1 Vf N kT
1 Vf
Vf
∆Sisoterma =
,
(4.19)
p dV =
=
dV = N k log
T
T Vi
T Vi
V
Vi
p=
36
CAPITOLO 4. INFORMAZIONE MANCANTE E ENTROPIA
mentre dalla (4.14) abbiamo per la variazione di informazione mancante
Vf
.
∆Iisoterma = N r2 log
Vi
(4.20)
Analogamente, la variazione di entropia per una trasformazione isocora reversibile da una
temperatura iniziale Ti ad una temperatura finale Tf è, secondo la termodinamica classica,
∆Sisocora
3
= Nk
2
Z
Tf
Ti
dT
3
= N k log
T
2
Tf
Ti
,
per la stessa trasformazione la variazione di informazione mancante è
ϕ(βf )
3
3
βi
Tf
∆Iisocora = r2 N log
= r2 N log
= r2 N log
.
ϕ(βi )
2
βf
2
Ti
(4.21)
(4.22)
Questo ci porta a pensare che esista il legame S = kI/r2 = (k log 2) I tra entropia e informazione
mancante. Poiché k log 2 è costante, vediamo che l’entropia introdotta in termodinamica non
è altro che l’informazione mancante misurata in altre unità di misura, anziché in bit: un bit
di informazione mancante corrisponde, in termini di entropia, a (k log 2) J/K. Partendo dalla
(4.14), l’entropia di un gas perfetto può essere scritta
3
S = −kΩ + kβU = kN log V + kN log ϕ(β) + k N − 3N k log h
2
(4.23)
dove, ancora, l’ultimo addendo −3N k log h è presente solo nel caso quantistico.
Per un gas perfetto classico monoatomico di particelle identiche avremo
3
Sindist = −kΩindist + kβU = kN log V + kN log ϕ(β) + k N − 3N k log h − k log N !
2
(4.24)
Capitolo 5
Insieme gran canonico
5.1
Introduzione
Finora abbiamo considerato come noto il numero N di particelle che costituiscono il sistema.
Ma la conoscenza di N non è sempre possibile, sia per ovvi motivi pratici, che per motivi di
principio, come, per esempio, la possibile presenza di reazioni chimiche, o il caso di fotoni che
vengono continuamente emessi ed assorbiti.
5.2
5.2.1
Caso classico
Numero non noto, o variabile, di particelle identiche
Supponiamo di avere un sistema di particelle identiche di cui non conosciamo il numero esatto
N , ma solo una sua stima, o valore medio, N . A priori non escludiamo nessuna possibilità
0 ≤ N < ∞. Non avendo a disposizione uno spazio delle fasi con numero non definito delle
particelle, dobbiamo lavorare simultaneamente su tutti gli spazi delle fasi con 0 ≤ N < ∞,
ovviamente tutti relativi allo stesso tipo di particelle.
Per ogni N > 0 avremo una funzione di distribuzione
fN ({~qi }, {~pi }) ,
con
1 ≤ i ≤ N,
(5.1)
mentre per N = 0 avremo che f0 sarà una costante. Imponiamo le condizioni di normalizzazione
Z
1
fN (q, p) dq dp = 1
∀N,
(5.2)
N!
e, per ogni N , chiamiamo WN la probabilità che il sistema abbia N particelle, con
WN ≥ 0
∀N,
e
∞
X
WN = 1.
(5.3)
N =0
Per l’insieme gran canonico, la funzione di distribuzione è cosı̀ sostituita da un insieme di
funzioni di distribuzione sui singoli spazi delle fasi a N particelle,
fgc ≡ {W0 f0 , W1 f1 , W2 f2 , . . . , WN fN , . . .} ≡ {WN fN } .
37
(5.4)
38
CAPITOLO 5. INSIEME GRAN CANONICO
Le grandezze fisiche, essendo funzioni delle coordinate e dei momenti delle particelle, sono esse
pure rappresentate, nell’insieme gran canonico, da insiemi di funzioni del tipo
Ggc ≡ {G0 , G1 (~q1 , p~1 ), G2 (~q1 , p~1 , ~q2 , p~2 ), . . . , GN (~q1 , p~1 , ~q2 , p~2 , . . . , ~qN , p~N ), . . .} .
Per esempio, l’energia cinetica traslazionale T sarà scritta
)
(
N
2
2
2
2
X
p~2
p~1 p~1
p~j
,
+
,...,
,... ,
Tgc ≡ 0,
2m 2m
2m
2m
j=1
(5.5)
(5.6)
e il valor medio di una grandezza sarà scritto
Z
∞
X
WN
fN (q, p) GN (q, p) dq dp
hGi =
N!
N =0
5.2.2
(5.7)
La grandezza “numero delle particelle”
Nell’insieme gran canonico definiamo una nuova grandezza fisica, la grandezza numero delle
particelle N , definita da
N = {0, 1, 2, . . . , N, . . .},
con valor medio hN i =
∞
X
WN N = N ,
(5.8)
N =0
pari al valore di aspettazione del numero delle particelle del sistema.
5.2.3
Entropia
Se le particelle fossero esattamete N , l’entropia sarebbe, come abbiamo visto
Z
1
SN = −k
fN log fN dq dp,
N!
se mediamo sul numero delle particelle N otteniamo
X WN Z
fN log fN dq dp,
hSN i = −k
N!
N
(5.9)
(5.10)
cui va ancora aggiunta l’entropia corrispondente al difetto di informazione relativo alla scelta
tra i possibili valori di N , cioè
X
S(N ) = −k
WN log WN .
(5.11)
N
Complessivamente, l’entropia per l’insieme gran canonico sarà cosı̀
Z
X
1
S = −k
WN log WN +
fN log fN dq dp ,
N
!
N
(5.12)
39
5.2. CASO CLASSICO
Z
1
fN dq dp = 1,
che può essere riscritta, ricordando che, per ogni N , abbiamo
N!
Z
Z
X
1
1
S = −k
WN
(log WN )fN dq dp +
fN log fN dq dp
N
!
N
!
N
X WN Z
fN log(WN fN ) dq dp.
= −k
N
!
N
(5.13)
Cerchiamo adesso il massimo di S, considerando noti il valor medio del numero delle particelle
N ed il valor medio dell’energia U . Per semplicità definiamo
Z
1
∗
fN = WN fN , cosı̀ che è
fN∗ dq dp = WN ,
(5.14)
N!
e sostituiamo nella (5.13)
X 1 Z
S = −k
fN∗ log fN∗ dq dp.
N
!
N
(5.15)
Dobbiamo cercare l’insieme {fN∗ } che corrisponde al massimo vincolato di S con le condizioni
X 1 Z
fN∗ dq dp
(5.16)
1 =
N
!
N
X N Z
fN∗ dq dp
(5.17)
N =
N
!
N
X 1 Z
U =
HN fN∗ dq dp.
(5.18)
N
!
N
Usando il metodo dei moltiplicatori di Lagrange, cerchiamo il massimo non vincolato dell’espressione
!
X 1 Z
X 1 Z
fN∗ log fN∗ dq dp + k(Ω + 1)
fN∗ dq dp − 1
S ′ = −k
N
!
N
!
N
N
!
!
X N Z
X 1 Z
−kα
fN∗ dq dp − N − kβ
HN fN∗ dq dp − U
(5.19)
N
!
N
!
N
N
dove −k(Ω + 1) è il moltiplicatore di Lagrange relativo alla normalizzazione, kα quello relativo
al numero delle particelle, e kβ quello relativo all’energia. Deve quindi essere nulla la variazione
Z
Z
X 1 Z
′
∗
∗
∗
δfN log fN dq dp + δfN dq dp − (Ω + 1) δfN∗ dq dp
0 = δS = −k
N
!
N
+αN
Z
δfN∗
dq dp + β
Z
HN δfN∗
dq dp
X 1 Z
= −k
δfN∗ (log fN∗ − Ω + αN + βHN ) dq dp,
N
!
N
(5.20)
40
CAPITOLO 5. INSIEME GRAN CANONICO
Data l’arbitrarietà di δfN∗ , la (5.20) implica che, per ogni N , si abbia
log fN∗ − Ω + αN + βHN = 0,
con Ω tale che
ovvero fN∗ = eΩ−αN −βHN ,
(5.21)
X e−αN Z
X 1 Z
Ω
∗
fN dq dp = e
e−βHN dq dp,
1=
N
!
N
!
N
N
da cui otteniamo
!
(5.22)
X e−αN Z
=
e−βHN dq dp.
N
!
N
(5.23)
X e−αN Z
Ω = − log
N!
N
e−βHN dq dp
mentre la funzione di partizione Z diventa
Z=e
Avremo poi
5.2.4
−Ω
∂Ω
= N,
∂α
e la solita
∂Ω
= U.
∂β
(5.24)
Gas perfetto monoatomico classico nell’insieme gran canonico
Le espressioni diventano particolarmente semplici in assenza di interazione tra le particelle. Se
consideriamo un gas perfetto monoatomico classico, l’hamiltoniana sarà
)
( N
X p~i 2
+ U (~q1 . . . ~qN ) ,
(5.25)
H = {HN } =
2m
i=1
con le U (~q1 . . . ~qN ) analoghe alla (4.5). Cosı̀ Ω diventa
" ∞
" ∞
23 N #
N #
X e−αN Z
X e−αN
2πm
2
Ω = − log
VN
e−βp /2m d3 p · V
= − log
,
N
!
N
!
β
N =0
N =0
(5.26)
dove V è il volume occupato dal gas.
(
"
32 #)
∞
X
2πm
xN
= ex segue che Ω = − log exp e−α V
, ovvero
Dalla relazione
N
!
β
N =0
Ω = −V
2πm
β
23
e−α .
(5.27)
Dalla prima delle (5.24) segue
∂Ω
=V
N=
∂α
e da qui
e
−α
N
=
V
β
2πm
23
,
2πm
β
23
e−α = −Ω,
N
α = − log + log
V
(5.28)
2πm
β
23
.
(5.29)
41
5.3. CASO QUANTISTICO
Le componenti della funzione di distribuzione sono
" 23 #N
P p2i
β
−β
−N N
∗
2m .
e
fN = e
V 2πm
(5.30)
La (5.30) ci permette di calocolare le probabilità WN di avere esattamente N particelle per un
gas perfetto con numero medio di particelle N
" 32 #N Z
Z
P p2i
1
N
β
1
dq dp e−β 2m
WN
e−N
fN∗ dq dp =
N!
N!
V 2πm
N
−N N
,
(5.31)
= e
N!
che è la distribuzione di Poisson con valore medio N . Da qui possiamo ottenere
fN =
fN∗
WN
= N!
"
1
V
β
2πm
32 #N
e
−β
X p2
i
2m ,
(5.32)
che è la normale funzione di distribuzione di un gas perfetto monoatomico di N particelle
indistinguibili.
Avremo inoltre per il valor medio dell’energia del gas perfetto monoatomico U
3
3
23
β
3
3
∂Ω
2πm 2 1 −α 3
2πm 2 1 N
3N
= V
e = V
= N kT. (5.33)
U=
=
∂β
2
β
β
2
β
β V 2πm
2β
2
Per l’entropia otteniamo infine
"
S = −kΩ + kβ U + kαN = kN log
5.3
5.3.1
2πm
β
32
#
5
N
+ − log
.
2
V
(5.34)
Caso quantistico
Impostazione del problema, gas perfetto quantistico
In meccanica quantistica l’indistinguibilità delle particelle ha come conseguenza che i risultati
sperimentali previsti devono restare immutati per ogni possibile scambio di due particelle tra
loro. Questo comporta che il modulo quadro della funzione d’onda |ψ|2 deve restare invariato,
e questo, a sua volta, è possibile solo se, scambiando due particelle, i) la ψ rimane invariata,
oppure ii) la ψ cambia segno. Queste due possibilità portano a due diverse statistiche possibili
in meccanica quantistica:
i. sistemi di particelle rappresentati da funzioni d’onda simmetriche obbediscono alla statistica di Bose-Einstein;
ii. sistemi di particelle rappresentati da funzioni d’onda antisimmetriche obbediscono alla
statistica di Fermi-Dirac.
42
CAPITOLO 5. INSIEME GRAN CANONICO
In ambedue i casi è conveniente, per motivi di calcolo, effettuare i conti statistici nell’insieme
gran canonico, cioè fissare un valore di aspettazione per il numero N delle particelle, ma non
vincolare N ad un valore costante.
Lo spazio di Hilbert relativo all’insieme gran canonico sarà la somma diretta di tutti gli spazi
di Hilbert relativi ad un sistema di N particelle identiche con N = 0, 1, 2, . . . , ∞. Cerchiamo
adesso di costruirci una base per questo spazio di Hilbert.
Cominciamo considerando un’unica particella confinata nel volume che dovrà poi contenere
l’intero sistema. Questa particella avrà uno spettro discreto di livelli energetici Er , e una base
possibile per lo spazio di Hilbert dei suoi stati possibili sarà data dall’insieme ortonormale
{|ri} ≡ {|Er αr i} ,
(5.35)
dove gli αr sono gli altri numeri quantici eventualmente necessari per identificare lo stato, e più
Er possono avere lo stesso valore in caso di degenerazione.
Se supponiamo che il volume contenga più di una particella, ma che le particelle non interagiscano tra loro, una base completa e stazionaria per il nostro spazio di Hilbert è data
dall’inisieme dei vettori del tipo
|{nr }i = |n0 E0 α0 i|n1 E1 α1 i|n2 E2 α2 i . . . |nr Er αr i . . . ,
(5.36)
dove nr è il numero di particelle che si trovano nello stato |ri. Il fatto di lavorare nell’insieme
P
gran canonico rende possibili tutti gli insiemi {nr }, senza il limite posto dalla condizione nr =
N . Gli |{nr }i sono autostati sia dell’hamiltoniana Ĥ, con autovalori
X
nr E r
(5.37)
r
che dell’operatore numero delle particelle N̂ , con autovalori
X
nr .
(5.38)
r
Per i bosoni lo stato è simmetrico per lo scambio di una qualunque coppia di particelle, questo
non ha conseguenze sui numeri di occupazione degli stati di particella singola e tutti gli |{nr }i
sono permessi. Per i fermioni lo stato deve cambiare segno per ogni scambio di due particelle
tra loro, e questo impone che ogni nr possa assumere solo i valori 0 oppure 1.
Se introduciamo l’interazione tra le particelle, gli |{nr }i restano una base ortonormale completa per lo spazio di Hilbert del nostro sistema, ma i singoli elementi della base, pur restando
autostati di N̂ , non sono più autostati di Ĥ.
La matrice densità sarà
(5.39)
ρ̂ = eΩ−β Ĥ−αN̂ , con Ω(β, α) = − log Tr e−β Ĥ−αN̂ .
Consideriamo adesso un gas perfetto quantistico monoatomico confinato in un contenitore di
volume V . La componente dell’hamiltoniana relativa allo spazio di Hilbert con N particelle
sarà
N ˆ2
X
p~i
ĤN =
,
(5.40)
2m
i=1
43
5.3. CASO QUANTISTICO
con p~ˆi operatore quantità di moto dello i-esimo atomo. Gli stati di particella singola |Er αr i
saranno autostati, oltre che dell’hamiltoniana, dell’operatore quantità di moto al quadrato pˆ~ 2
(ma non dell’operatore quantità di moto pˆ~). A seconda della geometria del contenitore, i livelli
energetici di particella singola
P potranno essere degeneri.
Gli stati |{nr }i con
r nr = N saranno autostati di ĤN con autovalori EN ({nr }) =
N
N
X
X p2
nr Er , dove p2r è l’autovalore dell’operatore di particella singola p̂2 nello stato di
nr r =
2m
r=0
r=0
p2
particella singola |ri, e Er = r il corrispondente autovalore dell’energia di particella singola.
2m
Avremo cosı̀
!
!
N
N
X
X
p2r
nr
ĤN |{nr }i = EN ({nr })|{nr }i =
nr Er |{nr }i.
(5.41)
|{nr }i =
2m
r=0
r=0
Avremo poi
Ω(β, α) = − log
= − log
= − log
= − log
= − log
X
{nr }
X
h{nr }|e−β Ĥ−αN̂ |{nr }i = − log
e
−
P
r nr (βEr +α)
{nr }
"
"
XX
n0
...
n1
X
n0
P
r
nr Er −α
P
r
nr
{nr }
e−nr (βEr +α)
{nr } r
nr
X
e−n1 (βE1 +α) . . .
n1
e
e−β
. . . e−n0 (βE0 +α) e−n1 (βE1 +α) . . . e−nr (βEr +α) . . .
e−n0 (βE0 +α)
YX
r
X
= − log
XY
X
−n(βEr +α)
X
e−nr (βEr +α) . . .
nr
,
#
#
(5.42)
n
dove il prodotto su r corre su tutti gli stati di particella singola, e la somma su n corre su tutti
i numeri di occupazione permessi per gli stati di particella singola. Possiamo poi riscrivere
X
X
Ω(β, α) = −
log
e−n(βEr +α) .
(5.43)
r
In base alla relazione
∞
X
qn =
n=0
n
1
, valida per q < 1, abbiamo per i bosoni
1−q
∞
X
n=0
e−n(βEr +α) =
1
,
(5.44)
e−n(βEr +α) = 1 + e−βEr −α .
(5.45)
1−
e−βEr −α
mentre per i fermioni abbiamo
1
X
n=0
44
CAPITOLO 5. INSIEME GRAN CANONICO
Possiamo compattare l’espressione di Ω per bosoni e fermioni nella forma
X
−ε
Ω(β, α) = −
log 1 − εe−βEr −α
,
(5.46)
r
con ε = +1 per i bosoni e ε = −1 per i fermioni.
Per la matrice densità abbiamo
"
#
Y
ε
ρ̂ = eΩ−β Ĥ−αN̂ =
1 − εe−βEr −α
e−β Ĥ−αN̂
r
=
5.3.2
"
Y
r
1 − εe
#
X
ε
−βEr −α
e−
P
r (βEr +α)nr
{nr }
|{nr }ih{nr }|
(5.47)
Potenziale chimico
Spesso, invece del moltiplicatore di Lagrange relativo al numero delle particelle α si preferisce
usare il potenziale chimico µ, che ha le dimensioni di un’energia ed è definito dalla relazione
α
(5.48)
µ=− ,
β
cosı̀ che il termine −βEr − α viene riscritto −β(Er − µ). In questo modo, per esempio, la (5.47)
si riscrive
"
#
Y
X P
ε
(5.49)
e− r β(Er −µ)nr |{nr }ih{nr }|
ρ̂ =
1 − εe−β(Er −µ)
r
5.3.3
{nr }
Numeri di occupazione
Dalla (5.49) otteniamo che la probabilità che un gas perfetto quantistico si trovi nello stato
|{nr }i = |n0 , n1 , . . . nr . . .i è
"
#
Y
P
ε
hn0 , n1 , . . . nr . . .|ρ̂|n0 , n1 , . . . nr . . .i =
e− r β(Er −µ)nr
1 − εe−β(Er −µ)
r
=
"
=
Y
Y
r
=
r
Y
1 − εe
#
Y
ε
−β(Er −µ)
e−β(Er −µ) nr
r
−β(Er −µ) nr
e
−ε
(1 − εe−β(Er −µ) )
Wr (nr ),
(5.50)
r
dove il fattore Wr (nr ) può essere interpretato come la probabilità che lo stato di particella
singola |ri sia occupato da nr particelle. Scritto in forma esplicita abbiamo
Wr (n) =
e−n β(Er −µ)
−ε
(1 − ε e−β(Er −µ) )
(5.51)
45
5.3. CASO QUANTISTICO
dove abbiamo tralasciato l’indice r che compariva in nr . Questa fattorizzazione della matrice
densità (fattorizzazione sugli stati di particella singola, non sulle particelle!!!) può essere usata
per calocolare i valori medi di tutte le grandezze di particella singola, che sono le uniche permesse
per un gas perfetto. Per esempio, possiamo calcolare hnr i, il numero medio delle particelle che
si trovano nello stato |ri
hnr i =
X
Wr (n) n =
n
X
n
ε X −n β(Er −µ)
n e−n β(Er −µ)
= 1 − ε e−β(Er −µ)
ne
.
−ε
(1 − εe−β(Er −µ) )
n
(5.52)
La somma su n vale per i fermioni
1
X
n e−n (βEr −µ) = e−β(Er −µ) ,
(5.53)
n=0
mentre per i bosoni abbiamo
∞
X
n e−n β(Er −µ) =
n=0
e−β(Er −µ)
[1 −
2
e−β(Er −µ) ]
∞
X
in base alla relazione
n qn =
n=0
q
(1 − q)2
(q < 1)
(5.54)
Inserendo queste somme nella (5.52) abbiamo per i fermioni
hnr ifermioni = 1 + e−β(Er −µ)
e per i bosoni
hnr ibosoni = 1 − e−β(Er −µ)
+1
−1
e−β(Er −µ) =
e−β(Er −µ)
[1 − e−β(Er −µ) ]
2
e−β(Er −µ)
1 + e−β(Er −µ)
=
e−β(Er −µ)
1 − e−β(Er −µ)
(5.55)
(5.56)
che possono essere compattate nell’espressione
hnr i =
e−β(Er −µ)
,
1 − ε e−β(Er −µ)
(5.57)
moltiplicando numeratore e denominatore per eβ(Er −µ) otteniamo infine
hnr i =
1
eβ(Er −µ)
−ε
.
(5.58)
46
CAPITOLO 5. INSIEME GRAN CANONICO
Capitolo 6
Fluttuazioni delle grandezze statistiche
6.1
Ampiezza delle fluttuazioni
Consideriamo un sistema di N particelle, non importa se indistinguibili o no, nel caso in cui
l’unica grandezza nota a priori è l’energia. Dalla (3.21) abbiamo
Z
Ω = − log e−βH(q,p) dqdp (+ log N !),
(6.1)
e per il valor medio dell’energia
∂Ω
=
hU i =
∂β
Z
|
Z
N!
=
He−βH dqdp
HeΩdist −βH dqdp
{z
}
=
e−βH dqdp
Z
N!
|
Z
distinguibili
He−βH dqdp
Z
e−βH dqdp
1
=
N!
{z
Z
indistinguibili
HeΩindist −βH dqdp .
(6.2)
}
Vogliamo calcolare la fluttuazione dell’energia del sistema attorno al suo valore medio hU i.
Avremo
h(∆U )2 i = h(U − hU i)2 i = hU 2 i − hU i2 .
(6.3)
D’altra parte abbiamo
Z
Z
Z
Z
Z
−βH
2 −βH
−βH
−βH
He
dqdp
− H e
dqdp e
dqdp + He
dqdp He−βH dqdp
∂
∂ 2Ω
Z
=
=
Z
2
∂β 2
∂β
−βH
e−βH dqdp
e
dqdp
Z
2 −βH
Z
−βH
2
dqdp 
H e
dqdp  He
 = −hU 2 i + hU i2 = −h(∆U )2 i,
Z
+
= − Z


e−βH dqdp
e−βH dqdp
47
(6.4)
48
CAPITOLO 6. FLUTTUAZIONI DELLE GRANDEZZE STATISTICHE
da cui
h(∆U )2 i = −
∂hU i 1
∂hU i
∂ 2Ω
=−
=−
= kT
2
∂β
∂β
∂T ∂β
∂T
2
∂hU i
= kT 2 CV .
∂T
(6.5)
Le variazioni relative sono
kT 2 CV
h(∆U )2 i
=
.
hU i2
hU i2
Nel caso di un gas perfetto monoatomico dalla (4.7) abbiamo
3/2
2πm
Ω = −N log V − N log
,
β
hU i =
∂Ω
3 1
3
= N = N kT,
∂β
2 β
2
h(∆U )2 i = −
3 1
3
∂ 2Ω
=
N
=
N (kT )2 ,
∂β 2
2 β2
2
da cui
h(∆U )2 i
3
= N (kT )2
2
2
hU i
(6.6)
2
(6.7)
s
h(∆U )2 i
=
da cui
hU i2
√
quindi le fluttuazioni relative sono inversamente proporzionali a N .
6.2
2
3N kT
2
,
=
3N
r
2
3N
(6.8)
Fluttuazioni dei numeri di occupazione
Per le fluttuazioni dei numeri di occupazione degli stati di particella singola dei gas perfetti
quantistici abbiamo
2
X
1
2
2
2
2
.
(6.9)
h(∆nr ) i = hnr i − hnr i =
Wr (n) n − β(Er −µ)
e
−
ε
n
Ricordando la (5.51), per i fermioni il termine hn2r i vale
hn2r i
1
X
1
X
e−n β(Er −µ) 2
e−β(Er −µ)
1
=
Wr (n) n =
n
=
= β(Er −µ)
−β(E
−µ)
−β(E
−µ)
r
r
1+e
1+e
e
+1
n=0
n=0
2
quindi, sempre per i fermioni
2
h(∆nr ) i =
hn2r i
1
2
− hnr i =
eβ(Er −µ) + 1
−
1
eβ(Er −µ) + 1
2
=
,
eβ(Er −µ)
[eβ(Er −µ) + 1]
2
.
(6.10)
(6.11)
Per i bosoni invece abbiamo
∞
∞
X
X
2
2
hnr i =
Wr (n) n =
1 − e−β(Er −µ) e−n β(Er −µ) n2
n=0
=
1−e
n=0
−β(Er −µ)
∞
X
n=0
e−n β(Er −µ) n2 =
e−β(Er −µ) + e−2β(Er −µ)
[1 − e−β(Er −µ) ]
2
,
(6.12)
49
6.2. FLUTTUAZIONI DEI NUMERI DI OCCUPAZIONE
dove l’ultimo passaggio è stato ottenuto utilizzando la relazione
∞
∞
X
e−x + e−2x
∂2
1
∂ 2 X −nx
2 −nx
=
e
=
ne
=
∂x2 n=0
∂x2 1 − e−x
(1 − e−x )3
n=0
.
Moltiplicando numeratore e denominatore dell’ultima delle (6.12) per e2β(Er −µ) abbiamo
hn2r i =
eβ(Er −µ) + 1
[eβ(Er −µ) − 1]
,
2
inserendo nella (6.9)
eβ(Er −µ) + 1
2
h(∆nr )2 i = hn2r i − hnr i =
[eβ(Er −µ) − 1]
2
−
1
eβ(Er −µ) − 1
2
=
eβ(Er −µ)
[eβ(Er −µ) − 1]
2
.
(6.13)
Le espressioni per i bosoni e per i fermioni possono essere compattate nella forma
h(∆nr )2 i =
eβ(Er −µ)
[eβ(Er −µ) − ε]
(6.14)
2
Il limite classico si ha per α → ∞, quindi, essendo µ = −α/β, per µ → −∞
lim h(∆nr )2 i = e−β(Er −µ) = lim hnr i ,
µ→−∞
(6.15)
µ→−∞
per cui, al limite classico
p
∆nr ≈ hnr i,
e, per le fluttuazioni relative
1
h(∆nr )2 i
=
,
2
hnr i
hnr i
p
h(∆nr )2 i
1
=p
.
hnr i
hnr i
(6.16)
Per la statistica di Fermi-Dirac abbiamo
β(E −µ)
2
e r
+1 −1
1
1
eβ(Er −µ)
2
− β(Er −µ)
= β(Er −µ)
h(∆nr ) i =
2 =
2
e
+1
e
+1
[eβ(Er −µ) + 1]
[eβ(Er −µ) + 1]
= hnr i − hnr i2 ,
da cui
1
h(∆nr )2 i
=
−1 ,
2
hnr i
hnr i
(6.17)
mentre per la statistica di Bose-Einstein
β(E −µ)
2
e r
−1 +1
1
1
eβ(Er −µ)
2
+ β(Er −µ)
= β(Er −µ)
h(∆nr ) i =
2 =
2
e
−1
e
−1
[eβ(Er −µ) − 1]
[eβ(Er −µ) − 1]
= hnr i + hnr i2 ,
da cui
1
h(∆nr )2 i
=
+1 .
2
hnr i
hnr i
(6.18)
Cioè, per i fermioni la dispersione relativa è minore che per il limite classico, mentre per i bosoni
e maggiore. In particolare, per i fermioni la dispersione relativa tende 0 per hnr i → 1, mentre
per i bosoni la dispersione non tende a 0 per hnr i → ∞.
50
CAPITOLO 6. FLUTTUAZIONI DELLE GRANDEZZE STATISTICHE
Capitolo 7
Interazione radiazione-materia, I
7.1
Derivazione della formula di Planck da parte di Einstein
Consideriamo un sistema di atomi identici in interazione con un campo di radiazione elettromagnetica. Supponiamo che ogni atomo abbia due livelli energetici |1i e |2i, rispettivamente
di energia E1 ed E2 , con E2 > E1 . Secondo Einstein esistono tre processi distinti di interazione
tra l’atomo e la radiazione, schematizzati nella Figure 7.1:
|2i
hν
hν
B12
hν
A21
hν
E2
B21 hν
|1i
E1
1. Assorbimento
2. Emissione spontanea
3. Emissione indotta
Figura 7.1: Processi di assorbimento, emissione spontanea e emissione indotta, e coefficienti di
Einstein.
1. Si ha assorbimento quando l’atomo si trova inizialmente nello stato di energia più bassa
|1i ed assorbe un fotone di energia hν = E2 − E1 (conservazione dell’energia) portandosi
allo stato più alto |2i. Contemporaneamente scompare un fotone dal campo di radiazione.
2. Se l’atomo si trova inizialmente nel livello più alto |2i può decadere al livello |1i per
emissione spontanea di un fotone di energia hν. Si tratta di un fenomeno statistico che
genera un decadimento esponenziale della popolazione del livello |2i. Si definisce vita
media τ del livello |2i il tempo dopo il quale, per effetto dell’emissione spontanea, nel
livello |2i è rimasta una frazione 1/e degli atomi che vi si trovavano inizialmente. Il fotone
è emesso con uguale probabilità in qualunque direzione.
3. Esattamente come un fotone di energia hν che incontra un atomo nello stato |1i può
essere assorbito, un fotone che incontra un atomo nello stato |2i può stimolare l’emissione
51
52
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
di un nuovo fotone, identico al fotone di partenza, portando cosı̀ l’atomo allo stato più
basso |1i. Perché avvenga questo fenomeno, detto emissione indotta, è quindi necessaria
la presenza di fotoni “primari”. L’emissione indotta aggiunge un nuovo fotone a quelli
già presenti nel campo di radiazione, il nuovo fotone è indistinguibile da quello che ne ha
indotto l’emissione.
Adesso supponiamo che il nostro sistema di atomi sia in equilibrio con della radiazione di corpo
nero alla temperatura T . L’energia di radiazione per unità di volume con frequenza compresa
tra ν e ν + dν sarà u(ν, T ) dν; nel seguito, per brevità, scriveremo u(ν) invece di u(ν, T ).
Vediamo quanti dei tre processi descritti sopra avvengono nell’intervallo di tempo dt.
1. Transizioni per assorbimento da |1i a |2i. La frequenza dei processi è proporzionale al
numero di atomi N1 che si trovano nello stato |1i e alla densità di radiazione alla frequenza
ν = (E2 − E1 )/h
(dN2←1 )abs = B21 u(ν) N1 dt,
(7.1)
dove B21 è il coefficiente di Einstein per l’assorbimento, pari alla probabilità di transizione
per unità di tempo e di densità di radiazione u(ν). Nei coefficienti di Einstein metteremo
come primo indice quello relativo allo stato di arrivo, e come secondo quello relativo allo
stato di partenza. Vedremo in seguito che questo è in accordo con la notazione matriciale,
e con il normale prodotto righe per colonne delle matrici.
2. Transizioni per emissione spontanea da |2i a |1i. Il numero di queste transizioni per unità
di tempo è proporzionale al numero di atomi che si trova nello stato |2i:
(dN1←2 )spont = A12 N2 dt,
(7.2)
dove A12 è il coefficiente di Einstein per l’emissione spontanea.
3. Transizioni per emissione indotta da |2i a |1i. Il numero di queste transizioni è proporzionale al numero di atomi N2 che si trovano nello stato |2i e alla densità di radiazione
alla frequenza ν = (E2 − E1 )/h
(dN1←2 )ind = B12 u(ν) N2 dt,
(7.3)
dove B12 è il coefficiente di Einstein per l’emissione indotta.
Se siamo all’equilibrio, con N1 e N2 costanti, la frequenza delle transizioni da |1i a |2i deve
essere uguale alla frequenza delle transizioni da |2i a |1i:
(dN2←1 )abs = (dN1←2 )spont + (dN1←2 )ind ,
(7.4)
inserendo le espressioni delle (7.1), (7.2) e (7.3) otteniamo
N2
B21 u(ν)
.
=
N1
A12 + B12 u(ν)
(7.5)
D’altra parte, se siamo all’equilibrio termico, il rapporto N2 /N1 è dato dalla ripartizione di
Boltzmann
e−E2 /kT
N2
= −E1 /kT ,
(7.6)
N1
e
53
7.1. DERIVAZIONE DELLA FORMULA DI PLANCK DA PARTE DI EINSTEIN
da cui segue
B21 u(ν)
e−E2 /kT
= −E1 /kT ,
A12 + B12 u(ν)
e
e, per u(ν) abbiamo u(ν) =
B21
A12
hν/kT
e
−
B12
,
(7.7)
dove abbiamo posto hν = E2 −E1 . Per determinare le relazioni tra i coefficienti di Einstein A12 ,
B21 e B12 , facciamo prima tendere la temperatura all’infinito. Sappiamo che lim u(ν) = ∞,
T →∞
cosı̀ che il denominatore dell’ultima delle (7.7) deve tendere a zero, e avremo quindi
B21 = B12 ,
da cui u(ν) =
B21
A12
hν/kT
(e
− 1)
.
(7.8)
D’altra parte al limite delle basse frequenze, cioè per hν ≪ kT , deve valere la legge di RayleighJeans, che è verificata sperimentalmente,
u(ν) =
8πν 2
kT.
c3
(7.9)
Se espandiamo fino al primo ordine l’esponenziale al denominatore della (7.8) otteniamo
u(ν) =
B21
A12
hν/kT
(e
− 1)
≈
A12 kT
,
B21 hν
(7.10)
uguagliando alla (7.9) otteniamo
8πhν 3
A12
,
=
B21
c3
da cui otteniamo finalmente la formula di Planck
u(ν) =
(7.11)
8πhν 3
1
.
c3 ehν/kT − 1
Otteniamo poi la relazione tra A12 e B21 = B12
A12 =
8πhν 3
B21 ,
c3
(7.12)
in accordo con la legge di Kirchhoff, secondo cui le probabilità di emissione spontanea e di
assorbimento sono proporzionali tra loro.
La derivazione di Einstein della legge di Planck è fondamentale per capire l’interazione
radiazione-materia ed i principi di funzionamento del laser.
54
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
7.2
Propagazione di un fascio di radiazione in un mezzo
materiale
N2
Supponiamo di avere un fascio di radiazione elettromagnetica di
frequenza ν (non radiazione di corpo nero!) che attraversi un mezzo materiale inizialmente all’equilibrio termico alla temperatura
T , per esempio un gas atomico. Per il momento, supponiamo che
hν21
ogni atomo del gas abbia solo due livelli energetici |1i e |2i, tali
che E2 > E1 e hν = E2 − E1 . Ammettiamo anche che |1i e |2i
N1
possano essere degeneri, con degenerazione rispettivamente g1 e
|1i
g2 . In assenza di interazione con il fascio di radiazione l’equilibrio
Figura 7.2: Sistema a due termodinamico impone che i numeri N10 ed N20 di atomi per unità
di volume che si trovano rispettivamente nei livelli energetici |1i
livelli.
e |2i stiano nel rapporto di Boltzmann
|2i
N20
g2 −(E2 −E1 )/kT
e
.
=
0
N1
g1
(7.13)
Consideriamo adesso l’interazione con il fascio di radiazione. Oltre che dalla frequenza ν, il
fascio sarà caratterizzato dalla sua intensità I, definita come la potenza incidente per unità
di superficie, misurata in W/m2 , e dal flusso di fotoni Φ, definito come il numero di fotoni
incidenti sull’unità di superficie nell’unità di tempo.
Le quantità I e Φ sono legate dalla
relazione
I = Φhν.
(7.14)
I(0)
I(z + dz)
I(z)
I(l)
dz
0
z
l
z
In termini della velocità della luce c, della
densità di energia di radiazione per unità di
volume u, e del numero di fotoni per unità
di volume n, possiamo scrivere anche
Figura 7.3: Propagazione di radiazione in un mezzo
materiale.
I = cu,
Φ = cn.
(7.15)
Supponiamo che la radiazione si propaghi lungo la direzione z entro un piccolo angolo solido dΩ.
Passando dalla coordinata z alla coordinata z+dz avremo una variazione dell’intensità del fascio
dI e la corrispondente variazione del suo flusso di fotoni dΦ. Queste variazioni sono determinate
essenzialmente dai due processi di assorbimento e di emissione indotta. L’emissione spontanea,
essendo isotropa, dà un contributo trascurabile all’interno dell’angolo solido infinitesimo dΩ.
L’equazione (7.1) può essere riscritta
(dN2 )abs = σ21 Φ N1 dt,
(dN1 )abs = −σ21 Φ N1 dt,
(dΦ)abs = −σ21 Φ N1 c dt,
(7.16)
l’ultima relazione si ottiene tenendo conto che N1 e N2 sono numeri di atomi per unità di
volume, mentre Φ è il numero di fotoni incidenti per unità di superficie e unità di tempo: dalla
seconda delle (7.15) abbiamo dΦ = c dn = c dN1 . La quantità σ21 , legata al coefficiente di
Einstein B21 , ha le dimensioni di una superficie ed è detto sezione d’urto d’assorbimento. Se
7.2. PROPAGAZIONE DI UN FASCIO DI RADIAZIONE IN UN MEZZO MATERIALE 55
consideriamo il numero di transizioni di assorbimento al secondo, abbiamo infatti dalle (7.1) e
(7.16)
dN2
= σ21 Φ N1 = B21 u(ν) N1 , da cui σ21 Φ = B21 u(ν).
(7.17)
dt abs
D’altra parte, essendo u(ν) dν l’energia radiante per unità di volume con frequenza compresa
tra ν e ν + dν, per il nostro fascio possiamo scrivere
u(ν) =
nhν
,
∆ν
(7.18)
dove ∆ν è la larghezza di riga del fascio stesso. Unendo alla seconda delle (7.15) abbiamo
σ21 Φ = σ21 nc = B21
nhν
,
∆ν
da cui otteniamo σ21 = B21
hν
,
c ∆ν
(7.19)
che è la relazione tra la sezione d’urto d’assorbimento ed il coefficiente B21 di Einstein.
L’equazione (7.3) può essere riscritta
(dN2 )ind = −σ12 ΦN2 dt,
(dN1 )ind = σ12 ΦN2 dt,
(dΦ)ind = σ12 ΦN2 c dt,
(7.20)
dove σ12 è la sezione d’urto d’emissione indotta. Mettendo insieme le relazioni (7.16) e (7.20),
abbiamo per la variazione complessiva del flusso di fotoni
dΦ = (dΦ)ind + (dΦ)abs = (σ12 N2 − σ21 N1 ) Φ c dt = (σ12 N2 − σ21 N1 ) Φ dz,
(7.21)
nell’ultimo passaggio si è chiamato dz = c dt lo spazio percorso dai fotoni nell’intervallo di
tempo dt. Il flusso dei fotoni, passando dalla posizione z alla posizione z + dz, subisce quindi
una variazione
dΦ = α Φ(z) dz,
(7.22)
dove α = (σ12 N2 −σ21 N1 ) è il coefficiente di amplificazione del mezzo. Se α < 0, cioè se σ12 N2 <
σ21 N1 , il flusso viene smorzato esponenzialmente mentre attraversa il mezzo (legge di LambertBeer), questo è ciò che si realizza quando le popolazioni dei livelli energetici sono determinate
dall’equilibrio termico. Se invece α > 0, cioè σ12 N2 > σ21 N1 , il flusso viene amplificato mentre
attraversa il mezzo. Questo fenomeno è alla base dell’effetto maser (acronimo di Microwave
Amplification by Stimulated Emission of Radiation) quando la frequenza della transizione tra
|1i e |2i è nella regione delle microonde, e dell’effetto laser (acronimo di Light Amplification
by Stimulated Emission of Radiation) quando la frequenza della transizione tra |1i e |2i è
nella regione ottica (ma si parla anche di laser operanti nell’infrarosso o nell’ultravioletto). Ma
in realtà, sia il maser che il laser vengono usati non come amplificatori, ma come oscillatori.
Esattamente come nei circuiti elettronici, un amplificatore di radiazione viene trasformato in
oscillatore riinviandogli in ingresso parte della radiazione amplificata in uscita, come vedremo
tra poco. Perché il flusso di radiazione sia amplificato attraversando il mezzo materiale è
necessario che sia presente un meccanismo che alteri la distribuzione Boltzmanniana. Se le
condizioni sono tali per cui il coefficiente α, negativo o positivo che sia, è costante, la (7.22)
può essere integrata ottenendo
Φ(z) = Φ(0)eαz ,
che porta anche a I(z) = I(0)eαz
(7.23)
56
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
Le condizioni di equilibrio fra un sistema a due livelli e la radiazione elettromagnetica
studiate nella Sezione 7.1 richiedono che, se le degenerazioni g1 e g2 dei livelli |1i e |2i sono
uguali, siano uguali anche la sezione d’urto di assorbimento e la sezione d’urto di emissione
indotta
σ12 = σ21 = σ.
(7.24)
7.3
7.3.1
Equazioni di bilancio per l’effetto laser
Inversione di popolazione
La (7.22) ci dice che, perché l’effetto laser sia possibile, dobbiamo avere
α = (σ12 N2 − σ21 N1 ) > 0,
o, se vale la (7.24), semplicemente (N2 − N1 ) > 0,
(7.25)
il laser richiede quindi un’inversione di popolazione. Poiché la ripartizione di Boltzmann implica
che, se si ha equilibrio termodinamico con E2 > E1 , sia N2 < N1 , è necessaria la presenza di
un meccanismo che alteri l’equilibrio termodinamico aumentando la popolazione del livello |2i
rispetto a quella di |1i. Per questo è necessaria la presenza di un processo, detto di pompaggio,
che aumenti la popolazione del livello |2i (pompi atomi in |2i) a spese di altri livelli più popolati,
spesso a spese del livello a energia più bassa dell’atomo (livello fondamentale).
Naturalmente il processo di pompaggio richiede un
N2
|2i
apporto di energia dall’esterno. La figura 7.4 rappresenta lo schema generale di un sistema laser. Deve
Λ2
γ2 N2
σΦN1 σΦN2
esistere un meccanismo di pompaggio che porti ato|1i
mi nel livello |2i, e che, come effetto collaterale, può
N1
portare anche atomi nel livello |1i. Questo può essere
Λ1
γ1 N1
ottenuto per assorbimento di luce (pompaggio ottico), o per eccitazione da parte di una scarica elettrica,
o per altra via. Inoltre |1i e |2i saranno accoppiati
agli altri livelli dell’atomo da processi di rilassamento.
Figura 7.4: Accoppiamento dei livelli
I
due livelli implicati nella transizione laser saranno
laser con gli altri livelli dell’atomo.
popolati a spese di altri livelli dell’atomo tramite processi descritti dai termini di sorgente Λ1 e Λ2 , che dicono quanti atomi per unità di volume e
unità di tempo vengono portati, rispettivamente nei livelli |1i e |2i. Inoltre ci saranno dei processi di rilassamento, normalmente non radiativi, che spopolano i livelli |1i e |2i, con velocità
rispettivamente γ2 N2 e γ1 N1 , verso livelli non rappresentati in figura. Avremo quindi per N2
dN2
= Λ2 − γ2 N2 − σΦ(N2 − N1 ),
dt
(7.26)
e per N1
dN1
= Λ1 − γ1 N1 + σΦ(N2 − N1 ).
dt
Facendo, per semplicità, l’ipotesi che sia γ1 = γ2 = γ, otteniamo per ∆N = N2 − N1
d ∆N
= (Λ2 − Λ1 ) − 2σΦ∆N − γ∆N.
dt
(7.27)
(7.28)
7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER
57
Chiamando
Λ2 − Λ1
γ
la differenza di popolazione in assenza di effetto laser otteniamo
∆N0 =
(7.29)
d ∆N
= γ (∆N0 − ∆N ) − 2σΦ∆N,
(7.30)
dt
dove il primo termine del secondo membro è un termine di rilassamento che tende a riportare
la differenza di popolazione al suo valore di equilibrio in assenza di effetto laser ∆N0 , mentre il
secondo termine descrive l’accoppiamento tra il flusso dei fotoni e la differenza di popolazione.
Per descrivere con maggior dettaglio l’evoluzione del flusso dei fotoni, dobbiamo fare ipotesi
sulla configurazione sperimentale del nostro laser.
7.3.2
Equazioni di bilancio per i fotoni
Discutiamo qui le equazioni di bilancio del laser, dette anche, all’inglese, rate equations. Esistono varie configurazioni di laser, alle quali accenneremo in seguito. La configurazione che
discuteremo qui, schematizzata in fig. 7.5, consiste essenzialmente di un tubo che contiene il
mezzo attivo, situato tra due specchi che formano una cavità risonante per la radiazione. Dei
due specchi, uno è totalmente riflettente, mentre l’altro è solo parzialmente riflettente (la sua
riflettività, comunque, supera normalmente il 95%) per permettere la fuoriuscita di una piccola
parte della radiazione. Dei fotoni presenti nella cavità, ci aspettiamo che quelli coinvolti nel
processo laser siano quelli assiali perché, riflettendosi avanti e indietro sugli specchi, continuano ad attraversare e riattraversare la cavità, subendo ad ogni passaggio un’amplificazione
data dalla (7.23), finché non si giunge alla saturazione. Infatti l’amplificazione esponenziale del
fascio di radiazione, descritta dalla (7.23), non può ovviamente continuare all’infinito, ma si
raggiungono le condizioni in cui il mezzo si comporta da oscillatore anziché da amplificatore.
Come al solito, la transizione laser
avviene tra i due livelli |1i e |2i, con energie
Specchio
Specchio semitrasparente
E1 ed E2 tali che E1 < E2 , e popolazioni
per unità di volume N1 e N2 . Chiamiamo
Mezzo laser−attivo
n il numero per unità di volume dei fotoni
con energia hν = E2 − E1 presenti nella
cavità. Il numero dei fotoni n aumenterà
per ogni processo di emissione indotta, la
Figura 7.5: Tipica configurazione di un laser.
cui frequenza è proporzionale sia a n che a
N2 , e diminuirà per ogni assorbimento, la cui frequenza è proporzionale sia a n che a N1 . Inoltre,
indipendentemente da questi processi, ogni fotone non resterà indefinitamente nella cavità, ma
avrà un tempo medio di permanenza τs dovuto sia alla probabilità di attraversare lo specchio
parzialmente riflettente che a quella di perdersi per processi di diffusione o di assorbimento.
L’equazione di bilancio per il numero di fotoni si scrive cosı̀
dn
n
= W (N2 − N1 ) n − ,
dt
τs
(7.31)
dove il contributo dell’emissione spontanea è stato trascurato per quanto detto prima. La
probabilità W può essere ricavata dalla trattazione di Einstein del paragrafo 7.1. Dalla (7.12)
58
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
abbiamo infatti
c3
c3
,
(7.32)
A
=
12
8πhν 3
8πhν 3 τ
dove τ = 1/A12 è la vita media del livello |2i. Sostituendo, per esempio, nella (7.3), abbiamo
c3
c3
dN12
W nN2 =
A
u(ν)
N
=
u(ν) N2 .
(7.33)
= B12 u(ν) N2 =
12
2
dt ind
8πhν 3
8πhν 3 τ
B21 =
Se sostituiamo u(ν) con la sua espressione (7.18) nella (7.33) e dividiamo a destra e sinistra per
il prodotto nN2 otteniamo
c3
hν
c3
=
.
(7.34)
W =
8πhν 3 τ ∆ν
8πν 2 τ ∆ν
Se vogliamo che il numero di fotoni nella cavità non diminuisca deve essere
dn
n
c3
n
= W (N2 − N1 ) n − =
(N2 − N1 ) n − ≥ 0,
2
dt
τs
8πν τ ∆ν
τs
(7.35)
da cui otteniamo la minima inversione di popolazione necessaria perché il laser possa operare
N2 − N1 ≥ ∆Nmin
8πν 2 τ ∆ν
.
=
c 3 τs
(7.36)
Per avere l’effetto laser dovremo quindi avere una inversione di popolazione tra i livelli |1i e
|2i, cioè, contrariamente a quanto accade all’equilibrio termodinamico, dovrà essere N2 > N1 .
Inoltre la differenza di popolazione ∆N = N2 − N1 dovrà essere superiore ad un certo valore
di soglia ∆Nmin , fissato dalla (7.36). Un’occhiata alla (7.36) ci dice che l’effetto laser è tanto
più difficile da raggiungere quanto più è grande la frequenza ν. Gli atomi laser-attivi saranno
tanto più efficaci quanto più è piccola la larghezza di riga ∆ν. Inoltre dovrà essere il più lungo
possibile il tempo di soggiorno dei fotoni nella cavità τs . Se la causa principale dell’uscita dei
fotoni dalla cavità è l’attraversamento degli specchi, gli specchi dovranno avere la riflettività R
più grande possibile. La probabilità 1/τs che il fotone esca nell’unità di tempo è proporzionale
al numero di riflessioni che il fotone subisce in un secondo. Avremo quindi
1
c
= (1 − R),
τs
L
(7.37)
dove L è la distanza tra i due specchi, c la velocità della luce e R la riflettività degli specchi.
7.3.3
Equazioni di bilancio per le densità di popolazione dei livelli
Per descrivere completamente la dinamica dell’emissione laser abbiamo bisogno anche, oltre che
della (7.31), di equazioni analoghe per le popolazioni dei livelli |1i e |2i. E’ da notare che non
esistono meccanismi per mantenere un’inversione di popolazione costante tra |1i e |2i che non
coinvolgano almeno un altro livello del mezzo laser-attivo. Questo non esclude la possibilità di
laser a due livelli, per esempio i laser chimici in cui le molecole laser-attive vengono prodotte
direttamente nello stato eccitato. Esistono due schemi possibili di laser a tre livelli, di cui uno
è rappresentato nella figura 7.6. Qui è presente un meccanismo di pompa che trasferisce gli
atomi dal livello fondamentale |0i al livello superiore della transizione laser |2i. Esistono poi
59
7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER
meccanismi di rilassamento, normalmente non radiativi, che ridistribuiscono gli atomi tra i vari
livelli. Qui escluderemo sia processi di rilassamento che portino atomi da livelli più bassi a
livelli più alti, e che riportino atomi dal livello |2i direttamente al livello |0i. Per il bilancio
della popolazione del livello |2i avremo
dN2
=
dt
−W n (N2 − N1 ) + p20 N0 − γ12 N2
| {z }
| {z }
{z
}
|
interazione radiazione laser
pompaggio
dove il primo termine descrive la variazione di N2
dovuta all’interazione con la radiazione coerente del
laser, il secondo l’aumento di N2 a spese della popolazione N0 del livello fondamentale tramite il meccanismo di pompaggio, ed il terzo il decadimento di N2
dovuto ai processi di rilassamento.
Per il livello |1i avremo, in modo analogo,
W n(N2 − N1 ) +
|
{z
}
interaz. radiazione laser
e per |0i
dN0
= − p20 N0
| {z }
dt
pompaggio
−
γ N
,
γ N
| 01{z }1
| 12{z }2
rilass. da |2i
rilass. verso |0i
(7.39)
+
γ N
.
| 01{z }1
rilass. da |1i
pompa
dN1
=
dt
p20
(7.38)
rilassamento
|2i
radiazione laser W
rilassamento γ 12
|1i
rilassamento γ 01
|0i
Figura 7.6: Primo schema di laser a tre
livelli.
(7.40)
Per semplificare le cose, faremo ancora le ipotesi che: i) la transizione di rilassamento da |1i a
|0i sia molto rapida, in modo che N1 sia praticamente nulla; ii) il pompaggio, il rilassamento
e l’emissione laser avvengano in condizioni tali che resti sempre comunque N0 ≫ N2 , in modo
che N0 sia praticamente costante. In queste condizioni la (7.38) può essere riscritta
dN2
= −W nN2 + p20 N0 − γ12 N2 = −W nN2 + γ12 (N2eq − N2 ) ,
dt
(7.41)
p02
N0 è il valore di equilibrio di N2 , in presenza dei soli processi di pompaggio e
γ12
rilassamento, ma in assenza della radiazione laser. Nelle condizioni descritte sopra l’equazione
di bilancio per i fotoni diventa
n
dn
= W N2 n − .
(7.42)
dt
τs
Se il laser opera in condizioni stazionarie (laser continuo) avremo
dove N2eq =
dN2
= 0,
dt
dn
= 0,
dt
(7.43)
in queste condizioni dalla (7.42) otteniamo
N2 =
1
= N2cr ,
W τs
(7.44)
60
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
esiste cioè una popolazione critica N2cr , indipendente da p20 , che non aumenta più anche se
viene aumentata l’intensità di pompaggio. L’energia fornita in più per il pompaggio va quindi
prevalentemente ad aumentare la densità dei fotoni, come si vede risolvendo la (7.41) per n
γ12
n=
W
N2eq
−1 .
N2cr
(7.45)
Un aumento della velocità di pompaggio p20 con cui gli atomi vengono trasferiti da |0i a |2i
aumenta la popolazione di equilibrio in assenza di effetto laser N2eq del livello |2i, ma non N2cr .
Corrispondentemente, aumenta la densità dei fotoni presenti nella cavità n attraverso la (7.45).
Dato che n non può essere negativo, l’emissione laser inizia solo quando N2eq raggiunge il valore
di soglia N2cr .
7.3.4
Altri possibili schemi di pompaggio
Oltre allo schema di pompaggio rappresentato in Fig.
7.6 per un laser a tre livelli è possibile anche lo schema
emissione spontanea A12 , A02
rappresentato in Fig. 7.7 in cui l’inversione di poporilassamento γ 12
p20
lazione viene realizzata tra i livelli |1i e |0i. Se la transizione tra livelli |0i e |1i è nella regione spettrale delle
|1i
microonde, l’emissione spontanea da |1i a |0i può esradiazione laser W
sere un processo non permesso per dipolo, quindi con
|0i
probabilità sufficientemente bassa per essere trascurata. Inviando sul mezzo radiazione in risonanza con la
Figura 7.7: Secondo schema di laser a
transizione |2i ↔ |0i gli atomi vengono pompati dal
tre livelli.
livello |0i al livello |2i. Di qui possono decadere, per
rilassamento o per emissione spontanea, verso i due livelli sottostanti. Mentre gli atomi che
decadono nel livello |1i vi restano intrappolati, quelli che decadono in |0i possono nuovamente
essere pompati in |2i. La soluzione stazionaria in presenza di radiazione di pompaggio è quindi
quella con tutti gli atomi in |1i, con inversione di popolazione per la coppia di livelli |1i e |0i.
Ovviamente, nel caso reale tale inversione è limitata dalla presenza di altri processi di rilassamento, per deboli che siano. In questo caso il pompaggio ottico può essere realizzato anche con
una radiazione di pompa molto debole, come una lampada spettrale.
In Fig. 7.8 è invece rappresentato lo schema di un
|3i
laser a quattro livelli. Gli atomi vengono trasferiti per
γ 23
pompaggio dal livello fondamentale |0i al livello ecc|2i
itato |3i. Di qui decadono per processi non radiativi
p20
radiazione laser W
con velocità γ23 al livello superiore della transizione
laser |2i. Il livello inferiore della transizione laser |1i
|1i
è svuotato a sua volta da processi non radiativi con
velocità γ01 . La differenza di energia tra i livelli |1i e
γ 01
|0i è molto maggiore di kT , cosı̀ che i livelli |1i, |2i e
|3i
sono praticamente spopolati all’equilibrio termod|0i
inamico. Lo schema laser a quattro livelli è quello più
Figura 7.8: Schema di laser a quattro frequente nei laser molecolari a pompaggio ottico. In
pompa
pompa
|2i
livelli.
61
7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER
questo caso il pompaggio avviene normalmente per assorbimento di radiazione emessa da un altro laser, detto laser di pompa, a sua volta eccitato
da una scarica elettrica.
I laser eccitati da una scarica elettrica hanno il vantaggio di non richiedere l’uso di un laser
di pompa per l’eccitazione. Normalmente la scarica avviene in una miscela di gas. Gli elettroni
della scarica eccitano gli atomi di uno dei gas in uno o più stati eccitati, da qui l’energia viene
trasferita per collisioni agli atomi del gas laser-attivo, che si trovano cosı̀ nello stato superiore
della transizione laser. Spesso è presente un terzo gas, che, per processi collisionali, sottrae
l’energia agli atomi del gas laser-attivo che si trovano nello stato inferiore della transizione
laser.
La figura 7.9 rappresenta lo schema dei processi di eccitazione e ricombinazione in un laser
a elio-neon. Gli atomi di He vengono eccitati negli stati 1 S e 3 S dagli urti con gli elettroni
della scarica. Le energie di eccitazione di questi stati sono in corrispondenza delle energie degli
stati 2s e 3s del Ne, per cui l’energia può facilmente essere trasferita dall’He al Ne per collisioni
atomiche. Da qui gli atomi di Ne possono decadere agli stati 3p e 2p con transizioni che possono
essere laser-attive. Dagli stati inferiori delle transizioni laser gli atomi possono decadere allo
stato 1s mediante emissione di un ulteriore fotone.
Elio
Neon
3s
Urti
3.39 µm
2s
3p
0.63 µm
1.15 µm
Energoa
Finalmente l’atomo di Ne perde l’energia dello stato
1s sotto forma di energia cinetica per collisioni con
altri atomi, tornando allo stato fondamentale. Ovviamente, lo schema dei livelli energetici dell’elio e del
neon rappresentati in Fig. 7.9 è molto semplificato.
Si noti anche che le energie dei livelli fondamentali
sono state scelte come energie di riferimento. La riga
più nota del laser a HeNe è la riga rossa a circa 633
nm, sulla quale il laser emette normalmente potenze
comprese tra 1 e 100 mW.
2p
1s
Eccitazione
Elettronica
Ricombinazione
per urti
Stato fondamentale
Uno dei laser eccitati a scarica elettrica più usati è Figura 7.9: Schema di laser a elio-neon.
il laser a CO2 . E’ anche uno di laser più efficienti: la
potenza in uscita può infatti raggiungere il 20% della
potenza di pompaggio.
Anche in questo caso la scarica di eccitazione avviene in una miscela di gas: circa il 10 −
20 % di CO2 , circa il 10 − 20 % di N2 , ed il resto He. Gli urti con gli elettroni eccitano un
modo vibrazionale dell’azoto. Essendo l’azoto una molecola biatomica omonucleare, non può
perdere questa energia per emissione di un fotone, cosı̀ che i suoi stati vibrazionali eccitati sono
metastabili. L’energia può però essere trasferita per collisioni a molecole di CO2 , con efficienza
sufficiente a raggiungere l’inversione di popolazione necessaria per l’operazione del laser. Lo
stato inferiore della transizione laser viene poi vuotato per trasferimento collisionale di energia
agli atomi di elio.
Il laser a CO2 emette nell’infrarosso, con due bande centrate rispettivamente attorno a 9.4
e 10.6 µm.
62
7.4
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
Laser a semiconduttore
La differenza principale tra un laser che usi atomi o molecole come mezzo attivo ed un laser
a semiconduttori è dovuta al fatto che in un semiconduttore i livelli energetici hanno una
distribuzione a bande anziché discreta.
La transizione laser non avviene quindi tra due
banda di conduzione C
livelli energetici ben definiti, ma tra stati che appartengono a due bande. Lo schema dei livelli enEF
∆Eg
ergetici di un semiconduttori è mostrato in Fig.
7.10. La banda di conduzione è separata dalla banda di valenza da un gap energetico (banda di enbanda di valenza V
ergie proibite) di ampiezza ∆Eg . Ogni banda è cosFigura 7.10: Banda di conduzione C, banda tituita da un grandissimo numero di livelli energetidi valenza V ed energia di Fermi EF in un ci molto vicini l’uno all’altro, che formano cosı̀ un
semiconduttore.
quasi-continuo. In base al principio di esclusione di
Pauli in ognuno di questi livelli possono trovarsi al massimo due elettroni con spin opposto. Il
numero medio di occupazione di un livello di energia Er è dato dalla statistica di Fermi-Dirac
hnr i =
1
,
e(Er −EF )/kT + 1
dove EF è l’energia di Fermi. Al limite T → 0 otteniamo
1 se Er < EF
hnr i =
0 se Er > EF
(7.46)
(7.47)
Per semiconduttori intrinseci (non drogati) l’energia di Fermi EF si trova all’interno del gap
di energia, cosı̀ che per T = 0 la banda di valenza è completamente occupata e la banda di
conduzione è completamente vuota.
Per avere effetto laser abC
C
banda
di
conduzione
banda
di
conduzione
biamo bisogno di una inEC
versione di popolazione,
∆Eg
∆Eg
cioè dobbiamo avere contemporaneamente elettroni
E
V
V
V
banda di valenza
banda di valenza
nella banda di conduzione
e buche nella banda di
a) drogaggio di tipo n
b) drogaggio di tipo p
valenza. Questo, ovviaFigura 7.11: Semiconduttori con drogaggio di tipo n (a) e tipo p (b). mente, non può avvenire
in una situazione di equilibrio termico. Consideriamo adesso i semiconduttori estrinseci, cioè semiconduttori cui sono
state aggiunte impurezze nel reticolo cristallino. In altre parole, si dice che sono stati “drogati”.
In un drogaggio di tipo n vengono aggiunti al cristallo atomi detti donori che, avendo più
elettroni di valenza degli atomi del reticolo, mettono in circolazione un eccesso di elettroni
debolmente legati. Questi elettroni, essendo tutti gli stati della banda di valenza occupati,
vanno a finire nella banda di conduzione, e si ha un “quasi-livello di Fermi” EC come in Fig.
7.11.a). In questo caso, abbiamo elettroni nella banda di conduzione, ma tutti gli stati della
banda di valenza sono occupati.
63
7.4. LASER A SEMICONDUTTORE
In un drogaggio di tipo p vengono invece aggiunti atomi detti accettori che, avendo orbitali
esterni liberi, prelevano elettroni dal cristallo, vuotando cosı̀ gli stati più alti della banda di
valenza (buche). Si ha cosı̀ un “quasi-livello di Fermi” EV come nella figura 7.11.b).
In questo caso abbiamo stati liberi nella banda di valenza,
ma tutti gli stati della banda di conduzione sono vuoti.
EC banda di conduzione C
Per arrivare all’effetto laser dobbiamo ottenere contem∆Eg
hν
poraneamente elettroni negli stati più bassi della banda di
conduzione e buche negli stati più alti della banda di valenEV
banda di valenza V
za, come indicato nella figura 7.12. In queste condizioni
potrebbero essere emessi fotoni con frequenze comprese
Figura 7.12: Inversione di poponell’intervallo
lazione e transizione laser in un laser
∆Eg
EC − EV
<ν<
.
(7.48) a semiconduttore.
h
h
Fotoni con frequenze in questo intervallo sarebbero amplificati per emissione indotta, mentre
fotoni di frequenza ν > (EC −EV ) sarebbero assorbiti, portando elettroni dalla banda di valenza
a stati liberi della banda di conduzione. L’inversione di popolazione in un laser a semiconduttore
può essere ottenuta in tre modi:
1. Per eccitazione via pompaggio ottico.
2. Per eccitazione mediante urti con elettroni ad alta energia.
3. Per iniezione di portatori di carica attraverso una giunzione.
Essendo il caso di gran lunga più interessante per le applicazioni pratiche, qui discuteremo
soltanto il caso dell’iniezione. Questo tipo di laser a semiconduttore viene realizzato mettendo
in sequenza due strati di semiconduttore estrinseci, uno con drogaggio di tipo p ed uno con
drogaggio di tipo n, come in Fig. 7.13.a), esattamente come in un diodo a semiconduttore (qui
si parla di laser a diodo). Se ai capi del diodo non viene applicata tensione, la situazione delle
bande energetiche è quella schematizzata in Fig. 7.13.b).
p
−
+
V
p
n
En
n
Emissione laser
En
E
p n
Ep
∆Eg
Ep
∆Eg
Zona attiva
a) Giunzione pn
b) Senza tensione applicata
c) Con tensione applicata
Figura 7.13: Diodo laser.
Mentre le bande energetiche della zona p e della zona n sono spostate le une rispetto alle
altre, il livello di Fermi ha un valore costante in tutta la zona transizione pn, corrispondente
all’equilibrio termico. A causa del drogaggio il livello di Fermi si trova all’interno della banda
di valenza nella zona p, e all’interno della banda di conduzione nella zona n. Se adesso viene
introdotta tra lo strato p e lo strato n una differenza di potenziale V corrispondente al gap
64
CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I
di energia, cioè V = ∆Eg /e, nella direzione di conduzione, come in Fig. 7.13.c), le bande
energetiche della zona n si innalzano rispetto a quelle della zona p (gli elettroni hanno carica
negativa !). Come mostrato in Fig. 7.13.c), l’energia di Fermi En dello strato n viene innalzata
di una quantità V e rispetto all’energia di Fermi Ep dello strato p.
Esiste cosı̀ una sottile zona attiva in cui si trovano
sia elettroni in banda di conduzione che buche in
p
i
n
banda di valenza, nella quale, cioè, si ha un’in+
−
versione di popolazione, ed in cui è possibile l’ef+
−
−
+
fetto laser. Il generatore esterno alimenta sia un
−
+
+
flusso di elettroni dallo strato n che un flusso di
−
+
buche dallo strato p sempre verso la giunzione np,
hν
che man mano rimpiazzano le coppie elettrone-buca
ricombinate in seguito all’emissione di un fotone.
H. Kroemer e Ž. I. Alfërov hanno proposto inFigura 7.14: Laser a doppia giunzione pin.
dipendentemente un importante miglioramento del
laser a semiconduttore. Anziché due, vengono usati tre strati successivi di semiconduttori diversi (Figg. 7.14 e 7.15): uno strato di semiconduttore estrinseco drogato p, uno strato di
semiconduttore intrinseco (non drogato) ed infine un uno strato di semiconduttore estrinseco
drogato n, avendo cosı̀ due eterogiunzioni. Gli strati p ed n hanno la stessa ampiezza del gap
di energia proibita, mentre l’ampiezza del gap di energia proibita dello strato intrinseco i è
minore: ∆Ep = ∆En > ∆Ei . Questo ha come conseguenza sia il confinamento dell’inversione
di popolazione in una zona più ampia che nel laser a singola giunzione, che un ulteriore vantaggio dovuto al fatto che l’indice di rifrazione dello strato i, in cui avviene il processo laser,
è maggiore che in p ed in n. Per l’emissione laser si ha cosı̀ un effetto guida d’onda. Quando
viene applicata la differenza di potenziale alle estremità del “sandwich”, le buche dello strato
p e gli elettroni dello strato n possono penetrare nello strato i, dove si forma l’inversione di
popolazione ed avvengono i fenomeni di ricombinazione con emissione di fotoni.
C
Zona attiva
EC
∆Ep EF
∆Ei
∆Ep
∆En
∆Ei
Emissione laser
E
Ep
EV
V
En
p
i
n
a) Semiconduttori sconnessi
p
i
∆En
n
b) Connessi senza tensione
applicata
p
i
n
c) Connessi con tensione applicata
Figura 7.15: Laser a doppia giunzione pin: a) Semiconduttori sconnessi, posizione delle energie
di Fermi nei tre strati. b) Semiconduttori connessi senza tensione applicata: in ogni strato i livelli
energetici si spostano in modo che le energie di Fermi siano allineate. c) La tensione esterna applicata
sposta i livelli, rendendo possibile il passaggio degli elettroni in banda di conduzione dalla zona n alla
zona i, e delle buche in banda di valenza dalla zona palla zona i. Nella zona i elettroni e buche si
ricombinano, dando luogo all’emissione laser.
Capitolo 8
Fluttuazioni della radiazione e
interferenza
8.1
Instaurazione del regime oscillatorio
Per la statistica dei fotoni, i modi di oscillazione di una cavità laser si comportano come stati
di particella singola. Consideriamo, per esempio, una cavità laser limitata da due specchi piani
e paralleli a distanza L tra loro, come schematizzato in figura 8.1.
Ogni modo della cavità corrisponde ad un’onSpecchi
da stazionaria tra i due specchi. Perché l’onda
sia stazionaria deve essere
L
λr
L=r ,
2
2L
da cui λr =
,
r
(8.1)
con r numero intero. Le frequenze possibili per
i modi della cavità sono quindi
λ
c
c
νr =
=r ,
λr
2L
(8.2)
Figura 8.1: Onda stazionaria in una cavità
laser.
e ad ogni modo corrispondono fotoni di energia
Er = hνr . Finché il laser non raggiunge la soglia
di oscillazione, i fotoni si comportano come se fossero all’equilibrio termico ad una temperatura
efficace Teff . Trattandosi di bosoni, ogni modo |ri avrà un numero medio di occupazione dato
dalla (5.58), con il potenziale chimico µ posto uguale a zero
hnr i =
1
eEr /kTeff
−1
.
(8.3)
E’ da notare che la temperatura Teff tende all’infinito man mano che ci si avvicina all’inversione
di popolazione. Infatti la temperatura efficace Teff per i due livelli interessati alla transizione
laser si ottiene risolvendo per T la relazione di Boltzmann N2 /N1 = e−(E2 −E1 )/kT
Teff =
E2 − E1
.
k log(N1 /N2 )
65
(8.4)
66
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
Cosı̀ Teff diverge per N2 → N1 , per poi diventare negativa una volta che si è raggiunta l’inversione di popolazione e N2 > N1 (per un laser, si passa da temperature positive a temperature
negative non passando attraverso 0 K, ma passando attraverso l’infinito!). I numeri di occupazione dei modi del laser tenderanno quindi a divergere con Teff . Per le fluttuazioni relative
dei numeri di occupazione stessi man mano che ci si avvicina all’inversione di popolazione
otteniamo dalla (6.18)
1
h(∆nr )2 i
h(∆nr )2 i
= lim
= lim
lim
+ 1 = 1,
(8.5)
2
N2 →N1
hnr i2
hnr i→∞ hnr i
hnr i→∞ hnr i
da cui il numero di fotoni nel modo r ha fluttuazioni dell’ordine del 100% attorno al valor medio
hnr i. Ponendo ε = +1 e µ = 0 nella (5.58) otteniamo il numero medio di fotoni in uno stato
(modo) di energia Er
hnr i =
1
eβEr
−1
,
da cui abbiamo eβEr = 1 +
1
,
hnr i
e e−βEr =
hnr i
,
hnr i + 1
che, inserita nella (5.51) ci dà per la probabilità di avere n fotoni in un modo con numero medio
di occupazione hnr i
hnr in
.
(8.6)
Wr (n) = e−nβEr 1 − e−βEr =
(hnr i + 1)n+1
Appena raggiunta la soglia di oscillazione del laser, il comportamento statistico dei fotoni
cambia in modo discontinuo. La probabilità di avere n fotoni nel modo |ri quando il numero
medio di occupazione è hnr i è data adesso dalla distribuzione di Poisson
hnr in −hnr i
e
,
Wr (n) =
n!
cui corrispondono delle fluttuazioni relative
s
1
h∆n2 i
=p ,
2
hn i
hni
(8.7)
(8.8)
uguali a quelle di un oscillatore classico stabilizzato in ampiezza.
8.2
Formalismo dei campi complessi
I fenomeni di interferenza vengono trattati più facilmente in termini di campi complessi associati
alle onde elettromagnetiche. Partendo dal campo elettrico reale E(t) di un’onda elettromagnetica si definisce il campo complesso A(t) nel modo seguente
Z ∞
A(t) =
Ẽ(ν) e+2πiνt dν
(8.9)
0
dove Ẽ(ν) è la trasformata di Fourier del campo elettrico dell’onda
Z +∞
E(t) e−i2πνt dt = Ẽ ∗ (−ν).
Ẽ(ν) =
−∞
(8.10)
67
8.2. FORMALISMO DEI CAMPI COMPLESSI
A(t) contiene cosı̀ solo le frequenze positive del campo elettrico E(t), e si ha
E(t) = 2 ℜ{A(t)}.
(8.11)
dove ℜ{z} indica la parte reale di z. Prendiamo, come esempio, un’onda monocromatica
che si propaga lungo l’asse z e polarizzata linearmente lungo l’asse x, con campo elettrico
Ex (t) = E(t) = E0 cos(2πν0 t + ϕ). Qui ϕ comprende anche la dipendenza dalla posizione:
avremo ϕ = ϕ0 − 2πz/λ. Ricordando la relazione
Z +∞
e−2πiνt dt = δ(ν),
−∞
dove δ(ν) è la delta di Dirac, abbiamo per la trasformata di Fourier dell’onda
Z +∞
Ẽ(ν) =
E0 cos(2πν0 t + ϕ) e−2πiνt dt
−∞
E0
=
2
=
Z
+∞
e
−∞
−2πi(ν−ν0 )t+iϕ
dt +
Z
+∞
e
−∞
E0 iϕ
e δ(ν − ν0 ) + e−iϕ δ(ν + ν0 ) .
2
−2πi(ν+ν0 )t−iϕ
dt
(8.12)
Inserendo la (8.12) nell’espressione (8.9) per A(t) abbiamo
Z
E0 ∞ iϕ
E0 +2πiν0 t+iϕ
A(t) =
e
= A0 e+2πiν0 t+iϕ .
e δ(ν − ν0 ) − e−iϕ δ(ν + ν0 ) e2πiνt dν =
2 0
2
(8.13)
Adesso riprendiamo il caso di un’onda con dipendenza generica dal tempo E(t). Classicamente, l’intensità di un’onda elettromagnetica, in W/m2 , è data dal vettore di Poynting
~
~
P~ (t) = E(t)
× H(t).
Ricordando che
r per un’onda piana polarizzata lungo l’asse x valgono le
1
ε0
relazioni By (t) = Ex (t) e Hy (t) =
Ex (t), abbiamo
c
µ0
r
ε0 2
~
E (t) ẑ
(8.14)
P (t) =
µ0
dove ẑ è il versore di propagazione dell’onda. A partire dai campi complessi A(t) possiamo
definire l’intensità istantanea reale dell’onda
r
r
ε0 ∗
ε0 ∗
I(t) = P (t) = 2
A (t) A(t) = 2
A (t) A(t),
(8.15)
µ0
µ0
dove la barra indica la media temporale sul periodo di un’onda, e nell’ultimo passaggio si è
tenuto conto del fatto che la dipendenza temporale scompare nel prodotto A∗ (t)A(t). Se in
un punto si sovrappongono due onde di intensità complesse rispettivamente A1 (t) ed A2 (t),
il campo complessivo vale A1+2 (t) = A1 (t) + A2 (t), mentre per l’intensità complessiva I1+2
abbiamo
r
r
ε0 ∗
ε0
∗
I1+2 = 2
(8.16)
[A1 (t) + A2 (t)] [A1 (t) + A2 (t)] = I1 + I2 + 4
ℜ{A∗1 (t)A2 (t)},
µ0
µ0
68
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
dove la barra indica la media temporale sulla durata della misura, in generale molto lunga
rispetto al periodo di oscillazione delle onde. Nel caso di un’interferenza alla Michelson, dove
una stessa onda viene prima separata in due da uno specchio semiriflettente, poi le due onde
risultanti vengono ricombinate dopo che una, per esempio A2 (t), ha subito un ritardo τ rispetto
ad A1 (t), dovuto ad una differenza di cammino ottico ∆l = cτ , possiamo porre
r
ε0
G11 (τ ) =
ℜ{A∗1 (t)A1 (t + τ )},
(8.17)
µ0
dove G11 (τ ) è la funzione di autocorrelazione di A1 (t). Più in generale, si può definire la
funzione di correlazione di due onde A1 (t) e A2 (t) nel modo seguente
r
r
Z +T
1
ε0
ε0 ∗
∗
A1 (t) A2 (t + τ ) dt =
lim
G12 (τ ) =
A (t) A2 (t + τ ),
(8.18)
µ0 T →∞ 2T −T
µ0 1
Le intensità medie Ik , con k = 1, 2, sono determinate dalle funzioni di autocorrelazione Gkk (τ )
dei singoli fasci
r
Z +T
ε0
1
(8.19)
A∗ (t) Ak (t + τ ) dt.
lim
Ik = Gkk (0), con Gkk (τ ) =
µ0 T →∞ 2T −T k
Il teorema di Wiener-Khinchin lega le funzioni di autocorrelazione Gkk (τ ) alle trasformate di
Fourier degli spettri di intensità dei singoli fasci
Z +∞
Z +∞
−2πiντ
Ik (ν) e+2πiντ dν.
(8.20)
Gkk e
dτ,
Gkk (τ ) =
Ik (ν) =
−∞
−∞
In ottica le funzioni di correlazione normalizzate sono dette funzioni di coerenza, per esempio
γ12 (τ ) = √
1
G12 (τ ),
I1 I2
con γ12 (0) = 1.
(8.21)
La (8.16) può cosı̀ essere riscritta
I1+2 = I1 + I2 + 2
p
I1 I2 γ12 (τ )
(8.22)
Per due fasci quasi monocromatici di pari intensità e di lunghezza d’onda centrata attorno al
valore λm = c/νm e differenza di fase media ∆ϕm si può porre nella (8.18)
A1 (t) = Aei(2πνm t+ϕ0 −2πz/λm ) ,
da cui
ℜ{A∗1 (t) A2 (t
e A2 (t + τ ) = Aei(2πνm (t+τ )+ϕ0 +∆ϕm −2π(z−∆l)/λm ) ,
∆l
,
+ τ )} = A cos ∆ϕm + 2π
λm
2
possiamo riscrivere la (8.22) nella forma
I1+2 = I1 + I2 + 2
p
∆l
I1 I2 |γ| cos ∆ϕm + 2π
λm
,
e le misure all’interfereometro di Michelson permettono di determinare ∆ϕm , λm e |γ|.
(8.23)
69
8.3. INTERFERENZA
8.3
Interferenza
Supponiamo di ricevere fotoni prodotti da un numero N molto grande di sorgenti monocromatiche, tutte della stessa intensità e frequenza, ma completamente scorrelate tra loro in fase.
Se interpretiamo la radiazione elettromagnetica secondo l’elettrodinamica classica, possiamo
chiamare A eiϕj il campo incidente sul rivelatore proveniente dalla sorgente j-esima, cosı̀ che
sul rivelatore il campo complessivo prodotto dalle N sorgenti sarà
A=
N
X
j=1
A eiϕj .
(8.24)
L’intensità totale ricevuta sarà
|A|2 =
N
X
j=1
A eiϕj
N
X
l=1
"
A e−iϕl = A2 N +
X
j6=l
#
"
ei(ϕj −ϕl ) = A2 N + 2
X
l<j
#
cos(ϕj − ϕl ) . (8.25)
D’altra parte, anche il numero n di fotoni che incide per unità di tempo sul rivelatore sarà
proporzionale ad |A|2 :
n = a|A|2 ,
(8.26)
dove a è una costante di proporzionalità dipendente, tra le altre cose, dalla frequenza ν della radiazione. Facendo una media sulle fasi relative, che supponiamo totalmente scorrelate,
otteniamo
hni = a h|A|2 i = a N A2 .
(8.27)
Se adesso calcoliamo la deviazione quadratica media relativa otteniamo
2
hn2 i − hni2
h|A|4 i − [h|A|2 i]
h(∆n)2 i
=
=
,
2
hni2
hni2
[h|A|2 i]
per il valor medio di |A|4 abbiamo
*"
h|A|4 i = A4
N +2

X
l<j
cos(ϕj − ϕl )
#2 +
(8.28)


*
+
*
+


X
X


cos2 (ϕj − ϕl ) 
= A4 N 2 + 4N
cos(ϕj − ϕl ) +4


l<j
l<j

{z
}
{z
}
|
|
=0
= A
4
1
1
N + 4 N (N − 1) ≈ 2N 2 A4 .
2
2
2
= 12 N (N −1)· 21
(8.29)
Sostituendo nella (8.28) abbiamo
2N 2 A4 − N 2 A4
h(∆n)2 i
= 1.
=
N 2 A4
hni2
(8.30)
70
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
Einstein, paragonando questo risultato con l’espressione per le fluttuazioni quadratiche medie
relative dei fotoni
h(∆n)2 i
1
+1
(8.31)
=
2
hnr i
hni
ha suggerito che quest’ultima espressione possa essere interpretata come la somma di un termine
Boltzmanniano 1/hnr i e del termine 1 dovuto al comportamento ondulatorio dei bosoni.
8.4
Interferometro di Michelson e coerenza temporale
Sorgente
Consideriamo un interferometro di Michelson, rappresentato nella fig. 8.2. Un fascio di luce
proveniente da una sorgente S incide su di uno specchio semiriflettente, detto beam splitter,
dove viene separato in una parte trasmessa che continua il cammino fino a incidere su di uno
specchio 1, ed una parte riflessa a 90◦ che incide su di uno specchio 2. Ognuno dei due fasci
viene riflesso su sé stesso dallo specchio rispettivo. Il fascio riflesso dallo specchio 1, incidendo
nuovamente sul beam splitter, viene in parte trasmesso verso la sorgente ed in parte riflesso
verso il rivelatore. Analogamente, il fascio riflesso dallo specchio 2 viene in parte riflesso verso
la sorgente, ed in parte trasmesso verso il rivelatore.
Traslando uno degli specchi (M1 nella figura) si
Specchio
M2
cambia la differenza di cammino ottico ∆l tra i
due fasci che giungono sul rivelatore. Si osserva cosı̀ che si vedono frange di interferenza tra i
due fasci solo se ∆l è minore di un certo valore
critico ∆lc = c τc , dove c è la velocità della luce
Beam splitter
Specchio
e τc è detto tempo di coerenza dei fotoni emesBS
S
si
dalla sorgente. Una misura del ∆l massimo a
M1
cui si osserva ancora interferenza permette di determinare τc . Come modello classico, possiamo
pensare i fotoni emessi dalla sorgente come treni
d’onda di frequenza angolare ω e durate temporale τc . Ad ogni passaggio dal beam splitter ogni
treno d’onda di divide in due treni d’onda della
Rivelatore
stessa forma di quello incidente, ma con intensità ridotta. Sul rivelatore giungono due treni
Figura 8.2: Interferometro di Michelson.
d’onda sovrapposti, dopo che tra loro è stato introdotto un ritardo temporale causato dalla differenza di cammino ottico ∆l. C’è interferenza
solo se il ritardo temporale è inferiore alla durata τc di ciascun treno.
τc
Supponiamo di avere un treno d’onda con ampiezza complessa A = A0 e2πiν0 t per − <
2
τc
τc
τc
t < , e ampiezza nulla se t < − oppure t > . Applicando al nostro treno d’onda la
2
2
2
trasformata di Fourier, il fatto che il treno sia temporalmente limitato ci fa ottenere, anziché
una δ di Dirac Ã(ν) = δ(ν0 − ν),
Ã(ν) =
Z
+τc /2
A0 e
−τc /2
2πi(ν0 −ν) t
dt = A0
e2πi(ν0 −ν) t
2πi(ν0 − ν)
+τc /2
−τc /2
8.5. INTERFEROMETRO DI YOUNG E COERENZA SPAZIALE
A0
A0
e2πi(ν0 −ν) τc /2 − e−2πi(ν0 −ν) τc /2
=
sin[πτc (ν0 − ν)]
π(ν0 − ν)
2i
π(ν0 − ν)
sin [πτc (ν0 − ν)]
= A0 τc sinc [τc (ν0 − ν)] ,
= A0 τc
πτc (ν0 − ν)
71
=
(8.32)
dove sinc(x) è la funzione sinc normalizzata, definita da
sinc(x) =
sin(πx)
,
πx
con sinc(0) = 1,
(8.33)
sinc(x)
e mostrata in fig. 8.3. La funzione sinc(x) (da sinus cardinalis) ha il massimo assoluto, pari
sin(πx)
), e si annulla per ogni altro valore intero di x.
a 1, per x = 0 (ottenuto come lim
x→0
πx
E’ da notare che in letteratura si trova anche la funzione sinc non normalizzata, definita da
sinc(x) = sin(x)/x, che invece si annulla per x uguale a multipli di π diversi da zero. Noi qui,
comunque, useremo solo la sinc normalizzata definita dalla (8.33). Vediamo cosı̀ dalla (8.32)
che Ã(ν) è simmetrica attorno al valore ν = ν0 , al quale ha il massimo assoluto, ed ha due zeri
per ν = ν0 − 1/τc e ν = ν0 + 1/τc .
Come semilarghezza della distribuzione
in frequenza, possiamo quindi prendere il valore
∆ν =
1
.
τc
(8.34)
Per esempio, se prendiamo una sorgente termica a distribuzione spetx
−7 −6 −5 −4 −3 −2 −1
1
2
3
4
5
6
7
trale stretta (lampada spettrale),
come quelle usate tipicamente in labFigura 8.3: La funzione sinc (x).
oratorio, la sua larghezza di banda
∆ν è dell’ordine di 109 Hz, corrispondente alla tipica vita media di un livello atomico eccitato che è dell’ordine di 10−9 s. Questo implica che la differenza massima di cammino ottico a
cui osserviamo ancora interferenza è lc = cτc ≈ 0.3 m. Invece una sorgente laser ben stabilizzata
può avere una larghezza di riga ∆ν ≈ 104 Hz, cui corrispondono τc ≈ 10−4 s, e lc = cτc ≈ 3×104
m = 30 km.
8.5
Interferometro di Young e coerenza spaziale
In un interferometro di Young, mostrato in fig. 8.4.a), una sorgente estesa quasi monocromatica,
a forma di disco di raggio a, illumina i due fori P1 e P2 , distanti 2d tra loro, sullo schermo opaco
A. Le ampiezze e fasi totali delle sorgenti secondarie (in base al principio di Huygens-Fresnel)
in P1 e P2 sono ottenute per sovrapposizione di tutte le onde parziali emesse dagli elementi di
superficie dσ attorno ai punti R della sorgente, tenendo conto dei diversi cammini ottici RP1 e
RP2 . L’intensità misurata al punto Q sullo schermo B dipende sia dalla differenza di cammino
ottico ∆l(Q) = P1 Q − P2 Q che dalla differenza di fase ∆ϕ = ϕ(P1 ) − ϕ(P2 ) tra le ampiezze
del campo in P1 e P2 . Se i diversi punti R della sorgente emettono indipendentemente con fasi
casuali (sorgente termica), anche le fasi delle ampiezze totali in P1 e P2 fluttueranno a caso.
72
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
P1
R
2a
schermo
Tuttavia questo non influenza l’intensità in Q se le fluttuazioni in P1 e P2 sono sincrone, perché
in questo caso la differenza di fase ∆ϕ rimane costante. In queste condizioni i due fori P1 e
P2 si comportano come sorgenti coerenti tra loro che generano una figura di interferenza sullo
schermo B.
Questa situazione si realizza senz’altro per la radiazione emessa dal centro O della sorgente
perché i cammini OP1 e OP2 sono uguali e tutte le fluttuazioni di fase in O arrivano simultaneamente in P1 e P2 . Per ogni punto R della sorgente diverso da O, invece, si ha una differenza di
cammino ottico ∆l(R) = RP1 −RP2 , che è massima se R si trova sul bordo della sorgente. Nella
fig. 8.4.b), che è stata deformata per chiarezza di lettura, chiamiamo x la distanza R1 P1 , y la
distanza R2 P1 , e z la distanza OP1 . Vogliamo calcolare la differenza di cammino ∆lmax = y − x
nell’approssimazione che sia a ≪ r.
O
d
OA
OB
d
Q
d
z
ϑ
a
O
a
P1
x
R1
y
∆Ω
′
OA
d
R2
P2
P2
r
r
A
B
a)
b)
Figura 8.4: Interferemometro di Young.
Applichiamo il teorema di Pitagora generalizzato ai due triangoli OR1 P1 e OR2 P1 . Dalla figura
\
vediamo che cos(R\
1 OP1 ) = sin ϑ, e cos(R2 OP1 ) = − sin ϑ, quindi abbiamo per x, y e z
x=
√
a2 + z 2 − 2 az sin ϑ,
y=
√
a2 + z 2 + 2 az sin ϑ,
con z =
r
.
cos ϑ
(8.35)
Per ϑ piccolo possiamo usare lo sviluppo al primo ordine della radice quadrata
√
ottenendo
x≈
√
c+δ ≈
√
δ
c+ √ ,
2 c
az sin ϑ
a2 + z 2 − √
a2 + z 2
valido se δ ≪ c,
e y≈
√
az sin ϑ
,
a2 + z 2 + √
a2 + z 2
(8.36)
(8.37)
da cui
2az sin ϑ
∆lmax = y − x ≈ √
,
a2 + z 2
che, per a ≪ z, porta a ∆lmax ≈ 2a sin ϑ.
(8.38)
8.5. INTERFEROMETRO DI YOUNG E COERENZA SPAZIALE
73
Se ∆lmax > λ/2 la differenza di fase ∆ϕ delle ampiezze parziali in P1 e P2 è più grande di π.
Con fasi casuali dei punti R distribuiti su tutta la sorgente, le figure di interferenza sul piano
B, una volta mediate sul tempo, si cancellano. Quindi la condizione per avere illuminazione
coerente in P1 e P2 da parte di una sorgente di raggio a è
∆lmax = 2a sin ϑ <
λ
,
2
cioè
sin ϑ <
λ
.
4a
(8.39)
D’altra parte, se ϑ è piccolo, vediamo sempre dalla fig. 8.4.b), che sin ϑ ≈ tan ϑ ≈ d/r, per cui
otteniamo la condizione
r
(8.40)
d<λ .
4a
Perché si possano osservare le figure di interferenza, bisogna quindi che i due fori P1 e P2 si
trovino all’interno di un’area di coerenza circolare
2
Ac = πdmax
=
πλ2 r2
,
16 a2
e, ricordando che As = πa2 , Ac =
π 2 λ2 r 2
λ2 r 2
≈ 0.62
16As
As
(8.41)
Dalla sorgente, il cerchio di aerea Ac è visto entro un angolo solido ∆Ωc = Ac /r2 , da cui
∆Ωc = 0.62
λ2
.
As
(8.42)
E’ da notare che il fattore π 2 /16 ≈ 0.62 che compare nelle (8.41) e (8.42), ed in alcune formule
che incontreremo nel seguito, è il quadrato del rapporto tra l’area del cerchio e quella del
quadrato circoscritto.
Riassumendo quanto sopra, possiamo dire che, se abbiamo una sorgente quasi monocromatica di area As che emette attorno alla lunghezza d’onda λ, l’area massima Ac che può essere
illuminata coerentemente ad una distanza r vale
Ac = r2 ∆Ωc = 0.62
λ2 r 2
λ2
= 0.62
,
As
∆Ω′
(8.43)
dove
As
(8.44)
r2
è l’angolo solido sotto il quale il punto OA della fig. 8.4.b) vede l’area della sorgente. Tra ∆Ω′
e ∆Ωc esiste la relazione
λ2 1
∆Ω′ = 0.62 2
.
(8.45)
r ∆Ωc
∆Ω′ =
La superficie della sorgente As determina quindi un angolo solido massimo ∆Ωc = 0.62λ2 /As
entro al quale il campo di radiazione ha coerenza spaziale. Una volta fissate le dimensioni della
sorgente, la superficie di coerenza Ac = πd 2 aumenta con il quadrato della distanza r dalla
sorgente, o, che è lo stesso, in modo inversamente proporzionale all’angolo solido ∆Ω′ . Data la
grande distanza dalle stelle, e il conseguente piccolo valore di ∆Ω′ nella (8.44), la luce di una
stella ricevuta da un telescopio è spazialmente coerente su tutta la superficie dell’apertura del
telescopio stesso, nonostante il grande diametro della sorgente di radiazione.
74
8.6
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
Volume di coerenza
Con una lunghezza di coerenza ∆lc = c τc = c/∆ν nella direzione di propagazione della
radiazione e la superficie di coerenza Ac = 0.62λ2 r2 /As abbiamo un volume di coerenza
Vc = Ac ∆lc = 0.62
λ2 r 2 c
.
∆ν As
(8.46)
La radianza spettrale L(ν) di una sorgente è definita in modo che L(ν) dS dν dΩ sia la potenza radiante emessa dall’elemento di superficie dS della sorgente stessa, nell’intervallo spettrale (ν, ν + dν) all’interno dell’angolo solido dΩ. Le unità di misura per L(ν) somo quindi
W/(m2 ·sterad·Hz). Se L(ν) è la radianza spettrale della nostra sorgente di superficie As , il
numero medio di fotoni hni di frequenza compresa nell’intervallo spettrale (ν, ν + ∆ν) entro
l’angolo solido di coerenza ∆Ωc = 0.62λ2 /As durante il tempo di coerenza τc = 1/∆ν sarà
hni =
1
1
λ2 1
L(ν) λ2
As L(ν)∆ν ∆Ωc τc =
As L(ν)∆ν 0.62
= 0.62
.
hν
hν
As ∆ν
hν
(8.47)
E’ possibile calcolare il numero g delle celle dello spazio delle fasi occupato dai fotoni di un
fascio luminoso di apertura ∆Ω partendo dall’espressione per il numero delle celle dello spazio
delle fasi a grandi volumi spaziali V
g=
V 4πp2 ∆p
,
h3
(8.48)
sostituendo l’angolo solido 4π, che abbraccia tutto lo spazio, con l’angolo solido ∆Ω entro cui
hν
vediamo arrivare i fotoni del fascio, e ricordando che, per un fotone, p =
, ottenendo cosı̀
c
g=
V ∆Ωc ν 2 ∆ν
.
c3
(8.49)
Se vogliamo che i fotoni occupino un’unica cella dello spazio delle fasi dobbiamo porre g = 1,
ed otteniamo per il volume “spaziale” V
V =
c3
λ2 c
=
.
∆Ων 2 ∆ν
∆Ω∆ν
(8.50)
A distanza r dalla sorgente, la sorgente stessa viene vista sotto un angolo ∆Ω = As /r2 , ed i
fotoni vengono visti arrivare entro questo angolo solido. SostituendoAs /r2 al posto di ∆Ω nella
(8.50) otteniamo
λ2 r 2 c
,
(8.51)
V =
As ∆ν
che, a parte il fattore 0.62, coincide con la (8.46).
Il volume occupato dai fotoni che attraversano una generica superficie S, sufficientemente
lontana dalla sorgente e perpendicolare al fascio, durante il tempo tm di una misura può essere
scritto
V = S c tm .
(8.52)
75
8.6. VOLUME DI COERENZA
Dalla superficie S la superficie della sorgente As viene vista sotto un angolo solido ∆Ω′ . Quindi,
per il numero di celle dello spazio delle fasi occupato dagli stessi fotoni abbiamo
g=
S∆Ω′ tm
S c tm ∆Ω′ ν 2 ∆ν
=
.
c3
λ2 τc
(8.53)
Definiamo una grandezza caratteristica del fascio, detta estensione del fascio U , come
U=
As S
= As ∆Ω = S∆Ω′ ,
r2
(8.54)
dove S è la superficie il cui contorno delimita il fascio ad una distanza r dalla sorgente. L’estensione U è importante perché rimane costante nella propagazione senza perdite di un fascio luminoso sotto le leggi dell’ottica geometrica. Per fotoni che viaggiano entro l’angolo solido ∆Ωc
determinato dalla diffrazione alla superficie As della sorgente, dato dalla (8.42), l’estensione
assume il valore critico Uc
Uc = As ∆Ωc = As · 0.62
λ2
= 0.62 λ2 .
As
(8.55)
Quindi abbiamo λ2 = Uc /0.62 che possiamo sostituire nell’espressione (8.53) per il numero di
celle dello spazio delle fasi, ottenendo
S∆Ω′ tm
U tm
g=
=
0.62
,
λ2 τc
Uc τc
(8.56)
dove il termine U/Uc viene definito fattore di coerenza spaziale, ed il termine tm /τc fattore di
coerenza temporale. Utilizzando la 8.43, il fattore di coerenza spaziale può anche essere definito
S∆Ω′
S
U
=
=
,
2
Uc
0.62λ
Ac
(8.57)
cioè come rapporto tra la superficie del fascio e la superficie di coerenza, mentre il fattore di
coerenza temporale è il rapporto tra il tempo di misura ed il tempo di coerenza. Il valore più
basso di g, cioè 0.62, si ha quando l’area ed il tempo di misura coincidono con l’area ed il tempo
di coerenza.
E’ da notare che né il fattore di coerenza spaziale, né il fattore di coerenza temporale,
possono essere presi come minori di 1. Quindi, per esempio, un tempo di misura minore del
tempo di coerenza non compensa una superficie del fascio maggiore dell’area di coerenza.
76
CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA
Capitolo 9
Processi stocastici
9.1
Introduzione
Per processo casuale, o stocastico, si intende un processo in cui il valore di una certa variabile
x dipende da un’altra variabile, per esempio dal tempo t, secondo una legge x(t) che comporta
un certo grado di aleatorietà. Non esiste cioè una funzione x(t) che descriva esattamente il
variare di x al passare del tempo. Supponiamo però che la x(t) sia comunque continua e che
sia possibile scrivere una densità di probabilità al primo ordine dipendente dal tempo
W1 (x, t)
(9.1)
tale che W1 (x′ , t) dx sia la probabilità di avere il valore di x nell’intervallo (x′ , x′ +dx) all’istante
t. La casualità può essere descritta da un ensemble statistico, in cui ogni elemento dell’ensemble
corrisponde ad un particolare, possibile decorso temporale della variabile x.
Possiamo anche definire una densità di probabilità al secondo ordine
W2 (x1 , t1 ; x2 , t2 )
(9.2)
tale che W2 (x1 , t1 ; x2 , t2 ) dx1 dx2 sia la probabilità di trovare x nell’intervallo (x1 , x1 + dx1 )
all’istante t1 e nell’intervallo (x2 , x2 + dx2 ) all’istante t2 . In modo analogo possono essere
definite le densità di probabilità di ogni ordine superiore n
Wn (x1 , t1 ; x2 , t2 ; . . . ; xn , tn ).
(9.3)
Qui e nel seguito, all’interno delle parentesi usiamo i punti e virgola per separare gli eventi, e
la virgola per separare la coppia di valori x e t corrispondenti allo stesso evento. Un processo stocastico si dice stazionario quando le densità di probabilità di qualunque ordine n sono
invarianti per traslazioni dell’origine dei tempi
Wn (x1 , t1 + τ ; x2 , t2 + τ ; . . . ; xn , tn + τ ) = Wn (x1 , t1 ; x2 , t2 ; . . . ; xn , tn ),
(9.4)
con τ arbitrario. In altre parole, Wn dipende solo dalle differenza temporali t2 − t1 , t3 − t1 , . . . ,
tn − t1 . Per un processo stazionario possiamo cosı̀ scrivere
Wn (x1 ; x2 , t2 ; . . . ; xn , tn ),
77
(9.5)
78
CAPITOLO 9. PROCESSI STOCASTICI
dove t1 è stato posto uguale a 0 e ignorato nella scrittura. Una condizione necessaria, ma non
sufficiente, perché un processo stocastico sia stazionario, è che W1 (x, t) sia indipendente dal
tempo W1 (x, t) = W1 (x). Per un processo stazionario le funzioni di correlazione temporale
sono indipendenti dal tempo.
Oltre alle densità di probabilità di ordine n, introduciamo le densità di probabilità condizionata P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) definite in modo che
P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) dxn
(9.6)
sia la probabilità che x si trovi nell’intervallo (xn , xn + dxn ) all’istante tn , una volta noto che
il valore era x1 all’istante t1 , x2 all’istante t2 , . . . , xn−1 all’istante tn−1 . Come convenzione,
all’interno della parentesi continuiamo ad usare i punti e virgola per separare i singoli eventi,
e usiamo la barra “|” per separare gli n − 1 eventi condizionanti dall’evento condizionato. La
condizione di stazionarietà continua a essere che P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) dipenda
dal tempo solo attraverso le differenze t2 − t1 , t3 − t1 , . . . , tn − t1 . In queste condizioni possiamo
ancora una volta scrivere
P (x1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ),
(9.7)
avendo posto t1 = 0. Nel caso di processi stazionari possiamo scrivere alcune relazioni importanti, per esempio
Z +∞
P (x1 |x2 , t) dx2 = 1,
(9.8)
−∞
che rappresenta la certezza che, qualunque sia il valore iniziale, dopo un tempo t la variabile
abbia un valore qualunque. Poi abbiamo
W2 (x1 ; x2 , t) = W1 (x1 ) P (x1 |x2 , t),
da cui otteniamo P (x1 |x2 , t) =
W2 (x1 ; x2 , t)
.
W1 (x1 )
(9.9)
Valgono le relazioni
W3 (x1 ; x2 , t2 ; x3 , t3 ) = W2 (x1 ; x2 , t2 )P (x1 ; x2 , t2 |x3 , t3 )
e
Z
(9.10)
+∞
W3 (x1 ; x2 , t2 ; x3 , t3 ) dx2 = W2 (x1 ; x3 , t3 )
(9.11)
−∞
per ogni t2 tale che 0 ≤ t2 ≤ t3 .
Un caso importante dei processi casuali è costituito dai processi markoviani (da Andréĭ
Andréeviq Márkov), che sono definiti dalla relazione
P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) = P (xn−1 , tn−1 |xn , tn ),
(9.12)
in altre parole, in un processo markoviano la densità di probabilità di avere il valore xn all’istante
tn dipende solo da xn−1 all’istante tn−1 , e non da tutta la storia precedente. In una catena
markoviana, cioè, dato lo stato presente, gli stati futuri sono completamente indipendenti dagli
stati passati. Un esempio di processo markoviano è quello di una variabile x che soddisfa
dx
l’equazione differenziale
= f (x). Una volta noto il valore x0 della variabile all’istante
dt
79
9.2. MEDIE SULL’ENSEMBLE
t0 l’evoluzione temporale di x è determinata univocamente da una relazione del tipo x =
ϕ(x0 , t − t0 ). La x soddisfa la relazione di Markov con la densità di probabilità condizionata
P (x0 , t0 |x, t) = δ [x − ϕ(x0 , t − t0 )] .
(9.13)
Da qui segue che i processi deterministici sono casi particolari di processi markoviani.
Nel caso di un processo markoviano la relazione (9.10) diventa
W3 (x1 ; x2 , t2 ; x3 , t3 ) = W2 (x1 ; x2 , t2 )P (x2 , t2 |x3 , t3 )
(9.14)
e le relazioni (9.9) e (9.11) combinate ci danno
W2 (xi ; xf , t)
=
P (xi |xf , t) =
W1 (xi )
Z
+∞
W3 (xi ; x2 , t2 ; xf , tf ) dx2
−∞
(9.15)
W1 (x1 )
Utilizzando adesso la (9.14) otteniamo per i processi markoviani
Z +∞
Z +∞
W2 (xi ; x2 , t2 )
P (xi |xf , t) =
P (xi |x2 , t2 )P (x2 , t2 |xf , t) dx2 ,
P (x2 , t2 |xf , t) dx2 =
W1 (xi )
−∞
−∞
(9.16)
dove l’integrazione è su tutti possibili valori intermedi x2 della variabile stocastica. Questa è
l’equazione di Smoluchowski, o equazione di Chapman-Kolmogorov (Andréĭ Nikoláeviq
Kolmogórov), valida per qualunque t2 tale che 0 ≤ t2 ≤ t.
9.2
Medie sull’ensemble
Le funzioni di distribuzione di probabilità definite nel paragrafo precedente possono essere usate
per calcolare le medie sull’ensemble, rappresentate da parentesi triangolari e definite come
Z
Z Z
hx(t)i = xW1 (x, t) dx, hx(t)x(t + τ i =
x1 x2 W2 (x1 , t; x2 , t + τ ) dx1 dx2
(9.17)
9.3
9.3.1
Autocorrelazione e densità spettrale
Definizioni matematiche
Cominciamo con qualche richiamo di matematica. Data una funzione del tempo f (t), la sua
trasformata di Fourier f˜(ν) è definita da
Z +∞
Z +∞
−2πiνt
˜
f˜(ν)e2πiνt dν. (9.18)
f (t)e
dt, e vale la relazione inversa f (t) =
f (ν) =
−∞
−∞
La densità spettrale Φ(ν) di f (t) è una funzione reale e positiva definita come
Z
Φ(ν) = +∞
f (t)e
−∞
−2πνt
2 2
dt = f˜(ν) ,
(9.19)
80
CAPITOLO 9. PROCESSI STOCASTICI
per f (t) e Φ(ν) vale il teorema di Parseval
Z
Z +∞ Z +∞
˜ 2
2
|f (t)| dt =
f (ν) dν =
−∞
−∞
+∞
Φ(ν)ν.
(9.20)
−∞
Se abbiamo due funzioni del tempo f (t) e g(t) la loro funzione di correlazione Cf g (τ ) è definita
come
Z +∞
f (t)g(t + τ ) dt,
Cf g (τ ) =
(9.21)
−∞
calcoliamo la trasformata di Fourier di Cf g (τ )
Z +∞ Z +∞
C̃f g (ν) =
f (t)g(t + τ ) e−2πiντ dt dτ,
−∞
se introduciamo la nuova variabile ϑ = t + τ , cosı̀ che τ = ϑ − t, abbiamo
Z +∞ Z +∞
Z +∞
Z
−2πiνϑ 2πiνt
2πiνt
C̃f g (ν) =
f (t)g(ϑ) e
e
dtdϑ =
f (t) e
dt
−∞
(9.22)
−∞
−∞
−∞
+∞
g(ϑ) e−2πiνϑ dϑ
−∞
= f˜(−ν) g̃(ν) = f˜∗ (ν) g̃(ν) = f˜(ν) g̃ ∗ (ν)
(9.23)
dove l’ultima riga tiene conto del fatto che, se f (t) e g(t) sono reali, abbiamo
f˜(−ν) = f˜∗ (ν),
e g̃(−ν) = g̃ ∗ (ν).
Cosı̀, la trasformata di Fourier della funzione di correlazione di f (t) e g(t) è uguale al prodotto
della trasformata di Fourier di f (t) per il complesso coniugato della trasformata di Fourier di
g(t), o vice versa. Questo è il teorema di correlazione. La formula inversa è
Z +∞
f˜(ν) g̃ ∗ (ν) e2πiντ dν,
(9.24)
Cf g (τ ) =
−∞
questa formula è di notevole interesse pratico perché esistono algoritmi computazionali veloci
per il calcolo delle trasformate (e antitrasformate) di Fourier, detti algoritmi di FFT (Fast
Fourier Transform), che possono quindi essere sfruttati anche per il calcolo delle funzioni di
correlazione.
La funzione di autocorrelazione Cf f (τ ) è la funzione di correlazione di f (t) con sé stessa,
quindi definita da
Z
+∞
f (t)f (t + τ ) dt.
Cf f (τ ) =
(9.25)
−∞
e descrive la correlazione tra istanti separati da un intervallo di tempo τ di un processo descritto
dalla funzione f (t). In base alle (9.24) e (9.19) abbiamo
Z +∞
Z +∞
∗
2πiντ
˜
˜
Φ(ν)e2πiντ dν
(9.26)
f (ν)f (ν)e
dν =
Cf f (τ ) =
−∞
−∞
quindi la funzione di autocorrelazione di f (t) è la trasformata di Fourier della sua densità
spettrale. Questo è il teorema di Wiener-Khinchin (Aleksándr kovleviq Hínqin).
81
9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE
9.3.2
Processi stocastici stazionari
Densità spettrale
Passiamo adesso ad una funzione stocastica stazionaria reale x(t). Se vogliamo applicare il
teorema di Parseval (9.20) ci troviamo di fronte al problema
Z che x(t) non tende a zero per
+∞
t → ±∞, essendo, appunto, stazionaria. Quindi l’integrale
x2 (t) dt diverge. Noi, però,
−∞
normalmente, non saremo interessati a questo integrale, ma solo alla media temporale di x2 ,
definita come
Z +T
1
x2 (t) dt.
(9.27)
x2 = lim
T →∞ 2T −T
Per trattare il problema, definiamo una funzione xT (t) che coincide con x(t) per −T < t < +T ,
ed è nulla al di fuori dell’intervallo. Se chiamiamo x̃T (ν) la sua trasformata di Fourier, il
teorema di Parseval per xT (t) si scrive
Z +∞
Z +T
Z +∞
2
2
|x̃T (ν)|2 dν,
(9.28)
xT (t) dt =
xT (t) dt =
dove
x̃T (ν) =
−∞
−T
−∞
Z
+∞
xT (t) e
−2πiνt
dt =
−∞
Z
+T
xT (t) e−2πiνt dt
(9.29)
−T
ed il valore mediato sul tempo di x2T (t) è
Z +T
Z +∞
Z +∞
1
1
1
2
2
2
|x̃T (ν)|2 dν.
xT (t) dt =
|x̃T (ν)| dν =
xT =
2T −T
2T −∞
−∞ 2T
Per il valor medio della nostra x2 (t) originale abbiamo cosı̀
Z +T
Z +∞
1
1
2
2
|x̃T (ν)|2 dν
xT (t) dt =
lim
x = lim
T →∞ 2T −T
−∞ T →∞ 2T
e se mediamo anche sull’ensemble otteniamo
Z +∞
Z +T
2 1 1
2
lim
xT (t) dt =
|x̃T (ν)|2 dν.
hx i = lim
T →∞ 2T −T
−∞ T →∞ 2T
Se definiamo la densità spettrale mediata sul tempo sull’ensemble G(ν)
1 G(ν) = lim
|x̃T (ν)|2
T →∞ 2T
possiamo scrivere
D E Z +∞
G(ν) dν.
x2 =
(9.30)
(9.31)
(9.32)
(9.33)
(9.34)
−∞
Che è l’estensione del teorema di Parseval ai processi stocastici stazionari. Per un processo
stocastico stazionario avremo
D E
x2 = hx2 i = x2 .
(9.35)
Per esempio, nel caso del rumore Johnson, prendendo come x la differenza di potenziale V ai
capi della della resistenza R, avremo
G(ν) = 4RkT.
(9.36)
82
CAPITOLO 9. PROCESSI STOCASTICI
Autocorrelazione
Se definiamo la funzione di autocorrelazione per la nostra funzione stocastica e stazionaria x(t)
in modo analogo alla (9.25), cioè come
Z +∞
Cxx (τ ) =
x(t) x(t + τ ) dt,
−∞
otteniamo una funzione di autocorrelazione che può divergere, in particolare divergerà per
τ = 0. Possiamo però definire una funzione di autocorrelazione mediata nel tempo e mediata
sull’ensemble come
Z +T
1
Cxx (τ ) = lim
x(t) x(t + τ ) dt .
(9.37)
T →∞ 2T −T
Con procedimento analogo a quanto fatto per ottenere la (9.23) possiamo calcolare la trasformata di Fourier di Cxx (τ )
Z +T
Z +∞ 1
x(t) x(t + τ ) dt e−2πiντ dτ
lim
C̃xx (ν) =
T
→∞
2T
−T
−∞
=
lim
T ′ →∞
*
=
Z
+T ′
−T ′
1
lim
T →∞ 2T
1
lim
lim
′
T →∞ T →∞ 2T
Z
Z
+T
x(t) x(t + τ ) dt
−T
+T ′
dτ
−T ′
Z
+T
e−2πiντ dτ
+
x(t) x(t + τ ) e−2πiντ dt .
−T
(9.38)
A punto introduciamo il cambiamento di variabili ϑ = t + τ , cosı̀ che τ = ϑ − t,
+
*
Z +T
Z T ′ +t
1
x(t)x(ϑ) dt e−2πiνϑ e2πiνt
dϑ
C̃xx (ν) =
lim lim
T ′ →∞ T →∞ 2T −T ′ +t
−T
=
*
lim
T ′ →∞
Z
T ′ +t
−T ′ +t
1
x(ϑ) e−2πiνϑ dϑ lim
T →∞ 2T
Z
+T
+
x(t)e2πiνt dt .
−T
(9.39)
Con l’ipotesi che la x(t) sia una variabile aleatoria stazionaria possiamo traslare gli estremi di
integrazione per dϑ, ottenendo
+
*
Z +T
Z +T ′
1
x(t)e2πiνt dt ,
x(ϑ) e−2πiνϑ dϑ lim
C̃xx (ν) = lim
T →∞ 2T −T
T ′ →∞ −T ′
Poiché i due integrali sono indipendenti, possiamo sostituire T ′ con T negli estremi del primo
integrale, e scrivere un limite unico
Z +T
Z +T
1
2πiνt
−2πiνϑ
C̃xx (ν) =
lim
x(t)e
dt
x(ϑ) e
dϑ
T →∞ 2T −T
−T
1
1
=
lim
x̃T (ν) x̃T (−ν) = lim
hx̃T (ν) x̃T (−ν)i
T →∞ 2T
T →∞ 2T
=
1 |x̃T (ν)|2 = G(ν),
T →∞ 2T
lim
(9.40)
83
9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE
nel penultimo passaggio abbiamo tenuto conto del fatto che x(t) è reale, e quindi x̃(−ν) = x̃∗ (ν),
mentre nell’ultimo passaggio abbiamo usato la (9.33).
Abbiamo quindi
Z +∞
G(ν) e2πiντ dν.
(9.41)
C̃xx (ν) = G(ν), da cui Cxx (τ ) =
−∞
Se ricordiamo ancora che essendo x(t) reale, abbiamo x̃∗ (ν) = x̃(−ν), vediamo che x̃∗ (ν) x̃(ν),
e quindi G(ν), è una funzione pari, per cui
Z +∞
Z +∞
2πiντ
G(ν) cos(2πντ ) dν,
(9.42)
G(ν) e
dν = 2
Cxx (τ ) =
0
−∞
mentre la relazione inversa è
G(ν) = 2
Z
+∞
Cxx (τ ) cos(2πντ ) dτ.
(9.43)
0
Questa è l’estensione del teorema di Wiener-Khinchin ai processi stocastici.
Come esempio facciamo l’ipotesi che la funzione di autocorrelazione di un sistema sia
C(τ ) = C0 e−τ /τc .
(9.44)
Da questa possiamo ricavare la densità spettrale G(ν) dalla relazione
G(ν) = 2
Z
1
τc
∞
C0 e−τ /τc cos(2πντ ) dτ = 2 C0
0
1
+ 4π 2 ν 2
τc2
= 2 C 0 τc
∆ν 2
.
∆ν 2 + ν 2
(9.45)
La rappresentazione grafica di G(ν) è quindi una lorentziana centrata sullo zero di semilarghezza
∆ν = 1/(2πτc ), che corrisponde al rumore bianco.
9.3.3
Shot noise
Una sorgente importante di rumore a bassa frequenza è dovuta alla quantizzazione della carica
elettrica. A correnti sufficientemente basse è possibile identificare il contributo della carica
dei singoli elettroni in un dispositivo elettronico. Questo rumore, dovuto quindi al passaggio
discontinuo delle cariche, viene chiamato shot noise, o rumore a colpi, e fu identificato da
Schottky nelle valvole termoelettroniche. Va notato che il trattamento che segue sarà sviluppato
sotto le ipotesi: i) che la corrente sia molto debole, e ii) che i singoli elettroni contribuiscano
alla corrente in modo indipendente l’uno dall’altro. Questa indipendenza mutua si verifica, per
esempio, per elettroni che attraversano una barriera, come nel caso di un diodo a giunzione, ma
non nel caso di conduttori metallici, in cui esistono correlazioni a lungo range tra i portatori di
carica.
Se hni è il numero medio degli elettroni che raggiunge il rivelatore durante il tempo di
misura tm , l’intensità di corrente media vale
hIi =
hnie
.
tm
(9.46)
84
CAPITOLO 9. PROCESSI STOCASTICI
Le fluttuazioni della corrente I sono caratterizzate dalla deviazione quadratica media h(∆I)2 i,
che è legata alla deviazione quadratica media del numero degli elettroni h(∆n)2 i.
Dividiamo il tempo della misura tm in N intervallini uguali, ciascuno di durata tm /N , sufficientemente brevi perché in ognuno di essi passi al massimo un singolo elettrone. Chiamiamo w
la probabilità che nel singolo intervallino temporale passi un elettrone, e (1 − w) la probabilità
che non ci sia passaggio. La probabilità che durante il tempo totale tm si verifichino n passaggi
è la probabilità che in n intervallini ci sia un passaggio ed in (N − n) intervallini no, ed è data
dall’espressione binomiale
N!
N
wn (1 − w)N −n =
P (n, tm ) =
wn (1 − w)N −n .
(9.47)
n
n!(N − n)!
Se N ≫ 1 e w ≪ 1, con la condizione che il prodotto N w = hni resti finito, la(9.47) può essere
approssimata dalla poissoniana. Infatti, sostituendo w = hni/N , abbiamo
n N −n
hni
hni
N!
1−
lim P (n, tm ) = lim
N →∞
N →∞ n!(N − n)!
N
N
N −n
hni
hni
N (N − 1)....(N − n + 1) hnin
1−
1−
= lim
N →∞
n!
Nn
N
N
N −n
n N (N − 1)....(N − n + 1) hni
hni
hni
= lim
1−
1−
N →∞
Nn
n!
N
N
n
n
hni −hni
hni −hni
= 1·
e
·1=
e
,
(9.48)
n!
n!
avendo usato la relazione
x N
= e−x .
N →∞
N
Per la deviazione quadratica media nella distribuzione di Poisson abbiamo
lim
1−
h(∆n)2 i = hni,
e
h(∆n)2 i
1
,
=
2
hni
hni
(9.49)
da cui otteniamo per la corrente I
e
e
h(∆I)2 i
h(∆n)2 i
1
=
=
=
2
2
hni
tm hIi
hIi
hni
(9.50)
e hIi
.
(9.51)
tm
In questo caso la variabile stocastica non ha media nulla. Inoltre, non è vero che se aumento
arbitrariamente hIi aumenta il rumore, perché se aumenta hIi gli elettroni non sono più completamente scorrelati, non sono più indipendenti. Come esempio di shot noise, consideriamo
una corrente media hIi = 1 mA, ed un tempoq
di misura tm = 1 ms, ricordando che la carica
h(∆I)2 i =
dell’elettrone è |e| = 1.6 × 10−19 C, otteniamo h(∆I)2 i = 4.0 × 10−10 A.
Per il calcolo della distribuzione spettrale del rumore GI (ν), utilizziamo la variabile stocastica I(t) = e n(t)/tm , dove n(t) è il numero di elettroni effettivamente passati nell’intervallo di
9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE
85
tempo (t, t + tm ) associato alla misura. Immaginiamo che il contributo di ogni singolo elettrone
alla corrente totale sia rappresentato da una funzione F (t) diversa da zero solo per il breve
periodo di tempo (−τc , +τc ), con τc ≪ tm , durante il quale si ha il passaggio dell’elettrone, e
che si abbia
Z +τc
F (t)dt = e.
(9.52)
−τc
La dipendenza temporale “istantanea” della corrente durante l’intervallo di tempo di misura
tm , nel quale passano n elettroni, può cosı̀ essere scritta
I(t) =
n
X
i=1
F (t − ti ),
(9.53)
dove ti , “istante” del passaggio dello i-esimo elettrone, è una variabile stocastica vincolata solo
dalla condizione 0 < ti < tm . La media della corrente durante la misura vale
+
* X
Z tm
n Z tm
1
hnie
1
F (t − ti ) dt =
,
(9.54)
I(t) dt =
hIi =
tm 0
tm i=1 0
tm
che è quello che ci aspettavamo. Per la funzione di autocorrelazione della corrente durante la
misura abbiamo
P
P
CII (τ ) = hI(t)I(t + τ )i = h ni=1 F (t − ti ) nj=1 F (t + τ − tj )i.
(9.55)
Con le condizioni ipotizzate all’inizio, ogni elettrone è correlato solo con sé stesso, quindi il
prodotto delle due sommatorie si riduce a
P
(9.56)
CII (τ ) = h ni=1 F (t − ti )F (t + τ − ti )i = hni F (t)F (t + τ ).
Il tempo di correlazione tipico è molto breve, dell’ordine di τc ≈ 10−12 s, e la G(ν) ha quindi
una larghezza dell’ordine di ∆νc ≈ 1012 Hz, corrispondente ad un rumore bianco.
9.3.4
Rumore 1/f
Nelle valvole termoelettroniche è stato scoperto un particolare tipo di rumore, detto rumore
1/f perché la sua distribuzione spettrale dipende dalla frequenza come 1/ν γ , con γ molto vicino
ad 1, secondo la formula
hIi2
(9.57)
G(ν) = α γ ,
ν
dove il coefficiente di proporzionalità α è fortemente dipendente dalle caratteristiche del particolare componente elettronico. Questo rumore viene anche detto rumore rosa, per essere
intermedio tra il rumore bianco, che, nella regione in cui è praticamente costante va, ovviamente, come 1/ν 0 , ed il rumore rosso, o rumore browniano, che va come 1/ν 2 . Il rumore 1/f ,
oltre che in elementi elettronici, appare anche in una varietà di fenomeni naturali, come la
velocità della corrente negli oceani, lo scorrere della sabbia in una clessidra, nel flusso annuale
del Nilo misurato negli ultimi 2000 anni, ed in altri esempi.
Non esiste una spiegazione convincente per tutto il rumore 1/f che appare in queste situazioni fisiche molto diverse tra loro.
86
CAPITOLO 9. PROCESSI STOCASTICI
9.3.5
Fotoconteggi
Questo è lo schema di un esperimento di conteggio di singoli fotoni: un fascio di luce incide
su di un fotomoltiplicatore collegato, attraverso un’opportuna elettronica, ad un contatore che
registra il numero degli impulsi generati dai singoli fotoni che sono stati rivelati. Un otturatore
davanti al fotomopliplicatore controlla l’intervallo di tempo tm durante il quale il fascio di luce
può raggiungere il fotocatodo. La misura viene ripetuta più volte, ed ogni volta è registrato
il numero n degli impulsi dovuti ai fotoni rivelati durante il tempo tm . Si costruisce cosı̀ una
distribuzione di probabilità W (tm , n) per il conteggio di n eventi durante l’intervallo di tempo
tm .
Se il fascio di radiazione è stazionario, la distribuzione statistica W (tm , n) contiene informazioni sulle proprietà statistiche della sorgente.
Se chiamiamo w(t)dt la probabilità che il fotocatodo del nostro fotomoltiplicatore emetta
un elettrone nell’intervallo di tempo (t, t + dt), in prima approssimazione possiamo scrivere
w(t) dt = αI(t) dt,
(9.58)
dove I(t) è l’intensità del fascio all’istante t, la costante α rappresenta l’efficienza del tubo,
e l’intervallo di tempo dt è supposto abbastanza lungo perché la teoria della probabilità di
transizione sia valida, ma sufficientemente breve perché la probabilità di emissione di più di un
elettrone sia trascurabile.
La probabilità W (tm , n) si ottiene facendo la media dei conteggi ottenuti in un gran numero
di misure, inizianti ognuna ad un diverso istante t, ed ognuna di durata tm . Consideriamo un
determinato intervallo di conteggio (t, t + tm ), chiamiamo t + t′ un istante all’interno dell’intervallo, e dt′ un intervallino entro al quale possiamo considerare valida la (9.58): cioè, all’interno
di dt′ può essere contato al massimo un fotone. Definiamo
Wn (t, t′ + dt′ )
(9.59)
la probabilità che n fotoni siano contati nell’intervallo (t, t + t′ + dt′ ). Questi n conteggi possono
essere realizzati in due modi diversi:
n − 1 nell’intervallo (t, t + t′ ) e 1 in dt′ ,
con probabilità Wn−1 (t, t′ ) w(t + t′ ) dt′
(9.60)
con probabilità Wn (t, t′ )[1 − w(t + t′ ) dt′ ].
(9.61)
oppure
n nell’intervallo (t, t + t′ ) e 0 in dt′ ,
La probabilità totale sarà la somma delle due probabilità
Wn (t, t′ + dt′ ) = Wn (t, t′ )[1 − w(t + t′ ) dt′ ] + Wn−1 (t, t′ ) w(t + t′ ) dt′
= Wn (t, t′ ) + w(t + t′ ) dt′ [Wn−1 (t, t′ ) − Wn (t, t′ )]
Wn (t, t′ + dt′ ) − Wn (t, t′ ) = w(t + t′ ) dt′ [Wn−1 (t, t′ ) − Wn (t, t′ )] ,
(9.62)
da cui otteniamo, dividendo per dt′ ,
dWn (t, t′ )
= w(t + t′ ) [Wn−1 (t, t′ ) − Wn (t, t′ )] = αI(t + t′ ) [Wn−1 (t, t′ ) − Wn (t, t′ )] .
dt′
(9.63)
87
9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE
Quindi la probabilità di avere n conteggi nell’intervallo (t, t + t′ ) è legata alla probabilità di
avere n − 1 conteggi nello stesso intervallo da un’equazione differenziale, e si può costruire una
catena di equazioni differenziali che scende fino alla probabilità di avere zero conteggi. In questa
catena di equazioni, quella per n = 0 è diversa dalle altre perché, ovviamente, non esiste la
probabilità di avere −1 conteggi, quindi
dW0 (t, t′ )
= −αI(t + t′ ) W0 (t, t′ ),
dt′
(9.64)
che può essere riscritta
Z t+tm
W0 (t, tm )
I(t′ )dt′ .
= −α
da cui, integrando, log
W0 (t, 0)
t
(9.65)
Imponendo la condizione iniziale che in un intervallo nullo si abbia la certezza di non avere
conteggi
W0 (t, 0) = 1
(9.66)
dW0 (t, t′ )
= −αI(t + t′ )dt′ ,
W0 (t, t′ )
otteniamo
W0 (t, tm ) = e−α
R t+tm
t
I(t′ )dt′
.
Se introduciamo l’intensità media della radiazione durante il tempo di conteggio
Z t+tm
1
I(t′ ) dt′
I(t, tm ) =
tm t
(9.67)
(9.68)
possiamo scrivere
W0 (t, tm ) = e−α tm I(t,tm ) .
(9.69)
I successivi Wn (t, tm ) possono essere determinati dalla catena di equazioni (9.63), cominciando
con n = 1 ed ogni volta imponendo la condizione
Wn (t, 0) = 0 ∀n 6= 0.
(9.70)
La soluzione generale risulta
α I(t, tm ) tm
Wn (t, tm ) =
n!
n
e−αI(t,tm ) tm ,
(9.71)
come può essere dimostrato per induzione. Infatti la (9.71) risolve la (9.63):
n
dWn (t, t′ )
d α I(t, tm ) t′
′
=
e−αI(t,tm ) t
′
′
dt
dt
n!
n−1
n
n α I(t, tm ) t′
α I(t, tm ) tm
−αI(t,tm ) t′
=
−
α I(t, tm )e
α I(t, tm )e−αI(t,tm ) tm
n!
n!
= α I(t, tm ) [Wn−1 (t, t′ ) − Wn (t, t′ )] ,
e, per n = 0, coincide con la (9.69).
(9.72)
88
CAPITOLO 9. PROCESSI STOCASTICI
La probabilità Wn (tm ) si ottiene mediando su di un grande numero di misure
+
*
n
αI(t, tm ) tm
Wn (tm ) = hWn (t, tm )i =
e−αI(t,tm ) tm .
n!
(9.73)
Nel caso che I(t, tm ) sia indipendente da t e da tm possiamo porre
I = I(t, tm )
(9.74)
e scrivere
hnin −hni
e
,
n!
dove hni è il numero medio dei conteggi nel tempo di misura tm
Wn (tm ) =
hni = α I tm .
(9.75)
(9.76)
In queste condizioni abbiamo cosı̀ una distribuzione di Poisson. La distribuzione poissoniana,
con deviazione quadratica media h(∆n)2 i = hni, può sembrare sorprendente se si pensa che
questo risultato potrebbe essere stato ottenuto anche supponendo di avere una intensa radiazione incidente monocromatica, quindi sotto le condizioni richieste per l’applicazione della
statistica di Bose-Einstein.
9.4
Equazione di Fokker-Planck
Supponiamo di avere a che fare con un processo stocastico stazionario markoviano, per il quale
P (x0 |x, τ ) dx è la probabilità che il valore della variabile stocastica sia nell’intervallo (x, x + dx)
se τ secondi prima aveva il valore x0 . Se τ → 0, e continuiamo a fare l’ipotesi che l’andamento
di x(t) sia stocastico, ma continuo, la x non ha il tempo di cambiare, per cui abbiamo
lim P (x0 |x, τ ) = δ(x − x0 ),
τ →0
(9.77)
dove δ è la delta di Dirac. D’altra parte, se τ → ∞, e, come abbiamo detto, x è una variabile
stocastica stazionaria, il suo valore perde ogni memoria del valore iniziale x0 , ed avremo
lim P (x0 |x, τ ) = W1 (x).
τ →∞
(9.78)
Queste sono le condizioni agli estremi. Adesso consideriamo la situazione intermedia, cioè un
valore di τ > 0 ma non sufficientemente grande perché si sia persa memoria del valore iniziale.
Se poi aspettiamo un ulteriore tempo “infinitesimo” ∆τ ≪ τ , l’equazione di Smoluchowski può
essere riscritta
Z +∞
P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ.
(9.79)
P (x0 |x, τ + ∆τ ) =
−∞
Adesso espandiamo il primo membro della (9.79) in serie di Taylor in ∆τ fino al primo ordine,
ottenendo
∂P (x0 |x, τ )
P (x0 |x, τ + ∆τ ) ≈ P (x0 |x, τ ) +
∆τ
(9.80)
∂τ
9.4. EQUAZIONE DI FOKKER-PLANCK
89
che può essere riscritta
∂P (x0 |x, τ )
∆τ = P (x0 |x, τ + ∆τ ) − P (x0 |x, τ )
∂τ
Z +∞
=
P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ − P (x0 |x, τ ).
(9.81)
−∞
Notare che, data la condizione di normalizzazione
Z +∞
P (x|x − ξ, ∆τ ) dξ = 1,
−∞
se moltiplichiamo P (x0 |x, τ ) per questo integrale nella (9.81), vediamo che la (9.81) stessa può
anche essere scritta
Z +∞
∂P (x0 |x, τ )
P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ
∆τ =
∂τ
−∞
Z +∞
−
P (x0 |x, τ )P (x|x − ξ, ∆τ ) dξ,
(9.82)
−∞
dove il primo integrale corrisponde ad un aumento di P (x0 |x, τ ), dovuto alla probabilità che il
valore della variabile stocastica, che era passato da x0 ad un valore qualunque x − ξ 6= x dopo
l’intervallo di tempo τ , sia passato al valore x a τ + ∆τ , mentre il secondo integrale corrisponde
ad una diminuzione di P (x0 |x, τ ), dovuta alla probabilità che la variabile stocastica fosse già
passata da x0 a x dopo τ , ma passi poi da x a x − ξ dopo l’ulteriore intervallo di tempo ∆τ .
Tornando alla (9.81), non c’è bisogno di supporre che ξ sia piccola: essendo ∆τ “infinitesimo”, fissata x, P (x − ξ|x, ∆τ ) decresce molto rapidamente al crescere di ξ. Per questo ci
interessa conoscere P (x0 |z, τ )P (z|z + ξ, δτ ) solo per valori di z molto vicini a x. Cosı̀ posto
z = x − ξ, possiamo scrivere
P (x0 |x − ξ, τ )P (x − ξ|x, ∆τ ) = P (x0 |z, τ )P (z|z + ξ, ∆τ )|z=x−ξ
∞
X
(−ξ)n ∂ n
=
[P (x0 |x, τ )P (x|x + ξ, ∆τ )]
n! ∂xn
n=0
(9.83)
∂ 0 f (x + ξ) dove si è posto
= f (x). La (9.81) diventa cosı̀
∂x0
ξ=0
Z +∞
∞
X
(−1)n ∂ n
∂P (x0 |x, τ )
n
P (x|x + ξ, ∆τ )ξ dξ − P (x0 |x, τ ). (9.84)
P (x0 |x, τ )
∆τ =
n
∂τ
n!
∂x
−∞
n=0
Il termine della sommatoria con n = 0 è semplicemente P (x0 |x, τ ) perché l’integrale corrispondente è uguale a 1 per la condizione di normalizzazione della probabilità. Quindi il termine con
n = 0 cancella il termine −P (x0 |x, τ ) della (9.84), e ci rimane
Z +∞
∞
∂P (x0 |x, τ )
1 X (−1)n ∂ n
n
P (x|x + ξ, ∆τ )ξ dξ .
P (x0 |x, τ )
=
∂τ
∆τ n=1 n! ∂xn
−∞
(9.85)
90
CAPITOLO 9. PROCESSI STOCASTICI
Conviene introdurre i momenti di ordine n, definiti da
Z +∞
h[∆x(∆τ )]n i
1
P (x|x + ξ, ∆τ ) ξ n dξ =
,
Mn =
∆τ −∞
∆τ
(9.86)
dove h[∆x(∆τ )]n i = h[x(τ + ∆τ ) − x(τ )]n i. Otteniamo cosı̀
∞
∂P (x0 |x, τ ) X (−1)n ∂ n
=
[Mn P (x0 |x, τ )] .
∂τ
n! ∂xn
n=1
(9.87)
∂
1 ∂2
∂P (x0 |x, t)
= − [M1 P (x0 |x, t)] +
[M2 P (x0 |x, t)],
∂t
∂x
2 ∂x2
(9.88)
Per molti casi di interesse, quando ∆τ → 0, abbiamo che h[∆x(∆τ )]n i → 0 più rapidente di ∆τ
se n > 2. Pertanto i termini che coinvolgono Mn con n > 2 possono essere trascurati. Se invece
momenti di ordine superiore al secondo non possono essere trascurati otteniamo un’equazione
che coinvolge anche questi ultimi, detta equazione di Kramers-Moyal. Altrimenti abbiamo
che è l’equazione di Fokker-Planck.
In un caso semplice, che corrisponde a situazioni sperimentali abbastanza caratteristiche, i
momenti possono essere scritti
M1 (x) = −γx
M2 (x) = 2D
(9.89)
per cui l’equazione di Fokker-Planck diventa
∂
∂2
∂P (x0 |x, t)
=γ
[xP (x0 |x, t)] + D 2 P (x0 |x, t),
∂t
∂x
∂x
(9.90)
il primo termine di questa equazione è detto termine di drift, ed il secondo termine di diffusione.
Infatti, per D = 0 l’equazione di Fokker-Planck diventa
∂P (x0 |x, t)
∂
=γ
[xP (x0 |x, t)] ,
∂t
∂x
(9.91)
che è l’equazione di drift, mentre per γ = 0 diventa
∂P (x0 |x, t)
∂2
= D 2 P (x0 |x, t),
∂t
∂x
(9.92)
che è l’equazione di diffusione.
9.5
Moto browniano
Consideriamo una particella macroscopica di massa m immersa in un liquido ad una temperatura T . Sulla particella agiscono sia una forza viscosa −γv che una forza aleatoria f (t).
L’equazione del moto è quindi
dv
(9.93)
m = f (t) − γv.
dt
91
9.5. MOTO BROWNIANO
Semplifichiamo l’equazione dividendo tutto per la massa m e introducendo le quantità
F (t) =
f (t)
,
m
e α=
γ
,
m
(9.94)
per cui l’equazione diventa
dv
= −αv + F (t)
(9.95)
dt
Supponiamo che il comportamento della forza sia stocastico stazionario con media zero
hF (t)i = 0,
(9.96)
e che per l’azione di F (t) corrisponda a collisioni di durata τc molto corta, cosı̀ che l’autocorrelazione possa essere scritta
hF (t)F (t + τ )i = 2Cδ(τ ).
(9.97)
Un processo di questo tipo è markoviano.
Per risolvere la (9.95) si risolve prima l’equazione omogenea associata
dv
= −αv,
dt
la cui soluzione generale è v = v0 e−αt ,
(9.98)
poi si cerca una soluzione particolare dell’equazione completa. Proviamo a vedere se esiste una
soluzione del tipo v(t) = w(t)e−αt , per la quale avremmo
dw −αt
e
− αw e−αt = −αw e−αt + F (t),
dt
una cui soluzione particolare è
w(t) =
La soluzione completa della (9.95) è quindi
v(t) = v0 e
−αt
Z
quindi
dw
= F (t) eαt ,
dt
(9.99)
t
′
F (t′ ) eαt dt′ .
(9.100)
0
+e
−αt
Z
t
′
F (t′ ) eαt dt′ ,
(9.101)
0
dove v0 è la velocità a t = 0. Facendo la media delle velocità sull’ensemble abbiamo
Z t
′
−αt
−αt
hv(t)i = v0 e
+e
hF (t′ )i
eαt dt′ = v0 e−αt .
| {z }
0
= 0 per la (9.96)
(9.102)
Calcoliamo il momento di primo ordine M1 (v) dalla (9.86)
hv(t + ∆τ ) − v(t)i
,
∆τ →0
∆τ
M1 (v) = lim
(9.103)
avremo
hv(t + ∆τ ) − v(t)i = hv(t + ∆τ )i − hv(t)i = v0 e−α(t+∆τ ) − v0 e−αt = v0 e−αt e−α∆τ − 1 .
(9.104)
92
CAPITOLO 9. PROCESSI STOCASTICI
Essendo ∆τ un tempo infinitesimo possiamo approssimare e−α∆τ − 1 ≈ −α∆τ , ottenendo
hv(∆τ ) − v0 i
v0 α∆τ −αt
= − lim
e
= −αv0 e−αt .
∆τ →0
∆τ →0
∆τ
∆τ
M1 (v) = lim
(9.105)
Sempre dalla (9.86) possiamo calcolare il momento di secondo ordine M2 (v)
Z +∞
h[v(∆τ ) − v0 ]2 i
1
[u − v0 ]2 P (v0 |u, ∆τ ) du = lim
M2 (v0 ) = lim
∆τ →0
∆τ →0 ∆τ −∞
∆τ
=
hv 2 (∆τ )i − 2v0 hv(∆τ )i + v02
.
∆τ →0
∆τ
(9.106)
lim
Ricordiamo che, per le (9.101) e (9.96)
hv(∆τ )i = v0 e
−α∆τ
+e
−α∆τ
Z
∆τ
′
eαt hF (t′ )i dt′ ≈ v0 (1 − α∆τ ),
| {z }
=0
0
mentre, per hv 2 (∆τ )i, abbiamo
2
hv (∆τ )i =
v02 e−2α∆τ
+e
=
−2α∆τ
Z
v02 e−2α∆τ
+e
−2α∆τ
+ 2e
Z
∆τ
′
hv0 F (t′ )ieαt dt′
0
∆τ
αt′
′
e F (t )dt
′
0
+ 2e
Z
−2α∆τ
−2α∆τ
∆τ
αt′
e dt
0
′
Z
(9.107)
Z
∆τ
e
αt′′
′′
F (t )dt
0
′′
∆τ
′
hv0 F (t′ )ieαt dt′
0
Z
∆τ
′′
eαt dt′′ hF (t′ )F (t′′ )i.
0
(9.108)
Se il sistema ha una memoria molto breve (cioè un tempo di correlazione molto piccolo), mentre
resterà comunque hv(t)F (t)i 6= 0, in generale avremo
e hF (t′ )F (t′′ )i = 0 se t′ 6= t′′ .
hv0 F (t)i = v0 hF (t)i = 0,
(9.109)
Quindi
hv (∆τ )i =
v02 e−2α∆τ
=
v02 e−2α∆τ
2
+e
−2α∆τ
+ 2Ce
Z
∆τ
0
−2α∆τ
= v02 e−2α∆τ + 2Ce−2α∆τ
Z
Z
∆τ
′
0
∆τ
′′
hF (t′ )F (t′′ )i eα(t +t ) dt′ dt′′
{z
}
|
= 2Cδ(t′ − t′′ )
′
e2αt ) dt′
0
e2α∆τ − 1
C
= v02 e−2α∆τ +
1 − e−2α∆τ
2α
α
≈ v02 (1 − 2α∆τ ) + 2C∆τ.
(9.110)
93
9.5. MOTO BROWNIANO
Inserendo nella (9.106) otteniamo
M2 (v(0)) =
=
1 2
v0 (1 − 2α∆τ ) + 2C∆τ − 2v02 (1 − α∆τ ) + v02
∆τ →0 ∆τ
lim
1
2C∆τ = 2C.
∆τ →0 ∆τ
(9.111)
lim
Calcoliamo il valor medio sull’ensemble di v(t)F (t)
Z t
−αt
−αt
αt′
′
′
hv(t)F (t)i =
v0 e
+e
e F (t ) dt F (t)
0
= e
−αt
= 2C.
hv0 F (t)i +e
| {z }
=0
−αt
Z
t
αt′
0
′
′
e hF (t)F (t )i dt = e
−αt
Z
t
′
0
eαt 2Cδ(t − t′ ) dt′
(9.112)
Ritorniamo all’equazione di Fokker-Planck (9.90), che nel nostro caso possiamo scrivere
∂
∂2
∂P (v0 |v, t)
= −α [v P (v0 |v, t)] + C 2 P (v0 |v, t)
∂t
∂v
∂v
(9.113)
Data la condizione iniziale a δ di Dirac lim P (v0 |v, t) = δ(v − v0 ), la soluzione è
t→0
P (v0 |v, t) = r
1
e
C
2π (1 − e−2αt )
α
−
"
−αt 2
(v − v0 e )
2 Cα (1 − e−2αt )
#
,
(9.114)
che, al limite t → ∞, ovvero t ≫ 1/α, diventa
P (v0 |v, t) ≈ r
1
C
2π
α
e−v
2 /(2C/α)
.
(9.115)
Questo limite è indipendente da v0 , quindi dalle condizioni iniziali, ed è scomparsa anche la
dipendenza dal tempo. Quindi se, dopo aver perturbato il sistema, aspetto un tempo grande
rispetto a 1/α, il sistema torna ad una situazione stazionaria.
Tra i possibili stati stazionari, uno è quello di equilibrio termodinamico, in cui la distribuzione delle velocità coincide con la distribuzione di Maxwell-Boltzmann
P (v) = A e−mv
2 /2kT
,
(9.116)
dove A è una costante di normalizzazione. Uguagliando i coefficienti otteniamo
v2
mv 2
,
=
2kT
2 Cα
da cui C =
kT α
,
m
α=
m
C
kT
(9.117)
94
CAPITOLO 9. PROCESSI STOCASTICI
che è la relazione di Einstein tra il termine di fluttuazione C e il termine dissipativo α.
Ricordando le (9.94), da cui γ = mα e f (t) = mF (t), e introducendo D = m2 C, abbiamo
γ=
D
,
kT
D = kT γ.
(9.118)
Notiamo poi che
hF (t)F (t + τ )i = 2Cδ(τ ),
da cui hf (t)f (t + τ )i = m2 hF (t)F (t + τ )i = 2Dδ(τ ).
(9.119)
Capitolo 10
Interazione radiazione-materia, II
10.1
Perturbazioni dipendenti dal tempo
10.1.1
Introduzione
Supponiamo di avere un sistema quantistico limitato spazialmente e isolato, descritto da una
certa hamiltoniana indipendente dal tempo Ĥ0 . Gli autostati di Ĥ0 sono numerabili e formano una base ortonormale e completa {|ni} dello spazio di Hilbert relativo al nostro sistema.
Ad ogni autostato |ni corrispondono un autovalore dell’energia En ed un’autofunzione d’onda
ϕn (q1 , . . . , qf ). Nella rappresentazione di Schrödinger, in cui gli operatori sono costanti mentre gli stati evolvono nel tempo, fintanto che il sistema rimane isolato gli autostati |ni sono
stazionari, cioè dipendono dal tempo secondo la relazione |n(t)i = e−iEn t/~ |ni.
Adesso supponiamo che il nostro sistema interagisca con un sistema esterno per un certo
intervallo di tempo τ . L’hamiltoniana completa del sistema diventa
F̂ (t)
se 0 ≤ t ≤ τ
Ĥ = Ĥ0 + V̂ (t),
con V̂ (t) =
(10.1)
0
se t < 0 oppure t > τ,
dove la forma di F̂ (t) dipende dalla particolare interazione con il particolare sistema esterno.
L’operatore V̂ (t) si chiama hamiltoniana di perturbazione, mentre l’operatore Ĥ0 si chiama
hamiltoniana imperturbata. Qui e in quanto segue faremo l’ipotesi che gli elementi diagonali di
F̂ , e quindi di V̂ , siano nulli. L’equazione di Schrödinger dipendente dal tempo diventa
h
i
∂
i~ |ψ(t)i = Ĥ0 + V̂ (t) |ψ(t)i,
(10.2)
∂t
e non ha soluzioni stazionarie. Ma, naturalmente, gli stati {|ni} continuano a costituire una
base ortonormale e completa per il nostro spazio di Hilbert. Nei casi più semplici F̂ (t) dipende
dal tempo attraverso un parametro esterno, come la distanza interatomica durante una collisione, o l’intensità e la frequenza di un campo oscillante nel caso dell’interazione con un’onda
elettromagnetica.
10.1.2
Probabilità di transizione
Per risolvere la (10.2) sfruttiamo il fatto che gli autostati dell’hamiltoniana imperturbata continuano a costituire una base completa anche in presenza della perturbazione, quindi, qualunque
95
96
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
sia lo stato |ψ(t)i del sistema, possiamo sempre scrivere
X
|ψ(t)i =
an (t)e−iEn t/~ |ni,
(10.3)
n
dove le an (t) sono delle funzioni complesse del tempo da determinare caso per caso, dette
ampiezze di probabilità. Senza perdita di generalità, da ogni ampiezza abbiamo estratto in
forma esplicita il fattore e−iEn t/~ perché cosı̀, in assenza di perturbazione, le an (t) sono costanti
nel tempo. Adesso facciamo l’ulteriore ipotesi che per t < 0, cioè prima che venga “accesa” la
perturbazione, il sistema si trovi nello stato stazionario |mi con energia Em . Quindi, per t < 0,
la (10.3) si scrive
|ψi (t)i = e−iEm t/~ |mi, con an (t) = δmn .
(10.4)
Dopo che l’interazione è stata spenta, cioè per t ≥ τ , i coefficienti an in generale saranno diversi
da δmn , ma sono comunque nuovamente indipendenti dal tempo. Ognuna di esse avrà un valore
an (τ ), dipendente dallo stato iniziale |mi, dal tipo di perturbazione F̂ (t) applicata, e dal tempo
τ durante il quale la perturbazione ha agito. Quindi lo stato finale del sistema sarà
X
|ψf (t)i =
an (τ ) e−iEn t/~ |ni,
t ≥ τ.
(10.5)
n
La probabilità di trovare il sistema nello stato |ni vale
Pn (τ ) = |an (τ )|2 ,
(10.6)
quindi la quantità |an (τ )|2 è la probabilità che, nel tempo τ , il sistema abbia fatto la transizione
dallo stato iniziale |mi allo stato finale |ni. Per determinare i coefficienti an (τ ) sostituiamo lo
sviluppo (10.3) nella (10.2), e svolgiamo i passaggi che seguono,
h
iX
∂ X
−iEr t/~
i~
ar e
|ri = Ĥ0 + V̂ (t)
an e−iEn t/~ |ni
∂t r
n
i~
r
i~
X
r
X
X
Er
− i ar e−iEr t/~ |ri =
an e−iEn t/~ En |ni +
an e−iEn t/~ V̂ (t)|ni
∂t
~
n
n
X ∂ar
e−iEr t/~
X
X
X
∂ar
|ri +
ar e−iEr t/~ Er |ri =
an e−iEn t/~ En |ni +
an e−iEn t/~ V̂ (t)|ni
∂t
r
n
n
i~
X
n
e−iEr t/~
X
∂ar
|ri =
an e−iEn t/~ V̂ (t)|ni.
∂t
n
(10.7)
Nell’ultima delle (10.7) moltiplichiamo primo e secondo membro a sinistra per hk| eiEk t/~ , dove
|ki è un qualunque autostato di Ĥ0 , e dividiamo entrambi i membri per i~, ottenendo
1 X
∂ak
=
an e−i(En −Ek )t/~ hk|V̂ (t)|ni.
∂t
i~ n
(10.8)
Fino a questo punto non abbiamo fatto approssimazioni. E’ possibile, in linea di principio,
integrare le equazioni e giungere ad una soluzione esatta. Questo si può fare facilmente se ci
97
10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO
sono solo due livelli energetici in gioco, e la soluzione cosı̀ ottenuta è utile per trattare problemi
simili, per esempio, a quello dell’inversione dell’ammoniaca. Nel paragrafo 10.5 vedremo invece
il casodi un sistema atomico a due livelli in interazione forte con il campo elettromagnetico. Ma
nel caso generale si preferisce procedere per approssimazioni successive, con un metodo detto
perturbativo, ponendo
(1)
(2)
an (τ ) = a(0)
n + an (τ ) + an (τ ) + . . . ,
con an (τ ) = δmn .
Tenendo conto dell’ipotesi (10.4), conviene separare il termine inizialmente non nullo am dal
resto della sommatoria della (10.8), scrivendo
"
#
X
1
∂ak
am e−i(Em −Ek )t/~ hk|V̂ (t)|mi +
an e−i(En −Ek )t/~ hk|V̂ (t)|ni .
(10.9)
=
∂t
i~
n6=m
Se, come ipotizzato, la perturbazione è piccola, gli an (t) sono poco diversi dai corrispondenti
an (0), quindi tutti gli an (t) con n 6= m sono piccoli rispetto a am (t) ≈ 1. Questo ci porta a
trascurare, come prima approssimazione, la sommatoria all’interno della parentesi quadra, e ci
rimane
∂ak
1
= e−i(Em −Ek ) t/~ hk|V̂ (t)|mi,
(10.10)
∂t
i~
(1)
che può essere integrata, ottenendo per il valore al primo ordine dell’ampiezza ak (τ ) alla fine
dell’interazione
Z
1 τ
(1)
ak (τ ) =
dt e−i(Em −Ek ) t/~ hk|V̂ (t)|mi.
(10.11)
i~ 0
(1)
E’ da notare che am (τ ) = 0, perché abbiamo fatto l’ipotesi che V̂ (t) sia diagonale su {|ni},
quindi hm|V̂ (t)|mi = 0. Se si desidera un’approssimazione migliore di quella al primo ordine,
il secondo ordine si ottiene non trascurando più la sommatoria della (10.9), ma sostituendo in
(1)
essa gli an (t) con i loro valori al primo ordine an (t)
"
#
X
1
∂ak
−i(En −Ek )t/~
=
a(0) e−i(Em −Ek ) t/~ hk|V̂ (t)|mi +
a(1)
hk|V̂ (t)|ni
(10.12)
n e
∂t
i~ m
n6=m
Integrando, il primo addendo dentro alla parentesi quadra ci ridà l’ampiezza al primo ordine
(1)
(2)
ak (τ ), mentre il secondo addendo ci dà l’ampiezza al secondo ordine ak (τ )
Z
1 X τ (1)
(2)
ak (τ ) =
a (t) e−i(En −Ek ) t/~ hk|V̂ (t)|ni dt.
(10.13)
i~ n6=m 0 n
(1)
Sostituendo il valore (10.11) per an (t) nella (10.13) otteniamo
Z t
Z
1 X τ
′
(2)
−i(En −Ek ) t/~
dt′ e−i(Em −En ) t /~ hn|V̂ (t′ )|mi.
dt e
hk|V̂ (t)|ni
ak (τ ) = − 2
~ n6=m 0
0
(10.14)
Le approssimazioni di ordine superiore possono essere ottenute iterativamente, sostituendo le
ampiezza calcolate fino all’ordine j nella (10.9) ed integrando per ottenere l’ordine j + 1. E’
da notare che la (10.14) descrive effettivamente un processo al secondo ordine, con il sistema
che passa prima dallo stato iniziale |mi ad uno stato intermedio |ni, per poi passare da |ni allo
stato finale |ki. Se gli elementi di matrice hf |V̂ |ii sono piccoli, la (10.11) ci dà un’espressione
al primo ordine negli elementi di matrice di V̂ , mentre la (10.14) è al secondo ordine.
98
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
10.1.3
Perturbazioni costanti
Un caso particolarmente semplice è quello in cui l’hamiltoniana di perturbazione V̂ , nulla per
t < 0 e per t > τ , è rappresentata da un operatore costante nel tempo (cioè, con elementi di
matrice costanti) F̂ , durante l’intervallo 0 ≤ t ≤ τ . In questo caso, sempre con l’ipotesi che
lo stato iniziale sia l’autostato |mi di Ĥ0 , possiamo portare fuori dall’integrale della (10.11)
l’elemento di matrice costante, ottenendo
(1)
ak (τ )
1
= hk|F̂ |mi
i~
Z
τ
0
1
eiωkm τ − 1
eiωkm t dt = − hk|F̂ |mi
~
ωkm
(10.15)
dove abbiamo posto ωkm = (Ek − Em )/~. Quindi, una volta spenta la perturbazione, la
probabilità che il sistema sia passato dallo stato iniziale |mi allo stato finale |ki è
2 [1 − cos(ω τ )]
2 (1) 2
km
Pkm = ak (τ ) = 2 hk|F̂ |mi
,
2
~
ωkm
ponendo
γkm =
ωkm
Ek − Em
=
2
2~
(10.16)
(10.17)
abbiamo
1 − cos(ωkm τ ) = 1 − cos(2γkm τ ) = cos2 (γkm τ ) + sin2 (γkm τ ) − cos(2γkm τ )
= cos2 (γkm τ ) + sin2 (γkm τ ) − cos2 (γkm τ ) + sin2 (γkm τ )
= 2 sin2 (γkm τ ),
(10.18)
da cui
2 2 sin2 (γ τ )
2 4 sin2 (γ τ )
1 2 km
km
=
hk|
F̂
|mi
hk|
F̂
|mi
2
2
2
2
~
ωkm
~
4γkm
γ τ
km
2
2
sin π
1 1 2 sin (γkm τ )
2 2
π
= 2 hk|F̂ |mi τ
= 2 hk|F̂ |mi
2
2
γ
τ2
~
γkm
~
π 2 km2
π
2
2
1 1 2
2
2 γkm τ
2 (Ek − Em ) τ
= 2 hk|F̂ |mi τ sinc
= 2 hk|F̂ |mi τ sinc
~
π
~
2π~
2
1 Ek − Em
2
2
= 2 hk|F̂ |mi τ sinc
τ ,
(10.19)
~
h
Pkm =
dove la funzione sinc2 (x), il cui grafico è rappresentato in fig. 10.1, è il quadrato della funzione
sinc(x) che abbiamo incontrato nel paragrafo 8.4.
99
10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO
sinc2 (x)
La funzione è simmetrica e sempre positiva, e
ha un massimo per x = 0,
dove vale 1. Si annulla per
tutti i valori interi di x,
tranne x = 0. La regione
compresa tra il massimo e
il primo zero ha ampiezza
x
h
∆E = ,
τ
−7
(10.20)
−6
−5
−4
−3
−2
−1
1
2
3
4
5
6
7
Figura 10.1: La funzione sinc2 (x).
per cui, se il tempo di interazione τ è molto lungo,
l’ampiezza ∆E è molto stretta. Ricordando che
Z +∞
π
sinc2 (ax) dx =
a
−∞
(10.21)
otteniamo
τ
πh
Z
+∞
−∞
τ
sinc2 x
dx = 1,
h
da cui
lim
τ →∞
τ
τ
sinc2 (x ) = δ(x).
πh
h
δτ (x)
Adesso definiamo la funzione δτ (x),
graficata in fig. 10.2,
τ
τ
2
δτ (x) =
sinc x
. (10.23)
πh
h
(10.22)
τ
πh
La funzione δτ (x) ha le proprietà
Z +∞
δτ (x) dx = 1
−∞
e
lim δτ (x) = δ(x).
τ →∞
Abbiamo cosı̀
τ πh
δτ (x),
=
sinc2 x
h
τ
x
− hτ
(10.24)
h
τ
Figura 10.2: La funzione δτ (x).
che, inserita nella (10.19), ci dà
Pkm =
2π 2
~
2
hk|
F̂
|mi
τ δτ (Ek − Em ).
(10.25)
Nella (10.25) la funzione δτ (Ek − Em ) esprime la conservazione dell’energia con una indeterminazione h/τ , legata alla durata finita dell’interazione. Se abbiamo una hamiltoniana di
perturbazione costante nel tempo e di durata infinita, la conservazione dell’energia ci permette
di raggiungere solo stati finali |ki che abbiano la stessa energia dello stato iniziale |mi.
100
10.1.4
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
Perturbazioni periodiche
ndexPeriodiche, perturbazioni
Un secondo caso importante è quello delle perturbazioni periodiche nel tempo. Qui abbiamo
una hamiltoniana di perturbazione della forma
+ −iωt
F̂ e
+ F̂ − e+iωt
se 0 ≤ t ≤ τ
V̂ (t) =
(10.26)
0
se t < 0 oppure t > τ,
dove F̂ è una matrice costante nel tempo. L’hamiltoniana deve essere hermitiana, quindi sarà
F̂ − = (F̂ + )† ,
ovvero ha|F̂ − |bi = hb|F̂ + |ai∗
∀ a, b.
(10.27)
Ancora una volta supponiamo che prima dell’accensione della perturbazione il sistema si trovi
nell’autostato |mi di Ĥ0 . Se nella (10.11) poniamo ωkm = (Ek − Em )/~ e sostituiamo la (10.26)
per V̂ nell’integrale a secondo membro, otteniamo
Z
1 τ
(1)
ak (τ ) =
dt eiωkm t hk|F̂ + e−iωt + F̂ − e+iωt |mi
i~ 0
Z τ
Z τ
1
i(ωkm +ω)t
i(ωkm −ω)t
−
+
dt e
dt e
+ hk|F̂ |mi
hk|F̂ |mi
=
i~
0
0
"
#
i(ωkm +ω)τ
i(ωkm −ω)τ
1
e
−
1
e
−
1
= − hk|F̂ + |mi
+ hk|F̂ − |mi
.
(10.28)
~
ωkm − ω
ωkm + ω
La probabilità di transizione al primo ordine si ottiene calcolando il modulo quadro della (10.28).
Esistono due casi particolari di interesse, uno quando ω ≈ ωkm , e l’altro quando ω ≈ −ωkm . Nel
primo caso abbiamo Ek > Em , cioè lo stato finale |ki ha energia maggiore dello stato iniziale
|mi, e ω ≈ (Ek − Em )/~. Essendo |ωkm − ω| molto piccolo, il primo termine tra parentesi
quadra è dominante rispetto al secondo, che può essere trascurato: questa è l’approssimazione
di onda rotante. Abbiamo cosı̀
ei(ωkm −ω) τ − 1
1
(1)
ak (τ ) ≈ − hk|F̂ + |mi
~
ωkm − ω
(10.29)
In questa approssimazione abbiamo, con procedimento analogo a quello della (10.18)
2
h
1 τi
(1) 2
2
+
2
Pkm (τ ) = ak (τ ) ≈ 2 hk|F̂ |mi τ sinc (Ek − Em − hν)
~
h
2
2π 2 +
=
hk|
F̂
|mi
(10.30)
τ δτ (Ek − Em − hν).
~
Quindi, partendo da uno stato iniziale |mi con energia Em , si arriva ad uno stato finale |ki di
energia Ek = Em + ~ω entro i limiti dell’indeterminazione tempo-energia. E’ da notare che, se
il sistema fosse stato inizialmente nello stato a energia più alta |ki,
dato
la (10.30)
2 ci avrebbe
2
+
+
la probabilità di transizione allo stato più basso |mi, dato che hk|F̂ |mi = hm|F̂ |ki .
10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO
101
Ripetendo i conti nell’altro caso di interesse, cioè per Ek < Em e ω ≈ −ωkm , questa volta è
|ωkm + ω| ad essere molto piccolo rispetto a |ωkm − ω|, ed è il primo termine della parentesi
quadra della (10.28) che può essere trascurato, ottenendo
Pkm (τ ) ≈
2
2π 2 hk|F̂ − |mi τ δτ (Em − Ek − hν),
~
(10.31)
che ci dà la probabilità di transizione allo stato |mi o allo stato |ki, a seconda di quale era lo
stato iniziale. E’ da notare che, data la (10.27), abbiamo
2
2 (10.32)
hk|F̂ − |mi = hk|F̂ + |mi .
Ad una perturbazione periodica sono quindi associati quanti di energia di valore ~ω = hν.
Nelle transizioni si ha conservazione dell’energia entro l’indeterminazione tempo-energia, tenendo conto anche dell’assorbimento o dell’emissione di un quanto. E’ importante notare che siamo
giunti a questo risultato trattando come quantizzati i livelli energetici del nostro sistema materiale, ma senza quantizzare esplicitamente la radiazione. Questo è il cosiddetto trattamento semiclassico dell’interazione radiazione-materia. E’ infine da notare che le perturbazioni
costanti nel tempo, discusse nella sezione 10.1.3, sono un caso particolare delle perturbazioni
periodiche, con frequenza angolare ω = 0.
10.1.5
Transizioni in uno spettro continuo
Un sistema quantistico limitato spazialmente ha uno spettro discreto di autovalori dell’energia,
mentre se il sistema non è limitato lo spettro degli autovalori dell’energia è continuo. Un’applicazione importante della teoria delle perturbazioni è il calcolo della probabilità di transizione
tra stati dello spettro continuo. Gli stati dello spettro continuo sono quasi sempre degeneri, e
questo rende possibile la transizione tra uno stato iniziale ed uno stato finale della stessa energia
dovuto ad una perturbazione costante. Un esempio è costituito da un fenomeno di scattering,
in cui una particella cambi la direzione di propagazione conservando l’energia.
Un altro caso di interesse è quando una perturbazione periodica del tipo (10.26) induce una
transizione da uno stato iniziale discreto |mi ad uno stato finale |αi dello spettro continuo, con
Eα > Em . Naturalmente, α varia con continuità. Analogamente alla (10.3) per il caso dello
spettro discreto, adesso uno stato generico |ψi del sistema può essere scritto
Z
|ψ(t)i = dα aα (t)e−iEα t/~ |αi
(10.33)
dove gli |αi costituiscono una base ortonormale completa nel continuo. La condizione di
normalizzazione degli stati impone che sia
Z
|aα |2 dα = 1.
(10.34)
La (10.28) si riscrive
a(1)
α (τ ) ≈
1
ei(ωαm −ω)τ − 1
hα|F̂ + |mi
i~
i(ωαm − ω)
(10.35)
102
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
perché il termine contenente l’elemento di matrice hα|F̂ − |mi può essere trascurato, essendo
ωαm = (Eα − Em )/~ > 0. Inoltre alla transizione saranno interessati solo gli stati |αi del
continuo con energia Eα ≈ Em + ~ω. Per la probabilità di transizione avremo
2
h
1 τi
Pαm (τ ) ≈ 2 hα|F̂ + |mi τ 2 sinc2 (Eα − Em − hν)
,
(10.36)
~
h
che possiamo riscrivere
2
2π 2 (10.37)
Pαm =
hα|F̂ |mi τ δτ (Eα − Em − hν).
~
La quantità dwαm = Pαm (τ ) dα/τ esprime la probabilità di transizione per unità di tempo dallo
stato iniziale |mi ad uno stato nell’intervallo (α, α + dα). Abbiamo
2
2π 2 (10.38)
dwαm =
hα|F̂ |mi δτ (Eα − Em − hν) dα.
~
Come potevamo attenderci, al limite τ → ∞ la probabilità di transizione è zero tranne che per
gli stati con energia esattamente uguale a Eα = Em + ~ω.
10.1.6
Regola d’oro di Fermi
Spesso esiste una distribuzione di autostati dell’hamiltoniana imperturbata molto vicini in
energia tra loro, e la transizione che ci interessa avviene dallo stato iniziale |mi alla distribuzione
di possibili stati finali. La situazione diventa quindi analoga a quanto visto nel paragrafo 10.1.5
sulle transizioni allo spettro continuo. La distribuzione degli stati finali sarà caratterizzata da
una densità normalizzata ρ(Ek ), cioè il numero dn(Ek ) di autostati di Ĥ0 con energia compresa
tra Ek ed Ek + dEk sarà
Z
dn(Ek ) = C ρ(Ek )dEk , con C tale che
ρ(Ek ) dEk = 1.
(10.39)
Facciamo l’ipotesi che la distribuzione ρ(Ek ) sia centrata attorno ad un certo valore centrale E k ,
con una certa larghezza ∆Ek = ~∆ωk . Facciamo inoltre l’ipotesi che sia ρ(Ek ) che l’elemento
di matrice hk|V̂ |mi varino lentamente attorno allo stato centrale della distribuzione. Quello che
ci interessa è la probabilità di transizione totale dallo stato iniziale |mi agli stati |k ′ i attorno a
|ki
X
Pk′ m .
(10.40)
P km =
k′
La somma può essere sostituita da un integrale in dEk , ottenendo
Z
2
2π 2 P km =
hk|F̂ |mi τ δτ (Ek − Em − ~ω)ρ(Ek ) dEk
~
(10.41)
nel caso di una perturbazione periodica di frequenza ω. Per una perturbazione costante durante
il tempo di accensione basta porre ω = 0. Se l’elemento di matrice hk|F̂ |mi non varia troppo
rapidamente può essere portato fuori dall’integrale ottenendo
2 Z
2π 2 (10.42)
P km =
hk|F̂ |mi τ δτ (Ek − Em − ~ω)ρ(Ek ) dEk .
~
Esistono due casi estremi in cui il calcolo dell’integrale (10.42) è particolarmente facile:
10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO
103
i. quando la larghezza ∆Ek della funzione di distribuzione ρ(Ek ) è molto maggiore della
larghezza in energia della δτ ;
ii. quando la larghezza ∆Ek della funzione di distribuzione ρ(Ek ) è molto minore della
larghezza in energia della δτ .
Consideriamo prima il caso (i). La larghezza in energia della δτ , cioè h/τ , è molto minore di
∆Ek , quindi
h
h
1
2π
≪ ∆Ek , da cui τ ≫
=
=
.
(10.43)
τ
∆Ek
∆νk
∆ωk
Quindi, la perturbazione è accesa per un tempo lungo. In questo caso la densità degli stati è
praticamente costante su tutto l’intervallo in cui la δτ è significativamente diversa da zero, e la
ρ(Ek ) può essere calcolata sul valore centrale dell’energia E k e portata fuori dall’integrale:
P km
Z
2
2π 2 =
hk|F̂ |mi ρ(E k ) τ δτ (Ek − Em − ~ω) dEk
~
=
2
2π 2 hk|F̂ |mi ρ(E k ) τ
~
(10.44)
dove abbiamo usato il fatto che l’intervallo di integrazione è sufficientemente lungo perché
l’integrale della δτ sia praticamente 1. Questa espressione per P km è conosciuta sotto il nome
di regola d’oro di Fermi. La probabilità di transizione P km della (10.44) è proporzionale alla
durata dell’interazione τ , ed è possibile definire una probabilità di transizione per unità di
tempo W km
2
P km
2π 2 W km =
(10.45)
=
hk|F̂ |mi ρ(E k ).
τ
~
Il secondo caso in cui è facile il calcolo dell’integrale della (10.42) è quando la larghezza
della distribuzione degli stati finali è molto stretta rispetto alla larghezza in energia della δτ ,
cioè quando
h
h
1
2π
≫ ∆Ek , da cui τ ≪
=
=
.
(10.46)
τ
∆Ek
∆νk
∆ωk
In questo caso è la funzione δτ che può essere considerata costante nell’intervallo di energia
dove la densità degli stati è apprezzabilmente diversa da zero. La (10.42) si riscrive cosı̀
P km
Z
2
2π 2 =
hk|F̂ |mi τ δτ (Ek − Em − ~ω) ρ(Ek ) dEk ,
~
(10.47)
che, data la condizione di normalizzazione sulla ρ(Ek ) diventa
2
2
1 Ek − Em − ~ω
2
2
P km
τ .
hk|F̂ |mi τ δτ (Ek − Em − ~ω) = 2 hk|F̂ |mi τ sinc
~
h
(10.48)
Questa espressione è valida per tempi di interazione τ brevi.
2π 2
=
~
104
10.2
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
Perturbazioni periodiche al secondo ordine
In presenza di una perturbazione periodica di frequenza ω del tipo (10.26) le ampiezze di
probabilità di transizione al primo ordine dallo stato iniziale |mi ad uno stato finale |ni sono,
secondo la (10.29),
ei(ωnm ∓ω) t − 1
1
±
hn|
F̂
|mi
,
(10.49)
a(1)
(t)
≈
n
i~
i(ωnm ∓ ω)
dove nei simboli ± e ∓ vale il segno superiore se En > Em e la frequenza ω della perturbazione è
in prossimità di (En − Em )/~, il segno inferiore se En < Em e ω ≈ (Em − En )/~. Abbiamo visto
(1)
che per ω lontana da questi valori l’ampiezza an (t) è trascurabile. Per ottenere l’ampiezza al
secondo ordine sostituiamo la (10.49) nella (10.13) ottenendo
(2)
ak (τ )
Z
ei(ωnm ∓ω) t − 1 −i(En −Ek ) t/~
1 X τ
±
hn|F̂ |mi
= − 2
e
hk|V̂ (t)|ni dt
~ n6=m 0
i(ωnm ∓ ω)
Z
1 X τ
ei(ωnm ∓ω) t − 1 iωkn t
±
= − 2
hn|F̂ |mi
e
hk|F̂ ± |ni e∓iωt dt
~ n6=m 0
i(ωnm ∓ ω)
Z
i X hk|F̂ ± |nihn|F̂ ± |mi τ i(ωnm ∓ω) t
e
− 1 ei(ωkn ∓ω) t dt,
= 2
~ n6=m
ωnm ∓ ω
0
(10.50)
dove va tenuto presente che nell’elemento di matrice hf |F̂ ± |ii compare F̂ + se Ef > Ei , altrimenti compare F̂ − . Anche negli esponenti all’interno dell’integrale va preso il segno superiore se,
rispettivamente, Ek > En oppure En > Em , il segno inferiore altrimenti. Di questo dobbiamo
tener conto sviluppando il prodotto all’interno dell’integrale. Supponendo che sia Ek > Em ,
possiamo spezzare la sommatoria su n in tre parti, a seconda che l’energia dello stato |ni sia
minore di Em (En < Em ), compresa tra Em ed Ek (Em < En < Ek ) o maggiore di Ek (En > Ek )
(2)
ak (τ )
i
= 2
~
X
hk|F̂ + |nihn|F̂ − |mi
ωnm + ω
n6=m
En <Em
i
+ 2
~
X
n6=m
Em <En <Ek
i
+ 2
~
X
n6=m
En >Ek
Z
τ
0
hk|F̂ + |nihn|F̂ + |mi
ωnm − ω
hk|F̂ − |nihn|F̂ + |mi
ωnm − ω
Z
τ
0
eiωkm t − ei(ωkn −ω)t dt
Z
τ
0
ei(ωkm −2ω) t − ei(ωkn −ω)t dt
eiωkm t − ei(ωkn +ω)t dt,
(10.51)
dove nel primo addendo del secondo membro è negativa ωnm , mentre nell’ultimo addendo è
negativa ωkn . Il caso Ek < Em si ottiene dalla (10.51) con opportuni cambiamenti di segno.
105
10.2. PERTURBAZIONI PERIODICHE AL SECONDO ORDINE
Per gli integrali che appaiono nella (10.51) abbiamo
Z
τ
0
ei(ωkm −2ω) τ − 1 ei(ωkn −ω) τ − 1
−
,
ei(ωkm −2ω) t − eiωkn −ω dt =
i(ωkm − 2ω)
i(ωkn − ω)
Z
τ
0
da cui
(2)
ak (τ )
eiωkm τ − 1 ei(ωkn ∓ω) τ − 1
eiωkm t − eiωkn ∓ω dt =
−
,
iωkm
i(ωkn ∓ ω)
1 X
= 2
~ E <E
n
1
+ 2
~
m
hk|F̂ + |nihn|F̂ − |mi
ωnm + ω
X
Em <En <Ek
"
hk|F̂ + |nihn|F̂ + |mi
ωnm − ω
1 X hk|F̂ − |nihn|F̂ + |mi
+ 2
~ E >E
ωnm − ω
n
k
eiωkm τ − 1 ei(ωkn −ω) τ − 1
−
ωkm
(ωkn − ω)
"
"
(10.52)
#
ei(ωkm −2ω) τ − 1 ei(ωkn −ω) τ − 1
−
(ωkm − 2ω)
(ωkn − ω)
#
eiωkm τ − 1 ei(ωkn +ω) τ − 1
.
−
ωkm
(ωkn + ω)
#
(10.53)
E’ da notare che, data la presenza di due addendi in ogni parentesi quadra, nella (10.53)
compaiono in realtà 6 sommatorie. Per il calcolo della probabilità di transizione al secondo
ordine dobbiamo tener conto delle ampiezza di probabilità sia al primo ordine che al secondo
ordine:
2
(1)
(2) (12)
(10.54)
Pkm = akm + akm .
(12)
(2)
Lo sviluppo di Pkm è cosı̀ decisamente complesso, data l’espressione (10.53) per akm . Ma
vedremo che considerazioni sulla conservazione dell’energia porteranno a trascurare vari termini
dello sviluppo della (10.54), in particolare i “termini di interferenza”, nella maggior parte dei
casi di interesse fisico. Cominciamo considerando, separatamente, i moduli quadri dei primi
addendi all’interno delle parentesi quadre della (10.53) che, essendo indipendenti da n, possono
essere portati fuori dalle sommatorie. Se questi fossero gli unici termini che contribuiscono alla
transizione, con procedimento analogo a quello che ci ha portati alla (10.25), otterremmo per
(12)
(12)
la probabilità di transizione per unità di tempo Wkm = Pkm /τ
(12)
Wkm
2
2π X hk|F̂ ± |nihn|F̂ ∓ |mi = 3
δτ (Ek − Em )
~ ωnm ± ω
En <Em
En >Ek
(10.55)
come somma dei termini alla prima e alla terza riga della (10.53). La presenza di δτ (Ek − Em )
ci dice che questa espressione contribuisce significativamente solo se l’energia dello stato finale
è molto vicina all’energia dello stato iniziale. Questo è dovuto alla presenza del prodotto di
elementi di matrice hk|F̂ ± |nihn|F̂ ∓ |mi, che comporta l’assorbimento di un quanto di energia
106
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
~ω e la sua successiva riemissione, o il processo in ordine inverso, finendo in uno stato con la
stessa energia dello stato iniziale.
Consideriamo adesso il primo addendo dentro alla parentesi quadra della seconda riga della
(10.53). Se questo fosse l’unico a contribuire avremmo
2
X
+
+
2π
hk|
F̂
|nihn|
F̂
|mi
(12)
Wkm = 3 (10.56)
δτ (Ek − Em − 2~ω).
~ ωnm − ω
Em <En <Ek
La funzione δτ ci dà la conservazione dell’energia, entro il limite dell’indeterminazione energia-tempo, dallo stato iniziale |mi
allo stato finale |ki con l’assorbimento di due quanti di energia
~ω
~ω. La variazione dell’energia avviene applicando due volte l’operatore F̂ + di interazione con il campo elettromagnetico, per cui
|ni
sono assorbiti due quanti, ognuno di energia ~ω, come schema~ω
tizzato in fig. 10.3. Questo fenomeno era stato previsto nel 1931
|mi
da Maria Göppert-Mayer nella nella sua tesi di dottorato (ProFigura 10.3: Assorbimento motion), ed è stato osservato per la prima volta trent’anni dopo,
grazie all’introduzione del laser, prima in un cristallo drogato di
di due fotoni.
europio, poi nel vapore di cesio. Il denominatore sotto al prodotto di elementi di matrice nella (10.56) ci dice che al processo contribuiranno di più gli stati
intermedi |ni la cui energia En è più vicina al valore Em + ~ω. Nel caso Ek < Em la (10.56)
diventa
2
X
−
−
2π
hk|
F̂
|nihn|
F̂
|mi
(12)
Wkm = 3 δτ (Em − Ek − 2~ω),
~ ωnm + ω
|ki
Em >En >Ek
che corrisponde alla transizione da |mi a |ki mediante l’emissione stimolata di due quanti
ognuno di energia ~ω.
Passiamo adesso a considerare i secondi ad|ni
dendi all’interno delle parentesi quadre della
(10.53). Sempre nell’ipotesi che sia Ek > Em , il
~ω2
termine alla prima riga continua a descrivere l’e|ki
missione stimolate di un quanto seguita da un as~ω1
sorbimento, quello alla seconda riga descrive due
assorbimenti consecutivi, e quello alla terza riga
un assorbimento seguito da un’emissione stimo|mi
lata. Ma un’occhiata ai denominatori che compaiono uno sotto al prodotto degli elementi di
Figura 10.4: Effetto Raman.
matrice, e l’altro al secondo termine dentro alla
parentesi quadra, ci dice che in ognuno di questi processi abbiamo a che fare con due quanti di energia diversa. Dobbiamo quindi avere un’hamiltoniana di perturbazione che, durante
l’accensione, abbia la forma
V̂ (t) = F̂1+ e−iω1 t + F̂1− eiω1 t + F̂2+ e−iω2 t + F̂2− eiω2 t ,
(10.57)
con le opportune relazioni tra F̂1+ , F̂1− , F̂2+ , e F̂2− perché V̂ (t) sia hermitiano. Se, per esempio,
l’unico termine a contribuire alla transizione fosse quello relativo all’ultima riga della (10.53),
107
10.3. TRANSIZIONI DI DIPOLO ELETTRICO
avremmo
(12)
Wkm
2
−
+
X
hk|F̂2 |nihn|F̂1 |mi 2π = 3
δτ (En − Ek − ~ω2 ),
~ E >E
ωnm − ω1
n
(10.58)
k
che corrisponde all’effetto Raman stimolato. L’effetto Raman, osservato prima in liquidi e
cristalli, è uno scattering inelastico di un fotone, in cui l’energia del fotone scatterato subisce
una variazione, normalmente una diminuzione dovuta al trasferimento di parte dell’energia
al sistema “scatterante”. Nel caso dell’effetto Raman stimolato, schematizzato in fig. 10.4,
l’assorbimento del fotone di frequenza angolare ω1 è seguito da un’emissione stimolata indotta
dalla componente a frequenza ω2 del campo elettromagnetico. Nella sommatoria della (10.58),
gli stati intermedi |ni che contribuiscono di più al processo sono quelli che hanno l’energia En
contemporaneamente più vicina a Em + ~ω1 e a Ek + ~ω2 .
10.3
Transizioni di dipolo elettrico
La forma completa dell’hamiltoniana di interazione tra un atomo ed un campo elettromagnetico
è abbastanza complicata. Per una prima discussione sono sufficienti le approssimazioni che
b
seguono. L’operatore momento di dipolo elettrico P~ per un atomo neutro può essere scritto
Z
X
b
b
~ −e
P~ = ZeR
~rbi ,
(10.59)
i=1
b
~ è l’operatore posizione del nucleo e gli ~rbi sono gli operatori
dove Z è il numero atomico, R
posizione dei singoli elettroni nel sistema di riferimento del laboratorio. Trascurando il moto
del nucleo e scegliendo un sistema di riferimento con l’origine sul nucleo stesso, che è lo stesso
sistema di riferimento usato per scrivere le funzioni d’onda elettroniche dell’atomo, la (10.59)
può essere riscritta
Z
X
b
~
P = −e
~rbi ,
(10.60)
i=1
b
dove, questa volta, gli ~rbi sono gli operatori posizione degli elettroni rispetto al nucleo. P~ è un
operatore vettoriale, con tre componenti P̂x , P̂y e P̂z
P̂x = −e
Z
X
i=1
x̂i ,
P̂y = −e
Z
X
i=1
ŷi ,
P̂z = −e
Z
X
ẑi ,
(10.61)
i=1
che si trasformano come le componenti di un vettore per rotazioni degli assi. Per come è definito,
b
P~ è un operatore dispari, cioè cambia segno per una trasformazione di parità che mandi ~r in
b
−~r. Di conseguenza, se |ψi ha una parità definita, P~ |ψi ha parità opposta a |ψi. Poiché per un
atomo, in generale, gli autostati |ni dell’hamiltoniana imperturbata Ĥ0 hanno parità definita,
avremo sempre
b
hn|P~ |ni = 0.
(10.62)
108
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
~ l’hamiltoniana di interazione si può
In presenza di un campo elettrico esterno uniforme E
scrivere
b
~ ·P
~.
V̂ = −E
(10.63)
Consideriamo adesso un’onda elettromagnetica piana, monocromatica di frequenza angolare ω,
polarizzata linearmente, che si propaghi lungo l’asse z, con il campo elettrico diretto lungo
l’asse x ed il campo magnetico diretto lungo l’asse y. Avremo
~ t) = E
~ 0 cos(kz − ωt + ϕ),
E(z,
(10.64)
dove k = 2π/λ è il vettore d’onda, o meglio, la componente z del vettore d’onda, che nel nostro
caso è l’unica diversa da zero, e ϕ è una fase. La funzione d’onda degli elettroni dell’atomo
è sensibilmente diversa da zero in una regione di dimensioni lineari dell’ordine di grandezza
del raggio di Bohr, a0 ≈ 5 × 10−11 m, mentre la lunghezza d’onda delle radiazioni visibili è
dell’ordine di 6 × 10−7 m. Il campo elettrico dell’onda può quindi essere considerato uniforme
su tutta l’estensione di interesse delle funzioni d’onda dell’atomo. L’hamiltoniana di interazione
tra l’atomo e la radiazione può cosı̀ essere approssimata dall’espressione
b ~
V̂ = P~ · E
0 cos(ωt),
nel nostro caso V̂ = P̂x E0 cos(ωt),
(10.65)
una volta scelta l’origine dei tempi in modo che sia ϕ = π, per liberarci del segno meno. Per
gli elementi di matrice abbiamo
hk|V̂ |mi = hk|P̂x |mi E0 cos(ωt),
(10.66)
e possono essere diversi da zero solo se la parità di |ki è diversa dalla parità di |mi. Come al
solito, facciamo l’ipotesi che sia Ek > Em . La (10.66) può essere riscritta
hk|V̂ |mi = hk|P̂x |mi
E0 −iωt
e
+ e+iωt ,
2
(10.67)
che è un caso particolare della (10.26). Per semplicità, supponiamo di avere un atomo con due
soli stati |1i e |2i, con E2 > E1 , e che inizialmente l’atomo si trovi nello stato a energia più
bassa |1i. Con una trattazione del tutto analoga a quella del paragrafo 10.1.4, otteniamo che
il termine in e+iωt può essere trascurato rispetto al termine in e−iωt (approssimazione di onda
rotante), ed otteniamo per la probabilità di transizione dovuta alla nostra onda monocromatica
2
π 2 P21 (τ ) =
h2|P̂x |1i E02 τ δτ (E2 − E1 − hν).
2~
(10.68)
Ad un’onda piana monocromatica è associata una densità di energia elettrica per unità di
volume wel
ε0
ε0
(10.69)
wel = E 2 = E02 ,
2
4
e ricordando la relazione tra i campi elettrico e magnetico di un’onda piana By = Ex /c, vista
nel paragrafo 8.2, abbiamo anche una densità di energia magnetica per unità di volume wmag
wmag =
1
1
ε0
B2 =
E02 = E02 ,
2
2µ0
2µ0 c
4
(10.70)
109
10.4. ASSORBIMENTO, EMISSIONE STIMOLATA E SPONTANEA
quindi, per la densità volumica di energia totale w associata all’onda abbiamo
ε0
w = wel + wmag = E02 .
2
Sostituendo nella (10.68) otteniamo
2
π 2 P21 (τ ) =
h2|P̂x |1i w τ δτ (E2 − E1 − hν).
~ε0
10.4
(10.71)
(10.72)
Assorbimento, emissione stimolata e spontanea
Quanto sviluppato nel paragrafo precedente ci permette di riconsiderare la sezione 7.1 sulla
derivazione della formula di Planck da parte di Einstein. Nel caso della radiazione di corpo nero,
la radiazione non è monocromatica, ma abbiamo una distribuzione spettrale della densità di
energia radiante per unità di volume u(ν). Cominciamo considerando un’onda elettromagnetica
che, come nel paragrafo precedente, si propaghi lungo l’asse z e sia polarizzata lungo l’asse x ma,
invece di essere monocromatica, sia caratterizzata da una densità spettrale u(ν). Il contributo
alla probabilità di transizione Pkm delle componenti a frequenza compresa tra ν e ν + dν è
2
π 2 dP21 (τ ) =
(10.73)
h2|
P̂
|1i
u(ν) dν τ δτ (E2 − E1 − hν),
x
~ε0
e la probabilità di transizione complessiva è data dall’integrale
2 Z +∞
π 2 P21 (τ ) =
u(ν) δτ (E2 − E1 − hν) dν.
h2|P̂x |1i τ
~ε0
−∞
(10.74)
che corrisponde ad una probabilità di transizione per unità di tempo
2 E − E P21 (τ )
π 2
1
W21 =
.
= 2 h2|P̂x |1i u
τ
2~ ε0
h
(10.76)
Data la forma della δτ , alla transizione contribuiscono solo le frequenza ν prossime a (E2 −E1 )/h.
Se facciamo l’ipotesi che la u(ν) sia praticamente costante nella regione attorno a (E2 −E1 )/h in
cui la δτ è apprezzabilmente diversa da zero, e integriamo ricordando che dν = dE/h, otteniamo
2 E − E τ
2 E − E π π 2 2
1
2
1
τ,
(10.75)
= 2 h2|P̂x |1i u
P21 (τ ) =
h2|P̂x |1i u
~ε0
h
h
2~ ε0
h
Vogliamo confrontare la (10.76) con la (7.1) per il coefficiente di Einstein per l’assorbimento.
Per far questo dobbiamo considerare un gas di N atomi (o molecole) per unità di volume. Ad un
certo istante, N1 atomi saranno nello stato |1i e N2 nello stato |2i. Inoltre, le funzioni d’onda
elettroniche dei singoli atomi saranno orientate in modo causale. Se chiamiamo
2
~e il versore
di polarizzazione dell’onda elettromagnetica, nella (10.76) dobbiamo sostituire h2|P̂x |1i con
2 2
b
b
b
~
~
l’espressione ~e · h2|P |1i = cos ϑ h2|P |1i , dove ϑ è l’angolo tra ~e e il vettore h2|P~ |1i. Tenendo
presente che, per gli atomi del gas, tutte le orientazioni sono equiprobabili, otteniamo
*
2 +
b 2
b
~ |1i = 1 h2|P
~ |1i ,
cos ϑ h2|P
(10.77)
3
110
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
da cui
dN1→2
= B21 u
dt
E2 − E1
h
π
N1 = N1
6 ~2 ε0
b 2
E
−
E
2
1
h2|P~ |1i u
.
h
(10.78)
Come nella (7.1), il termine B21 indica il coefficiente di assorbimento per la transizione |1i → |2i.
Otteniamo quindi la seguente relazione tra il coefficiente di assorbimento di Einstein e l’elemento
di matrice per la transizione di dipolo elettrico
2
π b
~
B21 =
(10.79)
h2|P |1i .
2
6 ~ ε0
La relazione è apparentemente semplice, ma va ricordato che il calcolo degli elementi di mab
trice di P~ richiede una conoscenza, analitica o numerica, delle funzioni d’onda atomiche, che,
normalmente, non è disponibile. Sono tuttavia possibili numerose considerazioni sulle regole di
selezione.
Nel paragrafo 7.1 avevamo ottenuto l’equazione (7.12) per il coefficiente di Einstein per
l’emissione spontanea.
3
8πhν21
A12 =
B12 .
(10.80)
c3
Ricordando che B12 = B21 e utilizzando la (10.79) abbiamo
2
2
3
3 3 3
b 2
ω
8π
ν
8πhν21
π b
b
21
21
h2|P~ |1i =
h2|P~ |1i .
(10.81)
h2|P~ |1i =
A12 =
c3 6~2 ε0 3 ~ ε0 c3 3 ~ ε0 c 3 A questa espressione per l’emissione spontanea si può arrivare anche dall’elettrodinamica quantistica. Il coefficiente A12 dipende cosı̀, oltre che dal modulo quadro dell’elemento di matrice
del dipolo tra stato iniziale e stato finale, anche dal cubo della frequenza. Questo si riflette
sulla vita media dello stato eccitato |2i, che, nel caso di decadimento possibile solo verso lo
stato |1i, si scrive
1
τ2 =
.
(10.82)
A12
Nel caso, decisamente più frequente in pratica, di più decadimenti possibili verso diversi stati
a energia più bassa, avremo
X
1
=
Ai2 ,
(10.83)
τ2
i
dove la somma corre su tutti gli stati |ii con Ei < E2 verso i quali è possibile il decadimento.
Per avere un’idea degli ordini di grandezza in gioco, valutiamo A12 per alcuni valori della
frequenza ν21 . Un ordine di grandezza per l’elemento di matrice del momento di dipolo si
ottiene considerando un elettrone distante un raggio di Bohr a0 dal nucleo:
p ≈ ea0 ≈ 1.6 × 10−19 C × 5 × 10−11 m = 8 × 10−30 Cm.
(10.84)
Inserendo questo valore e la (10.81) nella (10.82) otteniamo
1
4.5 × 1036
1
3 ~ ε0 c 3
2.9 × 10−22
=
s.
τ=
2 ≈
3 8π 3 ν21
ν3
6.4 × 10−59
ν3
b
~ |1i
h2|P
(10.85)
10.4. ASSORBIMENTO, EMISSIONE STIMOLATA E SPONTANEA
111
Se abbiamo a che fare con una transizione nel visibile, con lunghezza d’onda λ ≈ 6000 Å =
600 nm, e quindi frequenza ν ≈ 5 × 1014 Hz, otteniamo
τ=
4.5 × 1036
= 3.6 × 10−8 s,
44
1.25 × 10
(10.86)
mentre per una transizione nell’infrarosso con λ = 10 µm, e ν ≈ 3 × 1013 Hz, abbiamo τ = 0.17
ms, e per una frequenza a microonde, con lunghezza d’onda λ = 1 cm e ν ≈ 30 GHz, abbiamo
τ ≈ 1.7 × 105 s ≈ 46 ore.
La (10.81) e le considerazioni fatte qui sopra per gli ordini di grandezza hanno una stretta
analogia con i risultati per l’emissione di dipolo elettrico nell’elettrodinamica classica. Classicamente, un dipolo oscillante con momento
p~ = p~0 sin ωt
(10.87)
emette una potenza, integrata su tutto l’angolo solido, pari a
W =
1
p2 ω 4 ,
12 ε0 π c3 0
(10.88)
ed in un intervallo di tempo dt perde quindi una quantità di energia
dUcl = W dt =
1
p2 ω 4 dt.
12 ε0 π c3 0
(10.89)
I calcoli quantistici fatti in questo paragrafo ci dicono che un atomo con due livelli che si trovi
inizialmente nel livello a energia più alta |2i, durante l’intervallo di tempo dt ha probabilità
3
b 2
ω21
h2|P~ |1i dt
dP = A12 dt =
(10.90)
3 ~ ε0 c3 di decadere allo stato ad energia più bassa |1i. Il decadimento comporta la perdita dell’energia
~ω, quindi abbiamo per la perdita di energia
4
b 2
ω21
h2|P~ |1i dt,
dUquant =
(10.91)
3 ε0 c3 Un paragone con la (10.89) ci fa vedere che le due espressioni differiscono per un fattore 4π al
denominatore.
Il rapporto tra la perdita di energia per emissione indotta e quella per emissione spontanea,
in presenza di una densità spettrale di radiazione u(ν), vale
c3 u(ν21 )
B12 u(ν21 )
=
.
3
A12
8πhν21
(10.92)
Quindi, a parità di densità spettrale di energia radiante presente, il fenomeno dell’emissione
indotta è più importante a frequenza più basse. Se abbiamo a che fare con una distribuzione
spettrale di energia radiante tipo corpo nero abbiamo
1
8πhν 3
u(ν) =
3
hν/kT
c e
−1
112
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
che, sostituita nella (10.92), porta a
1
B12 u(ν21 )
= n(ν),
= hν/kT
A12
e
−1
(10.93)
dove n(ν) è il numero medio di fotoni a frequenza ν che si trova in una cella dello spazio delle
fasi. Se n(ν) > 1 prevale l’emissione indotta, altrimenti prevale l’emissione spontanea. Per
vedere in quali condizioni il numero medio di fotoni per cella dello spazio delle fasi è maggiore
di 1, risolviamo la disuguaglianza
n(ν) =
1
ehν/kT
−1
> 1,
(10.94)
1 hc
≈ 20 000 µm K
log 2 k
(10.95)
ottenendo
ν
k
< log 2 ≈ 1.44 × 1010 Hz/K,
T
h
e λT >
Questa relazione vale in generale, e non solo nel caso di radiazione di corpo nero.
10.5
Interazione con campo forte
Supponiamo ancora di avere un sistema atomico a due livelli |1i e |2i, con E2 > E1 , che
stia interagendo con un campo radiativo cosı̀ intenso che non sia possibile un trattamento
perturbativo. Ricordiamo però che nel paragrafo 10.1.2 avevamo detto che, quando ci sono
in gioco due soli livelli, è possibile ottenere la soluzione esatta, e il trattamento perturbativo
non è necessario. Come esempio, possiamo pensare ad un sistema a due livelli interagente con
radiazione laser. Possiamo scrivere il campo elettrico nella zona di interesse per l’atomo come
~ = −E
~ 0 cos ωt = − E0 ~e e−iωt + e+iωt ,
E
2
dove ~e è il versore del campo elettrico dell’onda, ed abbiamo scelto l’origine dei tempi in
modo che nell’espressione compaia il segno meno che verrà eliminato nella (10.96) qui sotto.
L’hamiltoniana di interazione si può scrivere ancora
b
b
~ ·P
~ = ~e · P
~ E0 e−iωt + e+iωt .
V̂ = −E
2
(10.96)
Il generico stato in cui si trova il sistema può essere scritto, secondo la (10.3),
|ψ(t)i = a1 (t)e−iE1 t/~ |1i + a2 (t)e−iE2 t/~ |2i,
(10.97)
e, analogamente a quanto fatto nel paragrafo 10.1.2, l’equazione di Schrödinger diventa
h
iX
∂ X
ar (t) e−iEr t/~ |ri = Ĥ0 + V̂ (t)
an (t) e−iEn t/~ |ni.
i~
∂t r=1
n=1
2
2
(10.98)
113
10.5. INTERAZIONE CON CAMPO FORTE
Seguendo le (10.7) otteniamo per le derivate delle singole ampiezze
2
2
1 X
∂ak
1 X
=
an e−i(En −Ek )t/~ hk|V̂ (t)|ni =
an eiωkn t hk|V̂ (t)|ni.
∂t
i~ n=1
i~ n=1
Gli elementi di matrice di V̂ tra i due stati dell’atomo sono
b E0 −iωt
e
+ e+iωt
h2|V̂ |1i = h2|~e · P~ |1i
2
b E0 +iωt
h1|V̂ |2i = h1|~e · P~ |2i
e
+ e−iωt ,
2
(10.99)
(10.100)
con, nel nostro caso, ω21 > 0 e ω12 = −ω21 . Le fasi degli stati |1i e |2i possono essere scelte in
b
modo che h2|~e · P~ |1i sia reale, possiamo quindi porre
b
b
D = h2|~e · P~ |1i = h1|~e · P~ |2i,
(10.101)
b
b
mentre h1|~e · P~ |1i = h2|~e · P~ |2i = 0 per la (10.62). Abbiamo quindi
1 E0
∂a1 (t)
=
D
a2 (t) e−i(ω21 +ω)t + e−i(ω21 −ω)t
∂t
i~
2
1 E0
∂a2 (t)
(10.102)
=
D
a1 (t) ei(ω21 −ω)t + ei(ω21 +ω)t .
∂t
i~
2
Fino a qui non abbiamo fatto approssimazioni. Introducendo adesso l’approssimazione di campo
rotante, trascurando cioè i termini contenenti e±i(ω21 +ω)t rispetto a quelli contenenti e±i(ω21 −ω)t ,
otteniamo per le ampiezze a1 (t) e a2 (t)
∂a1 (t)
1
E0
=
a2 (t) e−i(ω21 −ω)t D
∂t
i~
2
1
E0
∂a2 (t)
=
a1 (t) ei(ω21 −ω)t D .
∂t
i~
2
Introducendo la frequenza di Rabi
DE0
ΩR =
~
le (10.103) diventano
(10.103)
(10.104)
i
∂a1 (t)
= − ΩR a2 (t) e−i(ω21 −ω)t
∂t
2
∂a2 (t)
i
= − ΩR a1 (t) ei(ω21 −ω)t .
∂t
2
Adesso introduciamo il cambiamento di variabili
(10.105)
a1 (t) = b1 (t)
a2 (t) = b2 (t) ei(ω21 −ω)t ,
(10.106)
114
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
e la quantità δω = ω − ω21 . Otteniamo
∂b1 (t)
i
= − ΩR b2 (t)
∂t
2
i
∂b2 (t)
= − ΩR b1 (t) + i δω b2 (t).
∂t
2
(10.107)
Se facciamo la derivata rispetto al tempo della seconda delle (10.107) otteniamo
i
∂b1 (t)
∂b2 (t)
∂ 2 b2 (t)
= − ΩR
+ i δω
,
2
∂t
2
∂t
∂t
(10.108)
in cui possiamo sostituire la prima delle (10.107), ottenendo un’equazione differenziale del
secondo ordine nella sola b2 (t)
∂b2 (t) Ω2R
∂ 2 b2 (t)
−
i
δω
+
b2 (t) = 0.
∂t2
∂t
4
(10.109)
Questa equazione differenziale è lineare, omogenea e a coefficienti costanti, quindi con soluzione
generale del tipo
b2 (t) = z1 eα1 t + z2 eα2 t ,
(10.110)
dove z1 e z2 sono costanti complesse arbitrarie, da determinare dalle condizioni iniziali del
problema, mentre α1 e α2 sono le soluzioni dell’equazione
α2 − iδω α +
Abbiamo quindi
α1,2 =
iδω ±
da cui
p
Ω2R
= 0.
4
(10.111)
−δω 2 − Ω2R
,
2
(10.112)
b2 (t) = z1 eiλ1 t + z2 eiλ2 t
con
δω
+
λ1 = −iα1 =
2
p
Ω2R + δω 2
,
2
δω
λ2 = −iα2 =
−
2
(10.113)
p
Ω2R + δω 2
,
2
(10.114)
z
e la condizione che sia b2 (0) = 0 ci dà z2 = −z1 . Per comodità poniamo z1 = −i , da cui
2
!
p
2
2
Ω
+
δω
z iλ1 t
R
b2 (t) = i e
− eiλ2 t = z eiδω t/2 sin
t
(10.115)
2
2
Consideriamo prima il caso particolare di radiazione in risonanza con la transizione atomica,
cioè con δω = ω − ω21 = 0. La (10.115) diventa semplicemente
ΩR
t .
(10.116)
b2 (t) = z sin
2
115
10.5. INTERAZIONE CON CAMPO FORTE
Dalla (10.107) abbiamo
ΩR
ΩR
∂b1 (t)
= −i
b2 (t) = −i
z sin
∂t
2
2
ΩR
t ,
2
(10.117)
che, integrata con l’ipotesi che a t = 0 il sistema atomico si trovi nello stato a energia più bassa
|1i, cioè che a1 (t = 0) = b1 (t = 0) = 1 e a2 (t = 0) = b2 (t = 0) = 0, porta a
ΩR
b1 (t) − 1 = −i
z
2
Z
t
sin
0
ΩR ′
t dt′
2
t
2
ΩR ′
ΩR
z
t
cos
b1 (t) = 1 − i
2
ΩR
2
0
ΩR
t + iz.
b1 (t) = 1 − i z cos
2
(10.118)
Se poniamo z = i otteniamo
b1 (t) = cos
ΩR
t ,
2
e b2 (t) = i sin
ΩR
t ,
2
(10.119)
che rispetta le condizioni iniziali b1 (0) = 1 e b2 (0) = 0, oltre alla |b1 (t)|2 + |b2 (t)|2 = 1. Dalle
(10.106) con δω = 0, abbiamo a1 (t) = b1 (t) e a2 (t) = b2 (t). Per le probabilità di trovare il
sistema nello stato |1i o nello stato |2i abbiamo
ΩR
1 + cos(ΩR t)
2
2
P1 (t) = |a1 (t)| = cos
t =
2
2
1 − cos(ΩR t)
ΩR
2
2
t =
.
(10.120)
P2 (t) = |a2 (t)| = sin
2
2
Il campo elettromagnetico guida quindi delle oscillazioni di popolazione, dette oscillazioni di
Rabi , per cui gli atomi che per t = 0 si trovavano nello stato a energia più bassa |1i, dopo un
tempo Tπ = π/ΩR si trovano tutti nello stato a energia più alta |2i, mentre dopo un tempo
TR = 2 Tπ = 2π/ΩR si ritrovano tutti nello stato |1i, e cosı̀ via. Questo è il motivo per cui
abbiamo dato a ΩR il nome di frequenza di Rabi. Se la radiazione elettromagnetica viene
applicata per un intervallo di tempo pari a Tπ si ha un impulso π, che porta tutti gli atomi
dallo stato |1i allo stato |2i. La condizione per un impulso π è
ΩR Tπ =
DE0
Tπ = π,
2~
(10.121)
e può essere realizzata agendo sul tempo di durata dell’impulso e sull’intensità del campo
elettrico dell’onda.
Nel caso di detuning tra la frequenza dell’onda elettromagnetica e la frequenza di transizione,
cioè nel caso di δω 6= 0, dobbiamo usare b2 (t) nella sua forma completa (10.115). Possiamo
116
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
ricavare un’espressione per b1 (t) introducendo appunto la (10.115) nella seconda delle (10.107)
con i passaggi che seguono
i
∂b2 (t)
= − ΩR b1 (t) + i δω b2 (t),
∂t
2
∂b2 (t)
i
ΩR b1 (t) = i δω b2 (t) −
2
∂t
che riscriviamo
sostituendo b2 (t) = z eiδω t/2 sin
p
Ω2R
+
2
δω 2
!
p
2
2
Ω
+
δω
i
iδω iδω t/2
R
ΩR b1 (t) = i zδω eiδω t/2 sin
t −z
e
sin
2
2
2
!
!
p
p
2
2
Ω2R + δω 2
Ω
+
δω
R
t ,
z eiδω t/2 cos
2
2
da cui otteniamo finalmente
"
1
b1 (t) =
z eiδω t/2 δω sin
ΩR
!
p
q
Ω2R + δω 2
t + i Ω2R + δω 2 cos
2
t
!
otteniamo
!
p
Ω2R + δω 2
t −
2
!#
p
Ω2R + δω 2
t
. (10.122)
2
Adesso possiamo ricavare |z|2 imponendo la condizione di normalizzazione |b1 (t)|2 +|b2 (t)|2 = 1.
1 = b1 (t)|2 + |b2 (t)|2
!
!#
"
p
p
2
2
2
2
+
δω
+
δω
Ω
Ω
1
R
R
=
t + Ω2R + δω 2 cos2
t
+
|z|2 δω 2 sin2
Ω2R
2
2
!
p
2
2
Ω
+
δω
R
t
|z|2 sin2
2
!
!#
"
p
p
2
2
2
2
2
2
2
+
δω
+
δω
Ω
Ω
Ω
+
δω
δω
R
R
R
+ 1 sin2
cos2
t +
t
= |z|2
Ω2R
2
Ω2R
2
= |z|2
Ω2R + δω 2
Ω2R
(10.123)
da cui otteniamo
|z|2 =
Ω2R
Ω2R + δω 2
,
ovvero z = eiϕ
s
Ω2R
Ω2R + δω 2
(10.124)
con ϕ fase arbitraria. Ponendo ϕ = −π/2, in modo che sia eiϕ = −i, otteniamo
"
!
!#
p
p
2
2
2
2
Ω
+
δω
Ω
+
δω
δω
R
R
sin
b1 (t) = eiδω t/2 cos
t −i p 2
t
2
2
ΩR + δω 2
s
!
p
2
2
2
Ω
+
δω
Ω
R
R
b2 (t) = −i eiδω t/2
sin
t
(10.125)
Ω2R + δω 2
2
10.5. INTERAZIONE CON CAMPO FORTE
117
che rispettano le condizioni b1 (0) = 1 e b2 (0) = 0. Per la probabilità di trovare il sistema nello
stato |2i all’istante t abbiamo
p
!
p
2
2t
1
−
cos
Ω
+
δω
2
2
2
R
ΩR + δω 2
Ω
Ω
t = 2 R 2
,
P2 (t) = |b2 (t)|2 = 2 R 2 sin2
ΩR + δω
2
ΩR + δω
2
(10.126)
mentre la probabilità di trovarlo nello stato |1i è
p
p
2
2
2
2
1 + cos
ΩR + δω t
ΩR + δω t
δω 2 1 − cos
P1 (t) = |b1 (t)|2 =
+ 2
.
(10.127)
2
Ωr + δω 2
2
p
Quindi l’occupazione dello stato a energia più alta |2i evolve con frequenza Ω′R = Ω2R + δω 2 ,
ma risulta sempre inferiore a 1, avendo valore massimo Ω2R /(Ω2R + δω 2 ). L’occupazione dello
stato |1i oscilla anche essa alla frequenza Ω′R senza essere mai nulla. Un’inversione completa
della popolazione non è quindi possibile fuori risonanza.
118
CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II
Capitolo 11
Matrice densità
11.1
Rate equations e bilancio dettagliato
Supponiamo di avere un sistema di N atomi, con Ĥ0 hamiltoniana imperturbata del singolo
atomo. Se ogni atomo si trova nello stato |ψ(t)i
X
|ψ(t)i =
an (t)e−iEn t/~ |ni,
(11.1)
n
dove gli |ni sono gli autostati di Ĥ0 che formano una base ortonormale completa, e gli En i
rispettivi autovalori, il numero di atomi che una misura rivela nello stato |ki all’istante t vale
Nk = N |ak (t)|2 .
(11.2)
La probabilità di occupazione |ak (t)|2 del livello |ki viene modificata dalle interazioni degli
atomi tra di loro e degli atomi con l’ambiente esterno. Se per queste interazioni è possibile
calcolare una probabilità di transizione per unità di tempo Wkm dallo stato |mi allo stato |ki,
per ogni stato |ki avremo
X
X
d
|ak (t)|2 =
Wkm |am (t)|2 − |ak (t)|2
Wmk ,
dt
m6=k
m6=k
(11.3)
dove la prima sommatoria tiene conto della probabilità che l’atomo sia inizialmente in uno stato
|mi diverso da |ki e passi in |ki, mentre la seconda tiene conto della probabilità che l’atomo
fosse inizialmente in |ki e da lı̀ passi a un qualunque altro stato.
La condizione di normalizzazione sulla ||ψ(t)i|2 implica
X
k
|ak (t)|2 = 1,
da cui
X d
|ak (t)|2 = 0
dt
k
e, introducendo la (11.3), abbiamo
X
XX
X
Wmk = 0.
Wkm |am (t)|2 −
|ak (t)|2
k
m6=k
k
119
m6=k
(11.4)
(11.5)
120
CAPITOLO 11. MATRICE DENSITÀ
Se il numero totale di atomi è costante vale la (11.2), quindi, moltiplicando primo e secondo
membro per N , otteniamo
XX
X
X
Wkm Nm −
Nk
Wmk = 0.
(11.6)
k
m6=k
k
m6=k
Se siamo in uno stato stazionario, come, per esempio, all’equilibrio termodinamico, non solo la
popolazione totale, ma anche la popolazione di ogni singolo livello deve essere costante, quindi
dobbiamo avere per ogni stato |ki
X
X
Wkm Nm = Nk
Wmk .
(11.7)
m6=k
m6=k
Questo costituisce un sistema di equazioni, dette rate equations, che, note le Wkm , permette
di calcolare le popolazioni dei singoli livelli trascurando l’informazione sulle fasi relative delle
occupazioni degli stati.
In condizione di equilibrio termodinamico normalmente si usa una relazione più ristretta
della (11.7), detta equazione del bilancio dettagliato,
Wmk Nk = Wkm Nm ,
(11.8)
che implica un equilibrio all’interno di ogni coppia di livelli |mi e |ki interessati dalla perturbazione: la velocità con cui gli atomi passano da |mi a |ki è uguale a quella con cui passano
da |ki a |mi.
11.2
Matrice densità
Consideriamo un ipotetico atomo isolato la cui hamiltoniana imperturbata Ĥ0 abbia solo due
livelli |1i e |2i, con energie, rispettivamente, E1 ed E2 . Come al solito supponiamo che sia
E1 < E2 . Il generico stato |ψ(t)i dell’atomo può essere sviluppato
|ψ(t)i = a1 (t)|1i + a2 (t)|2i.
(11.9)
Introduciamo la matrice densità ρ̂, definita da
ρ̂ = |ψ(t)ihψ(t)| =
|a1 |2 a1 a∗2
a2 a∗1 |a2 |2
.
(11.10)
Nel caso in cui abbiamo un sistema di N atomi identici a due livelli, con tutti gli atomi che si
trovano esattamente in uno stesso stato del tipo (11.9), si dice che il sistema si trova in uno
stato puro, e la matrice densità si continua a scrivere come nella (11.10). In questo caso si può
verificare che la matrice densità ha le proprietà seguenti:
Tr(ρ̂) = 1,
(11.11)
che deriva dalla normalizzazione della (11.9). Se vogliamo calcolare il valor medio di un
qualunque operatore  abbiamo
X
X
ρmn hn|Â|mi = Tr(ρ̂Â).
(11.12)
hAi = hψ(t)|Â|ψ(t)i =
a∗n hn|Â|miam =
n,m
n,m
121
11.2. MATRICE DENSITÀ
L’evoluzione temporale della matrice densità si ottiene utilizzando l’equazione di Schrödinger
nel modo seguente
d
d
d
ρ̂(t) =
|ψ(t)i hψ(t)| + |ψ(t)i
hψ(t)|
dt
dt
dt
=
Inoltre abbiamo
i
1
1
1 h
Ĥ|ψ(t)ihψ(t)| +
|ψ(t)ihψ(t)|Ĥ =
Ĥ, ρ̂ .
i~
−i~
i~
ρ̂2 = |ψ(t)ihψ(t)||ψ(t)ihψ(t)| = ρ̂ da cui segue che Tr(ρ̂2 ) = 1.
(11.13)
(11.14)
L’estensione di quanto detto sopra al caso di uno stato puro (singoli atomi tutti nello stesso
stato) di un sistema di atomi per i quali l’hamiltoniana dell’atomo singolo ha un numero
qualunque di livelli energetici è immediata. Ma, per uno stato puro, l’uso della matrice densità
non porta particolari vantaggi. Al contrario, la matrice densità permette un trattamento molto
semplificato di un ensemble di atomi che non si trovino in uno stato puro. In questo caso
avremo stati possibili per il singolo atomo del tipo
X 2
(i) X (i)
ψ (t) =
= 1 ∀i, (11.15)
a(i)
an |ni, con le condizioni di normalizzazione
n
n
n
che ogni atomo dell’ensemble abbia la stessa probabilità pi di trovarsi nello stato
e supponiamo
ψ (i) (t) , naturalmente con P pi = 1. In questo caso, la matrice densità del sistema si definisce
i
come media pesata delle matrici densità relative ai singoli stati ψ (i) (t)
 2

(i) (i) (i)∗
X
X a1 a2
a1 2  ,
pi 
ρ̂ =
pi ψ (i) (t) ψ (i) (t) =
(i) (i) (i)∗
a2 a1
a2 i
i
(11.16)
dove, per semplicità, la matrice è stata scritto per il caso di due soli autostati di particella
singola. Si può verificare che continuano a valere le proprietà
X
X
1) Tr(ρ̂) =
pi Tr ψ (i) (t) ψ (i) (t) =
pi = 1;
i
2) hÂi =
3)
X
i
i
(i) X
(i) (i)
pi ψ (t) Â ψ (t) =
pi Tr ψ (t) ψ (t) Â = Tr ρ̂Â ;
(i)
i
i
X d X h i
1 h
d
ψ (i) (t) ψ (i) (t) = 1
ρ̂(t) =
pi
pi Ĥ, ψ (i) (t) ψ (i) (t) =
Ĥ, ρ̂ ;
dt
dt
i~ i
i~
i
mentre, nel caso di stato non puro, in generale abbiamo
ρ̂2 6= ρ̂ e Tr ρ̂2 < 1.
(11.17)
Gli elementi diagonali di ρ̂ sono chiamati popolazioni , mentre gli elementi fuori diagonale
sono chiamati coerenze. Nel caso di uno stato puro gli elementi diagonali sono le probabilità di
122
CAPITOLO 11. MATRICE DENSITÀ
occupazione degli stati. Nel caso di uno stato non puro gli elementi diagonali sono le probabilità
medie di occupazione, ottenute
facendo la media delle probabilità di occupazione corrispondenti
(i)
ai singoli
stati
puri ψ (t) pesate con le probabilità pi che l’atomo sia effettivamente nello
stato ψ (i) (t) . Cosı̀, se abbiamo N atomi, il numero medio di atomi che si trovano nello stato
|ni sarà
Nn = N ρnn .
(11.18)
Una condizione necessaria, ma non sufficiente, perché la coerenza ρnm tra gli stati |ni e |mi
sia diversa da zero è che siano contemporaneamente diverse da zero le occupazioni dei due stati,
indipendentemente
dal fatto che il sistema si trovi o meno in uno stato puro. Per ogni stato
(i) ψ (t) , di probabilità pi , la singola ampiezza a(i)
n (t) può essere scritta
(i)
−En t/~
a(i)
,
n (t) = bn (t)e
(11.19)
(i)
in modo che, finché il singolo atomo può essere considerato isolato, bn (t) non dipende dal
tempo. Per le coerenze abbiamo quindi
(i) (i)∗
a1 a2
(i) (i)∗
= b1 b2 eiω21 t ,
(i) (i)∗
e a2 a1
(i) (i)∗
= b2 b1 e−iω21 t
e gli elementi fuori diagonale di ρ̂ sono dati dalle medie pesate
X
X
(i) (i)∗
(i) (i)∗
pi b2 b1 e−iω21 t = ρ∗12 .
ρ12 =
pi b1 b2 eiω21 t , e ρ21 =
(11.21)
i
i
(i)
(11.20)
(i)
In linea di principio, b1 e b2 sono numeri complessi con fasi qualunque, e le somme della
(i)
(i)
(11.21) possono essere nulle anche se i singoli b1 e b2 sono tutti diversi da zero. Gli elementi
di matrice ρjk , con j 6= k, saranno diversi da zero solo se esiste una coerenza tra le fasi dei
(i)
(i)
singoli bj e quelle dei singoli bk , da qui il nome di coerenze a questi elementi di matrice.
Per avere un esempio dell’importanza delle coerenze supponiamo di avere un campione di N
atomi, e di voler calcolare il valor medio della componente del momento del dipolo elettrico del
b
campione lungo una direzione definita dal versore ~e, cioè di voler calcolare h~e · P~ i. Possiamo
metterci nelle condizioni della (10.101) e supporre che, per il singolo atomo, sia
per cui possiamo scrivere
b
b
D = h2|~e · P~ |1i = h1|~e · P~ |2i,
b
~e · P~ =
0 D
D 0
.
Per il valor medio sul sistema abbiamo
ρ
D
ρ
D
b
b
12
11
= N (ρ12 D + ρ21 D),
~e · P~ = N Tr ρ̂ ~e · P~ = N Tr
ρ22 D ρ21 D
(11.22)
(11.23)
e vediamo che il valor medio della componente lungo ~e del dipolo elettrico è determinata dalle
coerenze. Ovviamente, al posto di ~e possiamo prendere ognuno dei tre versori x̂, ŷ e ẑ. Solo
se gli atomi si trovino in una sovrapposizione coerente di |1i e |2i il valor medio del dipolo
elettrico può essere diverso da zero. E’ da notare che, in base alle (11.21), le coerenze hanno
11.3. MODELLO DI FEYNMAN-VERNON-HELLWARTH
123
una dipendenza temporale del tipo e±iω21 t , quindi il valor medio delle componenti del momento
di dipolo elettrico, se diverse da zero, hanno un andamento temporale di tipo oscillante.
Se abbiamo un sistema di N atomi all’equilibrio termodinamico ed in assenza di campi
esterni, ci aspettiamo che il valor medio di qualunque componente del momento di dipolo
elettrico sia nullo. Questo non è possibile se il sistema di trova in uno stato puro, perché nella
matrice densità corrispondente ad uno stato puro, se le popolazioni sono ambedue diverse da
zero, anche le coerenze sono diverse da zero. Ma è tranquillamente possibile costruire uno stato
non puro tale che le popolazioni siano diverse da zero, mentre le coerenze sono nulle. Come
esempio, basta pensare a degli stati del tipo
|ψl i = ae−iE1 t/~ |1i + beiϕl e−iE2 t/~ |2i,
(11.24)
dove ϕl è una fase casuale compresa tra 0 e 2π. Per le popolazioni avremo ρ11 = |a|2 e ρ22 = |b|2 ,
mentre per la coerenza ρ12 abbiamo
Z
Z 2π
1
ab∗ −i(E1 −E2 )t/~ 2π −iϕl
e
dϕl = 0
(11.25)
e
ρ12 =
dϕl h1||ψl ihψl ||2i =
2π 0
2π
0
perché la fase ϕl è casuale.
E’ da notare che la distinzione tra popolazioni e coerenze non ha valore assoluto, ma dipende
dalla scelta della base per lo spazio di Hilbert. Infatti, essendo ρ̂ hermitiana, è sempre possibile
trovare una base ortonormale {|χi i} in cui ρ̂ stessa è diagonale. In questa base esistono solo
popolazioni, e tutte le coerenze sono nulle. Va però notato che gli elementi di questa base
possono non essere stati stazionari.
11.3
Modello di Feynman-Vernon-Hellwarth
L’evoluzione temporale della matrice densità è data dall’equazione
1
d
ρ̂ = [Ĥ, ρ̂].
dt
i~
(11.26)
Nel nostro solito caso di un sistema a due livelli, riprendendo le ipotesi e le notazioni del
paragrafo 10.5, compresa l’approssimazione d’onda rotante, abbiamo
Ĥ = Ĥ0 + V̂
con
Ĥ0 =
E1 0
0 E2

0

e V̂ =  DE
0 −iωt
e
2
(11.27)
 

DE0 +iωt
~ΩR +iωt
0
e
e
 

2
2
 =  ~ΩR
.
0
e−iωt
0
2
(11.28)
Inserendo nella 11.26 abbiamo




~ΩR +iωt
~ΩR +iωt
e
e
E1
E1
1
d
1 
ρ11 ρ12 
 ρ11 ρ12

2
2
−
ρ̂ =


 ~ΩR
 ~ΩR
ρ21 ρ22
ρ21 ρ22
dt
i~
i~
−iωt
−iωt
e
E2
e
E2
2
2
124
CAPITOLO 11. MATRICE DENSITÀ



= 



ΩR
+iωt
(ρ22 − ρ11 )e
i ω21 ρ12 +

2

.


ΩR +iωt
ΩR
−iωt
−iωt
i
(ρ22 − ρ11 )e
e
ρ21 − e
ρ12
−i ω21 ρ21 +
2
2
ΩR +iωt
e
ρ21 − e−iωt ρ12
−i
2
(11.29)
La matrice densità di un sistema a due livelli ha tre gradi di libertà. Gli elementi diagonali
ρ11 e ρ22 sono due numeri reali, vincolati dalla condizione ρ11 + ρ22 = 1, quindi basta un solo
numero, per esempio la differenza ρ11 − ρ22 , per determinarli. Gli elementi fuori diagonale sono
numeri complessi, con ρ21 = ρ∗12 , quindi basta conoscere ℜ(ρ12 ) e ℑ(ρ12 ) per determinarli tutti
e due. La matrice densità è quindi completamente determinata dalle tre componenti reali del
vettore di Feynman-Vernon-Hellwarth, definite da
Rx = ρ12 e−iωt + ρ21 e+iωt = 2ℜ(ρ12 ) cos ωt − 2ℑ(ρ12 ) sin ωt
Ry = iρ12 e−iωt − iρ21 e+iωt = 2ℜ(ρ12 ) sin ωt − 2ℑ(ρ12 ) cos ωt
Rz = ρ11 − ρ22 ,
(11.30)
~
dalla (11.29) otteniamo per le derivate delle componenti di R
dρ12 −iωt
dρ21 iωt
d
Rx =
e
− iωρ12 e−iωt +
e + iωρ21 eiωt
dt
dt
dt
ΩR
ΩR
−iωt
+iωt
−iωt
= i (ω21 − ω)ρ12 +
e
− i (ω21 − ω)ρ21 +
e+iωt
(ρ22 − ρ11 )e
(ρ22 − ρ11 )e
2
2
= i(ω21 − ω) ρ12 e−iωt − ρ21 e+iωt
d
dρ12 −iωt
dρ21 iωt
Ry = i
e
+ ωρ12 e−iωt − i
e + ωρ21 eiωt
dt
dt
dt
ΩR
ΩR
−iωt
+iωt
−iωt
e
− (ω21 − ω)ρ21 + i (ρ22 − ρ11 )e
e+iωt
(ρ22 − ρ11 )e
= − (ω21 − ω)ρ12 +
2
2
= −(ω21 − ω) ρ12 e−iωt + ρ21 e+iωt − ΩR (ρ22 − ρ11 )
d
dρ11 dρ22
Rz =
−
= −iΩR e+iωt ρ21 − e−iωt ρ12
dt
dt
dt
che possono essere riscritte
d
Rx = (ω21 − ω)Ry
dt
d
Ry = −(ω21 − ω)Rx + ΩR Rz
dt
(11.31)
125
11.3. MODELLO DI FEYNMAN-VERNON-HELLWARTH
d
Rz = −ΩR Ry .
dt
(11.32)
~ di componenti
Se adesso introduciamo il vettore B,
Bx = ΩR ,
By = 0,
Bz = δω = (ω21 − ω)
(11.33)
le (11.32) sono riassunte dall’equazione
d ~
~ ×B
~
R=R
dt
(11.34)
~ attorno
che rappresenta un’evoluzione giroscopica del vettore di Feynman-Vernon-Hellwarth R
~ Se le condizioni iniziali sono quelle di equilibrio termodinamico in assenza di
al vettore B.
interazione con il campo elettromagnetico, le coerenze sono nulle, quindi Rx (t = 0) = Ry (t =
0) = 0, mentre Rz è determinata dalle occupazioni dei livelli secondo la
Rz (t = 0) =
dove
1 0
N1 − N20 ,
N
(11.35)
N
N −E1 /kT
e
, e N20 = N2 (t = 0) = e−E2 /kT .
(11.36)
Z
Z
Se la separazione in energia tra i due livelli è nel range ottico, avremo (E2 − E1 ) ≫ kT , ed è
una buona approssimazione porre
N10 = N1 (t = 0) =
N10 ≈ N,
N20 ≈ 0,
da cui Rz (t = 0) ≈ 1.
(11.37)
R~(
T
π)
~
R(0)
~ parte quindi allineato all’asse z verso l’alIl vettore R
~ conservando la
z
to, e comincia a precedere attorno a B
sua lunghezza. Questo cambia progressivamente l’ori~ nello spazio delle coerenze/popolazioni.
entazione di R
Per esempio, nel caso di perfetta risonanza tra radiazione e frequenza di transizione da |1i a |2i, abbiamo
~ avviene
α
ω = ω21 e δω = 0, per cui la precessione di R
δω
~
B
nel piano yz attorno all’asse x, lungo il quale è diretto
~ Con un impulso di durata Tπ = π/ΩR , detto imB.
y
~
ΩR
pulso π, il vettore R giace di nuove sull’asse z, ma è
x
diretto verso il basso. Si è cosı̀ verificata l’inversione
di popolazione descritta nel paragrafo 10.5. Un im~
pulso π/2, di durata Tπ/2 = π/(2ΩR ), allinea invece R
con l’asse y, portando cosı̀ ad una differenza di popo~ di
lazione uguale a zero e ad un massimo del valore delle Figura 11.1: Evoluzione del vettore R
coerenze. Analogamente, un valore di δω 6= 0 porta Feynman-Vernon-Hellwarth.
ai risultati delle (10.125), (10.126) e (10.127), ottenuti
per radiazione fuori risonanza nel paragrafo 10.5 sull’interazione
p con un campo forte. Infatti,
~ forma un angolo α = arccos(δω/ Ω2 + δω 2 ) con l’asse z, e quindi
in questo caso il vettore B
R
126
CAPITOLO 11. MATRICE DENSITÀ
~ all’istante t = 0, come mostrato in fig. 11.1. Dopo un impulso di durata Tπ il
con il vettore R
~
~ e quindi formerà un angolo 2α con
vettore R avrà fatto mezzo giro di precessione attorno a B,
l’asse z. La sua proiezione sull’asse z sarà
2
2
~ z = cos(2α) = cos2 α − sin2 α = − ΩR − δω .
R
δω 2 + Ω2R
11.4
(11.38)
Rilassamento e equazioni di Bloch ottiche
Il modello di Feynman descrive l’evoluzione delle popolazioni e delle coerenze di un sistema
atomico a due livelli sotto l’azione di un campo elettromagnetico oscillante. Partendo da una
situazione di equilibrio termodinamico con Rx = Ry = 0 e Rz = 1, l’azione del campo modifica
le popolazioni e crea coerenze non nulle. Supponiamo adesso di spegnere il campo dopo aver
raggiunto una situazione di questo tipo. Ci aspettiamo che il sistema ritorni ad uno stato di
equilibrio termodinamico. Le equazioni che abbiamo studiato finora non includono l’interazione
tra il sistema ed il bagno termico, che è quella che riporta il sistema all’equilibrio. Alle equazioni
vanno quindi aggiunti dei termini, detti termini di rilassamento, che descrivono, appunto,
l’interazione del nostro sistema atomico con il bagno termico. Qui introdurremo i termini
di rilassamento in modo fenomenologico, ma è opportuno ricordare che la loro espressione può
essere derivata in modo rigoroso formulando una teoria quantistica dell’interazione microscopica
tra il nostro sistema e il bagno termico. In modo fenomenologico, i termini di rilassamento si
scrivono
dRx
= −γ⊥ Rx
dt
dRy
= −γ⊥ Ry
dt
dRz
= −γk (Rz − Rz0 )
(11.39)
dt
dove Rz0 è il valore di Rz all’equilibrio termico. Le definizioni di rilassamento perpendicolare (o
rilassamento trasversale), con coefficiente γ⊥ , e rilassamento parallelo (o rilassamento longitudinale), con coefficiente γk , sono legate al fenomeno della risonanza magnetica, in cui questi
termini sono stati introdotti per la prima volta da F. Bloch. I processi fisici che modificano
le coerenze, quantificati nel valore di γ⊥ , distruggono le fasi relative dei coefficienti delle funzioni d’onda nell’espansione degli stati del sistema sugli autostati di Ĥ0 . Invece i fenomeni che
variano le popolazioni, quantificati nel valore di γk , richiedono uno scambio di energia tra il
sistema ed il bagno termico. Oltre che per il coefficiente di rilassamento implicato, la terza delle
(11.39) differisce dalle prime due per la presenza del termine Rz0 , che corrisponde al fatto che
all’equilibrio termico le coerenze sono nulle, mentre esiste una differenza di popolazione data
dalla distribuzione di Boltzmann.
Un caso importante di decadimento esponenziale delle popolazioni e delle coerenze è rappresentato dall’emissione spontanea. Se l’emissione spontanea è l’unico processo che agisce
abbiamo
dN1
= A12 N2
dt
127
11.4. RILASSAMENTO E EQUAZIONI DI BLOCH OTTICHE
dN2
= −A12 N2
dt
(11.40)
che portano a
dRz
= A12 (1 − Rz )
dt
che è analoga all’ultima delle (11.39), in questo caso abbiamo cosı̀
(11.41)
γk = A12 .
(11.42)
Il caso del rilassamento perpendicolare è più delicato. La presenza delle coerenze ρ12 e ρ21
richiede che sia il livello |1i che il livello |2i siano popolati. Se la popolazione del livello a
energia più alta |2i tende a zero, tendono a zero anche ρ12 e ρ21 indipendentemente dalla
popolazione di |1i. Se l’unica causa di rilassamento è l’emissione spontanea abbiamo
d |a2 |2
= −A12 |a2 |2 ,
dt
che può essere ottenuta da
da2
A12
=−
a2 ,
dt
2
(11.43)
infatti
da2 ∗ da∗2
A12
A12 ∗
d
∗
(a2 a2 ) =
a2 +
a2 = −
a2 a∗2 −
a2 a2 = −A12 |a2 |2 .
dt
dt
dt
2
2
Questo ci porta a porre
dρ12
A12
=−
ρ12 ,
dt
2
dρ21
A12
=−
ρ21 ,
dt
2
γ⊥ =
A12
.
2
(11.44)
(11.45)
E’ importante notare che, nel caso di rilassamento dovuto all’emissione spontanea, il rilassamento trasversale è più lento del rilassamento longitudinale, mentre per gli altri processi
tipicamente abbiamo γ⊥ ≥ γk .
In presenza di campi elettromagnetici, l’evoluzione del sistema è dovuta all’interazione simultanea del sistema con i campi e con il bagno termico che determina il rilassamento. Una
trattazione rigorosa del caso generale è piuttosto complessa. Ma, se la radiazione elettromagnetica non è troppo forte, è una buona approssimazione sommare semplicemente i due contributi
all’evoluzione, ottenendo le equazioni di Bloch ottiche
d
Rx = (ω21 − ω)Ry − γ⊥ Rx
dt
d
Ry = −(ω21 − ω)Rx + ΩR Rz − γ⊥ Ry
dt
d
Rz = −ΩR Ry − γk (Rz − Rz0 ).
dt
(11.46)
La soluzione delle (11.46) permette di determinare l’evoluzione temporale di popolazioni, coerenze e polarizzazione in un esperimento che possa essere approssimato come l’interazione
di un sistema a due livelli con un’onda elettromagnetica monocromatica e un bagno termico.
Mentre la soluzione transiente, che descrive il passaggio da una generica condizione iniziale allo
128
CAPITOLO 11. MATRICE DENSITÀ
stato stazionario, è abbastanza complicata, la soluzione stazionaria è abbastanza semplice. In
condizioni stazionarie dobbiamo avere
d
d
d
Rx = Ry = Rz = 0,
dt
dt
dt
(11.47)
quindi le (11.46) diventano
ω21 − ω
Ry
γ⊥
Rx =
Ry = −
ω21 − ω
ΩR
Rx +
Rz
γ⊥
γ⊥
Rz = 1 −
ΩR
Ry
γk
(11.48)
dove abbiamo usato il fatto che Rz0 = 1. Combinando le prime due delle (11.48) otteniamo per
Ry
γ⊥
Ry = 2
ΩR Rz ,
(11.49)
γ⊥ + (ω21 − ω)2
che, inserita nell’ultima delle (11.48) ci dà
γk γ⊥2 + (ω21 − ω)2
,
Rz = 2
γk γ⊥ + (ω21 − ω)2 + Ω2R γ⊥
(11.50)
a sua volta, questa ci permette di calcolare Ry
Ry =
ed infine da Ry ricaviamo Rx
Rx =
γk γ⊥2
γk γ⊥ ΩR
+ (ω21 − ω)2 + Ω2R γ⊥
(ω21 − ω) γk ΩR
.
+ (ω21 − ω)2 + Ω2R γ⊥
γk γ⊥2
(11.51)
(11.52)
Dalla (10.71) abbiamo visto che ad un’onda elettromagnetica il cui campo elettrico va come
E0 cos ωt è associata una densità di energia per unità di volume
w = ε0
E02
,
2
(11.53)
e quindi un’intensità, cioè una potenza per unità di superficie
I = c w = c ε0
E02
.
2
(11.54)
Introduciamo l’intensità di saturazione Is , definita da
Is =
~2 c γ k γ ⊥
ε0
.
2
D2
(11.55)
129
11.4. RILASSAMENTO E EQUAZIONI DI BLOCH OTTICHE
Abbiamo cosı̀
D2
Ω2R
E2 2
I
= c ε0 0
=
Is
2 ε0 ~2 c γ k γ ⊥
γk γ⊥
(11.56)
e sostituiamo Ω2R = γk γ⊥ I/Is nelle (11.50-11.52)
Rx
ω21 − ω
ΩR
γ⊥
=
(ω21 − ω)2
I
γ⊥
1+
+
2
γ⊥
Is
Ry =
ΩR
γ⊥
1
I
(ω21 − ω)2
+
1+
2
γ⊥
Is
(ω21 − ω)2
γ⊥2
=
.
(ω21 − ω)2
I
1+
+
γ⊥2
Is
1+
Rz
(11.57)
Dalla ultime delle (11.57) vediamo il significato dell’intensità di saturazione Is : se siamo in
risonanza, ω = ω21 , ed applichiamo un’intensità di radiazione I pari a Is , abbiamo Rz = 1/2,
mentre avevamo supposto che all’equilibrio termico fosse N1 = N ed N2 = 0, quindi Rz = 1.
L’interazione con il campo elettromagnetico tende ad uguagliare le popolazioni, cioè a portare
a Rz = 0. Il valore I = Is corrisponde all’intensità a cui si ha Rz = Rz0 /2. Nel caso di N10 ≈ N
e N20 ≈ 0 abbiamo
Rzsat =
1
N sat − N2sat
RZ0
= = 1
,
2
2
N
3
da cui N1sat = ,
4
1
N2sat = ,
4
N1sat − N2sat =
N
. (11.58)
2
Sempre in risonanza, ma con N10 < N e N20 > 0, all’equilibrio termico, abbiamo
Rzsat =
N 0 − N20
N sat − N2sat
RZ0
= 1
= 1
,
2
2N
N
da cui N1sat − N2sat =
N10 − N20
.
2
(11.59)
Nel caso generale, con anche ω 6= ω21 , l’espressione per Rz diventa
(ω21 − ω)2
1+
N10 − N20
γ⊥2
Rz =
I
(ω21 − ω)2
N
+
1+
2
γ⊥
Is
(11.60)
da cui otteniamo per la differenza di popolazione in presenza di radiazione
(ω21 − ω)2
γ⊥2
0
0
N 1 − N 2 = N Rz =
N
−
N
1
2
(ω21 − ω)2
I
1+
+
γ⊥2
Is
1+
(11.61)
130
CAPITOLO 11. MATRICE DENSITÀ
e per la differenza di popolazione in caso di risonanza ω = ω21
N1 − N2 =
N10 − N20
.
I
1+
Is
(11.62)
mentre per le singole popolazioni abbiamo nel caso generale
N1
(ω21 − ω)2
(N10 − N20 )
N
γ⊥2
+
=
(ω21 − ω)2
I
2
2
1+
+
2
γ⊥
Is
N2
(ω21 − ω)2
(N10 − N20 )
N
γ⊥2
−
,
=
I
(ω21 − ω)2
2
2
+
1+
γ⊥2
Is
1+
1+
(11.63)
e, in caso di risonanza
N1 =
11.5


0
0
1
N + N1 − N2  ,
I 
2
1+
Is
N2 =


0
0
1
N − N1 − N2 
I 
2
1+
Is
(11.64)
Indice di rifrazione e coefficiente di assorbimento
~ = µ0 H,
~ e senza cariche libere
In un materiale non magnetico, per il quale si possa scrivere B
~ ·D
~ = 0, le equazioni di Maxwell si scrivono
in modo che ∇
~ ·D
~ = 0
∇
~
~ ×E
~ = − ∂B
∇
∂t
~ ·B
~ = 0
∇
~
~ ×B
~ = µ0 J~ + µ0 ∂ D .
∇
∂t
(11.65)
Facendo il rotore della seconda equazione otteniamo
2
~
~ ×B
~ = −µ0 ∂ J~ − µ0 ∂ D
~ ×∇
~ ×E
~ =−∂∇
∇
∂t
∂t
∂t2
(11.66)
che, combinata con l’identità vettoriale
~ ×∇
~ ×E
~ =∇
~ ∇
~ · E − ∇2 E
~
∇
(11.67)
11.5. INDICE DI RIFRAZIONE E COEFFICIENTE DI ASSORBIMENTO
131
~ · E = 0, ci porta a
tenendo conto che qui ∇
~ = µ0
∇2 E
ricordiamo ancora che
∂ ~
∂2 ~
J + µ0 2 D
∂t
∂t
~ = ε0 E
~ + P~ ,
D
(11.68)
(11.69)
e sostituiamo nell’equazione precedente
~ = µ0
∇2 E
∂2
∂2 ~
∂ ~
+ µ0 2 P~ .
J + µ0 ε0 2 E
∂t
∂t
∂t
(11.70)
Se supponiamo che l’onda si propaghi lungo l’asse z, e proiettiamo l’equazione sul piano xy
otteniamo
2
2
~ T = −µ0 ∂ P~T ,
~ T − µ0 ∂ J~T − 1 ∂ E
(11.71)
∇2 E
∂t
c2 ∂t2
∂t2
dove il pedice T sta per trasverso. La presenza di J~T è dovuta alla presenza di mezzi metallici
che assorbono la radiazione incidente, ma nell’ambito dell’ottica quantistica questo termine
serve a rappresentare le perdite subite dal campo elettromagnetico durante la sua propagazione
sugli specchi e su altri elementi ottici non perfetti. Introducendo la conducibilità σ, possiamo
scrivere
~T
J~T = σ E
(11.72)
da cui
∂ ~
∂2 ~
1 ∂2 ~
PT ,
ET − 2 2 E
T = −µ0
∂t
c ∂t
∂t2
~ T e P~T descritti da
Introduciamo una soluzione tipo onda piana con E
h
i
~ T (t, z) = 1 E
~ 0 (t, z) e−i(ωt−kz) + E
~ ∗ (t, z) e+i(ωt−kz)
E
0
2
i
1 h~
−i(ωt−kz)
∗
+i(ωt−kz)
~
~
P0 (t, z) e
+ P0 (t, z) e
,
PT (t, z) =
2
~ T − µ0 σ
∇2 E
(11.73)
(11.74)
~ 0 (t, z) e P0 (t, z) generiche funzioni di t e z. Vedremo più sotto che la scomposizione delle
con E
~ 0 (t, z) e P0 (t, z) varino lentamente rispetto agli
(11.74) è particolarmente utile nel caso che E
esponenziali. Dalla (11.23)
b
~
~e · P = N (ρ12 D + ρ21 D),
e dalle (11.30), che possono essere riscritte
otteniamo
ρ12 =
1
(Rx − iRy )e+iωt
2
ρ21 =
1
(Rx + iRy )e−iωt
2
N
b
~
~e · P = D
(Rx + iRy )e−iωt + (Rx − iRy )e+iωt .
2
(11.75)
(11.76)
132
CAPITOLO 11. MATRICE DENSITÀ
Un confronto con la seconda delle (11.74) ci porta a
~e · P~0 = DN (Rx + iRy ),
da cui ℜ(~e · P~0 ) = DN Rx ,
ℑ(~e · P~0 ) = DN Ry .
(11.77)
Abbiamo cosı̀
ΩR
ℜ(~e · P~0 ) = D
γ⊥
ΩR
ℑ(~e · P~0 ) = D
γ⊥
ω21 − ω
γ⊥
(N10 − N20 )
(ω21 − ω)2
I
1+
+
γ⊥2
Is
1
(N10 − N20 )
(ω21 − ω)2
I
1+
+
γ⊥2
Is
(11.78)
dove abbiamo supposto un equilibrio temodinamico con differenza di popolazione (N10 − N20 ).
Le componenti del momento di dipolo elettrico possono anche essere definite attraverso la parte
reale e la parte immaginaria della suscettività dielettrica, χ ′ e χ ′′ :
P0 = ε0 (χ ′ − iχ ′′ )E0
(11.79)
Ricordando che ΩR = DE0 /~, abbiamo
χ′
ω21 − ω
D
ℜ(P0 )
γ⊥2
=
=
(N10 − N20 )
2
(ω21 − ω)
I
ε0 E 0
ε0 ~
1+
+
2
γ⊥
Is
2
=
D2
ℜ(P0 )
=
ε0 E 0
ε0 ~
χ ′′ = −
= −
γ⊥2
ω21 − ω
(N10 − N20 )
I
1+
+ (ω21 − ω)2
Is
D2
ℑ(P0 )
=−
ε0 E 0
ε0 ~γ⊥
D2
ε0 ~
1
(N10 − N20 )
2
(ω21 − ω)
I
1+
+
2
γ⊥
Is
γ
⊥
(N10 − N20 )
I
γ⊥2 1 +
+ (ω21 − ω)2
Is
(11.80)
La suscettività determina come si modifica un’onda elettromagnetica descritta dalla (11.74)
attraversando un mezzo. Per risolvere la (11.74) applichiamo l’approssimazione di onda lentamente variabile, definita dalle condizioni
∂E0 ∂E0 ∂t ≪ ω|E0 |, ∂z ≪ k|E0 |
∂P0 ≪ ω|P0 |, ∂P0 ≪ k|P0 |.
(11.81)
∂t ∂z 11.6. EQUAZIONI DI RATE E FORME DI RIGA
133
In questa approssimazione, la (11.74) può essere scritta, dopo passaggi che per il momento non
riesco a ricavare
∂
σ
kD
1∂
E0 + E0 +
E0 = −i
P0
(11.82)
∂z
ε0
c ∂t
2ε0
L’ampiezza della polarizzazione P0 si ottiene dalla soluzione delle equazioni di Bloch ottiche
che, combinate alla (11.82) costituiscono le equazioni di Maxwell-Bloch. L’equazione (11.82)
permette di determinare la variazione nello spazio e nel tempo della parte reale del campo
elettrico. Si dimostra che il coefficiente di assorbimento del mezzo attraversato dipende da
χ ′′ . Sempre dalla (11.82) si ricava che la variazione della fase del campo elettromagnetico,
cioè l’indice di rifrazione del mezzo attraversato, dipende da χ ′ . La potenza assorbita W da
un’unità di volume del mezzo assorbente può essere calcolata attraverso l’espressione
~
~ T dPT = 1 ℜ [E ∗ (iωP0 )] = ε0 ωχ ′′ E 2
W=E
0
0
dt
2
2
(11.83)
che dimostra come la parte immaginaria χ ′′ della suscettività determina l’assorbimento da parte
del mezzo attraversato. Utilizzando le (11.80) per la suscettività, la (11.54) per l’intensità della
radiazione I, e la (11.54) per l’intensità di saturazione, otteniamo per la potenza assorbita
W=
11.6
ε0 D2 E02 ω
2~
γ⊥2
γ
⊥
(N10 − N20 ).
I
1+
+ (ω21 − ω)2
Is
(11.84)
Equazioni di rate e forme di riga
Consideriamo un sistema a due livelli interagente con un’onda elettromagnetica, in assenza di
interazioni con un bagno termico. L’evoluzione temporale della differenza di popolazione può
essere scritta, tenendo conto che W12 = W21 ,
d
(N1 − N2 ) = −2W21 (N1 − N2 ).
dt
(11.85)
La terza equazione di Bloch ottica è
d
1 d
Rz =
(N1 − N2 ) = −ΩR Ry − γk (Rz − Rz0 )
dt
N dt
(11.86)
in cui il primo termine dell’ultimo membro descrive l’interazione con il campo di radiazione.
La soluzione delle equazioni di Bloch per Ry nel caso stazionario è data dalle (11.49)
Ry =
γ⊥2
γ⊥
ΩR Rz
+ (ω21 − ω)2
che, sostituita nella (11.86) ci dà
d
γ⊥
Rz − γk (Rz − Rz0 ).
Rz = −Ω2R 2
dt
γ⊥ + (ω21 − ω)2
(11.87)
134
CAPITOLO 11. MATRICE DENSITÀ
Separando la parte che riguarda l’interazione con la radiazione dalla parte contenente γk che
descrive la variazione delle popolazioni per effetto dell’interazione con il bagno termico, la
(11.87) diventa
γ⊥
d
(N1 − N2 ) = −Ω2R 2
(N1 − N2 )
(11.88)
dt
γ⊥ + (ω21 − ω)2
rad
che, paragonata alla (11.85) ci dà
W21 =
Ω2R
γ⊥
D2 E02
γ⊥
=
2
2
2 γ⊥ + (ω21 − ω)2
2~2 γ⊥ + (ω21 − ω)2
(11.89)
che ci dà una forma di riga lorentziana in funzione della differenza tra la frequenza della radiazione ω e la frequenza di transizione ω21 . I conti svolti in questo paragrafo presuppongono che
Rx ed Ry evolvano cosı̀ rapidamente da raggiungere lo stato stazionario prima di Rz . Questo
implica che sia γ⊥ ≫ γk .
11.7
Accoppiamento atomo-bagno termico
Consideriamo un sistema di atomi a due livelli che interagisca con un bagno termico in assenza
di radiazione. Il bagno termico può indurre transizioni tra i livelli atomici |1i e |2i. L’equazione
di rate per l’evoluzione della popolazione del livello atomico eccitato |2i si scrive
dN2
= W21 N1 − W12 N2
dt
(11.90)
che ha come soluzione stazionaria
W12
N10
=
.
(11.91)
0
N2
W21
Se il sistema atomi più bagno termico si trova all’equilibrio termodinamico ad una temperatura T , e supponiamo che le condizioni siano tali che sia soddisfatta la statistica di MaxwellBoltzmann, deve anche essere
N10
= e(E2 −E1 )/kT ,
0
N2
da cui otteniamo
W12
= e(E2 −E1 )/kT = e∆E/kT .
W21
(11.92)
A prima vista questa relazione può sembrare sorprendente perché sembra che le probabilità di
transizione abbiano una informazione sulla temperatura del bagno termico. Inoltre, quando
abbiamo trattato il caso delle transizioni dovute ad interazioni con la radiazione elettromagnetica, o, più in generale, ad hamiltoniane di perturbazione dipendenti dal tempo, le probabilità
di transizione nelle due direzioni erano identiche.
La cosa però si spiega ricordando che il principio del bilancio dettagliato deve essere applicato
ad un sistema isolato, la cui energia viene conservata. Nel nostro caso questo sistema non è il
sistema atomico da solo, ma l’insieme “sistema atomico + bagno termico”. Il bagno termico,
per ipotesi, ha una grande capacità termica, per cui la sua variazione di energia è piccola
rispetto all’energia totale, e le proprietà del bagno termico non vengono alterate sensibilmente
negli scambi di energia con gli atomi del nostro sistema.
tot
Dal punto di vista del sistema totale, W12
rappresenta la probabilità per unità di tempo
che contemporaneamente:
135
11.7. ACCOPPIAMENTO ATOMO-BAGNO TERMICO
i. l’atomo passi dallo stato ad energia più alta |2i a quello ad energia più bassa |1i cedendo
at
at
l’energia ∆E = E2 − E1 , evento che ha probabilità W12
= W21
, e che
ii. il bagno termico assorba l’energia ∆E, passando da un certo stato del bagno |αi ad un
altro stato di energia superiore |βi, con Eβ − Eα = ∆E. Questo evento avrà probabilità
res
Wβα
.
Quella che noi osserviamo non è quindi semplicemente la probabilità di transizione atomica
at
tot
at
res
W12
, ma una probabilità di transizione “complessiva” W12
= W12
Wβα
(dove il suffisso “res”
at
at
sta per reservoir, bagno termico), essendo W12 = W21 abbiamo quindi
res
tot
at W res
Wβα
W12
W12
βα
=
.
=
tot
at
res
res
W21
W21
Wαβ
Wαβ
(11.93)
Mentre gli stati |1i e |2i sono stati singoli, gli stati |αi e |βi corrispondono in realtà a molteplicità
di stati, data la complessità del bagno termico. Per la regola d’oro di Fermi, per avere la
probabilità di transizione ad una molteplicità di stati bisogna moltiplicare il modulo quadro
dell’elemento di matrice dell’hamiltoniana di perturbazione per il numero degli stati finali,
abbiamo quindi
res
tot
Wβα
N res (β)
W12
.
(11.94)
=
=
tot
res
W21
Wαβ
N res (α)
Facendo il logaritmo della (11.94) otteniamo
log
tot
W12
tot
W21
= log[N res (β)] − log[N res (α)] =
1 res
[S (β) − S res (α)]
k
(11.95)
dove con S res abbiamo indicato l’entropia del bagno termico, e abbiamo sfruttato il fatto che
S(α) = k log[N res (α)],
(11.96)
infatti, quando diciamo che il bagno termico si trova nello stato |αi, in realtà non sappiamo
in quale di N res (α) stati effettivamente si trovi. Abbiamo quindi un’informazione mancante
relativa a N res (α) casi equiprobabili. Mentre il bagno termico assorbe l’energia ∆E passando
dallo stato |αi allo stato |βi il suo volume e la sua temperatura restano praticamente costanti,
per cui abbiamo
∆E
S res (β) − S res (α) =
,
(11.97)
T
quindi
log
tot
W21
tot
W12
=
∆E
,
kT
da cui
tot
W21
= e∆E/kT
tot
W12
(11.98)
che dimostra la (11.92). In altre parole, il bagno termico fornisce al sistema atomico l’informazione sulla temperatura a causa delle transizioni all’interno del bagno termico stesso,
ed alla variazione di informazione collegata, che necessariamente accompagnano le transizioni
all’interno del sistema atomico.
136
11.8
CAPITOLO 11. MATRICE DENSITÀ
Allargamento omogeneo
Nelle formule che descrivono l’interazione tra la radiazione elettromagnetica e la materia compare una forma di riga φ(ω − ω21 ), caratterizzata da una certa larghezza di riga ∆ω = γ⊥ , che
dice come varia la probabilità dell’assorbimento in funzione della frequenza. La larghezza di
riga può avere origini diverse, e può essere di tipo omogeneo o non omogeneo.
Si parla di allargamento omogeneo quando si ha la stessa forma di riga (inclusi centro e
larghezza) per ogni atomo (o molecola) del sistema. Nella maggior parte dei casi l’allargamento
omogeneo è dovuto alla durata finita del tempo di interazione tra la radiazione elettromagnetica
e gli atomi assorbenti. Il tempo di interazione può essere limitato ad un valore T da processi
di vario genere, come, per esempio, l’emissione spontanea o la durata finita dell’impulso di
radiazione. Un’applicazione diretta del principio di indeterminazione di Heisenberg ∆E∆t >
~/2 ci porta ad una larghezza della riga di assorbimento
∆ω =
∆E
1
=
.
~
2T
(11.99)
Un altro meccanismo di allargamento omogeneo, nel caso di un gas, è l’allargamento per pressione, dovuto dalle collisioni interatomiche che modificano i processi di interazione tra la radiazione elettromagnetica e gli atomi. Possiamo supporre che ad ogni collisione la fase relativa
dell’interazione radiazione-atomo sia modificata bruscamente e cominci una nuova evoluzione
coerente, con fase non correlata a quella di prima dell’urto. L’allargamento omogeneo è cosı̀
determinato dal tempo medio tra due collisioni Tc , dato da
ℓ
Tc = ,
v
(11.100)
s
8kT
, con µ = m1 m2 /(m1 + m2 ), la
πµ
velocità relativa media tra due atomi di massa m1 e m2 che collidono. Il libero cammino medio
per urti tra sfere rigide di raggio a, con n sfere per unità di volume, vale
dove ℓ è il cammino libero medio tra due collisioni e v =
1
ℓ= √
4 2πna2
(11.101)
√
dove il fattore 2 appare quando viene fatta una integrazione sulla distribuzione delle velocità
di Maxwell-Boltzmann. Otteniamo cosı̀
r
πµ
1
.
(11.102)
Tc = √
4 2πna2 8kT
Questa formula può essere scritta in funzione della pressione del gas. Dall’equazione dei gas
pV = N kT
(11.103)
otteniamo per il numero di atomi per unità di volume n
n=
N
p
=
,
V
kT
(11.104)
137
11.9. ALLARGAMENTO DISOMOGENEO: EFFETTO DOPPLER
che, sostituito nella (11.102) ci dà
1
Tc = √
4 2πa2
r
πµ kT
=
8kT p
r
µkT 1
,
π 16a2 p
1
da cui ∆ω =
=
2Tc
r
π
8 a2 p.
µkT
(11.105)
Sperimentalmente si osserva che, per diversi sistemi atomici e molecolari, l’allargamento per
pressione è dato con buona approssimazione dall’espressione
∆ω ≈ 8.357
11.9
MHz
p
Pa
(11.106)
Allargamento disomogeneo: effetto Doppler
L’allargamento per effetto Doppler è dovuto alla componente della velocità dei singoli atomi
lungo la direzione di propagazione della radiazione elettromagnetica. Consideriamo un’onda
elettromagnetica di frequenza ν0 che si propaghi lungo l’asse z del nostro sistema di riferimento,
ed un atomo di massa m che si muova con velocità vz opposta alla direzione di propagazione
dell’onda. Per l’effetto Doppler, nel proprio sistema di quiete l’atomo vede un’onda di frequenza
v
u
v
u1 + z
vz u
c
ν = ν0 t
(11.107)
vz ≈ ν 0 1 + c .
1−
c
Perché l’onda venga assorbita bisogna che non ν0 , ma ν sia uguale alla frequenza ν21 di separazione tra il livello |1i e il livello |2i. Pertanto la radiazione sarà assorbita solo dagli atomi
che hanno velocità lungo l’asse z
ν21 − ν0
ν21 − ν0
ν21
−1 =c
≈c
,
(11.108)
vz = c
ν0
ν0
ν21
dove abbiamo tenuto conto del fatto che ν21 ≈ ν0 . La probabilità che la componente z della
velocità dell’atomo sia nell’intervallo (vz , vz + dvz ) è
P (vz ) dvz =
r
m
2
e−mvz /2kT dvz ,
2πkT
(11.109)
sostituendo la (11.108), da cui ricaviamo anche che
dvz = −c
dν0
,
ν21
otteniamo per la probabilità che un atomo possa assorbire radiazione nell’intervallo di frequenza
(ν0 , ν0 + dν0 )
m 2 (ν21 − ν0 )2
r
−
c
2
m
c
ν21
e 2kT
dν0 .
(11.110)
φ(ν0 ) dν0 =
2πkT
ν21
138
CAPITOLO 11. MATRICE DENSITÀ
Il valore massimo dell’esponenziale si ha per ν0 = ν21 . La larghezza Doppler ∆νD è definita in
modo che per ν0 = ν21 ± ∆νD l’esponenziale valga 1/2. Abbiamo quindi
r
2
ν21
m 2 ∆νD
2kT
c 2 = log 2 da cui ∆νD =
.
(11.111)
log 2
2kT
ν21
c
m
La (11.110) può cosı̀ essere riscritta
φ(ν0 ) =
r
che ci dà una forma di riga Gaussiana.
log 2 1 −(ν0 −ν12 )2 /∆νD2
e
,
π ∆νD
(11.112)
Capitolo 12
Regole di selezione
12.1
Considerazioni di simmetria
In questo paragrafo introdurremo alcuni concetti di simmetria per l’hamiltoniana imperturbata di un atomo. Per semplicità, consideriamo l’atomo di idrogeno col suo unico elettrone.
L’equazione di Schrödinger si scrive
~2
∆ + V (~r) ψn (~r) = En ψn (~r).
(12.1)
Ĥ0 (~r) ψn (~r) = −
2m
Per il potenziale generato dal nucleo vale
V (~r) = V (−~r).
(12.2)
D’altra parte, anche per il laplaciano che compare nell’espressione dell’operatore relativo all’energia cinetica vale
∂2
∂2
, per xi = x, y, z.
(12.3)
=
∂(−xi )2
∂x2i
Quindi, in assenza di campi esterni, l’hamiltoniana è invariante per parità, cioè per trasformazioni che mandino ~r in −~r.
Indipendentemente da questo, se effettuiamo il cambiamento di variabili ~r → −~r, da
Ĥ0 (~r) ψn (~r) = En ψn (~r) otteniamo Ĥ0 (−~r) ψn (−~r) = En ψn (−~r).
(12.4)
Ma dall’invarianza per parità abbiamo che Ĥ0 (−~r) = Ĥ0 (~r), quindi
Ĥ0 (~r) ψn (−~r) = En ψn (−~r),
(12.5)
che ci dice che ψn (−~r) e ψn (~r) sono autofunzioni di Ĥ0 corrispondenti allo stesso autovalore.
Se siamo in assenza di degenerazione all’autovalore En corrisponde un solo autostato. Naturalmente sappiamo che se ψn (~r) è un’autofunzione di un operatore corrispondente ad un certo
autostato |ni, anche la funzione αψn (~r), con α numero complesso qualunque, è un’autofunzione
corrispondente allo stato |ni. Quindi deve essere
ψn (−~r) = α ψn (~r).
139
(12.6)
140
CAPITOLO 12. REGOLE DI SELEZIONE
Se in ambedue i membri sostituiamo ~r con −~r otteniamo
ψn (~r) = α ψn (−~r).
(12.7)
D’altra parte, se sostituiamo la (12.6) nella (12.7) abbiamo
ψn (−~r) = α ψn (~r) = α2 ψn (−~r)
(12.8)
da cui
α2 = 1,
α = ±1,
ψn (−~r) = ±ψn (~r).
(12.9)
In altre parole, in assenza di degenerazione, le autofunzioni di Ĥ0 hanno parità definita: o sono
pari, o sono dispari.
Un’altra proprietà di Ĥ0 è la sua invarianza per rotazioni di qualunque angolo attorno a
qualunque asse passante per il nucleo, per esempio, attorno all’asse z. Indicando con ϕ l’angolo
di rotazione attorno a z, abbiamo cosı̀
Ĥ0 (r, ϑ, ϕ + ϕ1 ) = Ĥ0 (r, ϑ, ϕ).
(12.10)
Scrivendo l’equazione di Schrödinger in coordinate sferiche abbiamo
Ĥ0 (r, ϑ, ϕ + ϕ1 ) ψn (r, ϑ, ϕ + ϕ1 ) = En ψn (r, ϑ, ϕ + ϕ1 ),
(12.11)
che, data l’invarianza per rotazione di Ĥ0 , equivale a
Ĥ0 (r, ϑ, ϕ) ψn (r, ϑ, ϕ + ϕ1 ) = En ψn (r, ϑ, ϕ + ϕ1 ).
(12.12)
Ancora una volta, se non c’è degenerazione deve essere
ψn (r, ϑ, ϕ + ϕ1 ) = αϕ1 ψn (r, ϑ, ϕ),
(12.13)
con il fattore di proporzionalità αϕ1 che può dipendere da ϕ1 . Se facciamo una rotazione di ϕ2
anziché di ϕ1 abbiamo
(12.14)
ψn (r, ϑ, ϕ + ϕ2 ) = αϕ2 ψn (r, ϑ, ϕ).
Adesso sostituiamo ϕ + ϕ2 al posto di ϕ nella (12.13), ottenendo
ψn (r, ϑ, ϕ + ϕ1 + ϕ2 ) = αϕ1 ψn (r, ϑ, ϕ + ϕ2 ),
(12.15)
che, in base alla (12.14), può essere riscritta
ψn (r, ϑ, ϕ + ϕ1 + ϕ2 ) = αϕ1 αϕ2 ψn (r, ϑ, ϕ),
(12.16)
αϕ1 +ϕ2 = αϕ1 αϕ2 .
(12.17)
da cui si ricava
Quest’ultima relazione è verificata solo se
αϕ = eimϕ ,
(12.18)
con m parametro da determinare. Ogni funzione deve essere trasformata in sé stessa da una
rotazione di un angolo uguale a 2π. Abbiamo quindi la condizione
eim2π = 1,
(12.19)
che implica che m sia un numero intero, positivo o negativo. Questa relazione ci permette anche
di determinare la dipendenza delle ψn dalla coordinata sferica ϕ. Infatti abbiamo
ψn (r, ϑ, 0 + ϕ) = αϕ ψn (r, ϑ, 0) = eimϕ ψn (r, ϑ, 0),
con m intero.
(12.20)
141
12.2. TRANSIZIONI DI DIPOLO ELETTRICO
12.2
Transizioni di dipolo elettrico
Come abbiamo visto nel paragrafo 10.3 l’operatore momento di dipolo elettrico per un atomo
può essere scritto
Z
X
b
P~ = −e
~rbi ,
i=1
con componenti P̂x = −e
Z
X
P̂y = −e
x̂i ,
i=1
Z
X
ŷi ,
i=1
P̂z = −e
Z
X
ẑi .
i=1
(12.21)
Limitandoci, per semplicità di calcolo, all’atomo di idrogeno, abbiamo
b
P~ = −e b
~r,
con componenti P̂x = −e x̂,
P̂y = −e ŷ,
P̂z = −e ẑ,
(12.22)
dove b
~r ≡ (x̂, ŷ, ẑ) è l’operatore posizione dell’elettrone nel sistema di riferimento del nucleo. Se
b
vogliamo calcolare il valor medio di P~ su un qualunque autostato |ni di Ĥ0 abbiamo
b
hn|P~ |ni = −e
Z
+∞
dx
−∞
Z
+∞
dy
−∞
Z
+∞
−∞
dz ψn∗ (~r) ~r ψn (~r).
(12.23)
Se nell’integrale effettuiamo il cambiamento di variabili
x → −x,
y → −y,
z → −z,
il valore dell’integrale stesso rimane invariato, quindi
Z −∞
Z −∞
Z −∞
b
−dz ψn∗ (−~r) (−~r) ψn (−~r).
−dy
−dx
hn|P~ |ni = −e
(12.24)
+∞
+∞
+∞
L’integrale triplo rimane inalterato anche se adesso per ognuno degli integrali scambiamo i
limiti di integrazione e cambiamo il segno del differenziale
Z +∞ Z +∞ Z +∞
b
~
dz ψn∗ (−~r) (−~r) ψn (−~r).
(12.25)
dy
dx
hn|P |ni = −e
−∞
−∞
−∞
Se supponiamo di non avere degenerazione, continua ad essere valida per la funzione d’onda la
proprietà (12.9), quindi ψn∗ (~r)ψn (~r) è invariante per parità, e ψn∗ (−~r)ψn (−~r) = ψn∗ (~r)ψn (~r):
Z +∞ Z +∞ Z +∞
b
~
dz ψn∗ (−~r) (−~r) ψn (−~r)
dy
dx
hn|P |ni = −e
= −e
= +e
Z
Z
+∞
dx
−∞
+∞
dx
−∞
−∞
−∞
−∞
Z
Z
+∞
dy
−∞
+∞
dy
−∞
Z
Z
+∞
−∞
dz ψn∗ (~r) (−~r) ψn (~r)
+∞
−∞
dz ψn∗ (~r) (~r) ψn (~r),
(12.26)
che, paragonato alla (12.23), porta a
b
b
hn|P~ |ni = −hn|P~ |ni = 0.
(12.27)
142
CAPITOLO 12. REGOLE DI SELEZIONE
b
Come avevamo già detto, P~ ha valor medio nullo su qualunque autostato non degenere di Ĥ0 . Se
abbiamo a che fare con un atomo diverso dall’atomo di idrogeno, rimane il fatto che gli autostati
non degeneri dell’hamiltoniana imperturbata hanno parità definita. I conti appena fatti possono
quindi essere ripetuti con funzioni d’onda che dipendono dalle coordinate di tutti gli elettroni
dell’atomo (opportunamente antisimmetrizzate), e con il momento di dipolo scritto nella forma
b
(12.21), riottenendo il risultato che il valor medio di P~ è nullo su qualunque stato stazionario
dell’atomo. Una cosa molto importante da notare è che, usando proprietà di simmetria, siamo
arrivati a dire che il valore dell’integrale è zero senza doverlo calcolare esplicitamente.
b
Per gli elementi di matrice di P~ tra due autostati diversi di Ĥ0 , per esempio |mi e |ni, il
risultato precedente ci dice che
Z +∞ Z +∞ Z +∞
b
~
hn|P |mi =
dx
dy
dz ψn∗ (~r) ~r ψm (~r).
(12.28)
−∞
−∞
−∞
può essere (ma non necessariamente è) diverso da zero solo se gli stati |mi e |ni hanno parità
diversa. Per andare oltre conviene considerare separatamente le singole componenti del dipolo
ed usare le coordinate sferiche, con l’asse z preso come asse di quantizzazione. Etichettiamo
esplicitamente gli autostati come |n, l, mi, e le funzioni d’onda come ψn,l,m (r, ϑ, ϕ). Per la
componente P̂z , abbiamo
Z
′ ′
′
hn , l , m |P̂z |n, l, mi = −e ψn∗ ′ ,l′ ,m′ (r, ϑ, ϕ) (r cos ϑ) ψn,l,m (r, ϑ, ϕ) dτ,
(12.29)
dove z è stato scritto come r cos ϑ, e dτ è l’elemento di volume. Applichiamo una rotazione di
un angolo arbitrario ϕ0 attorno all’asse z, che lascia inalterata l’hamiltoniana. Poiché z non
viene cambiato dalla rotazione, la (12.20) ci dice che la trasformazione dell’elemento di matrice
è
′
(12.30)
hn′ , l′ , m′ |P̂z |n, l, mi → hn′ , l′ , m′ |P̂z |n, l, miei(m−m ) ϕ0 .
D’altra parte l’elemento di matrice deve restare invariato, quindi, se hn, l, m|P̂z |n′ , l′ , m′ i 6= 0,
dobbiamo avere
′
ei(m−m ) ϕ0 = 1
(12.31)
qualunque sia il valore di ϕ0 . Questo è possibile solo se m′ = m. Questa è una regola di
selezione: se il campo elettrico dell’onda elettromagnetica è diretto lungo l’asse z, possono
avvenire transizioni di dipolo elettrico solo tra stati con m′ = m. In questo caso si parla di
radiazione polarizzata π (il valore fonetico di “π” è “p”, per polarizzazione “parallela” all’asse
di quantizzazione).
Anziché trattare direttamente le componenti P̂x e P̂y , adesso conviene considerare le loro
combinazioni P̂+ e P̂− definite da
P̂+ = P̂x + iP̂y
P̂− = P̂x − iP̂y .
(12.32)
Esprimendo x e y in coordinate polari, cioè x = r sin ϑ cos ϕ e y = r sin ϑ sin ϕ, abbiamo per gli
elementi di matrice
Z
′ ′
′
hn , l , m |P̂± |n, l, mi = −e ψn∗ ′ ,l′ ,m′ (r, ϑ, ϕ) r sin ϑe±iϕ ψn,l,m (r, ϑ, ϕ) dτ.
(12.33)
143
12.2. TRANSIZIONI DI DIPOLO ELETTRICO
Se, di nuovo, facciamo una rotazione di un angolo arbitrario ϕ0 attorno all’asse z, che lascia
inalterata l’hamiltoniana, abbiamo la trasformazione
′
hn, l, m|P̂± |n′ , l′ , m′ i → hn, l, m|P̂± |n′ , l′ , m′ iei(m−m ±1)ϕ0 .
(12.34)
Imponendo nuovamente che l’elemento di matrice resti invariato, vediamo che deve essere
m′ = m + 1 perché possa essere
hn, l, m|P̂+ |n′ , l′ , m′ i 6= 0
m′ = m − 1 perché possa essere hn, l, m|P̂− |n′ , l′ , m′ i 6= 0.
(12.35)
Una seconda regola di selezione ci dice quindi che, per radiazione polarizzata perpendicolarmente all’asse di quantizzazione, si possono avere solo transizioni con m′ = m ± 1. In questo
caso si parla di luce polarizzata σ (il valore fonetico di σ è “s”, “perpendicolare” in tedesco si
dice “senkrecht”, quindi, polarizzazione “perpendicolare” all’asse di quantizzazione). In caso di
radiazione σ polarizzata circolarmente, si chiama polarizzazione σ + quella che induce transizioni
con m′ = m + 1, polarizzazione σ − quella che induce transizioni con m′ = m − 1.
Con considerazioni analoghe, ma più complicate dal punto di vista matematico, possiamo
ricavare la regola di selezione per il momento angolare orbitale dell’elettrone:
l′ = l ± 1.
(12.36)
Regole di selezione più generali possono essere ottenute, in maniera più elegante, dal teorema
di Wigner-Eckart, per il quale rimandiamo ad un testo di meccanica quantistica.
144
CAPITOLO 12. REGOLE DI SELEZIONE
Capitolo 13
Superconduttività
13.1
Un richiamo di magnetismo classico
Il fenomeno della superconduttività non può essere interpretato semplicemente come il caso
limite di un materiale a resistività nulla dell’elettromagnetismo classico. La presenza dell’effetto
Meissner, che vedremo nel seguito, ci dice che un materiale superconduttore reale è un materiale
perfettamente diamagnetico. Per questo ci conviene cominciare il capitolo con due richiami di
magnetismo ed uno di termodinamica.
~a
Cominciamo ricordando il problema di una sfera di permeabilità
B
magnetica relativa µr e raggio R, inserita in un campo magnetico
~ a , come in Fig. 13.1. In questo capitolo inR
esterno uniforme B
O
~
dicheremo sempre con Ba il campo applicato dallo sperimentatore,
z
µr
per esempio regolando la corrente che passa in un solenoide. A
questo si aggiungerà, eventualmente, il campo dovuto alla presenza di materiali con µr 6= 1. Controlliamo se esiste una soluzione Figura 13.1: Sfera con
~ (i) all’interno della sfera è uniforme e permeabilità magnetica µr
in cui il campo magnetico B
~ a , mentre il campo all’esterno B
~ (e) è la sovrappo- in campo magnetico esterproporzionale a B
(m)
~ a e di un campo B
~
sizione di B
generato dalla magnetizzazione no uniforme.
della sfera. Questo sarà pari al campo generato da un dipolo mag~ a situato al centro O della sfera stessa. Controlliamo quindi se è possibile che
netico m
~ = αB
sia
~ (i) = k B
~a
B
~ (e) = B
~a + B
~ (m) ,
B
(13.1)
(13.2)
dove α e k sono costanti di proporzionalità da determinare. In coordinate sferiche, con origine
~ (m) e le sue componenti
in O e z come asse polare, abbiamo per B
µ0
ẑ · ~r
ẑ
(m)
~
B
= αBa
3 5 ~r − 3 ,
(13.3)
4π
r
r
µ0 2 cos ϑ
Br(m) = αBa
,
(13.4)
4π r3
µ0 sin ϑ
(m)
,
(13.5)
Bϑ
= αBa
4π r3
145
146
CAPITOLO 13. SUPERCONDUTTIVITÀ
Bϕ(m) = 0,
(13.6)
dove ẑ è il versore dell’asse z ed r il modulo della distanza da O. I valori di α e k si determinano
~ e della componente
imponendo le condizioni di continuità della componente perpendicolare di B
~ in ogni punto della superficie della sfera. Abbiamo (vedi Fig. 13.2)
parallela di H
(e)
⇒ kBa cos ϑ = Ba cos ϑ + Br(m) = Ba cos ϑ + αBa
(i)
(e)
⇒ k
(m)
Hk = Hk
B
µr
Ba
B
Ba
sin ϑ =
sin ϑ − ϑ
µ0 µr
µ0
µ0
~ (e) = B
~a + B
~ (m)
B
~ (i)
O
m
~
µ0 2 cos ϑ
4π R3
Ba
1 sin ϑ
,
=
sin ϑ − αBa
µ0
4π R3
(i)
B⊥ = B⊥
ϑ
R
z
(13.7)
(13.8)
il segno meno al secondo membro della (13.8) è dovuto
~ (m) . Semplifiall’orientazione della componente ϑ di B
cando, otteniamo il sistema di due equazioni nelle due
incognite k ed α
2αµ0
4πR3
αµ0
,
= 1−
4πR3
k = 1+
k
µr
~ e
Figura 13.2: Raccordo dei campi B
~ tra dentro e fuori la sfera.
H
che ha soluzioni
3µr
k=
µr + 2
4πR3
e α=
µ0
µr − 1
µr + 2
.
(13.9)
(13.10)
(13.11)
Da qui otteniamo per il campo all’interno della sfera, per il suo momento di dipolo magnetico
~ fuori e dentro alla sfera
e per il campo H
3
~ (e)
~ (i)
3µ
4πR
µ
−
1
r
r
(i)
~ =
~ a, m
~a =
~ a, H
~ (e) = B , H
~ (i) = B . (13.12)
B
B
~ = αB
B
µr + 2
µ0
µr + 2
µ0
µ0 µr
~ =B
~ a all’infinito, e le condizioni di raccordo alla
Poiché sono rispettate la condizione che sia B
superficie della sfera, le (13.12) sono l’unica soluzione del problema. All’interno della sfera la
~ sarà
magnetizzazione M
~
~ (i)
m
~
µ
−
1
Ba
B
r
(i)
(i)
~ = χm H
~ = (µr − 1)H
~ = (µr − 1)
=3
= ,
(13.13)
M
µ0 µr
µr + 2 µ0
V
dove V = 4πR3 /3 è il volume della sfera. Un altro caso che ci interesserà è quello di un cilindro
~ a , parallelo al
infinito di permeabilità magnetica µr immerso in un campo magnetico uniforme B
suo asse. In questo caso è facile ricavare dalla continuità di Hk = H alla superficie del cilindro
~ (i) = µr B
~ a.
che il campo interno sarà B
Inoltre, è possibile dimostrare che in un qualunque ellissoide di materiale omogeneo ed
~ a uniforme e parallelo
isotropo, con permeabilità magnetica µr e posto in un campo applicato B
(i)
~ è uniforme e proporzionale a B
~ a . La
ad uno degli assi, il campo magnetico all’interno B
dimostrazione richiede però l’uso di coordinate ellissoidali ed esula dagli scopi del corso. Qui ci
limitiamo a notare che la sfera ed il cilindro che abbiamo appena trattato sono casi particolari
dell’ellissoide.
147
13.2. LAVORO DI MAGNETIZZAZIONE
13.2
Lavoro di magnetizzazione
Consideriamo un cilindro non ferromagnetico di raggio R e lunghezza l inizialmente in assenza
di campi magnetici. Vogliamo calcolare il lavoro fatto sul campione quando lo si magnetizza,
~ a parallelo al suo asse. Supponiamo che valga la
accendendo un campo magnetico applicato B
~ H
~ e la magnetizzazione M
~ possano
condizione l ≫ R, in modo che, all’interno del cilindro B,
~ continuo alla superficie laterale. Chiameremo B
~ (i) , H
~ (i) e
essere considerati uniformi, con H
~ (i) i valori finali all’interno del campione. Il calcolo può essere effettuato in due modi, ed è
M
utile considerarli entrambi,
13.2.1
Lavoro “meccanico” sul campione
Supponiamo di avere un campo magnetico che, con ottima approssimazione, possa essere considerato uniforme su volumi delle dimensioni del nostro campione, ma che, in realtà, vari
~ a all’origine delle coordinate fino ad annullarsi almolto lentamente da un valore massimo B
l’infinito. Supponiamo inoltre che il centro del nostro campione cilindrico si trovi in un punto
~ è diretto lungo z, e che l’asse del cilindro sia anch’esso diretto
(x, y = 0, z = 0) nel quale B
lungo z. Vogliamo calcolare il lavoro che il cilindro fa sull’esterno se trasla di una quantità dx.
Conviene cominciare considerando le forze di
y
I
Lorentz che agiscono sui lati di una spiretta
rettangolare, di lati dx e dy, percorsa da una
~
B
f~(x)
f~(x + dx)
corrente I, come in fig. 13.3. Avremo
dy
0
f (x) = −I dy B(x)
∂B
f (x + dx) = I dy B(x) +
dx ,
∂x
x
dx
per cui la forza complessiva lungo l’asse x vale Figura 13.3: Forze di Lorentz sui lati di una
spiretta rettangolare di lati dx e dy in presenza di
~
un campo magnetico B(x)
diretto lungo z.
∂B
∂B
= dm
,
F (x) = I dx dy
∂x
∂x
~
dove dm è il momento magnetico della spiretta, diretto lungo l’asse z. Se il gradiente di B
cambia sufficientemente lentamente, la forza complessiva sul cilindro può essere scritta
Fx = m
∂B
.
∂x
Quindi, per il lavoro fatto dal cilindro quando si sposta di dx possiamo scrivere
dL = Fx dx = m
∂B
dx = m dB,
∂x
espressione che può essere generalizzata in
~
dL = m
~ · dB,
(13.14)
~
che corrisponde al lavoro che il cilindro fa sull’esterno quando il campo magnetico passa da B
~ + dB.
~ Questo è l’opposto del lavoro di magnetizzazione, cioè il lavoro che deve essere fatto
aB
148
CAPITOLO 13. SUPERCONDUTTIVITÀ
~ aB
~ + dB,
~ e, conseguentemente, il momento di
sul campione quando si porta il campo da B
~
~ + dM
~ ). In particolare, il
dipolo complessivo del campione da m
~ = VM a m
~ + dm
~ = V (M
lavoro di magnetizzazione per portare il cilindro alla magnetizzazione che si ha in presenza di
un campo applicato Ba è il lavoro necessario per portare il cilindro dall’infinito all’origine delle
coordinate:
Z Ba
~
L=−
m
~ · dB
(13.15)
0
13.2.2
Lavoro effettuato dal generatore
Adesso supponiamo invece che il nostro campione cilindrico occupi interamente l’interno di un
solenoide di N spire percorse da una corrente I. Supponiamo anche che la resistenza delle spire
sia trascurabile.
Inizialmente abbiamo I = B = H = M = 0, e connettiamo l’avvolgimento del solenoide ad
un generatore di corrente, aumentando gradualmente la corrente I che scorre nelle spire. Per
giungere alla situazione finale, con una corrente Ia che genera un campo interno al solenoide
H (i) = Ha = Ia N/l, corrispondente ad un campo B applicato Ba = µ0 Ia N/l (diverso dal campo
B (i) all’interno del campione!), ed il campione magnetizzato con una magnetizzazione M (i) ,
il generatore deve compiere lavoro. In assenza di resistenza delle spire, il lavoro richiesto al
generatore è dovuto al fatto che, quando varia B (i) , sull’avvolgimento si genera una contro-forza
elettromotrice E. Cosı̀, se ad un certo istante della trasformazione la corrente nel solenoide è
I, il lavoro fatto dal generatore per contrastare E durante il tempo dt è
dLtot = −EI dt.
(13.16)
Esprimiamo E e I in termini di B ed H all’interno del solenoide. Da una parte abbiamo
E =−
dΦ
dB (i)
= −N πR2
,
dt
dt
dall’altra H =
N
I,
l
da cui I =
l
H.
N
(13.17)
Sostituendo nella (13.16)
dLtot = N πR2
dB (i) l
Hdt = πR2 l H dB (i) .
dt N
Ricordando che πR2 l = V , volume del campione (e dell’interno del solenoide), otteniamo
dLtot = V H dB (i) .
(13.18)
~ (i) = µ0 (H
~ +M
~ ), e sostituendo otteniamo
Scrivendo B (i) in termini di H e di M , abbiamo B
µ0 H 2
+ V µ0 HdM.
(13.19)
dLtot = V H(µ0 dH + µ0 dM ) = d V
2
Integrando otteniamo
Z Ia
Z Ia
Z Ia µ0 Ha2
µ0 H(I)2
+ V µ0
+ V µ0
H(I) dM = V
H(I) dM
Ltot =
d V
2
2
0
0
0
Z Ia
Ba2
=
V
+ V µ0
H(I) dM
(13.20)
2µ0
0
149
13.2. LAVORO DI MAGNETIZZAZIONE
dove il primo termine a secondo membro è l’energia che si avrebbe all’interno del solenoide in
presenza della corrente Ia ma in assenza del cilindro, e il secondo termine è il lavoro fatto sul
cilindro.
Alternativamente, possiamo supporre di partire ancora in assenza di corrente, di campi
magnetici, e di magnetizzazione, ma con il campione a distanza infinita dal solenoide, per
arrivare alla stessa situazione finale in cui il campione riempe il solenoide, nel quale scorre la
corrente Ia . Il lavoro necessario per arrivare alla situazione finale può essere scomposto in tre
parti
1. Portare da zero al valore finale la corrente, ed il campo magnetico, nel solenoide.
2. Portare il campione nel solenoide, mantenendo costante la corrente Ia mentre il campione
si muove e si magnetizza. Questo comporta lavoro per due motivi
(a) A corrente Ia fissa nel solenoide, bisogna fare lavoro sul campione per portarlo dall’infinito all’interno del solenoide, muovendolo contro le forze esercitate dal campo
del solenoide stesso.
(b) E’ necessario lavoro per mantenere costante la corrente Ia nelle spire del solenoide
contrastando la forza elettromotrice indotta dal campione che si sta avvicinando ed
entrando.
Il lavoro necessario per il passo (1) è semplicemente
L(1) = V
Ba2
,
2µ0
(13.21)
che corrisponde all’energia immagazzinata nel solenoide vuoto percorso dalla corrente Ia . Il
lavoro necessario per il passo (2a) non è altro che quello dato dall’eq. (13.15)
Z Ba
(2a)
~
m
~ · dB.
L
=−
0
Nel passo (2b) il generatore deve compiere lavoro per mantenere costante la corrente Ia nelle
spire mentre all’interno del solenoide B cambia dal valore iniziale Ba , quando il campione è a
distanza infinita, al valore finale B (i) quando il campione è completamente inserito nel solenoide.
Alla fine avremo
~ (i) = µ0 H
~ (i) + M
~ (i) = µ0 H
~ a + µ0 M
~ +M
~ (i) = B
~ (i) .
B
Abbiamo quindi per il contributo al lavoro
Z Ba +µ0 M (i)
Z fine
Z
dΦ
2
(2b)
dt = Ia πR N
dB
L
= −
Ia Edt = Ia
dt
Ba
inizio
Z Ba +µ0 M (i)
N
2
dB = Ha V µ0 M (i) .
= Ia lπR
l
Ba
(13.22)
Il lavoro totale fatto dal generatore sarà quindi
L
tot
=L
(1)
+L
(2a)
+L
(2b)
B2
=V a −V
2µ0
Z
Ba
0
M · dB + Ha V µ0 M (i) .
(13.23)
150
CAPITOLO 13. SUPERCONDUTTIVITÀ
L’integrazione per parti mostra che
V µ0
Z
Ia
H(I) dM = Ha V µ0 M
(i)
0
−V
Z
Ba
0
M · dB
per cui la (13.23) coincide con la (13.20).
13.3
Un richiamo di termodinamica
Nel caso che un sistema termodinamico interagisca con un campo magnetico, nel primo principio
della termodinamica
δL = δQ − dU
(13.24)
dobbiamo tenere conto del fatto che il lavoro δL è costituito, oltre che dal lavoro meccanico, dal
~ del campo esterno. La (13.24) può essere riscritta,
lavoro magnetico associato a variazioni dB
nel caso di una trasformazione reversibile, in cui dS = δQ/T ,
δL = T dS − dU.
(13.25)
Introduciamo l’energia libera (o energia libera di Helmholz ) F , definita da
F = U − T S,
con dF = dU − T dS − SdT.
(13.26)
F è una funzione di V e T . Per una trasformazione reversibile isoterma, in cui dT = 0, abbiamo
che
δL = −dF
(13.27)
Quindi nei processi isotermi reversibili (come quelli che avvengono in un sistema in contatto
con un bagno termico) l’energia libera ha un ruolo analogo a quello dell’energia potenziale per
un sistema isolato in meccanica. Infatti la (13.27) ci dice che il lavoro fatto dal sistema è uguale
alla sua diminuzione di energia libera. Per processi isotermi non reversibili, il secondo principio
della termodinamica
δQ
(13.28)
dS ≥
T
implica che il lavoro ottenuto è minore della diminuzione di energia libera. L’energia libera,
essendo costruita partendo da funzioni di stato, è una funzione di stato.
In una qualunque trasformazione reversibile vale la relazione dU = δQ − δL = T dS − δL.
In assenza di lavoro di magnetizzazione avremmo δL = p dV , mentre in sua presenza abbiamo,
~ Il differenziale dell’energia libera può cosı̀ essere riscritto
dalla (13.14), δL = p dV + m
~ · dB.
~ − T dS − S dT
dF = T dS − p dV − m
~ · dB
~ − S dT.
= −p dV − m
~ · dB
(13.29)
Essendo F una funzione di stato, la (13.29) è valida anche per una trasformazione non reversibile.
151
13.4. SUPERCONDUTTIVITÀ E CAMPO MAGNETICO CRITICO
13.4
Superconduttività e campo magnetico critico
Campo magnetico applicato
(13.30)
)
I(t) = I0 e−Rt/L .
(T
Bc
Heike Kammerlingh Onnes (1853 – 1926), dopo aver realizzato la liquefazione dell’elio nel
1908, ha iniziato uno studio sistematico della dipendenza della resistività elettrica dei metalli
dalla temperatura. Nel 1911, studiando la resistività di un campione di mercurio, ha notato
che a circa 4 K la resistenza crollava bruscamente ad un valore che Onnes non era in grado
di distinguere dallo zero. A questo fenomeno Onnes ha dato il nome di superconduttività,
ed alla temperatura al di sotto della quale il fenomeno si presenta il nome di temperatura
critica Tc . Un valore più preciso per la temperatura critica del mercurio è Tc = 4.2 K. I
superconduttori convenzionali (i superconduttori ad alta temperatura, scoperta più recente, sono
un caso differente) hanno temperature critiche normalmente comprese tra meno di 1 K e circa
20 K.
Se il flusso ΦB del campo magnetico attraverso
una spira metallica viene cambiato, per la legge di B0
Faraday-Neumann e la legge di Lenz viene indotta
Conducibilità normale
nella spira stessa una corrente elettrica che cerca di
mantenere costante ΦB . Se la spira ha resistenza R e
induttanza L, dopo un brusco cambiamento di ΦB la
corrente indotta decade nel tempo secondo la legge
Superconduttore
La misura dell’andamento di I(t) permette di deterTemperatura
Tc
minare valori di R molto più piccoli di quelli misurabili
con metodi potenziometrici. Nel 1956 S.C. Collins ha
Figura 13.4: Dipendenza del campo
osservato la corrente indotta in una spira supercondut- critico B dalla temperatura in un suc
trice scorrere per circa 2 anni e mezzo senza decadi- perconduttore. Al di sotto della curva
mento apprezzabile, fissando cosı̀ un limite superiore si ha la superconduttività, al di sopra la
alla resistività del campione pari a 10−21 Ω cm.
conducibilità normale.
A temperature inferiori a Tc la superconduttività
può essere distrutta, con ritorno alla conducibilità normale, applicando al campione un campo magnetico esterno superiore ad un certo valore critico
Bc . Il campo critico Bc dipende approssimativamente dalla temperatura secondo la legge
"
2 #
T
,
(13.31)
Bc ≈ B0 1 −
Tc
dove B0 è il campo critico allo zero assoluto. L’andamento è riportato in Fig. 13.4. Spesso è
conveniente usare le grandezze adimensionali t = T /Tc e b = Bc (T )/B0 , con le quali l’equazione
(13.31) diventa
b ≈ 1 − t 2.
(13.32)
In realtà, la dipendenza di b da t è rappresentata con maggiore precisione da uno sviluppo in
serie di Taylor in cui il coefficiente di t è nullo ed il coefficiente di t2 differisce dall’unità per
qualche percento. La superconduttività di un filo o di una lamina viene distrutta quando la
corrente che vi circola raggiunge un certo valore critico Ic . Per campioni sufficientemente spessi
152
CAPITOLO 13. SUPERCONDUTTIVITÀ
da rendere trascurabili gli effetti ai bordi, la corrente critica è quella che genera un campo pari
a Bc alla superficie del campione (regola di R. H. Silsbee). Tuttavia, campioni sufficientemente
piccoli perché gli effetti ai bordi non siano trascurabili restano superconduttori anche quando
in essi circolano correnti molto più alte di quella determinata dalla regola di Silsbee.
13.5
L’effetto Meissner
)
Campo magnetico applicato
(T
Bc
C’è una differenza molto importante tra un superconduttore (materiale osservato sperimentalmente) ed un conduttore perfetto (materiale ideale per cui viene ipotizzata una resistività nulla).
Supponiamo di avere un conduttore classico la cui resistività si annulli, senza “effetti collaterali”, al di sotto di una certa temperatura critica Tc . Se siamo inizialmente a T < Tc ed in
assenza di campo magnetico e, ad un certo istante, accendiamo il campo magnetico, si generano
correnti superficiali indotte che impediscono al flusso magnetico di penetrare nel campione. A
resistività nulla, queste correnti superficiali indotte possono durare indefinitamente.
Adesso supponiamo invece che il nostro campione sia
inizialmente ad una temperature T > Tc , quindi un
B0
conduttore normale, ed immerso in un campo magnetico applicato Ba 6= 0. All’interno del campione
Conducibilità normale
ci sarà un certo flusso ΦB 6= 0. Ad un certo istante
raffreddiamo il campione sotto Tc : la resistenza si annulla, ma non compaiono correnti indotte e ΦB non
Superconduttore
cambia. Successivamente spegniamo il campo appliC
D
cato. A questo punto compaiono correnti superficiali
indotte che mantengono inalterato il flusso interno
B
A
ΦB indefinitamente. Questo comporta che lo stato
Temperatura
Tc
del campione non sia determinato solo dai valori delFigura 13.5: Dipendenza dello stato fi- la temperatura e del campo magnetico applicato, ma
nale dal percorso della transizione per un che dipenda anche dalle trasformazioni subite prececonduttore perfetto.
dentemente. Consideriamo, per esempio, due percorsi
diversi tra uno stesso stato iniziale A, rappresentato
in Fig. 13.5, in cui T > Tc , e quindi si ha conducibilità normale, e non c’è campo magnetico
esterno, ed uno stesso stato finale B, in cui T < Tc , quindi a resistività è nulla. Sia in A che in
B il campo magnetico applicato è nullo.
~ = 0 e ΦB = 0. In B è ancora
Percorso A→B→C→B. In A il campione è “normale”, B
~
B = 0, ΦB = 0, ma la resistività del campione nulla. Nel passaggio da B a C si accende il
campo magnetico, ma, poiché nel tratto B→C la resistività del campione è sempre nulla,
il flusso magnetico ΦB che lo attraversa rimane nullo. Con il tratto C→B si torna allo
stato B sempre mantenendo nullo ΦB .
Percorso A→D→C→B. In A il campione è “normale” e ΦB = 0. In D il campione è
ancora “normale”, ma ΦB 6= 0. Nel tratto D→C il campo magnetico esterno è costante,
in D il campione è “normale, ma quando si atraversa la curva B = Bc (T ) la resistenza
si annulla e ΦB viene “congelato”. Nel tratto C→B il campo esterno viene spento, ma,
essendo il campione sempre conduttore perfetto, ΦB rimane congelato e si conserva.
153
13.6. DIAMAGNETISMO PERFETTO
Tuttavia l’esperimento di W. Meissner e R. Ochsenfeld del 1933 ha dimostrato che, quando
un materiale diventa superconduttore il flusso magnetico viene sempre espulso dal suo interno
(effetto Meissner). Quindi, se abbiamo a che fare con un superconduttore reale anziché con un
conduttore perfetto, negli stati B e C della Fig. 13.5 il flusso interno ΦB è sempre nullo, indipendentemente dalle trasformazioni precedenti subite dal campione. Questa è una caratteristica
fondamentale di tutti i superconduttori reali di dimensioni grandi rispetto a una lunghezza
caratteristica che definiremo in seguito.
13.6
Diamagnetismo perfetto
E’ ragionevole supporre che l’espulsione del campo magnetico dall’interno dei superconduttori
sia dovuto alla comparsa di correnti superficiali. In presenza di un campo magnetico esterno, la
distribuzione delle correnti superficiali è tale da creare, all’interno del materiale supercondut~
tore, un campo interno che cancella il campo applicato. Una descrizione formale dei campi B
~ e della magnetizzazione M
~ , in un superconduttore macroscopico in presenza di un campo
e H,
~
applicato Ba è quindi
~ (i) = H
~ (i) = M
~ (i) = 0;
interno: B
superficie: J~s =
6 0, dove J~s è la densità di corrente superficiale;
~ (e) = B
~a + B
~ s , dove B
~ a è il campo applicato e B
~ s il campo dovuto alle correnti
esterno: B
superficiali.
~s
Per un superconduttore di forma qualunque, B
perturba il campo esterno in prossimità della
superficie del superconduttore, come mostrato
in Fig. 13.6 per il caso di un superconduttore
sferico. Anche se questa descrizione è formalmente corretta, è più conveniente considerare il
superconduttore in presenza di un campo esterno
come un materiale in cui si abbia
µr = 0
R
ϑ
~ (i) = 0
B
~ (e)
B
z
~ (i) = 0, H
~ (i) 6= 0, M
~ (i) 6= 0;
interno: B
superficie: J~s = 0;
Figura 13.6: Sfera perfettamente diamagneti~ (i) = 0, le linee
~a + B
~ s , dove adesso B
~ s ca. Essendo il campo interno B
esterno: B = B
(e)
~
è il campo generato dalla magnetizzazione di forza del campo esterno B sono tangenti
all’interno del campione superconduttore. alla superficie.
~ (e)
Essendo
~ = µ0 ( H
~ +M
~ ),
B
~ = χm H,
~
e M
(13.33)
questa descrizione equivale ad attribuire al superconduttore una magnetizzazione per unità di
volume
~ (i) = −H
~ (i) ,
M
154
CAPITOLO 13. SUPERCONDUTTIVITÀ
da cui seguono
χm = −1,
µr = χm + 1 = 0.
(13.34)
Il superconduttore si comporta quindi come un materiale perfettamente diamagnetico.
~a
Se consideriamo una sfera superconduttrice di raggio R immersa in un campo applicato B
(Fig. 13.6), ed inseriamo le (13.34) nella (13.13) otteniamo
~
~ (i) = −M
~ (i) = 3 Ba .
H
2 µ0
(13.35)
~ all’equatore della sfera (ϑ = π/2
Dalla condizione di continuità della componente parallela di H
in Fig. 13.6) otteniamo
~a
3B
(e)
(i)
~ eq
~ eq
H
=H
=
,
2 µ0
3~
(e)
(e)
~ eq
~ eq
da cui B
= µ0 H
= B
a,
2
(13.36)
~ ai poli (ϑ = 0 e
mentre dalla condizione di continuità della componente perpendicolare di B
ϑ = π in Fig. 13.6) della sfera otteniamo
~ (e) = B
~ (i) = 0.
B
pol
pol
(13.37)
Il modulo del campo esterno B (e) ha quindi un massimo all’equatore, e due minimi ai poli.
~a e
Se invece che una sfera abbiamo un cilindro superconduttore, con l’asse parallelo a B
sufficientemente lungo da poter essere considerato infinito, la sua magnetizzazione non genererà
~ (e) = B
~ a . La condizione di continuità
campo all’esterno del cilindro stesso, quindi avremo B
~ alla superficie laterale del cilindro impone
della componente parallela di H
~
~ (i) = H
~ (e) = Ba ,
H
µ0
~
~ (i) = − Ba .
da cui M
µ0
(13.38)
Ad una temperatura T < Tc , l’intero cilindro infinito rimane superconduttore fino a che il campo appli(e)
~ eq
~ c . Per B
~a > B
~c
B
cato non supera il valore critico B
l’intero cilindro passa alla conducibilità normale. La
situazione è un po’ più complicata per la sfera super~ (e) alla sua suconduttrice, data la non uniformità di B
O
(e)
perficie. Il problema si pone per Beq = Bc > Ba , cioè
z
quando il campo applicato è ancora inferiore al campo
critico Bc , ma il campo esterno all’equatore della sfera
superconduttore
raggiunge il valore critico. Ipotizzare che una porzione
conduttore normale
della sfera in prossimità dell’equatore passi alla con(e)
Figura 13.7: Caso Beq > Bc > Ba : ducibilità normale (parte più scura in Fig. 13.7) porta
interpretazione non possibile.
ad una contraddizione. Infatti il confine tra la parte a
conduzione normale e la parte superconduttrice si ha
~a
B
155
13.6. DIAMAGNETISMO PERFETTO
−
Bc
µ0
cilindro
ro
a
fs er ilind
c
a
sfer
Quindi, nel range 23 Bc ≤ Ba ≤
Bc avremo all’interno della sfera
superconduttrice
3
M (i) = − (Bc − Ba )
µ0
B
c
(13.39)
H (i) =
µ0
B (i) = Bc − µ0 M = 3Ba − 2Bc .
−M (i)
per B (e) = Bc , ma adesso, nella parte diventata normale, avremmo B (e) < Bc . Non è possibile
immaginare una divisione macroscopica del campione in una parte normale e una superconduttrice che permetta una distribuzione del campo con B ≥ Bc nella prima, B < Bc nella seconda,
e B = Bc sulle superfici di separazione.
L’unica spiegazione possibile è postulare, come fatto separatamente da R. Peierls e da F.
London nel 1936, che, una volta raggiunta la condizione Ba ≥ 23 Bc , l’intera sfera si divida
in una moltitudine di regioni microscopiche alternativamente normali e superconduttrici, con
B = Bc nelle prime e B = 0 nelle seconde. La distribuzione di queste regioni è tale che la
magnetizzazione macroscopica per unità di volume cambia linearmente da
Bc
3 Ba
2
M (i) = −
=−
per Ba = Bc
µ0
2 µ0
3
a
M (i) = 0 per Ba = Bc .
La figura 13.8 mostra la dipendenza della magnetizzazione interna per
una sfera e per un cilindro superconduttori in funzione del campo appli2
0
B
Bc
Ba
3 c
cato Ba . Notate che per tutte e due
le curve il lavoro per unità di volume Figura 13.8: Dipendenza della magnetizzazione dal camper portare il campione da campo 0 po applicato per un superconduttore sferico e uno cilindrico
al campo critico è sempre dato da
longitudinale.
Z Bc
2
~ (Ba ) · dB
~ a = − 1 Bc ,
M
2 µ0
0
pari a meno la densità di energia magnetica per unità di volume al campo critico. Nell’intervallo
di campo 32 Bc ≤ Ba ≤ Bc , in cui il campione sferico non è né interamente superconduttore né
interamente normale, si dice che il campione si trova nello stato intermedio. Qualunque sia la
forma del campione, lo stato intermedio cessa a Ba = Bc . Il valore del campo applicato Bim ,
a cui lo stato intermedio inizia, dipende invece dalla particolare forma del campione. Per un
~ a , le (13.39) si riscrivono
campione a forma di ellissoide generico, con uno degli assi parallelo a B
1
(Bc − Ba )
M (i) = −
µ0 D
Bc
(13.40)
H (i) =
µ0
1
B (i) = Bc − (Bc − Ba ) ,
D
156
CAPITOLO 13. SUPERCONDUTTIVITÀ
dove D prende il nome di coefficiente di demagnetizzazione relativo all’asse dell’ellissoide par~ a . Per una sfera si ha D = 1 , mentre nei due casi limite di cilindro infinito con l’asse
allelo a B
3
~ a e cilindro infinito con l’asse perpendicolare a B
~ a si ha, rispettivamente, D = 0 e
parallelo a B
D = 12 . Il campo a cui comincia lo stato intermedio vale Bim = (1 − D) Bc . Abbiamo quindi
Bim = 23 Bc per una sfera, Bim = 12 Bc per un cilindro infinito trasversale, e Bim = Bc per un
cilindro infinito longitudinale. Per quest’ultimo, quindi, non esiste stato intermedio.
13.7
Corrente di superconduttività
13.7.1
Correnti superficiali
La quarta equazione di Maxwell è
~
~ ×H
~ = J~cond + ∂ D ,
∇
∂t
dove J~cond indica la densità volumica di corrente di conduzione. Ricordando le relazioni
~
~ = B −M
~
H
µ0
~ = ε0 E
~ + P~ ,
e D
possiamo riscrivere la quarta equazione di Maxwell all’interno dei materiali nella forma
~
~
~ ×B
~ = µ0 J~cond + µ0 ∇
~ ×M
~ + ε0 µ0 ∂ E + µ0 ∂ P .
∇
∂t
∂t
(13.41)
In assenza di campi elettrici e polarizzazioni elettriche variabili nel tempo la (13.41) diventa
~ ×B
~ = µ0 J,
~
∇
dove
(13.42)
~ ×M
~
J~ = J~cond + ∇
~ M
~ essendo la densità volumica di corrente
è la densità di corrente macroscopica complessiva, ∇×
di magnetizzazione. E’ importante notare che, diversamente dal caso di un conduttore normale,
~ perché la natura fisica delle correnti libere
in un superconduttore non ha senso isolare J~cond da J,
e delle correnti di magnetizzazione è la stessa. Per lo stesso motivo, a rigor di termini, in un
~ , e, di conseguenza, del campo H.
~
superconduttore non ha senso parlare di magnetizzazione M
~ ed H
~ come vettori ausiliari, per
Tuttavia, come abbiamo già visto, è possibile introdurre M
comodità di calcolo.
~ (i) ≡ 0 segue che ∇×
~ B
~ (i) = 0, quindi,
Dal fatto che all’interno di un superconduttore si ha B
per la (13.42), anche J~ = 0. La densità di corrente è quindi nulla ovunque all’interno di un
superconduttore: in un superconduttore possono esistere solo correnti superficiali.
Le correnti superficiali esistono anche per i conduttori normali. La densità di corrente
~ quando si passa
superficiale J~s è legata ad una discontinuità della componente tangenziale di B
dall’esterno all’interno di un conduttore:
1
~ (e) − B
~ (i) ,
(13.43)
J~s = n̂ × B
µ0
157
13.7. CORRENTE DI SUPERCONDUTTIVITÀ
dove n̂ è il versore normale alla superficie, diretto verso l’esterno. Se all’esterno c’è il vuoto,
ed il mezzo è omogeneo con permeabilità magnetica relativa µr , la continuità della componente
~ ci dice che n̂ × B
~ (e) = (n̂ × B
~ (i) )/µr , da cui ricaviamo
parallela di H
1
J~s = n̂ ×
µ0
~ (i)
B
~ (i)
−B
µr
!
~ (i)
= n̂ × B
1 − µr
µ0 µr
,
(13.44)
~ (i) . Notare che la (13.44) può essere riscritta
in funzione del solo campo interno B
~ (i)
J~s = n̂ × B
1 − µr
µ0 µr
~ (i)
= −n̂ × B
−χm
µ0 µr
~ (i) × n̂,
=M
(13.45)
formula nota dell’elettromagnetismo classico. Nel caso di un superconduttore abbiamo visto
~ (i) = 0, quindi la (13.43) diventa
che è B
~ (e)
B
.
J~s = n̂ ×
µ0
13.7.2
(13.46)
Correnti superficiali nei conduttori normali
C’è una differenza importante tra la corrente superficiale J~s che scorre su di un conduttore
normale e quella che scorre sulla superficie di un superconduttore. Consideriamo una qualunque
linea chiusa che giaccia sulla superficie di un conduttore normale, per esempio la linea chiusa l
sul toro di Fig. 13.9. La carica superficiale totale che per unità di tempo attraversa la linea l,
Is , è data dal flusso di J~s attraverso la linea l stessa:
I
~
~
(13.47)
Is = Js · n̂ × dl
dove n̂ continua ad essere il versore normale alla superficie,
l’integrale è estesso alla linea chiusa, e consideriamo positiva la corrente che attraversa la linea nel verso di n̂ × d~l.
Dalla (13.44) abbiamo
Is
I
n̂
J~s
~
~
Js · n̂ × dl
=
l
I d~l
1 − µr
(i)
~
~
=
n̂ × B
· n̂ × dl
µ0 µr
I
Figura 13.9: Corrente superficiale
1 − µr
~ (i) · d~l = 0,
=
B
(13.48) su un conduttore normale.
µ0 µr
~ in assenza di campi elettrici variabili nel tempo. E’ da notare che,
data l’irrotazionalità di B
nelle condizioni considerate, la corrente superficiale su di un conduttore normale è puramente
corrente di magnetizzazione.
158
13.7.3
CAPITOLO 13. SUPERCONDUTTIVITÀ
Correnti superficiali nei superconduttori
La differenza nel caso di un superconduttore è che la (13.44) diventa indeterminata, perché
sono nulli sia B (i) che µr . Cade quindi la (13.48), e non esiste più un vincolo per Is . E’ però da
notare che, se un corpo superconduttore è semplicemente connesso, su di esso possono esistere
~ a.
correnti superficiali stazionarie solo in presenza di un campo magnetico esterno B
Supponiamo infatti, per assurdo, di avere una distribuzione non nulla di correnti superficiali in assenza di campo esterno. Queste correnti genererebbero in tutto lo spazio un campo
magnetico costante nel tempo che si annullerebbe all’infinito. Se a tutto lo spazio togliamo il
volume semplicemente connesso occupato dal superconduttore, ci rimane una parte di spazio
semplicemente connessa in cui non circolano correnti. All’esterno del superconduttore quindi
~ si può scrivere come meno il gradiente di un certo potenziale scalare ϕ:
B
~ = −∇ϕ
~ .
B
~a
B
Per le condizioni al contorno, alla superficie del
superconduttore dobbiamo avere
ϑ
∂ϕ
= 0,
∂n
J~s
z
dove n̂ è la normale alla superficie. Ma dalla teoria del
potenziale sappiamo che se ∂ϕ/∂n è nullo sia alla super~
M
ficie di un corpo semplicemente connesso che all’infinito,
~
ϕ è costante su tutto lo spazio fuori dal corpo. Quindi B
Figura 13.10: Corrente superficiale
deve essere nullo, come le correnti superficiali che lo gensu una sfera superconduttrice.
erano. D’altra parte, queste correnti dovrebbero scorrere
in modo da non generare campo all’interno del superconduttore
~ a , avremo delle correnti superficiali tali
Invece, in presenza di un campo applicato esterno B
da annullare il campo stesso all’interno del superconduttore. Js può essere calcolata a partire
~ (i) tramite la relazione
dal vettore ausiliario M
(i)
~ (i) × n̂.
Js = M
Nei casi semplici considerati, cioè sfera superconduttrice e cilindro infinito superconduttore con
~ a , per le correnti superficiali abbiamo dalle (13.35) e (13.38)
l’asse parallelo a B
sfera: |Js | =
3 Ba
sin ϑ,
2 µ0
cilindro: |Js | =
Ba
.
µ0
~a
Il caso della sfera è rappresentato in Fig. 13.10. Le correnti scorrono in modo da cancellare B
all’interno dei superconduttori.
Le cose cambiano per un superconduttore che sia molteplicemente connesso. adesso, infatti,
anche lo spazio esterno al superconduttore è molteplicemente connesso, e il potenziale scalare
ϕ diventa polidromo.
Consideriamo, per esempio, un superconduttore duplicemente connesso, come un toro (anello), in assenza di campo magnetico esterno applicato.
159
13.8. CAMPO MAGNETICO CRITICO
13.8
Campo magnetico critico
Nel paragrafo 13.2 abbiamo visto che, se teniamo un campione a temperatura costante T in un
~ a , possono avvenire solo trasformazioni con
campo magnetico esterno costante B
∆F ≤ 0,
cioè, lo stato di equilibrio stabile è quello per cui l’energia libera F è minima. Il problema
dell’equilibrio tra la fase normale e quella superconduttrice del metallo è quindi del tutto analogo
ad una normale transizione di fase.
La condizione di equilibrio tra fase superconduttrice e fase normale ad una data temperatura
T < Tc si realizza al campo magnetico critico Bc , per il quale, quindi, si ha
Fs (V, T, Bc ) = Fn (V, T )
(13.49)
dove Fs (V, T, Bc ) e Fn (V, T ) sono, rispettivamente, le energie libere delle due fasi. Per Fn
omettiamo la dipendenza dal campo magnetico, ipotizzando che, nella fase normale, si abbia
con ottima approssimazione µr = 1. In condizioni tali che sia Fn < Fs è stabile la fase normale,
mentre se Fs < Fn è stabile la fase superconduttrice. Al di sotto della temperatura critica Tc
avremo Fs (V, T, 0) < Fn (V, T ), visto che, in assenza di campo magnetico, il campione si trova
nella fase superconduttrice.
La condizione Fs (V, T, Bc ) = Fn (V, T ) vale su ogni punto della curva della Fig. 13.4. Se ci
muoviamo sulla curva facendo un piccolo, spostamento le due energie libere rimangono uguali,
quindi avremo
Fs (V, T + dT, Bc + dBc ) = Fn (V, T + dT ).
Se sottraiamo la (13.49) otteniamo
dFs = dFn
(13.50)
Dalla (13.29), tenendo conto del fatto che il volume del campione rimane praticamente immutato, abbiamo
~ c(i) · dB
~ c − Ss dT e dFn = −Sn dT,
dFs = −V M
(13.51)
(i)
~ c è la magnetizzazione del campione superconduttore in presenza del campo critico, e
dove M
con Ss ed Sn abbiamo indicato l’entropia nelle due fasi. La (13.50) diventa
~ c(i) · dB
~ c − Ss dT = −Sn dT,
−V M
(13.52)
da cui otteniamo
~ c(i) · dBc .
Sn − Ss = V M
(13.53)
dT
Nel caso di un campione a forma di cilindro allungato con l’asse parallelo al campo, per la
(13.38) abbiamo
Bc dBc
Sn − Ss = −V
,
(13.54)
µ0 dT
analoga all’equazione di Clausius-Clapeyron. Poiché dBc /dT < 0, deve essere Sn > Ss : lo stato
superconduttore ha un’entropia più bassa, e corrisponde ad un maggiore ordine. Associato alla
differenza di entropia si ha un calore latente
QL = T (Sn − Ss )
(13.55)
160
CAPITOLO 13. SUPERCONDUTTIVITÀ
che deve essere assorbito nella transizione dallo stato superconduttore a quello normale. Si noti
che Sn − Ss = 0 quando la transizione avviene a campo magnetico nullo (cioè per T = Tc ),
quindi in questo caso non c’è calore latente associato alla transizione di fase. Per T → 0 il terzo
principio della termodinamica ci dice che anche (Sn − Ss ) → 0, quindi il calore latente deve
tendere a zero anche per T → 0. Inoltre, poiché Bc non tende a zero per T → 0, l’equazione
(13.54) ci dice che deve tendere a zero la derivata dBc /dT . Tutto questo è in accordo con le
osservazioni sperimentali, come mostrato nel grafico della Fig. 13.4.
Se adesso poniamo il campione a campo zero ad una temperatura T < Tc , ed accendiamo
lentamente il campo magnetico esterno mantenendo la temperatura costante, per la (13.29),
con considerazioni analoghe a quelle usate per la (13.51), abbiamo
~ (i) · dBa = V Ba dBa ,
dFs = −V M
µ0
e dFn = 0.
Quando raggiungiamo il campo critico Bc abbiamo
Z Bc
B2
V
Ba dBa = Fs (V, T, 0) + V c ,
Fs (V, T, Bc ) = Fs (T, V, 0) +
µo 0
2µ0
d’altra parte, al campo critico abbiamo che Fs (V, T, Bc ) = Fn (V, T ), quindi, in assenza di
campo, la differenza tra l’energia libera dello stato normale e quella dello stato superconduttore
vale
B2
∆F = Fn (V, T ) − Fs (V, T, 0) = V c .
(13.56)
2µ0
Sempre dalla Fig. 13.4 e dalla legge approssimata (13.31) vediamo che il valore massimo del
campo critico si ha a T=0. Questo valore massimo di Bc è dell’ordine di qualche 10−2 Tesla,
che corrisponde ad una differenza di energia libera dell’ordine di 10−8 eV (≈ 10−27 J) per atomo
del campione. Come termine di paragone, si ricordi che l’energia di Fermi per gli elettroni di
conduzione di un normale metallo è tra i 10 e i 20 eV (≈ 10−18 J).
13.9
Teoria microscopica
Un elettrone di conduzione in un metallo si comporta con buona approssimazione come una
particella libera. Infatti, se è vero che c’è una interazione repulsiva tra gli elettroni, è anche
vero che c’è una interazione attrattiva tra gli elettroni e gli ioni positivi del reticolo, nel quale
gli elettroni di conduzione sono immersi. Gli ioni del reticolo che circondano un elettrone
di conduzione lo schermano cosı̀ dall’interazione con gli altri elettroni di conduzione. Questa
considerazione è alla base sia del modello di Drude, in cui gli elettroni di conduzione in un
metallo vengono trattati come un gas perfetto classico, che della trattazione quantistica degli
elettroni di conduzione come un gas perfetto di Fermi.
Lo stato fondamentale degli elettroni trattati come un gas perfetto (quindi senza interazioni
tra gli elettroni stessi) di Fermi a 0 K corrisponde ad avere tutti i livelli di particella singola occupati fino all’energia di Fermi EF . Se per caso compare una sia pur debolissima forza
attrattiva tra una coppia di elettroni, questi possono formare uno stato legato. A sua volta la formazione dello stato legato, con energia negativa, porta ad uno stato complessivo di
energia inferiore di quella dello stato fondamentale degli elettroni liberi. Vediamo, anche se
161
13.9. TEORIA MICROSCOPICA
in modo molto qualitativo, come può nascere un’interazione attrattiva tra gi elettroni di un
metallo. La teoria di Cooper è basata sull’ipotesi che un elettrone in moto, attraendo gli ioni
positivi del reticolo, lasci dietro di sé una traccia consistente in una distorsione del reticolo
stesso, come schematizzato in Fig. 13.11. Al momento del passaggio dell’elettrone gli ioni del
reticolo ricevono un impulso che, dato il rapporto tra le masse di ioni e elettrone, porta ad uno
spostamento apprezzabile, e quindi ad una polarizzazione del reticolo, solo dopo che l’elettrone
è passato. La deformazione si propaga dando origine a un fonone. La concentrazione di ioni
positivi della deformazione genera una forza attrattiva su di un secondo elettrone.
Questo modello può essere descritto anche in modo quantistico, interpretando le deformazioni del reticolo
come sovrapposizioni di fononi, che l’elettrone assorbe e
riemette continuamente attraverso la sua interazione con
~v
il reticolo. I fononi virtuali possono vivere solo durante
e−
un tempo τ = 2π/ω per il principio di indeterminazione
energia-tempo. Partiamo da un gas di Fermi di elettroni
non interagenti a 0 K. Tutti gli stati di particella singola
con vettore d’onda ~k con energia minore dell’energia di
Fermi EF = ~kF2 /2m sono occupati, mentre tutti gli stati Figura 13.11: Deformazione del reticon E > EF sono vuoti. Adesso aggiungiamo al sistema colo degli ioni positivi da parte di un
due elettroni di vettori d’onda ~k1 e ~k2 ed energie E(~k1 ) elettrone.
e E(~k2 ), ambedue superiori a EF all’interno di un range
EF < E < EF + ~ωD , dove ωD è la frequenza di Debye, cioè la frequenza massima per i fononi
nel reticolo. Supponiamo che questi due elettroni siano accoppiati dall’interazione attrattiva
descritta sopra. I due elettroni aggiuntivi interagiscono scambiando un fonone di vettore d’onda
~q, passando, rispettivamente, ai vettori d’onda
~k ′ = ~k1 − ~q e ~k ′ = ~k2 + ~q.
1
2
Per la conservazione della quantità di moto dovrà
essere
~k1 + ~k2 = ~k ′ + ~k ′ = K.
~
1
2
~
kF + k1
δk
~k2
kF +
D’altra parte ~k1 e ~k2 , cosı̀ come ~k1′ e ~k2′ , dovranno
δk
~
K
trovarsi, nello spazio dei vettori d’onda, all’interno
kF
kF
di un guscio sferico di raggio interno pari a kF e
raggio esterno pari a kF + δk, con E(kF + δk) =
EF + ~ωD . Nella Fig. 13.12, che va intesa come
~ = ~k1 + ~k2 ,
simmetrica per rotazioni attorno a K
Figura 13.12: Visualizzazione dei vettori
abbiamo tracciato due gusci sferici, ognuno di rag- d’onda delle coppie di elettroni interagenti
gio interno kF e raggio esterno kF + δk, centrati nello spazio reciproco dei numeri d’onda.
~ 1 ed alla
rispettivamente attorno alla “coda” di K
~ della
punta di ~k2 . Dalla figura vediamo che, una volta fissata la somma dei vettori d’onda K
~
~
coppia di elettroni, tutte le possibili coppie di vettori d’onda (k1 , k2 ) devono avere la punta di
~k1 , coincidente con la “coda” di ~k2 , all’interno del volume evidenziato in grigio. Questo volume
è direttamente legato al numero di processi di scambio di fonone che abbassano l’energia complessiva del gas di elettroni. Pertanto il numero di interazioni attrattive tra coppie di elettroni
162
CAPITOLO 13. SUPERCONDUTTIVITÀ
~ = 0, quando i due gusci
diventa massimo quando diventa massimo questo volume cioè per K
sferici si sovrappongono esattamente. Dobbiamo quindi avere
~k1 = −~k2 .
(13.57)
Nel seguito ci occuperemo quindi di coppie di elettroni con vettore d’onda opposto (coppie di
Cooper). E’ possibile dimostrare che i termini di scambio riducono il valore assoluto dell’energia
di interazione per coppie con spin parallelo, per cui possiamo limitare la nostra attenzione alle
coppie di elettroni con vettore d’onda opposto e spin antiparallelo.
L’ipotesi fondamentale della teoria BCS è quindi che nello stato fondamentale del gas di
elettroni in un superconduttore a 0 K tutti gli stati elettronici in un sottile guscio sferico nello
spazio reciproco dei vettori d’onda siano occupati con la maggior densità possibile da coppie
di elettroni di quantità di moto opposta e spin opposto. L’energia di questo stato è più bassa
dell’energia del metallo nello stato normale per la quantità (13.56)
∆E = V
Bc2
.
2µ0
(13.58)
L’equazione di Schrödinger per la funzione d’onda ψ(~r1 , ~r2 ) della coppia di Cooper può
essere scritta
~2
−
(∆1 + ∆2 ) + V (~r1 , ~r2 ) ψ(~r1 , ~r2 ) = (E + 2EF ) ψ(~r1 , ~r2 ),
(13.59)
2m
dove V (~r1 , ~r2 ) è il potenziale di interazione per scambio di fononi e 2EF è l’energia della coppia
di elettroni in assenza di interazione (V (~r1 , ~r2 ) = 0).
Capitolo 14
Raffreddamento magnetico
14.1
Introduzione
Come abbiamo visto nel paragrafo 13.2, è possibile effettuare lavoro su di un corpo cambiando il
valore del campo magnetico ad esso applicato. Questo fatto può essere sfruttato per raffreddare
particolari campione paramagnetici fino a temperature molto basse, al di sotto del mK.
Il procedimento è presenta analogie con il raffreddamento “meccanico” di un gas. Nel
raffreddamento meccanico si ha una prima fase in cui si effettua lavoro sul gas comprimendolo,
mentre è in contatto con un bagno termico. L’apporto di energia dovuto al lavoro fatto sul
gas viene cosı̀ ceduto al bagno termico, ed il gas rimane temperatura costante. In una seconda
fase viene tolto il contatto tra il gas e il bagno termico, lasciando il gas termicamente isolato.
A questo punto il gas fa un’espansione adiabatica quasi statica (con buona approssimazione
reversibile), nella quale compie lavoro a spese della propria energia interna, raffreddandosi.
Analogamente, nel raffreddamento magnetico, mentre il campione si trova in contatto con un
bagno termico (normalmente elio liquido) gli viene applicato un campo magnetico che induce
una magnetizzazione, compiendo cosı̀ il lavoro dato dalla (13.15). Il campione non si riscalda
perché il calore viene asportato dal bagno termico. Poi il campione viene isolato termicamente,
ed il campo esterno viene azzerato adiabaticamente.
I materiali nei quali il raffreddamento magnetico è più evidente sono sali paramagnetici, come il CMN (nitrato di cerio-magnesio), e leghe di gadolinio. Nei sali paramagnetici il
paramagnetismo è dovuto allo spin degli elettroni periferici degli atomi paramagnetici.
14.2
Energia
Poiché gli elettroni hanno spin 21 , ci sono solo due orientazioni possibili rispetto al campo
~ che supponiamo orientato lungo l’asse z. Le due orientazioni corrispondono ai
magnetico B,
due stati stazionari di particella singola |↑i e |↓i, in cui lo spin è rispettivamente parallelo e
antiparallelo al campo. La componente mz del momento magnetico dell’elettrone m
~ ha cosı̀
due valori possibili
mz = ∓2µB
Sz
e~
1
, dove µB =
≈ 9.27 × 10−24 J/T è il magnetone di Bohr e Sz = ± ~,
~
2me
2
163
164
CAPITOLO 14. RAFFREDDAMENTO MAGNETICO
la discordanza tra i segni è dovuta alla carica negativa dell’elettrone. Per l’energia di particella
~ abbiamo quindi i due autovalori
singola U = −m
~ ·B
e E↓ = −µB B.
E ↑ = µB B
Per trattare l’insieme degli elettroni che danno origine al paramagnetismo possiamo usare la
statistica classica (Boltzmann) perché, avendo a che fare con un solido in cui gli atomi paramagnetici sono presenti come impurità, la distanza media tra i singoli momenti è grande, e non
facciamo errori apprezzabili se li consideriamo come distinguibili. Se abbiamo un totale di N
elettroni che contribuiscono al paramagnetismo del nostro campione, il numero di elettroni con
spin rispettivamente parallelo e antiparallelo al campo sarà
N↑ =
N µB B/kT
e
,
Zsing
N↓ =
N −µB B/kT
e
,
Zsing
(14.1)
dove Zsing è la funzione di partizione per la particella singola
µB B
µB B/kT
−µB B/kT
Zsing = e
+e
= 2 cosh
.
kT
(14.2)
Dalle relazioni (3.30) abbiamo per il moltiplicatore di Lagrange Ωsing , relativo alla normalizzazione della matrice densità per la particella singola,
Ωsing = − log Zsing = − log[2 cosh(βµB B)],
(14.3)
dove β = 1/kT . Per l’energia totale U del campione abbiamo
U = N↑ µB B − N↓ µB B = µB B
= −µB B N tanh
µB B
kT
N −µB B/kT
e
− e µB B/kT
Z
,
(14.4)
che può anche essere ottenuta da Ωsing nel modo seguente
U = N Using = N
∂
∂Ωsing
= −N
log[2 cosh(βµB B)]
∂β
∂β
1
= −N
2 sinh(βµB B)µB B = −µB B N tanh
2 cosh(βµB B)
µB B
kT
,
(14.5)
dove Using = ∂Ωsing /∂β è l’energia media della particella singola.
Per il contributo della magnetizzazione alla capacità termica abbiamo
∂U ,
C=
∂T N, p
da cui
1
C = −µB B N
µB B
2
cosh
kT
µ2B B 2
µB B
=
N
−
kT 2
kT 2
1
µB B
2
cosh
kT
(14.6)
165
14.3. ENTROPIA E RAFFREDDAMENTO MAGNETICO
La dipendenza di C/N k dal parametro
C
µB B/kT è mostrato in fig. 14.1. Il calore
Nk
specifico tende a zero sia per B → 0, cor- 0.4
µB B
→ 0, che per T → 0,
rispondente a
kT
µB B
corrispondente a
→ ∞, in accordo con
kT
il terzo principio della termodinamica.
Se µB B ≪ kT possiamo approssimare
µB B
0
1
2
3
4
5
kT
cosh(µB B/kT ) ≈ 1, da cui Z ≈ 2 e per N↑,↓
abbiamo
Figura 14.1: Dipendenza del calore specifico dal
parametro µB B/kT .
N
µB B
N↑ =
1−
(14.7)
2
kT
N
µB B
N↓ =
1+
.
(14.8)
2
kT
Per la magnetizzazione abbiamo cosı̀
N
Mz = −µB N↑ + µB N↓ =
2
µ2 B
2 B
kT
=N
µ2B B
= χB,
kT
(14.9)
dove
µ2B B
kT
è, a campi deboli, la suscettività magnetica del materiale.
χ=
14.3
(14.10)
Entropia e raffreddamento magnetico
Per l’entropia abbiamo
S = N Ssing = N (−kΩsing + kβUsing ) = −kN Ωsing + kβU,
dove Ssing è l’entropia per la particella singola. Infatti, avendo supposto che non ci sia interazione tra i singoli elettroni che contribuiscono al paramagnetismo, l’informazione mancante
totale sarà semplicemente la somma delle informazioni mancanti relative ai singoli elettroni.
Inserendo le (14.3) e (14.4) otteniamo
µB B
µB B
S = kN log [2 cosh(βµB B)] − kN
tanh
kT
kT
µB B
µB B
µB B
= kN log 2 + log cosh
tanh
−
.
(14.11)
kT
kT
kT
Ponendo x =
µB B
abbiamo
kT
lim S = lim S = N k log 2
T →∞
x→0
(14.12)
166
CAPITOLO 14. RAFFREDDAMENTO MAGNETICO
e
lim S = kN lim [log 2 + log(cosh x) − x tanh x]
x→∞ x
ex − e−x
e + e−x
−x x
= kN lim log 2 + log
x→∞
2
e + e−x
= kN lim (log 2 + x − log 2 − x) = 0,
lim S =
T →0
x→∞
x→∞
(14.13)
avendo tenuto conto del fatto che lim e−x = 0. L’andamento di S/N k in funzione del parametro
x→∞
kT /µB B è mostrato in figura 14.2
E’ da notare che, in assenza di campo
S
magnetico, cioè per B = 0, il parametro
Nk
kT /µB B diverge per ogni valore di T dilog 2
verso da 0. Quindi, per B = 0, abbiamo S = N k log 2 per ogni valore di T ,
tranne T = 0.
Passiamo adesso a considerare il raffreddamento magnetico. Nella prima
fase il campione viene messo in contatto termico con un bagno di elio liquido,
kT
alla temperatura Ti , in presenza di un
µB B
campo magnetico Bi , che non sarà mai
rigorosamente nullo. Questo stato inFigura 14.2: Dipendenza dell’entropia da kT /µB B.
iziale corrisponde al punto a nel grafico
di figura 14.3. Sempre in contatto con il bagno termico, quindi a temperatura costante, il
campo magnetico sul campione viene aumentato fino al valore Bf , corrispondente allo stato b.
Nella seconda fase il campione viene isolato termicamente, ed il campo appliS
B=0
cato viene riportato lentamente, in un
Bi
a
processo adiabatico, al valore iniziale Bi .
b
c
Tf
Ti
Bf
T
Figura 14.3: Raffreddamento magnetico nel piano ST .
Bibliografia
[1] E. Arimondo, Lezioni di Struttura della Materia, Edizioni ETS, Pisa, 2005.
[2] M. Born and E. Wolf, Principles of Optics, Pergamon Press, Oxford, New York, Seoul,
Tokyo, 1993.
[3] W. Demtröder, Laser Spectroscopy, Springer Verlag, Berlin, Heidelberg, New York, 1996
[4] H. Haken e H. C. Wolf, Fisica Atomica e Quantistica, edizione italiana a cura di G. Moruzzi,
Bollati Boringhieri, Torino, 1990.
[5] A.Katz, Principles of Statistical Mechanics, W. H. Freeman and Company, San Francisco
and London, 1967.
[6] F. K. Kneubühl und M. W. Sigrist, Laser, Teubner Verlag, Stuttgart, 1988.
[7] L. D. Landau and E. M. Lifshitz, Electrodinamics of Continuous Media, Volume 8 of Course
of Theoretical Physics, Chapter VI, Pergamon Press, Oxford, London, New York, Paris,
1960.
[8] R. Loudon, The Quantum Theory of Light, Oxford University Press, Oxford and New
York, 2008.
[9] E. A. Lynton, Superconductivity, Methuen & Co. Ltd., Lomdon, 1964.
[10] F. Reif, Fundamentals of Statistical and Thermal Physics, McGraw-Hill Kogakusha, Tokyo,
1965.latex stru
167
Indice analitico
Effetto Meissner, 152
Effetto Raman stimolato, 107
Emissione spontanea, 109
Emissione stimolata, 109
Energia libera, 150
Energia libera di Helmholtz, 150
Entropia per l’insieme gran canonico, 38
Equazione del bilancio dettagliato, 120
Equazione di Chapman-Kolmogorov, 79
Bilancio dettagliato, 119, 120, 134
Equazione di Fokker-Planck, 88
bit, 10
Equazione di Smoluchowski, 79
Bloch, equazioni ottiche di, 126
Equazioni di bilancio per i fotoni, 57
Bose-Einstein, statistica di, 41
Equazioni di bilancio per le popolazioni, 58
Browniano, moto, 90
Equazioni di Bloch ottiche, 126
Equazioni di Maxwell-Bloch, 133
Campi complessi, formalismo dei, 66
Equilibrio termodinamico, 120, 123, 125
Campo forte, interazione con, 112
Campo magnetico critico (superconduttività), Esponenziale di un operatore, 20
Estrinseci, semiconduttori, 62
159
Campo magnetico critico (superconduttori), 151
Fermi, regola d’oro di, 102, 135
Catena markoviana, 78
Fermi-Dirac, statistica di, 41
Chapman-Kolmogorov, equazione di, 79
Feynman-Vernon-Hellwarth, modello di, 123
Coefficiente di assorbimento, 130
Fluttuazioni della radiazione, 65
Coefficiente di demagnetizzazione, 156
Fluttuazioni delle grandezze statistiche, 47
Coerenza, funzioni di, 68
Fokker-Planck, equazione di, 88
Coerenze, 121
Forma di riga, 136
Correlazione, funzione di, 68
Formalismo dei campi complessi, 66
correlazione, funzione di, 80
Fotoconteggi, 86
Corrente di superconduttività, 156
Fotoni, equazioni di bilancio per i, 57
Correnti superficiali, 156
Fourier, trasformata di, 79
Densità di probabilità al primo ordine, 77
Frequenza di Rabi, 113, 115
Densità di probabilità al secondo ordine, 77
Funzione di autocorrelazione, 68
Densità di probabilità condizionata, 78
Funzione di correlazione, 68, 80
Densità spettrale, 79, 81
Funzioni di coerenza, 68
Diamagnetismo perfetto (superconduttori), 153
Gas perfetto classico: insieme gran canonico,
Dipendenti dal tempo, perturbazioni, 95
40
Doppler, allargamento, 137
Doppler, larghezza, 138
Grandezza “numero delle particelle”, 38
Accoppiamento atomo-bagno termico, 134
Allargamento Doppler, 137
Allargamento omogeneo, 136
Ampiezze di probabilità, 96
Approssimazione di onda rotante, 100
Assorbimento, 109
Autocorrelazione, 79
Autocorrelazione, funzione di, 68, 82
168
169
INDICE ANALITICO
Hamiltoniana di perturbazione, 95
Hamiltoniana imperturbata, 95
Heisenberg, rappresentazione di, 19
Moltiplicatori di Lagrange in statistica classica, 26
Moto browniano, 90
Imperturbata, hamiltoniana, 95
Indice di rifrazione, 130
Informazione disponibile, 24
Informazione mancante, 9, 17
Informazione utilizzabile, 24
Insieme gran canonico, 37
Insieme gran canonico, entropia, 38
Insieme gran canonico: gas perfetto classico,
40
Insieme gran canonico: statistica quantistica,
41
Installazione del regime oscillatorio, 65
Intensità di saturazione, 128
Interazione con campo forte, 112
Interazione radiazione-materia, 95
Interferenza, 69
Interferometro di Michelson, 70
Interferometro di Young, 71
Intrinseci, semiconduttori, 62
Inversione di popolazione, 56
Numero delle particelle, grandezza fisica, 38
Numero di Avogadro, 9
Lagrange, moltiplicatori di, 25
Larghezza Doppler, 138
Laser a CO2 , 61
Laser a elio-neon, 61
Laser a quattro livelli, 60
Laser a semiconduttore, 62
Lavoro di magnetizzazione, 147
Lavoro di magnetizzazione “meccanico”, 147
Lavoro di magnetizzazione effettuato dal generatore, 148
Magnetico, raffreddamento, 163
Magnetizzazione, lavoro di, 147
Markoviani, processi, 78
Massima informazione mancante, 24
Matrice densità, 20, 120
Maxwell-Bloch, equazioni di, 133
Meissner, effetto, 152
Michelson, interferometro di, 70
Modello di Feynman-Vernon-Hellwarth, 123
Omogeneo, allargamento, 136
Onda lentamente variabile, 132
Onda rotante, approssimazione di, 100
Onnes, H. Kammerlingh, 151
Oscillazioni di Rabi, 115
Parseval, teorema di, 80, 81
Perturbazione, hamiltoniana di, 95
Perturbazioni costanti, 98
Perturbazioni dipendenti dal tempo, 95
Perturbazioni periodiche, 100
Perturbazioni periodiche al secondo ordine, 104
Poisson, distribuzione di, 41
Popolazione, inversione di, 56
Popolazioni, 121
Popolazioni, equazioni di bilancio per le, 58
Poynting, vettore di, 67
Probabilità a priori, 23
Probabilità di transizione, 95
Probabilità, ampiezze di, 96
Processi markoviani, 78
Processi stocastici, 77
Punti di sella, 26
Rabi, frequenza di, 113, 115
Rabi, oscillazioni di, 115
Raffreddamento magnetico, 163
Raman, effetto, 107
Rappresentazione di Schrödinger, 95
Rate equations, 119, 120
Rate equations per i fotoni, 57
Rate equations per le popolazioni, 58
Regola d’oro di Fermi, 102, 135
Rilassamento, 126
Rilassamento longitudinale, 126
Rilassamento parallelo, 126
Rilassamento perpendicolare, 126
Rilassamento trasversale, 126
Rinormalizzazione dell’informazione mancante,
13
170
Rumore 1/f , 85
Rumore rosa, 85
Saturazione, intensità di, 128
Scelta nel continuo, 12
Scelte equiprobabili, 10
Schrödinger, rappresentazione di, 18, 95
Secondo ordine, perturbazioni periodiche al,
104
Semiconduttori estrinseci, 62
Semiconduttori intrinseci, 62
Sfera in campo magnetico, 145
Shot noise, 83
sinc, 71, 98
sinc non normalizzata, 71
sinc normalizzata, 71
sinc2 , 98
Smoluchowski, equazione di, 79
Spettrale, densità, 79, 81
Statistica di Bose-Einstein, 41
Statistica di Fermi-Dirac, 41
Stato intermedio (superconduttività), 155
Stato puro, 120
Stazionari, processi stocastici, 81
Stirling, approssimazione di, 11
Stocastici, processi, 77
Superconduttività, 145
Superconduttività, corrente di, 156
Superconduttività, teoria microscopica, 160
Temperatura critica (superconduttività), 151
Teorema di Parseval, 80, 81
Teoria microscopica della superconduttività, 160
Transizione, probabilità di, 95
Transizioni a due fotoni, 106
Transizioni di dipolo elettrico, 107
Transizioni in uno spettro continuo, 101
Trasformata di Fourier, 79
Trasformazioni attive e passive, 16
Trattamento semiclassico dell’interazione radiazionemateria, 101
Vettore di Poynting, 67
Wiener-Khinchin, teorema di, 68
Young, interferometro di, 71
INDICE ANALITICO