Appunti di Struttura della Materia II Giovanni Moruzzi Anno accademico 2009/2010 2 Indice Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Informazione mancante 1.1 Impostazione del problema . . . . . . . . . . . . . . . . . . . . . . . 1.2 Informazione mancante per un numero finito di scelte equiprobabili 1.3 Scelta tra possibilità con probabilità note . . . . . . . . . . . . . . . 1.4 Informazione mancante per una scelta nel continuo . . . . . . . . . 2 Meccanica statistica 2.1 Statistica classica . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Stato di un sistema classico e grandezze fisiche . . 2.1.2 Trasformazioni attive e passive . . . . . . . . . . 2.1.3 Evoluzione temporale . . . . . . . . . . . . . . . . 2.1.4 Trattamento statistico . . . . . . . . . . . . . . . 2.1.5 Rappresentazione di Schrödinger . . . . . . . . . 2.1.6 Rappresentazione di Heisenberg . . . . . . . . . . 2.2 Statistica quantistica . . . . . . . . . . . . . . . . . . . . 2.2.1 Stato di un sistema quantistico e grandezze fisiche 2.2.2 Evoluzione temporale . . . . . . . . . . . . . . . . 2.2.3 Trattamento statistico e matrice densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Scelta della probabilità 3.1 I postulato: probabilità a priori . . . . . . . . . . . . . . . . . . 3.2 Informazione disponibile (utilizzabile) . . . . . . . . . . . . . . . 3.3 II postulato: massimo condizionato dell’informazione mancante 3.4 Massimi condizionati: metodo dei moltiplicatori di Lagrange . . 3.5 Informazione disponibile in statistica classica . . . . . . . . . . . 3.6 Particelle identiche in fisica classica . . . . . . . . . . . . . . . . 3.7 Informazione disponibile in statistica quantistica . . . . . . . . . 3.8 Particelle identiche in meccanica quantistica . . . . . . . . . . . 3.9 Funzione di partizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 . . . . 9 9 10 11 12 . . . . . . . . . . . 15 15 15 16 17 17 18 19 19 19 19 20 . . . . . . . . . 23 23 24 24 25 26 28 29 31 31 4 Informazione mancante e entropia 33 4.1 Costanti del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.2 Gas perfetto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3 4 INDICE 5 Insieme gran canonico 5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Caso classico . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Numero non noto, o variabile, di particelle identiche 5.2.2 La grandezza “numero delle particelle” . . . . . . . 5.2.3 Entropia . . . . . . . . . . . . . . . . . . . . . . . . 5.2.4 Gas perfetto monoatomico classico nell’insieme gran 5.3 Caso quantistico . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Impostazione del problema, gas perfetto quantistico 5.3.2 Potenziale chimico . . . . . . . . . . . . . . . . . . 5.3.3 Numeri di occupazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 37 37 37 38 38 40 41 41 44 44 6 Fluttuazioni delle grandezze statistiche 47 6.1 Ampiezza delle fluttuazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 6.2 Fluttuazioni dei numeri di occupazione . . . . . . . . . . . . . . . . . . . . . . . 48 7 Interazione radiazione-materia, I 7.1 Derivazione della formula di Planck da parte di Einstein . . . . . . 7.2 Propagazione di un fascio di radiazione in un mezzo materiale . . . 7.3 Equazioni di bilancio per l’effetto laser . . . . . . . . . . . . . . . . 7.3.1 Inversione di popolazione . . . . . . . . . . . . . . . . . . . . 7.3.2 Equazioni di bilancio per i fotoni . . . . . . . . . . . . . . . 7.3.3 Equazioni di bilancio per le densità di popolazione dei livelli 7.3.4 Altri possibili schemi di pompaggio . . . . . . . . . . . . . . 7.4 Laser a semiconduttore . . . . . . . . . . . . . . . . . . . . . . . . . 8 Fluttuazioni della radiazione e interferenza 8.1 Instaurazione del regime oscillatorio . . . . . . . . 8.2 Formalismo dei campi complessi . . . . . . . . . . 8.3 Interferenza . . . . . . . . . . . . . . . . . . . . . 8.4 Interferometro di Michelson e coerenza temporale 8.5 Interferometro di Young e coerenza spaziale . . . 8.6 Volume di coerenza . . . . . . . . . . . . . . . . . 9 Processi stocastici 9.1 Introduzione . . . . . . . . . . . . . 9.2 Medie sull’ensemble . . . . . . . . . 9.3 Autocorrelazione e densità spettrale 9.3.1 Definizioni matematiche . . 9.3.2 Processi stocastici stazionari 9.3.3 Shot noise . . . . . . . . . . 9.3.4 Rumore 1/f . . . . . . . . . 9.3.5 Fotoconteggi . . . . . . . . . 9.4 Equazione di Fokker-Planck . . . . 9.5 Moto browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 51 54 56 56 57 58 60 62 . . . . . . 65 65 66 69 70 71 74 . . . . . . . . . . 77 77 79 79 79 81 83 85 86 88 90 5 INDICE 10 Interazione radiazione-materia, II 10.1 Perturbazioni dipendenti dal tempo . . . . . . 10.1.1 Introduzione . . . . . . . . . . . . . . . 10.1.2 Probabilità di transizione . . . . . . . . 10.1.3 Perturbazioni costanti . . . . . . . . . 10.1.4 Perturbazioni periodiche . . . . . . . . 10.1.5 Transizioni in uno spettro continuo . . 10.1.6 Regola d’oro di Fermi . . . . . . . . . . 10.2 Perturbazioni periodiche al secondo ordine . . 10.3 Transizioni di dipolo elettrico . . . . . . . . . 10.4 Assorbimento, emissione stimolata e spontanea 10.5 Interazione con campo forte . . . . . . . . . . . . . . . . . . . . . 11 Matrice densità 11.1 Rate equations e bilancio dettagliato . . . . . . 11.2 Matrice densità . . . . . . . . . . . . . . . . . . 11.3 Modello di Feynman-Vernon-Hellwarth . . . . . 11.4 Rilassamento e equazioni di Bloch ottiche . . . . 11.5 Indice di rifrazione e coefficiente di assorbimento 11.6 Equazioni di rate e forme di riga . . . . . . . . . 11.7 Accoppiamento atomo-bagno termico . . . . . . 11.8 Allargamento omogeneo . . . . . . . . . . . . . 11.9 Allargamento disomogeneo: effetto Doppler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 95 95 95 98 100 101 102 104 107 109 112 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 . 119 . 120 . 123 . 126 . 130 . 133 . 134 . 136 . 137 12 Regole di selezione 139 12.1 Considerazioni di simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 12.2 Transizioni di dipolo elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 13 Superconduttività 13.1 Un richiamo di magnetismo classico . . . . . . . . 13.2 Lavoro di magnetizzazione . . . . . . . . . . . . . 13.2.1 Lavoro “meccanico” sul campione . . . . . 13.2.2 Lavoro effettuato dal generatore . . . . . . 13.3 Un richiamo di termodinamica . . . . . . . . . . . 13.4 Superconduttività e campo magnetico critico . . . 13.5 L’effetto Meissner . . . . . . . . . . . . . . . . . . 13.6 Diamagnetismo perfetto . . . . . . . . . . . . . . 13.7 Corrente di superconduttività . . . . . . . . . . . 13.7.1 Correnti superficiali . . . . . . . . . . . . . 13.7.2 Correnti superficiali nei conduttori normali 13.7.3 Correnti superficiali nei superconduttori . 13.8 Campo magnetico critico . . . . . . . . . . . . . . 13.9 Teoria microscopica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 . 145 . 147 . 147 . 148 . 150 . 151 . 152 . 153 . 156 . 156 . 157 . 158 . 159 . 160 6 INDICE 14 Raffreddamento magnetico 163 14.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 14.2 Energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 14.3 Entropia e raffreddamento magnetico . . . . . . . . . . . . . . . . . . . . . . . . 165 Bibliografia 166 7 INDICE Premessa Allo stato attuale questi appunti sono solo in fase di prima stesura, quindi non sono assolutamente completi, e vengono scritti prevalentemente per aiutare me stesso a preparare le lezioni del corso. Il loro scopo non è sostituire il libro di testo, ma, eventualmente, integrarlo in qualche punto. Alcune parti possono essere scritte in modo non chiaro e comunque migliorabili, e sicuramente sono presenti numerosi errori, in particolare errori di battitura. Sarò grato a chi suggerirà correzioni o miglioramenti. Pisa, 29 dicembre 2009 Giovanni Moruzzi 8 INDICE Capitolo 1 Informazione mancante 1.1 Impostazione del problema Consideriamo un sistema fisico costituito da Np particelle. Se il sistema può essere descritto mediante la dinamica classica, in un certo istante il suo (i) (i) stato è completamente determinato se conosciamo le coordinate q1 . . . qf di ogni particella che (i) (i) compone il sistema, oltre ai corrispondenti momenti coniugati p1 . . . pf , dove i è l’indice della particella ed f il numero dei suoi gradi di libertà. Questo equivale a conoscere con precisione il punto dello spazio delle fasi Γ che rappresenta il nostro sistema. Se le Np particelle hanno tutte lo stesso numero di gradi di libertà, lo spazio delle fasi avrà 2NP f dimensioni. Analogamente, se il nostro sistema di Np particelle deve essere descritto quantisticamente, in un certo istante è completamente determinato se conosciamo la sua funzione d’onda (Np ) (Np ) (1) (1) (2) (2) , ψ q1 , . . . , qf , q1 , . . . , qf , . . . , q1 . . . qf o, in altra notazione, lo stato |ψi in cui il sistema stesso si trova. In ambedue i casi, la conoscenza dell’hamiltoniana classica H(q, p), o dell’hamiltoniana quantistica Ĥ ci permette di calcolare l’evoluzione temporale del sistema. Per un sistema macroscopico, Np è dell’ordine del numero di Avogadro (NA = 6.022 × 1023 ), e questo esclude ogni possibilità di arrivare a determinare il punto dello spazio delle fasi che lo rappresenta nel caso classico, o la sua funzione d’onda nel caso quantistico. Non ci resta che tentare di descrivere il sistema, e la sua evoluzione temporale, utilizzando invece che parametri microscopici, come le coordinate e i momenti delle singole particelle, parametri macroscopici come, per esempio, pressione, volume, temperatura, posizione del baricentro, impulso totale. . . Questo corrisponde a usare una quantità di informazione molto minore di quella necessaria per una descrizione dinamica. Ci troveremo cosı̀ a lavorare in presenza di un difetto di informazione, o informazione mancante. Nei paragrafi seguenti cercheremo di definire il concetto, appunto, di informazione mancante. 9 10 1.2 CAPITOLO 1. INFORMAZIONE MANCANTE Informazione mancante per un numero finito di scelte equiprobabili Cominciamo considerando un sistema che possa trovarsi in un numero finito di stati. Un esempio può essere lo spin di una particella. Supponiamo che il numero degli stati possibili sia W . Supponiamo poi di non sapere in quale stato si trovi il sistema, ma solo che il sistema ha la stessa probabilità 1/W di trovarsi in uno qualunque degli stati possibili. Quanta informazione ci manca per sapere lo stato del sistema? La stessa informazione che ci mancherebbe se volessimo trovare una pallina nascosta in una di W scatole chiuse, esternamente tutte uguali. Consideriamo prima il caso in cui W è una potenza di 2. Definiamo quantitativamente l’informazione mancante I come il miniB A mo numero di domande, a cui è permesso rispondere solo con un sı̀ o con A B un no, che dobbiamo fare per arrivare a sapere in quale scatola si trovi la A B pallina. E’ quindi proibita la domanda “in quale scatola si trova la pallina?”. Dobbiamo scegliere una strateA B gia. Per esempio, è vero che una domanda del tipo “la pallina si trova A nella scatola iesima?” mi permetFigura 1.1: Informazione mancante per la localizzazione terebbe di arrivare alla soluzione in di una pallina nascosta in una di 16 scatole. un colpo solo nel caso più fortunato, ma mi porterebbe a fare W domande nel caso meno fortunato. In media, ci porterebbe a fare (W + 1)/2 domande. Si può fare di meglio. La migliore strategia è dividere le scatole in due insiemi A e B, ognuno di W/2 scatole, e poi chiedere, come prima domanda, “la pallina si trova nell’insieme A?”. Sia che la risposta sia sı̀, o che sia no, abbiamo dimezzato il numero delle scatole in cui la pallina può trovarsi. Cioè abbiamo diminuito l’informazione mancante. Iterando il procedimento arriviamo a trovare la pallina con log2 W domande. Notate che, se il numero di scatole raddoppia, il numero di domande da fare aumenta solo di una. Data la corrispondenza tra una risposta del tipo sı̀/no ed un bit di informazione, l’informazione mancante I del problema, misurata in bit, è I = log2 W. (1.1) Nel caso generale, il numero delle scatole W non sarà una potenza di 2, quindi log2 W non sarà un numero intero. Se ripetiamo l’esperimento più volte, arriveremo sempre a trovare la pallina con un numero intero di iterazioni, ma, in ogni esperimento, in alcune di queste iterazioni ci troveremo di fronte ad un numero Wr dispari di scatole residue, che non potremo dividere in parti uguali, ma solo in una parte contenente (Wr + 1)/2 scatole, e l’altra (Wr − 1)/2. Come conseguenza, il numero di domande necessarie per trovare la pallina varierà da esperimento a esperimento, a seconda di come dividiamo le scatole ad ogni iterazione. Ma si può dimostrare che, in media, il numero di domande sarà log2 W . 11 1.3. SCELTA TRA POSSIBILITÀ CON PROBABILITÀ NOTE 1.3 Scelta tra possibilità con probabilità note Supponiamo adesso di avere ancora una pallina nascosta in una di W scatole, ma di avere un po’ di informazione in più. Ogni scatola ha una probabilità diversa Pi di contenere la pallina, e noi conosciamo queste probabilità. Ovviamente sarà W X Pi = 1. (1.2) i=1 Prima di procedere ci conviene riscrivere l’equazione (1.1) sotto la forma I = log2 W = r2 log W. (1.3) dove log indica il logaritmo naturale, e abbiamo posto r2 = log2 e = 1/ log 2. La legge dei grandi numeri ci dice che, se il numero degli esperimenti NE tende all’infinito, il numero degli esperimenti in cui troveremo la pallina nella scatola i-esima tenderà a NE Pi . Ma non sappiamo ancora in che ordine si presentano i risultati degli NE esperimenti. Quali degli NE sono gli NE Pi esperimenti in cui la pallina si trova nella scatola i? I risultati degli esperimenti si possono presentare in qualunque ordine con uguale probabilità. Il numero di modi Q di ordinare gli esperimenti vale NE !/ W (N E Pi )!, poiché, per ogni i, tutti gli esperimenti in i=1 cui la pallina si trova nella scatola i sono equivalenti. Una volta specificato l’ordine dei risultati degli esperimenti, non ci manca più informazione. L’informazione mancante INE relativa a NE esperimenti è cosı̀ " # W X NE ! = r2 log NE ! − log(NE Pi )! (1.4) INE = r2 log QW i=1 (NE Pi )! i=1 Volendo applicare la legge dei grandi numeri, INE ci interessa solo al limite NE → ∞, quindi possiamo usare l’approssimazione di Stirling log N ! ≈ N log N − N per ottenere " INE ≈ r2 NE log NE − NE − W X NE Pi (log NE + log Pi ) + i=1 (1.5) W X i=1 # NE Pi = −NE r2 W X Pi log Pi . i=1 (1.6) L’informazione mancante complessiva è cosı̀ proporzionale al numero NE degli esperimenti, e l’informazione mancante per ogni esperimento è W X 1 Pi log Pi . I N E = − r2 NE →∞ NE i=1 I = lim (1.7) Se tutti i casi sono equiprobabili, abbiamo Pi = 1/W per ogni i, e l’eq. (1.7) coincide con la (1.3). 12 CAPITOLO 1. INFORMAZIONE MANCANTE Passiamo adesso ad un numero di scatole che tende all’infinito. Se tutte le scatole hanno la stessa probabilità di contenere la pallina, l’informazione mancante sarà I = lim r2 log W = +∞. (1.8) W →∞ Cioè, l’informazione che ci manca per scegliere tra infinite possibilità equiprobabili è infinita. Ma se è data una distribuzione di probabilità non uniforme, l’equazione (1.7) ci dà per l’informazione mancante ∞ X I = − r2 Pi log Pi , (1.9) i=1 che può essere tranquillamente finita. 1.4 Informazione mancante per una scelta nel continuo Adesso il nostro compito non è più individuare una pallina nascosta in una scatola, ma individuare la posizione di un punto nell’intervallo a ≤ x ≤ b. Supponiamo anche di conoscere una funzione di distribuzione della probabilità P (x) tale che la probabilità che il punto si trovi tra x1 e x2 , con a ≤ x1 ≤ x2 ≤ b sia data da W (x1 , x2 ) = Z x2 P (x) dx, con P (x) > 0 e x1 Z b P (x) dx = 1. (1.10) a Per calcolare l’informazione mancante in questo caso possiamo partire dai risultati precedenti per il caso discreto, e fare un passaggio al limite. Dividiamo il segmento [a, b] in W celle uguali, e calcoliamo quanta informazione ci manca per sapere in quale cella si trova il nostro punto. La cella i-esima avrà estremi ai (W ) = a + (i − 1) b−a W e bi (W ) = a + i b−a , W (1.11) e la probabilità che contenga la nostra x sarà Pi (W ) = Z bi (W ) P (x) dx. (1.12) ai (W ) L’informazione mancante per determinare la cella in cui si trova il nostro punto vale cosı̀ "Z # "Z # W W bi (W ) bi (W ) X X I(W ) = −r2 Pi (W ) log Pi (W ) = −r2 P (x) dx · log P (x) dx . (1.13) i=1 i=1 ai (W ) ai (W ) Per passare al caso continuo dobbiamo far tendere W all’infinito e, quindi, l’ampiezza delle singole celle a zero. Possiamo quindi scrivere per la probabilità di trovare x nella cella i-esima Pi (W ) = Z bi (W ) P (x) dx = P i ai (W ) b−a , W (1.14) 1.4. INFORMAZIONE MANCANTE PER UNA SCELTA NEL CONTINUO 13 dove P i è un valore che P (x) assume all’interno dell’i-esima cella. Sostituendo la (1.14) nella (1.13) otteniamo I(W ) = −r2 W X i=1 W X b−a b−a b−a b−a log P i = −r2 . Pi P i log P i − r2 log W W W W i=1 (1.15) L’ultimo termine a destra si ottiene ricordando che W X b−a W i=1 P i = 1. Se adesso facciamo separatamente il limite per W → ∞ dei due addendi dell’ultimo membro della (1.15) otteniamo W X b−a Z b b−a = +∞. W →∞ W →∞ W W a i=1 (1.16) Quindi, l’informazione mancante per individuare un punto in un intervallo continuo è infinita. Ma il termine che diverge nella (1.16) dipende solo dalla dimensione della cella, ed è del tutto indipendente da come è fatta la distribuzione di probabilità. Per cui la differenza di informazione mancante tra due distribuzioni di probabilità diverse P1 (x) e P2 (x) conserva un significato e vale Z Z lim −r2 P i log P i = −r2 P (x) log P (x) dx e b ∆I = −r2 lim −r2 log b P1 (x) log P1 (x) dx + r2 a P2 (x) log P2 (x) dx a Possiamo quindi rinormalizzare l’informazione mancante per la scelta nel continuo sottraendo la costante infinita b−a lim −r2 log W →∞ W e definire Z b I = −r2 P (x) log P (x) dx. (1.17) a Vedremo che questa rinormalizzazione ci permetterà di trattare in maniera perfettamente coerente la fisica statistica classica. Ci sono però due prezzi da pagare 1. L’informazione mancante non è nulla, come dovrebbe, se la risposta è nota. Se sappiamo che la risposta è x0 , P (x) tende a δ(x − x0 ), che sostituita nella (1.17) porta a I → −∞. 2. L’integrale al secondo membro della (1.17) contiene il logaritmo di P (x), che non è un numero puro, ma ha dimensioni [x−1 ]. A parte l’aspetto matematicamente poco elegante, questo ha una conseguenza più seria. La risposta al nostro problema di scelta sul continuo avrebbe potuto essere scritta, invece che in termini della variabile x, in termini della variabile η = η(x), con η(x) continua e monotona nell’intervallo tra η(a) e η(b). La distribuzione di probabilità da usare sarebbe stata P (η) = P [x(η)](dx/dη). Ma in questo caso, a seconda della funzione η = η(x), a celle uguali in η non corrispondono necessariamente celle uguali in x, e a celle equiprobabili in η non corrispondono necessariamente 14 CAPITOLO 1. INFORMAZIONE MANCANTE celle equiprobabili in x, come si può facilmente controllare. Vedremo in seguito che, per il caso continuo, dovremo scegliere una variabile per la quale celle di estensione uguale possano essere considerate equiprobabili a priori, cioè equiprobabili quando non abbiamo alcuna informazione sul sistema. Capitolo 2 Meccanica statistica 2.1 2.1.1 Statistica classica Stato di un sistema classico e grandezze fisiche In meccanica classica lo stato di un sistema è completamente specificato da un insieme di coordinate generalizzate qi e dall’insieme dei corrispondenti momenti coniugati pi , con 1 ≤ i ≤ Nf , dove Nf è il numero di gradi di libertà del sistema. L’esempio più semplice è costituito da un sistema di N punti materiali, per il quale le coordinate canoniche {qi } sono q1 , q2 , q3 , q4 , q5 , q6 , . . . , q3j−2 , q3j−1 , q3j , . . . , q3N −2 , q3N −1 , q3N = (1) (1) (1) (2) (2) (2) (j) (j) (j) (N ) (N ) (N ) x ,y ,z ,x ,y ,z ,...,x ,y ,z ,...,x ,y ,z , (2.1) p1 , p2 , p3 , p4 , p5 , p6 , . . . , p3j−2 , p3j−1 , p3j , . . . , p3N −2 , p3N −1 , p3N = m(1) ẋ(1) , m(1) ẏ (1) , m(1) ż (1) , m(2) ẋ(2) , m(2) ẏ (2) , m(2) ż (2) , . . . , m(j) ẋ(j) , m(j) ẏ (j) , m(j) ż (j) , . . . , m(N ) ẋ(N ) , m(N ) ẏ (N ) , m(N ) ż (N ) , (2.2) ed i corrispondenti momenti coniugati {pi } sono dove l’indice (j) corre su tutte le particelle che compongono il nostro sistema, ed i gradi di libertà sono Nf = 3N . L’insieme delle coordinate e dei momenti (q, p) = (q1 , . . . , qNf , p1 , . . . , pNf ) determina un vettore posizione in uno spazio delle fasi a 2Nf dimensioni. In altre parole, ad ogni possibile stato del sistema corrisponde un punto (o vettore posizione) nello spazio delle fasi. Ricordiamo che le coordinate e i momenti obbediscono alle equazioni del moto canoniche q̇i = ∂H , ∂pi ṗi = − ∂H , ∂qi (2.3) dove H è l’hamiltoniana del sistema. Ogni grandezza fisica relativa al nostro sistema sarà rappresentata da una funzione delle coordinate canoniche e dei momenti del tipo G(q, p). Per esempio, la quantità di moto totale P P sarà scritta P~ = N ~j , e la sua componente Px sarà Px = N j=1 p j=1 p3j−2 , dove l’indice j corre su tutte le particelle. 15 16 CAPITOLO 2. MECCANICA STATISTICA Trasformazioni attive e passive y y ′ v~′ = ~v ~v ′ vy α ′ vx vx x x′ ϑ x b) a) Figura 2.1: a) Situazione iniziale. y ′ vy vy y y ′ ϑ vy′′ 2.1.2 ~v ′ ~v x′ ϑ x ′ vx′′ vx c) b) Trasformazione passiva. c) Trasformazione attiva. Nel seguito incontereremo i concetti di trasformazione attiva e trasformazione passiva in uno spazio vettoriale. Ne diamo una rapida definizione in questo paragrafo. Per semplicità, consideriamo un vettore ~v in R2 , come in figura 2.1a). Prendiamo {x̂, ŷ} come base ortonormale iniziale (con l’accento circonflesso indichiamo i versori degli assi). Su questa base ~v ha componenti vx = ~v · x̂ = v cos α e vy = ~v · ŷ = v sin α, dove α è l’angolo che ~v forma con l’asse x̂. Come esempio di trasformazione prendiamo una rotazione antioraria di un angolo ϑ attorno all’origine, data da cos ϑ − sin ϑ , Rϑ = sin ϑ cos ϑ Rϑ può corrispondere sia a una trasformazione passiva che a una trasformazione attiva. Una trasformazione passiva lascia invariato il vettore ~v , mentre ruota la base di ϑ, trasformandola in {x̂′ , ŷ ′ }, come in figura 2.1b). L’angolo che v~′ = ~v forma con il nuovo versore di base x̂′ vale α′ = α − ϑ. Quindi le componenti di ~v relative alla nuova base sono vx′ = ~v · x̂′ = vx cos ϑ + vy sin ϑ, vy′ = ~v · ŷ ′ = −vx sin ϑ + vy cos ϑ, Poiché in una trasformazione passiva ~v resta fisso, mentre la base subisce la rotazione generata da Rϑ le componenti di ~v subiscono una rotazione generata da Rϑ−1 . In altre parole, una trasformazione passiva è semplicemente un cambiamento di coordinate, cui non corrisponde un cambiamento fisico del sistema. In una trasformazione attiva, invece, la trasformazione Rϑ ruota sia ~v che la base, come in figura 2.1c). Cambia cosı̀ effettivamente lo stato fisico del sistema, ma le componenti di ~v non cambiano passando dalla vecchia base alla nuova: vx′ = vx , vy′ = vy . Il vettore trasformato forma quindi con l’asse x originario un angolo α + ϑ, e le sue componenti rispetto alla base originaria diventano vx′′ = v~′ · x̂ = vx cos ϑ − vy sin ϑ, vy′′ = v~′ · ŷ = vx sin ϑ + vy cos ϑ, subendo la rotazione generata da Rϑ . Quindi una trasformazione attiva cambia effettivamente lo stato fisico del sistema, ed ha senso anche in assenza di un sistema di riferimento. 17 2.1. STATISTICA CLASSICA 2.1.3 Evoluzione temporale Le equazioni del moto (2.3) possono essere integrate, ottep nendo delle soluzioni del tipo qi (q0 , p0 , t), pi (q0 , p0 , t), che soddisfano le condizioni iniziali qi (q0 , p0 , 0) = qi0 , pi (q0 , p0 , 0) = p0i . (q(t), p(t)) (2.4) La legge secondo cui il valore di una generica grandezza fisica G(q, p) varia al passare del tempo si scrive (q0, p0) Nf X d ∂G ∂qi ∂G ∂pi (2.5) G(q, p) = + q dt ∂qi ∂t ∂pi ∂t i=1 Nf Figura 2.2: Traiettoria nello X ∂G ∂H ∂G ∂H = = {G, H} , − spazio delle fasi. ∂qi ∂pi ∂pi ∂qi i=1 dove il termine {G, H} indica la parentesi di Poisson dell’hamiltoniana del sistema con la grandezza G(q, p). In altre parole, il punto dello spazio delle fasi che rappresenta il nostro sistema descrive una certa traiettoria al passare del tempo, come in figura, e il valore della nostra grandezza G è dato, istante per istante, dal valore che l’espressione analitica G(q, p) assume nel punto (qi (q0 , p0 , t), pi (q0 , p0 , t)). L’Eq. (2.5) rappresenta una trasformazione attiva della grandezza G: durante l’evoluzione temporale manteniamo immutata la dipendenza analitica dalle coordinate dello spazio delle fasi espressa da G = G(q, p), senza cioè introdurre alcuna dipendenza esplicita di G da t. 2.1.4 Trattamento statistico Abbiamo già detto che una trattazione dinamica di un sistema composto da un numero di particelle dell’ordine del numero di Avogadro, implicando la conoscenza esatta del punto rappresentativo nello spazio delle fasi, richiede la disponibilità di una quantità di informazione non realisticamente pensabile. Descriveremo quindi il sistema, e la sua evoluzione temporale, mediante variabili macroscopiche come il volume, la pressione, la temperatura . . . anziché variabili microscopiche come le posizioni e i momenti delle singole particelle. Lavoreremo quindi disponendo di una quantità di informazione inferiore a quella necessaria per una trattazione dinamica, trovandoci cosı̀ in presenza di informazione mancante. Supponiamo che l’informazione a nostra disposizione si limiti alla conoscenza non del punto rappresentativo, ma solo di una funzione di distribuzione f (q, p) che ci dia, punto per punto dello spazio delle fasi, la densità di probabilità che quello sia effettivamente il nostro punto rappresentativo. In altre parole, la probabilità che il punto rappresentativo stia all’interno di un elemento di volume τ dello spazio delle fasi vale Z Z W (τ ) = f (q, p) dq dp = f (q1 , . . . , qNf , p1 . . . , pNf ) dq1 dq2 . . . dqNf dp1 dp2 . . . dpNf (2.6) τ τ 18 CAPITOLO 2. MECCANICA STATISTICA con le condizioni Z f (q, p) ≥ 0 ∀ qi , pi . f (q, p) dq dp = 1, tutto lo spazio delle fasi (2.7) L’informazione contenuta nella funzione di distribuzione di probabilità f (p, q) ci permette di calcolare, per ogni grandezza fisica G(q, p), non più il “valore esatto”, ma solo una media statistica (media pesata), o valore di aspettazione, Z hGi = G(q, p)f (q, p) dq dp (2.8) con l’integrale esteso a tutto lo spazio delle fasi. Le equazioni del moto canoniche (2.3) impongono un’evoluzione temporale al valore d’aspettazione hGi della (2.8). Questa può essere trattata secondo due rappresentazioni equivalenti, descritte nei paragrafi seguenti. 2.1.5 Rappresentazione di Schrödinger Se all’istante t = 0 il punto rappresentativo del nostro sistema fosse stato sicuramente (q0 , p0 ), all’istante t sarebbe sicuramente (q(q0 , p0 , t), p(q0 , p0 , t)), dopo aver descritto una traiettoria nello spazio delle fasi del tipo schematizzato in Figura 2.2. Se la probabilità che a t = 0 il punto rappresentativo fosse in un piccolo elemento di volume dello spazio delle fasi τ (0) attorno a (q0 , p0 ) era W = f (q0 , p0 , 0)τ (0), all’istante t avremo che W sarà ancora la probabilità che il punto rappresentativo si trovi nell’elemento di volume τ (t) attorno a (q(q0 , p0 , t), p(q0 , p0 , t)), dove ogni punto di τ (0) è stato portato in un punto di τ (t) dall’evoluzione temporale. Avremo cosı̀ W = f (q0 , p0 , 0)τ (0) = f (q(q0 , p0 , t), p(q0 , p0 , t))τ (t). (2.9) Ma le trasformazioni canoniche conservano gli elementi di volume dello spazio delle fasi, ed avremo quindi τ (t) = τ (0), da cui segue immediatamente che f (q(q0 , p0 , t), p(q0 , p0 , t)) = f (q0 , p0 , 0) ∀t. (2.10) Dovremo quindi avere Nf df ∂f X = + dt ∂t i=1 ∂f X + = ∂t i=1 ∂f ∂H ∂f ∂H − ∂qi ∂pi ∂pi ∂qi ∂f ∂qi ∂f ∂pi + ∂qi ∂t ∂pi ∂t da cui segue Nf X ∂f =− ∂t i=1 Nf ∂f ∂H ∂f ∂H − ∂qi ∂pi ∂pi ∂qi = −{f, H}. = 0, (2.11) (2.12) L’evoluzione temporale della nostra distribuzione di probabilità è quindi descritta da una trasformazione passiva, che può essere usata per ottenere l’evoluzione temporale del valore di aspettazione di una grandezza fisica attraverso la relazione Z hG(t)i = G(q, p)f (q, p, t) dq dp. (2.13) 19 2.2. STATISTICA QUANTISTICA 2.1.6 Rappresentazione di Heisenberg L’alternativa è trasferire la dipendenza temporale dalla distribuzione di probabilità f alla grandezza fisica G. Se a t = 0 avevamo una probabilità dW = f (q0 , p0 )dτ che il nostro punto rappresentativo fosse nell’intorno dτ di (q0 , p0 ), questo corrispondeva a una probabilità dW che il valore della grandezza fosse G(q0 , p0 ). Dopo un tempo t avremo la stessa probabilità dW che il valore della grandezza sia diventato G(q(q0 , p0 , t), p(q0 , p0 , t)). Per il valore di aspettazione avremo quindi Z hG(t)i = G(q(q0 , p0 , t), p(q0 , p0 , t))f (q0 , p0 )dq0 dp0 , (2.14) dove G subisce la trasformazione attiva ottenuta integrando la (2.5). 2.2 2.2.1 Statistica quantistica Stato di un sistema quantistico e grandezze fisiche In meccanica quantistica lo stato di un sistema è completamente specificato da un vettore |ψi in uno spazio di Hilbert, normalizzato in modo che hψ|ψi = 1. (2.15) Alle grandezze fisiche osservabili corrispondono operatori Ĝ che operano su questo spazio. Il valore di aspettazione di un grandezza Ĝ quando il sistema si trova nello stato |ψi è hĜi = hψ|Ĝ|ψi. (2.16) La grandezza assume un valore definito Gi (autovalore) solo se il sistema si trova in un autostato |ii di Ĝ Ĝ|ii = Gi |ii. (2.17) Se un sistema è confinato in un volume finito, gli autostati di ogni grandezza fisica costituiscono un insieme normalmente infinito, ma discreto. Autostati corrispondenti ad autovalori diversi sono ortogonali tra loro. In presenza di autovalori degeneri, è comunque possibile scegliere gli autostati in modo che formino un insieme ortonormale completo. Questo significa che hi|ji = δij e che l’operatore identità Ê può essere scritto X Ê = |iihi|. (2.18) i 2.2.2 Evoluzione temporale L’evoluzione temporale dello stato |ψi di un sistema quantistico è data dall’equazione di Schrödinger dipendente dal tempo d i |ψi = − Ĥ|ψi, dt ~ (2.19) 20 CAPITOLO 2. MECCANICA STATISTICA dove Ĥ è l’hamiltoniana (operatore hamiltoniano) del sistema. L’equazione (2.19) può essere integrata formalmente per dare i (2.20) |ψ(t)i = e− ~ Ĥt |ψ(0)i. Nella (2.20) per esponenziale di un operatore  si intende 1 1 1 e = Ê +  + Â2 + Â3 + . . . + Ân + . . . 2 6 n! (2.21) dove Ê è, come al solito, l’operatore identità. L’evoluzione temporale del valore di aspettazione di una grandezza fisica Ĝ può cosı̀ essere scritta hĜ(t)i = hψ(t)|Ĝ|ψ(t)i, (2.22) questa è la rappresentazione di Schrödinger, in cui l’operatore Ĝ viene considerato costante nel tempo mentre evolve lo stato |ψ(t)i. D’altra parte, inserendo la (2.20) nella (2.22) otteniamo i i hĜ(t)i = hψ(0)|e+ ~ Ĥt Ĝe− ~ Ĥt |ψ(0)i = hψ(0)|Ĝ(t)|ψ(0)i. (2.23) Questa è la rappresentazione di Heisenberg, in cui i vettori dello spazio di Hilbert sono considerati costanti nel tempo, mentre gli operatori rappresentanti le osservabili fisiche evolvono secondo la legge i i (2.24) Ĝ(t) = e+ ~ Ĥt Ĝ(0)e− ~ Ĥt . Calcolando la derivata temporale della (2.24) otteniamo i d ih Ĝ(t) = Ĥ, Ĝ(t) . dt ~ (2.25) Sia che usiamo la rappresentazione di Schrödinger, sia che usiamo quella di Heisenberg, l’evoluzione temporale del valore di aspettazione di Ĝ rimane ovviamente la stessa. 2.2.3 Trattamento statistico e matrice densità Quando abbiamo a che fare con un sistema quantistico composto da un grande numero di particelle diventa impossibile determinare esattamente in quale stato |ψi il sistema si trovi. Anche qui ci troviamo quindi ad operare in assenza di un’informazione completa. L’ipotesi che faremo sarà quella di avere una base ortonormale completa {|ii} dello spazio di Hilbert, per ogni vettore |ii Pdella quale sia nota la probabilità Wi che esso corrisponda allo stato del sistema. Dovrà essere i Wi = 1 e Wi ≥ 0 ∀i. Tenendo presente che se fossimo sicuri che il sistema si trova nello stato |ii il valore d’aspettazione dell’osservabile Ĝ sarebbe hi|Ĝ|ii, la stima migliore che possiamo fare per il risultato di una misura di Ĝ è X hĜi = Wi hi|Ĝ|ii. (2.26) i Se costruiamo un operatore ρ̂ diagonale sulla base {|ii} definito dalla relazione hi|ρ̂|ji = Wi δij (2.27) 21 2.2. STATISTICA QUANTISTICA l’equazione (2.26) può essere riscritta hĜi = X i hi|ρ̂|iihi|Ĝ|ii = X i hi|ρ̂Ĝ|ii = Tr ρ̂Ĝ (2.28) E’ da notare che, se le Wi non sono tutte uguali tra loro e cambiamo base, ρ̂ non rimane necessariamente diagonale. Però un cambiamento di coordinate conserva il valore della traccia, quindi la relazione hĜi = Tr ρ̂Ĝ rimane valida indipendentemente dalla base scelta. Per quel che riguarda l’evoluzione temporale del valore di aspettazione, la rappresentazione di Schrödinger considera l’operatore Ĝ costante nel tempo, mentre fa evolvere l’operatore ρ̂, detto matrice densità. E’ da notare che, nella base in cui è diagonale, ρ̂(t) può essere scritto X X i i i i ρ̂(t) = |i(t)iWi hi(t)|, da cui ρ̂(t) = e− ~ Ĥt |iiWi hi|e+ ~ Ĥt = e− ~ Ĥt ρ̂(0)e+ ~ Ĥt . (2.29) i i La rappresentazione di Heisenberg, invece, considera la matrice densità costante nel tempo, facendo evolvere l’operatore Ĝ(t) secondo la relazione (2.24). E’ da notare che, rispetto alla (2.24), la (2.29) fa evolvere la matrice densità “all’indietro nel tempo”. 22 CAPITOLO 2. MECCANICA STATISTICA Capitolo 3 Scelta della probabilità 3.1 I postulato: probabilità a priori Per lavorare utilizzando una quantità di informazione molto inferiore a quella necessaria ad una trattazione dinamica del problema, dobbiamo introdurre due principi, o postulati, relativi all’informazione mancante. Questi postulati riguardano i criteri di scelta della funzione di distribuzione di probabilità sullo spazio delle fasi nel caso classico, e della matrice densità nel caso quantistico. Come tutti i postulati della fisica non sono ricavabili da principi preesistenti, ma saranno ritenuti giustificati a posteriori se porteranno a risultati in accordo con l’esperienza. Nel caso della statistica classica il primo postulato assegna uguale probabilità a priori - cioè in assenza di altra informazione sul sistema - a uguali volumi dello spazio delle fasi. E’ da notare che questa scelta, nel caso di un sistema fisico costituito da particelle non identiche, privilegia una trattazione hamiltoniana rispetto, per esempio, ad una trattazione lagrangiana. Infatti, in una trattazione hamiltoniana le variabili sono le qi e le pi , in una trattazione lagrangiana le variabili sono le qi e le q̇i . Se le particelle del sistema sono tutte identiche, a uguali volumi nello spazio qp corrispondono uguali volumi nello spazio q q̇, essendo pi = mq̇i ∀i, ma se il sistema contiene particelle di massa diversa questo non è più vero. In assenza di informazione sul sistema, la funzione di distribuzione f (q, p) deve quindi avere la proprietà Z Z f (q, p) dq dp = f (q, p) dq dp, (3.1) τ1 τ2 dove τ1 e τ2 sono diversi domini dello spazio delle fasi aventi lo stesso volume. L’informazione mancante sarà Z I = −r2 f (q, p) log f (q, p) dq dp. (3.2) Nel caso della statistica quantistica il primo postulato assegna uguale probabilità a priori a tutti gli stati di un insieme che formi una base ortonormale completa. Se gli stati di questa base sono N , e li etichettiamo |ii, con 1 ≤ i ≤ N , avremo Wi = 1/N ∀i. Questo corrisponde ad una matrice densità diagonale 1 ρ̂ = Ê, (3.3) N dove Ê è la matrice identità, indipendentemente dalla base scelta. 23 24 CAPITOLO 3. SCELTA DELLA PROBABILITÀ Per quel che riguarda l’informazione mancante nel caso quantistico, usando la base dello spazio di Hilbert su cui ρ̂ è diagonale abbiamo X X I = −r2 Wi log Wi = −r2 ρii log ρii = −r2 Tr (ρ̂ log ρ̂) . (3.4) i 3.2 i Informazione disponibile (utilizzabile) Una volta stabilito che, in totale assenza di informazione disponibile, vogliamo che i) nel caso classico la nostra funzione di distribuzione f (q, p) attribuisca uguali probabilità ad uguali volumi dello spazio delle fasi, ii) nel caso quantistico la nostra matrice densità ρ̂ attribuisca la stessa probabilità a tutti gli elementi di una base ortonormale completa dello spazio di Hilbert relativo al nostro sistema, dobbiamo decidere che cosa richiediamo a f (q, p) e ρ̂ quando invece disponiamo di informazione sul sistema che vogliamo descrivere. La prima richiesta ovvia è che, se esistono n grandezze fisiche il cui valore è noto, i loro valori di aspettazione coincidano con questi valori noti. Se nel caso classico abbiamo n grandezze fisiche Gi (q, p) di ognuna delle quali conosciamo con certezza il valore gi , la f (q, p) dovrà essere tale che Z hGi i = Gi (q, p)f (q, p) dq dp = gi ∀i. (3.5) Analogamente, se nel caso quantistico abbiamo n osservabili Ĝi di ognuna delle quali conosciamo con certezza il valore gi , la matrice densità ρ̂ dovrà essere tale che hGi i = Tr Ĝi ρ̂ = gi ∀i. (3.6) 3.3 II postulato: massimo condizionato dell’informazione mancante La condizione del paragrafo precedente ci lascia ancora molta libertà. Consideriamo, nel caso classico, due funzioni di distribuzione f1 (q, p) e f2 (q, p) che riproducano ambedue, come valori di aspettazione, gli n valori noti sperimentalmente gi delle n grandezze fisiche Gi (q, p) Z Z hGi i = Gi (q, p)f1 (q, p) dq dp = Gi (q, p)f2 (q, p) dq dp = gi ∀i. (3.7) In base a quale criterio preferiremo f1 rispetto a f2 , o vice versa? Diamo un’occhiata alle informazioni mancanti relative alle due distribuzioni: Z Z I1 = −r2 f1 (q, p) log f1 (q, p) dq dp, I2 = −r2 f2 (q, p) log f2 (q, p) dq dp, (3.8) 3.4. MASSIMI CONDIZIONATI: METODO DEI MOLTIPLICATORI DI LAGRANGE 25 e supponiamo che sia I1 > I2 . Tutte e due le funzioni di distribuzione riproducono l’informazione nota, perché i valori di aspettazione delle grandezze di cui disponiamo di misure coincidono con i valori sperimentali, ma f2 , avendo un’informazione mancante minore, contiene una quantità di informazione maggiore. Questo eccesso di informazione non ha niente a che fare con l’informazione disponibile sperimentalmente. Quindi, preferiremo f1 , che ci riproduce tutti i dati sperimentali inventandosi meno cose. Arriviamo cosı̀ al nostro secondo postulato: in statistica classica sceglieremo la funzione di distribuzione di probabilità sullo spazio delle fasi f (q, p) che massimizza l’informazione mancante, rispettando la condizione di riprodurre tutta l’informazione sperimentale a noi nota. In statistica quantistica sceglieremo la matrice densità ρ̂ che massimizza l’informazione mancante, sempre rispettando la condizione di riprodurre tutta l’informazione sperimentale a noi nota. 3.4 Massimi condizionati: metodo dei moltiplicatori di Lagrange Per semplicità, supponiamo di dover cercare il massimo di una funzione di due variabili f (x, y) soggetto alla condizione g(x, y) = k. L’equazione g(x, y) = k rappresenta una linea sul piano, indicata dalla linea continua in figura 3.1, e noi dobbiamo cercare gli estremi di f (x, y) su questa linea. Le equazioni del tipo f (x, y) = h, con h costante, rappresentano, per diversi valori di h, un famiglia di curve sul piano, del tipo delle linee tratteggiate in figura 3.1. Alcune di queste non incontrano mai la curva g(x, y) = k, come la f (x, y) = h1 , alcune la intersecano, come le f (x, y) = h3 , f (x, y) = h4 e f (x, y) = h5 , e alcune le possono essere tangenti, come la f (x, y) = h2 nel punto P4 . Se noi percorriamo la curva g(x, y) = k punto per punto o intersechiamo delle linee del tipo f (x, y) = h, come in P1 , P2 , P3 , P5 , P6 e P7 , o ci troviamo in un punto in cui la curva è tangente ad una linea del tipo f (x, y) = h, come in P4 . Gli estremi di f (x, y) soggetti alla condizione g(x, y) = k possono trovarsi solo in punti del tipo P4 . f (x Infatti, nei punti P3 e P5 la funzione f (x, y) , y) =h 5 assume lo stesso valore h3 , mentre nel punto inf (x , y) = P7 f (x h4 termedio P4 ha un valore diverso h2 . Ci trovere, y) f (x =h , y) P 6 3 =h mo quindi in presenza di un massimo condizionk 2 f (x =~ , y) =h y) ∇g( ato se h2 > h3 , o di un minimo condizionato ~ (x, y) , ∇f 1 x x, g( y) se h2 < h3 . Il problema di trovare estremi condizionati di f (x, y) soggetti al vincolo g(x, y) = k P4 P5 si risolve quindi individuando i punti in cui una P 3 curva del tipo f (x, y) = h è tangente alla curva P2 g(x, y) = k. P1 ~ Il gradiente di f (x, y) è un vettore ∇f (x, y) sempre perpendicolare alle curve f (x, y) = h, ~ mentre ∇g(x, y) è sempre perpendicolare alla curva g(x, y) = k. Quindi, nei punti in cui Figura 3.1: Ricerca di estremo condizionato. f (x, y) = h e g(x, y) = k sono tangenti, i vet~ (x, y) e ∇g(x, ~ ~ (x, y) = λ∇g(x, ~ tori ∇f y) sono paralleli. Questo implica ∇f y), dove λ è un valore opportuno. 26 CAPITOLO 3. SCELTA DELLA PROBABILITÀ Introduciamo una nuova funzione F (x, y, λ) = f (x, y) − λ [g(x, y) − k]. Cerchiamo adesso i punti in cui F (x, y, λ) ha estremi incondizionati. In questi punti le sue derivate parziali rispetto a x, y e λ sono tutte nulle: ∂f (x, y) ∂g(x, y) ∂f (x, y) ∂g(x, y) ∂F (x, y, λ) = −λ = 0, da cui = λ ∂x ∂x ∂x ∂x ∂x ∂f (x, y) ∂g(x, y) ∂f (x, y) ∂g(x, y) ∂F (x, y, λ) = −λ = 0, da cui = λ (3.9) ∂y ∂y ∂y ∂y ∂y ∂F (x, y, λ) = −[g(x, y) − k] = 0, da cui g(x, y) = k, ∂λ ci troviamo quindi in punti in cui i gradienti di f (x, y) e g(x, y) sono paralleli, ed è soddisfatta la condizione g(x, y) = k. La ricerca degli estremi condizionati della funzione di due variabili f (x, y) con il vincolo g(x, y) = k si riduce quindi alla ricerca degli estremi incondizionati della funzione di tre variabili F (x, y, λ). Al parametro λ si dà il nome di moltiplicatore di Lagrange. Ma attenzione, i punti cosı̀ trovati sono punti stazionari di F , non necessariamente estremi: potrebbero essere punti di sella. Quindi, in generale, bisognerà controllare che corrispondano effettivamente a estremi condizionati di f . Consideriamo adesso la ricerca degli estremi di un funzione di n variabili f (x1 , x2 , . . . xn ) sottoposti ad m vincoli (con, ovviamente, m < n) g1 (x1 , x2 , . . . xn ) = k1 , g2 (x1 , x2 , . . . xn ) = k2 . . . gm (x1 , x2 , . . . xn ) = km . Si può dimostrare che il problema può essere risolto cercando gli estremi incondizionati della nuova funzione di n + m variabili F (x1 , x2 , . . . xn , λ1 , λ2 , . . . λm ) = f (x1 , x2 , . . . xn ) − dove i λi sono moltiplicatori di Lagrange. 3.5 m X i=1 λi [gi (x1 , x2 , . . . xn ) − ki ] , Informazione disponibile in statistica classica R RDobbiamo massimizzare l’informazione mancante I = −r2 Rf (q, p) log f (q, p) dq dp con i vincoli f (q, p) dq dp = 1 (condizione di normalizzazione di f ) e f (q, p) Gi (q, p) dq dp = gi con i = 1, . . . n, dove G1 . . . Gn sono le grandezze fisiche di cui conosciamo il valore. Introduciamo quindi gli n + 1 moltiplicatori di Lagrange −r2 (Ω + 1) e r2 λi per i = 1, . . . n, e cerchiamo la funzione di distribuzione di probabilità f (q, p) che dia il massimo della funzione Z Z n X ′ I = I + r2 (Ω + 1) λi f (q, p) dq dp − 1 − r2 f (q, p)Gi (q, p) dq dp − gi = −r2 −r2 = −r2 Z i=1 f (q, p) log f (q, p) dq dp + r2 (Ω + 1) n X i=1 Z λi Z f (q, p)Gi (q, p) dq dp − gi " f (q, p) log f (q, p) − Ω − 1 + n X i=1 Z f (q, p) dq dp − 1 (3.10) # λi Gi (q, p) dq dp + r2 Ω+1− n X i=1 ! λi g i , 27 3.5. INFORMAZIONE DISPONIBILE IN STATISTICA CLASSICA senza vincoli per l’espressione analitica di f . I valori dei moltiplicatori di Lagrange verranno poi determinati in modo da imporre le condizioni sulla normalizzazione di f e sui valori di aspettazione delle grandezze note. Per la variazione di I ′ abbiamo, tenendo presente che la variazione dell’ultimo termine tra parentesi tonda della (3.10) è nulla perché indipendente da f (q, p) " # Z Z n X δf (q, p) ′ δI = −r2 δf (q, p) log f (q, p) − Ω − 1 + λi Gi (q, p) dq dp − r2 f (q, p) dq dp f (q, p) i=1 " # Z n X = −r2 δf (q, p) log f (q, p) − Ω + λi Gi (q, p) dq dp, (3.11) i=1 dove δf (q, p) è una variazione infinitesima arbitraria di f (q, p). Poiché δI ′ deve essere nulla per δf arbitraria, deve essere log f (q, p) = Ω − n X ovvero f (q, p) = eΩ− λi Gi (q, p), Pn i=1 λi Gi (q,p) . (3.12) i=1 Questa soluzione soddisfa la condizione f (q, p) > 0. Adesso determiniamo i moltiplicatori di Lagrange. La condizione di normalizzazione impone Z Z Z P Pn Ω− n λ G (q,p) Ω i i i=1 1 = f (q, p) dq dp = e dq dp = e e− i=1 λi Gi (q,p) dq dp da cui otteniamo Z −1 P Ω − n λi Gi (q,p) i=1 e = e dq dp , e Ω = − log Dagli altri vincoli otteniamo gi = Z f (q, p)Gi (q, p) dqdp = Z eΩ− Pn j=1 λj Gj (q,p) Z e− Pn Gi (q, p) dq dp = i=1 Z λi Gi (q,p) e− Z Pn j=1 e − dq dp. λj Gj (q,p) (3.13) Gi (q, p) dq dp , Pn j=1 λj Gj (q,p) dq dp (3.14) che, guardando la (3.13), può essere riscritta nella forma ∂Ω = gi , ∂λi i = 1, . . . n. (3.15) Le equazioni (3.13) e (3.15) ci permettono di ottenere Ω e gli altri moltiplicatori di Lagrange λi in funzione dei valori noti delle grandezze fisiche gi e delle espressioni analitiche delle grandezze Gi (q, p). Per quel che riguarda l’informazione mancante abbiamo " # Z Z n X Pn I = −r2 f (q, p) log f (q, p) dq dp = −r2 eΩ− i λi Gi (q,p) Ω − λi Gi (q, p) dq dp i = −r2 Ω + r2 Z X n i λi Gi (q, p) e Ω− Pn i λi Gi (q,p) dq dp = −r2 Ω + r2 n X i λi g i . (3.16) 28 CAPITOLO 3. SCELTA DELLA PROBABILITÀ Nel caso importante in cui l’unica grandezza fisica di cui conosciamo il valore è l’energia, chiamando β il moltiplicatore di Lagrange relativo all’hamiltoniana H(q, p), ed U il valore dell’energia stesso, abbiamo Z Ω−βH(q,p) f (q, p) = e , Ω = − log e−βH(q,p) dqdp, I = −r2 Ω + r2 βU (3.17) 3.6 Particelle identiche in fisica classica Finora abbiamo trattato le particelle come distinguibili. Questo non vuole solo dire attribuire ad ogni singola particella i la sua posizione ~qi ed il suo momento coniugato p~i . Questo vuole anche dire considerare come distinti due punti dello spazio delle fasi che si ottengono scambiando tra loro simultaneamente le posizioni e i momenti di una o più coppie di particelle. Ma in natura particelle dello stesso tipo (cioè, per esempio, due atomi di 4 He, ma non un atomo di 4 He e uno di 3 He) sono indistinguibili. Non esiste un esperimento che permetta di distinguere un atomo di 4 He dall’altro. Questo non è solo un limite alle nostre capacità, ma ha un significato più profondo. Questo implica anche che punti diversi dello spazio delle fasi che si trasformano l’uno nell’altro per una qualunque permutazione di particelle identiche corrispondono in realtà ad un unico stato del sistema. In altre parole, l’informazione che ci manca perché non sappiamo se è la particella A che si trova nella posizione ~q1 con momento p~1 , e la particella B nella posizione ~q2 con momento p~2 , o viceversa, non è vera informazione mancante e non va contata. Questa corrisponde ad una informazione che non potremmo mai avere. In altre parole, punti dello spazio delle fasi che si trasformano l’uno nell’altro per permutazioni di particelle identiche non devono essere considerati come diverse possibilità a priori della nostra trattazione statistica. Consideriamo un sistema di N particelle classiche identiche. Esistono N ! permutazioni di N particelle, quindi ogni singolo stato possibile del sistema è rappresentato da N ! punti dello spazio delle fasi. L’informazione mancante relativa ad una scelta tra N ! casi equiprobabili è IN ! = r2 log N ! (3.18) che dovremmo sottrarre dalla (3.16) I = −r2 Ω + r2 n X i λi gi − r2 log N !, (3.19) o, se l’unica grandezza nota è l’energia I = −r2 Ω + r2 βU − r2 log N ! (3.20) In realtà, cosı̀ facendo sovraestimiamo la correzione a I ogni volta che ci sono due o più particelle che hanno gli stessi ~q e p~. Questo, però, succede solo su di un insieme di misura zero. Il termine −r2 log N ! della (3.20) non dipende dalle variabili canoniche q e p, e può essere incorporato in Ω, vedi (3.13) Z Pn Ωindist = Ωdist + log N ! = − log e− i=1 λi Gi (q,p) dqdp + log N ! (3.21) 29 3.7. INFORMAZIONE DISPONIBILE IN STATISTICA QUANTISTICA in modo che l’informazione mancante continui a essere Iindist = −r2 Ωindist +r2 n X i=1 λi g i , o, se è nota solo l’energia Iindist = −r2 Ωindist +r2 βU. (3.22) Per la funzione di distribuzione f (q, p) avremo findist (q, p) = eΩindist +βH(q,p) = eΩdist +log N !+βH(q,p) = N ! eΩdist +βH(q,p) = N ! fdist (q, p). Avremo quindi Z findist (q, p) dqdp = N ! Z (3.23) fdist (q, p) dqdp = N !, (3.24) ed il valore di aspettazione di una grandezza G(q, p) sarà Z 1 G(q, p)findist (q, p) dqdp, hGi = N! (3.25) dove il fattore 1/N ! tiene conto che ad ogni stato del sistema corrispondono non uno, ma N ! punti distinti dello spazio delle fasi. E’ da notare che, fin che il numero N delle particelle è costante, il tener conto dell’indistinguibilità delle particelle non altera i risultati ottenuti precedentemente. La correzione all’informazione mancante moltiplica semplicemente la funzione di distribuzione per N !, mentre, quando vengono calcolate le medie sullo spazio delle fasi viene introdotto un fattore 1/N ! per tener conto degli N ! punti che corrispondono ad un singolo stato fisico. L’importanza dell’indistinguibilità delle particelle apparirà quando introdurremo l’insieme gran canonico per trattare sistemi con numero di particelle non costante. 3.7 Informazione disponibile in statistica quantistica Anche qui dobbiamo massimizzare l’informazione mancante I, la cui espressione questa volta è data dalla (3.4), con i vincoli Tr(ρ̂) = 1 (condizione di normalizzazione di ρ̂) e Tr ρ̂ Ĝi = gi con i = 1, . . . n, dove Ĝ1 . . . Ĝn sono gli operatori relativi alle osservabili di cui conosciamo il valore. Introduciamo ancora gli n+1 moltiplicatori di Lagrange r2 (Ω+1) e r2 λi per i = 1, . . . n, e cerchiamo la matrice densità che dia il massimo non vincolato della funzione I ′ = I + r2 (Ω + 1) [Trρ̂ − 1] − r2 n X i=1 h i λi Tr ρ̂Ĝi − gi = −r2 Tr (ρ̂ log ρ̂) + r2 (Ω + 1) Trρ̂ − r2 " = −r2 Tr ρ̂ log ρ̂ − Ω − 1 + n X i=1 λi Ĝi n X i=1 !# λi Tr ρ̂Ĝi + r2 + r2 Ω+1− n X i=1 Ω+1− λi g i ! . n X i=1 λi g i ! (3.26) P Si può dimostrare che la stazionarietà di I ′ richiede che gli operatori ρ̂ e ni=1 λi Ĝi commutino, P per cui potremo lavorare su una base {|αi} su cui sia ρ̂ che ni=1 λi Ĝi sono diagonali. Per 30 CAPITOLO 3. SCELTA DELLA PROBABILITÀ “stenografia”, definiamo l’operatore Ĝ Ĝ = e introduciamolo nella (3.26) I ′ = −r2 = −r2 X α X α n X λi Ĝi = i=1 X α |αiGαα hα|, h i hα| ρ̂ log ρ̂ − Ω − 1 + Ĝ |αi + r2 Ω+1− Ω+1− [ραα (log ραα − Ω − 1 + Gαα )] + r2 n X λi g i i=1 n X i=1 λi g i ! ! , che deve essere stazionario rispetto a piccole variazioni arbitrarie δραα . La variazione dell’ultimo termine tra parentesi tonda della (3.26) è nulla perché non vi compare la ρ̂. Avremo quindi X δραα ′ 0 = δI = −r2 δραα (log ραα − Ω − 1 + Gαα ) + ραα ραα α X = −r2 [δραα (log ραα − Ω + Gαα )] , α che ci porta a ovvero log ραα − Ω + Gαα = 0, ρ̂ = X α ραα = eΩ−Gαα , che implica |αieΩ−Gαα hα| = eΩ− P i λi Ĝi . (3.27) Notiamo che tutti gli autovalori ραα di ρ̂ sono positivi, e che l’ultimo membro della (3.27) è invariante per cambio di base. La condizione di normalizzazione impone che P (3.28) Ω = − log Tr e− i λi Ĝi , che è l’anologo quantistico della (3.13). Anche le (3.15) hanno l’analogo quantistico: X ∂Gαα ! e−Gαα ∂λi X ∂Ω ∂ − log e−Gαα = α X . = ∂λi ∂λi e−Gαα α α D’altra parte, per definizione Gαα = hα| n X i=1 λi Ĝi |αi, da cui ∂Gαα = hα|Ĝi |αi. ∂λi Sostituendo nell’equazione precedente otteniamo X e−Gαα hα|Ĝi |αi P ∂Ω = e−Ω Tr e− i λi Ĝi Ĝi = Tr ρ̂Ĝi = gi . = α X ∂λi e−Gαα α (3.29) 3.8. PARTICELLE IDENTICHE IN MECCANICA QUANTISTICA 3.8 31 Particelle identiche in meccanica quantistica Nel caso quantistico l’indistinguibilità delle particelle implica che si incontrano solo funzioni d’onda completamente simmetriche (statistica di Bose-Einstein) o completamente antisimmetriche (statistica di Fermi-Dirac) per scambio di particelle. 3.9 Funzione di partizione La funzione di partizione Z è legata al moltiplicatore di Lagrange Ω dalle relazioni Z = e−Ω , Ω = − log Z. (3.30) λi Gi (q,p) (3.31) In statistica classica abbiamo cosı̀ Z= Z e− Pn i=1 dq dp, mentre in statistica quantistica abbiamo P Z = Tr e− i λi Ĝi . (3.32) Sia in statistica classica che in statistica quantistica abbiamo, per il valor medio di una grandezza hGi i ∂ log Z. (3.33) hGi i = − ∂λi 32 CAPITOLO 3. SCELTA DELLA PROBABILITÀ Capitolo 4 Informazione mancante e entropia 4.1 Costanti del moto Se le uniche grandezze fisiche di cui conosciamo il valore sono costanti del moto, ci aspettiamo che la nostra funzione di distribuzione f (q, p), o la nostra matrice densità ρ̂, siano costanti nel tempo. Le più importanti costanti del moto che conosciamo sono l’energia, la quantità di moto ed il momento angolare. Avremo quindi una matrice densità del tipo ~ ~ ~ f (q, p) = eΩ−βH(q,p)−~σ·P (q,p)−λ·L(q,p) , (4.1) dove β è il moltiplicatore di Lagrange relativo all’energia, ~σ quello relativo alla quantità di moto, e ~λ quello relativo al momento angolare. Analogamente, nel caso quantistico avremo ˆ ~ ~ ~ˆ ρ̂ = eΩ−β Ĥ−~σ·P −λ·L , (4.2) ˆ ~ˆ è l’operatore momento angolare dove P~ è l’operatore quantità di moto totale del sistema e L totale. Se ci mettiamo nel sistema di riferimento del baricentro del nostro sistema, la quantità di moto complessiva sarà nulla. Se supponiamo che anche il momento angolare totale sia nullo, possiamo scrivere F (q, p) = eΩ−βH(q,p) nel caso classico, e ρ̂ = eΩ−β Ĥ nel caso quantistico. (4.3) Non comparendo né ~σ né ~λ nelle espressioni, le derivate parziali di Ω rispetto ad una qualunque loro componente saranno infatti tutte nulle, e quindi, in base alle (3.15) e (3.29), saranno nulli i valori di aspettazione delle grandezze fisiche corrispondenti. 4.2 Gas perfetto Il gas perfetto è schematizzabile come un insieme di N punti materiali, ognuno di massa m, non interagenti tra loro. Se escludiamo la presenza di forze esterne, ma teniamo conto del fatto che il gas è confinato in un volume V , nel caso classico l’hamiltoniana è H(p, q) = N X p~i 2 i=1 33 2m + U (q), (4.4) 34 CAPITOLO 4. INFORMAZIONE MANCANTE E ENTROPIA dove l’indice i corre su tutte le particelle che compongono il sistema, e U (q) è l’energia potenziale. Mentre la sommatoria dipende solo dalle quantità di moto, l’energia potenziale dipende solo dalle coordinate spaziali e, nel nostro caso, avrà la forma 0 se tutte le particelle sono all’interno del volume permesso U (q) = (4.5) +∞ se almeno una particella è al di fuori del volume permesso La funzione di distribuzione diventa cosı̀ f (q, p) = e Ω−β N X p~i 2 i=1 2m − βU (q) (4.6) dove l’indice i corre su tutte le particelle del sistema. Considerando le particelle “uguali ma distinguibili” (considereremo il caso delle particelle indistinguibili più avanti) abbiamo per Ω −β Z 3 3 −βU (q) d p1 . . . d pN e Ω(β) = − log d q1 . . . d qN e n o = − log V N [ϕ(β)]N = −N log V − N log ϕ(β), Z 3 3 X p~i 2 i 2m (4.7) dove V è il volume occupato dal gas, e abbiamo posto ϕ(β) = Z 3 d pe −β p~ 2 3/2 2πm 2m = , β Analogamente, nel caso quantistico abbiamo ricordando che −β X Ω(β) = − log hα|e α X p~ˆi 2 i 2m Z +∞ e −∞ −ax2 dx = r |αi π . a (4.8) (4.9) dove gli |αi costituiscono un insieme ortonormale e completo di autostati simultanei di tutti i p~ˆi . Per sistemi di grandi dimensioni la traccia può essere sostituita da un integrale su uno “spazio delle fasi quantizzato”, con celle di volume h3 per ogni particella X p~ˆi 2 −β V N Z 2m 3 3 i Ω(β) = − log 3N d p1 . . . d pN e h = − log VN [ϕ(β)]N h3N = −N log V − N log ϕ(β) + log h3N , (4.10) che differisce dalla (4.7) solo per la presenza del termine additivo log h3N , differenza dovuta alla rinormalizzazione (1.17). L’informazione mancante per un gas perfetto diventa cosı̀ I = −r2 Ω + r2 βU = r2 N log V + r2 N log ϕ(β) − 3N r2 log h + r2 βU, (4.11) 35 4.2. GAS PERFETTO dove U è il valore di aspettazione dell’energia, ed il termine −3N r2 log h è presente solo nel caso quantistico. Per il valore di aspettazione dell’energia U abbiamo U= 3 ∂Ω =N , ∂β 2β (4.12) 3 che, confrontato con il valore noto dalla termodinamica classica U = N kT , ci porta a 2 β= 1 , kT (4.13) dove k è la costante di Boltzmann. Sostituendo la (4.12) nella (4.11) otteniamo per l’informazione mancante 3 I = r2 N log V + r2 N log ϕ(β) + r2 N − 3N r2 log h, 2 (4.14) E’ anche possibile ottenere dalla nostra trattazione statistica l’equazione del gas perfetto classico. Per il valore di aspettazione della pressione p abbiamo Z ∂H Ω−βH(q,p) ∂H =− e dq dp. (4.15) p=− ∂V ∂V Z La condizione di normalizzazione eΩ−βH(q,p) dq dp = 1 impone che sia ∂ 0= ∂V Z e Ω−βH(q,p) dq dp = Z ∂Ω ∂H −β ∂V ∂V eΩ−βH(q,p) dq dp. (4.16) Di qui segue che Z ∂H Ω−βH(q,p) 1 ∂Ω e dq dp = ∂V β ∂V Z eΩ−βH(q,p) dq dp = 1 ∂Ω , β ∂V (4.17) mentre dalla (4.7) otteniamo ∂ N ∂Ω =− [N log V + N log ϕ(β)] = − , ∂V ∂V V da cui 1N , e, ricordando la (4.13), otteniamo pV = N kT (4.18) βV che è l’equazione del gas perfetto classico monoatomico. Per vedere la relazione tra la nostra informazione mancante I e l’entropia S definita dalla termodinamica classica, cominciamo considerando una trasformazione reversibile (molto lenta) isoterma (T , e quindi β, costanti) da un volume iniziale Vi a un volume finale Vf . Dalla termodinamica classica abbiamo, per la variazione di entropia Z Z Z δQ 1 Vf N kT 1 Vf Vf ∆Sisoterma = , (4.19) p dV = = dV = N k log T T Vi T Vi V Vi p= 36 CAPITOLO 4. INFORMAZIONE MANCANTE E ENTROPIA mentre dalla (4.14) abbiamo per la variazione di informazione mancante Vf . ∆Iisoterma = N r2 log Vi (4.20) Analogamente, la variazione di entropia per una trasformazione isocora reversibile da una temperatura iniziale Ti ad una temperatura finale Tf è, secondo la termodinamica classica, ∆Sisocora 3 = Nk 2 Z Tf Ti dT 3 = N k log T 2 Tf Ti , per la stessa trasformazione la variazione di informazione mancante è ϕ(βf ) 3 3 βi Tf ∆Iisocora = r2 N log = r2 N log = r2 N log . ϕ(βi ) 2 βf 2 Ti (4.21) (4.22) Questo ci porta a pensare che esista il legame S = kI/r2 = (k log 2) I tra entropia e informazione mancante. Poiché k log 2 è costante, vediamo che l’entropia introdotta in termodinamica non è altro che l’informazione mancante misurata in altre unità di misura, anziché in bit: un bit di informazione mancante corrisponde, in termini di entropia, a (k log 2) J/K. Partendo dalla (4.14), l’entropia di un gas perfetto può essere scritta 3 S = −kΩ + kβU = kN log V + kN log ϕ(β) + k N − 3N k log h 2 (4.23) dove, ancora, l’ultimo addendo −3N k log h è presente solo nel caso quantistico. Per un gas perfetto classico monoatomico di particelle identiche avremo 3 Sindist = −kΩindist + kβU = kN log V + kN log ϕ(β) + k N − 3N k log h − k log N ! 2 (4.24) Capitolo 5 Insieme gran canonico 5.1 Introduzione Finora abbiamo considerato come noto il numero N di particelle che costituiscono il sistema. Ma la conoscenza di N non è sempre possibile, sia per ovvi motivi pratici, che per motivi di principio, come, per esempio, la possibile presenza di reazioni chimiche, o il caso di fotoni che vengono continuamente emessi ed assorbiti. 5.2 5.2.1 Caso classico Numero non noto, o variabile, di particelle identiche Supponiamo di avere un sistema di particelle identiche di cui non conosciamo il numero esatto N , ma solo una sua stima, o valore medio, N . A priori non escludiamo nessuna possibilità 0 ≤ N < ∞. Non avendo a disposizione uno spazio delle fasi con numero non definito delle particelle, dobbiamo lavorare simultaneamente su tutti gli spazi delle fasi con 0 ≤ N < ∞, ovviamente tutti relativi allo stesso tipo di particelle. Per ogni N > 0 avremo una funzione di distribuzione fN ({~qi }, {~pi }) , con 1 ≤ i ≤ N, (5.1) mentre per N = 0 avremo che f0 sarà una costante. Imponiamo le condizioni di normalizzazione Z 1 fN (q, p) dq dp = 1 ∀N, (5.2) N! e, per ogni N , chiamiamo WN la probabilità che il sistema abbia N particelle, con WN ≥ 0 ∀N, e ∞ X WN = 1. (5.3) N =0 Per l’insieme gran canonico, la funzione di distribuzione è cosı̀ sostituita da un insieme di funzioni di distribuzione sui singoli spazi delle fasi a N particelle, fgc ≡ {W0 f0 , W1 f1 , W2 f2 , . . . , WN fN , . . .} ≡ {WN fN } . 37 (5.4) 38 CAPITOLO 5. INSIEME GRAN CANONICO Le grandezze fisiche, essendo funzioni delle coordinate e dei momenti delle particelle, sono esse pure rappresentate, nell’insieme gran canonico, da insiemi di funzioni del tipo Ggc ≡ {G0 , G1 (~q1 , p~1 ), G2 (~q1 , p~1 , ~q2 , p~2 ), . . . , GN (~q1 , p~1 , ~q2 , p~2 , . . . , ~qN , p~N ), . . .} . Per esempio, l’energia cinetica traslazionale T sarà scritta ) ( N 2 2 2 2 X p~2 p~1 p~1 p~j , + ,..., ,... , Tgc ≡ 0, 2m 2m 2m 2m j=1 (5.5) (5.6) e il valor medio di una grandezza sarà scritto Z ∞ X WN fN (q, p) GN (q, p) dq dp hGi = N! N =0 5.2.2 (5.7) La grandezza “numero delle particelle” Nell’insieme gran canonico definiamo una nuova grandezza fisica, la grandezza numero delle particelle N , definita da N = {0, 1, 2, . . . , N, . . .}, con valor medio hN i = ∞ X WN N = N , (5.8) N =0 pari al valore di aspettazione del numero delle particelle del sistema. 5.2.3 Entropia Se le particelle fossero esattamete N , l’entropia sarebbe, come abbiamo visto Z 1 SN = −k fN log fN dq dp, N! se mediamo sul numero delle particelle N otteniamo X WN Z fN log fN dq dp, hSN i = −k N! N (5.9) (5.10) cui va ancora aggiunta l’entropia corrispondente al difetto di informazione relativo alla scelta tra i possibili valori di N , cioè X S(N ) = −k WN log WN . (5.11) N Complessivamente, l’entropia per l’insieme gran canonico sarà cosı̀ Z X 1 S = −k WN log WN + fN log fN dq dp , N ! N (5.12) 39 5.2. CASO CLASSICO Z 1 fN dq dp = 1, che può essere riscritta, ricordando che, per ogni N , abbiamo N! Z Z X 1 1 S = −k WN (log WN )fN dq dp + fN log fN dq dp N ! N ! N X WN Z fN log(WN fN ) dq dp. = −k N ! N (5.13) Cerchiamo adesso il massimo di S, considerando noti il valor medio del numero delle particelle N ed il valor medio dell’energia U . Per semplicità definiamo Z 1 ∗ fN = WN fN , cosı̀ che è fN∗ dq dp = WN , (5.14) N! e sostituiamo nella (5.13) X 1 Z S = −k fN∗ log fN∗ dq dp. N ! N (5.15) Dobbiamo cercare l’insieme {fN∗ } che corrisponde al massimo vincolato di S con le condizioni X 1 Z fN∗ dq dp (5.16) 1 = N ! N X N Z fN∗ dq dp (5.17) N = N ! N X 1 Z U = HN fN∗ dq dp. (5.18) N ! N Usando il metodo dei moltiplicatori di Lagrange, cerchiamo il massimo non vincolato dell’espressione ! X 1 Z X 1 Z fN∗ log fN∗ dq dp + k(Ω + 1) fN∗ dq dp − 1 S ′ = −k N ! N ! N N ! ! X N Z X 1 Z −kα fN∗ dq dp − N − kβ HN fN∗ dq dp − U (5.19) N ! N ! N N dove −k(Ω + 1) è il moltiplicatore di Lagrange relativo alla normalizzazione, kα quello relativo al numero delle particelle, e kβ quello relativo all’energia. Deve quindi essere nulla la variazione Z Z X 1 Z ′ ∗ ∗ ∗ δfN log fN dq dp + δfN dq dp − (Ω + 1) δfN∗ dq dp 0 = δS = −k N ! N +αN Z δfN∗ dq dp + β Z HN δfN∗ dq dp X 1 Z = −k δfN∗ (log fN∗ − Ω + αN + βHN ) dq dp, N ! N (5.20) 40 CAPITOLO 5. INSIEME GRAN CANONICO Data l’arbitrarietà di δfN∗ , la (5.20) implica che, per ogni N , si abbia log fN∗ − Ω + αN + βHN = 0, con Ω tale che ovvero fN∗ = eΩ−αN −βHN , (5.21) X e−αN Z X 1 Z Ω ∗ fN dq dp = e e−βHN dq dp, 1= N ! N ! N N da cui otteniamo ! (5.22) X e−αN Z = e−βHN dq dp. N ! N (5.23) X e−αN Z Ω = − log N! N e−βHN dq dp mentre la funzione di partizione Z diventa Z=e Avremo poi 5.2.4 −Ω ∂Ω = N, ∂α e la solita ∂Ω = U. ∂β (5.24) Gas perfetto monoatomico classico nell’insieme gran canonico Le espressioni diventano particolarmente semplici in assenza di interazione tra le particelle. Se consideriamo un gas perfetto monoatomico classico, l’hamiltoniana sarà ) ( N X p~i 2 + U (~q1 . . . ~qN ) , (5.25) H = {HN } = 2m i=1 con le U (~q1 . . . ~qN ) analoghe alla (4.5). Cosı̀ Ω diventa " ∞ " ∞ 23 N # N # X e−αN Z X e−αN 2πm 2 Ω = − log VN e−βp /2m d3 p · V = − log , N ! N ! β N =0 N =0 (5.26) dove V è il volume occupato dal gas. ( " 32 #) ∞ X 2πm xN = ex segue che Ω = − log exp e−α V , ovvero Dalla relazione N ! β N =0 Ω = −V 2πm β 23 e−α . (5.27) Dalla prima delle (5.24) segue ∂Ω =V N= ∂α e da qui e −α N = V β 2πm 23 , 2πm β 23 e−α = −Ω, N α = − log + log V (5.28) 2πm β 23 . (5.29) 41 5.3. CASO QUANTISTICO Le componenti della funzione di distribuzione sono " 23 #N P p2i β −β −N N ∗ 2m . e fN = e V 2πm (5.30) La (5.30) ci permette di calocolare le probabilità WN di avere esattamente N particelle per un gas perfetto con numero medio di particelle N " 32 #N Z Z P p2i 1 N β 1 dq dp e−β 2m WN e−N fN∗ dq dp = N! N! V 2πm N −N N , (5.31) = e N! che è la distribuzione di Poisson con valore medio N . Da qui possiamo ottenere fN = fN∗ WN = N! " 1 V β 2πm 32 #N e −β X p2 i 2m , (5.32) che è la normale funzione di distribuzione di un gas perfetto monoatomico di N particelle indistinguibili. Avremo inoltre per il valor medio dell’energia del gas perfetto monoatomico U 3 3 23 β 3 3 ∂Ω 2πm 2 1 −α 3 2πm 2 1 N 3N = V e = V = N kT. (5.33) U= = ∂β 2 β β 2 β β V 2πm 2β 2 Per l’entropia otteniamo infine " S = −kΩ + kβ U + kαN = kN log 5.3 5.3.1 2πm β 32 # 5 N + − log . 2 V (5.34) Caso quantistico Impostazione del problema, gas perfetto quantistico In meccanica quantistica l’indistinguibilità delle particelle ha come conseguenza che i risultati sperimentali previsti devono restare immutati per ogni possibile scambio di due particelle tra loro. Questo comporta che il modulo quadro della funzione d’onda |ψ|2 deve restare invariato, e questo, a sua volta, è possibile solo se, scambiando due particelle, i) la ψ rimane invariata, oppure ii) la ψ cambia segno. Queste due possibilità portano a due diverse statistiche possibili in meccanica quantistica: i. sistemi di particelle rappresentati da funzioni d’onda simmetriche obbediscono alla statistica di Bose-Einstein; ii. sistemi di particelle rappresentati da funzioni d’onda antisimmetriche obbediscono alla statistica di Fermi-Dirac. 42 CAPITOLO 5. INSIEME GRAN CANONICO In ambedue i casi è conveniente, per motivi di calcolo, effettuare i conti statistici nell’insieme gran canonico, cioè fissare un valore di aspettazione per il numero N delle particelle, ma non vincolare N ad un valore costante. Lo spazio di Hilbert relativo all’insieme gran canonico sarà la somma diretta di tutti gli spazi di Hilbert relativi ad un sistema di N particelle identiche con N = 0, 1, 2, . . . , ∞. Cerchiamo adesso di costruirci una base per questo spazio di Hilbert. Cominciamo considerando un’unica particella confinata nel volume che dovrà poi contenere l’intero sistema. Questa particella avrà uno spettro discreto di livelli energetici Er , e una base possibile per lo spazio di Hilbert dei suoi stati possibili sarà data dall’insieme ortonormale {|ri} ≡ {|Er αr i} , (5.35) dove gli αr sono gli altri numeri quantici eventualmente necessari per identificare lo stato, e più Er possono avere lo stesso valore in caso di degenerazione. Se supponiamo che il volume contenga più di una particella, ma che le particelle non interagiscano tra loro, una base completa e stazionaria per il nostro spazio di Hilbert è data dall’inisieme dei vettori del tipo |{nr }i = |n0 E0 α0 i|n1 E1 α1 i|n2 E2 α2 i . . . |nr Er αr i . . . , (5.36) dove nr è il numero di particelle che si trovano nello stato |ri. Il fatto di lavorare nell’insieme P gran canonico rende possibili tutti gli insiemi {nr }, senza il limite posto dalla condizione nr = N . Gli |{nr }i sono autostati sia dell’hamiltoniana Ĥ, con autovalori X nr E r (5.37) r che dell’operatore numero delle particelle N̂ , con autovalori X nr . (5.38) r Per i bosoni lo stato è simmetrico per lo scambio di una qualunque coppia di particelle, questo non ha conseguenze sui numeri di occupazione degli stati di particella singola e tutti gli |{nr }i sono permessi. Per i fermioni lo stato deve cambiare segno per ogni scambio di due particelle tra loro, e questo impone che ogni nr possa assumere solo i valori 0 oppure 1. Se introduciamo l’interazione tra le particelle, gli |{nr }i restano una base ortonormale completa per lo spazio di Hilbert del nostro sistema, ma i singoli elementi della base, pur restando autostati di N̂ , non sono più autostati di Ĥ. La matrice densità sarà (5.39) ρ̂ = eΩ−β Ĥ−αN̂ , con Ω(β, α) = − log Tr e−β Ĥ−αN̂ . Consideriamo adesso un gas perfetto quantistico monoatomico confinato in un contenitore di volume V . La componente dell’hamiltoniana relativa allo spazio di Hilbert con N particelle sarà N ˆ2 X p~i ĤN = , (5.40) 2m i=1 43 5.3. CASO QUANTISTICO con p~ˆi operatore quantità di moto dello i-esimo atomo. Gli stati di particella singola |Er αr i saranno autostati, oltre che dell’hamiltoniana, dell’operatore quantità di moto al quadrato pˆ~ 2 (ma non dell’operatore quantità di moto pˆ~). A seconda della geometria del contenitore, i livelli energetici di particella singola P potranno essere degeneri. Gli stati |{nr }i con r nr = N saranno autostati di ĤN con autovalori EN ({nr }) = N N X X p2 nr Er , dove p2r è l’autovalore dell’operatore di particella singola p̂2 nello stato di nr r = 2m r=0 r=0 p2 particella singola |ri, e Er = r il corrispondente autovalore dell’energia di particella singola. 2m Avremo cosı̀ ! ! N N X X p2r nr ĤN |{nr }i = EN ({nr })|{nr }i = nr Er |{nr }i. (5.41) |{nr }i = 2m r=0 r=0 Avremo poi Ω(β, α) = − log = − log = − log = − log = − log X {nr } X h{nr }|e−β Ĥ−αN̂ |{nr }i = − log e − P r nr (βEr +α) {nr } " " XX n0 ... n1 X n0 P r nr Er −α P r nr {nr } e−nr (βEr +α) {nr } r nr X e−n1 (βE1 +α) . . . n1 e e−β . . . e−n0 (βE0 +α) e−n1 (βE1 +α) . . . e−nr (βEr +α) . . . e−n0 (βE0 +α) YX r X = − log XY X −n(βEr +α) X e−nr (βEr +α) . . . nr , # # (5.42) n dove il prodotto su r corre su tutti gli stati di particella singola, e la somma su n corre su tutti i numeri di occupazione permessi per gli stati di particella singola. Possiamo poi riscrivere X X Ω(β, α) = − log e−n(βEr +α) . (5.43) r In base alla relazione ∞ X qn = n=0 n 1 , valida per q < 1, abbiamo per i bosoni 1−q ∞ X n=0 e−n(βEr +α) = 1 , (5.44) e−n(βEr +α) = 1 + e−βEr −α . (5.45) 1− e−βEr −α mentre per i fermioni abbiamo 1 X n=0 44 CAPITOLO 5. INSIEME GRAN CANONICO Possiamo compattare l’espressione di Ω per bosoni e fermioni nella forma X −ε Ω(β, α) = − log 1 − εe−βEr −α , (5.46) r con ε = +1 per i bosoni e ε = −1 per i fermioni. Per la matrice densità abbiamo " # Y ε ρ̂ = eΩ−β Ĥ−αN̂ = 1 − εe−βEr −α e−β Ĥ−αN̂ r = 5.3.2 " Y r 1 − εe # X ε −βEr −α e− P r (βEr +α)nr {nr } |{nr }ih{nr }| (5.47) Potenziale chimico Spesso, invece del moltiplicatore di Lagrange relativo al numero delle particelle α si preferisce usare il potenziale chimico µ, che ha le dimensioni di un’energia ed è definito dalla relazione α (5.48) µ=− , β cosı̀ che il termine −βEr − α viene riscritto −β(Er − µ). In questo modo, per esempio, la (5.47) si riscrive " # Y X P ε (5.49) e− r β(Er −µ)nr |{nr }ih{nr }| ρ̂ = 1 − εe−β(Er −µ) r 5.3.3 {nr } Numeri di occupazione Dalla (5.49) otteniamo che la probabilità che un gas perfetto quantistico si trovi nello stato |{nr }i = |n0 , n1 , . . . nr . . .i è " # Y P ε hn0 , n1 , . . . nr . . .|ρ̂|n0 , n1 , . . . nr . . .i = e− r β(Er −µ)nr 1 − εe−β(Er −µ) r = " = Y Y r = r Y 1 − εe # Y ε −β(Er −µ) e−β(Er −µ) nr r −β(Er −µ) nr e −ε (1 − εe−β(Er −µ) ) Wr (nr ), (5.50) r dove il fattore Wr (nr ) può essere interpretato come la probabilità che lo stato di particella singola |ri sia occupato da nr particelle. Scritto in forma esplicita abbiamo Wr (n) = e−n β(Er −µ) −ε (1 − ε e−β(Er −µ) ) (5.51) 45 5.3. CASO QUANTISTICO dove abbiamo tralasciato l’indice r che compariva in nr . Questa fattorizzazione della matrice densità (fattorizzazione sugli stati di particella singola, non sulle particelle!!!) può essere usata per calocolare i valori medi di tutte le grandezze di particella singola, che sono le uniche permesse per un gas perfetto. Per esempio, possiamo calcolare hnr i, il numero medio delle particelle che si trovano nello stato |ri hnr i = X Wr (n) n = n X n ε X −n β(Er −µ) n e−n β(Er −µ) = 1 − ε e−β(Er −µ) ne . −ε (1 − εe−β(Er −µ) ) n (5.52) La somma su n vale per i fermioni 1 X n e−n (βEr −µ) = e−β(Er −µ) , (5.53) n=0 mentre per i bosoni abbiamo ∞ X n e−n β(Er −µ) = n=0 e−β(Er −µ) [1 − 2 e−β(Er −µ) ] ∞ X in base alla relazione n qn = n=0 q (1 − q)2 (q < 1) (5.54) Inserendo queste somme nella (5.52) abbiamo per i fermioni hnr ifermioni = 1 + e−β(Er −µ) e per i bosoni hnr ibosoni = 1 − e−β(Er −µ) +1 −1 e−β(Er −µ) = e−β(Er −µ) [1 − e−β(Er −µ) ] 2 e−β(Er −µ) 1 + e−β(Er −µ) = e−β(Er −µ) 1 − e−β(Er −µ) (5.55) (5.56) che possono essere compattate nell’espressione hnr i = e−β(Er −µ) , 1 − ε e−β(Er −µ) (5.57) moltiplicando numeratore e denominatore per eβ(Er −µ) otteniamo infine hnr i = 1 eβ(Er −µ) −ε . (5.58) 46 CAPITOLO 5. INSIEME GRAN CANONICO Capitolo 6 Fluttuazioni delle grandezze statistiche 6.1 Ampiezza delle fluttuazioni Consideriamo un sistema di N particelle, non importa se indistinguibili o no, nel caso in cui l’unica grandezza nota a priori è l’energia. Dalla (3.21) abbiamo Z Ω = − log e−βH(q,p) dqdp (+ log N !), (6.1) e per il valor medio dell’energia ∂Ω = hU i = ∂β Z | Z N! = He−βH dqdp HeΩdist −βH dqdp {z } = e−βH dqdp Z N! | Z distinguibili He−βH dqdp Z e−βH dqdp 1 = N! {z Z indistinguibili HeΩindist −βH dqdp . (6.2) } Vogliamo calcolare la fluttuazione dell’energia del sistema attorno al suo valore medio hU i. Avremo h(∆U )2 i = h(U − hU i)2 i = hU 2 i − hU i2 . (6.3) D’altra parte abbiamo Z Z Z Z Z −βH 2 −βH −βH −βH He dqdp − H e dqdp e dqdp + He dqdp He−βH dqdp ∂ ∂ 2Ω Z = = Z 2 ∂β 2 ∂β −βH e−βH dqdp e dqdp Z 2 −βH Z −βH 2 dqdp H e dqdp He = −hU 2 i + hU i2 = −h(∆U )2 i, Z + = − Z e−βH dqdp e−βH dqdp 47 (6.4) 48 CAPITOLO 6. FLUTTUAZIONI DELLE GRANDEZZE STATISTICHE da cui h(∆U )2 i = − ∂hU i 1 ∂hU i ∂ 2Ω =− =− = kT 2 ∂β ∂β ∂T ∂β ∂T 2 ∂hU i = kT 2 CV . ∂T (6.5) Le variazioni relative sono kT 2 CV h(∆U )2 i = . hU i2 hU i2 Nel caso di un gas perfetto monoatomico dalla (4.7) abbiamo 3/2 2πm Ω = −N log V − N log , β hU i = ∂Ω 3 1 3 = N = N kT, ∂β 2 β 2 h(∆U )2 i = − 3 1 3 ∂ 2Ω = N = N (kT )2 , ∂β 2 2 β2 2 da cui h(∆U )2 i 3 = N (kT )2 2 2 hU i (6.6) 2 (6.7) s h(∆U )2 i = da cui hU i2 √ quindi le fluttuazioni relative sono inversamente proporzionali a N . 6.2 2 3N kT 2 , = 3N r 2 3N (6.8) Fluttuazioni dei numeri di occupazione Per le fluttuazioni dei numeri di occupazione degli stati di particella singola dei gas perfetti quantistici abbiamo 2 X 1 2 2 2 2 . (6.9) h(∆nr ) i = hnr i − hnr i = Wr (n) n − β(Er −µ) e − ε n Ricordando la (5.51), per i fermioni il termine hn2r i vale hn2r i 1 X 1 X e−n β(Er −µ) 2 e−β(Er −µ) 1 = Wr (n) n = n = = β(Er −µ) −β(E −µ) −β(E −µ) r r 1+e 1+e e +1 n=0 n=0 2 quindi, sempre per i fermioni 2 h(∆nr ) i = hn2r i 1 2 − hnr i = eβ(Er −µ) + 1 − 1 eβ(Er −µ) + 1 2 = , eβ(Er −µ) [eβ(Er −µ) + 1] 2 . (6.10) (6.11) Per i bosoni invece abbiamo ∞ ∞ X X 2 2 hnr i = Wr (n) n = 1 − e−β(Er −µ) e−n β(Er −µ) n2 n=0 = 1−e n=0 −β(Er −µ) ∞ X n=0 e−n β(Er −µ) n2 = e−β(Er −µ) + e−2β(Er −µ) [1 − e−β(Er −µ) ] 2 , (6.12) 49 6.2. FLUTTUAZIONI DEI NUMERI DI OCCUPAZIONE dove l’ultimo passaggio è stato ottenuto utilizzando la relazione ∞ ∞ X e−x + e−2x ∂2 1 ∂ 2 X −nx 2 −nx = e = ne = ∂x2 n=0 ∂x2 1 − e−x (1 − e−x )3 n=0 . Moltiplicando numeratore e denominatore dell’ultima delle (6.12) per e2β(Er −µ) abbiamo hn2r i = eβ(Er −µ) + 1 [eβ(Er −µ) − 1] , 2 inserendo nella (6.9) eβ(Er −µ) + 1 2 h(∆nr )2 i = hn2r i − hnr i = [eβ(Er −µ) − 1] 2 − 1 eβ(Er −µ) − 1 2 = eβ(Er −µ) [eβ(Er −µ) − 1] 2 . (6.13) Le espressioni per i bosoni e per i fermioni possono essere compattate nella forma h(∆nr )2 i = eβ(Er −µ) [eβ(Er −µ) − ε] (6.14) 2 Il limite classico si ha per α → ∞, quindi, essendo µ = −α/β, per µ → −∞ lim h(∆nr )2 i = e−β(Er −µ) = lim hnr i , µ→−∞ (6.15) µ→−∞ per cui, al limite classico p ∆nr ≈ hnr i, e, per le fluttuazioni relative 1 h(∆nr )2 i = , 2 hnr i hnr i p h(∆nr )2 i 1 =p . hnr i hnr i (6.16) Per la statistica di Fermi-Dirac abbiamo β(E −µ) 2 e r +1 −1 1 1 eβ(Er −µ) 2 − β(Er −µ) = β(Er −µ) h(∆nr ) i = 2 = 2 e +1 e +1 [eβ(Er −µ) + 1] [eβ(Er −µ) + 1] = hnr i − hnr i2 , da cui 1 h(∆nr )2 i = −1 , 2 hnr i hnr i (6.17) mentre per la statistica di Bose-Einstein β(E −µ) 2 e r −1 +1 1 1 eβ(Er −µ) 2 + β(Er −µ) = β(Er −µ) h(∆nr ) i = 2 = 2 e −1 e −1 [eβ(Er −µ) − 1] [eβ(Er −µ) − 1] = hnr i + hnr i2 , da cui 1 h(∆nr )2 i = +1 . 2 hnr i hnr i (6.18) Cioè, per i fermioni la dispersione relativa è minore che per il limite classico, mentre per i bosoni e maggiore. In particolare, per i fermioni la dispersione relativa tende 0 per hnr i → 1, mentre per i bosoni la dispersione non tende a 0 per hnr i → ∞. 50 CAPITOLO 6. FLUTTUAZIONI DELLE GRANDEZZE STATISTICHE Capitolo 7 Interazione radiazione-materia, I 7.1 Derivazione della formula di Planck da parte di Einstein Consideriamo un sistema di atomi identici in interazione con un campo di radiazione elettromagnetica. Supponiamo che ogni atomo abbia due livelli energetici |1i e |2i, rispettivamente di energia E1 ed E2 , con E2 > E1 . Secondo Einstein esistono tre processi distinti di interazione tra l’atomo e la radiazione, schematizzati nella Figure 7.1: |2i hν hν B12 hν A21 hν E2 B21 hν |1i E1 1. Assorbimento 2. Emissione spontanea 3. Emissione indotta Figura 7.1: Processi di assorbimento, emissione spontanea e emissione indotta, e coefficienti di Einstein. 1. Si ha assorbimento quando l’atomo si trova inizialmente nello stato di energia più bassa |1i ed assorbe un fotone di energia hν = E2 − E1 (conservazione dell’energia) portandosi allo stato più alto |2i. Contemporaneamente scompare un fotone dal campo di radiazione. 2. Se l’atomo si trova inizialmente nel livello più alto |2i può decadere al livello |1i per emissione spontanea di un fotone di energia hν. Si tratta di un fenomeno statistico che genera un decadimento esponenziale della popolazione del livello |2i. Si definisce vita media τ del livello |2i il tempo dopo il quale, per effetto dell’emissione spontanea, nel livello |2i è rimasta una frazione 1/e degli atomi che vi si trovavano inizialmente. Il fotone è emesso con uguale probabilità in qualunque direzione. 3. Esattamente come un fotone di energia hν che incontra un atomo nello stato |1i può essere assorbito, un fotone che incontra un atomo nello stato |2i può stimolare l’emissione 51 52 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I di un nuovo fotone, identico al fotone di partenza, portando cosı̀ l’atomo allo stato più basso |1i. Perché avvenga questo fenomeno, detto emissione indotta, è quindi necessaria la presenza di fotoni “primari”. L’emissione indotta aggiunge un nuovo fotone a quelli già presenti nel campo di radiazione, il nuovo fotone è indistinguibile da quello che ne ha indotto l’emissione. Adesso supponiamo che il nostro sistema di atomi sia in equilibrio con della radiazione di corpo nero alla temperatura T . L’energia di radiazione per unità di volume con frequenza compresa tra ν e ν + dν sarà u(ν, T ) dν; nel seguito, per brevità, scriveremo u(ν) invece di u(ν, T ). Vediamo quanti dei tre processi descritti sopra avvengono nell’intervallo di tempo dt. 1. Transizioni per assorbimento da |1i a |2i. La frequenza dei processi è proporzionale al numero di atomi N1 che si trovano nello stato |1i e alla densità di radiazione alla frequenza ν = (E2 − E1 )/h (dN2←1 )abs = B21 u(ν) N1 dt, (7.1) dove B21 è il coefficiente di Einstein per l’assorbimento, pari alla probabilità di transizione per unità di tempo e di densità di radiazione u(ν). Nei coefficienti di Einstein metteremo come primo indice quello relativo allo stato di arrivo, e come secondo quello relativo allo stato di partenza. Vedremo in seguito che questo è in accordo con la notazione matriciale, e con il normale prodotto righe per colonne delle matrici. 2. Transizioni per emissione spontanea da |2i a |1i. Il numero di queste transizioni per unità di tempo è proporzionale al numero di atomi che si trova nello stato |2i: (dN1←2 )spont = A12 N2 dt, (7.2) dove A12 è il coefficiente di Einstein per l’emissione spontanea. 3. Transizioni per emissione indotta da |2i a |1i. Il numero di queste transizioni è proporzionale al numero di atomi N2 che si trovano nello stato |2i e alla densità di radiazione alla frequenza ν = (E2 − E1 )/h (dN1←2 )ind = B12 u(ν) N2 dt, (7.3) dove B12 è il coefficiente di Einstein per l’emissione indotta. Se siamo all’equilibrio, con N1 e N2 costanti, la frequenza delle transizioni da |1i a |2i deve essere uguale alla frequenza delle transizioni da |2i a |1i: (dN2←1 )abs = (dN1←2 )spont + (dN1←2 )ind , (7.4) inserendo le espressioni delle (7.1), (7.2) e (7.3) otteniamo N2 B21 u(ν) . = N1 A12 + B12 u(ν) (7.5) D’altra parte, se siamo all’equilibrio termico, il rapporto N2 /N1 è dato dalla ripartizione di Boltzmann e−E2 /kT N2 = −E1 /kT , (7.6) N1 e 53 7.1. DERIVAZIONE DELLA FORMULA DI PLANCK DA PARTE DI EINSTEIN da cui segue B21 u(ν) e−E2 /kT = −E1 /kT , A12 + B12 u(ν) e e, per u(ν) abbiamo u(ν) = B21 A12 hν/kT e − B12 , (7.7) dove abbiamo posto hν = E2 −E1 . Per determinare le relazioni tra i coefficienti di Einstein A12 , B21 e B12 , facciamo prima tendere la temperatura all’infinito. Sappiamo che lim u(ν) = ∞, T →∞ cosı̀ che il denominatore dell’ultima delle (7.7) deve tendere a zero, e avremo quindi B21 = B12 , da cui u(ν) = B21 A12 hν/kT (e − 1) . (7.8) D’altra parte al limite delle basse frequenze, cioè per hν ≪ kT , deve valere la legge di RayleighJeans, che è verificata sperimentalmente, u(ν) = 8πν 2 kT. c3 (7.9) Se espandiamo fino al primo ordine l’esponenziale al denominatore della (7.8) otteniamo u(ν) = B21 A12 hν/kT (e − 1) ≈ A12 kT , B21 hν (7.10) uguagliando alla (7.9) otteniamo 8πhν 3 A12 , = B21 c3 da cui otteniamo finalmente la formula di Planck u(ν) = (7.11) 8πhν 3 1 . c3 ehν/kT − 1 Otteniamo poi la relazione tra A12 e B21 = B12 A12 = 8πhν 3 B21 , c3 (7.12) in accordo con la legge di Kirchhoff, secondo cui le probabilità di emissione spontanea e di assorbimento sono proporzionali tra loro. La derivazione di Einstein della legge di Planck è fondamentale per capire l’interazione radiazione-materia ed i principi di funzionamento del laser. 54 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I 7.2 Propagazione di un fascio di radiazione in un mezzo materiale N2 Supponiamo di avere un fascio di radiazione elettromagnetica di frequenza ν (non radiazione di corpo nero!) che attraversi un mezzo materiale inizialmente all’equilibrio termico alla temperatura T , per esempio un gas atomico. Per il momento, supponiamo che hν21 ogni atomo del gas abbia solo due livelli energetici |1i e |2i, tali che E2 > E1 e hν = E2 − E1 . Ammettiamo anche che |1i e |2i N1 possano essere degeneri, con degenerazione rispettivamente g1 e |1i g2 . In assenza di interazione con il fascio di radiazione l’equilibrio Figura 7.2: Sistema a due termodinamico impone che i numeri N10 ed N20 di atomi per unità di volume che si trovano rispettivamente nei livelli energetici |1i livelli. e |2i stiano nel rapporto di Boltzmann |2i N20 g2 −(E2 −E1 )/kT e . = 0 N1 g1 (7.13) Consideriamo adesso l’interazione con il fascio di radiazione. Oltre che dalla frequenza ν, il fascio sarà caratterizzato dalla sua intensità I, definita come la potenza incidente per unità di superficie, misurata in W/m2 , e dal flusso di fotoni Φ, definito come il numero di fotoni incidenti sull’unità di superficie nell’unità di tempo. Le quantità I e Φ sono legate dalla relazione I = Φhν. (7.14) I(0) I(z + dz) I(z) I(l) dz 0 z l z In termini della velocità della luce c, della densità di energia di radiazione per unità di volume u, e del numero di fotoni per unità di volume n, possiamo scrivere anche Figura 7.3: Propagazione di radiazione in un mezzo materiale. I = cu, Φ = cn. (7.15) Supponiamo che la radiazione si propaghi lungo la direzione z entro un piccolo angolo solido dΩ. Passando dalla coordinata z alla coordinata z+dz avremo una variazione dell’intensità del fascio dI e la corrispondente variazione del suo flusso di fotoni dΦ. Queste variazioni sono determinate essenzialmente dai due processi di assorbimento e di emissione indotta. L’emissione spontanea, essendo isotropa, dà un contributo trascurabile all’interno dell’angolo solido infinitesimo dΩ. L’equazione (7.1) può essere riscritta (dN2 )abs = σ21 Φ N1 dt, (dN1 )abs = −σ21 Φ N1 dt, (dΦ)abs = −σ21 Φ N1 c dt, (7.16) l’ultima relazione si ottiene tenendo conto che N1 e N2 sono numeri di atomi per unità di volume, mentre Φ è il numero di fotoni incidenti per unità di superficie e unità di tempo: dalla seconda delle (7.15) abbiamo dΦ = c dn = c dN1 . La quantità σ21 , legata al coefficiente di Einstein B21 , ha le dimensioni di una superficie ed è detto sezione d’urto d’assorbimento. Se 7.2. PROPAGAZIONE DI UN FASCIO DI RADIAZIONE IN UN MEZZO MATERIALE 55 consideriamo il numero di transizioni di assorbimento al secondo, abbiamo infatti dalle (7.1) e (7.16) dN2 = σ21 Φ N1 = B21 u(ν) N1 , da cui σ21 Φ = B21 u(ν). (7.17) dt abs D’altra parte, essendo u(ν) dν l’energia radiante per unità di volume con frequenza compresa tra ν e ν + dν, per il nostro fascio possiamo scrivere u(ν) = nhν , ∆ν (7.18) dove ∆ν è la larghezza di riga del fascio stesso. Unendo alla seconda delle (7.15) abbiamo σ21 Φ = σ21 nc = B21 nhν , ∆ν da cui otteniamo σ21 = B21 hν , c ∆ν (7.19) che è la relazione tra la sezione d’urto d’assorbimento ed il coefficiente B21 di Einstein. L’equazione (7.3) può essere riscritta (dN2 )ind = −σ12 ΦN2 dt, (dN1 )ind = σ12 ΦN2 dt, (dΦ)ind = σ12 ΦN2 c dt, (7.20) dove σ12 è la sezione d’urto d’emissione indotta. Mettendo insieme le relazioni (7.16) e (7.20), abbiamo per la variazione complessiva del flusso di fotoni dΦ = (dΦ)ind + (dΦ)abs = (σ12 N2 − σ21 N1 ) Φ c dt = (σ12 N2 − σ21 N1 ) Φ dz, (7.21) nell’ultimo passaggio si è chiamato dz = c dt lo spazio percorso dai fotoni nell’intervallo di tempo dt. Il flusso dei fotoni, passando dalla posizione z alla posizione z + dz, subisce quindi una variazione dΦ = α Φ(z) dz, (7.22) dove α = (σ12 N2 −σ21 N1 ) è il coefficiente di amplificazione del mezzo. Se α < 0, cioè se σ12 N2 < σ21 N1 , il flusso viene smorzato esponenzialmente mentre attraversa il mezzo (legge di LambertBeer), questo è ciò che si realizza quando le popolazioni dei livelli energetici sono determinate dall’equilibrio termico. Se invece α > 0, cioè σ12 N2 > σ21 N1 , il flusso viene amplificato mentre attraversa il mezzo. Questo fenomeno è alla base dell’effetto maser (acronimo di Microwave Amplification by Stimulated Emission of Radiation) quando la frequenza della transizione tra |1i e |2i è nella regione delle microonde, e dell’effetto laser (acronimo di Light Amplification by Stimulated Emission of Radiation) quando la frequenza della transizione tra |1i e |2i è nella regione ottica (ma si parla anche di laser operanti nell’infrarosso o nell’ultravioletto). Ma in realtà, sia il maser che il laser vengono usati non come amplificatori, ma come oscillatori. Esattamente come nei circuiti elettronici, un amplificatore di radiazione viene trasformato in oscillatore riinviandogli in ingresso parte della radiazione amplificata in uscita, come vedremo tra poco. Perché il flusso di radiazione sia amplificato attraversando il mezzo materiale è necessario che sia presente un meccanismo che alteri la distribuzione Boltzmanniana. Se le condizioni sono tali per cui il coefficiente α, negativo o positivo che sia, è costante, la (7.22) può essere integrata ottenendo Φ(z) = Φ(0)eαz , che porta anche a I(z) = I(0)eαz (7.23) 56 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I Le condizioni di equilibrio fra un sistema a due livelli e la radiazione elettromagnetica studiate nella Sezione 7.1 richiedono che, se le degenerazioni g1 e g2 dei livelli |1i e |2i sono uguali, siano uguali anche la sezione d’urto di assorbimento e la sezione d’urto di emissione indotta σ12 = σ21 = σ. (7.24) 7.3 7.3.1 Equazioni di bilancio per l’effetto laser Inversione di popolazione La (7.22) ci dice che, perché l’effetto laser sia possibile, dobbiamo avere α = (σ12 N2 − σ21 N1 ) > 0, o, se vale la (7.24), semplicemente (N2 − N1 ) > 0, (7.25) il laser richiede quindi un’inversione di popolazione. Poiché la ripartizione di Boltzmann implica che, se si ha equilibrio termodinamico con E2 > E1 , sia N2 < N1 , è necessaria la presenza di un meccanismo che alteri l’equilibrio termodinamico aumentando la popolazione del livello |2i rispetto a quella di |1i. Per questo è necessaria la presenza di un processo, detto di pompaggio, che aumenti la popolazione del livello |2i (pompi atomi in |2i) a spese di altri livelli più popolati, spesso a spese del livello a energia più bassa dell’atomo (livello fondamentale). Naturalmente il processo di pompaggio richiede un N2 |2i apporto di energia dall’esterno. La figura 7.4 rappresenta lo schema generale di un sistema laser. Deve Λ2 γ2 N2 σΦN1 σΦN2 esistere un meccanismo di pompaggio che porti ato|1i mi nel livello |2i, e che, come effetto collaterale, può N1 portare anche atomi nel livello |1i. Questo può essere Λ1 γ1 N1 ottenuto per assorbimento di luce (pompaggio ottico), o per eccitazione da parte di una scarica elettrica, o per altra via. Inoltre |1i e |2i saranno accoppiati agli altri livelli dell’atomo da processi di rilassamento. Figura 7.4: Accoppiamento dei livelli I due livelli implicati nella transizione laser saranno laser con gli altri livelli dell’atomo. popolati a spese di altri livelli dell’atomo tramite processi descritti dai termini di sorgente Λ1 e Λ2 , che dicono quanti atomi per unità di volume e unità di tempo vengono portati, rispettivamente nei livelli |1i e |2i. Inoltre ci saranno dei processi di rilassamento, normalmente non radiativi, che spopolano i livelli |1i e |2i, con velocità rispettivamente γ2 N2 e γ1 N1 , verso livelli non rappresentati in figura. Avremo quindi per N2 dN2 = Λ2 − γ2 N2 − σΦ(N2 − N1 ), dt (7.26) e per N1 dN1 = Λ1 − γ1 N1 + σΦ(N2 − N1 ). dt Facendo, per semplicità, l’ipotesi che sia γ1 = γ2 = γ, otteniamo per ∆N = N2 − N1 d ∆N = (Λ2 − Λ1 ) − 2σΦ∆N − γ∆N. dt (7.27) (7.28) 7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER 57 Chiamando Λ2 − Λ1 γ la differenza di popolazione in assenza di effetto laser otteniamo ∆N0 = (7.29) d ∆N = γ (∆N0 − ∆N ) − 2σΦ∆N, (7.30) dt dove il primo termine del secondo membro è un termine di rilassamento che tende a riportare la differenza di popolazione al suo valore di equilibrio in assenza di effetto laser ∆N0 , mentre il secondo termine descrive l’accoppiamento tra il flusso dei fotoni e la differenza di popolazione. Per descrivere con maggior dettaglio l’evoluzione del flusso dei fotoni, dobbiamo fare ipotesi sulla configurazione sperimentale del nostro laser. 7.3.2 Equazioni di bilancio per i fotoni Discutiamo qui le equazioni di bilancio del laser, dette anche, all’inglese, rate equations. Esistono varie configurazioni di laser, alle quali accenneremo in seguito. La configurazione che discuteremo qui, schematizzata in fig. 7.5, consiste essenzialmente di un tubo che contiene il mezzo attivo, situato tra due specchi che formano una cavità risonante per la radiazione. Dei due specchi, uno è totalmente riflettente, mentre l’altro è solo parzialmente riflettente (la sua riflettività, comunque, supera normalmente il 95%) per permettere la fuoriuscita di una piccola parte della radiazione. Dei fotoni presenti nella cavità, ci aspettiamo che quelli coinvolti nel processo laser siano quelli assiali perché, riflettendosi avanti e indietro sugli specchi, continuano ad attraversare e riattraversare la cavità, subendo ad ogni passaggio un’amplificazione data dalla (7.23), finché non si giunge alla saturazione. Infatti l’amplificazione esponenziale del fascio di radiazione, descritta dalla (7.23), non può ovviamente continuare all’infinito, ma si raggiungono le condizioni in cui il mezzo si comporta da oscillatore anziché da amplificatore. Come al solito, la transizione laser avviene tra i due livelli |1i e |2i, con energie Specchio Specchio semitrasparente E1 ed E2 tali che E1 < E2 , e popolazioni per unità di volume N1 e N2 . Chiamiamo Mezzo laser−attivo n il numero per unità di volume dei fotoni con energia hν = E2 − E1 presenti nella cavità. Il numero dei fotoni n aumenterà per ogni processo di emissione indotta, la Figura 7.5: Tipica configurazione di un laser. cui frequenza è proporzionale sia a n che a N2 , e diminuirà per ogni assorbimento, la cui frequenza è proporzionale sia a n che a N1 . Inoltre, indipendentemente da questi processi, ogni fotone non resterà indefinitamente nella cavità, ma avrà un tempo medio di permanenza τs dovuto sia alla probabilità di attraversare lo specchio parzialmente riflettente che a quella di perdersi per processi di diffusione o di assorbimento. L’equazione di bilancio per il numero di fotoni si scrive cosı̀ dn n = W (N2 − N1 ) n − , dt τs (7.31) dove il contributo dell’emissione spontanea è stato trascurato per quanto detto prima. La probabilità W può essere ricavata dalla trattazione di Einstein del paragrafo 7.1. Dalla (7.12) 58 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I abbiamo infatti c3 c3 , (7.32) A = 12 8πhν 3 8πhν 3 τ dove τ = 1/A12 è la vita media del livello |2i. Sostituendo, per esempio, nella (7.3), abbiamo c3 c3 dN12 W nN2 = A u(ν) N = u(ν) N2 . (7.33) = B12 u(ν) N2 = 12 2 dt ind 8πhν 3 8πhν 3 τ B21 = Se sostituiamo u(ν) con la sua espressione (7.18) nella (7.33) e dividiamo a destra e sinistra per il prodotto nN2 otteniamo c3 hν c3 = . (7.34) W = 8πhν 3 τ ∆ν 8πν 2 τ ∆ν Se vogliamo che il numero di fotoni nella cavità non diminuisca deve essere dn n c3 n = W (N2 − N1 ) n − = (N2 − N1 ) n − ≥ 0, 2 dt τs 8πν τ ∆ν τs (7.35) da cui otteniamo la minima inversione di popolazione necessaria perché il laser possa operare N2 − N1 ≥ ∆Nmin 8πν 2 τ ∆ν . = c 3 τs (7.36) Per avere l’effetto laser dovremo quindi avere una inversione di popolazione tra i livelli |1i e |2i, cioè, contrariamente a quanto accade all’equilibrio termodinamico, dovrà essere N2 > N1 . Inoltre la differenza di popolazione ∆N = N2 − N1 dovrà essere superiore ad un certo valore di soglia ∆Nmin , fissato dalla (7.36). Un’occhiata alla (7.36) ci dice che l’effetto laser è tanto più difficile da raggiungere quanto più è grande la frequenza ν. Gli atomi laser-attivi saranno tanto più efficaci quanto più è piccola la larghezza di riga ∆ν. Inoltre dovrà essere il più lungo possibile il tempo di soggiorno dei fotoni nella cavità τs . Se la causa principale dell’uscita dei fotoni dalla cavità è l’attraversamento degli specchi, gli specchi dovranno avere la riflettività R più grande possibile. La probabilità 1/τs che il fotone esca nell’unità di tempo è proporzionale al numero di riflessioni che il fotone subisce in un secondo. Avremo quindi 1 c = (1 − R), τs L (7.37) dove L è la distanza tra i due specchi, c la velocità della luce e R la riflettività degli specchi. 7.3.3 Equazioni di bilancio per le densità di popolazione dei livelli Per descrivere completamente la dinamica dell’emissione laser abbiamo bisogno anche, oltre che della (7.31), di equazioni analoghe per le popolazioni dei livelli |1i e |2i. E’ da notare che non esistono meccanismi per mantenere un’inversione di popolazione costante tra |1i e |2i che non coinvolgano almeno un altro livello del mezzo laser-attivo. Questo non esclude la possibilità di laser a due livelli, per esempio i laser chimici in cui le molecole laser-attive vengono prodotte direttamente nello stato eccitato. Esistono due schemi possibili di laser a tre livelli, di cui uno è rappresentato nella figura 7.6. Qui è presente un meccanismo di pompa che trasferisce gli atomi dal livello fondamentale |0i al livello superiore della transizione laser |2i. Esistono poi 59 7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER meccanismi di rilassamento, normalmente non radiativi, che ridistribuiscono gli atomi tra i vari livelli. Qui escluderemo sia processi di rilassamento che portino atomi da livelli più bassi a livelli più alti, e che riportino atomi dal livello |2i direttamente al livello |0i. Per il bilancio della popolazione del livello |2i avremo dN2 = dt −W n (N2 − N1 ) + p20 N0 − γ12 N2 | {z } | {z } {z } | interazione radiazione laser pompaggio dove il primo termine descrive la variazione di N2 dovuta all’interazione con la radiazione coerente del laser, il secondo l’aumento di N2 a spese della popolazione N0 del livello fondamentale tramite il meccanismo di pompaggio, ed il terzo il decadimento di N2 dovuto ai processi di rilassamento. Per il livello |1i avremo, in modo analogo, W n(N2 − N1 ) + | {z } interaz. radiazione laser e per |0i dN0 = − p20 N0 | {z } dt pompaggio − γ N , γ N | 01{z }1 | 12{z }2 rilass. da |2i rilass. verso |0i (7.39) + γ N . | 01{z }1 rilass. da |1i pompa dN1 = dt p20 (7.38) rilassamento |2i radiazione laser W rilassamento γ 12 |1i rilassamento γ 01 |0i Figura 7.6: Primo schema di laser a tre livelli. (7.40) Per semplificare le cose, faremo ancora le ipotesi che: i) la transizione di rilassamento da |1i a |0i sia molto rapida, in modo che N1 sia praticamente nulla; ii) il pompaggio, il rilassamento e l’emissione laser avvengano in condizioni tali che resti sempre comunque N0 ≫ N2 , in modo che N0 sia praticamente costante. In queste condizioni la (7.38) può essere riscritta dN2 = −W nN2 + p20 N0 − γ12 N2 = −W nN2 + γ12 (N2eq − N2 ) , dt (7.41) p02 N0 è il valore di equilibrio di N2 , in presenza dei soli processi di pompaggio e γ12 rilassamento, ma in assenza della radiazione laser. Nelle condizioni descritte sopra l’equazione di bilancio per i fotoni diventa n dn = W N2 n − . (7.42) dt τs Se il laser opera in condizioni stazionarie (laser continuo) avremo dove N2eq = dN2 = 0, dt dn = 0, dt (7.43) in queste condizioni dalla (7.42) otteniamo N2 = 1 = N2cr , W τs (7.44) 60 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I esiste cioè una popolazione critica N2cr , indipendente da p20 , che non aumenta più anche se viene aumentata l’intensità di pompaggio. L’energia fornita in più per il pompaggio va quindi prevalentemente ad aumentare la densità dei fotoni, come si vede risolvendo la (7.41) per n γ12 n= W N2eq −1 . N2cr (7.45) Un aumento della velocità di pompaggio p20 con cui gli atomi vengono trasferiti da |0i a |2i aumenta la popolazione di equilibrio in assenza di effetto laser N2eq del livello |2i, ma non N2cr . Corrispondentemente, aumenta la densità dei fotoni presenti nella cavità n attraverso la (7.45). Dato che n non può essere negativo, l’emissione laser inizia solo quando N2eq raggiunge il valore di soglia N2cr . 7.3.4 Altri possibili schemi di pompaggio Oltre allo schema di pompaggio rappresentato in Fig. 7.6 per un laser a tre livelli è possibile anche lo schema emissione spontanea A12 , A02 rappresentato in Fig. 7.7 in cui l’inversione di poporilassamento γ 12 p20 lazione viene realizzata tra i livelli |1i e |0i. Se la transizione tra livelli |0i e |1i è nella regione spettrale delle |1i microonde, l’emissione spontanea da |1i a |0i può esradiazione laser W sere un processo non permesso per dipolo, quindi con |0i probabilità sufficientemente bassa per essere trascurata. Inviando sul mezzo radiazione in risonanza con la Figura 7.7: Secondo schema di laser a transizione |2i ↔ |0i gli atomi vengono pompati dal tre livelli. livello |0i al livello |2i. Di qui possono decadere, per rilassamento o per emissione spontanea, verso i due livelli sottostanti. Mentre gli atomi che decadono nel livello |1i vi restano intrappolati, quelli che decadono in |0i possono nuovamente essere pompati in |2i. La soluzione stazionaria in presenza di radiazione di pompaggio è quindi quella con tutti gli atomi in |1i, con inversione di popolazione per la coppia di livelli |1i e |0i. Ovviamente, nel caso reale tale inversione è limitata dalla presenza di altri processi di rilassamento, per deboli che siano. In questo caso il pompaggio ottico può essere realizzato anche con una radiazione di pompa molto debole, come una lampada spettrale. In Fig. 7.8 è invece rappresentato lo schema di un |3i laser a quattro livelli. Gli atomi vengono trasferiti per γ 23 pompaggio dal livello fondamentale |0i al livello ecc|2i itato |3i. Di qui decadono per processi non radiativi p20 radiazione laser W con velocità γ23 al livello superiore della transizione laser |2i. Il livello inferiore della transizione laser |1i |1i è svuotato a sua volta da processi non radiativi con velocità γ01 . La differenza di energia tra i livelli |1i e γ 01 |0i è molto maggiore di kT , cosı̀ che i livelli |1i, |2i e |3i sono praticamente spopolati all’equilibrio termod|0i inamico. Lo schema laser a quattro livelli è quello più Figura 7.8: Schema di laser a quattro frequente nei laser molecolari a pompaggio ottico. In pompa pompa |2i livelli. 61 7.3. EQUAZIONI DI BILANCIO PER L’EFFETTO LASER questo caso il pompaggio avviene normalmente per assorbimento di radiazione emessa da un altro laser, detto laser di pompa, a sua volta eccitato da una scarica elettrica. I laser eccitati da una scarica elettrica hanno il vantaggio di non richiedere l’uso di un laser di pompa per l’eccitazione. Normalmente la scarica avviene in una miscela di gas. Gli elettroni della scarica eccitano gli atomi di uno dei gas in uno o più stati eccitati, da qui l’energia viene trasferita per collisioni agli atomi del gas laser-attivo, che si trovano cosı̀ nello stato superiore della transizione laser. Spesso è presente un terzo gas, che, per processi collisionali, sottrae l’energia agli atomi del gas laser-attivo che si trovano nello stato inferiore della transizione laser. La figura 7.9 rappresenta lo schema dei processi di eccitazione e ricombinazione in un laser a elio-neon. Gli atomi di He vengono eccitati negli stati 1 S e 3 S dagli urti con gli elettroni della scarica. Le energie di eccitazione di questi stati sono in corrispondenza delle energie degli stati 2s e 3s del Ne, per cui l’energia può facilmente essere trasferita dall’He al Ne per collisioni atomiche. Da qui gli atomi di Ne possono decadere agli stati 3p e 2p con transizioni che possono essere laser-attive. Dagli stati inferiori delle transizioni laser gli atomi possono decadere allo stato 1s mediante emissione di un ulteriore fotone. Elio Neon 3s Urti 3.39 µm 2s 3p 0.63 µm 1.15 µm Energoa Finalmente l’atomo di Ne perde l’energia dello stato 1s sotto forma di energia cinetica per collisioni con altri atomi, tornando allo stato fondamentale. Ovviamente, lo schema dei livelli energetici dell’elio e del neon rappresentati in Fig. 7.9 è molto semplificato. Si noti anche che le energie dei livelli fondamentali sono state scelte come energie di riferimento. La riga più nota del laser a HeNe è la riga rossa a circa 633 nm, sulla quale il laser emette normalmente potenze comprese tra 1 e 100 mW. 2p 1s Eccitazione Elettronica Ricombinazione per urti Stato fondamentale Uno dei laser eccitati a scarica elettrica più usati è Figura 7.9: Schema di laser a elio-neon. il laser a CO2 . E’ anche uno di laser più efficienti: la potenza in uscita può infatti raggiungere il 20% della potenza di pompaggio. Anche in questo caso la scarica di eccitazione avviene in una miscela di gas: circa il 10 − 20 % di CO2 , circa il 10 − 20 % di N2 , ed il resto He. Gli urti con gli elettroni eccitano un modo vibrazionale dell’azoto. Essendo l’azoto una molecola biatomica omonucleare, non può perdere questa energia per emissione di un fotone, cosı̀ che i suoi stati vibrazionali eccitati sono metastabili. L’energia può però essere trasferita per collisioni a molecole di CO2 , con efficienza sufficiente a raggiungere l’inversione di popolazione necessaria per l’operazione del laser. Lo stato inferiore della transizione laser viene poi vuotato per trasferimento collisionale di energia agli atomi di elio. Il laser a CO2 emette nell’infrarosso, con due bande centrate rispettivamente attorno a 9.4 e 10.6 µm. 62 7.4 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I Laser a semiconduttore La differenza principale tra un laser che usi atomi o molecole come mezzo attivo ed un laser a semiconduttori è dovuta al fatto che in un semiconduttore i livelli energetici hanno una distribuzione a bande anziché discreta. La transizione laser non avviene quindi tra due banda di conduzione C livelli energetici ben definiti, ma tra stati che appartengono a due bande. Lo schema dei livelli enEF ∆Eg ergetici di un semiconduttori è mostrato in Fig. 7.10. La banda di conduzione è separata dalla banda di valenza da un gap energetico (banda di enbanda di valenza V ergie proibite) di ampiezza ∆Eg . Ogni banda è cosFigura 7.10: Banda di conduzione C, banda tituita da un grandissimo numero di livelli energetidi valenza V ed energia di Fermi EF in un ci molto vicini l’uno all’altro, che formano cosı̀ un semiconduttore. quasi-continuo. In base al principio di esclusione di Pauli in ognuno di questi livelli possono trovarsi al massimo due elettroni con spin opposto. Il numero medio di occupazione di un livello di energia Er è dato dalla statistica di Fermi-Dirac hnr i = 1 , e(Er −EF )/kT + 1 dove EF è l’energia di Fermi. Al limite T → 0 otteniamo 1 se Er < EF hnr i = 0 se Er > EF (7.46) (7.47) Per semiconduttori intrinseci (non drogati) l’energia di Fermi EF si trova all’interno del gap di energia, cosı̀ che per T = 0 la banda di valenza è completamente occupata e la banda di conduzione è completamente vuota. Per avere effetto laser abC C banda di conduzione banda di conduzione biamo bisogno di una inEC versione di popolazione, ∆Eg ∆Eg cioè dobbiamo avere contemporaneamente elettroni E V V V banda di valenza banda di valenza nella banda di conduzione e buche nella banda di a) drogaggio di tipo n b) drogaggio di tipo p valenza. Questo, ovviaFigura 7.11: Semiconduttori con drogaggio di tipo n (a) e tipo p (b). mente, non può avvenire in una situazione di equilibrio termico. Consideriamo adesso i semiconduttori estrinseci, cioè semiconduttori cui sono state aggiunte impurezze nel reticolo cristallino. In altre parole, si dice che sono stati “drogati”. In un drogaggio di tipo n vengono aggiunti al cristallo atomi detti donori che, avendo più elettroni di valenza degli atomi del reticolo, mettono in circolazione un eccesso di elettroni debolmente legati. Questi elettroni, essendo tutti gli stati della banda di valenza occupati, vanno a finire nella banda di conduzione, e si ha un “quasi-livello di Fermi” EC come in Fig. 7.11.a). In questo caso, abbiamo elettroni nella banda di conduzione, ma tutti gli stati della banda di valenza sono occupati. 63 7.4. LASER A SEMICONDUTTORE In un drogaggio di tipo p vengono invece aggiunti atomi detti accettori che, avendo orbitali esterni liberi, prelevano elettroni dal cristallo, vuotando cosı̀ gli stati più alti della banda di valenza (buche). Si ha cosı̀ un “quasi-livello di Fermi” EV come nella figura 7.11.b). In questo caso abbiamo stati liberi nella banda di valenza, ma tutti gli stati della banda di conduzione sono vuoti. EC banda di conduzione C Per arrivare all’effetto laser dobbiamo ottenere contem∆Eg hν poraneamente elettroni negli stati più bassi della banda di conduzione e buche negli stati più alti della banda di valenEV banda di valenza V za, come indicato nella figura 7.12. In queste condizioni potrebbero essere emessi fotoni con frequenze comprese Figura 7.12: Inversione di poponell’intervallo lazione e transizione laser in un laser ∆Eg EC − EV <ν< . (7.48) a semiconduttore. h h Fotoni con frequenze in questo intervallo sarebbero amplificati per emissione indotta, mentre fotoni di frequenza ν > (EC −EV ) sarebbero assorbiti, portando elettroni dalla banda di valenza a stati liberi della banda di conduzione. L’inversione di popolazione in un laser a semiconduttore può essere ottenuta in tre modi: 1. Per eccitazione via pompaggio ottico. 2. Per eccitazione mediante urti con elettroni ad alta energia. 3. Per iniezione di portatori di carica attraverso una giunzione. Essendo il caso di gran lunga più interessante per le applicazioni pratiche, qui discuteremo soltanto il caso dell’iniezione. Questo tipo di laser a semiconduttore viene realizzato mettendo in sequenza due strati di semiconduttore estrinseci, uno con drogaggio di tipo p ed uno con drogaggio di tipo n, come in Fig. 7.13.a), esattamente come in un diodo a semiconduttore (qui si parla di laser a diodo). Se ai capi del diodo non viene applicata tensione, la situazione delle bande energetiche è quella schematizzata in Fig. 7.13.b). p − + V p n En n Emissione laser En E p n Ep ∆Eg Ep ∆Eg Zona attiva a) Giunzione pn b) Senza tensione applicata c) Con tensione applicata Figura 7.13: Diodo laser. Mentre le bande energetiche della zona p e della zona n sono spostate le une rispetto alle altre, il livello di Fermi ha un valore costante in tutta la zona transizione pn, corrispondente all’equilibrio termico. A causa del drogaggio il livello di Fermi si trova all’interno della banda di valenza nella zona p, e all’interno della banda di conduzione nella zona n. Se adesso viene introdotta tra lo strato p e lo strato n una differenza di potenziale V corrispondente al gap 64 CAPITOLO 7. INTERAZIONE RADIAZIONE-MATERIA, I di energia, cioè V = ∆Eg /e, nella direzione di conduzione, come in Fig. 7.13.c), le bande energetiche della zona n si innalzano rispetto a quelle della zona p (gli elettroni hanno carica negativa !). Come mostrato in Fig. 7.13.c), l’energia di Fermi En dello strato n viene innalzata di una quantità V e rispetto all’energia di Fermi Ep dello strato p. Esiste cosı̀ una sottile zona attiva in cui si trovano sia elettroni in banda di conduzione che buche in p i n banda di valenza, nella quale, cioè, si ha un’in+ − versione di popolazione, ed in cui è possibile l’ef+ − − + fetto laser. Il generatore esterno alimenta sia un − + + flusso di elettroni dallo strato n che un flusso di − + buche dallo strato p sempre verso la giunzione np, hν che man mano rimpiazzano le coppie elettrone-buca ricombinate in seguito all’emissione di un fotone. H. Kroemer e Ž. I. Alfërov hanno proposto inFigura 7.14: Laser a doppia giunzione pin. dipendentemente un importante miglioramento del laser a semiconduttore. Anziché due, vengono usati tre strati successivi di semiconduttori diversi (Figg. 7.14 e 7.15): uno strato di semiconduttore estrinseco drogato p, uno strato di semiconduttore intrinseco (non drogato) ed infine un uno strato di semiconduttore estrinseco drogato n, avendo cosı̀ due eterogiunzioni. Gli strati p ed n hanno la stessa ampiezza del gap di energia proibita, mentre l’ampiezza del gap di energia proibita dello strato intrinseco i è minore: ∆Ep = ∆En > ∆Ei . Questo ha come conseguenza sia il confinamento dell’inversione di popolazione in una zona più ampia che nel laser a singola giunzione, che un ulteriore vantaggio dovuto al fatto che l’indice di rifrazione dello strato i, in cui avviene il processo laser, è maggiore che in p ed in n. Per l’emissione laser si ha cosı̀ un effetto guida d’onda. Quando viene applicata la differenza di potenziale alle estremità del “sandwich”, le buche dello strato p e gli elettroni dello strato n possono penetrare nello strato i, dove si forma l’inversione di popolazione ed avvengono i fenomeni di ricombinazione con emissione di fotoni. C Zona attiva EC ∆Ep EF ∆Ei ∆Ep ∆En ∆Ei Emissione laser E Ep EV V En p i n a) Semiconduttori sconnessi p i ∆En n b) Connessi senza tensione applicata p i n c) Connessi con tensione applicata Figura 7.15: Laser a doppia giunzione pin: a) Semiconduttori sconnessi, posizione delle energie di Fermi nei tre strati. b) Semiconduttori connessi senza tensione applicata: in ogni strato i livelli energetici si spostano in modo che le energie di Fermi siano allineate. c) La tensione esterna applicata sposta i livelli, rendendo possibile il passaggio degli elettroni in banda di conduzione dalla zona n alla zona i, e delle buche in banda di valenza dalla zona palla zona i. Nella zona i elettroni e buche si ricombinano, dando luogo all’emissione laser. Capitolo 8 Fluttuazioni della radiazione e interferenza 8.1 Instaurazione del regime oscillatorio Per la statistica dei fotoni, i modi di oscillazione di una cavità laser si comportano come stati di particella singola. Consideriamo, per esempio, una cavità laser limitata da due specchi piani e paralleli a distanza L tra loro, come schematizzato in figura 8.1. Ogni modo della cavità corrisponde ad un’onSpecchi da stazionaria tra i due specchi. Perché l’onda sia stazionaria deve essere L λr L=r , 2 2L da cui λr = , r (8.1) con r numero intero. Le frequenze possibili per i modi della cavità sono quindi λ c c νr = =r , λr 2L (8.2) Figura 8.1: Onda stazionaria in una cavità laser. e ad ogni modo corrispondono fotoni di energia Er = hνr . Finché il laser non raggiunge la soglia di oscillazione, i fotoni si comportano come se fossero all’equilibrio termico ad una temperatura efficace Teff . Trattandosi di bosoni, ogni modo |ri avrà un numero medio di occupazione dato dalla (5.58), con il potenziale chimico µ posto uguale a zero hnr i = 1 eEr /kTeff −1 . (8.3) E’ da notare che la temperatura Teff tende all’infinito man mano che ci si avvicina all’inversione di popolazione. Infatti la temperatura efficace Teff per i due livelli interessati alla transizione laser si ottiene risolvendo per T la relazione di Boltzmann N2 /N1 = e−(E2 −E1 )/kT Teff = E2 − E1 . k log(N1 /N2 ) 65 (8.4) 66 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA Cosı̀ Teff diverge per N2 → N1 , per poi diventare negativa una volta che si è raggiunta l’inversione di popolazione e N2 > N1 (per un laser, si passa da temperature positive a temperature negative non passando attraverso 0 K, ma passando attraverso l’infinito!). I numeri di occupazione dei modi del laser tenderanno quindi a divergere con Teff . Per le fluttuazioni relative dei numeri di occupazione stessi man mano che ci si avvicina all’inversione di popolazione otteniamo dalla (6.18) 1 h(∆nr )2 i h(∆nr )2 i = lim = lim lim + 1 = 1, (8.5) 2 N2 →N1 hnr i2 hnr i→∞ hnr i hnr i→∞ hnr i da cui il numero di fotoni nel modo r ha fluttuazioni dell’ordine del 100% attorno al valor medio hnr i. Ponendo ε = +1 e µ = 0 nella (5.58) otteniamo il numero medio di fotoni in uno stato (modo) di energia Er hnr i = 1 eβEr −1 , da cui abbiamo eβEr = 1 + 1 , hnr i e e−βEr = hnr i , hnr i + 1 che, inserita nella (5.51) ci dà per la probabilità di avere n fotoni in un modo con numero medio di occupazione hnr i hnr in . (8.6) Wr (n) = e−nβEr 1 − e−βEr = (hnr i + 1)n+1 Appena raggiunta la soglia di oscillazione del laser, il comportamento statistico dei fotoni cambia in modo discontinuo. La probabilità di avere n fotoni nel modo |ri quando il numero medio di occupazione è hnr i è data adesso dalla distribuzione di Poisson hnr in −hnr i e , Wr (n) = n! cui corrispondono delle fluttuazioni relative s 1 h∆n2 i =p , 2 hn i hni (8.7) (8.8) uguali a quelle di un oscillatore classico stabilizzato in ampiezza. 8.2 Formalismo dei campi complessi I fenomeni di interferenza vengono trattati più facilmente in termini di campi complessi associati alle onde elettromagnetiche. Partendo dal campo elettrico reale E(t) di un’onda elettromagnetica si definisce il campo complesso A(t) nel modo seguente Z ∞ A(t) = Ẽ(ν) e+2πiνt dν (8.9) 0 dove Ẽ(ν) è la trasformata di Fourier del campo elettrico dell’onda Z +∞ E(t) e−i2πνt dt = Ẽ ∗ (−ν). Ẽ(ν) = −∞ (8.10) 67 8.2. FORMALISMO DEI CAMPI COMPLESSI A(t) contiene cosı̀ solo le frequenze positive del campo elettrico E(t), e si ha E(t) = 2 ℜ{A(t)}. (8.11) dove ℜ{z} indica la parte reale di z. Prendiamo, come esempio, un’onda monocromatica che si propaga lungo l’asse z e polarizzata linearmente lungo l’asse x, con campo elettrico Ex (t) = E(t) = E0 cos(2πν0 t + ϕ). Qui ϕ comprende anche la dipendenza dalla posizione: avremo ϕ = ϕ0 − 2πz/λ. Ricordando la relazione Z +∞ e−2πiνt dt = δ(ν), −∞ dove δ(ν) è la delta di Dirac, abbiamo per la trasformata di Fourier dell’onda Z +∞ Ẽ(ν) = E0 cos(2πν0 t + ϕ) e−2πiνt dt −∞ E0 = 2 = Z +∞ e −∞ −2πi(ν−ν0 )t+iϕ dt + Z +∞ e −∞ E0 iϕ e δ(ν − ν0 ) + e−iϕ δ(ν + ν0 ) . 2 −2πi(ν+ν0 )t−iϕ dt (8.12) Inserendo la (8.12) nell’espressione (8.9) per A(t) abbiamo Z E0 ∞ iϕ E0 +2πiν0 t+iϕ A(t) = e = A0 e+2πiν0 t+iϕ . e δ(ν − ν0 ) − e−iϕ δ(ν + ν0 ) e2πiνt dν = 2 0 2 (8.13) Adesso riprendiamo il caso di un’onda con dipendenza generica dal tempo E(t). Classicamente, l’intensità di un’onda elettromagnetica, in W/m2 , è data dal vettore di Poynting ~ ~ P~ (t) = E(t) × H(t). Ricordando che r per un’onda piana polarizzata lungo l’asse x valgono le 1 ε0 relazioni By (t) = Ex (t) e Hy (t) = Ex (t), abbiamo c µ0 r ε0 2 ~ E (t) ẑ (8.14) P (t) = µ0 dove ẑ è il versore di propagazione dell’onda. A partire dai campi complessi A(t) possiamo definire l’intensità istantanea reale dell’onda r r ε0 ∗ ε0 ∗ I(t) = P (t) = 2 A (t) A(t) = 2 A (t) A(t), (8.15) µ0 µ0 dove la barra indica la media temporale sul periodo di un’onda, e nell’ultimo passaggio si è tenuto conto del fatto che la dipendenza temporale scompare nel prodotto A∗ (t)A(t). Se in un punto si sovrappongono due onde di intensità complesse rispettivamente A1 (t) ed A2 (t), il campo complessivo vale A1+2 (t) = A1 (t) + A2 (t), mentre per l’intensità complessiva I1+2 abbiamo r r ε0 ∗ ε0 ∗ I1+2 = 2 (8.16) [A1 (t) + A2 (t)] [A1 (t) + A2 (t)] = I1 + I2 + 4 ℜ{A∗1 (t)A2 (t)}, µ0 µ0 68 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA dove la barra indica la media temporale sulla durata della misura, in generale molto lunga rispetto al periodo di oscillazione delle onde. Nel caso di un’interferenza alla Michelson, dove una stessa onda viene prima separata in due da uno specchio semiriflettente, poi le due onde risultanti vengono ricombinate dopo che una, per esempio A2 (t), ha subito un ritardo τ rispetto ad A1 (t), dovuto ad una differenza di cammino ottico ∆l = cτ , possiamo porre r ε0 G11 (τ ) = ℜ{A∗1 (t)A1 (t + τ )}, (8.17) µ0 dove G11 (τ ) è la funzione di autocorrelazione di A1 (t). Più in generale, si può definire la funzione di correlazione di due onde A1 (t) e A2 (t) nel modo seguente r r Z +T 1 ε0 ε0 ∗ ∗ A1 (t) A2 (t + τ ) dt = lim G12 (τ ) = A (t) A2 (t + τ ), (8.18) µ0 T →∞ 2T −T µ0 1 Le intensità medie Ik , con k = 1, 2, sono determinate dalle funzioni di autocorrelazione Gkk (τ ) dei singoli fasci r Z +T ε0 1 (8.19) A∗ (t) Ak (t + τ ) dt. lim Ik = Gkk (0), con Gkk (τ ) = µ0 T →∞ 2T −T k Il teorema di Wiener-Khinchin lega le funzioni di autocorrelazione Gkk (τ ) alle trasformate di Fourier degli spettri di intensità dei singoli fasci Z +∞ Z +∞ −2πiντ Ik (ν) e+2πiντ dν. (8.20) Gkk e dτ, Gkk (τ ) = Ik (ν) = −∞ −∞ In ottica le funzioni di correlazione normalizzate sono dette funzioni di coerenza, per esempio γ12 (τ ) = √ 1 G12 (τ ), I1 I2 con γ12 (0) = 1. (8.21) La (8.16) può cosı̀ essere riscritta I1+2 = I1 + I2 + 2 p I1 I2 γ12 (τ ) (8.22) Per due fasci quasi monocromatici di pari intensità e di lunghezza d’onda centrata attorno al valore λm = c/νm e differenza di fase media ∆ϕm si può porre nella (8.18) A1 (t) = Aei(2πνm t+ϕ0 −2πz/λm ) , da cui ℜ{A∗1 (t) A2 (t e A2 (t + τ ) = Aei(2πνm (t+τ )+ϕ0 +∆ϕm −2π(z−∆l)/λm ) , ∆l , + τ )} = A cos ∆ϕm + 2π λm 2 possiamo riscrivere la (8.22) nella forma I1+2 = I1 + I2 + 2 p ∆l I1 I2 |γ| cos ∆ϕm + 2π λm , e le misure all’interfereometro di Michelson permettono di determinare ∆ϕm , λm e |γ|. (8.23) 69 8.3. INTERFERENZA 8.3 Interferenza Supponiamo di ricevere fotoni prodotti da un numero N molto grande di sorgenti monocromatiche, tutte della stessa intensità e frequenza, ma completamente scorrelate tra loro in fase. Se interpretiamo la radiazione elettromagnetica secondo l’elettrodinamica classica, possiamo chiamare A eiϕj il campo incidente sul rivelatore proveniente dalla sorgente j-esima, cosı̀ che sul rivelatore il campo complessivo prodotto dalle N sorgenti sarà A= N X j=1 A eiϕj . (8.24) L’intensità totale ricevuta sarà |A|2 = N X j=1 A eiϕj N X l=1 " A e−iϕl = A2 N + X j6=l # " ei(ϕj −ϕl ) = A2 N + 2 X l<j # cos(ϕj − ϕl ) . (8.25) D’altra parte, anche il numero n di fotoni che incide per unità di tempo sul rivelatore sarà proporzionale ad |A|2 : n = a|A|2 , (8.26) dove a è una costante di proporzionalità dipendente, tra le altre cose, dalla frequenza ν della radiazione. Facendo una media sulle fasi relative, che supponiamo totalmente scorrelate, otteniamo hni = a h|A|2 i = a N A2 . (8.27) Se adesso calcoliamo la deviazione quadratica media relativa otteniamo 2 hn2 i − hni2 h|A|4 i − [h|A|2 i] h(∆n)2 i = = , 2 hni2 hni2 [h|A|2 i] per il valor medio di |A|4 abbiamo *" h|A|4 i = A4 N +2 X l<j cos(ϕj − ϕl ) #2 + (8.28) * + * + X X cos2 (ϕj − ϕl ) = A4 N 2 + 4N cos(ϕj − ϕl ) +4 l<j l<j {z } {z } | | =0 = A 4 1 1 N + 4 N (N − 1) ≈ 2N 2 A4 . 2 2 2 = 12 N (N −1)· 21 (8.29) Sostituendo nella (8.28) abbiamo 2N 2 A4 − N 2 A4 h(∆n)2 i = 1. = N 2 A4 hni2 (8.30) 70 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA Einstein, paragonando questo risultato con l’espressione per le fluttuazioni quadratiche medie relative dei fotoni h(∆n)2 i 1 +1 (8.31) = 2 hnr i hni ha suggerito che quest’ultima espressione possa essere interpretata come la somma di un termine Boltzmanniano 1/hnr i e del termine 1 dovuto al comportamento ondulatorio dei bosoni. 8.4 Interferometro di Michelson e coerenza temporale Sorgente Consideriamo un interferometro di Michelson, rappresentato nella fig. 8.2. Un fascio di luce proveniente da una sorgente S incide su di uno specchio semiriflettente, detto beam splitter, dove viene separato in una parte trasmessa che continua il cammino fino a incidere su di uno specchio 1, ed una parte riflessa a 90◦ che incide su di uno specchio 2. Ognuno dei due fasci viene riflesso su sé stesso dallo specchio rispettivo. Il fascio riflesso dallo specchio 1, incidendo nuovamente sul beam splitter, viene in parte trasmesso verso la sorgente ed in parte riflesso verso il rivelatore. Analogamente, il fascio riflesso dallo specchio 2 viene in parte riflesso verso la sorgente, ed in parte trasmesso verso il rivelatore. Traslando uno degli specchi (M1 nella figura) si Specchio M2 cambia la differenza di cammino ottico ∆l tra i due fasci che giungono sul rivelatore. Si osserva cosı̀ che si vedono frange di interferenza tra i due fasci solo se ∆l è minore di un certo valore critico ∆lc = c τc , dove c è la velocità della luce Beam splitter Specchio e τc è detto tempo di coerenza dei fotoni emesBS S si dalla sorgente. Una misura del ∆l massimo a M1 cui si osserva ancora interferenza permette di determinare τc . Come modello classico, possiamo pensare i fotoni emessi dalla sorgente come treni d’onda di frequenza angolare ω e durate temporale τc . Ad ogni passaggio dal beam splitter ogni treno d’onda di divide in due treni d’onda della Rivelatore stessa forma di quello incidente, ma con intensità ridotta. Sul rivelatore giungono due treni Figura 8.2: Interferometro di Michelson. d’onda sovrapposti, dopo che tra loro è stato introdotto un ritardo temporale causato dalla differenza di cammino ottico ∆l. C’è interferenza solo se il ritardo temporale è inferiore alla durata τc di ciascun treno. τc Supponiamo di avere un treno d’onda con ampiezza complessa A = A0 e2πiν0 t per − < 2 τc τc τc t < , e ampiezza nulla se t < − oppure t > . Applicando al nostro treno d’onda la 2 2 2 trasformata di Fourier, il fatto che il treno sia temporalmente limitato ci fa ottenere, anziché una δ di Dirac Ã(ν) = δ(ν0 − ν), Ã(ν) = Z +τc /2 A0 e −τc /2 2πi(ν0 −ν) t dt = A0 e2πi(ν0 −ν) t 2πi(ν0 − ν) +τc /2 −τc /2 8.5. INTERFEROMETRO DI YOUNG E COERENZA SPAZIALE A0 A0 e2πi(ν0 −ν) τc /2 − e−2πi(ν0 −ν) τc /2 = sin[πτc (ν0 − ν)] π(ν0 − ν) 2i π(ν0 − ν) sin [πτc (ν0 − ν)] = A0 τc sinc [τc (ν0 − ν)] , = A0 τc πτc (ν0 − ν) 71 = (8.32) dove sinc(x) è la funzione sinc normalizzata, definita da sinc(x) = sin(πx) , πx con sinc(0) = 1, (8.33) sinc(x) e mostrata in fig. 8.3. La funzione sinc(x) (da sinus cardinalis) ha il massimo assoluto, pari sin(πx) ), e si annulla per ogni altro valore intero di x. a 1, per x = 0 (ottenuto come lim x→0 πx E’ da notare che in letteratura si trova anche la funzione sinc non normalizzata, definita da sinc(x) = sin(x)/x, che invece si annulla per x uguale a multipli di π diversi da zero. Noi qui, comunque, useremo solo la sinc normalizzata definita dalla (8.33). Vediamo cosı̀ dalla (8.32) che Ã(ν) è simmetrica attorno al valore ν = ν0 , al quale ha il massimo assoluto, ed ha due zeri per ν = ν0 − 1/τc e ν = ν0 + 1/τc . Come semilarghezza della distribuzione in frequenza, possiamo quindi prendere il valore ∆ν = 1 . τc (8.34) Per esempio, se prendiamo una sorgente termica a distribuzione spetx −7 −6 −5 −4 −3 −2 −1 1 2 3 4 5 6 7 trale stretta (lampada spettrale), come quelle usate tipicamente in labFigura 8.3: La funzione sinc (x). oratorio, la sua larghezza di banda ∆ν è dell’ordine di 109 Hz, corrispondente alla tipica vita media di un livello atomico eccitato che è dell’ordine di 10−9 s. Questo implica che la differenza massima di cammino ottico a cui osserviamo ancora interferenza è lc = cτc ≈ 0.3 m. Invece una sorgente laser ben stabilizzata può avere una larghezza di riga ∆ν ≈ 104 Hz, cui corrispondono τc ≈ 10−4 s, e lc = cτc ≈ 3×104 m = 30 km. 8.5 Interferometro di Young e coerenza spaziale In un interferometro di Young, mostrato in fig. 8.4.a), una sorgente estesa quasi monocromatica, a forma di disco di raggio a, illumina i due fori P1 e P2 , distanti 2d tra loro, sullo schermo opaco A. Le ampiezze e fasi totali delle sorgenti secondarie (in base al principio di Huygens-Fresnel) in P1 e P2 sono ottenute per sovrapposizione di tutte le onde parziali emesse dagli elementi di superficie dσ attorno ai punti R della sorgente, tenendo conto dei diversi cammini ottici RP1 e RP2 . L’intensità misurata al punto Q sullo schermo B dipende sia dalla differenza di cammino ottico ∆l(Q) = P1 Q − P2 Q che dalla differenza di fase ∆ϕ = ϕ(P1 ) − ϕ(P2 ) tra le ampiezze del campo in P1 e P2 . Se i diversi punti R della sorgente emettono indipendentemente con fasi casuali (sorgente termica), anche le fasi delle ampiezze totali in P1 e P2 fluttueranno a caso. 72 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA P1 R 2a schermo Tuttavia questo non influenza l’intensità in Q se le fluttuazioni in P1 e P2 sono sincrone, perché in questo caso la differenza di fase ∆ϕ rimane costante. In queste condizioni i due fori P1 e P2 si comportano come sorgenti coerenti tra loro che generano una figura di interferenza sullo schermo B. Questa situazione si realizza senz’altro per la radiazione emessa dal centro O della sorgente perché i cammini OP1 e OP2 sono uguali e tutte le fluttuazioni di fase in O arrivano simultaneamente in P1 e P2 . Per ogni punto R della sorgente diverso da O, invece, si ha una differenza di cammino ottico ∆l(R) = RP1 −RP2 , che è massima se R si trova sul bordo della sorgente. Nella fig. 8.4.b), che è stata deformata per chiarezza di lettura, chiamiamo x la distanza R1 P1 , y la distanza R2 P1 , e z la distanza OP1 . Vogliamo calcolare la differenza di cammino ∆lmax = y − x nell’approssimazione che sia a ≪ r. O d OA OB d Q d z ϑ a O a P1 x R1 y ∆Ω ′ OA d R2 P2 P2 r r A B a) b) Figura 8.4: Interferemometro di Young. Applichiamo il teorema di Pitagora generalizzato ai due triangoli OR1 P1 e OR2 P1 . Dalla figura \ vediamo che cos(R\ 1 OP1 ) = sin ϑ, e cos(R2 OP1 ) = − sin ϑ, quindi abbiamo per x, y e z x= √ a2 + z 2 − 2 az sin ϑ, y= √ a2 + z 2 + 2 az sin ϑ, con z = r . cos ϑ (8.35) Per ϑ piccolo possiamo usare lo sviluppo al primo ordine della radice quadrata √ ottenendo x≈ √ c+δ ≈ √ δ c+ √ , 2 c az sin ϑ a2 + z 2 − √ a2 + z 2 valido se δ ≪ c, e y≈ √ az sin ϑ , a2 + z 2 + √ a2 + z 2 (8.36) (8.37) da cui 2az sin ϑ ∆lmax = y − x ≈ √ , a2 + z 2 che, per a ≪ z, porta a ∆lmax ≈ 2a sin ϑ. (8.38) 8.5. INTERFEROMETRO DI YOUNG E COERENZA SPAZIALE 73 Se ∆lmax > λ/2 la differenza di fase ∆ϕ delle ampiezze parziali in P1 e P2 è più grande di π. Con fasi casuali dei punti R distribuiti su tutta la sorgente, le figure di interferenza sul piano B, una volta mediate sul tempo, si cancellano. Quindi la condizione per avere illuminazione coerente in P1 e P2 da parte di una sorgente di raggio a è ∆lmax = 2a sin ϑ < λ , 2 cioè sin ϑ < λ . 4a (8.39) D’altra parte, se ϑ è piccolo, vediamo sempre dalla fig. 8.4.b), che sin ϑ ≈ tan ϑ ≈ d/r, per cui otteniamo la condizione r (8.40) d<λ . 4a Perché si possano osservare le figure di interferenza, bisogna quindi che i due fori P1 e P2 si trovino all’interno di un’area di coerenza circolare 2 Ac = πdmax = πλ2 r2 , 16 a2 e, ricordando che As = πa2 , Ac = π 2 λ2 r 2 λ2 r 2 ≈ 0.62 16As As (8.41) Dalla sorgente, il cerchio di aerea Ac è visto entro un angolo solido ∆Ωc = Ac /r2 , da cui ∆Ωc = 0.62 λ2 . As (8.42) E’ da notare che il fattore π 2 /16 ≈ 0.62 che compare nelle (8.41) e (8.42), ed in alcune formule che incontreremo nel seguito, è il quadrato del rapporto tra l’area del cerchio e quella del quadrato circoscritto. Riassumendo quanto sopra, possiamo dire che, se abbiamo una sorgente quasi monocromatica di area As che emette attorno alla lunghezza d’onda λ, l’area massima Ac che può essere illuminata coerentemente ad una distanza r vale Ac = r2 ∆Ωc = 0.62 λ2 r 2 λ2 = 0.62 , As ∆Ω′ (8.43) dove As (8.44) r2 è l’angolo solido sotto il quale il punto OA della fig. 8.4.b) vede l’area della sorgente. Tra ∆Ω′ e ∆Ωc esiste la relazione λ2 1 ∆Ω′ = 0.62 2 . (8.45) r ∆Ωc ∆Ω′ = La superficie della sorgente As determina quindi un angolo solido massimo ∆Ωc = 0.62λ2 /As entro al quale il campo di radiazione ha coerenza spaziale. Una volta fissate le dimensioni della sorgente, la superficie di coerenza Ac = πd 2 aumenta con il quadrato della distanza r dalla sorgente, o, che è lo stesso, in modo inversamente proporzionale all’angolo solido ∆Ω′ . Data la grande distanza dalle stelle, e il conseguente piccolo valore di ∆Ω′ nella (8.44), la luce di una stella ricevuta da un telescopio è spazialmente coerente su tutta la superficie dell’apertura del telescopio stesso, nonostante il grande diametro della sorgente di radiazione. 74 8.6 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA Volume di coerenza Con una lunghezza di coerenza ∆lc = c τc = c/∆ν nella direzione di propagazione della radiazione e la superficie di coerenza Ac = 0.62λ2 r2 /As abbiamo un volume di coerenza Vc = Ac ∆lc = 0.62 λ2 r 2 c . ∆ν As (8.46) La radianza spettrale L(ν) di una sorgente è definita in modo che L(ν) dS dν dΩ sia la potenza radiante emessa dall’elemento di superficie dS della sorgente stessa, nell’intervallo spettrale (ν, ν + dν) all’interno dell’angolo solido dΩ. Le unità di misura per L(ν) somo quindi W/(m2 ·sterad·Hz). Se L(ν) è la radianza spettrale della nostra sorgente di superficie As , il numero medio di fotoni hni di frequenza compresa nell’intervallo spettrale (ν, ν + ∆ν) entro l’angolo solido di coerenza ∆Ωc = 0.62λ2 /As durante il tempo di coerenza τc = 1/∆ν sarà hni = 1 1 λ2 1 L(ν) λ2 As L(ν)∆ν ∆Ωc τc = As L(ν)∆ν 0.62 = 0.62 . hν hν As ∆ν hν (8.47) E’ possibile calcolare il numero g delle celle dello spazio delle fasi occupato dai fotoni di un fascio luminoso di apertura ∆Ω partendo dall’espressione per il numero delle celle dello spazio delle fasi a grandi volumi spaziali V g= V 4πp2 ∆p , h3 (8.48) sostituendo l’angolo solido 4π, che abbraccia tutto lo spazio, con l’angolo solido ∆Ω entro cui hν vediamo arrivare i fotoni del fascio, e ricordando che, per un fotone, p = , ottenendo cosı̀ c g= V ∆Ωc ν 2 ∆ν . c3 (8.49) Se vogliamo che i fotoni occupino un’unica cella dello spazio delle fasi dobbiamo porre g = 1, ed otteniamo per il volume “spaziale” V V = c3 λ2 c = . ∆Ων 2 ∆ν ∆Ω∆ν (8.50) A distanza r dalla sorgente, la sorgente stessa viene vista sotto un angolo ∆Ω = As /r2 , ed i fotoni vengono visti arrivare entro questo angolo solido. SostituendoAs /r2 al posto di ∆Ω nella (8.50) otteniamo λ2 r 2 c , (8.51) V = As ∆ν che, a parte il fattore 0.62, coincide con la (8.46). Il volume occupato dai fotoni che attraversano una generica superficie S, sufficientemente lontana dalla sorgente e perpendicolare al fascio, durante il tempo tm di una misura può essere scritto V = S c tm . (8.52) 75 8.6. VOLUME DI COERENZA Dalla superficie S la superficie della sorgente As viene vista sotto un angolo solido ∆Ω′ . Quindi, per il numero di celle dello spazio delle fasi occupato dagli stessi fotoni abbiamo g= S∆Ω′ tm S c tm ∆Ω′ ν 2 ∆ν = . c3 λ2 τc (8.53) Definiamo una grandezza caratteristica del fascio, detta estensione del fascio U , come U= As S = As ∆Ω = S∆Ω′ , r2 (8.54) dove S è la superficie il cui contorno delimita il fascio ad una distanza r dalla sorgente. L’estensione U è importante perché rimane costante nella propagazione senza perdite di un fascio luminoso sotto le leggi dell’ottica geometrica. Per fotoni che viaggiano entro l’angolo solido ∆Ωc determinato dalla diffrazione alla superficie As della sorgente, dato dalla (8.42), l’estensione assume il valore critico Uc Uc = As ∆Ωc = As · 0.62 λ2 = 0.62 λ2 . As (8.55) Quindi abbiamo λ2 = Uc /0.62 che possiamo sostituire nell’espressione (8.53) per il numero di celle dello spazio delle fasi, ottenendo S∆Ω′ tm U tm g= = 0.62 , λ2 τc Uc τc (8.56) dove il termine U/Uc viene definito fattore di coerenza spaziale, ed il termine tm /τc fattore di coerenza temporale. Utilizzando la 8.43, il fattore di coerenza spaziale può anche essere definito S∆Ω′ S U = = , 2 Uc 0.62λ Ac (8.57) cioè come rapporto tra la superficie del fascio e la superficie di coerenza, mentre il fattore di coerenza temporale è il rapporto tra il tempo di misura ed il tempo di coerenza. Il valore più basso di g, cioè 0.62, si ha quando l’area ed il tempo di misura coincidono con l’area ed il tempo di coerenza. E’ da notare che né il fattore di coerenza spaziale, né il fattore di coerenza temporale, possono essere presi come minori di 1. Quindi, per esempio, un tempo di misura minore del tempo di coerenza non compensa una superficie del fascio maggiore dell’area di coerenza. 76 CAPITOLO 8. FLUTTUAZIONI DELLA RADIAZIONE E INTERFERENZA Capitolo 9 Processi stocastici 9.1 Introduzione Per processo casuale, o stocastico, si intende un processo in cui il valore di una certa variabile x dipende da un’altra variabile, per esempio dal tempo t, secondo una legge x(t) che comporta un certo grado di aleatorietà. Non esiste cioè una funzione x(t) che descriva esattamente il variare di x al passare del tempo. Supponiamo però che la x(t) sia comunque continua e che sia possibile scrivere una densità di probabilità al primo ordine dipendente dal tempo W1 (x, t) (9.1) tale che W1 (x′ , t) dx sia la probabilità di avere il valore di x nell’intervallo (x′ , x′ +dx) all’istante t. La casualità può essere descritta da un ensemble statistico, in cui ogni elemento dell’ensemble corrisponde ad un particolare, possibile decorso temporale della variabile x. Possiamo anche definire una densità di probabilità al secondo ordine W2 (x1 , t1 ; x2 , t2 ) (9.2) tale che W2 (x1 , t1 ; x2 , t2 ) dx1 dx2 sia la probabilità di trovare x nell’intervallo (x1 , x1 + dx1 ) all’istante t1 e nell’intervallo (x2 , x2 + dx2 ) all’istante t2 . In modo analogo possono essere definite le densità di probabilità di ogni ordine superiore n Wn (x1 , t1 ; x2 , t2 ; . . . ; xn , tn ). (9.3) Qui e nel seguito, all’interno delle parentesi usiamo i punti e virgola per separare gli eventi, e la virgola per separare la coppia di valori x e t corrispondenti allo stesso evento. Un processo stocastico si dice stazionario quando le densità di probabilità di qualunque ordine n sono invarianti per traslazioni dell’origine dei tempi Wn (x1 , t1 + τ ; x2 , t2 + τ ; . . . ; xn , tn + τ ) = Wn (x1 , t1 ; x2 , t2 ; . . . ; xn , tn ), (9.4) con τ arbitrario. In altre parole, Wn dipende solo dalle differenza temporali t2 − t1 , t3 − t1 , . . . , tn − t1 . Per un processo stazionario possiamo cosı̀ scrivere Wn (x1 ; x2 , t2 ; . . . ; xn , tn ), 77 (9.5) 78 CAPITOLO 9. PROCESSI STOCASTICI dove t1 è stato posto uguale a 0 e ignorato nella scrittura. Una condizione necessaria, ma non sufficiente, perché un processo stocastico sia stazionario, è che W1 (x, t) sia indipendente dal tempo W1 (x, t) = W1 (x). Per un processo stazionario le funzioni di correlazione temporale sono indipendenti dal tempo. Oltre alle densità di probabilità di ordine n, introduciamo le densità di probabilità condizionata P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) definite in modo che P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) dxn (9.6) sia la probabilità che x si trovi nell’intervallo (xn , xn + dxn ) all’istante tn , una volta noto che il valore era x1 all’istante t1 , x2 all’istante t2 , . . . , xn−1 all’istante tn−1 . Come convenzione, all’interno della parentesi continuiamo ad usare i punti e virgola per separare i singoli eventi, e usiamo la barra “|” per separare gli n − 1 eventi condizionanti dall’evento condizionato. La condizione di stazionarietà continua a essere che P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) dipenda dal tempo solo attraverso le differenze t2 − t1 , t3 − t1 , . . . , tn − t1 . In queste condizioni possiamo ancora una volta scrivere P (x1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ), (9.7) avendo posto t1 = 0. Nel caso di processi stazionari possiamo scrivere alcune relazioni importanti, per esempio Z +∞ P (x1 |x2 , t) dx2 = 1, (9.8) −∞ che rappresenta la certezza che, qualunque sia il valore iniziale, dopo un tempo t la variabile abbia un valore qualunque. Poi abbiamo W2 (x1 ; x2 , t) = W1 (x1 ) P (x1 |x2 , t), da cui otteniamo P (x1 |x2 , t) = W2 (x1 ; x2 , t) . W1 (x1 ) (9.9) Valgono le relazioni W3 (x1 ; x2 , t2 ; x3 , t3 ) = W2 (x1 ; x2 , t2 )P (x1 ; x2 , t2 |x3 , t3 ) e Z (9.10) +∞ W3 (x1 ; x2 , t2 ; x3 , t3 ) dx2 = W2 (x1 ; x3 , t3 ) (9.11) −∞ per ogni t2 tale che 0 ≤ t2 ≤ t3 . Un caso importante dei processi casuali è costituito dai processi markoviani (da Andréĭ Andréeviq Márkov), che sono definiti dalla relazione P (x1 , t1 ; x2 , t2 ; . . . ; xn−1 , tn−1 |xn , tn ) = P (xn−1 , tn−1 |xn , tn ), (9.12) in altre parole, in un processo markoviano la densità di probabilità di avere il valore xn all’istante tn dipende solo da xn−1 all’istante tn−1 , e non da tutta la storia precedente. In una catena markoviana, cioè, dato lo stato presente, gli stati futuri sono completamente indipendenti dagli stati passati. Un esempio di processo markoviano è quello di una variabile x che soddisfa dx l’equazione differenziale = f (x). Una volta noto il valore x0 della variabile all’istante dt 79 9.2. MEDIE SULL’ENSEMBLE t0 l’evoluzione temporale di x è determinata univocamente da una relazione del tipo x = ϕ(x0 , t − t0 ). La x soddisfa la relazione di Markov con la densità di probabilità condizionata P (x0 , t0 |x, t) = δ [x − ϕ(x0 , t − t0 )] . (9.13) Da qui segue che i processi deterministici sono casi particolari di processi markoviani. Nel caso di un processo markoviano la relazione (9.10) diventa W3 (x1 ; x2 , t2 ; x3 , t3 ) = W2 (x1 ; x2 , t2 )P (x2 , t2 |x3 , t3 ) (9.14) e le relazioni (9.9) e (9.11) combinate ci danno W2 (xi ; xf , t) = P (xi |xf , t) = W1 (xi ) Z +∞ W3 (xi ; x2 , t2 ; xf , tf ) dx2 −∞ (9.15) W1 (x1 ) Utilizzando adesso la (9.14) otteniamo per i processi markoviani Z +∞ Z +∞ W2 (xi ; x2 , t2 ) P (xi |xf , t) = P (xi |x2 , t2 )P (x2 , t2 |xf , t) dx2 , P (x2 , t2 |xf , t) dx2 = W1 (xi ) −∞ −∞ (9.16) dove l’integrazione è su tutti possibili valori intermedi x2 della variabile stocastica. Questa è l’equazione di Smoluchowski, o equazione di Chapman-Kolmogorov (Andréĭ Nikoláeviq Kolmogórov), valida per qualunque t2 tale che 0 ≤ t2 ≤ t. 9.2 Medie sull’ensemble Le funzioni di distribuzione di probabilità definite nel paragrafo precedente possono essere usate per calcolare le medie sull’ensemble, rappresentate da parentesi triangolari e definite come Z Z Z hx(t)i = xW1 (x, t) dx, hx(t)x(t + τ i = x1 x2 W2 (x1 , t; x2 , t + τ ) dx1 dx2 (9.17) 9.3 9.3.1 Autocorrelazione e densità spettrale Definizioni matematiche Cominciamo con qualche richiamo di matematica. Data una funzione del tempo f (t), la sua trasformata di Fourier f˜(ν) è definita da Z +∞ Z +∞ −2πiνt ˜ f˜(ν)e2πiνt dν. (9.18) f (t)e dt, e vale la relazione inversa f (t) = f (ν) = −∞ −∞ La densità spettrale Φ(ν) di f (t) è una funzione reale e positiva definita come Z Φ(ν) = +∞ f (t)e −∞ −2πνt 2 2 dt = f˜(ν) , (9.19) 80 CAPITOLO 9. PROCESSI STOCASTICI per f (t) e Φ(ν) vale il teorema di Parseval Z Z +∞ Z +∞ ˜ 2 2 |f (t)| dt = f (ν) dν = −∞ −∞ +∞ Φ(ν)ν. (9.20) −∞ Se abbiamo due funzioni del tempo f (t) e g(t) la loro funzione di correlazione Cf g (τ ) è definita come Z +∞ f (t)g(t + τ ) dt, Cf g (τ ) = (9.21) −∞ calcoliamo la trasformata di Fourier di Cf g (τ ) Z +∞ Z +∞ C̃f g (ν) = f (t)g(t + τ ) e−2πiντ dt dτ, −∞ se introduciamo la nuova variabile ϑ = t + τ , cosı̀ che τ = ϑ − t, abbiamo Z +∞ Z +∞ Z +∞ Z −2πiνϑ 2πiνt 2πiνt C̃f g (ν) = f (t)g(ϑ) e e dtdϑ = f (t) e dt −∞ (9.22) −∞ −∞ −∞ +∞ g(ϑ) e−2πiνϑ dϑ −∞ = f˜(−ν) g̃(ν) = f˜∗ (ν) g̃(ν) = f˜(ν) g̃ ∗ (ν) (9.23) dove l’ultima riga tiene conto del fatto che, se f (t) e g(t) sono reali, abbiamo f˜(−ν) = f˜∗ (ν), e g̃(−ν) = g̃ ∗ (ν). Cosı̀, la trasformata di Fourier della funzione di correlazione di f (t) e g(t) è uguale al prodotto della trasformata di Fourier di f (t) per il complesso coniugato della trasformata di Fourier di g(t), o vice versa. Questo è il teorema di correlazione. La formula inversa è Z +∞ f˜(ν) g̃ ∗ (ν) e2πiντ dν, (9.24) Cf g (τ ) = −∞ questa formula è di notevole interesse pratico perché esistono algoritmi computazionali veloci per il calcolo delle trasformate (e antitrasformate) di Fourier, detti algoritmi di FFT (Fast Fourier Transform), che possono quindi essere sfruttati anche per il calcolo delle funzioni di correlazione. La funzione di autocorrelazione Cf f (τ ) è la funzione di correlazione di f (t) con sé stessa, quindi definita da Z +∞ f (t)f (t + τ ) dt. Cf f (τ ) = (9.25) −∞ e descrive la correlazione tra istanti separati da un intervallo di tempo τ di un processo descritto dalla funzione f (t). In base alle (9.24) e (9.19) abbiamo Z +∞ Z +∞ ∗ 2πiντ ˜ ˜ Φ(ν)e2πiντ dν (9.26) f (ν)f (ν)e dν = Cf f (τ ) = −∞ −∞ quindi la funzione di autocorrelazione di f (t) è la trasformata di Fourier della sua densità spettrale. Questo è il teorema di Wiener-Khinchin (Aleksándr kovleviq Hínqin). 81 9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE 9.3.2 Processi stocastici stazionari Densità spettrale Passiamo adesso ad una funzione stocastica stazionaria reale x(t). Se vogliamo applicare il teorema di Parseval (9.20) ci troviamo di fronte al problema Z che x(t) non tende a zero per +∞ t → ±∞, essendo, appunto, stazionaria. Quindi l’integrale x2 (t) dt diverge. Noi, però, −∞ normalmente, non saremo interessati a questo integrale, ma solo alla media temporale di x2 , definita come Z +T 1 x2 (t) dt. (9.27) x2 = lim T →∞ 2T −T Per trattare il problema, definiamo una funzione xT (t) che coincide con x(t) per −T < t < +T , ed è nulla al di fuori dell’intervallo. Se chiamiamo x̃T (ν) la sua trasformata di Fourier, il teorema di Parseval per xT (t) si scrive Z +∞ Z +T Z +∞ 2 2 |x̃T (ν)|2 dν, (9.28) xT (t) dt = xT (t) dt = dove x̃T (ν) = −∞ −T −∞ Z +∞ xT (t) e −2πiνt dt = −∞ Z +T xT (t) e−2πiνt dt (9.29) −T ed il valore mediato sul tempo di x2T (t) è Z +T Z +∞ Z +∞ 1 1 1 2 2 2 |x̃T (ν)|2 dν. xT (t) dt = |x̃T (ν)| dν = xT = 2T −T 2T −∞ −∞ 2T Per il valor medio della nostra x2 (t) originale abbiamo cosı̀ Z +T Z +∞ 1 1 2 2 |x̃T (ν)|2 dν xT (t) dt = lim x = lim T →∞ 2T −T −∞ T →∞ 2T e se mediamo anche sull’ensemble otteniamo Z +∞ Z +T 2 1 1 2 lim xT (t) dt = |x̃T (ν)|2 dν. hx i = lim T →∞ 2T −T −∞ T →∞ 2T Se definiamo la densità spettrale mediata sul tempo sull’ensemble G(ν) 1 G(ν) = lim |x̃T (ν)|2 T →∞ 2T possiamo scrivere D E Z +∞ G(ν) dν. x2 = (9.30) (9.31) (9.32) (9.33) (9.34) −∞ Che è l’estensione del teorema di Parseval ai processi stocastici stazionari. Per un processo stocastico stazionario avremo D E x2 = hx2 i = x2 . (9.35) Per esempio, nel caso del rumore Johnson, prendendo come x la differenza di potenziale V ai capi della della resistenza R, avremo G(ν) = 4RkT. (9.36) 82 CAPITOLO 9. PROCESSI STOCASTICI Autocorrelazione Se definiamo la funzione di autocorrelazione per la nostra funzione stocastica e stazionaria x(t) in modo analogo alla (9.25), cioè come Z +∞ Cxx (τ ) = x(t) x(t + τ ) dt, −∞ otteniamo una funzione di autocorrelazione che può divergere, in particolare divergerà per τ = 0. Possiamo però definire una funzione di autocorrelazione mediata nel tempo e mediata sull’ensemble come Z +T 1 Cxx (τ ) = lim x(t) x(t + τ ) dt . (9.37) T →∞ 2T −T Con procedimento analogo a quanto fatto per ottenere la (9.23) possiamo calcolare la trasformata di Fourier di Cxx (τ ) Z +T Z +∞ 1 x(t) x(t + τ ) dt e−2πiντ dτ lim C̃xx (ν) = T →∞ 2T −T −∞ = lim T ′ →∞ * = Z +T ′ −T ′ 1 lim T →∞ 2T 1 lim lim ′ T →∞ T →∞ 2T Z Z +T x(t) x(t + τ ) dt −T +T ′ dτ −T ′ Z +T e−2πiντ dτ + x(t) x(t + τ ) e−2πiντ dt . −T (9.38) A punto introduciamo il cambiamento di variabili ϑ = t + τ , cosı̀ che τ = ϑ − t, + * Z +T Z T ′ +t 1 x(t)x(ϑ) dt e−2πiνϑ e2πiνt dϑ C̃xx (ν) = lim lim T ′ →∞ T →∞ 2T −T ′ +t −T = * lim T ′ →∞ Z T ′ +t −T ′ +t 1 x(ϑ) e−2πiνϑ dϑ lim T →∞ 2T Z +T + x(t)e2πiνt dt . −T (9.39) Con l’ipotesi che la x(t) sia una variabile aleatoria stazionaria possiamo traslare gli estremi di integrazione per dϑ, ottenendo + * Z +T Z +T ′ 1 x(t)e2πiνt dt , x(ϑ) e−2πiνϑ dϑ lim C̃xx (ν) = lim T →∞ 2T −T T ′ →∞ −T ′ Poiché i due integrali sono indipendenti, possiamo sostituire T ′ con T negli estremi del primo integrale, e scrivere un limite unico Z +T Z +T 1 2πiνt −2πiνϑ C̃xx (ν) = lim x(t)e dt x(ϑ) e dϑ T →∞ 2T −T −T 1 1 = lim x̃T (ν) x̃T (−ν) = lim hx̃T (ν) x̃T (−ν)i T →∞ 2T T →∞ 2T = 1 |x̃T (ν)|2 = G(ν), T →∞ 2T lim (9.40) 83 9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE nel penultimo passaggio abbiamo tenuto conto del fatto che x(t) è reale, e quindi x̃(−ν) = x̃∗ (ν), mentre nell’ultimo passaggio abbiamo usato la (9.33). Abbiamo quindi Z +∞ G(ν) e2πiντ dν. (9.41) C̃xx (ν) = G(ν), da cui Cxx (τ ) = −∞ Se ricordiamo ancora che essendo x(t) reale, abbiamo x̃∗ (ν) = x̃(−ν), vediamo che x̃∗ (ν) x̃(ν), e quindi G(ν), è una funzione pari, per cui Z +∞ Z +∞ 2πiντ G(ν) cos(2πντ ) dν, (9.42) G(ν) e dν = 2 Cxx (τ ) = 0 −∞ mentre la relazione inversa è G(ν) = 2 Z +∞ Cxx (τ ) cos(2πντ ) dτ. (9.43) 0 Questa è l’estensione del teorema di Wiener-Khinchin ai processi stocastici. Come esempio facciamo l’ipotesi che la funzione di autocorrelazione di un sistema sia C(τ ) = C0 e−τ /τc . (9.44) Da questa possiamo ricavare la densità spettrale G(ν) dalla relazione G(ν) = 2 Z 1 τc ∞ C0 e−τ /τc cos(2πντ ) dτ = 2 C0 0 1 + 4π 2 ν 2 τc2 = 2 C 0 τc ∆ν 2 . ∆ν 2 + ν 2 (9.45) La rappresentazione grafica di G(ν) è quindi una lorentziana centrata sullo zero di semilarghezza ∆ν = 1/(2πτc ), che corrisponde al rumore bianco. 9.3.3 Shot noise Una sorgente importante di rumore a bassa frequenza è dovuta alla quantizzazione della carica elettrica. A correnti sufficientemente basse è possibile identificare il contributo della carica dei singoli elettroni in un dispositivo elettronico. Questo rumore, dovuto quindi al passaggio discontinuo delle cariche, viene chiamato shot noise, o rumore a colpi, e fu identificato da Schottky nelle valvole termoelettroniche. Va notato che il trattamento che segue sarà sviluppato sotto le ipotesi: i) che la corrente sia molto debole, e ii) che i singoli elettroni contribuiscano alla corrente in modo indipendente l’uno dall’altro. Questa indipendenza mutua si verifica, per esempio, per elettroni che attraversano una barriera, come nel caso di un diodo a giunzione, ma non nel caso di conduttori metallici, in cui esistono correlazioni a lungo range tra i portatori di carica. Se hni è il numero medio degli elettroni che raggiunge il rivelatore durante il tempo di misura tm , l’intensità di corrente media vale hIi = hnie . tm (9.46) 84 CAPITOLO 9. PROCESSI STOCASTICI Le fluttuazioni della corrente I sono caratterizzate dalla deviazione quadratica media h(∆I)2 i, che è legata alla deviazione quadratica media del numero degli elettroni h(∆n)2 i. Dividiamo il tempo della misura tm in N intervallini uguali, ciascuno di durata tm /N , sufficientemente brevi perché in ognuno di essi passi al massimo un singolo elettrone. Chiamiamo w la probabilità che nel singolo intervallino temporale passi un elettrone, e (1 − w) la probabilità che non ci sia passaggio. La probabilità che durante il tempo totale tm si verifichino n passaggi è la probabilità che in n intervallini ci sia un passaggio ed in (N − n) intervallini no, ed è data dall’espressione binomiale N! N wn (1 − w)N −n = P (n, tm ) = wn (1 − w)N −n . (9.47) n n!(N − n)! Se N ≫ 1 e w ≪ 1, con la condizione che il prodotto N w = hni resti finito, la(9.47) può essere approssimata dalla poissoniana. Infatti, sostituendo w = hni/N , abbiamo n N −n hni hni N! 1− lim P (n, tm ) = lim N →∞ N →∞ n!(N − n)! N N N −n hni hni N (N − 1)....(N − n + 1) hnin 1− 1− = lim N →∞ n! Nn N N N −n n N (N − 1)....(N − n + 1) hni hni hni = lim 1− 1− N →∞ Nn n! N N n n hni −hni hni −hni = 1· e ·1= e , (9.48) n! n! avendo usato la relazione x N = e−x . N →∞ N Per la deviazione quadratica media nella distribuzione di Poisson abbiamo lim 1− h(∆n)2 i = hni, e h(∆n)2 i 1 , = 2 hni hni (9.49) da cui otteniamo per la corrente I e e h(∆I)2 i h(∆n)2 i 1 = = = 2 2 hni tm hIi hIi hni (9.50) e hIi . (9.51) tm In questo caso la variabile stocastica non ha media nulla. Inoltre, non è vero che se aumento arbitrariamente hIi aumenta il rumore, perché se aumenta hIi gli elettroni non sono più completamente scorrelati, non sono più indipendenti. Come esempio di shot noise, consideriamo una corrente media hIi = 1 mA, ed un tempoq di misura tm = 1 ms, ricordando che la carica h(∆I)2 i = dell’elettrone è |e| = 1.6 × 10−19 C, otteniamo h(∆I)2 i = 4.0 × 10−10 A. Per il calcolo della distribuzione spettrale del rumore GI (ν), utilizziamo la variabile stocastica I(t) = e n(t)/tm , dove n(t) è il numero di elettroni effettivamente passati nell’intervallo di 9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE 85 tempo (t, t + tm ) associato alla misura. Immaginiamo che il contributo di ogni singolo elettrone alla corrente totale sia rappresentato da una funzione F (t) diversa da zero solo per il breve periodo di tempo (−τc , +τc ), con τc ≪ tm , durante il quale si ha il passaggio dell’elettrone, e che si abbia Z +τc F (t)dt = e. (9.52) −τc La dipendenza temporale “istantanea” della corrente durante l’intervallo di tempo di misura tm , nel quale passano n elettroni, può cosı̀ essere scritta I(t) = n X i=1 F (t − ti ), (9.53) dove ti , “istante” del passaggio dello i-esimo elettrone, è una variabile stocastica vincolata solo dalla condizione 0 < ti < tm . La media della corrente durante la misura vale + * X Z tm n Z tm 1 hnie 1 F (t − ti ) dt = , (9.54) I(t) dt = hIi = tm 0 tm i=1 0 tm che è quello che ci aspettavamo. Per la funzione di autocorrelazione della corrente durante la misura abbiamo P P CII (τ ) = hI(t)I(t + τ )i = h ni=1 F (t − ti ) nj=1 F (t + τ − tj )i. (9.55) Con le condizioni ipotizzate all’inizio, ogni elettrone è correlato solo con sé stesso, quindi il prodotto delle due sommatorie si riduce a P (9.56) CII (τ ) = h ni=1 F (t − ti )F (t + τ − ti )i = hni F (t)F (t + τ ). Il tempo di correlazione tipico è molto breve, dell’ordine di τc ≈ 10−12 s, e la G(ν) ha quindi una larghezza dell’ordine di ∆νc ≈ 1012 Hz, corrispondente ad un rumore bianco. 9.3.4 Rumore 1/f Nelle valvole termoelettroniche è stato scoperto un particolare tipo di rumore, detto rumore 1/f perché la sua distribuzione spettrale dipende dalla frequenza come 1/ν γ , con γ molto vicino ad 1, secondo la formula hIi2 (9.57) G(ν) = α γ , ν dove il coefficiente di proporzionalità α è fortemente dipendente dalle caratteristiche del particolare componente elettronico. Questo rumore viene anche detto rumore rosa, per essere intermedio tra il rumore bianco, che, nella regione in cui è praticamente costante va, ovviamente, come 1/ν 0 , ed il rumore rosso, o rumore browniano, che va come 1/ν 2 . Il rumore 1/f , oltre che in elementi elettronici, appare anche in una varietà di fenomeni naturali, come la velocità della corrente negli oceani, lo scorrere della sabbia in una clessidra, nel flusso annuale del Nilo misurato negli ultimi 2000 anni, ed in altri esempi. Non esiste una spiegazione convincente per tutto il rumore 1/f che appare in queste situazioni fisiche molto diverse tra loro. 86 CAPITOLO 9. PROCESSI STOCASTICI 9.3.5 Fotoconteggi Questo è lo schema di un esperimento di conteggio di singoli fotoni: un fascio di luce incide su di un fotomoltiplicatore collegato, attraverso un’opportuna elettronica, ad un contatore che registra il numero degli impulsi generati dai singoli fotoni che sono stati rivelati. Un otturatore davanti al fotomopliplicatore controlla l’intervallo di tempo tm durante il quale il fascio di luce può raggiungere il fotocatodo. La misura viene ripetuta più volte, ed ogni volta è registrato il numero n degli impulsi dovuti ai fotoni rivelati durante il tempo tm . Si costruisce cosı̀ una distribuzione di probabilità W (tm , n) per il conteggio di n eventi durante l’intervallo di tempo tm . Se il fascio di radiazione è stazionario, la distribuzione statistica W (tm , n) contiene informazioni sulle proprietà statistiche della sorgente. Se chiamiamo w(t)dt la probabilità che il fotocatodo del nostro fotomoltiplicatore emetta un elettrone nell’intervallo di tempo (t, t + dt), in prima approssimazione possiamo scrivere w(t) dt = αI(t) dt, (9.58) dove I(t) è l’intensità del fascio all’istante t, la costante α rappresenta l’efficienza del tubo, e l’intervallo di tempo dt è supposto abbastanza lungo perché la teoria della probabilità di transizione sia valida, ma sufficientemente breve perché la probabilità di emissione di più di un elettrone sia trascurabile. La probabilità W (tm , n) si ottiene facendo la media dei conteggi ottenuti in un gran numero di misure, inizianti ognuna ad un diverso istante t, ed ognuna di durata tm . Consideriamo un determinato intervallo di conteggio (t, t + tm ), chiamiamo t + t′ un istante all’interno dell’intervallo, e dt′ un intervallino entro al quale possiamo considerare valida la (9.58): cioè, all’interno di dt′ può essere contato al massimo un fotone. Definiamo Wn (t, t′ + dt′ ) (9.59) la probabilità che n fotoni siano contati nell’intervallo (t, t + t′ + dt′ ). Questi n conteggi possono essere realizzati in due modi diversi: n − 1 nell’intervallo (t, t + t′ ) e 1 in dt′ , con probabilità Wn−1 (t, t′ ) w(t + t′ ) dt′ (9.60) con probabilità Wn (t, t′ )[1 − w(t + t′ ) dt′ ]. (9.61) oppure n nell’intervallo (t, t + t′ ) e 0 in dt′ , La probabilità totale sarà la somma delle due probabilità Wn (t, t′ + dt′ ) = Wn (t, t′ )[1 − w(t + t′ ) dt′ ] + Wn−1 (t, t′ ) w(t + t′ ) dt′ = Wn (t, t′ ) + w(t + t′ ) dt′ [Wn−1 (t, t′ ) − Wn (t, t′ )] Wn (t, t′ + dt′ ) − Wn (t, t′ ) = w(t + t′ ) dt′ [Wn−1 (t, t′ ) − Wn (t, t′ )] , (9.62) da cui otteniamo, dividendo per dt′ , dWn (t, t′ ) = w(t + t′ ) [Wn−1 (t, t′ ) − Wn (t, t′ )] = αI(t + t′ ) [Wn−1 (t, t′ ) − Wn (t, t′ )] . dt′ (9.63) 87 9.3. AUTOCORRELAZIONE E DENSITÀ SPETTRALE Quindi la probabilità di avere n conteggi nell’intervallo (t, t + t′ ) è legata alla probabilità di avere n − 1 conteggi nello stesso intervallo da un’equazione differenziale, e si può costruire una catena di equazioni differenziali che scende fino alla probabilità di avere zero conteggi. In questa catena di equazioni, quella per n = 0 è diversa dalle altre perché, ovviamente, non esiste la probabilità di avere −1 conteggi, quindi dW0 (t, t′ ) = −αI(t + t′ ) W0 (t, t′ ), dt′ (9.64) che può essere riscritta Z t+tm W0 (t, tm ) I(t′ )dt′ . = −α da cui, integrando, log W0 (t, 0) t (9.65) Imponendo la condizione iniziale che in un intervallo nullo si abbia la certezza di non avere conteggi W0 (t, 0) = 1 (9.66) dW0 (t, t′ ) = −αI(t + t′ )dt′ , W0 (t, t′ ) otteniamo W0 (t, tm ) = e−α R t+tm t I(t′ )dt′ . Se introduciamo l’intensità media della radiazione durante il tempo di conteggio Z t+tm 1 I(t′ ) dt′ I(t, tm ) = tm t (9.67) (9.68) possiamo scrivere W0 (t, tm ) = e−α tm I(t,tm ) . (9.69) I successivi Wn (t, tm ) possono essere determinati dalla catena di equazioni (9.63), cominciando con n = 1 ed ogni volta imponendo la condizione Wn (t, 0) = 0 ∀n 6= 0. (9.70) La soluzione generale risulta α I(t, tm ) tm Wn (t, tm ) = n! n e−αI(t,tm ) tm , (9.71) come può essere dimostrato per induzione. Infatti la (9.71) risolve la (9.63): n dWn (t, t′ ) d α I(t, tm ) t′ ′ = e−αI(t,tm ) t ′ ′ dt dt n! n−1 n n α I(t, tm ) t′ α I(t, tm ) tm −αI(t,tm ) t′ = − α I(t, tm )e α I(t, tm )e−αI(t,tm ) tm n! n! = α I(t, tm ) [Wn−1 (t, t′ ) − Wn (t, t′ )] , e, per n = 0, coincide con la (9.69). (9.72) 88 CAPITOLO 9. PROCESSI STOCASTICI La probabilità Wn (tm ) si ottiene mediando su di un grande numero di misure + * n αI(t, tm ) tm Wn (tm ) = hWn (t, tm )i = e−αI(t,tm ) tm . n! (9.73) Nel caso che I(t, tm ) sia indipendente da t e da tm possiamo porre I = I(t, tm ) (9.74) e scrivere hnin −hni e , n! dove hni è il numero medio dei conteggi nel tempo di misura tm Wn (tm ) = hni = α I tm . (9.75) (9.76) In queste condizioni abbiamo cosı̀ una distribuzione di Poisson. La distribuzione poissoniana, con deviazione quadratica media h(∆n)2 i = hni, può sembrare sorprendente se si pensa che questo risultato potrebbe essere stato ottenuto anche supponendo di avere una intensa radiazione incidente monocromatica, quindi sotto le condizioni richieste per l’applicazione della statistica di Bose-Einstein. 9.4 Equazione di Fokker-Planck Supponiamo di avere a che fare con un processo stocastico stazionario markoviano, per il quale P (x0 |x, τ ) dx è la probabilità che il valore della variabile stocastica sia nell’intervallo (x, x + dx) se τ secondi prima aveva il valore x0 . Se τ → 0, e continuiamo a fare l’ipotesi che l’andamento di x(t) sia stocastico, ma continuo, la x non ha il tempo di cambiare, per cui abbiamo lim P (x0 |x, τ ) = δ(x − x0 ), τ →0 (9.77) dove δ è la delta di Dirac. D’altra parte, se τ → ∞, e, come abbiamo detto, x è una variabile stocastica stazionaria, il suo valore perde ogni memoria del valore iniziale x0 , ed avremo lim P (x0 |x, τ ) = W1 (x). τ →∞ (9.78) Queste sono le condizioni agli estremi. Adesso consideriamo la situazione intermedia, cioè un valore di τ > 0 ma non sufficientemente grande perché si sia persa memoria del valore iniziale. Se poi aspettiamo un ulteriore tempo “infinitesimo” ∆τ ≪ τ , l’equazione di Smoluchowski può essere riscritta Z +∞ P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ. (9.79) P (x0 |x, τ + ∆τ ) = −∞ Adesso espandiamo il primo membro della (9.79) in serie di Taylor in ∆τ fino al primo ordine, ottenendo ∂P (x0 |x, τ ) P (x0 |x, τ + ∆τ ) ≈ P (x0 |x, τ ) + ∆τ (9.80) ∂τ 9.4. EQUAZIONE DI FOKKER-PLANCK 89 che può essere riscritta ∂P (x0 |x, τ ) ∆τ = P (x0 |x, τ + ∆τ ) − P (x0 |x, τ ) ∂τ Z +∞ = P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ − P (x0 |x, τ ). (9.81) −∞ Notare che, data la condizione di normalizzazione Z +∞ P (x|x − ξ, ∆τ ) dξ = 1, −∞ se moltiplichiamo P (x0 |x, τ ) per questo integrale nella (9.81), vediamo che la (9.81) stessa può anche essere scritta Z +∞ ∂P (x0 |x, τ ) P (x0 |x − ξ, τ ) P (x − ξ|x, ∆τ ) dξ ∆τ = ∂τ −∞ Z +∞ − P (x0 |x, τ )P (x|x − ξ, ∆τ ) dξ, (9.82) −∞ dove il primo integrale corrisponde ad un aumento di P (x0 |x, τ ), dovuto alla probabilità che il valore della variabile stocastica, che era passato da x0 ad un valore qualunque x − ξ 6= x dopo l’intervallo di tempo τ , sia passato al valore x a τ + ∆τ , mentre il secondo integrale corrisponde ad una diminuzione di P (x0 |x, τ ), dovuta alla probabilità che la variabile stocastica fosse già passata da x0 a x dopo τ , ma passi poi da x a x − ξ dopo l’ulteriore intervallo di tempo ∆τ . Tornando alla (9.81), non c’è bisogno di supporre che ξ sia piccola: essendo ∆τ “infinitesimo”, fissata x, P (x − ξ|x, ∆τ ) decresce molto rapidamente al crescere di ξ. Per questo ci interessa conoscere P (x0 |z, τ )P (z|z + ξ, δτ ) solo per valori di z molto vicini a x. Cosı̀ posto z = x − ξ, possiamo scrivere P (x0 |x − ξ, τ )P (x − ξ|x, ∆τ ) = P (x0 |z, τ )P (z|z + ξ, ∆τ )|z=x−ξ ∞ X (−ξ)n ∂ n = [P (x0 |x, τ )P (x|x + ξ, ∆τ )] n! ∂xn n=0 (9.83) ∂ 0 f (x + ξ) dove si è posto = f (x). La (9.81) diventa cosı̀ ∂x0 ξ=0 Z +∞ ∞ X (−1)n ∂ n ∂P (x0 |x, τ ) n P (x|x + ξ, ∆τ )ξ dξ − P (x0 |x, τ ). (9.84) P (x0 |x, τ ) ∆τ = n ∂τ n! ∂x −∞ n=0 Il termine della sommatoria con n = 0 è semplicemente P (x0 |x, τ ) perché l’integrale corrispondente è uguale a 1 per la condizione di normalizzazione della probabilità. Quindi il termine con n = 0 cancella il termine −P (x0 |x, τ ) della (9.84), e ci rimane Z +∞ ∞ ∂P (x0 |x, τ ) 1 X (−1)n ∂ n n P (x|x + ξ, ∆τ )ξ dξ . P (x0 |x, τ ) = ∂τ ∆τ n=1 n! ∂xn −∞ (9.85) 90 CAPITOLO 9. PROCESSI STOCASTICI Conviene introdurre i momenti di ordine n, definiti da Z +∞ h[∆x(∆τ )]n i 1 P (x|x + ξ, ∆τ ) ξ n dξ = , Mn = ∆τ −∞ ∆τ (9.86) dove h[∆x(∆τ )]n i = h[x(τ + ∆τ ) − x(τ )]n i. Otteniamo cosı̀ ∞ ∂P (x0 |x, τ ) X (−1)n ∂ n = [Mn P (x0 |x, τ )] . ∂τ n! ∂xn n=1 (9.87) ∂ 1 ∂2 ∂P (x0 |x, t) = − [M1 P (x0 |x, t)] + [M2 P (x0 |x, t)], ∂t ∂x 2 ∂x2 (9.88) Per molti casi di interesse, quando ∆τ → 0, abbiamo che h[∆x(∆τ )]n i → 0 più rapidente di ∆τ se n > 2. Pertanto i termini che coinvolgono Mn con n > 2 possono essere trascurati. Se invece momenti di ordine superiore al secondo non possono essere trascurati otteniamo un’equazione che coinvolge anche questi ultimi, detta equazione di Kramers-Moyal. Altrimenti abbiamo che è l’equazione di Fokker-Planck. In un caso semplice, che corrisponde a situazioni sperimentali abbastanza caratteristiche, i momenti possono essere scritti M1 (x) = −γx M2 (x) = 2D (9.89) per cui l’equazione di Fokker-Planck diventa ∂ ∂2 ∂P (x0 |x, t) =γ [xP (x0 |x, t)] + D 2 P (x0 |x, t), ∂t ∂x ∂x (9.90) il primo termine di questa equazione è detto termine di drift, ed il secondo termine di diffusione. Infatti, per D = 0 l’equazione di Fokker-Planck diventa ∂P (x0 |x, t) ∂ =γ [xP (x0 |x, t)] , ∂t ∂x (9.91) che è l’equazione di drift, mentre per γ = 0 diventa ∂P (x0 |x, t) ∂2 = D 2 P (x0 |x, t), ∂t ∂x (9.92) che è l’equazione di diffusione. 9.5 Moto browniano Consideriamo una particella macroscopica di massa m immersa in un liquido ad una temperatura T . Sulla particella agiscono sia una forza viscosa −γv che una forza aleatoria f (t). L’equazione del moto è quindi dv (9.93) m = f (t) − γv. dt 91 9.5. MOTO BROWNIANO Semplifichiamo l’equazione dividendo tutto per la massa m e introducendo le quantità F (t) = f (t) , m e α= γ , m (9.94) per cui l’equazione diventa dv = −αv + F (t) (9.95) dt Supponiamo che il comportamento della forza sia stocastico stazionario con media zero hF (t)i = 0, (9.96) e che per l’azione di F (t) corrisponda a collisioni di durata τc molto corta, cosı̀ che l’autocorrelazione possa essere scritta hF (t)F (t + τ )i = 2Cδ(τ ). (9.97) Un processo di questo tipo è markoviano. Per risolvere la (9.95) si risolve prima l’equazione omogenea associata dv = −αv, dt la cui soluzione generale è v = v0 e−αt , (9.98) poi si cerca una soluzione particolare dell’equazione completa. Proviamo a vedere se esiste una soluzione del tipo v(t) = w(t)e−αt , per la quale avremmo dw −αt e − αw e−αt = −αw e−αt + F (t), dt una cui soluzione particolare è w(t) = La soluzione completa della (9.95) è quindi v(t) = v0 e −αt Z quindi dw = F (t) eαt , dt (9.99) t ′ F (t′ ) eαt dt′ . (9.100) 0 +e −αt Z t ′ F (t′ ) eαt dt′ , (9.101) 0 dove v0 è la velocità a t = 0. Facendo la media delle velocità sull’ensemble abbiamo Z t ′ −αt −αt hv(t)i = v0 e +e hF (t′ )i eαt dt′ = v0 e−αt . | {z } 0 = 0 per la (9.96) (9.102) Calcoliamo il momento di primo ordine M1 (v) dalla (9.86) hv(t + ∆τ ) − v(t)i , ∆τ →0 ∆τ M1 (v) = lim (9.103) avremo hv(t + ∆τ ) − v(t)i = hv(t + ∆τ )i − hv(t)i = v0 e−α(t+∆τ ) − v0 e−αt = v0 e−αt e−α∆τ − 1 . (9.104) 92 CAPITOLO 9. PROCESSI STOCASTICI Essendo ∆τ un tempo infinitesimo possiamo approssimare e−α∆τ − 1 ≈ −α∆τ , ottenendo hv(∆τ ) − v0 i v0 α∆τ −αt = − lim e = −αv0 e−αt . ∆τ →0 ∆τ →0 ∆τ ∆τ M1 (v) = lim (9.105) Sempre dalla (9.86) possiamo calcolare il momento di secondo ordine M2 (v) Z +∞ h[v(∆τ ) − v0 ]2 i 1 [u − v0 ]2 P (v0 |u, ∆τ ) du = lim M2 (v0 ) = lim ∆τ →0 ∆τ →0 ∆τ −∞ ∆τ = hv 2 (∆τ )i − 2v0 hv(∆τ )i + v02 . ∆τ →0 ∆τ (9.106) lim Ricordiamo che, per le (9.101) e (9.96) hv(∆τ )i = v0 e −α∆τ +e −α∆τ Z ∆τ ′ eαt hF (t′ )i dt′ ≈ v0 (1 − α∆τ ), | {z } =0 0 mentre, per hv 2 (∆τ )i, abbiamo 2 hv (∆τ )i = v02 e−2α∆τ +e = −2α∆τ Z v02 e−2α∆τ +e −2α∆τ + 2e Z ∆τ ′ hv0 F (t′ )ieαt dt′ 0 ∆τ αt′ ′ e F (t )dt ′ 0 + 2e Z −2α∆τ −2α∆τ ∆τ αt′ e dt 0 ′ Z (9.107) Z ∆τ e αt′′ ′′ F (t )dt 0 ′′ ∆τ ′ hv0 F (t′ )ieαt dt′ 0 Z ∆τ ′′ eαt dt′′ hF (t′ )F (t′′ )i. 0 (9.108) Se il sistema ha una memoria molto breve (cioè un tempo di correlazione molto piccolo), mentre resterà comunque hv(t)F (t)i 6= 0, in generale avremo e hF (t′ )F (t′′ )i = 0 se t′ 6= t′′ . hv0 F (t)i = v0 hF (t)i = 0, (9.109) Quindi hv (∆τ )i = v02 e−2α∆τ = v02 e−2α∆τ 2 +e −2α∆τ + 2Ce Z ∆τ 0 −2α∆τ = v02 e−2α∆τ + 2Ce−2α∆τ Z Z ∆τ ′ 0 ∆τ ′′ hF (t′ )F (t′′ )i eα(t +t ) dt′ dt′′ {z } | = 2Cδ(t′ − t′′ ) ′ e2αt ) dt′ 0 e2α∆τ − 1 C = v02 e−2α∆τ + 1 − e−2α∆τ 2α α ≈ v02 (1 − 2α∆τ ) + 2C∆τ. (9.110) 93 9.5. MOTO BROWNIANO Inserendo nella (9.106) otteniamo M2 (v(0)) = = 1 2 v0 (1 − 2α∆τ ) + 2C∆τ − 2v02 (1 − α∆τ ) + v02 ∆τ →0 ∆τ lim 1 2C∆τ = 2C. ∆τ →0 ∆τ (9.111) lim Calcoliamo il valor medio sull’ensemble di v(t)F (t) Z t −αt −αt αt′ ′ ′ hv(t)F (t)i = v0 e +e e F (t ) dt F (t) 0 = e −αt = 2C. hv0 F (t)i +e | {z } =0 −αt Z t αt′ 0 ′ ′ e hF (t)F (t )i dt = e −αt Z t ′ 0 eαt 2Cδ(t − t′ ) dt′ (9.112) Ritorniamo all’equazione di Fokker-Planck (9.90), che nel nostro caso possiamo scrivere ∂ ∂2 ∂P (v0 |v, t) = −α [v P (v0 |v, t)] + C 2 P (v0 |v, t) ∂t ∂v ∂v (9.113) Data la condizione iniziale a δ di Dirac lim P (v0 |v, t) = δ(v − v0 ), la soluzione è t→0 P (v0 |v, t) = r 1 e C 2π (1 − e−2αt ) α − " −αt 2 (v − v0 e ) 2 Cα (1 − e−2αt ) # , (9.114) che, al limite t → ∞, ovvero t ≫ 1/α, diventa P (v0 |v, t) ≈ r 1 C 2π α e−v 2 /(2C/α) . (9.115) Questo limite è indipendente da v0 , quindi dalle condizioni iniziali, ed è scomparsa anche la dipendenza dal tempo. Quindi se, dopo aver perturbato il sistema, aspetto un tempo grande rispetto a 1/α, il sistema torna ad una situazione stazionaria. Tra i possibili stati stazionari, uno è quello di equilibrio termodinamico, in cui la distribuzione delle velocità coincide con la distribuzione di Maxwell-Boltzmann P (v) = A e−mv 2 /2kT , (9.116) dove A è una costante di normalizzazione. Uguagliando i coefficienti otteniamo v2 mv 2 , = 2kT 2 Cα da cui C = kT α , m α= m C kT (9.117) 94 CAPITOLO 9. PROCESSI STOCASTICI che è la relazione di Einstein tra il termine di fluttuazione C e il termine dissipativo α. Ricordando le (9.94), da cui γ = mα e f (t) = mF (t), e introducendo D = m2 C, abbiamo γ= D , kT D = kT γ. (9.118) Notiamo poi che hF (t)F (t + τ )i = 2Cδ(τ ), da cui hf (t)f (t + τ )i = m2 hF (t)F (t + τ )i = 2Dδ(τ ). (9.119) Capitolo 10 Interazione radiazione-materia, II 10.1 Perturbazioni dipendenti dal tempo 10.1.1 Introduzione Supponiamo di avere un sistema quantistico limitato spazialmente e isolato, descritto da una certa hamiltoniana indipendente dal tempo Ĥ0 . Gli autostati di Ĥ0 sono numerabili e formano una base ortonormale e completa {|ni} dello spazio di Hilbert relativo al nostro sistema. Ad ogni autostato |ni corrispondono un autovalore dell’energia En ed un’autofunzione d’onda ϕn (q1 , . . . , qf ). Nella rappresentazione di Schrödinger, in cui gli operatori sono costanti mentre gli stati evolvono nel tempo, fintanto che il sistema rimane isolato gli autostati |ni sono stazionari, cioè dipendono dal tempo secondo la relazione |n(t)i = e−iEn t/~ |ni. Adesso supponiamo che il nostro sistema interagisca con un sistema esterno per un certo intervallo di tempo τ . L’hamiltoniana completa del sistema diventa F̂ (t) se 0 ≤ t ≤ τ Ĥ = Ĥ0 + V̂ (t), con V̂ (t) = (10.1) 0 se t < 0 oppure t > τ, dove la forma di F̂ (t) dipende dalla particolare interazione con il particolare sistema esterno. L’operatore V̂ (t) si chiama hamiltoniana di perturbazione, mentre l’operatore Ĥ0 si chiama hamiltoniana imperturbata. Qui e in quanto segue faremo l’ipotesi che gli elementi diagonali di F̂ , e quindi di V̂ , siano nulli. L’equazione di Schrödinger dipendente dal tempo diventa h i ∂ i~ |ψ(t)i = Ĥ0 + V̂ (t) |ψ(t)i, (10.2) ∂t e non ha soluzioni stazionarie. Ma, naturalmente, gli stati {|ni} continuano a costituire una base ortonormale e completa per il nostro spazio di Hilbert. Nei casi più semplici F̂ (t) dipende dal tempo attraverso un parametro esterno, come la distanza interatomica durante una collisione, o l’intensità e la frequenza di un campo oscillante nel caso dell’interazione con un’onda elettromagnetica. 10.1.2 Probabilità di transizione Per risolvere la (10.2) sfruttiamo il fatto che gli autostati dell’hamiltoniana imperturbata continuano a costituire una base completa anche in presenza della perturbazione, quindi, qualunque 95 96 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II sia lo stato |ψ(t)i del sistema, possiamo sempre scrivere X |ψ(t)i = an (t)e−iEn t/~ |ni, (10.3) n dove le an (t) sono delle funzioni complesse del tempo da determinare caso per caso, dette ampiezze di probabilità. Senza perdita di generalità, da ogni ampiezza abbiamo estratto in forma esplicita il fattore e−iEn t/~ perché cosı̀, in assenza di perturbazione, le an (t) sono costanti nel tempo. Adesso facciamo l’ulteriore ipotesi che per t < 0, cioè prima che venga “accesa” la perturbazione, il sistema si trovi nello stato stazionario |mi con energia Em . Quindi, per t < 0, la (10.3) si scrive |ψi (t)i = e−iEm t/~ |mi, con an (t) = δmn . (10.4) Dopo che l’interazione è stata spenta, cioè per t ≥ τ , i coefficienti an in generale saranno diversi da δmn , ma sono comunque nuovamente indipendenti dal tempo. Ognuna di esse avrà un valore an (τ ), dipendente dallo stato iniziale |mi, dal tipo di perturbazione F̂ (t) applicata, e dal tempo τ durante il quale la perturbazione ha agito. Quindi lo stato finale del sistema sarà X |ψf (t)i = an (τ ) e−iEn t/~ |ni, t ≥ τ. (10.5) n La probabilità di trovare il sistema nello stato |ni vale Pn (τ ) = |an (τ )|2 , (10.6) quindi la quantità |an (τ )|2 è la probabilità che, nel tempo τ , il sistema abbia fatto la transizione dallo stato iniziale |mi allo stato finale |ni. Per determinare i coefficienti an (τ ) sostituiamo lo sviluppo (10.3) nella (10.2), e svolgiamo i passaggi che seguono, h iX ∂ X −iEr t/~ i~ ar e |ri = Ĥ0 + V̂ (t) an e−iEn t/~ |ni ∂t r n i~ r i~ X r X X Er − i ar e−iEr t/~ |ri = an e−iEn t/~ En |ni + an e−iEn t/~ V̂ (t)|ni ∂t ~ n n X ∂ar e−iEr t/~ X X X ∂ar |ri + ar e−iEr t/~ Er |ri = an e−iEn t/~ En |ni + an e−iEn t/~ V̂ (t)|ni ∂t r n n i~ X n e−iEr t/~ X ∂ar |ri = an e−iEn t/~ V̂ (t)|ni. ∂t n (10.7) Nell’ultima delle (10.7) moltiplichiamo primo e secondo membro a sinistra per hk| eiEk t/~ , dove |ki è un qualunque autostato di Ĥ0 , e dividiamo entrambi i membri per i~, ottenendo 1 X ∂ak = an e−i(En −Ek )t/~ hk|V̂ (t)|ni. ∂t i~ n (10.8) Fino a questo punto non abbiamo fatto approssimazioni. E’ possibile, in linea di principio, integrare le equazioni e giungere ad una soluzione esatta. Questo si può fare facilmente se ci 97 10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO sono solo due livelli energetici in gioco, e la soluzione cosı̀ ottenuta è utile per trattare problemi simili, per esempio, a quello dell’inversione dell’ammoniaca. Nel paragrafo 10.5 vedremo invece il casodi un sistema atomico a due livelli in interazione forte con il campo elettromagnetico. Ma nel caso generale si preferisce procedere per approssimazioni successive, con un metodo detto perturbativo, ponendo (1) (2) an (τ ) = a(0) n + an (τ ) + an (τ ) + . . . , con an (τ ) = δmn . Tenendo conto dell’ipotesi (10.4), conviene separare il termine inizialmente non nullo am dal resto della sommatoria della (10.8), scrivendo " # X 1 ∂ak am e−i(Em −Ek )t/~ hk|V̂ (t)|mi + an e−i(En −Ek )t/~ hk|V̂ (t)|ni . (10.9) = ∂t i~ n6=m Se, come ipotizzato, la perturbazione è piccola, gli an (t) sono poco diversi dai corrispondenti an (0), quindi tutti gli an (t) con n 6= m sono piccoli rispetto a am (t) ≈ 1. Questo ci porta a trascurare, come prima approssimazione, la sommatoria all’interno della parentesi quadra, e ci rimane ∂ak 1 = e−i(Em −Ek ) t/~ hk|V̂ (t)|mi, (10.10) ∂t i~ (1) che può essere integrata, ottenendo per il valore al primo ordine dell’ampiezza ak (τ ) alla fine dell’interazione Z 1 τ (1) ak (τ ) = dt e−i(Em −Ek ) t/~ hk|V̂ (t)|mi. (10.11) i~ 0 (1) E’ da notare che am (τ ) = 0, perché abbiamo fatto l’ipotesi che V̂ (t) sia diagonale su {|ni}, quindi hm|V̂ (t)|mi = 0. Se si desidera un’approssimazione migliore di quella al primo ordine, il secondo ordine si ottiene non trascurando più la sommatoria della (10.9), ma sostituendo in (1) essa gli an (t) con i loro valori al primo ordine an (t) " # X 1 ∂ak −i(En −Ek )t/~ = a(0) e−i(Em −Ek ) t/~ hk|V̂ (t)|mi + a(1) hk|V̂ (t)|ni (10.12) n e ∂t i~ m n6=m Integrando, il primo addendo dentro alla parentesi quadra ci ridà l’ampiezza al primo ordine (1) (2) ak (τ ), mentre il secondo addendo ci dà l’ampiezza al secondo ordine ak (τ ) Z 1 X τ (1) (2) ak (τ ) = a (t) e−i(En −Ek ) t/~ hk|V̂ (t)|ni dt. (10.13) i~ n6=m 0 n (1) Sostituendo il valore (10.11) per an (t) nella (10.13) otteniamo Z t Z 1 X τ ′ (2) −i(En −Ek ) t/~ dt′ e−i(Em −En ) t /~ hn|V̂ (t′ )|mi. dt e hk|V̂ (t)|ni ak (τ ) = − 2 ~ n6=m 0 0 (10.14) Le approssimazioni di ordine superiore possono essere ottenute iterativamente, sostituendo le ampiezza calcolate fino all’ordine j nella (10.9) ed integrando per ottenere l’ordine j + 1. E’ da notare che la (10.14) descrive effettivamente un processo al secondo ordine, con il sistema che passa prima dallo stato iniziale |mi ad uno stato intermedio |ni, per poi passare da |ni allo stato finale |ki. Se gli elementi di matrice hf |V̂ |ii sono piccoli, la (10.11) ci dà un’espressione al primo ordine negli elementi di matrice di V̂ , mentre la (10.14) è al secondo ordine. 98 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II 10.1.3 Perturbazioni costanti Un caso particolarmente semplice è quello in cui l’hamiltoniana di perturbazione V̂ , nulla per t < 0 e per t > τ , è rappresentata da un operatore costante nel tempo (cioè, con elementi di matrice costanti) F̂ , durante l’intervallo 0 ≤ t ≤ τ . In questo caso, sempre con l’ipotesi che lo stato iniziale sia l’autostato |mi di Ĥ0 , possiamo portare fuori dall’integrale della (10.11) l’elemento di matrice costante, ottenendo (1) ak (τ ) 1 = hk|F̂ |mi i~ Z τ 0 1 eiωkm τ − 1 eiωkm t dt = − hk|F̂ |mi ~ ωkm (10.15) dove abbiamo posto ωkm = (Ek − Em )/~. Quindi, una volta spenta la perturbazione, la probabilità che il sistema sia passato dallo stato iniziale |mi allo stato finale |ki è 2 [1 − cos(ω τ )] 2 (1) 2 km Pkm = ak (τ ) = 2 hk|F̂ |mi , 2 ~ ωkm ponendo γkm = ωkm Ek − Em = 2 2~ (10.16) (10.17) abbiamo 1 − cos(ωkm τ ) = 1 − cos(2γkm τ ) = cos2 (γkm τ ) + sin2 (γkm τ ) − cos(2γkm τ ) = cos2 (γkm τ ) + sin2 (γkm τ ) − cos2 (γkm τ ) + sin2 (γkm τ ) = 2 sin2 (γkm τ ), (10.18) da cui 2 2 sin2 (γ τ ) 2 4 sin2 (γ τ ) 1 2 km km = hk| F̂ |mi hk| F̂ |mi 2 2 2 2 ~ ωkm ~ 4γkm γ τ km 2 2 sin π 1 1 2 sin (γkm τ ) 2 2 π = 2 hk|F̂ |mi τ = 2 hk|F̂ |mi 2 2 γ τ2 ~ γkm ~ π 2 km2 π 2 2 1 1 2 2 2 γkm τ 2 (Ek − Em ) τ = 2 hk|F̂ |mi τ sinc = 2 hk|F̂ |mi τ sinc ~ π ~ 2π~ 2 1 Ek − Em 2 2 = 2 hk|F̂ |mi τ sinc τ , (10.19) ~ h Pkm = dove la funzione sinc2 (x), il cui grafico è rappresentato in fig. 10.1, è il quadrato della funzione sinc(x) che abbiamo incontrato nel paragrafo 8.4. 99 10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO sinc2 (x) La funzione è simmetrica e sempre positiva, e ha un massimo per x = 0, dove vale 1. Si annulla per tutti i valori interi di x, tranne x = 0. La regione compresa tra il massimo e il primo zero ha ampiezza x h ∆E = , τ −7 (10.20) −6 −5 −4 −3 −2 −1 1 2 3 4 5 6 7 Figura 10.1: La funzione sinc2 (x). per cui, se il tempo di interazione τ è molto lungo, l’ampiezza ∆E è molto stretta. Ricordando che Z +∞ π sinc2 (ax) dx = a −∞ (10.21) otteniamo τ πh Z +∞ −∞ τ sinc2 x dx = 1, h da cui lim τ →∞ τ τ sinc2 (x ) = δ(x). πh h δτ (x) Adesso definiamo la funzione δτ (x), graficata in fig. 10.2, τ τ 2 δτ (x) = sinc x . (10.23) πh h (10.22) τ πh La funzione δτ (x) ha le proprietà Z +∞ δτ (x) dx = 1 −∞ e lim δτ (x) = δ(x). τ →∞ Abbiamo cosı̀ τ πh δτ (x), = sinc2 x h τ x − hτ (10.24) h τ Figura 10.2: La funzione δτ (x). che, inserita nella (10.19), ci dà Pkm = 2π 2 ~ 2 hk| F̂ |mi τ δτ (Ek − Em ). (10.25) Nella (10.25) la funzione δτ (Ek − Em ) esprime la conservazione dell’energia con una indeterminazione h/τ , legata alla durata finita dell’interazione. Se abbiamo una hamiltoniana di perturbazione costante nel tempo e di durata infinita, la conservazione dell’energia ci permette di raggiungere solo stati finali |ki che abbiano la stessa energia dello stato iniziale |mi. 100 10.1.4 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II Perturbazioni periodiche ndexPeriodiche, perturbazioni Un secondo caso importante è quello delle perturbazioni periodiche nel tempo. Qui abbiamo una hamiltoniana di perturbazione della forma + −iωt F̂ e + F̂ − e+iωt se 0 ≤ t ≤ τ V̂ (t) = (10.26) 0 se t < 0 oppure t > τ, dove F̂ è una matrice costante nel tempo. L’hamiltoniana deve essere hermitiana, quindi sarà F̂ − = (F̂ + )† , ovvero ha|F̂ − |bi = hb|F̂ + |ai∗ ∀ a, b. (10.27) Ancora una volta supponiamo che prima dell’accensione della perturbazione il sistema si trovi nell’autostato |mi di Ĥ0 . Se nella (10.11) poniamo ωkm = (Ek − Em )/~ e sostituiamo la (10.26) per V̂ nell’integrale a secondo membro, otteniamo Z 1 τ (1) ak (τ ) = dt eiωkm t hk|F̂ + e−iωt + F̂ − e+iωt |mi i~ 0 Z τ Z τ 1 i(ωkm +ω)t i(ωkm −ω)t − + dt e dt e + hk|F̂ |mi hk|F̂ |mi = i~ 0 0 " # i(ωkm +ω)τ i(ωkm −ω)τ 1 e − 1 e − 1 = − hk|F̂ + |mi + hk|F̂ − |mi . (10.28) ~ ωkm − ω ωkm + ω La probabilità di transizione al primo ordine si ottiene calcolando il modulo quadro della (10.28). Esistono due casi particolari di interesse, uno quando ω ≈ ωkm , e l’altro quando ω ≈ −ωkm . Nel primo caso abbiamo Ek > Em , cioè lo stato finale |ki ha energia maggiore dello stato iniziale |mi, e ω ≈ (Ek − Em )/~. Essendo |ωkm − ω| molto piccolo, il primo termine tra parentesi quadra è dominante rispetto al secondo, che può essere trascurato: questa è l’approssimazione di onda rotante. Abbiamo cosı̀ ei(ωkm −ω) τ − 1 1 (1) ak (τ ) ≈ − hk|F̂ + |mi ~ ωkm − ω (10.29) In questa approssimazione abbiamo, con procedimento analogo a quello della (10.18) 2 h 1 τi (1) 2 2 + 2 Pkm (τ ) = ak (τ ) ≈ 2 hk|F̂ |mi τ sinc (Ek − Em − hν) ~ h 2 2π 2 + = hk| F̂ |mi (10.30) τ δτ (Ek − Em − hν). ~ Quindi, partendo da uno stato iniziale |mi con energia Em , si arriva ad uno stato finale |ki di energia Ek = Em + ~ω entro i limiti dell’indeterminazione tempo-energia. E’ da notare che, se il sistema fosse stato inizialmente nello stato a energia più alta |ki, dato la (10.30) 2 ci avrebbe 2 + + la probabilità di transizione allo stato più basso |mi, dato che hk|F̂ |mi = hm|F̂ |ki . 10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO 101 Ripetendo i conti nell’altro caso di interesse, cioè per Ek < Em e ω ≈ −ωkm , questa volta è |ωkm + ω| ad essere molto piccolo rispetto a |ωkm − ω|, ed è il primo termine della parentesi quadra della (10.28) che può essere trascurato, ottenendo Pkm (τ ) ≈ 2 2π 2 hk|F̂ − |mi τ δτ (Em − Ek − hν), ~ (10.31) che ci dà la probabilità di transizione allo stato |mi o allo stato |ki, a seconda di quale era lo stato iniziale. E’ da notare che, data la (10.27), abbiamo 2 2 (10.32) hk|F̂ − |mi = hk|F̂ + |mi . Ad una perturbazione periodica sono quindi associati quanti di energia di valore ~ω = hν. Nelle transizioni si ha conservazione dell’energia entro l’indeterminazione tempo-energia, tenendo conto anche dell’assorbimento o dell’emissione di un quanto. E’ importante notare che siamo giunti a questo risultato trattando come quantizzati i livelli energetici del nostro sistema materiale, ma senza quantizzare esplicitamente la radiazione. Questo è il cosiddetto trattamento semiclassico dell’interazione radiazione-materia. E’ infine da notare che le perturbazioni costanti nel tempo, discusse nella sezione 10.1.3, sono un caso particolare delle perturbazioni periodiche, con frequenza angolare ω = 0. 10.1.5 Transizioni in uno spettro continuo Un sistema quantistico limitato spazialmente ha uno spettro discreto di autovalori dell’energia, mentre se il sistema non è limitato lo spettro degli autovalori dell’energia è continuo. Un’applicazione importante della teoria delle perturbazioni è il calcolo della probabilità di transizione tra stati dello spettro continuo. Gli stati dello spettro continuo sono quasi sempre degeneri, e questo rende possibile la transizione tra uno stato iniziale ed uno stato finale della stessa energia dovuto ad una perturbazione costante. Un esempio è costituito da un fenomeno di scattering, in cui una particella cambi la direzione di propagazione conservando l’energia. Un altro caso di interesse è quando una perturbazione periodica del tipo (10.26) induce una transizione da uno stato iniziale discreto |mi ad uno stato finale |αi dello spettro continuo, con Eα > Em . Naturalmente, α varia con continuità. Analogamente alla (10.3) per il caso dello spettro discreto, adesso uno stato generico |ψi del sistema può essere scritto Z |ψ(t)i = dα aα (t)e−iEα t/~ |αi (10.33) dove gli |αi costituiscono una base ortonormale completa nel continuo. La condizione di normalizzazione degli stati impone che sia Z |aα |2 dα = 1. (10.34) La (10.28) si riscrive a(1) α (τ ) ≈ 1 ei(ωαm −ω)τ − 1 hα|F̂ + |mi i~ i(ωαm − ω) (10.35) 102 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II perché il termine contenente l’elemento di matrice hα|F̂ − |mi può essere trascurato, essendo ωαm = (Eα − Em )/~ > 0. Inoltre alla transizione saranno interessati solo gli stati |αi del continuo con energia Eα ≈ Em + ~ω. Per la probabilità di transizione avremo 2 h 1 τi Pαm (τ ) ≈ 2 hα|F̂ + |mi τ 2 sinc2 (Eα − Em − hν) , (10.36) ~ h che possiamo riscrivere 2 2π 2 (10.37) Pαm = hα|F̂ |mi τ δτ (Eα − Em − hν). ~ La quantità dwαm = Pαm (τ ) dα/τ esprime la probabilità di transizione per unità di tempo dallo stato iniziale |mi ad uno stato nell’intervallo (α, α + dα). Abbiamo 2 2π 2 (10.38) dwαm = hα|F̂ |mi δτ (Eα − Em − hν) dα. ~ Come potevamo attenderci, al limite τ → ∞ la probabilità di transizione è zero tranne che per gli stati con energia esattamente uguale a Eα = Em + ~ω. 10.1.6 Regola d’oro di Fermi Spesso esiste una distribuzione di autostati dell’hamiltoniana imperturbata molto vicini in energia tra loro, e la transizione che ci interessa avviene dallo stato iniziale |mi alla distribuzione di possibili stati finali. La situazione diventa quindi analoga a quanto visto nel paragrafo 10.1.5 sulle transizioni allo spettro continuo. La distribuzione degli stati finali sarà caratterizzata da una densità normalizzata ρ(Ek ), cioè il numero dn(Ek ) di autostati di Ĥ0 con energia compresa tra Ek ed Ek + dEk sarà Z dn(Ek ) = C ρ(Ek )dEk , con C tale che ρ(Ek ) dEk = 1. (10.39) Facciamo l’ipotesi che la distribuzione ρ(Ek ) sia centrata attorno ad un certo valore centrale E k , con una certa larghezza ∆Ek = ~∆ωk . Facciamo inoltre l’ipotesi che sia ρ(Ek ) che l’elemento di matrice hk|V̂ |mi varino lentamente attorno allo stato centrale della distribuzione. Quello che ci interessa è la probabilità di transizione totale dallo stato iniziale |mi agli stati |k ′ i attorno a |ki X Pk′ m . (10.40) P km = k′ La somma può essere sostituita da un integrale in dEk , ottenendo Z 2 2π 2 P km = hk|F̂ |mi τ δτ (Ek − Em − ~ω)ρ(Ek ) dEk ~ (10.41) nel caso di una perturbazione periodica di frequenza ω. Per una perturbazione costante durante il tempo di accensione basta porre ω = 0. Se l’elemento di matrice hk|F̂ |mi non varia troppo rapidamente può essere portato fuori dall’integrale ottenendo 2 Z 2π 2 (10.42) P km = hk|F̂ |mi τ δτ (Ek − Em − ~ω)ρ(Ek ) dEk . ~ Esistono due casi estremi in cui il calcolo dell’integrale (10.42) è particolarmente facile: 10.1. PERTURBAZIONI DIPENDENTI DAL TEMPO 103 i. quando la larghezza ∆Ek della funzione di distribuzione ρ(Ek ) è molto maggiore della larghezza in energia della δτ ; ii. quando la larghezza ∆Ek della funzione di distribuzione ρ(Ek ) è molto minore della larghezza in energia della δτ . Consideriamo prima il caso (i). La larghezza in energia della δτ , cioè h/τ , è molto minore di ∆Ek , quindi h h 1 2π ≪ ∆Ek , da cui τ ≫ = = . (10.43) τ ∆Ek ∆νk ∆ωk Quindi, la perturbazione è accesa per un tempo lungo. In questo caso la densità degli stati è praticamente costante su tutto l’intervallo in cui la δτ è significativamente diversa da zero, e la ρ(Ek ) può essere calcolata sul valore centrale dell’energia E k e portata fuori dall’integrale: P km Z 2 2π 2 = hk|F̂ |mi ρ(E k ) τ δτ (Ek − Em − ~ω) dEk ~ = 2 2π 2 hk|F̂ |mi ρ(E k ) τ ~ (10.44) dove abbiamo usato il fatto che l’intervallo di integrazione è sufficientemente lungo perché l’integrale della δτ sia praticamente 1. Questa espressione per P km è conosciuta sotto il nome di regola d’oro di Fermi. La probabilità di transizione P km della (10.44) è proporzionale alla durata dell’interazione τ , ed è possibile definire una probabilità di transizione per unità di tempo W km 2 P km 2π 2 W km = (10.45) = hk|F̂ |mi ρ(E k ). τ ~ Il secondo caso in cui è facile il calcolo dell’integrale della (10.42) è quando la larghezza della distribuzione degli stati finali è molto stretta rispetto alla larghezza in energia della δτ , cioè quando h h 1 2π ≫ ∆Ek , da cui τ ≪ = = . (10.46) τ ∆Ek ∆νk ∆ωk In questo caso è la funzione δτ che può essere considerata costante nell’intervallo di energia dove la densità degli stati è apprezzabilmente diversa da zero. La (10.42) si riscrive cosı̀ P km Z 2 2π 2 = hk|F̂ |mi τ δτ (Ek − Em − ~ω) ρ(Ek ) dEk , ~ (10.47) che, data la condizione di normalizzazione sulla ρ(Ek ) diventa 2 2 1 Ek − Em − ~ω 2 2 P km τ . hk|F̂ |mi τ δτ (Ek − Em − ~ω) = 2 hk|F̂ |mi τ sinc ~ h (10.48) Questa espressione è valida per tempi di interazione τ brevi. 2π 2 = ~ 104 10.2 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II Perturbazioni periodiche al secondo ordine In presenza di una perturbazione periodica di frequenza ω del tipo (10.26) le ampiezze di probabilità di transizione al primo ordine dallo stato iniziale |mi ad uno stato finale |ni sono, secondo la (10.29), ei(ωnm ∓ω) t − 1 1 ± hn| F̂ |mi , (10.49) a(1) (t) ≈ n i~ i(ωnm ∓ ω) dove nei simboli ± e ∓ vale il segno superiore se En > Em e la frequenza ω della perturbazione è in prossimità di (En − Em )/~, il segno inferiore se En < Em e ω ≈ (Em − En )/~. Abbiamo visto (1) che per ω lontana da questi valori l’ampiezza an (t) è trascurabile. Per ottenere l’ampiezza al secondo ordine sostituiamo la (10.49) nella (10.13) ottenendo (2) ak (τ ) Z ei(ωnm ∓ω) t − 1 −i(En −Ek ) t/~ 1 X τ ± hn|F̂ |mi = − 2 e hk|V̂ (t)|ni dt ~ n6=m 0 i(ωnm ∓ ω) Z 1 X τ ei(ωnm ∓ω) t − 1 iωkn t ± = − 2 hn|F̂ |mi e hk|F̂ ± |ni e∓iωt dt ~ n6=m 0 i(ωnm ∓ ω) Z i X hk|F̂ ± |nihn|F̂ ± |mi τ i(ωnm ∓ω) t e − 1 ei(ωkn ∓ω) t dt, = 2 ~ n6=m ωnm ∓ ω 0 (10.50) dove va tenuto presente che nell’elemento di matrice hf |F̂ ± |ii compare F̂ + se Ef > Ei , altrimenti compare F̂ − . Anche negli esponenti all’interno dell’integrale va preso il segno superiore se, rispettivamente, Ek > En oppure En > Em , il segno inferiore altrimenti. Di questo dobbiamo tener conto sviluppando il prodotto all’interno dell’integrale. Supponendo che sia Ek > Em , possiamo spezzare la sommatoria su n in tre parti, a seconda che l’energia dello stato |ni sia minore di Em (En < Em ), compresa tra Em ed Ek (Em < En < Ek ) o maggiore di Ek (En > Ek ) (2) ak (τ ) i = 2 ~ X hk|F̂ + |nihn|F̂ − |mi ωnm + ω n6=m En <Em i + 2 ~ X n6=m Em <En <Ek i + 2 ~ X n6=m En >Ek Z τ 0 hk|F̂ + |nihn|F̂ + |mi ωnm − ω hk|F̂ − |nihn|F̂ + |mi ωnm − ω Z τ 0 eiωkm t − ei(ωkn −ω)t dt Z τ 0 ei(ωkm −2ω) t − ei(ωkn −ω)t dt eiωkm t − ei(ωkn +ω)t dt, (10.51) dove nel primo addendo del secondo membro è negativa ωnm , mentre nell’ultimo addendo è negativa ωkn . Il caso Ek < Em si ottiene dalla (10.51) con opportuni cambiamenti di segno. 105 10.2. PERTURBAZIONI PERIODICHE AL SECONDO ORDINE Per gli integrali che appaiono nella (10.51) abbiamo Z τ 0 ei(ωkm −2ω) τ − 1 ei(ωkn −ω) τ − 1 − , ei(ωkm −2ω) t − eiωkn −ω dt = i(ωkm − 2ω) i(ωkn − ω) Z τ 0 da cui (2) ak (τ ) eiωkm τ − 1 ei(ωkn ∓ω) τ − 1 eiωkm t − eiωkn ∓ω dt = − , iωkm i(ωkn ∓ ω) 1 X = 2 ~ E <E n 1 + 2 ~ m hk|F̂ + |nihn|F̂ − |mi ωnm + ω X Em <En <Ek " hk|F̂ + |nihn|F̂ + |mi ωnm − ω 1 X hk|F̂ − |nihn|F̂ + |mi + 2 ~ E >E ωnm − ω n k eiωkm τ − 1 ei(ωkn −ω) τ − 1 − ωkm (ωkn − ω) " " (10.52) # ei(ωkm −2ω) τ − 1 ei(ωkn −ω) τ − 1 − (ωkm − 2ω) (ωkn − ω) # eiωkm τ − 1 ei(ωkn +ω) τ − 1 . − ωkm (ωkn + ω) # (10.53) E’ da notare che, data la presenza di due addendi in ogni parentesi quadra, nella (10.53) compaiono in realtà 6 sommatorie. Per il calcolo della probabilità di transizione al secondo ordine dobbiamo tener conto delle ampiezza di probabilità sia al primo ordine che al secondo ordine: 2 (1) (2) (12) (10.54) Pkm = akm + akm . (12) (2) Lo sviluppo di Pkm è cosı̀ decisamente complesso, data l’espressione (10.53) per akm . Ma vedremo che considerazioni sulla conservazione dell’energia porteranno a trascurare vari termini dello sviluppo della (10.54), in particolare i “termini di interferenza”, nella maggior parte dei casi di interesse fisico. Cominciamo considerando, separatamente, i moduli quadri dei primi addendi all’interno delle parentesi quadre della (10.53) che, essendo indipendenti da n, possono essere portati fuori dalle sommatorie. Se questi fossero gli unici termini che contribuiscono alla transizione, con procedimento analogo a quello che ci ha portati alla (10.25), otterremmo per (12) (12) la probabilità di transizione per unità di tempo Wkm = Pkm /τ (12) Wkm 2 2π X hk|F̂ ± |nihn|F̂ ∓ |mi = 3 δτ (Ek − Em ) ~ ωnm ± ω En <Em En >Ek (10.55) come somma dei termini alla prima e alla terza riga della (10.53). La presenza di δτ (Ek − Em ) ci dice che questa espressione contribuisce significativamente solo se l’energia dello stato finale è molto vicina all’energia dello stato iniziale. Questo è dovuto alla presenza del prodotto di elementi di matrice hk|F̂ ± |nihn|F̂ ∓ |mi, che comporta l’assorbimento di un quanto di energia 106 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II ~ω e la sua successiva riemissione, o il processo in ordine inverso, finendo in uno stato con la stessa energia dello stato iniziale. Consideriamo adesso il primo addendo dentro alla parentesi quadra della seconda riga della (10.53). Se questo fosse l’unico a contribuire avremmo 2 X + + 2π hk| F̂ |nihn| F̂ |mi (12) Wkm = 3 (10.56) δτ (Ek − Em − 2~ω). ~ ωnm − ω Em <En <Ek La funzione δτ ci dà la conservazione dell’energia, entro il limite dell’indeterminazione energia-tempo, dallo stato iniziale |mi allo stato finale |ki con l’assorbimento di due quanti di energia ~ω ~ω. La variazione dell’energia avviene applicando due volte l’operatore F̂ + di interazione con il campo elettromagnetico, per cui |ni sono assorbiti due quanti, ognuno di energia ~ω, come schema~ω tizzato in fig. 10.3. Questo fenomeno era stato previsto nel 1931 |mi da Maria Göppert-Mayer nella nella sua tesi di dottorato (ProFigura 10.3: Assorbimento motion), ed è stato osservato per la prima volta trent’anni dopo, grazie all’introduzione del laser, prima in un cristallo drogato di di due fotoni. europio, poi nel vapore di cesio. Il denominatore sotto al prodotto di elementi di matrice nella (10.56) ci dice che al processo contribuiranno di più gli stati intermedi |ni la cui energia En è più vicina al valore Em + ~ω. Nel caso Ek < Em la (10.56) diventa 2 X − − 2π hk| F̂ |nihn| F̂ |mi (12) Wkm = 3 δτ (Em − Ek − 2~ω), ~ ωnm + ω |ki Em >En >Ek che corrisponde alla transizione da |mi a |ki mediante l’emissione stimolata di due quanti ognuno di energia ~ω. Passiamo adesso a considerare i secondi ad|ni dendi all’interno delle parentesi quadre della (10.53). Sempre nell’ipotesi che sia Ek > Em , il ~ω2 termine alla prima riga continua a descrivere l’e|ki missione stimolate di un quanto seguita da un as~ω1 sorbimento, quello alla seconda riga descrive due assorbimenti consecutivi, e quello alla terza riga un assorbimento seguito da un’emissione stimo|mi lata. Ma un’occhiata ai denominatori che compaiono uno sotto al prodotto degli elementi di Figura 10.4: Effetto Raman. matrice, e l’altro al secondo termine dentro alla parentesi quadra, ci dice che in ognuno di questi processi abbiamo a che fare con due quanti di energia diversa. Dobbiamo quindi avere un’hamiltoniana di perturbazione che, durante l’accensione, abbia la forma V̂ (t) = F̂1+ e−iω1 t + F̂1− eiω1 t + F̂2+ e−iω2 t + F̂2− eiω2 t , (10.57) con le opportune relazioni tra F̂1+ , F̂1− , F̂2+ , e F̂2− perché V̂ (t) sia hermitiano. Se, per esempio, l’unico termine a contribuire alla transizione fosse quello relativo all’ultima riga della (10.53), 107 10.3. TRANSIZIONI DI DIPOLO ELETTRICO avremmo (12) Wkm 2 − + X hk|F̂2 |nihn|F̂1 |mi 2π = 3 δτ (En − Ek − ~ω2 ), ~ E >E ωnm − ω1 n (10.58) k che corrisponde all’effetto Raman stimolato. L’effetto Raman, osservato prima in liquidi e cristalli, è uno scattering inelastico di un fotone, in cui l’energia del fotone scatterato subisce una variazione, normalmente una diminuzione dovuta al trasferimento di parte dell’energia al sistema “scatterante”. Nel caso dell’effetto Raman stimolato, schematizzato in fig. 10.4, l’assorbimento del fotone di frequenza angolare ω1 è seguito da un’emissione stimolata indotta dalla componente a frequenza ω2 del campo elettromagnetico. Nella sommatoria della (10.58), gli stati intermedi |ni che contribuiscono di più al processo sono quelli che hanno l’energia En contemporaneamente più vicina a Em + ~ω1 e a Ek + ~ω2 . 10.3 Transizioni di dipolo elettrico La forma completa dell’hamiltoniana di interazione tra un atomo ed un campo elettromagnetico è abbastanza complicata. Per una prima discussione sono sufficienti le approssimazioni che b seguono. L’operatore momento di dipolo elettrico P~ per un atomo neutro può essere scritto Z X b b ~ −e P~ = ZeR ~rbi , (10.59) i=1 b ~ è l’operatore posizione del nucleo e gli ~rbi sono gli operatori dove Z è il numero atomico, R posizione dei singoli elettroni nel sistema di riferimento del laboratorio. Trascurando il moto del nucleo e scegliendo un sistema di riferimento con l’origine sul nucleo stesso, che è lo stesso sistema di riferimento usato per scrivere le funzioni d’onda elettroniche dell’atomo, la (10.59) può essere riscritta Z X b ~ P = −e ~rbi , (10.60) i=1 b dove, questa volta, gli ~rbi sono gli operatori posizione degli elettroni rispetto al nucleo. P~ è un operatore vettoriale, con tre componenti P̂x , P̂y e P̂z P̂x = −e Z X i=1 x̂i , P̂y = −e Z X i=1 ŷi , P̂z = −e Z X ẑi , (10.61) i=1 che si trasformano come le componenti di un vettore per rotazioni degli assi. Per come è definito, b P~ è un operatore dispari, cioè cambia segno per una trasformazione di parità che mandi ~r in b −~r. Di conseguenza, se |ψi ha una parità definita, P~ |ψi ha parità opposta a |ψi. Poiché per un atomo, in generale, gli autostati |ni dell’hamiltoniana imperturbata Ĥ0 hanno parità definita, avremo sempre b hn|P~ |ni = 0. (10.62) 108 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II ~ l’hamiltoniana di interazione si può In presenza di un campo elettrico esterno uniforme E scrivere b ~ ·P ~. V̂ = −E (10.63) Consideriamo adesso un’onda elettromagnetica piana, monocromatica di frequenza angolare ω, polarizzata linearmente, che si propaghi lungo l’asse z, con il campo elettrico diretto lungo l’asse x ed il campo magnetico diretto lungo l’asse y. Avremo ~ t) = E ~ 0 cos(kz − ωt + ϕ), E(z, (10.64) dove k = 2π/λ è il vettore d’onda, o meglio, la componente z del vettore d’onda, che nel nostro caso è l’unica diversa da zero, e ϕ è una fase. La funzione d’onda degli elettroni dell’atomo è sensibilmente diversa da zero in una regione di dimensioni lineari dell’ordine di grandezza del raggio di Bohr, a0 ≈ 5 × 10−11 m, mentre la lunghezza d’onda delle radiazioni visibili è dell’ordine di 6 × 10−7 m. Il campo elettrico dell’onda può quindi essere considerato uniforme su tutta l’estensione di interesse delle funzioni d’onda dell’atomo. L’hamiltoniana di interazione tra l’atomo e la radiazione può cosı̀ essere approssimata dall’espressione b ~ V̂ = P~ · E 0 cos(ωt), nel nostro caso V̂ = P̂x E0 cos(ωt), (10.65) una volta scelta l’origine dei tempi in modo che sia ϕ = π, per liberarci del segno meno. Per gli elementi di matrice abbiamo hk|V̂ |mi = hk|P̂x |mi E0 cos(ωt), (10.66) e possono essere diversi da zero solo se la parità di |ki è diversa dalla parità di |mi. Come al solito, facciamo l’ipotesi che sia Ek > Em . La (10.66) può essere riscritta hk|V̂ |mi = hk|P̂x |mi E0 −iωt e + e+iωt , 2 (10.67) che è un caso particolare della (10.26). Per semplicità, supponiamo di avere un atomo con due soli stati |1i e |2i, con E2 > E1 , e che inizialmente l’atomo si trovi nello stato a energia più bassa |1i. Con una trattazione del tutto analoga a quella del paragrafo 10.1.4, otteniamo che il termine in e+iωt può essere trascurato rispetto al termine in e−iωt (approssimazione di onda rotante), ed otteniamo per la probabilità di transizione dovuta alla nostra onda monocromatica 2 π 2 P21 (τ ) = h2|P̂x |1i E02 τ δτ (E2 − E1 − hν). 2~ (10.68) Ad un’onda piana monocromatica è associata una densità di energia elettrica per unità di volume wel ε0 ε0 (10.69) wel = E 2 = E02 , 2 4 e ricordando la relazione tra i campi elettrico e magnetico di un’onda piana By = Ex /c, vista nel paragrafo 8.2, abbiamo anche una densità di energia magnetica per unità di volume wmag wmag = 1 1 ε0 B2 = E02 = E02 , 2 2µ0 2µ0 c 4 (10.70) 109 10.4. ASSORBIMENTO, EMISSIONE STIMOLATA E SPONTANEA quindi, per la densità volumica di energia totale w associata all’onda abbiamo ε0 w = wel + wmag = E02 . 2 Sostituendo nella (10.68) otteniamo 2 π 2 P21 (τ ) = h2|P̂x |1i w τ δτ (E2 − E1 − hν). ~ε0 10.4 (10.71) (10.72) Assorbimento, emissione stimolata e spontanea Quanto sviluppato nel paragrafo precedente ci permette di riconsiderare la sezione 7.1 sulla derivazione della formula di Planck da parte di Einstein. Nel caso della radiazione di corpo nero, la radiazione non è monocromatica, ma abbiamo una distribuzione spettrale della densità di energia radiante per unità di volume u(ν). Cominciamo considerando un’onda elettromagnetica che, come nel paragrafo precedente, si propaghi lungo l’asse z e sia polarizzata lungo l’asse x ma, invece di essere monocromatica, sia caratterizzata da una densità spettrale u(ν). Il contributo alla probabilità di transizione Pkm delle componenti a frequenza compresa tra ν e ν + dν è 2 π 2 dP21 (τ ) = (10.73) h2| P̂ |1i u(ν) dν τ δτ (E2 − E1 − hν), x ~ε0 e la probabilità di transizione complessiva è data dall’integrale 2 Z +∞ π 2 P21 (τ ) = u(ν) δτ (E2 − E1 − hν) dν. h2|P̂x |1i τ ~ε0 −∞ (10.74) che corrisponde ad una probabilità di transizione per unità di tempo 2 E − E P21 (τ ) π 2 1 W21 = . = 2 h2|P̂x |1i u τ 2~ ε0 h (10.76) Data la forma della δτ , alla transizione contribuiscono solo le frequenza ν prossime a (E2 −E1 )/h. Se facciamo l’ipotesi che la u(ν) sia praticamente costante nella regione attorno a (E2 −E1 )/h in cui la δτ è apprezzabilmente diversa da zero, e integriamo ricordando che dν = dE/h, otteniamo 2 E − E τ 2 E − E π π 2 2 1 2 1 τ, (10.75) = 2 h2|P̂x |1i u P21 (τ ) = h2|P̂x |1i u ~ε0 h h 2~ ε0 h Vogliamo confrontare la (10.76) con la (7.1) per il coefficiente di Einstein per l’assorbimento. Per far questo dobbiamo considerare un gas di N atomi (o molecole) per unità di volume. Ad un certo istante, N1 atomi saranno nello stato |1i e N2 nello stato |2i. Inoltre, le funzioni d’onda elettroniche dei singoli atomi saranno orientate in modo causale. Se chiamiamo 2 ~e il versore di polarizzazione dell’onda elettromagnetica, nella (10.76) dobbiamo sostituire h2|P̂x |1i con 2 2 b b b ~ ~ l’espressione ~e · h2|P |1i = cos ϑ h2|P |1i , dove ϑ è l’angolo tra ~e e il vettore h2|P~ |1i. Tenendo presente che, per gli atomi del gas, tutte le orientazioni sono equiprobabili, otteniamo * 2 + b 2 b ~ |1i = 1 h2|P ~ |1i , cos ϑ h2|P (10.77) 3 110 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II da cui dN1→2 = B21 u dt E2 − E1 h π N1 = N1 6 ~2 ε0 b 2 E − E 2 1 h2|P~ |1i u . h (10.78) Come nella (7.1), il termine B21 indica il coefficiente di assorbimento per la transizione |1i → |2i. Otteniamo quindi la seguente relazione tra il coefficiente di assorbimento di Einstein e l’elemento di matrice per la transizione di dipolo elettrico 2 π b ~ B21 = (10.79) h2|P |1i . 2 6 ~ ε0 La relazione è apparentemente semplice, ma va ricordato che il calcolo degli elementi di mab trice di P~ richiede una conoscenza, analitica o numerica, delle funzioni d’onda atomiche, che, normalmente, non è disponibile. Sono tuttavia possibili numerose considerazioni sulle regole di selezione. Nel paragrafo 7.1 avevamo ottenuto l’equazione (7.12) per il coefficiente di Einstein per l’emissione spontanea. 3 8πhν21 A12 = B12 . (10.80) c3 Ricordando che B12 = B21 e utilizzando la (10.79) abbiamo 2 2 3 3 3 3 b 2 ω 8π ν 8πhν21 π b b 21 21 h2|P~ |1i = h2|P~ |1i . (10.81) h2|P~ |1i = A12 = c3 6~2 ε0 3 ~ ε0 c3 3 ~ ε0 c 3 A questa espressione per l’emissione spontanea si può arrivare anche dall’elettrodinamica quantistica. Il coefficiente A12 dipende cosı̀, oltre che dal modulo quadro dell’elemento di matrice del dipolo tra stato iniziale e stato finale, anche dal cubo della frequenza. Questo si riflette sulla vita media dello stato eccitato |2i, che, nel caso di decadimento possibile solo verso lo stato |1i, si scrive 1 τ2 = . (10.82) A12 Nel caso, decisamente più frequente in pratica, di più decadimenti possibili verso diversi stati a energia più bassa, avremo X 1 = Ai2 , (10.83) τ2 i dove la somma corre su tutti gli stati |ii con Ei < E2 verso i quali è possibile il decadimento. Per avere un’idea degli ordini di grandezza in gioco, valutiamo A12 per alcuni valori della frequenza ν21 . Un ordine di grandezza per l’elemento di matrice del momento di dipolo si ottiene considerando un elettrone distante un raggio di Bohr a0 dal nucleo: p ≈ ea0 ≈ 1.6 × 10−19 C × 5 × 10−11 m = 8 × 10−30 Cm. (10.84) Inserendo questo valore e la (10.81) nella (10.82) otteniamo 1 4.5 × 1036 1 3 ~ ε0 c 3 2.9 × 10−22 = s. τ= 2 ≈ 3 8π 3 ν21 ν3 6.4 × 10−59 ν3 b ~ |1i h2|P (10.85) 10.4. ASSORBIMENTO, EMISSIONE STIMOLATA E SPONTANEA 111 Se abbiamo a che fare con una transizione nel visibile, con lunghezza d’onda λ ≈ 6000 Å = 600 nm, e quindi frequenza ν ≈ 5 × 1014 Hz, otteniamo τ= 4.5 × 1036 = 3.6 × 10−8 s, 44 1.25 × 10 (10.86) mentre per una transizione nell’infrarosso con λ = 10 µm, e ν ≈ 3 × 1013 Hz, abbiamo τ = 0.17 ms, e per una frequenza a microonde, con lunghezza d’onda λ = 1 cm e ν ≈ 30 GHz, abbiamo τ ≈ 1.7 × 105 s ≈ 46 ore. La (10.81) e le considerazioni fatte qui sopra per gli ordini di grandezza hanno una stretta analogia con i risultati per l’emissione di dipolo elettrico nell’elettrodinamica classica. Classicamente, un dipolo oscillante con momento p~ = p~0 sin ωt (10.87) emette una potenza, integrata su tutto l’angolo solido, pari a W = 1 p2 ω 4 , 12 ε0 π c3 0 (10.88) ed in un intervallo di tempo dt perde quindi una quantità di energia dUcl = W dt = 1 p2 ω 4 dt. 12 ε0 π c3 0 (10.89) I calcoli quantistici fatti in questo paragrafo ci dicono che un atomo con due livelli che si trovi inizialmente nel livello a energia più alta |2i, durante l’intervallo di tempo dt ha probabilità 3 b 2 ω21 h2|P~ |1i dt dP = A12 dt = (10.90) 3 ~ ε0 c3 di decadere allo stato ad energia più bassa |1i. Il decadimento comporta la perdita dell’energia ~ω, quindi abbiamo per la perdita di energia 4 b 2 ω21 h2|P~ |1i dt, dUquant = (10.91) 3 ε0 c3 Un paragone con la (10.89) ci fa vedere che le due espressioni differiscono per un fattore 4π al denominatore. Il rapporto tra la perdita di energia per emissione indotta e quella per emissione spontanea, in presenza di una densità spettrale di radiazione u(ν), vale c3 u(ν21 ) B12 u(ν21 ) = . 3 A12 8πhν21 (10.92) Quindi, a parità di densità spettrale di energia radiante presente, il fenomeno dell’emissione indotta è più importante a frequenza più basse. Se abbiamo a che fare con una distribuzione spettrale di energia radiante tipo corpo nero abbiamo 1 8πhν 3 u(ν) = 3 hν/kT c e −1 112 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II che, sostituita nella (10.92), porta a 1 B12 u(ν21 ) = n(ν), = hν/kT A12 e −1 (10.93) dove n(ν) è il numero medio di fotoni a frequenza ν che si trova in una cella dello spazio delle fasi. Se n(ν) > 1 prevale l’emissione indotta, altrimenti prevale l’emissione spontanea. Per vedere in quali condizioni il numero medio di fotoni per cella dello spazio delle fasi è maggiore di 1, risolviamo la disuguaglianza n(ν) = 1 ehν/kT −1 > 1, (10.94) 1 hc ≈ 20 000 µm K log 2 k (10.95) ottenendo ν k < log 2 ≈ 1.44 × 1010 Hz/K, T h e λT > Questa relazione vale in generale, e non solo nel caso di radiazione di corpo nero. 10.5 Interazione con campo forte Supponiamo ancora di avere un sistema atomico a due livelli |1i e |2i, con E2 > E1 , che stia interagendo con un campo radiativo cosı̀ intenso che non sia possibile un trattamento perturbativo. Ricordiamo però che nel paragrafo 10.1.2 avevamo detto che, quando ci sono in gioco due soli livelli, è possibile ottenere la soluzione esatta, e il trattamento perturbativo non è necessario. Come esempio, possiamo pensare ad un sistema a due livelli interagente con radiazione laser. Possiamo scrivere il campo elettrico nella zona di interesse per l’atomo come ~ = −E ~ 0 cos ωt = − E0 ~e e−iωt + e+iωt , E 2 dove ~e è il versore del campo elettrico dell’onda, ed abbiamo scelto l’origine dei tempi in modo che nell’espressione compaia il segno meno che verrà eliminato nella (10.96) qui sotto. L’hamiltoniana di interazione si può scrivere ancora b b ~ ·P ~ = ~e · P ~ E0 e−iωt + e+iωt . V̂ = −E 2 (10.96) Il generico stato in cui si trova il sistema può essere scritto, secondo la (10.3), |ψ(t)i = a1 (t)e−iE1 t/~ |1i + a2 (t)e−iE2 t/~ |2i, (10.97) e, analogamente a quanto fatto nel paragrafo 10.1.2, l’equazione di Schrödinger diventa h iX ∂ X ar (t) e−iEr t/~ |ri = Ĥ0 + V̂ (t) an (t) e−iEn t/~ |ni. i~ ∂t r=1 n=1 2 2 (10.98) 113 10.5. INTERAZIONE CON CAMPO FORTE Seguendo le (10.7) otteniamo per le derivate delle singole ampiezze 2 2 1 X ∂ak 1 X = an e−i(En −Ek )t/~ hk|V̂ (t)|ni = an eiωkn t hk|V̂ (t)|ni. ∂t i~ n=1 i~ n=1 Gli elementi di matrice di V̂ tra i due stati dell’atomo sono b E0 −iωt e + e+iωt h2|V̂ |1i = h2|~e · P~ |1i 2 b E0 +iωt h1|V̂ |2i = h1|~e · P~ |2i e + e−iωt , 2 (10.99) (10.100) con, nel nostro caso, ω21 > 0 e ω12 = −ω21 . Le fasi degli stati |1i e |2i possono essere scelte in b modo che h2|~e · P~ |1i sia reale, possiamo quindi porre b b D = h2|~e · P~ |1i = h1|~e · P~ |2i, (10.101) b b mentre h1|~e · P~ |1i = h2|~e · P~ |2i = 0 per la (10.62). Abbiamo quindi 1 E0 ∂a1 (t) = D a2 (t) e−i(ω21 +ω)t + e−i(ω21 −ω)t ∂t i~ 2 1 E0 ∂a2 (t) (10.102) = D a1 (t) ei(ω21 −ω)t + ei(ω21 +ω)t . ∂t i~ 2 Fino a qui non abbiamo fatto approssimazioni. Introducendo adesso l’approssimazione di campo rotante, trascurando cioè i termini contenenti e±i(ω21 +ω)t rispetto a quelli contenenti e±i(ω21 −ω)t , otteniamo per le ampiezze a1 (t) e a2 (t) ∂a1 (t) 1 E0 = a2 (t) e−i(ω21 −ω)t D ∂t i~ 2 1 E0 ∂a2 (t) = a1 (t) ei(ω21 −ω)t D . ∂t i~ 2 Introducendo la frequenza di Rabi DE0 ΩR = ~ le (10.103) diventano (10.103) (10.104) i ∂a1 (t) = − ΩR a2 (t) e−i(ω21 −ω)t ∂t 2 ∂a2 (t) i = − ΩR a1 (t) ei(ω21 −ω)t . ∂t 2 Adesso introduciamo il cambiamento di variabili (10.105) a1 (t) = b1 (t) a2 (t) = b2 (t) ei(ω21 −ω)t , (10.106) 114 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II e la quantità δω = ω − ω21 . Otteniamo ∂b1 (t) i = − ΩR b2 (t) ∂t 2 i ∂b2 (t) = − ΩR b1 (t) + i δω b2 (t). ∂t 2 (10.107) Se facciamo la derivata rispetto al tempo della seconda delle (10.107) otteniamo i ∂b1 (t) ∂b2 (t) ∂ 2 b2 (t) = − ΩR + i δω , 2 ∂t 2 ∂t ∂t (10.108) in cui possiamo sostituire la prima delle (10.107), ottenendo un’equazione differenziale del secondo ordine nella sola b2 (t) ∂b2 (t) Ω2R ∂ 2 b2 (t) − i δω + b2 (t) = 0. ∂t2 ∂t 4 (10.109) Questa equazione differenziale è lineare, omogenea e a coefficienti costanti, quindi con soluzione generale del tipo b2 (t) = z1 eα1 t + z2 eα2 t , (10.110) dove z1 e z2 sono costanti complesse arbitrarie, da determinare dalle condizioni iniziali del problema, mentre α1 e α2 sono le soluzioni dell’equazione α2 − iδω α + Abbiamo quindi α1,2 = iδω ± da cui p Ω2R = 0. 4 (10.111) −δω 2 − Ω2R , 2 (10.112) b2 (t) = z1 eiλ1 t + z2 eiλ2 t con δω + λ1 = −iα1 = 2 p Ω2R + δω 2 , 2 δω λ2 = −iα2 = − 2 (10.113) p Ω2R + δω 2 , 2 (10.114) z e la condizione che sia b2 (0) = 0 ci dà z2 = −z1 . Per comodità poniamo z1 = −i , da cui 2 ! p 2 2 Ω + δω z iλ1 t R b2 (t) = i e − eiλ2 t = z eiδω t/2 sin t (10.115) 2 2 Consideriamo prima il caso particolare di radiazione in risonanza con la transizione atomica, cioè con δω = ω − ω21 = 0. La (10.115) diventa semplicemente ΩR t . (10.116) b2 (t) = z sin 2 115 10.5. INTERAZIONE CON CAMPO FORTE Dalla (10.107) abbiamo ΩR ΩR ∂b1 (t) = −i b2 (t) = −i z sin ∂t 2 2 ΩR t , 2 (10.117) che, integrata con l’ipotesi che a t = 0 il sistema atomico si trovi nello stato a energia più bassa |1i, cioè che a1 (t = 0) = b1 (t = 0) = 1 e a2 (t = 0) = b2 (t = 0) = 0, porta a ΩR b1 (t) − 1 = −i z 2 Z t sin 0 ΩR ′ t dt′ 2 t 2 ΩR ′ ΩR z t cos b1 (t) = 1 − i 2 ΩR 2 0 ΩR t + iz. b1 (t) = 1 − i z cos 2 (10.118) Se poniamo z = i otteniamo b1 (t) = cos ΩR t , 2 e b2 (t) = i sin ΩR t , 2 (10.119) che rispetta le condizioni iniziali b1 (0) = 1 e b2 (0) = 0, oltre alla |b1 (t)|2 + |b2 (t)|2 = 1. Dalle (10.106) con δω = 0, abbiamo a1 (t) = b1 (t) e a2 (t) = b2 (t). Per le probabilità di trovare il sistema nello stato |1i o nello stato |2i abbiamo ΩR 1 + cos(ΩR t) 2 2 P1 (t) = |a1 (t)| = cos t = 2 2 1 − cos(ΩR t) ΩR 2 2 t = . (10.120) P2 (t) = |a2 (t)| = sin 2 2 Il campo elettromagnetico guida quindi delle oscillazioni di popolazione, dette oscillazioni di Rabi , per cui gli atomi che per t = 0 si trovavano nello stato a energia più bassa |1i, dopo un tempo Tπ = π/ΩR si trovano tutti nello stato a energia più alta |2i, mentre dopo un tempo TR = 2 Tπ = 2π/ΩR si ritrovano tutti nello stato |1i, e cosı̀ via. Questo è il motivo per cui abbiamo dato a ΩR il nome di frequenza di Rabi. Se la radiazione elettromagnetica viene applicata per un intervallo di tempo pari a Tπ si ha un impulso π, che porta tutti gli atomi dallo stato |1i allo stato |2i. La condizione per un impulso π è ΩR Tπ = DE0 Tπ = π, 2~ (10.121) e può essere realizzata agendo sul tempo di durata dell’impulso e sull’intensità del campo elettrico dell’onda. Nel caso di detuning tra la frequenza dell’onda elettromagnetica e la frequenza di transizione, cioè nel caso di δω 6= 0, dobbiamo usare b2 (t) nella sua forma completa (10.115). Possiamo 116 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II ricavare un’espressione per b1 (t) introducendo appunto la (10.115) nella seconda delle (10.107) con i passaggi che seguono i ∂b2 (t) = − ΩR b1 (t) + i δω b2 (t), ∂t 2 ∂b2 (t) i ΩR b1 (t) = i δω b2 (t) − 2 ∂t che riscriviamo sostituendo b2 (t) = z eiδω t/2 sin p Ω2R + 2 δω 2 ! p 2 2 Ω + δω i iδω iδω t/2 R ΩR b1 (t) = i zδω eiδω t/2 sin t −z e sin 2 2 2 ! ! p p 2 2 Ω2R + δω 2 Ω + δω R t , z eiδω t/2 cos 2 2 da cui otteniamo finalmente " 1 b1 (t) = z eiδω t/2 δω sin ΩR ! p q Ω2R + δω 2 t + i Ω2R + δω 2 cos 2 t ! otteniamo ! p Ω2R + δω 2 t − 2 !# p Ω2R + δω 2 t . (10.122) 2 Adesso possiamo ricavare |z|2 imponendo la condizione di normalizzazione |b1 (t)|2 +|b2 (t)|2 = 1. 1 = b1 (t)|2 + |b2 (t)|2 ! !# " p p 2 2 2 2 + δω + δω Ω Ω 1 R R = t + Ω2R + δω 2 cos2 t + |z|2 δω 2 sin2 Ω2R 2 2 ! p 2 2 Ω + δω R t |z|2 sin2 2 ! !# " p p 2 2 2 2 2 2 2 + δω + δω Ω Ω Ω + δω δω R R R + 1 sin2 cos2 t + t = |z|2 Ω2R 2 Ω2R 2 = |z|2 Ω2R + δω 2 Ω2R (10.123) da cui otteniamo |z|2 = Ω2R Ω2R + δω 2 , ovvero z = eiϕ s Ω2R Ω2R + δω 2 (10.124) con ϕ fase arbitraria. Ponendo ϕ = −π/2, in modo che sia eiϕ = −i, otteniamo " ! !# p p 2 2 2 2 Ω + δω Ω + δω δω R R sin b1 (t) = eiδω t/2 cos t −i p 2 t 2 2 ΩR + δω 2 s ! p 2 2 2 Ω + δω Ω R R b2 (t) = −i eiδω t/2 sin t (10.125) Ω2R + δω 2 2 10.5. INTERAZIONE CON CAMPO FORTE 117 che rispettano le condizioni b1 (0) = 1 e b2 (0) = 0. Per la probabilità di trovare il sistema nello stato |2i all’istante t abbiamo p ! p 2 2t 1 − cos Ω + δω 2 2 2 R ΩR + δω 2 Ω Ω t = 2 R 2 , P2 (t) = |b2 (t)|2 = 2 R 2 sin2 ΩR + δω 2 ΩR + δω 2 (10.126) mentre la probabilità di trovarlo nello stato |1i è p p 2 2 2 2 1 + cos ΩR + δω t ΩR + δω t δω 2 1 − cos P1 (t) = |b1 (t)|2 = + 2 . (10.127) 2 Ωr + δω 2 2 p Quindi l’occupazione dello stato a energia più alta |2i evolve con frequenza Ω′R = Ω2R + δω 2 , ma risulta sempre inferiore a 1, avendo valore massimo Ω2R /(Ω2R + δω 2 ). L’occupazione dello stato |1i oscilla anche essa alla frequenza Ω′R senza essere mai nulla. Un’inversione completa della popolazione non è quindi possibile fuori risonanza. 118 CAPITOLO 10. INTERAZIONE RADIAZIONE-MATERIA, II Capitolo 11 Matrice densità 11.1 Rate equations e bilancio dettagliato Supponiamo di avere un sistema di N atomi, con Ĥ0 hamiltoniana imperturbata del singolo atomo. Se ogni atomo si trova nello stato |ψ(t)i X |ψ(t)i = an (t)e−iEn t/~ |ni, (11.1) n dove gli |ni sono gli autostati di Ĥ0 che formano una base ortonormale completa, e gli En i rispettivi autovalori, il numero di atomi che una misura rivela nello stato |ki all’istante t vale Nk = N |ak (t)|2 . (11.2) La probabilità di occupazione |ak (t)|2 del livello |ki viene modificata dalle interazioni degli atomi tra di loro e degli atomi con l’ambiente esterno. Se per queste interazioni è possibile calcolare una probabilità di transizione per unità di tempo Wkm dallo stato |mi allo stato |ki, per ogni stato |ki avremo X X d |ak (t)|2 = Wkm |am (t)|2 − |ak (t)|2 Wmk , dt m6=k m6=k (11.3) dove la prima sommatoria tiene conto della probabilità che l’atomo sia inizialmente in uno stato |mi diverso da |ki e passi in |ki, mentre la seconda tiene conto della probabilità che l’atomo fosse inizialmente in |ki e da lı̀ passi a un qualunque altro stato. La condizione di normalizzazione sulla ||ψ(t)i|2 implica X k |ak (t)|2 = 1, da cui X d |ak (t)|2 = 0 dt k e, introducendo la (11.3), abbiamo X XX X Wmk = 0. Wkm |am (t)|2 − |ak (t)|2 k m6=k k 119 m6=k (11.4) (11.5) 120 CAPITOLO 11. MATRICE DENSITÀ Se il numero totale di atomi è costante vale la (11.2), quindi, moltiplicando primo e secondo membro per N , otteniamo XX X X Wkm Nm − Nk Wmk = 0. (11.6) k m6=k k m6=k Se siamo in uno stato stazionario, come, per esempio, all’equilibrio termodinamico, non solo la popolazione totale, ma anche la popolazione di ogni singolo livello deve essere costante, quindi dobbiamo avere per ogni stato |ki X X Wkm Nm = Nk Wmk . (11.7) m6=k m6=k Questo costituisce un sistema di equazioni, dette rate equations, che, note le Wkm , permette di calcolare le popolazioni dei singoli livelli trascurando l’informazione sulle fasi relative delle occupazioni degli stati. In condizione di equilibrio termodinamico normalmente si usa una relazione più ristretta della (11.7), detta equazione del bilancio dettagliato, Wmk Nk = Wkm Nm , (11.8) che implica un equilibrio all’interno di ogni coppia di livelli |mi e |ki interessati dalla perturbazione: la velocità con cui gli atomi passano da |mi a |ki è uguale a quella con cui passano da |ki a |mi. 11.2 Matrice densità Consideriamo un ipotetico atomo isolato la cui hamiltoniana imperturbata Ĥ0 abbia solo due livelli |1i e |2i, con energie, rispettivamente, E1 ed E2 . Come al solito supponiamo che sia E1 < E2 . Il generico stato |ψ(t)i dell’atomo può essere sviluppato |ψ(t)i = a1 (t)|1i + a2 (t)|2i. (11.9) Introduciamo la matrice densità ρ̂, definita da ρ̂ = |ψ(t)ihψ(t)| = |a1 |2 a1 a∗2 a2 a∗1 |a2 |2 . (11.10) Nel caso in cui abbiamo un sistema di N atomi identici a due livelli, con tutti gli atomi che si trovano esattamente in uno stesso stato del tipo (11.9), si dice che il sistema si trova in uno stato puro, e la matrice densità si continua a scrivere come nella (11.10). In questo caso si può verificare che la matrice densità ha le proprietà seguenti: Tr(ρ̂) = 1, (11.11) che deriva dalla normalizzazione della (11.9). Se vogliamo calcolare il valor medio di un qualunque operatore  abbiamo X X ρmn hn|Â|mi = Tr(ρ̂Â). (11.12) hAi = hψ(t)|Â|ψ(t)i = a∗n hn|Â|miam = n,m n,m 121 11.2. MATRICE DENSITÀ L’evoluzione temporale della matrice densità si ottiene utilizzando l’equazione di Schrödinger nel modo seguente d d d ρ̂(t) = |ψ(t)i hψ(t)| + |ψ(t)i hψ(t)| dt dt dt = Inoltre abbiamo i 1 1 1 h Ĥ|ψ(t)ihψ(t)| + |ψ(t)ihψ(t)|Ĥ = Ĥ, ρ̂ . i~ −i~ i~ ρ̂2 = |ψ(t)ihψ(t)||ψ(t)ihψ(t)| = ρ̂ da cui segue che Tr(ρ̂2 ) = 1. (11.13) (11.14) L’estensione di quanto detto sopra al caso di uno stato puro (singoli atomi tutti nello stesso stato) di un sistema di atomi per i quali l’hamiltoniana dell’atomo singolo ha un numero qualunque di livelli energetici è immediata. Ma, per uno stato puro, l’uso della matrice densità non porta particolari vantaggi. Al contrario, la matrice densità permette un trattamento molto semplificato di un ensemble di atomi che non si trovino in uno stato puro. In questo caso avremo stati possibili per il singolo atomo del tipo X 2 (i) X (i) ψ (t) = = 1 ∀i, (11.15) a(i) an |ni, con le condizioni di normalizzazione n n n che ogni atomo dell’ensemble abbia la stessa probabilità pi di trovarsi nello stato e supponiamo ψ (i) (t) , naturalmente con P pi = 1. In questo caso, la matrice densità del sistema si definisce i come media pesata delle matrici densità relative ai singoli stati ψ (i) (t) 2 (i) (i) (i)∗ X X a1 a2 a1 2 , pi ρ̂ = pi ψ (i) (t) ψ (i) (t) = (i) (i) (i)∗ a2 a1 a2 i i (11.16) dove, per semplicità, la matrice è stata scritto per il caso di due soli autostati di particella singola. Si può verificare che continuano a valere le proprietà X X 1) Tr(ρ̂) = pi Tr ψ (i) (t) ψ (i) (t) = pi = 1; i 2) hÂi = 3) X i i (i) X (i) (i) pi ψ (t)  ψ (t) = pi Tr ψ (t) ψ (t)  = Tr ρ̂ ; (i) i i X d X h i 1 h d ψ (i) (t) ψ (i) (t) = 1 ρ̂(t) = pi pi Ĥ, ψ (i) (t) ψ (i) (t) = Ĥ, ρ̂ ; dt dt i~ i i~ i mentre, nel caso di stato non puro, in generale abbiamo ρ̂2 6= ρ̂ e Tr ρ̂2 < 1. (11.17) Gli elementi diagonali di ρ̂ sono chiamati popolazioni , mentre gli elementi fuori diagonale sono chiamati coerenze. Nel caso di uno stato puro gli elementi diagonali sono le probabilità di 122 CAPITOLO 11. MATRICE DENSITÀ occupazione degli stati. Nel caso di uno stato non puro gli elementi diagonali sono le probabilità medie di occupazione, ottenute facendo la media delle probabilità di occupazione corrispondenti (i) ai singoli stati puri ψ (t) pesate con le probabilità pi che l’atomo sia effettivamente nello stato ψ (i) (t) . Cosı̀, se abbiamo N atomi, il numero medio di atomi che si trovano nello stato |ni sarà Nn = N ρnn . (11.18) Una condizione necessaria, ma non sufficiente, perché la coerenza ρnm tra gli stati |ni e |mi sia diversa da zero è che siano contemporaneamente diverse da zero le occupazioni dei due stati, indipendentemente dal fatto che il sistema si trovi o meno in uno stato puro. Per ogni stato (i) ψ (t) , di probabilità pi , la singola ampiezza a(i) n (t) può essere scritta (i) −En t/~ a(i) , n (t) = bn (t)e (11.19) (i) in modo che, finché il singolo atomo può essere considerato isolato, bn (t) non dipende dal tempo. Per le coerenze abbiamo quindi (i) (i)∗ a1 a2 (i) (i)∗ = b1 b2 eiω21 t , (i) (i)∗ e a2 a1 (i) (i)∗ = b2 b1 e−iω21 t e gli elementi fuori diagonale di ρ̂ sono dati dalle medie pesate X X (i) (i)∗ (i) (i)∗ pi b2 b1 e−iω21 t = ρ∗12 . ρ12 = pi b1 b2 eiω21 t , e ρ21 = (11.21) i i (i) (11.20) (i) In linea di principio, b1 e b2 sono numeri complessi con fasi qualunque, e le somme della (i) (i) (11.21) possono essere nulle anche se i singoli b1 e b2 sono tutti diversi da zero. Gli elementi di matrice ρjk , con j 6= k, saranno diversi da zero solo se esiste una coerenza tra le fasi dei (i) (i) singoli bj e quelle dei singoli bk , da qui il nome di coerenze a questi elementi di matrice. Per avere un esempio dell’importanza delle coerenze supponiamo di avere un campione di N atomi, e di voler calcolare il valor medio della componente del momento del dipolo elettrico del b campione lungo una direzione definita dal versore ~e, cioè di voler calcolare h~e · P~ i. Possiamo metterci nelle condizioni della (10.101) e supporre che, per il singolo atomo, sia per cui possiamo scrivere b b D = h2|~e · P~ |1i = h1|~e · P~ |2i, b ~e · P~ = 0 D D 0 . Per il valor medio sul sistema abbiamo ρ D ρ D b b 12 11 = N (ρ12 D + ρ21 D), ~e · P~ = N Tr ρ̂ ~e · P~ = N Tr ρ22 D ρ21 D (11.22) (11.23) e vediamo che il valor medio della componente lungo ~e del dipolo elettrico è determinata dalle coerenze. Ovviamente, al posto di ~e possiamo prendere ognuno dei tre versori x̂, ŷ e ẑ. Solo se gli atomi si trovino in una sovrapposizione coerente di |1i e |2i il valor medio del dipolo elettrico può essere diverso da zero. E’ da notare che, in base alle (11.21), le coerenze hanno 11.3. MODELLO DI FEYNMAN-VERNON-HELLWARTH 123 una dipendenza temporale del tipo e±iω21 t , quindi il valor medio delle componenti del momento di dipolo elettrico, se diverse da zero, hanno un andamento temporale di tipo oscillante. Se abbiamo un sistema di N atomi all’equilibrio termodinamico ed in assenza di campi esterni, ci aspettiamo che il valor medio di qualunque componente del momento di dipolo elettrico sia nullo. Questo non è possibile se il sistema di trova in uno stato puro, perché nella matrice densità corrispondente ad uno stato puro, se le popolazioni sono ambedue diverse da zero, anche le coerenze sono diverse da zero. Ma è tranquillamente possibile costruire uno stato non puro tale che le popolazioni siano diverse da zero, mentre le coerenze sono nulle. Come esempio, basta pensare a degli stati del tipo |ψl i = ae−iE1 t/~ |1i + beiϕl e−iE2 t/~ |2i, (11.24) dove ϕl è una fase casuale compresa tra 0 e 2π. Per le popolazioni avremo ρ11 = |a|2 e ρ22 = |b|2 , mentre per la coerenza ρ12 abbiamo Z Z 2π 1 ab∗ −i(E1 −E2 )t/~ 2π −iϕl e dϕl = 0 (11.25) e ρ12 = dϕl h1||ψl ihψl ||2i = 2π 0 2π 0 perché la fase ϕl è casuale. E’ da notare che la distinzione tra popolazioni e coerenze non ha valore assoluto, ma dipende dalla scelta della base per lo spazio di Hilbert. Infatti, essendo ρ̂ hermitiana, è sempre possibile trovare una base ortonormale {|χi i} in cui ρ̂ stessa è diagonale. In questa base esistono solo popolazioni, e tutte le coerenze sono nulle. Va però notato che gli elementi di questa base possono non essere stati stazionari. 11.3 Modello di Feynman-Vernon-Hellwarth L’evoluzione temporale della matrice densità è data dall’equazione 1 d ρ̂ = [Ĥ, ρ̂]. dt i~ (11.26) Nel nostro solito caso di un sistema a due livelli, riprendendo le ipotesi e le notazioni del paragrafo 10.5, compresa l’approssimazione d’onda rotante, abbiamo Ĥ = Ĥ0 + V̂ con Ĥ0 = E1 0 0 E2 0 e V̂ = DE 0 −iωt e 2 (11.27) DE0 +iωt ~ΩR +iωt 0 e e 2 2 = ~ΩR . 0 e−iωt 0 2 (11.28) Inserendo nella 11.26 abbiamo ~ΩR +iωt ~ΩR +iωt e e E1 E1 1 d 1 ρ11 ρ12 ρ11 ρ12 2 2 − ρ̂ = ~ΩR ~ΩR ρ21 ρ22 ρ21 ρ22 dt i~ i~ −iωt −iωt e E2 e E2 2 2 124 CAPITOLO 11. MATRICE DENSITÀ = ΩR +iωt (ρ22 − ρ11 )e i ω21 ρ12 + 2 . ΩR +iωt ΩR −iωt −iωt i (ρ22 − ρ11 )e e ρ21 − e ρ12 −i ω21 ρ21 + 2 2 ΩR +iωt e ρ21 − e−iωt ρ12 −i 2 (11.29) La matrice densità di un sistema a due livelli ha tre gradi di libertà. Gli elementi diagonali ρ11 e ρ22 sono due numeri reali, vincolati dalla condizione ρ11 + ρ22 = 1, quindi basta un solo numero, per esempio la differenza ρ11 − ρ22 , per determinarli. Gli elementi fuori diagonale sono numeri complessi, con ρ21 = ρ∗12 , quindi basta conoscere ℜ(ρ12 ) e ℑ(ρ12 ) per determinarli tutti e due. La matrice densità è quindi completamente determinata dalle tre componenti reali del vettore di Feynman-Vernon-Hellwarth, definite da Rx = ρ12 e−iωt + ρ21 e+iωt = 2ℜ(ρ12 ) cos ωt − 2ℑ(ρ12 ) sin ωt Ry = iρ12 e−iωt − iρ21 e+iωt = 2ℜ(ρ12 ) sin ωt − 2ℑ(ρ12 ) cos ωt Rz = ρ11 − ρ22 , (11.30) ~ dalla (11.29) otteniamo per le derivate delle componenti di R dρ12 −iωt dρ21 iωt d Rx = e − iωρ12 e−iωt + e + iωρ21 eiωt dt dt dt ΩR ΩR −iωt +iωt −iωt = i (ω21 − ω)ρ12 + e − i (ω21 − ω)ρ21 + e+iωt (ρ22 − ρ11 )e (ρ22 − ρ11 )e 2 2 = i(ω21 − ω) ρ12 e−iωt − ρ21 e+iωt d dρ12 −iωt dρ21 iωt Ry = i e + ωρ12 e−iωt − i e + ωρ21 eiωt dt dt dt ΩR ΩR −iωt +iωt −iωt e − (ω21 − ω)ρ21 + i (ρ22 − ρ11 )e e+iωt (ρ22 − ρ11 )e = − (ω21 − ω)ρ12 + 2 2 = −(ω21 − ω) ρ12 e−iωt + ρ21 e+iωt − ΩR (ρ22 − ρ11 ) d dρ11 dρ22 Rz = − = −iΩR e+iωt ρ21 − e−iωt ρ12 dt dt dt che possono essere riscritte d Rx = (ω21 − ω)Ry dt d Ry = −(ω21 − ω)Rx + ΩR Rz dt (11.31) 125 11.3. MODELLO DI FEYNMAN-VERNON-HELLWARTH d Rz = −ΩR Ry . dt (11.32) ~ di componenti Se adesso introduciamo il vettore B, Bx = ΩR , By = 0, Bz = δω = (ω21 − ω) (11.33) le (11.32) sono riassunte dall’equazione d ~ ~ ×B ~ R=R dt (11.34) ~ attorno che rappresenta un’evoluzione giroscopica del vettore di Feynman-Vernon-Hellwarth R ~ Se le condizioni iniziali sono quelle di equilibrio termodinamico in assenza di al vettore B. interazione con il campo elettromagnetico, le coerenze sono nulle, quindi Rx (t = 0) = Ry (t = 0) = 0, mentre Rz è determinata dalle occupazioni dei livelli secondo la Rz (t = 0) = dove 1 0 N1 − N20 , N (11.35) N N −E1 /kT e , e N20 = N2 (t = 0) = e−E2 /kT . (11.36) Z Z Se la separazione in energia tra i due livelli è nel range ottico, avremo (E2 − E1 ) ≫ kT , ed è una buona approssimazione porre N10 = N1 (t = 0) = N10 ≈ N, N20 ≈ 0, da cui Rz (t = 0) ≈ 1. (11.37) R~( T π) ~ R(0) ~ parte quindi allineato all’asse z verso l’alIl vettore R ~ conservando la z to, e comincia a precedere attorno a B sua lunghezza. Questo cambia progressivamente l’ori~ nello spazio delle coerenze/popolazioni. entazione di R Per esempio, nel caso di perfetta risonanza tra radiazione e frequenza di transizione da |1i a |2i, abbiamo ~ avviene α ω = ω21 e δω = 0, per cui la precessione di R δω ~ B nel piano yz attorno all’asse x, lungo il quale è diretto ~ Con un impulso di durata Tπ = π/ΩR , detto imB. y ~ ΩR pulso π, il vettore R giace di nuove sull’asse z, ma è x diretto verso il basso. Si è cosı̀ verificata l’inversione di popolazione descritta nel paragrafo 10.5. Un im~ pulso π/2, di durata Tπ/2 = π/(2ΩR ), allinea invece R con l’asse y, portando cosı̀ ad una differenza di popo~ di lazione uguale a zero e ad un massimo del valore delle Figura 11.1: Evoluzione del vettore R coerenze. Analogamente, un valore di δω 6= 0 porta Feynman-Vernon-Hellwarth. ai risultati delle (10.125), (10.126) e (10.127), ottenuti per radiazione fuori risonanza nel paragrafo 10.5 sull’interazione p con un campo forte. Infatti, ~ forma un angolo α = arccos(δω/ Ω2 + δω 2 ) con l’asse z, e quindi in questo caso il vettore B R 126 CAPITOLO 11. MATRICE DENSITÀ ~ all’istante t = 0, come mostrato in fig. 11.1. Dopo un impulso di durata Tπ il con il vettore R ~ ~ e quindi formerà un angolo 2α con vettore R avrà fatto mezzo giro di precessione attorno a B, l’asse z. La sua proiezione sull’asse z sarà 2 2 ~ z = cos(2α) = cos2 α − sin2 α = − ΩR − δω . R δω 2 + Ω2R 11.4 (11.38) Rilassamento e equazioni di Bloch ottiche Il modello di Feynman descrive l’evoluzione delle popolazioni e delle coerenze di un sistema atomico a due livelli sotto l’azione di un campo elettromagnetico oscillante. Partendo da una situazione di equilibrio termodinamico con Rx = Ry = 0 e Rz = 1, l’azione del campo modifica le popolazioni e crea coerenze non nulle. Supponiamo adesso di spegnere il campo dopo aver raggiunto una situazione di questo tipo. Ci aspettiamo che il sistema ritorni ad uno stato di equilibrio termodinamico. Le equazioni che abbiamo studiato finora non includono l’interazione tra il sistema ed il bagno termico, che è quella che riporta il sistema all’equilibrio. Alle equazioni vanno quindi aggiunti dei termini, detti termini di rilassamento, che descrivono, appunto, l’interazione del nostro sistema atomico con il bagno termico. Qui introdurremo i termini di rilassamento in modo fenomenologico, ma è opportuno ricordare che la loro espressione può essere derivata in modo rigoroso formulando una teoria quantistica dell’interazione microscopica tra il nostro sistema e il bagno termico. In modo fenomenologico, i termini di rilassamento si scrivono dRx = −γ⊥ Rx dt dRy = −γ⊥ Ry dt dRz = −γk (Rz − Rz0 ) (11.39) dt dove Rz0 è il valore di Rz all’equilibrio termico. Le definizioni di rilassamento perpendicolare (o rilassamento trasversale), con coefficiente γ⊥ , e rilassamento parallelo (o rilassamento longitudinale), con coefficiente γk , sono legate al fenomeno della risonanza magnetica, in cui questi termini sono stati introdotti per la prima volta da F. Bloch. I processi fisici che modificano le coerenze, quantificati nel valore di γ⊥ , distruggono le fasi relative dei coefficienti delle funzioni d’onda nell’espansione degli stati del sistema sugli autostati di Ĥ0 . Invece i fenomeni che variano le popolazioni, quantificati nel valore di γk , richiedono uno scambio di energia tra il sistema ed il bagno termico. Oltre che per il coefficiente di rilassamento implicato, la terza delle (11.39) differisce dalle prime due per la presenza del termine Rz0 , che corrisponde al fatto che all’equilibrio termico le coerenze sono nulle, mentre esiste una differenza di popolazione data dalla distribuzione di Boltzmann. Un caso importante di decadimento esponenziale delle popolazioni e delle coerenze è rappresentato dall’emissione spontanea. Se l’emissione spontanea è l’unico processo che agisce abbiamo dN1 = A12 N2 dt 127 11.4. RILASSAMENTO E EQUAZIONI DI BLOCH OTTICHE dN2 = −A12 N2 dt (11.40) che portano a dRz = A12 (1 − Rz ) dt che è analoga all’ultima delle (11.39), in questo caso abbiamo cosı̀ (11.41) γk = A12 . (11.42) Il caso del rilassamento perpendicolare è più delicato. La presenza delle coerenze ρ12 e ρ21 richiede che sia il livello |1i che il livello |2i siano popolati. Se la popolazione del livello a energia più alta |2i tende a zero, tendono a zero anche ρ12 e ρ21 indipendentemente dalla popolazione di |1i. Se l’unica causa di rilassamento è l’emissione spontanea abbiamo d |a2 |2 = −A12 |a2 |2 , dt che può essere ottenuta da da2 A12 =− a2 , dt 2 (11.43) infatti da2 ∗ da∗2 A12 A12 ∗ d ∗ (a2 a2 ) = a2 + a2 = − a2 a∗2 − a2 a2 = −A12 |a2 |2 . dt dt dt 2 2 Questo ci porta a porre dρ12 A12 =− ρ12 , dt 2 dρ21 A12 =− ρ21 , dt 2 γ⊥ = A12 . 2 (11.44) (11.45) E’ importante notare che, nel caso di rilassamento dovuto all’emissione spontanea, il rilassamento trasversale è più lento del rilassamento longitudinale, mentre per gli altri processi tipicamente abbiamo γ⊥ ≥ γk . In presenza di campi elettromagnetici, l’evoluzione del sistema è dovuta all’interazione simultanea del sistema con i campi e con il bagno termico che determina il rilassamento. Una trattazione rigorosa del caso generale è piuttosto complessa. Ma, se la radiazione elettromagnetica non è troppo forte, è una buona approssimazione sommare semplicemente i due contributi all’evoluzione, ottenendo le equazioni di Bloch ottiche d Rx = (ω21 − ω)Ry − γ⊥ Rx dt d Ry = −(ω21 − ω)Rx + ΩR Rz − γ⊥ Ry dt d Rz = −ΩR Ry − γk (Rz − Rz0 ). dt (11.46) La soluzione delle (11.46) permette di determinare l’evoluzione temporale di popolazioni, coerenze e polarizzazione in un esperimento che possa essere approssimato come l’interazione di un sistema a due livelli con un’onda elettromagnetica monocromatica e un bagno termico. Mentre la soluzione transiente, che descrive il passaggio da una generica condizione iniziale allo 128 CAPITOLO 11. MATRICE DENSITÀ stato stazionario, è abbastanza complicata, la soluzione stazionaria è abbastanza semplice. In condizioni stazionarie dobbiamo avere d d d Rx = Ry = Rz = 0, dt dt dt (11.47) quindi le (11.46) diventano ω21 − ω Ry γ⊥ Rx = Ry = − ω21 − ω ΩR Rx + Rz γ⊥ γ⊥ Rz = 1 − ΩR Ry γk (11.48) dove abbiamo usato il fatto che Rz0 = 1. Combinando le prime due delle (11.48) otteniamo per Ry γ⊥ Ry = 2 ΩR Rz , (11.49) γ⊥ + (ω21 − ω)2 che, inserita nell’ultima delle (11.48) ci dà γk γ⊥2 + (ω21 − ω)2 , Rz = 2 γk γ⊥ + (ω21 − ω)2 + Ω2R γ⊥ (11.50) a sua volta, questa ci permette di calcolare Ry Ry = ed infine da Ry ricaviamo Rx Rx = γk γ⊥2 γk γ⊥ ΩR + (ω21 − ω)2 + Ω2R γ⊥ (ω21 − ω) γk ΩR . + (ω21 − ω)2 + Ω2R γ⊥ γk γ⊥2 (11.51) (11.52) Dalla (10.71) abbiamo visto che ad un’onda elettromagnetica il cui campo elettrico va come E0 cos ωt è associata una densità di energia per unità di volume w = ε0 E02 , 2 (11.53) e quindi un’intensità, cioè una potenza per unità di superficie I = c w = c ε0 E02 . 2 (11.54) Introduciamo l’intensità di saturazione Is , definita da Is = ~2 c γ k γ ⊥ ε0 . 2 D2 (11.55) 129 11.4. RILASSAMENTO E EQUAZIONI DI BLOCH OTTICHE Abbiamo cosı̀ D2 Ω2R E2 2 I = c ε0 0 = Is 2 ε0 ~2 c γ k γ ⊥ γk γ⊥ (11.56) e sostituiamo Ω2R = γk γ⊥ I/Is nelle (11.50-11.52) Rx ω21 − ω ΩR γ⊥ = (ω21 − ω)2 I γ⊥ 1+ + 2 γ⊥ Is Ry = ΩR γ⊥ 1 I (ω21 − ω)2 + 1+ 2 γ⊥ Is (ω21 − ω)2 γ⊥2 = . (ω21 − ω)2 I 1+ + γ⊥2 Is 1+ Rz (11.57) Dalla ultime delle (11.57) vediamo il significato dell’intensità di saturazione Is : se siamo in risonanza, ω = ω21 , ed applichiamo un’intensità di radiazione I pari a Is , abbiamo Rz = 1/2, mentre avevamo supposto che all’equilibrio termico fosse N1 = N ed N2 = 0, quindi Rz = 1. L’interazione con il campo elettromagnetico tende ad uguagliare le popolazioni, cioè a portare a Rz = 0. Il valore I = Is corrisponde all’intensità a cui si ha Rz = Rz0 /2. Nel caso di N10 ≈ N e N20 ≈ 0 abbiamo Rzsat = 1 N sat − N2sat RZ0 = = 1 , 2 2 N 3 da cui N1sat = , 4 1 N2sat = , 4 N1sat − N2sat = N . (11.58) 2 Sempre in risonanza, ma con N10 < N e N20 > 0, all’equilibrio termico, abbiamo Rzsat = N 0 − N20 N sat − N2sat RZ0 = 1 = 1 , 2 2N N da cui N1sat − N2sat = N10 − N20 . 2 (11.59) Nel caso generale, con anche ω 6= ω21 , l’espressione per Rz diventa (ω21 − ω)2 1+ N10 − N20 γ⊥2 Rz = I (ω21 − ω)2 N + 1+ 2 γ⊥ Is (11.60) da cui otteniamo per la differenza di popolazione in presenza di radiazione (ω21 − ω)2 γ⊥2 0 0 N 1 − N 2 = N Rz = N − N 1 2 (ω21 − ω)2 I 1+ + γ⊥2 Is 1+ (11.61) 130 CAPITOLO 11. MATRICE DENSITÀ e per la differenza di popolazione in caso di risonanza ω = ω21 N1 − N2 = N10 − N20 . I 1+ Is (11.62) mentre per le singole popolazioni abbiamo nel caso generale N1 (ω21 − ω)2 (N10 − N20 ) N γ⊥2 + = (ω21 − ω)2 I 2 2 1+ + 2 γ⊥ Is N2 (ω21 − ω)2 (N10 − N20 ) N γ⊥2 − , = I (ω21 − ω)2 2 2 + 1+ γ⊥2 Is 1+ 1+ (11.63) e, in caso di risonanza N1 = 11.5 0 0 1 N + N1 − N2 , I 2 1+ Is N2 = 0 0 1 N − N1 − N2 I 2 1+ Is (11.64) Indice di rifrazione e coefficiente di assorbimento ~ = µ0 H, ~ e senza cariche libere In un materiale non magnetico, per il quale si possa scrivere B ~ ·D ~ = 0, le equazioni di Maxwell si scrivono in modo che ∇ ~ ·D ~ = 0 ∇ ~ ~ ×E ~ = − ∂B ∇ ∂t ~ ·B ~ = 0 ∇ ~ ~ ×B ~ = µ0 J~ + µ0 ∂ D . ∇ ∂t (11.65) Facendo il rotore della seconda equazione otteniamo 2 ~ ~ ×B ~ = −µ0 ∂ J~ − µ0 ∂ D ~ ×∇ ~ ×E ~ =−∂∇ ∇ ∂t ∂t ∂t2 (11.66) che, combinata con l’identità vettoriale ~ ×∇ ~ ×E ~ =∇ ~ ∇ ~ · E − ∇2 E ~ ∇ (11.67) 11.5. INDICE DI RIFRAZIONE E COEFFICIENTE DI ASSORBIMENTO 131 ~ · E = 0, ci porta a tenendo conto che qui ∇ ~ = µ0 ∇2 E ricordiamo ancora che ∂ ~ ∂2 ~ J + µ0 2 D ∂t ∂t ~ = ε0 E ~ + P~ , D (11.68) (11.69) e sostituiamo nell’equazione precedente ~ = µ0 ∇2 E ∂2 ∂2 ~ ∂ ~ + µ0 2 P~ . J + µ0 ε0 2 E ∂t ∂t ∂t (11.70) Se supponiamo che l’onda si propaghi lungo l’asse z, e proiettiamo l’equazione sul piano xy otteniamo 2 2 ~ T = −µ0 ∂ P~T , ~ T − µ0 ∂ J~T − 1 ∂ E (11.71) ∇2 E ∂t c2 ∂t2 ∂t2 dove il pedice T sta per trasverso. La presenza di J~T è dovuta alla presenza di mezzi metallici che assorbono la radiazione incidente, ma nell’ambito dell’ottica quantistica questo termine serve a rappresentare le perdite subite dal campo elettromagnetico durante la sua propagazione sugli specchi e su altri elementi ottici non perfetti. Introducendo la conducibilità σ, possiamo scrivere ~T J~T = σ E (11.72) da cui ∂ ~ ∂2 ~ 1 ∂2 ~ PT , ET − 2 2 E T = −µ0 ∂t c ∂t ∂t2 ~ T e P~T descritti da Introduciamo una soluzione tipo onda piana con E h i ~ T (t, z) = 1 E ~ 0 (t, z) e−i(ωt−kz) + E ~ ∗ (t, z) e+i(ωt−kz) E 0 2 i 1 h~ −i(ωt−kz) ∗ +i(ωt−kz) ~ ~ P0 (t, z) e + P0 (t, z) e , PT (t, z) = 2 ~ T − µ0 σ ∇2 E (11.73) (11.74) ~ 0 (t, z) e P0 (t, z) generiche funzioni di t e z. Vedremo più sotto che la scomposizione delle con E ~ 0 (t, z) e P0 (t, z) varino lentamente rispetto agli (11.74) è particolarmente utile nel caso che E esponenziali. Dalla (11.23) b ~ ~e · P = N (ρ12 D + ρ21 D), e dalle (11.30), che possono essere riscritte otteniamo ρ12 = 1 (Rx − iRy )e+iωt 2 ρ21 = 1 (Rx + iRy )e−iωt 2 N b ~ ~e · P = D (Rx + iRy )e−iωt + (Rx − iRy )e+iωt . 2 (11.75) (11.76) 132 CAPITOLO 11. MATRICE DENSITÀ Un confronto con la seconda delle (11.74) ci porta a ~e · P~0 = DN (Rx + iRy ), da cui ℜ(~e · P~0 ) = DN Rx , ℑ(~e · P~0 ) = DN Ry . (11.77) Abbiamo cosı̀ ΩR ℜ(~e · P~0 ) = D γ⊥ ΩR ℑ(~e · P~0 ) = D γ⊥ ω21 − ω γ⊥ (N10 − N20 ) (ω21 − ω)2 I 1+ + γ⊥2 Is 1 (N10 − N20 ) (ω21 − ω)2 I 1+ + γ⊥2 Is (11.78) dove abbiamo supposto un equilibrio temodinamico con differenza di popolazione (N10 − N20 ). Le componenti del momento di dipolo elettrico possono anche essere definite attraverso la parte reale e la parte immaginaria della suscettività dielettrica, χ ′ e χ ′′ : P0 = ε0 (χ ′ − iχ ′′ )E0 (11.79) Ricordando che ΩR = DE0 /~, abbiamo χ′ ω21 − ω D ℜ(P0 ) γ⊥2 = = (N10 − N20 ) 2 (ω21 − ω) I ε0 E 0 ε0 ~ 1+ + 2 γ⊥ Is 2 = D2 ℜ(P0 ) = ε0 E 0 ε0 ~ χ ′′ = − = − γ⊥2 ω21 − ω (N10 − N20 ) I 1+ + (ω21 − ω)2 Is D2 ℑ(P0 ) =− ε0 E 0 ε0 ~γ⊥ D2 ε0 ~ 1 (N10 − N20 ) 2 (ω21 − ω) I 1+ + 2 γ⊥ Is γ ⊥ (N10 − N20 ) I γ⊥2 1 + + (ω21 − ω)2 Is (11.80) La suscettività determina come si modifica un’onda elettromagnetica descritta dalla (11.74) attraversando un mezzo. Per risolvere la (11.74) applichiamo l’approssimazione di onda lentamente variabile, definita dalle condizioni ∂E0 ∂E0 ∂t ≪ ω|E0 |, ∂z ≪ k|E0 | ∂P0 ≪ ω|P0 |, ∂P0 ≪ k|P0 |. (11.81) ∂t ∂z 11.6. EQUAZIONI DI RATE E FORME DI RIGA 133 In questa approssimazione, la (11.74) può essere scritta, dopo passaggi che per il momento non riesco a ricavare ∂ σ kD 1∂ E0 + E0 + E0 = −i P0 (11.82) ∂z ε0 c ∂t 2ε0 L’ampiezza della polarizzazione P0 si ottiene dalla soluzione delle equazioni di Bloch ottiche che, combinate alla (11.82) costituiscono le equazioni di Maxwell-Bloch. L’equazione (11.82) permette di determinare la variazione nello spazio e nel tempo della parte reale del campo elettrico. Si dimostra che il coefficiente di assorbimento del mezzo attraversato dipende da χ ′′ . Sempre dalla (11.82) si ricava che la variazione della fase del campo elettromagnetico, cioè l’indice di rifrazione del mezzo attraversato, dipende da χ ′ . La potenza assorbita W da un’unità di volume del mezzo assorbente può essere calcolata attraverso l’espressione ~ ~ T dPT = 1 ℜ [E ∗ (iωP0 )] = ε0 ωχ ′′ E 2 W=E 0 0 dt 2 2 (11.83) che dimostra come la parte immaginaria χ ′′ della suscettività determina l’assorbimento da parte del mezzo attraversato. Utilizzando le (11.80) per la suscettività, la (11.54) per l’intensità della radiazione I, e la (11.54) per l’intensità di saturazione, otteniamo per la potenza assorbita W= 11.6 ε0 D2 E02 ω 2~ γ⊥2 γ ⊥ (N10 − N20 ). I 1+ + (ω21 − ω)2 Is (11.84) Equazioni di rate e forme di riga Consideriamo un sistema a due livelli interagente con un’onda elettromagnetica, in assenza di interazioni con un bagno termico. L’evoluzione temporale della differenza di popolazione può essere scritta, tenendo conto che W12 = W21 , d (N1 − N2 ) = −2W21 (N1 − N2 ). dt (11.85) La terza equazione di Bloch ottica è d 1 d Rz = (N1 − N2 ) = −ΩR Ry − γk (Rz − Rz0 ) dt N dt (11.86) in cui il primo termine dell’ultimo membro descrive l’interazione con il campo di radiazione. La soluzione delle equazioni di Bloch per Ry nel caso stazionario è data dalle (11.49) Ry = γ⊥2 γ⊥ ΩR Rz + (ω21 − ω)2 che, sostituita nella (11.86) ci dà d γ⊥ Rz − γk (Rz − Rz0 ). Rz = −Ω2R 2 dt γ⊥ + (ω21 − ω)2 (11.87) 134 CAPITOLO 11. MATRICE DENSITÀ Separando la parte che riguarda l’interazione con la radiazione dalla parte contenente γk che descrive la variazione delle popolazioni per effetto dell’interazione con il bagno termico, la (11.87) diventa γ⊥ d (N1 − N2 ) = −Ω2R 2 (N1 − N2 ) (11.88) dt γ⊥ + (ω21 − ω)2 rad che, paragonata alla (11.85) ci dà W21 = Ω2R γ⊥ D2 E02 γ⊥ = 2 2 2 γ⊥ + (ω21 − ω)2 2~2 γ⊥ + (ω21 − ω)2 (11.89) che ci dà una forma di riga lorentziana in funzione della differenza tra la frequenza della radiazione ω e la frequenza di transizione ω21 . I conti svolti in questo paragrafo presuppongono che Rx ed Ry evolvano cosı̀ rapidamente da raggiungere lo stato stazionario prima di Rz . Questo implica che sia γ⊥ ≫ γk . 11.7 Accoppiamento atomo-bagno termico Consideriamo un sistema di atomi a due livelli che interagisca con un bagno termico in assenza di radiazione. Il bagno termico può indurre transizioni tra i livelli atomici |1i e |2i. L’equazione di rate per l’evoluzione della popolazione del livello atomico eccitato |2i si scrive dN2 = W21 N1 − W12 N2 dt (11.90) che ha come soluzione stazionaria W12 N10 = . (11.91) 0 N2 W21 Se il sistema atomi più bagno termico si trova all’equilibrio termodinamico ad una temperatura T , e supponiamo che le condizioni siano tali che sia soddisfatta la statistica di MaxwellBoltzmann, deve anche essere N10 = e(E2 −E1 )/kT , 0 N2 da cui otteniamo W12 = e(E2 −E1 )/kT = e∆E/kT . W21 (11.92) A prima vista questa relazione può sembrare sorprendente perché sembra che le probabilità di transizione abbiano una informazione sulla temperatura del bagno termico. Inoltre, quando abbiamo trattato il caso delle transizioni dovute ad interazioni con la radiazione elettromagnetica, o, più in generale, ad hamiltoniane di perturbazione dipendenti dal tempo, le probabilità di transizione nelle due direzioni erano identiche. La cosa però si spiega ricordando che il principio del bilancio dettagliato deve essere applicato ad un sistema isolato, la cui energia viene conservata. Nel nostro caso questo sistema non è il sistema atomico da solo, ma l’insieme “sistema atomico + bagno termico”. Il bagno termico, per ipotesi, ha una grande capacità termica, per cui la sua variazione di energia è piccola rispetto all’energia totale, e le proprietà del bagno termico non vengono alterate sensibilmente negli scambi di energia con gli atomi del nostro sistema. tot Dal punto di vista del sistema totale, W12 rappresenta la probabilità per unità di tempo che contemporaneamente: 135 11.7. ACCOPPIAMENTO ATOMO-BAGNO TERMICO i. l’atomo passi dallo stato ad energia più alta |2i a quello ad energia più bassa |1i cedendo at at l’energia ∆E = E2 − E1 , evento che ha probabilità W12 = W21 , e che ii. il bagno termico assorba l’energia ∆E, passando da un certo stato del bagno |αi ad un altro stato di energia superiore |βi, con Eβ − Eα = ∆E. Questo evento avrà probabilità res Wβα . Quella che noi osserviamo non è quindi semplicemente la probabilità di transizione atomica at tot at res W12 , ma una probabilità di transizione “complessiva” W12 = W12 Wβα (dove il suffisso “res” at at sta per reservoir, bagno termico), essendo W12 = W21 abbiamo quindi res tot at W res Wβα W12 W12 βα = . = tot at res res W21 W21 Wαβ Wαβ (11.93) Mentre gli stati |1i e |2i sono stati singoli, gli stati |αi e |βi corrispondono in realtà a molteplicità di stati, data la complessità del bagno termico. Per la regola d’oro di Fermi, per avere la probabilità di transizione ad una molteplicità di stati bisogna moltiplicare il modulo quadro dell’elemento di matrice dell’hamiltoniana di perturbazione per il numero degli stati finali, abbiamo quindi res tot Wβα N res (β) W12 . (11.94) = = tot res W21 Wαβ N res (α) Facendo il logaritmo della (11.94) otteniamo log tot W12 tot W21 = log[N res (β)] − log[N res (α)] = 1 res [S (β) − S res (α)] k (11.95) dove con S res abbiamo indicato l’entropia del bagno termico, e abbiamo sfruttato il fatto che S(α) = k log[N res (α)], (11.96) infatti, quando diciamo che il bagno termico si trova nello stato |αi, in realtà non sappiamo in quale di N res (α) stati effettivamente si trovi. Abbiamo quindi un’informazione mancante relativa a N res (α) casi equiprobabili. Mentre il bagno termico assorbe l’energia ∆E passando dallo stato |αi allo stato |βi il suo volume e la sua temperatura restano praticamente costanti, per cui abbiamo ∆E S res (β) − S res (α) = , (11.97) T quindi log tot W21 tot W12 = ∆E , kT da cui tot W21 = e∆E/kT tot W12 (11.98) che dimostra la (11.92). In altre parole, il bagno termico fornisce al sistema atomico l’informazione sulla temperatura a causa delle transizioni all’interno del bagno termico stesso, ed alla variazione di informazione collegata, che necessariamente accompagnano le transizioni all’interno del sistema atomico. 136 11.8 CAPITOLO 11. MATRICE DENSITÀ Allargamento omogeneo Nelle formule che descrivono l’interazione tra la radiazione elettromagnetica e la materia compare una forma di riga φ(ω − ω21 ), caratterizzata da una certa larghezza di riga ∆ω = γ⊥ , che dice come varia la probabilità dell’assorbimento in funzione della frequenza. La larghezza di riga può avere origini diverse, e può essere di tipo omogeneo o non omogeneo. Si parla di allargamento omogeneo quando si ha la stessa forma di riga (inclusi centro e larghezza) per ogni atomo (o molecola) del sistema. Nella maggior parte dei casi l’allargamento omogeneo è dovuto alla durata finita del tempo di interazione tra la radiazione elettromagnetica e gli atomi assorbenti. Il tempo di interazione può essere limitato ad un valore T da processi di vario genere, come, per esempio, l’emissione spontanea o la durata finita dell’impulso di radiazione. Un’applicazione diretta del principio di indeterminazione di Heisenberg ∆E∆t > ~/2 ci porta ad una larghezza della riga di assorbimento ∆ω = ∆E 1 = . ~ 2T (11.99) Un altro meccanismo di allargamento omogeneo, nel caso di un gas, è l’allargamento per pressione, dovuto dalle collisioni interatomiche che modificano i processi di interazione tra la radiazione elettromagnetica e gli atomi. Possiamo supporre che ad ogni collisione la fase relativa dell’interazione radiazione-atomo sia modificata bruscamente e cominci una nuova evoluzione coerente, con fase non correlata a quella di prima dell’urto. L’allargamento omogeneo è cosı̀ determinato dal tempo medio tra due collisioni Tc , dato da ℓ Tc = , v (11.100) s 8kT , con µ = m1 m2 /(m1 + m2 ), la πµ velocità relativa media tra due atomi di massa m1 e m2 che collidono. Il libero cammino medio per urti tra sfere rigide di raggio a, con n sfere per unità di volume, vale dove ℓ è il cammino libero medio tra due collisioni e v = 1 ℓ= √ 4 2πna2 (11.101) √ dove il fattore 2 appare quando viene fatta una integrazione sulla distribuzione delle velocità di Maxwell-Boltzmann. Otteniamo cosı̀ r πµ 1 . (11.102) Tc = √ 4 2πna2 8kT Questa formula può essere scritta in funzione della pressione del gas. Dall’equazione dei gas pV = N kT (11.103) otteniamo per il numero di atomi per unità di volume n n= N p = , V kT (11.104) 137 11.9. ALLARGAMENTO DISOMOGENEO: EFFETTO DOPPLER che, sostituito nella (11.102) ci dà 1 Tc = √ 4 2πa2 r πµ kT = 8kT p r µkT 1 , π 16a2 p 1 da cui ∆ω = = 2Tc r π 8 a2 p. µkT (11.105) Sperimentalmente si osserva che, per diversi sistemi atomici e molecolari, l’allargamento per pressione è dato con buona approssimazione dall’espressione ∆ω ≈ 8.357 11.9 MHz p Pa (11.106) Allargamento disomogeneo: effetto Doppler L’allargamento per effetto Doppler è dovuto alla componente della velocità dei singoli atomi lungo la direzione di propagazione della radiazione elettromagnetica. Consideriamo un’onda elettromagnetica di frequenza ν0 che si propaghi lungo l’asse z del nostro sistema di riferimento, ed un atomo di massa m che si muova con velocità vz opposta alla direzione di propagazione dell’onda. Per l’effetto Doppler, nel proprio sistema di quiete l’atomo vede un’onda di frequenza v u v u1 + z vz u c ν = ν0 t (11.107) vz ≈ ν 0 1 + c . 1− c Perché l’onda venga assorbita bisogna che non ν0 , ma ν sia uguale alla frequenza ν21 di separazione tra il livello |1i e il livello |2i. Pertanto la radiazione sarà assorbita solo dagli atomi che hanno velocità lungo l’asse z ν21 − ν0 ν21 − ν0 ν21 −1 =c ≈c , (11.108) vz = c ν0 ν0 ν21 dove abbiamo tenuto conto del fatto che ν21 ≈ ν0 . La probabilità che la componente z della velocità dell’atomo sia nell’intervallo (vz , vz + dvz ) è P (vz ) dvz = r m 2 e−mvz /2kT dvz , 2πkT (11.109) sostituendo la (11.108), da cui ricaviamo anche che dvz = −c dν0 , ν21 otteniamo per la probabilità che un atomo possa assorbire radiazione nell’intervallo di frequenza (ν0 , ν0 + dν0 ) m 2 (ν21 − ν0 )2 r − c 2 m c ν21 e 2kT dν0 . (11.110) φ(ν0 ) dν0 = 2πkT ν21 138 CAPITOLO 11. MATRICE DENSITÀ Il valore massimo dell’esponenziale si ha per ν0 = ν21 . La larghezza Doppler ∆νD è definita in modo che per ν0 = ν21 ± ∆νD l’esponenziale valga 1/2. Abbiamo quindi r 2 ν21 m 2 ∆νD 2kT c 2 = log 2 da cui ∆νD = . (11.111) log 2 2kT ν21 c m La (11.110) può cosı̀ essere riscritta φ(ν0 ) = r che ci dà una forma di riga Gaussiana. log 2 1 −(ν0 −ν12 )2 /∆νD2 e , π ∆νD (11.112) Capitolo 12 Regole di selezione 12.1 Considerazioni di simmetria In questo paragrafo introdurremo alcuni concetti di simmetria per l’hamiltoniana imperturbata di un atomo. Per semplicità, consideriamo l’atomo di idrogeno col suo unico elettrone. L’equazione di Schrödinger si scrive ~2 ∆ + V (~r) ψn (~r) = En ψn (~r). (12.1) Ĥ0 (~r) ψn (~r) = − 2m Per il potenziale generato dal nucleo vale V (~r) = V (−~r). (12.2) D’altra parte, anche per il laplaciano che compare nell’espressione dell’operatore relativo all’energia cinetica vale ∂2 ∂2 , per xi = x, y, z. (12.3) = ∂(−xi )2 ∂x2i Quindi, in assenza di campi esterni, l’hamiltoniana è invariante per parità, cioè per trasformazioni che mandino ~r in −~r. Indipendentemente da questo, se effettuiamo il cambiamento di variabili ~r → −~r, da Ĥ0 (~r) ψn (~r) = En ψn (~r) otteniamo Ĥ0 (−~r) ψn (−~r) = En ψn (−~r). (12.4) Ma dall’invarianza per parità abbiamo che Ĥ0 (−~r) = Ĥ0 (~r), quindi Ĥ0 (~r) ψn (−~r) = En ψn (−~r), (12.5) che ci dice che ψn (−~r) e ψn (~r) sono autofunzioni di Ĥ0 corrispondenti allo stesso autovalore. Se siamo in assenza di degenerazione all’autovalore En corrisponde un solo autostato. Naturalmente sappiamo che se ψn (~r) è un’autofunzione di un operatore corrispondente ad un certo autostato |ni, anche la funzione αψn (~r), con α numero complesso qualunque, è un’autofunzione corrispondente allo stato |ni. Quindi deve essere ψn (−~r) = α ψn (~r). 139 (12.6) 140 CAPITOLO 12. REGOLE DI SELEZIONE Se in ambedue i membri sostituiamo ~r con −~r otteniamo ψn (~r) = α ψn (−~r). (12.7) D’altra parte, se sostituiamo la (12.6) nella (12.7) abbiamo ψn (−~r) = α ψn (~r) = α2 ψn (−~r) (12.8) da cui α2 = 1, α = ±1, ψn (−~r) = ±ψn (~r). (12.9) In altre parole, in assenza di degenerazione, le autofunzioni di Ĥ0 hanno parità definita: o sono pari, o sono dispari. Un’altra proprietà di Ĥ0 è la sua invarianza per rotazioni di qualunque angolo attorno a qualunque asse passante per il nucleo, per esempio, attorno all’asse z. Indicando con ϕ l’angolo di rotazione attorno a z, abbiamo cosı̀ Ĥ0 (r, ϑ, ϕ + ϕ1 ) = Ĥ0 (r, ϑ, ϕ). (12.10) Scrivendo l’equazione di Schrödinger in coordinate sferiche abbiamo Ĥ0 (r, ϑ, ϕ + ϕ1 ) ψn (r, ϑ, ϕ + ϕ1 ) = En ψn (r, ϑ, ϕ + ϕ1 ), (12.11) che, data l’invarianza per rotazione di Ĥ0 , equivale a Ĥ0 (r, ϑ, ϕ) ψn (r, ϑ, ϕ + ϕ1 ) = En ψn (r, ϑ, ϕ + ϕ1 ). (12.12) Ancora una volta, se non c’è degenerazione deve essere ψn (r, ϑ, ϕ + ϕ1 ) = αϕ1 ψn (r, ϑ, ϕ), (12.13) con il fattore di proporzionalità αϕ1 che può dipendere da ϕ1 . Se facciamo una rotazione di ϕ2 anziché di ϕ1 abbiamo (12.14) ψn (r, ϑ, ϕ + ϕ2 ) = αϕ2 ψn (r, ϑ, ϕ). Adesso sostituiamo ϕ + ϕ2 al posto di ϕ nella (12.13), ottenendo ψn (r, ϑ, ϕ + ϕ1 + ϕ2 ) = αϕ1 ψn (r, ϑ, ϕ + ϕ2 ), (12.15) che, in base alla (12.14), può essere riscritta ψn (r, ϑ, ϕ + ϕ1 + ϕ2 ) = αϕ1 αϕ2 ψn (r, ϑ, ϕ), (12.16) αϕ1 +ϕ2 = αϕ1 αϕ2 . (12.17) da cui si ricava Quest’ultima relazione è verificata solo se αϕ = eimϕ , (12.18) con m parametro da determinare. Ogni funzione deve essere trasformata in sé stessa da una rotazione di un angolo uguale a 2π. Abbiamo quindi la condizione eim2π = 1, (12.19) che implica che m sia un numero intero, positivo o negativo. Questa relazione ci permette anche di determinare la dipendenza delle ψn dalla coordinata sferica ϕ. Infatti abbiamo ψn (r, ϑ, 0 + ϕ) = αϕ ψn (r, ϑ, 0) = eimϕ ψn (r, ϑ, 0), con m intero. (12.20) 141 12.2. TRANSIZIONI DI DIPOLO ELETTRICO 12.2 Transizioni di dipolo elettrico Come abbiamo visto nel paragrafo 10.3 l’operatore momento di dipolo elettrico per un atomo può essere scritto Z X b P~ = −e ~rbi , i=1 con componenti P̂x = −e Z X P̂y = −e x̂i , i=1 Z X ŷi , i=1 P̂z = −e Z X ẑi . i=1 (12.21) Limitandoci, per semplicità di calcolo, all’atomo di idrogeno, abbiamo b P~ = −e b ~r, con componenti P̂x = −e x̂, P̂y = −e ŷ, P̂z = −e ẑ, (12.22) dove b ~r ≡ (x̂, ŷ, ẑ) è l’operatore posizione dell’elettrone nel sistema di riferimento del nucleo. Se b vogliamo calcolare il valor medio di P~ su un qualunque autostato |ni di Ĥ0 abbiamo b hn|P~ |ni = −e Z +∞ dx −∞ Z +∞ dy −∞ Z +∞ −∞ dz ψn∗ (~r) ~r ψn (~r). (12.23) Se nell’integrale effettuiamo il cambiamento di variabili x → −x, y → −y, z → −z, il valore dell’integrale stesso rimane invariato, quindi Z −∞ Z −∞ Z −∞ b −dz ψn∗ (−~r) (−~r) ψn (−~r). −dy −dx hn|P~ |ni = −e (12.24) +∞ +∞ +∞ L’integrale triplo rimane inalterato anche se adesso per ognuno degli integrali scambiamo i limiti di integrazione e cambiamo il segno del differenziale Z +∞ Z +∞ Z +∞ b ~ dz ψn∗ (−~r) (−~r) ψn (−~r). (12.25) dy dx hn|P |ni = −e −∞ −∞ −∞ Se supponiamo di non avere degenerazione, continua ad essere valida per la funzione d’onda la proprietà (12.9), quindi ψn∗ (~r)ψn (~r) è invariante per parità, e ψn∗ (−~r)ψn (−~r) = ψn∗ (~r)ψn (~r): Z +∞ Z +∞ Z +∞ b ~ dz ψn∗ (−~r) (−~r) ψn (−~r) dy dx hn|P |ni = −e = −e = +e Z Z +∞ dx −∞ +∞ dx −∞ −∞ −∞ −∞ Z Z +∞ dy −∞ +∞ dy −∞ Z Z +∞ −∞ dz ψn∗ (~r) (−~r) ψn (~r) +∞ −∞ dz ψn∗ (~r) (~r) ψn (~r), (12.26) che, paragonato alla (12.23), porta a b b hn|P~ |ni = −hn|P~ |ni = 0. (12.27) 142 CAPITOLO 12. REGOLE DI SELEZIONE b Come avevamo già detto, P~ ha valor medio nullo su qualunque autostato non degenere di Ĥ0 . Se abbiamo a che fare con un atomo diverso dall’atomo di idrogeno, rimane il fatto che gli autostati non degeneri dell’hamiltoniana imperturbata hanno parità definita. I conti appena fatti possono quindi essere ripetuti con funzioni d’onda che dipendono dalle coordinate di tutti gli elettroni dell’atomo (opportunamente antisimmetrizzate), e con il momento di dipolo scritto nella forma b (12.21), riottenendo il risultato che il valor medio di P~ è nullo su qualunque stato stazionario dell’atomo. Una cosa molto importante da notare è che, usando proprietà di simmetria, siamo arrivati a dire che il valore dell’integrale è zero senza doverlo calcolare esplicitamente. b Per gli elementi di matrice di P~ tra due autostati diversi di Ĥ0 , per esempio |mi e |ni, il risultato precedente ci dice che Z +∞ Z +∞ Z +∞ b ~ hn|P |mi = dx dy dz ψn∗ (~r) ~r ψm (~r). (12.28) −∞ −∞ −∞ può essere (ma non necessariamente è) diverso da zero solo se gli stati |mi e |ni hanno parità diversa. Per andare oltre conviene considerare separatamente le singole componenti del dipolo ed usare le coordinate sferiche, con l’asse z preso come asse di quantizzazione. Etichettiamo esplicitamente gli autostati come |n, l, mi, e le funzioni d’onda come ψn,l,m (r, ϑ, ϕ). Per la componente P̂z , abbiamo Z ′ ′ ′ hn , l , m |P̂z |n, l, mi = −e ψn∗ ′ ,l′ ,m′ (r, ϑ, ϕ) (r cos ϑ) ψn,l,m (r, ϑ, ϕ) dτ, (12.29) dove z è stato scritto come r cos ϑ, e dτ è l’elemento di volume. Applichiamo una rotazione di un angolo arbitrario ϕ0 attorno all’asse z, che lascia inalterata l’hamiltoniana. Poiché z non viene cambiato dalla rotazione, la (12.20) ci dice che la trasformazione dell’elemento di matrice è ′ (12.30) hn′ , l′ , m′ |P̂z |n, l, mi → hn′ , l′ , m′ |P̂z |n, l, miei(m−m ) ϕ0 . D’altra parte l’elemento di matrice deve restare invariato, quindi, se hn, l, m|P̂z |n′ , l′ , m′ i 6= 0, dobbiamo avere ′ ei(m−m ) ϕ0 = 1 (12.31) qualunque sia il valore di ϕ0 . Questo è possibile solo se m′ = m. Questa è una regola di selezione: se il campo elettrico dell’onda elettromagnetica è diretto lungo l’asse z, possono avvenire transizioni di dipolo elettrico solo tra stati con m′ = m. In questo caso si parla di radiazione polarizzata π (il valore fonetico di “π” è “p”, per polarizzazione “parallela” all’asse di quantizzazione). Anziché trattare direttamente le componenti P̂x e P̂y , adesso conviene considerare le loro combinazioni P̂+ e P̂− definite da P̂+ = P̂x + iP̂y P̂− = P̂x − iP̂y . (12.32) Esprimendo x e y in coordinate polari, cioè x = r sin ϑ cos ϕ e y = r sin ϑ sin ϕ, abbiamo per gli elementi di matrice Z ′ ′ ′ hn , l , m |P̂± |n, l, mi = −e ψn∗ ′ ,l′ ,m′ (r, ϑ, ϕ) r sin ϑe±iϕ ψn,l,m (r, ϑ, ϕ) dτ. (12.33) 143 12.2. TRANSIZIONI DI DIPOLO ELETTRICO Se, di nuovo, facciamo una rotazione di un angolo arbitrario ϕ0 attorno all’asse z, che lascia inalterata l’hamiltoniana, abbiamo la trasformazione ′ hn, l, m|P̂± |n′ , l′ , m′ i → hn, l, m|P̂± |n′ , l′ , m′ iei(m−m ±1)ϕ0 . (12.34) Imponendo nuovamente che l’elemento di matrice resti invariato, vediamo che deve essere m′ = m + 1 perché possa essere hn, l, m|P̂+ |n′ , l′ , m′ i 6= 0 m′ = m − 1 perché possa essere hn, l, m|P̂− |n′ , l′ , m′ i 6= 0. (12.35) Una seconda regola di selezione ci dice quindi che, per radiazione polarizzata perpendicolarmente all’asse di quantizzazione, si possono avere solo transizioni con m′ = m ± 1. In questo caso si parla di luce polarizzata σ (il valore fonetico di σ è “s”, “perpendicolare” in tedesco si dice “senkrecht”, quindi, polarizzazione “perpendicolare” all’asse di quantizzazione). In caso di radiazione σ polarizzata circolarmente, si chiama polarizzazione σ + quella che induce transizioni con m′ = m + 1, polarizzazione σ − quella che induce transizioni con m′ = m − 1. Con considerazioni analoghe, ma più complicate dal punto di vista matematico, possiamo ricavare la regola di selezione per il momento angolare orbitale dell’elettrone: l′ = l ± 1. (12.36) Regole di selezione più generali possono essere ottenute, in maniera più elegante, dal teorema di Wigner-Eckart, per il quale rimandiamo ad un testo di meccanica quantistica. 144 CAPITOLO 12. REGOLE DI SELEZIONE Capitolo 13 Superconduttività 13.1 Un richiamo di magnetismo classico Il fenomeno della superconduttività non può essere interpretato semplicemente come il caso limite di un materiale a resistività nulla dell’elettromagnetismo classico. La presenza dell’effetto Meissner, che vedremo nel seguito, ci dice che un materiale superconduttore reale è un materiale perfettamente diamagnetico. Per questo ci conviene cominciare il capitolo con due richiami di magnetismo ed uno di termodinamica. ~a Cominciamo ricordando il problema di una sfera di permeabilità B magnetica relativa µr e raggio R, inserita in un campo magnetico ~ a , come in Fig. 13.1. In questo capitolo inR esterno uniforme B O ~ dicheremo sempre con Ba il campo applicato dallo sperimentatore, z µr per esempio regolando la corrente che passa in un solenoide. A questo si aggiungerà, eventualmente, il campo dovuto alla presenza di materiali con µr 6= 1. Controlliamo se esiste una soluzione Figura 13.1: Sfera con ~ (i) all’interno della sfera è uniforme e permeabilità magnetica µr in cui il campo magnetico B ~ a , mentre il campo all’esterno B ~ (e) è la sovrappo- in campo magnetico esterproporzionale a B (m) ~ a e di un campo B ~ sizione di B generato dalla magnetizzazione no uniforme. della sfera. Questo sarà pari al campo generato da un dipolo mag~ a situato al centro O della sfera stessa. Controlliamo quindi se è possibile che netico m ~ = αB sia ~ (i) = k B ~a B ~ (e) = B ~a + B ~ (m) , B (13.1) (13.2) dove α e k sono costanti di proporzionalità da determinare. In coordinate sferiche, con origine ~ (m) e le sue componenti in O e z come asse polare, abbiamo per B µ0 ẑ · ~r ẑ (m) ~ B = αBa 3 5 ~r − 3 , (13.3) 4π r r µ0 2 cos ϑ Br(m) = αBa , (13.4) 4π r3 µ0 sin ϑ (m) , (13.5) Bϑ = αBa 4π r3 145 146 CAPITOLO 13. SUPERCONDUTTIVITÀ Bϕ(m) = 0, (13.6) dove ẑ è il versore dell’asse z ed r il modulo della distanza da O. I valori di α e k si determinano ~ e della componente imponendo le condizioni di continuità della componente perpendicolare di B ~ in ogni punto della superficie della sfera. Abbiamo (vedi Fig. 13.2) parallela di H (e) ⇒ kBa cos ϑ = Ba cos ϑ + Br(m) = Ba cos ϑ + αBa (i) (e) ⇒ k (m) Hk = Hk B µr Ba B Ba sin ϑ = sin ϑ − ϑ µ0 µr µ0 µ0 ~ (e) = B ~a + B ~ (m) B ~ (i) O m ~ µ0 2 cos ϑ 4π R3 Ba 1 sin ϑ , = sin ϑ − αBa µ0 4π R3 (i) B⊥ = B⊥ ϑ R z (13.7) (13.8) il segno meno al secondo membro della (13.8) è dovuto ~ (m) . Semplifiall’orientazione della componente ϑ di B cando, otteniamo il sistema di due equazioni nelle due incognite k ed α 2αµ0 4πR3 αµ0 , = 1− 4πR3 k = 1+ k µr ~ e Figura 13.2: Raccordo dei campi B ~ tra dentro e fuori la sfera. H che ha soluzioni 3µr k= µr + 2 4πR3 e α= µ0 µr − 1 µr + 2 . (13.9) (13.10) (13.11) Da qui otteniamo per il campo all’interno della sfera, per il suo momento di dipolo magnetico ~ fuori e dentro alla sfera e per il campo H 3 ~ (e) ~ (i) 3µ 4πR µ − 1 r r (i) ~ = ~ a, m ~a = ~ a, H ~ (e) = B , H ~ (i) = B . (13.12) B B ~ = αB B µr + 2 µ0 µr + 2 µ0 µ0 µr ~ =B ~ a all’infinito, e le condizioni di raccordo alla Poiché sono rispettate la condizione che sia B superficie della sfera, le (13.12) sono l’unica soluzione del problema. All’interno della sfera la ~ sarà magnetizzazione M ~ ~ (i) m ~ µ − 1 Ba B r (i) (i) ~ = χm H ~ = (µr − 1)H ~ = (µr − 1) =3 = , (13.13) M µ0 µr µr + 2 µ0 V dove V = 4πR3 /3 è il volume della sfera. Un altro caso che ci interesserà è quello di un cilindro ~ a , parallelo al infinito di permeabilità magnetica µr immerso in un campo magnetico uniforme B suo asse. In questo caso è facile ricavare dalla continuità di Hk = H alla superficie del cilindro ~ (i) = µr B ~ a. che il campo interno sarà B Inoltre, è possibile dimostrare che in un qualunque ellissoide di materiale omogeneo ed ~ a uniforme e parallelo isotropo, con permeabilità magnetica µr e posto in un campo applicato B (i) ~ è uniforme e proporzionale a B ~ a . La ad uno degli assi, il campo magnetico all’interno B dimostrazione richiede però l’uso di coordinate ellissoidali ed esula dagli scopi del corso. Qui ci limitiamo a notare che la sfera ed il cilindro che abbiamo appena trattato sono casi particolari dell’ellissoide. 147 13.2. LAVORO DI MAGNETIZZAZIONE 13.2 Lavoro di magnetizzazione Consideriamo un cilindro non ferromagnetico di raggio R e lunghezza l inizialmente in assenza di campi magnetici. Vogliamo calcolare il lavoro fatto sul campione quando lo si magnetizza, ~ a parallelo al suo asse. Supponiamo che valga la accendendo un campo magnetico applicato B ~ H ~ e la magnetizzazione M ~ possano condizione l ≫ R, in modo che, all’interno del cilindro B, ~ continuo alla superficie laterale. Chiameremo B ~ (i) , H ~ (i) e essere considerati uniformi, con H ~ (i) i valori finali all’interno del campione. Il calcolo può essere effettuato in due modi, ed è M utile considerarli entrambi, 13.2.1 Lavoro “meccanico” sul campione Supponiamo di avere un campo magnetico che, con ottima approssimazione, possa essere considerato uniforme su volumi delle dimensioni del nostro campione, ma che, in realtà, vari ~ a all’origine delle coordinate fino ad annullarsi almolto lentamente da un valore massimo B l’infinito. Supponiamo inoltre che il centro del nostro campione cilindrico si trovi in un punto ~ è diretto lungo z, e che l’asse del cilindro sia anch’esso diretto (x, y = 0, z = 0) nel quale B lungo z. Vogliamo calcolare il lavoro che il cilindro fa sull’esterno se trasla di una quantità dx. Conviene cominciare considerando le forze di y I Lorentz che agiscono sui lati di una spiretta rettangolare, di lati dx e dy, percorsa da una ~ B f~(x) f~(x + dx) corrente I, come in fig. 13.3. Avremo dy 0 f (x) = −I dy B(x) ∂B f (x + dx) = I dy B(x) + dx , ∂x x dx per cui la forza complessiva lungo l’asse x vale Figura 13.3: Forze di Lorentz sui lati di una spiretta rettangolare di lati dx e dy in presenza di ~ un campo magnetico B(x) diretto lungo z. ∂B ∂B = dm , F (x) = I dx dy ∂x ∂x ~ dove dm è il momento magnetico della spiretta, diretto lungo l’asse z. Se il gradiente di B cambia sufficientemente lentamente, la forza complessiva sul cilindro può essere scritta Fx = m ∂B . ∂x Quindi, per il lavoro fatto dal cilindro quando si sposta di dx possiamo scrivere dL = Fx dx = m ∂B dx = m dB, ∂x espressione che può essere generalizzata in ~ dL = m ~ · dB, (13.14) ~ che corrisponde al lavoro che il cilindro fa sull’esterno quando il campo magnetico passa da B ~ + dB. ~ Questo è l’opposto del lavoro di magnetizzazione, cioè il lavoro che deve essere fatto aB 148 CAPITOLO 13. SUPERCONDUTTIVITÀ ~ aB ~ + dB, ~ e, conseguentemente, il momento di sul campione quando si porta il campo da B ~ ~ + dM ~ ). In particolare, il dipolo complessivo del campione da m ~ = VM a m ~ + dm ~ = V (M lavoro di magnetizzazione per portare il cilindro alla magnetizzazione che si ha in presenza di un campo applicato Ba è il lavoro necessario per portare il cilindro dall’infinito all’origine delle coordinate: Z Ba ~ L=− m ~ · dB (13.15) 0 13.2.2 Lavoro effettuato dal generatore Adesso supponiamo invece che il nostro campione cilindrico occupi interamente l’interno di un solenoide di N spire percorse da una corrente I. Supponiamo anche che la resistenza delle spire sia trascurabile. Inizialmente abbiamo I = B = H = M = 0, e connettiamo l’avvolgimento del solenoide ad un generatore di corrente, aumentando gradualmente la corrente I che scorre nelle spire. Per giungere alla situazione finale, con una corrente Ia che genera un campo interno al solenoide H (i) = Ha = Ia N/l, corrispondente ad un campo B applicato Ba = µ0 Ia N/l (diverso dal campo B (i) all’interno del campione!), ed il campione magnetizzato con una magnetizzazione M (i) , il generatore deve compiere lavoro. In assenza di resistenza delle spire, il lavoro richiesto al generatore è dovuto al fatto che, quando varia B (i) , sull’avvolgimento si genera una contro-forza elettromotrice E. Cosı̀, se ad un certo istante della trasformazione la corrente nel solenoide è I, il lavoro fatto dal generatore per contrastare E durante il tempo dt è dLtot = −EI dt. (13.16) Esprimiamo E e I in termini di B ed H all’interno del solenoide. Da una parte abbiamo E =− dΦ dB (i) = −N πR2 , dt dt dall’altra H = N I, l da cui I = l H. N (13.17) Sostituendo nella (13.16) dLtot = N πR2 dB (i) l Hdt = πR2 l H dB (i) . dt N Ricordando che πR2 l = V , volume del campione (e dell’interno del solenoide), otteniamo dLtot = V H dB (i) . (13.18) ~ (i) = µ0 (H ~ +M ~ ), e sostituendo otteniamo Scrivendo B (i) in termini di H e di M , abbiamo B µ0 H 2 + V µ0 HdM. (13.19) dLtot = V H(µ0 dH + µ0 dM ) = d V 2 Integrando otteniamo Z Ia Z Ia Z Ia µ0 Ha2 µ0 H(I)2 + V µ0 + V µ0 H(I) dM = V H(I) dM Ltot = d V 2 2 0 0 0 Z Ia Ba2 = V + V µ0 H(I) dM (13.20) 2µ0 0 149 13.2. LAVORO DI MAGNETIZZAZIONE dove il primo termine a secondo membro è l’energia che si avrebbe all’interno del solenoide in presenza della corrente Ia ma in assenza del cilindro, e il secondo termine è il lavoro fatto sul cilindro. Alternativamente, possiamo supporre di partire ancora in assenza di corrente, di campi magnetici, e di magnetizzazione, ma con il campione a distanza infinita dal solenoide, per arrivare alla stessa situazione finale in cui il campione riempe il solenoide, nel quale scorre la corrente Ia . Il lavoro necessario per arrivare alla situazione finale può essere scomposto in tre parti 1. Portare da zero al valore finale la corrente, ed il campo magnetico, nel solenoide. 2. Portare il campione nel solenoide, mantenendo costante la corrente Ia mentre il campione si muove e si magnetizza. Questo comporta lavoro per due motivi (a) A corrente Ia fissa nel solenoide, bisogna fare lavoro sul campione per portarlo dall’infinito all’interno del solenoide, muovendolo contro le forze esercitate dal campo del solenoide stesso. (b) E’ necessario lavoro per mantenere costante la corrente Ia nelle spire del solenoide contrastando la forza elettromotrice indotta dal campione che si sta avvicinando ed entrando. Il lavoro necessario per il passo (1) è semplicemente L(1) = V Ba2 , 2µ0 (13.21) che corrisponde all’energia immagazzinata nel solenoide vuoto percorso dalla corrente Ia . Il lavoro necessario per il passo (2a) non è altro che quello dato dall’eq. (13.15) Z Ba (2a) ~ m ~ · dB. L =− 0 Nel passo (2b) il generatore deve compiere lavoro per mantenere costante la corrente Ia nelle spire mentre all’interno del solenoide B cambia dal valore iniziale Ba , quando il campione è a distanza infinita, al valore finale B (i) quando il campione è completamente inserito nel solenoide. Alla fine avremo ~ (i) = µ0 H ~ (i) + M ~ (i) = µ0 H ~ a + µ0 M ~ +M ~ (i) = B ~ (i) . B Abbiamo quindi per il contributo al lavoro Z Ba +µ0 M (i) Z fine Z dΦ 2 (2b) dt = Ia πR N dB L = − Ia Edt = Ia dt Ba inizio Z Ba +µ0 M (i) N 2 dB = Ha V µ0 M (i) . = Ia lπR l Ba (13.22) Il lavoro totale fatto dal generatore sarà quindi L tot =L (1) +L (2a) +L (2b) B2 =V a −V 2µ0 Z Ba 0 M · dB + Ha V µ0 M (i) . (13.23) 150 CAPITOLO 13. SUPERCONDUTTIVITÀ L’integrazione per parti mostra che V µ0 Z Ia H(I) dM = Ha V µ0 M (i) 0 −V Z Ba 0 M · dB per cui la (13.23) coincide con la (13.20). 13.3 Un richiamo di termodinamica Nel caso che un sistema termodinamico interagisca con un campo magnetico, nel primo principio della termodinamica δL = δQ − dU (13.24) dobbiamo tenere conto del fatto che il lavoro δL è costituito, oltre che dal lavoro meccanico, dal ~ del campo esterno. La (13.24) può essere riscritta, lavoro magnetico associato a variazioni dB nel caso di una trasformazione reversibile, in cui dS = δQ/T , δL = T dS − dU. (13.25) Introduciamo l’energia libera (o energia libera di Helmholz ) F , definita da F = U − T S, con dF = dU − T dS − SdT. (13.26) F è una funzione di V e T . Per una trasformazione reversibile isoterma, in cui dT = 0, abbiamo che δL = −dF (13.27) Quindi nei processi isotermi reversibili (come quelli che avvengono in un sistema in contatto con un bagno termico) l’energia libera ha un ruolo analogo a quello dell’energia potenziale per un sistema isolato in meccanica. Infatti la (13.27) ci dice che il lavoro fatto dal sistema è uguale alla sua diminuzione di energia libera. Per processi isotermi non reversibili, il secondo principio della termodinamica δQ (13.28) dS ≥ T implica che il lavoro ottenuto è minore della diminuzione di energia libera. L’energia libera, essendo costruita partendo da funzioni di stato, è una funzione di stato. In una qualunque trasformazione reversibile vale la relazione dU = δQ − δL = T dS − δL. In assenza di lavoro di magnetizzazione avremmo δL = p dV , mentre in sua presenza abbiamo, ~ Il differenziale dell’energia libera può cosı̀ essere riscritto dalla (13.14), δL = p dV + m ~ · dB. ~ − T dS − S dT dF = T dS − p dV − m ~ · dB ~ − S dT. = −p dV − m ~ · dB (13.29) Essendo F una funzione di stato, la (13.29) è valida anche per una trasformazione non reversibile. 151 13.4. SUPERCONDUTTIVITÀ E CAMPO MAGNETICO CRITICO 13.4 Superconduttività e campo magnetico critico Campo magnetico applicato (13.30) ) I(t) = I0 e−Rt/L . (T Bc Heike Kammerlingh Onnes (1853 – 1926), dopo aver realizzato la liquefazione dell’elio nel 1908, ha iniziato uno studio sistematico della dipendenza della resistività elettrica dei metalli dalla temperatura. Nel 1911, studiando la resistività di un campione di mercurio, ha notato che a circa 4 K la resistenza crollava bruscamente ad un valore che Onnes non era in grado di distinguere dallo zero. A questo fenomeno Onnes ha dato il nome di superconduttività, ed alla temperatura al di sotto della quale il fenomeno si presenta il nome di temperatura critica Tc . Un valore più preciso per la temperatura critica del mercurio è Tc = 4.2 K. I superconduttori convenzionali (i superconduttori ad alta temperatura, scoperta più recente, sono un caso differente) hanno temperature critiche normalmente comprese tra meno di 1 K e circa 20 K. Se il flusso ΦB del campo magnetico attraverso una spira metallica viene cambiato, per la legge di B0 Faraday-Neumann e la legge di Lenz viene indotta Conducibilità normale nella spira stessa una corrente elettrica che cerca di mantenere costante ΦB . Se la spira ha resistenza R e induttanza L, dopo un brusco cambiamento di ΦB la corrente indotta decade nel tempo secondo la legge Superconduttore La misura dell’andamento di I(t) permette di deterTemperatura Tc minare valori di R molto più piccoli di quelli misurabili con metodi potenziometrici. Nel 1956 S.C. Collins ha Figura 13.4: Dipendenza del campo osservato la corrente indotta in una spira supercondut- critico B dalla temperatura in un suc trice scorrere per circa 2 anni e mezzo senza decadi- perconduttore. Al di sotto della curva mento apprezzabile, fissando cosı̀ un limite superiore si ha la superconduttività, al di sopra la alla resistività del campione pari a 10−21 Ω cm. conducibilità normale. A temperature inferiori a Tc la superconduttività può essere distrutta, con ritorno alla conducibilità normale, applicando al campione un campo magnetico esterno superiore ad un certo valore critico Bc . Il campo critico Bc dipende approssimativamente dalla temperatura secondo la legge " 2 # T , (13.31) Bc ≈ B0 1 − Tc dove B0 è il campo critico allo zero assoluto. L’andamento è riportato in Fig. 13.4. Spesso è conveniente usare le grandezze adimensionali t = T /Tc e b = Bc (T )/B0 , con le quali l’equazione (13.31) diventa b ≈ 1 − t 2. (13.32) In realtà, la dipendenza di b da t è rappresentata con maggiore precisione da uno sviluppo in serie di Taylor in cui il coefficiente di t è nullo ed il coefficiente di t2 differisce dall’unità per qualche percento. La superconduttività di un filo o di una lamina viene distrutta quando la corrente che vi circola raggiunge un certo valore critico Ic . Per campioni sufficientemente spessi 152 CAPITOLO 13. SUPERCONDUTTIVITÀ da rendere trascurabili gli effetti ai bordi, la corrente critica è quella che genera un campo pari a Bc alla superficie del campione (regola di R. H. Silsbee). Tuttavia, campioni sufficientemente piccoli perché gli effetti ai bordi non siano trascurabili restano superconduttori anche quando in essi circolano correnti molto più alte di quella determinata dalla regola di Silsbee. 13.5 L’effetto Meissner ) Campo magnetico applicato (T Bc C’è una differenza molto importante tra un superconduttore (materiale osservato sperimentalmente) ed un conduttore perfetto (materiale ideale per cui viene ipotizzata una resistività nulla). Supponiamo di avere un conduttore classico la cui resistività si annulli, senza “effetti collaterali”, al di sotto di una certa temperatura critica Tc . Se siamo inizialmente a T < Tc ed in assenza di campo magnetico e, ad un certo istante, accendiamo il campo magnetico, si generano correnti superficiali indotte che impediscono al flusso magnetico di penetrare nel campione. A resistività nulla, queste correnti superficiali indotte possono durare indefinitamente. Adesso supponiamo invece che il nostro campione sia inizialmente ad una temperature T > Tc , quindi un B0 conduttore normale, ed immerso in un campo magnetico applicato Ba 6= 0. All’interno del campione Conducibilità normale ci sarà un certo flusso ΦB 6= 0. Ad un certo istante raffreddiamo il campione sotto Tc : la resistenza si annulla, ma non compaiono correnti indotte e ΦB non Superconduttore cambia. Successivamente spegniamo il campo appliC D cato. A questo punto compaiono correnti superficiali indotte che mantengono inalterato il flusso interno B A ΦB indefinitamente. Questo comporta che lo stato Temperatura Tc del campione non sia determinato solo dai valori delFigura 13.5: Dipendenza dello stato fi- la temperatura e del campo magnetico applicato, ma nale dal percorso della transizione per un che dipenda anche dalle trasformazioni subite prececonduttore perfetto. dentemente. Consideriamo, per esempio, due percorsi diversi tra uno stesso stato iniziale A, rappresentato in Fig. 13.5, in cui T > Tc , e quindi si ha conducibilità normale, e non c’è campo magnetico esterno, ed uno stesso stato finale B, in cui T < Tc , quindi a resistività è nulla. Sia in A che in B il campo magnetico applicato è nullo. ~ = 0 e ΦB = 0. In B è ancora Percorso A→B→C→B. In A il campione è “normale”, B ~ B = 0, ΦB = 0, ma la resistività del campione nulla. Nel passaggio da B a C si accende il campo magnetico, ma, poiché nel tratto B→C la resistività del campione è sempre nulla, il flusso magnetico ΦB che lo attraversa rimane nullo. Con il tratto C→B si torna allo stato B sempre mantenendo nullo ΦB . Percorso A→D→C→B. In A il campione è “normale” e ΦB = 0. In D il campione è ancora “normale”, ma ΦB 6= 0. Nel tratto D→C il campo magnetico esterno è costante, in D il campione è “normale, ma quando si atraversa la curva B = Bc (T ) la resistenza si annulla e ΦB viene “congelato”. Nel tratto C→B il campo esterno viene spento, ma, essendo il campione sempre conduttore perfetto, ΦB rimane congelato e si conserva. 153 13.6. DIAMAGNETISMO PERFETTO Tuttavia l’esperimento di W. Meissner e R. Ochsenfeld del 1933 ha dimostrato che, quando un materiale diventa superconduttore il flusso magnetico viene sempre espulso dal suo interno (effetto Meissner). Quindi, se abbiamo a che fare con un superconduttore reale anziché con un conduttore perfetto, negli stati B e C della Fig. 13.5 il flusso interno ΦB è sempre nullo, indipendentemente dalle trasformazioni precedenti subite dal campione. Questa è una caratteristica fondamentale di tutti i superconduttori reali di dimensioni grandi rispetto a una lunghezza caratteristica che definiremo in seguito. 13.6 Diamagnetismo perfetto E’ ragionevole supporre che l’espulsione del campo magnetico dall’interno dei superconduttori sia dovuto alla comparsa di correnti superficiali. In presenza di un campo magnetico esterno, la distribuzione delle correnti superficiali è tale da creare, all’interno del materiale supercondut~ tore, un campo interno che cancella il campo applicato. Una descrizione formale dei campi B ~ e della magnetizzazione M ~ , in un superconduttore macroscopico in presenza di un campo e H, ~ applicato Ba è quindi ~ (i) = H ~ (i) = M ~ (i) = 0; interno: B superficie: J~s = 6 0, dove J~s è la densità di corrente superficiale; ~ (e) = B ~a + B ~ s , dove B ~ a è il campo applicato e B ~ s il campo dovuto alle correnti esterno: B superficiali. ~s Per un superconduttore di forma qualunque, B perturba il campo esterno in prossimità della superficie del superconduttore, come mostrato in Fig. 13.6 per il caso di un superconduttore sferico. Anche se questa descrizione è formalmente corretta, è più conveniente considerare il superconduttore in presenza di un campo esterno come un materiale in cui si abbia µr = 0 R ϑ ~ (i) = 0 B ~ (e) B z ~ (i) = 0, H ~ (i) 6= 0, M ~ (i) 6= 0; interno: B superficie: J~s = 0; Figura 13.6: Sfera perfettamente diamagneti~ (i) = 0, le linee ~a + B ~ s , dove adesso B ~ s ca. Essendo il campo interno B esterno: B = B (e) ~ è il campo generato dalla magnetizzazione di forza del campo esterno B sono tangenti all’interno del campione superconduttore. alla superficie. ~ (e) Essendo ~ = µ0 ( H ~ +M ~ ), B ~ = χm H, ~ e M (13.33) questa descrizione equivale ad attribuire al superconduttore una magnetizzazione per unità di volume ~ (i) = −H ~ (i) , M 154 CAPITOLO 13. SUPERCONDUTTIVITÀ da cui seguono χm = −1, µr = χm + 1 = 0. (13.34) Il superconduttore si comporta quindi come un materiale perfettamente diamagnetico. ~a Se consideriamo una sfera superconduttrice di raggio R immersa in un campo applicato B (Fig. 13.6), ed inseriamo le (13.34) nella (13.13) otteniamo ~ ~ (i) = −M ~ (i) = 3 Ba . H 2 µ0 (13.35) ~ all’equatore della sfera (ϑ = π/2 Dalla condizione di continuità della componente parallela di H in Fig. 13.6) otteniamo ~a 3B (e) (i) ~ eq ~ eq H =H = , 2 µ0 3~ (e) (e) ~ eq ~ eq da cui B = µ0 H = B a, 2 (13.36) ~ ai poli (ϑ = 0 e mentre dalla condizione di continuità della componente perpendicolare di B ϑ = π in Fig. 13.6) della sfera otteniamo ~ (e) = B ~ (i) = 0. B pol pol (13.37) Il modulo del campo esterno B (e) ha quindi un massimo all’equatore, e due minimi ai poli. ~a e Se invece che una sfera abbiamo un cilindro superconduttore, con l’asse parallelo a B sufficientemente lungo da poter essere considerato infinito, la sua magnetizzazione non genererà ~ (e) = B ~ a . La condizione di continuità campo all’esterno del cilindro stesso, quindi avremo B ~ alla superficie laterale del cilindro impone della componente parallela di H ~ ~ (i) = H ~ (e) = Ba , H µ0 ~ ~ (i) = − Ba . da cui M µ0 (13.38) Ad una temperatura T < Tc , l’intero cilindro infinito rimane superconduttore fino a che il campo appli(e) ~ eq ~ c . Per B ~a > B ~c B cato non supera il valore critico B l’intero cilindro passa alla conducibilità normale. La situazione è un po’ più complicata per la sfera super~ (e) alla sua suconduttrice, data la non uniformità di B O (e) perficie. Il problema si pone per Beq = Bc > Ba , cioè z quando il campo applicato è ancora inferiore al campo critico Bc , ma il campo esterno all’equatore della sfera superconduttore raggiunge il valore critico. Ipotizzare che una porzione conduttore normale della sfera in prossimità dell’equatore passi alla con(e) Figura 13.7: Caso Beq > Bc > Ba : ducibilità normale (parte più scura in Fig. 13.7) porta interpretazione non possibile. ad una contraddizione. Infatti il confine tra la parte a conduzione normale e la parte superconduttrice si ha ~a B 155 13.6. DIAMAGNETISMO PERFETTO − Bc µ0 cilindro ro a fs er ilind c a sfer Quindi, nel range 23 Bc ≤ Ba ≤ Bc avremo all’interno della sfera superconduttrice 3 M (i) = − (Bc − Ba ) µ0 B c (13.39) H (i) = µ0 B (i) = Bc − µ0 M = 3Ba − 2Bc . −M (i) per B (e) = Bc , ma adesso, nella parte diventata normale, avremmo B (e) < Bc . Non è possibile immaginare una divisione macroscopica del campione in una parte normale e una superconduttrice che permetta una distribuzione del campo con B ≥ Bc nella prima, B < Bc nella seconda, e B = Bc sulle superfici di separazione. L’unica spiegazione possibile è postulare, come fatto separatamente da R. Peierls e da F. London nel 1936, che, una volta raggiunta la condizione Ba ≥ 23 Bc , l’intera sfera si divida in una moltitudine di regioni microscopiche alternativamente normali e superconduttrici, con B = Bc nelle prime e B = 0 nelle seconde. La distribuzione di queste regioni è tale che la magnetizzazione macroscopica per unità di volume cambia linearmente da Bc 3 Ba 2 M (i) = − =− per Ba = Bc µ0 2 µ0 3 a M (i) = 0 per Ba = Bc . La figura 13.8 mostra la dipendenza della magnetizzazione interna per una sfera e per un cilindro superconduttori in funzione del campo appli2 0 B Bc Ba 3 c cato Ba . Notate che per tutte e due le curve il lavoro per unità di volume Figura 13.8: Dipendenza della magnetizzazione dal camper portare il campione da campo 0 po applicato per un superconduttore sferico e uno cilindrico al campo critico è sempre dato da longitudinale. Z Bc 2 ~ (Ba ) · dB ~ a = − 1 Bc , M 2 µ0 0 pari a meno la densità di energia magnetica per unità di volume al campo critico. Nell’intervallo di campo 32 Bc ≤ Ba ≤ Bc , in cui il campione sferico non è né interamente superconduttore né interamente normale, si dice che il campione si trova nello stato intermedio. Qualunque sia la forma del campione, lo stato intermedio cessa a Ba = Bc . Il valore del campo applicato Bim , a cui lo stato intermedio inizia, dipende invece dalla particolare forma del campione. Per un ~ a , le (13.39) si riscrivono campione a forma di ellissoide generico, con uno degli assi parallelo a B 1 (Bc − Ba ) M (i) = − µ0 D Bc (13.40) H (i) = µ0 1 B (i) = Bc − (Bc − Ba ) , D 156 CAPITOLO 13. SUPERCONDUTTIVITÀ dove D prende il nome di coefficiente di demagnetizzazione relativo all’asse dell’ellissoide par~ a . Per una sfera si ha D = 1 , mentre nei due casi limite di cilindro infinito con l’asse allelo a B 3 ~ a e cilindro infinito con l’asse perpendicolare a B ~ a si ha, rispettivamente, D = 0 e parallelo a B D = 12 . Il campo a cui comincia lo stato intermedio vale Bim = (1 − D) Bc . Abbiamo quindi Bim = 23 Bc per una sfera, Bim = 12 Bc per un cilindro infinito trasversale, e Bim = Bc per un cilindro infinito longitudinale. Per quest’ultimo, quindi, non esiste stato intermedio. 13.7 Corrente di superconduttività 13.7.1 Correnti superficiali La quarta equazione di Maxwell è ~ ~ ×H ~ = J~cond + ∂ D , ∇ ∂t dove J~cond indica la densità volumica di corrente di conduzione. Ricordando le relazioni ~ ~ = B −M ~ H µ0 ~ = ε0 E ~ + P~ , e D possiamo riscrivere la quarta equazione di Maxwell all’interno dei materiali nella forma ~ ~ ~ ×B ~ = µ0 J~cond + µ0 ∇ ~ ×M ~ + ε0 µ0 ∂ E + µ0 ∂ P . ∇ ∂t ∂t (13.41) In assenza di campi elettrici e polarizzazioni elettriche variabili nel tempo la (13.41) diventa ~ ×B ~ = µ0 J, ~ ∇ dove (13.42) ~ ×M ~ J~ = J~cond + ∇ ~ M ~ essendo la densità volumica di corrente è la densità di corrente macroscopica complessiva, ∇× di magnetizzazione. E’ importante notare che, diversamente dal caso di un conduttore normale, ~ perché la natura fisica delle correnti libere in un superconduttore non ha senso isolare J~cond da J, e delle correnti di magnetizzazione è la stessa. Per lo stesso motivo, a rigor di termini, in un ~ , e, di conseguenza, del campo H. ~ superconduttore non ha senso parlare di magnetizzazione M ~ ed H ~ come vettori ausiliari, per Tuttavia, come abbiamo già visto, è possibile introdurre M comodità di calcolo. ~ (i) ≡ 0 segue che ∇× ~ B ~ (i) = 0, quindi, Dal fatto che all’interno di un superconduttore si ha B per la (13.42), anche J~ = 0. La densità di corrente è quindi nulla ovunque all’interno di un superconduttore: in un superconduttore possono esistere solo correnti superficiali. Le correnti superficiali esistono anche per i conduttori normali. La densità di corrente ~ quando si passa superficiale J~s è legata ad una discontinuità della componente tangenziale di B dall’esterno all’interno di un conduttore: 1 ~ (e) − B ~ (i) , (13.43) J~s = n̂ × B µ0 157 13.7. CORRENTE DI SUPERCONDUTTIVITÀ dove n̂ è il versore normale alla superficie, diretto verso l’esterno. Se all’esterno c’è il vuoto, ed il mezzo è omogeneo con permeabilità magnetica relativa µr , la continuità della componente ~ ci dice che n̂ × B ~ (e) = (n̂ × B ~ (i) )/µr , da cui ricaviamo parallela di H 1 J~s = n̂ × µ0 ~ (i) B ~ (i) −B µr ! ~ (i) = n̂ × B 1 − µr µ0 µr , (13.44) ~ (i) . Notare che la (13.44) può essere riscritta in funzione del solo campo interno B ~ (i) J~s = n̂ × B 1 − µr µ0 µr ~ (i) = −n̂ × B −χm µ0 µr ~ (i) × n̂, =M (13.45) formula nota dell’elettromagnetismo classico. Nel caso di un superconduttore abbiamo visto ~ (i) = 0, quindi la (13.43) diventa che è B ~ (e) B . J~s = n̂ × µ0 13.7.2 (13.46) Correnti superficiali nei conduttori normali C’è una differenza importante tra la corrente superficiale J~s che scorre su di un conduttore normale e quella che scorre sulla superficie di un superconduttore. Consideriamo una qualunque linea chiusa che giaccia sulla superficie di un conduttore normale, per esempio la linea chiusa l sul toro di Fig. 13.9. La carica superficiale totale che per unità di tempo attraversa la linea l, Is , è data dal flusso di J~s attraverso la linea l stessa: I ~ ~ (13.47) Is = Js · n̂ × dl dove n̂ continua ad essere il versore normale alla superficie, l’integrale è estesso alla linea chiusa, e consideriamo positiva la corrente che attraversa la linea nel verso di n̂ × d~l. Dalla (13.44) abbiamo Is I n̂ J~s ~ ~ Js · n̂ × dl = l I d~l 1 − µr (i) ~ ~ = n̂ × B · n̂ × dl µ0 µr I Figura 13.9: Corrente superficiale 1 − µr ~ (i) · d~l = 0, = B (13.48) su un conduttore normale. µ0 µr ~ in assenza di campi elettrici variabili nel tempo. E’ da notare che, data l’irrotazionalità di B nelle condizioni considerate, la corrente superficiale su di un conduttore normale è puramente corrente di magnetizzazione. 158 13.7.3 CAPITOLO 13. SUPERCONDUTTIVITÀ Correnti superficiali nei superconduttori La differenza nel caso di un superconduttore è che la (13.44) diventa indeterminata, perché sono nulli sia B (i) che µr . Cade quindi la (13.48), e non esiste più un vincolo per Is . E’ però da notare che, se un corpo superconduttore è semplicemente connesso, su di esso possono esistere ~ a. correnti superficiali stazionarie solo in presenza di un campo magnetico esterno B Supponiamo infatti, per assurdo, di avere una distribuzione non nulla di correnti superficiali in assenza di campo esterno. Queste correnti genererebbero in tutto lo spazio un campo magnetico costante nel tempo che si annullerebbe all’infinito. Se a tutto lo spazio togliamo il volume semplicemente connesso occupato dal superconduttore, ci rimane una parte di spazio semplicemente connessa in cui non circolano correnti. All’esterno del superconduttore quindi ~ si può scrivere come meno il gradiente di un certo potenziale scalare ϕ: B ~ = −∇ϕ ~ . B ~a B Per le condizioni al contorno, alla superficie del superconduttore dobbiamo avere ϑ ∂ϕ = 0, ∂n J~s z dove n̂ è la normale alla superficie. Ma dalla teoria del potenziale sappiamo che se ∂ϕ/∂n è nullo sia alla super~ M ficie di un corpo semplicemente connesso che all’infinito, ~ ϕ è costante su tutto lo spazio fuori dal corpo. Quindi B Figura 13.10: Corrente superficiale deve essere nullo, come le correnti superficiali che lo gensu una sfera superconduttrice. erano. D’altra parte, queste correnti dovrebbero scorrere in modo da non generare campo all’interno del superconduttore ~ a , avremo delle correnti superficiali tali Invece, in presenza di un campo applicato esterno B da annullare il campo stesso all’interno del superconduttore. Js può essere calcolata a partire ~ (i) tramite la relazione dal vettore ausiliario M (i) ~ (i) × n̂. Js = M Nei casi semplici considerati, cioè sfera superconduttrice e cilindro infinito superconduttore con ~ a , per le correnti superficiali abbiamo dalle (13.35) e (13.38) l’asse parallelo a B sfera: |Js | = 3 Ba sin ϑ, 2 µ0 cilindro: |Js | = Ba . µ0 ~a Il caso della sfera è rappresentato in Fig. 13.10. Le correnti scorrono in modo da cancellare B all’interno dei superconduttori. Le cose cambiano per un superconduttore che sia molteplicemente connesso. adesso, infatti, anche lo spazio esterno al superconduttore è molteplicemente connesso, e il potenziale scalare ϕ diventa polidromo. Consideriamo, per esempio, un superconduttore duplicemente connesso, come un toro (anello), in assenza di campo magnetico esterno applicato. 159 13.8. CAMPO MAGNETICO CRITICO 13.8 Campo magnetico critico Nel paragrafo 13.2 abbiamo visto che, se teniamo un campione a temperatura costante T in un ~ a , possono avvenire solo trasformazioni con campo magnetico esterno costante B ∆F ≤ 0, cioè, lo stato di equilibrio stabile è quello per cui l’energia libera F è minima. Il problema dell’equilibrio tra la fase normale e quella superconduttrice del metallo è quindi del tutto analogo ad una normale transizione di fase. La condizione di equilibrio tra fase superconduttrice e fase normale ad una data temperatura T < Tc si realizza al campo magnetico critico Bc , per il quale, quindi, si ha Fs (V, T, Bc ) = Fn (V, T ) (13.49) dove Fs (V, T, Bc ) e Fn (V, T ) sono, rispettivamente, le energie libere delle due fasi. Per Fn omettiamo la dipendenza dal campo magnetico, ipotizzando che, nella fase normale, si abbia con ottima approssimazione µr = 1. In condizioni tali che sia Fn < Fs è stabile la fase normale, mentre se Fs < Fn è stabile la fase superconduttrice. Al di sotto della temperatura critica Tc avremo Fs (V, T, 0) < Fn (V, T ), visto che, in assenza di campo magnetico, il campione si trova nella fase superconduttrice. La condizione Fs (V, T, Bc ) = Fn (V, T ) vale su ogni punto della curva della Fig. 13.4. Se ci muoviamo sulla curva facendo un piccolo, spostamento le due energie libere rimangono uguali, quindi avremo Fs (V, T + dT, Bc + dBc ) = Fn (V, T + dT ). Se sottraiamo la (13.49) otteniamo dFs = dFn (13.50) Dalla (13.29), tenendo conto del fatto che il volume del campione rimane praticamente immutato, abbiamo ~ c(i) · dB ~ c − Ss dT e dFn = −Sn dT, dFs = −V M (13.51) (i) ~ c è la magnetizzazione del campione superconduttore in presenza del campo critico, e dove M con Ss ed Sn abbiamo indicato l’entropia nelle due fasi. La (13.50) diventa ~ c(i) · dB ~ c − Ss dT = −Sn dT, −V M (13.52) da cui otteniamo ~ c(i) · dBc . Sn − Ss = V M (13.53) dT Nel caso di un campione a forma di cilindro allungato con l’asse parallelo al campo, per la (13.38) abbiamo Bc dBc Sn − Ss = −V , (13.54) µ0 dT analoga all’equazione di Clausius-Clapeyron. Poiché dBc /dT < 0, deve essere Sn > Ss : lo stato superconduttore ha un’entropia più bassa, e corrisponde ad un maggiore ordine. Associato alla differenza di entropia si ha un calore latente QL = T (Sn − Ss ) (13.55) 160 CAPITOLO 13. SUPERCONDUTTIVITÀ che deve essere assorbito nella transizione dallo stato superconduttore a quello normale. Si noti che Sn − Ss = 0 quando la transizione avviene a campo magnetico nullo (cioè per T = Tc ), quindi in questo caso non c’è calore latente associato alla transizione di fase. Per T → 0 il terzo principio della termodinamica ci dice che anche (Sn − Ss ) → 0, quindi il calore latente deve tendere a zero anche per T → 0. Inoltre, poiché Bc non tende a zero per T → 0, l’equazione (13.54) ci dice che deve tendere a zero la derivata dBc /dT . Tutto questo è in accordo con le osservazioni sperimentali, come mostrato nel grafico della Fig. 13.4. Se adesso poniamo il campione a campo zero ad una temperatura T < Tc , ed accendiamo lentamente il campo magnetico esterno mantenendo la temperatura costante, per la (13.29), con considerazioni analoghe a quelle usate per la (13.51), abbiamo ~ (i) · dBa = V Ba dBa , dFs = −V M µ0 e dFn = 0. Quando raggiungiamo il campo critico Bc abbiamo Z Bc B2 V Ba dBa = Fs (V, T, 0) + V c , Fs (V, T, Bc ) = Fs (T, V, 0) + µo 0 2µ0 d’altra parte, al campo critico abbiamo che Fs (V, T, Bc ) = Fn (V, T ), quindi, in assenza di campo, la differenza tra l’energia libera dello stato normale e quella dello stato superconduttore vale B2 ∆F = Fn (V, T ) − Fs (V, T, 0) = V c . (13.56) 2µ0 Sempre dalla Fig. 13.4 e dalla legge approssimata (13.31) vediamo che il valore massimo del campo critico si ha a T=0. Questo valore massimo di Bc è dell’ordine di qualche 10−2 Tesla, che corrisponde ad una differenza di energia libera dell’ordine di 10−8 eV (≈ 10−27 J) per atomo del campione. Come termine di paragone, si ricordi che l’energia di Fermi per gli elettroni di conduzione di un normale metallo è tra i 10 e i 20 eV (≈ 10−18 J). 13.9 Teoria microscopica Un elettrone di conduzione in un metallo si comporta con buona approssimazione come una particella libera. Infatti, se è vero che c’è una interazione repulsiva tra gli elettroni, è anche vero che c’è una interazione attrattiva tra gli elettroni e gli ioni positivi del reticolo, nel quale gli elettroni di conduzione sono immersi. Gli ioni del reticolo che circondano un elettrone di conduzione lo schermano cosı̀ dall’interazione con gli altri elettroni di conduzione. Questa considerazione è alla base sia del modello di Drude, in cui gli elettroni di conduzione in un metallo vengono trattati come un gas perfetto classico, che della trattazione quantistica degli elettroni di conduzione come un gas perfetto di Fermi. Lo stato fondamentale degli elettroni trattati come un gas perfetto (quindi senza interazioni tra gli elettroni stessi) di Fermi a 0 K corrisponde ad avere tutti i livelli di particella singola occupati fino all’energia di Fermi EF . Se per caso compare una sia pur debolissima forza attrattiva tra una coppia di elettroni, questi possono formare uno stato legato. A sua volta la formazione dello stato legato, con energia negativa, porta ad uno stato complessivo di energia inferiore di quella dello stato fondamentale degli elettroni liberi. Vediamo, anche se 161 13.9. TEORIA MICROSCOPICA in modo molto qualitativo, come può nascere un’interazione attrattiva tra gi elettroni di un metallo. La teoria di Cooper è basata sull’ipotesi che un elettrone in moto, attraendo gli ioni positivi del reticolo, lasci dietro di sé una traccia consistente in una distorsione del reticolo stesso, come schematizzato in Fig. 13.11. Al momento del passaggio dell’elettrone gli ioni del reticolo ricevono un impulso che, dato il rapporto tra le masse di ioni e elettrone, porta ad uno spostamento apprezzabile, e quindi ad una polarizzazione del reticolo, solo dopo che l’elettrone è passato. La deformazione si propaga dando origine a un fonone. La concentrazione di ioni positivi della deformazione genera una forza attrattiva su di un secondo elettrone. Questo modello può essere descritto anche in modo quantistico, interpretando le deformazioni del reticolo come sovrapposizioni di fononi, che l’elettrone assorbe e riemette continuamente attraverso la sua interazione con ~v il reticolo. I fononi virtuali possono vivere solo durante e− un tempo τ = 2π/ω per il principio di indeterminazione energia-tempo. Partiamo da un gas di Fermi di elettroni non interagenti a 0 K. Tutti gli stati di particella singola con vettore d’onda ~k con energia minore dell’energia di Fermi EF = ~kF2 /2m sono occupati, mentre tutti gli stati Figura 13.11: Deformazione del reticon E > EF sono vuoti. Adesso aggiungiamo al sistema colo degli ioni positivi da parte di un due elettroni di vettori d’onda ~k1 e ~k2 ed energie E(~k1 ) elettrone. e E(~k2 ), ambedue superiori a EF all’interno di un range EF < E < EF + ~ωD , dove ωD è la frequenza di Debye, cioè la frequenza massima per i fononi nel reticolo. Supponiamo che questi due elettroni siano accoppiati dall’interazione attrattiva descritta sopra. I due elettroni aggiuntivi interagiscono scambiando un fonone di vettore d’onda ~q, passando, rispettivamente, ai vettori d’onda ~k ′ = ~k1 − ~q e ~k ′ = ~k2 + ~q. 1 2 Per la conservazione della quantità di moto dovrà essere ~k1 + ~k2 = ~k ′ + ~k ′ = K. ~ 1 2 ~ kF + k1 δk ~k2 kF + D’altra parte ~k1 e ~k2 , cosı̀ come ~k1′ e ~k2′ , dovranno δk ~ K trovarsi, nello spazio dei vettori d’onda, all’interno kF kF di un guscio sferico di raggio interno pari a kF e raggio esterno pari a kF + δk, con E(kF + δk) = EF + ~ωD . Nella Fig. 13.12, che va intesa come ~ = ~k1 + ~k2 , simmetrica per rotazioni attorno a K Figura 13.12: Visualizzazione dei vettori abbiamo tracciato due gusci sferici, ognuno di rag- d’onda delle coppie di elettroni interagenti gio interno kF e raggio esterno kF + δk, centrati nello spazio reciproco dei numeri d’onda. ~ 1 ed alla rispettivamente attorno alla “coda” di K ~ della punta di ~k2 . Dalla figura vediamo che, una volta fissata la somma dei vettori d’onda K ~ ~ coppia di elettroni, tutte le possibili coppie di vettori d’onda (k1 , k2 ) devono avere la punta di ~k1 , coincidente con la “coda” di ~k2 , all’interno del volume evidenziato in grigio. Questo volume è direttamente legato al numero di processi di scambio di fonone che abbassano l’energia complessiva del gas di elettroni. Pertanto il numero di interazioni attrattive tra coppie di elettroni 162 CAPITOLO 13. SUPERCONDUTTIVITÀ ~ = 0, quando i due gusci diventa massimo quando diventa massimo questo volume cioè per K sferici si sovrappongono esattamente. Dobbiamo quindi avere ~k1 = −~k2 . (13.57) Nel seguito ci occuperemo quindi di coppie di elettroni con vettore d’onda opposto (coppie di Cooper). E’ possibile dimostrare che i termini di scambio riducono il valore assoluto dell’energia di interazione per coppie con spin parallelo, per cui possiamo limitare la nostra attenzione alle coppie di elettroni con vettore d’onda opposto e spin antiparallelo. L’ipotesi fondamentale della teoria BCS è quindi che nello stato fondamentale del gas di elettroni in un superconduttore a 0 K tutti gli stati elettronici in un sottile guscio sferico nello spazio reciproco dei vettori d’onda siano occupati con la maggior densità possibile da coppie di elettroni di quantità di moto opposta e spin opposto. L’energia di questo stato è più bassa dell’energia del metallo nello stato normale per la quantità (13.56) ∆E = V Bc2 . 2µ0 (13.58) L’equazione di Schrödinger per la funzione d’onda ψ(~r1 , ~r2 ) della coppia di Cooper può essere scritta ~2 − (∆1 + ∆2 ) + V (~r1 , ~r2 ) ψ(~r1 , ~r2 ) = (E + 2EF ) ψ(~r1 , ~r2 ), (13.59) 2m dove V (~r1 , ~r2 ) è il potenziale di interazione per scambio di fononi e 2EF è l’energia della coppia di elettroni in assenza di interazione (V (~r1 , ~r2 ) = 0). Capitolo 14 Raffreddamento magnetico 14.1 Introduzione Come abbiamo visto nel paragrafo 13.2, è possibile effettuare lavoro su di un corpo cambiando il valore del campo magnetico ad esso applicato. Questo fatto può essere sfruttato per raffreddare particolari campione paramagnetici fino a temperature molto basse, al di sotto del mK. Il procedimento è presenta analogie con il raffreddamento “meccanico” di un gas. Nel raffreddamento meccanico si ha una prima fase in cui si effettua lavoro sul gas comprimendolo, mentre è in contatto con un bagno termico. L’apporto di energia dovuto al lavoro fatto sul gas viene cosı̀ ceduto al bagno termico, ed il gas rimane temperatura costante. In una seconda fase viene tolto il contatto tra il gas e il bagno termico, lasciando il gas termicamente isolato. A questo punto il gas fa un’espansione adiabatica quasi statica (con buona approssimazione reversibile), nella quale compie lavoro a spese della propria energia interna, raffreddandosi. Analogamente, nel raffreddamento magnetico, mentre il campione si trova in contatto con un bagno termico (normalmente elio liquido) gli viene applicato un campo magnetico che induce una magnetizzazione, compiendo cosı̀ il lavoro dato dalla (13.15). Il campione non si riscalda perché il calore viene asportato dal bagno termico. Poi il campione viene isolato termicamente, ed il campo esterno viene azzerato adiabaticamente. I materiali nei quali il raffreddamento magnetico è più evidente sono sali paramagnetici, come il CMN (nitrato di cerio-magnesio), e leghe di gadolinio. Nei sali paramagnetici il paramagnetismo è dovuto allo spin degli elettroni periferici degli atomi paramagnetici. 14.2 Energia Poiché gli elettroni hanno spin 21 , ci sono solo due orientazioni possibili rispetto al campo ~ che supponiamo orientato lungo l’asse z. Le due orientazioni corrispondono ai magnetico B, due stati stazionari di particella singola |↑i e |↓i, in cui lo spin è rispettivamente parallelo e antiparallelo al campo. La componente mz del momento magnetico dell’elettrone m ~ ha cosı̀ due valori possibili mz = ∓2µB Sz e~ 1 , dove µB = ≈ 9.27 × 10−24 J/T è il magnetone di Bohr e Sz = ± ~, ~ 2me 2 163 164 CAPITOLO 14. RAFFREDDAMENTO MAGNETICO la discordanza tra i segni è dovuta alla carica negativa dell’elettrone. Per l’energia di particella ~ abbiamo quindi i due autovalori singola U = −m ~ ·B e E↓ = −µB B. E ↑ = µB B Per trattare l’insieme degli elettroni che danno origine al paramagnetismo possiamo usare la statistica classica (Boltzmann) perché, avendo a che fare con un solido in cui gli atomi paramagnetici sono presenti come impurità, la distanza media tra i singoli momenti è grande, e non facciamo errori apprezzabili se li consideriamo come distinguibili. Se abbiamo un totale di N elettroni che contribuiscono al paramagnetismo del nostro campione, il numero di elettroni con spin rispettivamente parallelo e antiparallelo al campo sarà N↑ = N µB B/kT e , Zsing N↓ = N −µB B/kT e , Zsing (14.1) dove Zsing è la funzione di partizione per la particella singola µB B µB B/kT −µB B/kT Zsing = e +e = 2 cosh . kT (14.2) Dalle relazioni (3.30) abbiamo per il moltiplicatore di Lagrange Ωsing , relativo alla normalizzazione della matrice densità per la particella singola, Ωsing = − log Zsing = − log[2 cosh(βµB B)], (14.3) dove β = 1/kT . Per l’energia totale U del campione abbiamo U = N↑ µB B − N↓ µB B = µB B = −µB B N tanh µB B kT N −µB B/kT e − e µB B/kT Z , (14.4) che può anche essere ottenuta da Ωsing nel modo seguente U = N Using = N ∂ ∂Ωsing = −N log[2 cosh(βµB B)] ∂β ∂β 1 = −N 2 sinh(βµB B)µB B = −µB B N tanh 2 cosh(βµB B) µB B kT , (14.5) dove Using = ∂Ωsing /∂β è l’energia media della particella singola. Per il contributo della magnetizzazione alla capacità termica abbiamo ∂U , C= ∂T N, p da cui 1 C = −µB B N µB B 2 cosh kT µ2B B 2 µB B = N − kT 2 kT 2 1 µB B 2 cosh kT (14.6) 165 14.3. ENTROPIA E RAFFREDDAMENTO MAGNETICO La dipendenza di C/N k dal parametro C µB B/kT è mostrato in fig. 14.1. Il calore Nk specifico tende a zero sia per B → 0, cor- 0.4 µB B → 0, che per T → 0, rispondente a kT µB B corrispondente a → ∞, in accordo con kT il terzo principio della termodinamica. Se µB B ≪ kT possiamo approssimare µB B 0 1 2 3 4 5 kT cosh(µB B/kT ) ≈ 1, da cui Z ≈ 2 e per N↑,↓ abbiamo Figura 14.1: Dipendenza del calore specifico dal parametro µB B/kT . N µB B N↑ = 1− (14.7) 2 kT N µB B N↓ = 1+ . (14.8) 2 kT Per la magnetizzazione abbiamo cosı̀ N Mz = −µB N↑ + µB N↓ = 2 µ2 B 2 B kT =N µ2B B = χB, kT (14.9) dove µ2B B kT è, a campi deboli, la suscettività magnetica del materiale. χ= 14.3 (14.10) Entropia e raffreddamento magnetico Per l’entropia abbiamo S = N Ssing = N (−kΩsing + kβUsing ) = −kN Ωsing + kβU, dove Ssing è l’entropia per la particella singola. Infatti, avendo supposto che non ci sia interazione tra i singoli elettroni che contribuiscono al paramagnetismo, l’informazione mancante totale sarà semplicemente la somma delle informazioni mancanti relative ai singoli elettroni. Inserendo le (14.3) e (14.4) otteniamo µB B µB B S = kN log [2 cosh(βµB B)] − kN tanh kT kT µB B µB B µB B = kN log 2 + log cosh tanh − . (14.11) kT kT kT Ponendo x = µB B abbiamo kT lim S = lim S = N k log 2 T →∞ x→0 (14.12) 166 CAPITOLO 14. RAFFREDDAMENTO MAGNETICO e lim S = kN lim [log 2 + log(cosh x) − x tanh x] x→∞ x ex − e−x e + e−x −x x = kN lim log 2 + log x→∞ 2 e + e−x = kN lim (log 2 + x − log 2 − x) = 0, lim S = T →0 x→∞ x→∞ (14.13) avendo tenuto conto del fatto che lim e−x = 0. L’andamento di S/N k in funzione del parametro x→∞ kT /µB B è mostrato in figura 14.2 E’ da notare che, in assenza di campo S magnetico, cioè per B = 0, il parametro Nk kT /µB B diverge per ogni valore di T dilog 2 verso da 0. Quindi, per B = 0, abbiamo S = N k log 2 per ogni valore di T , tranne T = 0. Passiamo adesso a considerare il raffreddamento magnetico. Nella prima fase il campione viene messo in contatto termico con un bagno di elio liquido, kT alla temperatura Ti , in presenza di un µB B campo magnetico Bi , che non sarà mai rigorosamente nullo. Questo stato inFigura 14.2: Dipendenza dell’entropia da kT /µB B. iziale corrisponde al punto a nel grafico di figura 14.3. Sempre in contatto con il bagno termico, quindi a temperatura costante, il campo magnetico sul campione viene aumentato fino al valore Bf , corrispondente allo stato b. Nella seconda fase il campione viene isolato termicamente, ed il campo appliS B=0 cato viene riportato lentamente, in un Bi a processo adiabatico, al valore iniziale Bi . b c Tf Ti Bf T Figura 14.3: Raffreddamento magnetico nel piano ST . Bibliografia [1] E. Arimondo, Lezioni di Struttura della Materia, Edizioni ETS, Pisa, 2005. [2] M. Born and E. Wolf, Principles of Optics, Pergamon Press, Oxford, New York, Seoul, Tokyo, 1993. [3] W. Demtröder, Laser Spectroscopy, Springer Verlag, Berlin, Heidelberg, New York, 1996 [4] H. Haken e H. C. Wolf, Fisica Atomica e Quantistica, edizione italiana a cura di G. Moruzzi, Bollati Boringhieri, Torino, 1990. [5] A.Katz, Principles of Statistical Mechanics, W. H. Freeman and Company, San Francisco and London, 1967. [6] F. K. Kneubühl und M. W. Sigrist, Laser, Teubner Verlag, Stuttgart, 1988. [7] L. D. Landau and E. M. Lifshitz, Electrodinamics of Continuous Media, Volume 8 of Course of Theoretical Physics, Chapter VI, Pergamon Press, Oxford, London, New York, Paris, 1960. [8] R. Loudon, The Quantum Theory of Light, Oxford University Press, Oxford and New York, 2008. [9] E. A. Lynton, Superconductivity, Methuen & Co. Ltd., Lomdon, 1964. [10] F. Reif, Fundamentals of Statistical and Thermal Physics, McGraw-Hill Kogakusha, Tokyo, 1965.latex stru 167 Indice analitico Effetto Meissner, 152 Effetto Raman stimolato, 107 Emissione spontanea, 109 Emissione stimolata, 109 Energia libera, 150 Energia libera di Helmholtz, 150 Entropia per l’insieme gran canonico, 38 Equazione del bilancio dettagliato, 120 Equazione di Chapman-Kolmogorov, 79 Bilancio dettagliato, 119, 120, 134 Equazione di Fokker-Planck, 88 bit, 10 Equazione di Smoluchowski, 79 Bloch, equazioni ottiche di, 126 Equazioni di bilancio per i fotoni, 57 Bose-Einstein, statistica di, 41 Equazioni di bilancio per le popolazioni, 58 Browniano, moto, 90 Equazioni di Bloch ottiche, 126 Equazioni di Maxwell-Bloch, 133 Campi complessi, formalismo dei, 66 Equilibrio termodinamico, 120, 123, 125 Campo forte, interazione con, 112 Campo magnetico critico (superconduttività), Esponenziale di un operatore, 20 Estrinseci, semiconduttori, 62 159 Campo magnetico critico (superconduttori), 151 Fermi, regola d’oro di, 102, 135 Catena markoviana, 78 Fermi-Dirac, statistica di, 41 Chapman-Kolmogorov, equazione di, 79 Feynman-Vernon-Hellwarth, modello di, 123 Coefficiente di assorbimento, 130 Fluttuazioni della radiazione, 65 Coefficiente di demagnetizzazione, 156 Fluttuazioni delle grandezze statistiche, 47 Coerenza, funzioni di, 68 Fokker-Planck, equazione di, 88 Coerenze, 121 Forma di riga, 136 Correlazione, funzione di, 68 Formalismo dei campi complessi, 66 correlazione, funzione di, 80 Fotoconteggi, 86 Corrente di superconduttività, 156 Fotoni, equazioni di bilancio per i, 57 Correnti superficiali, 156 Fourier, trasformata di, 79 Densità di probabilità al primo ordine, 77 Frequenza di Rabi, 113, 115 Densità di probabilità al secondo ordine, 77 Funzione di autocorrelazione, 68 Densità di probabilità condizionata, 78 Funzione di correlazione, 68, 80 Densità spettrale, 79, 81 Funzioni di coerenza, 68 Diamagnetismo perfetto (superconduttori), 153 Gas perfetto classico: insieme gran canonico, Dipendenti dal tempo, perturbazioni, 95 40 Doppler, allargamento, 137 Doppler, larghezza, 138 Grandezza “numero delle particelle”, 38 Accoppiamento atomo-bagno termico, 134 Allargamento Doppler, 137 Allargamento omogeneo, 136 Ampiezze di probabilità, 96 Approssimazione di onda rotante, 100 Assorbimento, 109 Autocorrelazione, 79 Autocorrelazione, funzione di, 68, 82 168 169 INDICE ANALITICO Hamiltoniana di perturbazione, 95 Hamiltoniana imperturbata, 95 Heisenberg, rappresentazione di, 19 Moltiplicatori di Lagrange in statistica classica, 26 Moto browniano, 90 Imperturbata, hamiltoniana, 95 Indice di rifrazione, 130 Informazione disponibile, 24 Informazione mancante, 9, 17 Informazione utilizzabile, 24 Insieme gran canonico, 37 Insieme gran canonico, entropia, 38 Insieme gran canonico: gas perfetto classico, 40 Insieme gran canonico: statistica quantistica, 41 Installazione del regime oscillatorio, 65 Intensità di saturazione, 128 Interazione con campo forte, 112 Interazione radiazione-materia, 95 Interferenza, 69 Interferometro di Michelson, 70 Interferometro di Young, 71 Intrinseci, semiconduttori, 62 Inversione di popolazione, 56 Numero delle particelle, grandezza fisica, 38 Numero di Avogadro, 9 Lagrange, moltiplicatori di, 25 Larghezza Doppler, 138 Laser a CO2 , 61 Laser a elio-neon, 61 Laser a quattro livelli, 60 Laser a semiconduttore, 62 Lavoro di magnetizzazione, 147 Lavoro di magnetizzazione “meccanico”, 147 Lavoro di magnetizzazione effettuato dal generatore, 148 Magnetico, raffreddamento, 163 Magnetizzazione, lavoro di, 147 Markoviani, processi, 78 Massima informazione mancante, 24 Matrice densità, 20, 120 Maxwell-Bloch, equazioni di, 133 Meissner, effetto, 152 Michelson, interferometro di, 70 Modello di Feynman-Vernon-Hellwarth, 123 Omogeneo, allargamento, 136 Onda lentamente variabile, 132 Onda rotante, approssimazione di, 100 Onnes, H. Kammerlingh, 151 Oscillazioni di Rabi, 115 Parseval, teorema di, 80, 81 Perturbazione, hamiltoniana di, 95 Perturbazioni costanti, 98 Perturbazioni dipendenti dal tempo, 95 Perturbazioni periodiche, 100 Perturbazioni periodiche al secondo ordine, 104 Poisson, distribuzione di, 41 Popolazione, inversione di, 56 Popolazioni, 121 Popolazioni, equazioni di bilancio per le, 58 Poynting, vettore di, 67 Probabilità a priori, 23 Probabilità di transizione, 95 Probabilità, ampiezze di, 96 Processi markoviani, 78 Processi stocastici, 77 Punti di sella, 26 Rabi, frequenza di, 113, 115 Rabi, oscillazioni di, 115 Raffreddamento magnetico, 163 Raman, effetto, 107 Rappresentazione di Schrödinger, 95 Rate equations, 119, 120 Rate equations per i fotoni, 57 Rate equations per le popolazioni, 58 Regola d’oro di Fermi, 102, 135 Rilassamento, 126 Rilassamento longitudinale, 126 Rilassamento parallelo, 126 Rilassamento perpendicolare, 126 Rilassamento trasversale, 126 Rinormalizzazione dell’informazione mancante, 13 170 Rumore 1/f , 85 Rumore rosa, 85 Saturazione, intensità di, 128 Scelta nel continuo, 12 Scelte equiprobabili, 10 Schrödinger, rappresentazione di, 18, 95 Secondo ordine, perturbazioni periodiche al, 104 Semiconduttori estrinseci, 62 Semiconduttori intrinseci, 62 Sfera in campo magnetico, 145 Shot noise, 83 sinc, 71, 98 sinc non normalizzata, 71 sinc normalizzata, 71 sinc2 , 98 Smoluchowski, equazione di, 79 Spettrale, densità, 79, 81 Statistica di Bose-Einstein, 41 Statistica di Fermi-Dirac, 41 Stato intermedio (superconduttività), 155 Stato puro, 120 Stazionari, processi stocastici, 81 Stirling, approssimazione di, 11 Stocastici, processi, 77 Superconduttività, 145 Superconduttività, corrente di, 156 Superconduttività, teoria microscopica, 160 Temperatura critica (superconduttività), 151 Teorema di Parseval, 80, 81 Teoria microscopica della superconduttività, 160 Transizione, probabilità di, 95 Transizioni a due fotoni, 106 Transizioni di dipolo elettrico, 107 Transizioni in uno spettro continuo, 101 Trasformata di Fourier, 79 Trasformazioni attive e passive, 16 Trattamento semiclassico dell’interazione radiazionemateria, 101 Vettore di Poynting, 67 Wiener-Khinchin, teorema di, 68 Young, interferometro di, 71 INDICE ANALITICO