Chimica Teorica Metodi per la descrizione di processi molecolari in

Chimica Teorica
Metodi per la descrizione di processi molecolari in fasi condensate
Antonino Polimeno
Dipartimento di Scienze Chimiche
Università degli Studi di Padova
Indice generale
1 Richiami di meccanica classica
11
1.1
Punti materiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2
Sistemi di particelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.3
Momento angolare e forza totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
1.4
Equazioni di Lagrange e di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.5
Approfondimento: formalismi di Lagrange e Hamilton . . . . . . . . . . . . . . . . . . .
17
1.5.1
Principio di D’Alembert e equazioni di Lagrange . . . . . . . . . . . . . . . . . .
19
1.5.2
Equazioni di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
1.5.3
Principio di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.5.4
Parentesi di Poisson e trasformazioni canoniche . . . . . . . . . . . . . . . . . .
24
1.5.5
Teorema di Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
2 Dinamica molecolare: metodologie ed applicazioni
29
2.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
2.2
Potenziali di interazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
2.3
Liquidi molecolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
2.3.1
Leggi del moto
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
2.3.2
Sistemi termodinamici e condizioni di simulazione . . . . . . . . . . . . . . . . . . .
33
2.3.3
Osservabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
Metodi computazionali di MD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.4.1
Metodi alle differenze finite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
2.5
Molecole lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.6
Esempio: Studio di un fluido atomico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.6.1
Il sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
2.6.2
Metodo di calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
2.6.3
Codice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
2.7
Introduzione al metodo Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
2.8
Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
2.8.1
Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
2.9.1
Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
2.9.2
Altri insiemi termodinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
2.4
2.9
1
2
INDICE GENERALE
2.10 Esempio: studio conformazionale di una catena alchilica . . . . . . . . . . . . . . . . . . . .
65
2.10.1 Il sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
2.10.2 Metodo di calcolo e codice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
3 Presentazione analitica della meccanica quantistica
71
3.1
Operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
3.2
Autofunzioni ed autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
3.3
Il principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
3.4
Verifica del principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
3.5
Meccanica classica e meccanica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . .
78
3.6
Moto semi-classico
78
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Formalismo algebrico della meccanica quantistica
81
4.1
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
4.2
Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
4.3
Vettori e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
4.4
Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
4.5
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
94
4.6
Trasformazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
95
4.7
Problemi agli autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
4.8
Funzioni di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
4.9
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
4.10 Spazi di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.11 Operatori lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.12 Postulati della quantomeccanica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.13 Il metodo variazionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.14 Perturbazioni indipendenti dal tempo per sistemi non-degeneri . . . . . . . . . . . . . . . . 106
4.15 Sistemi in ordine zero con autostati degeneri . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.16 Sistemi risolvibili analiticamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.16.1 Fuga dal pozzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.16.2 Una scatola con una barriera interna . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.16.3 Scatola tridimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.16.4 Particella in e su un anello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.16.5 Particella in e su una sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.16.6 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.16.7 Potenziale di Morse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.16.8 Atomo idrogenoide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5 Metodi di base della chimica quantistica
127
5.1
Momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.2
Autovalori ed autovettori dei momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . 128
5.3
Forma esplicita del momento angolare orbitale . . . . . . . . . . . . . . . . . . . . . . . . . 130
INDICE GENERALE
5.4
5.5
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
130
131
131
132
134
135
138
140
142
143
144
146
148
150
151
154
156
156
157
158
161
162
164
166
167
169
172
.
.
.
.
.
.
.
.
181
181
182
184
185
187
187
188
189
7 Cenni a metodi semiempirici e tecniche avanzate
7.1 Metodi semiempirici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.1 Metodo di Hückel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.2 Neglect-of-differential-overlap (NDO) . . . . . . . . . . . . . . . . . . . . . . . . .
191
191
191
194
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.13
5.14
5.15
5.16
Il rotatore rigido . . . . . . . . . . . . . . . . . . . . . . . .
Approfondimento: momenti angolari . . . . . . . . . . . .
5.5.1 Accoppiamento di due momenti angolari . . . . . .
5.5.2 Accoppiamento di tre o più momenti angolari . . .
5.5.3 Rotazioni . . . . . . . . . . . . . . . . . . . . . . .
5.5.4 Matrici di Wigner . . . . . . . . . . . . . . . . . .
5.5.5 Tensori sferici . . . . . . . . . . . . . . . . . . . .
5.5.6 Teorema di Wigner-Eckart . . . . . . . . . . . . .
5.5.7 Prodotti di tensori sferici . . . . . . . . . . . . . .
5.5.8 Elementi di matrice di prodotti . . . . . . . . . . .
L’equazione di Schrödinger: insieme di punti materiali . . . .
Hamiltoniani atomici e molecolari . . . . . . . . . . . . . . .
Approssimazione di Born-Oppenheimer . . . . . . . . . . . .
Separazione delle coordinate elettroniche . . . . . . . . . . .
La molecola di idrogeno ionizzata: Hamiltoniano elettronico
Hamiltoniano nucleare . . . . . . . . . . . . . . . . . . . . .
Soluzione approssimata della struttura elettronica . . . . . .
Stati di spin . . . . . . . . . . . . . . . . . . . . . . . . . .
Principio di indistinguibilità . . . . . . . . . . . . . . . . . .
Determinanti di Slater . . . . . . . . . . . . . . . . . . . . .
Metodo di Hartree-Fock . . . . . . . . . . . . . . . . . . .
5.16.1 Ottimizzazione degli spinorbitali . . . . . . . . . . .
5.16.2 Proprietà dell’operatore di Fock . . . . . . . . . . .
5.16.3 Sistemi a guscio chiuso . . . . . . . . . . . . . . .
5.16.4 Soluzione numerica delle equazioni HF . . . . . . .
5.16.5 Interazione di configurazione . . . . . . . . . . . .
5.16.6 Alcuni esempi di calcolo ab initio . . . . . . . . . .
6 Teoria dei gruppi di simmetria ed orbitali molecolari
6.1 Gruppi di simmetria puntuale . . . . . . . . . . . .
6.2 Elementi ed operazioni di simmetria . . . . . . . .
6.3 Gruppi puntuali . . . . . . . . . . . . . . . . . . .
6.4 Rappresentazioni . . . . . . . . . . . . . . . . . . .
6.5 Operatori di proiezione . . . . . . . . . . . . . . .
6.6 Applicazioni al calcolo di orbitali molecolari . . . .
6.7 Alcuni esempi . . . . . . . . . . . . . . . . . . . .
6.8 Un esempio non triviale: il benzene . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
INDICE GENERALE
7.2
7.3
7.4
7.5
7.6
7.7
Il metodo del funzionale densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.1 Equazioni di Kohn-Sham . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.2 Funzionali densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Introduzione ai metodi ibridi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . .
I metodi ibridi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.1 I metodi QM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.2 I metodi MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.3 Trattamento dei termini di accoppiamento di non-legame QM/MM . . . . . .
7.4.4 Regione di interazione QM/MM che presenta legami tra gli atomi . . . . . . .
7.4.5 Le condizioni al contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Implementazione dei metodi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Implementazione dei metodi ibridi QM/MM mediante Gaussian98 e Gaussian03
Applicazioni dei metodi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6.1 Applicazioni biochimiche dei metodi ibridi QM/MM . . . . . . . . . . . . . . .
7.6.2 Applicazioni allo studio di superfici dei metodi ibridi QM/MM . . . . . . . . .
Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8 Proprietà dipendenti dal tempo in fasi condensate
8.1 Teoria dei responsi lineari . . . . . . . . . . . . .
8.1.1 Assorbimento ed emissione di energia . .
8.1.2 Principio del bilancio dettagliato . . . . .
8.1.3 Funzioni di correlazione temporale . . . .
8.1.4 Limite classico . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Variabili e processi stocastici
9.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Definizione assiomatica della teoria della probabilità
9.3 Distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Diffusione e processi stocastici . . . . . . . . . . . . . . .
9.4.1 Probabilità e concentrazione . . . . . . . . . . . .
9.4.2 Alcuni esempi numerici . . . . . . . . . . . . . . .
9.4.3 Tubo illimitato . . . . . . . . . . . . . . . . . . . .
9.4.4 Tubo finito . . . . . . . . . . . . . . . . . . . . . .
9.4.5 Equazione di diffusione ed equazione di Schrödinger
9.5 Equazioni stocastiche . . . . . . . . . . . . . . . . . . . .
9.6 Equazione di Langevin e moto browniano . . . . . . . . .
9.6.1 Equazione di Langevin generalizzata . . . . . . . .
9.7 Probabilità e processi stocastici . . . . . . . . . . . . . .
9.7.1 Probabilità condizionali . . . . . . . . . . . . . .
9.7.2 Processi stazionari, markoviani, gaussiani . . . .
9.7.3 Equazione di Chapman-Kolmogorov . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
195
196
197
197
198
200
201
202
202
205
206
207
208
209
210
218
.
.
.
.
.
221
221
223
223
224
226
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
229
229
229
230
231
232
233
234
235
236
236
238
238
240
240
241
242
243
INDICE GENERALE
9.8
9.9
9.10
9.11
9.12
9.13
5
9.7.4 Equazione di Fokker-Planck . . . . . . . . . . . . . . .
9.7.5 Relazione con l’equazione di Langevin . . . . . . . . .
9.7.6 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . .
Densità spettrale . . . . . . . . . . . . . . . . . . . . . . . . .
Funzioni di correlazione ed operatore Fokker-Planck . . . . .
Equazioni di Fokker-Planck lineari . . . . . . . . . . . . . . .
9.10.1 Oscillatore con dissipazione . . . . . . . . . . . . . . .
9.10.2 Oscillatore browniano . . . . . . . . . . . . . . . . . .
Metodi di soluzione numerica dell’equazione di Smoluchowski
9.11.1 Un modello monodimensionale . . . . . . . . . . . . .
Equazioni diffusive rotazionali . . . . . . . . . . . . . . . . . .
9.12.1 Coordinate rotazionali . . . . . . . . . . . . . . . . . .
9.12.2 Rotazione diffusiva di un corpo rigido . . . . . . . . .
9.12.3 Depolarizzazione di fluorescenza . . . . . . . . . . . .
Interpretazione statistica . . . . . . . . . . . . . . . . . . . . .
A Funzioni speciali
A.1 Integrali ellittici . . .
A.2 Funzione gamma . .
A.3 Funzione dell’errore .
A.4 Funzioni di Bessel . .
A.5 Polinomi ortogonali .
A.6 Polinomi di Legendre
A.7 Polinomi di Hermite .
A.8 Polinomi di Laguerre
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
243
244
246
248
249
250
250
252
255
256
257
258
261
263
264
.
.
.
.
.
.
.
.
269
269
270
270
271
271
272
272
272
B L’atomo idrogenoide
273
C Separazione del baricentro
275
D Problema generalizzato agli autovalori
277
E Valore di attesa per un guscio chiuso
279
F Separabilità σ − π (Likos-Parr)
281
G Alcune proprietà della funzione delta di Dirac
283
H Teoria delle perturbazioni dipendenti dal tempo
285
H.1 Probabilità di transizione nell’unità di tempo . . . . . . . . . . . . . . . . . . . . . . . . . . 286
I
Matrice densità
287
6
INDICE GENERALE
Indice delle Figure
1.1
Il congresso Solvay nel 1927 a Bruxelles. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.1
Potenziali: Lennard-Jones (a), hard-sphere (b), square-well (c) . . . . . . . . . . . . . . . .
31
2.2
Due molecole interagenti a 6 siti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
2.3
Condizioni al contorno periodiche e raggio di cut-off . . . . . . . . . . . . . . . . . . . . . .
37
2.4
Un reticolo cristallino fcc (a) ed un sistema di 4 celle elementari fcc (b) . . . . . . . . . . .
41
2.5
Condizioni al contorno periodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
2.6
Spazio delle fasi e campione di punti rappresentativo per un sistema a tre coordinate . . . .
60
2.7
Catena di M monomeri definita da N angoli . . . . . . . . . . . . . . . . . . . . . . . . . .
63
2.8
Distanza media R tra il primo e l’ultimo atomo in una catena di cinque monomeri, in funzione
del numero di elementi della catena di Markov generata in una simulazione Monte Carlo . .
70
4.1
Vettori nello spazio 3D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
4.2
Una spirale destrorsa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
4.3
Angoli di Eulero α, β, γ per specificare la rotazione di un sistema di riferimento molecolare
rispetto ad un sistema di riferimento di laboratorio. . . . . . . . . . . . . . . . . . . . . . .
92
4.4
Schema del momento dipolare indotto in una molecola di CO2 da un campo elettrico esterno. 94
4.5
Calcolo del momento di inerzia del complesso Cu(NH3 )2+
6 . . . . . . . . . . . . . . . . . . .
4.6
Potenziale per una particella in una scatola 1D. . . . . . . . . . . . . . . . . . . . . . . . . 110
4.7
Un potenziale generico in una dimensione. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.8
Potenziali per una particella in una scatola 1D con una barriera interna. . . . . . . . . . . . 114
4.9
Varie scatole 1D. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
95
4.10 Scatola tridimensionale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.11 Un pozzo cilindrico ed un anello. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.12 Coordinate polari sferiche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.13 Potenziale di Morse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.1
Sistema di riferimento e coordinate He . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
5.2
Sistema di riferimento e coordinate H+
2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.3
Coordinate ellissoidali H+
2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.4
I primi due livelli energetici della molecola di H+
2 [E. Teller, Z. Physik, 61, 474 (1930)] . . 153
5.5
Superficie che rappresenta l’orbitale 1sσg in un piano molecolare . . . . . . . . . . . . . . . 154
5.6
Superficie che rappresenta l’orbitale 2pσu in un piano molecolare . . . . . . . . . . . . . . . 155
7
8
INDICE DELLE FIGURE
5.7
Schema degli elementi di matrice H nel metodo CI. Sono indicati in nero i blocchi diagonali
non nulli, in grigio i blocchi non-diagonali non nulli, in bianco i blocchi non-diagonali nulli . 171
5.8
Orbitali HOMO e LUMO di HCl, rappresentati come superficie . . . . . . . . . . . . . . . . 175
5.9
Orbitale HOMO di HCl, rappresentato come una superficie ad uguale densità di carica . . . 179
5.10 Orbitale LUMO di HCl, rappresentato come una superficie ad uguale densità di carica . . . . 179
5.11 Orbitale HOMO di H2 O, rappresentato come una superficie ad uguale densità di carica . . . 180
5.12 Orbitale LUMO di H2 O, rappresentato come una superficie ad uguale densità di carica . . . 180
6.1
Set di orbitali 2p nel piano per il benzene . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
7.1
Radicale CH3 · . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
7.2
Esempio: 1,3-butadiene. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
7.3
Rappresentazione schematica della partizione di un sistema in fase condensata. . . . . . . . 199
7.4
Schema delle regioni QM e MM divise da un legame covalente. . . . . . . . . . . . . . . . . 203
7.5
Rappresentazione del metodo link-atoms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
7.6
Rappresentazione degli orbitali utilizzati nel metodo LSCF. . . . . . . . . . . . . . . . . . . 205
7.7
Rappresentazione schematica della divisione del legame QM/MM e partizione degli orbitali
ibridi sull’atomo di contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.8
Rappresentazione del metodo ONIOM utilizzando la triade catalitica della carbossipepdidasi. 208
7.9
Rappresentazione dello stato intermedio del PHBH ottenuto mediante calcoli QM/MM.
. . 209
7.10 Centro di reazione fotosintetico del Rh. viridis. . . . . . . . . . . . . . . . . . . . . . . . . 211
7.11 Modello di una superficie di diamante(100). . . . . . . . . . . . . . . . . . . . . . . . . . . 212
7.12 Modello di una superficie di diamante(100) utilizzato per le simulazioni. Le sfere grigie
rappresentano gli atomi della regione quantistica, le sfere bianche gli atomi della regione
descritta empiricamente mentre le sfere nere gli atomi mantenuti fissi durante la simulazione. 213
7.13 Cluster C33 H48 utilizzato per lo sviluppo del potenziale empirico. Le sfere nere rappresentano
gli atomi di carbonio centrali, le sfere grigie la prima sfera degli atomi di carbonio mentre le
sfere bianche sono la seconda sfera degli atomi di carbonio. . . . . . . . . . . . . . . . . . . 214
7.14 Modello della struttura della superficie di Zn. Gli atomi di ossigeno sono evidenziati in rosso
mentre gli atomi di Zn in grigio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
7.15 Adsorbimento di un dimero di rame in stato di ossidazione 2+:(a) vista dall’alto;(b) vista di
lato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
7.16 Modello di cluster C3 N Si9 H15 trattato con metodi quantistici. Le sfere verdi rappresentano
gli atomi di silicio, le sfere bianche gli atomi di idrogeno mentre nella parte in alto della figura
compare l’acrilonitrile addizionato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
7.17 Cluster modello ottenuto componendo il cluster trattato con metodi quantistici (atomi viola)
con il cluster trattato con metodi classici (in verde). . . . . . . . . . . . . . . . . . . . . . . 218
7.18 (a) Siti esagonali senza difettualità ,(b) siti esagonali che invece presentano difettualità. Sono
evidenziati solo gli atomi di ossigeno. Le sfere nere sono atomi di O trattati con metodi QM
mentre le sfere grigie sono atomi di O trattati con metodi MM. . . . . . . . . . . . . . . . 219
8.1
Fluido monodimensionale formato da N particelle puntiformi nell’intervallo [0, L]. . . . . . . 222
INDICE DELLE FIGURE
9.1
9.2
9.3
9.4
9.5
9.6
9.7
Traiettorie (caso a basso attrito): ω = 1 s−1 , τ = 10 s. .
Orbite (caso a basso attrito): ω = 1 s−1 , τ = 10 s. . . . .
Traiettorie (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s.
Orbite (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s. . .
Autofunzione di equilibrio . . . . . . . . . . . . . . . . . .
Autofunzione di salto al variare della barriera ∆. . . . . . .
Definizione degli angoli di Eulero. . . . . . . . . . . . . . .
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
251
252
253
254
257
258
259
10
INDICE DELLE FIGURE
Prefazione
L’insegnamento di Chimica Teorica è dedicato all’introduzione di alcuni metodi teorici necessari per descrivere
i processi molecolari nelle fasi condensate, ed interpretare misure spettroscopiche. Il programma del corso
per l’AA 2008-2009 è cosı̀ organizzato:
1. Cenni di meccanica classica ed applicazioni a problematiche di dinamica molecolare
• principio di Hamilton, equazioni del moto del corpo rigido, equazioni di Hamilton, trasformazioni
canoniche, formulazione di Poisson
• metodi classici esatti ed approssimati per lo studio di dinamiche molecolari roto-traslazionali in
fasi condensate
2. Principi e metodi della chimica quantistica
• basi della meccanica quantistica e relazione con la meccanica classica
• teoria dei momenti angolari
• teoria dei gruppi
• metodi standard di calcolo di strutture elettroniche (Hartree-Fock), metodi del funzionale densità,
• metodi post-HF: metodi multiconfigurazionali e multireference (cenni)
3. Modellizzazione di moti molecolari in fasi condensate
• Teoria dei responsi lineari
• Descrizione probabilistica dei moti molecolari
• Funzioni di correlazione e densità spettrali
Capitolo 1
Richiami di meccanica classica
In questa prima parte del corso saranno richiamati alcuni concetti fondamentali dell meccanica classica.
Senza pretesa di completezza - testi di vari autori, dedicati a questa tematica da un punto di vista fisico e
formale sono comunque inclusi nella bibliografia - questi primi capitoli dovrebbero a fornire alcuni strumenti
utili per la comprensione delle applicazioni più comuni della meccanica classica a problematiche chimiche
(per esempio, tecniche di simulazione di dinamica molecolara) e a porre le basi per illustrare in seguito la
connessione tra le descrizioni classica e quantistica.
L’atteggiamento tradizionale del chimico moderno è di non approfondire le basi della meccanica classica,
ritenendo che l’intepretazione delle problematiche di reattività, dinamica e struttura molecolare siano sempre
e comunque interpretabili con il linguaggio della meccanica quantistica (o di una sua versione ’semplificata’).
Questa posizione è legittima, ma presenta alemno due problemi: 1) la comprensione delle metodologie
quantistiche, anche applicate a problemi chimici, richiede una base classica e 2) lo studio di fasi condensate
o di oggetti molecolari complessi (biomolecole) si presta ad una proficua applicazione di metodi classici,
non solo per ilf atto che una descrizione completamente quantistica non è possibile anche con le risorse
computazionali più avanzate, ma anche perchè la modellizzazione fisica nei termini di un linquaggio classico
si presta spesso ad una comprensione molto maggiore dei fenomeni osservati. La scienza fornisce modelli
per l’interpretazione dei fenomeni percepiti dai nostri sensi, o da estensioni dei nostri sensi. Il successo di un
modello o teoria fisica è proporzionale alla sua capacità di fornire uno schema di comprensione al maggior
numero possibile di osservazioni, con il minor numero possibile di postulati o assiomi fondamentali, vale a
dire affermazioni non dimostrabili all’interno della teoria stessa. Il confronto quantitativo delle previsioni dei
modelli con i dati sperimentali è l’unico criterio per discriminare tra le varie descrizioni teoriche a nostra
disposizione. Teorie che sembrano perfettamente adeguate per comprendere un insieme di osservazioni
sperimentali diventano inadeguate quando nuovi dati sperimentali siano disponibili.
Esempio 1. Storicamente, la crisi della meccanica classica nasce alla fine del XIX secolo. Varie osservazioni indipendenti divengono disponibili relativamente a vari fenomeni perlopiù legati all’emissione
ed assorbimento di radiazioni. Tra questi, ricordiamo innanzitutto
• gli esperimenti di O. Lummer ed E. Prinsheim (1877-1900) che determinano in modo quantitativo
l’emissione energetica di un corpo nero in funzione della lunghezza d’onda della radiazione, in
seguito interpretati correttamente da M. Planck (1900); la fisica classica si rivelò presto incapace
di prevedere le tipiche curve a massimo con un intensità trascurabile ad altre frequenze della
11
12
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
radiazione emessa;
• l’effetto fotoelettrico, osservato da H. Hertz (1887), e da Lenard (1902), cioè l’emissione di elettroni dalla superficie di solidi provocata dalla luce di opportuna lunghezza d’onda; l’interpretazione
di A. Einstein (1905) costituisce una delle conferme più significative dell’esistenza di livelli discreti
di energia o quanti (e questa, non la teoria della relatività fu la motivazione del premio Nobel);
• la presenza di righe discrete negli spettri di emissione atomica (osservata da Fraunhofer, 1823,
Bunsen, 1861, Ångstrom, 1868, Balmer, 1885); l’interpretazione fornita da N. Bohr (1913) è
basata sulla quantizzazione dei livelli energetici degli atomi.
Cosı̀ la meccanica classica newtoniana nasce dall’esigenza di comprendere in modo quantitativo il moto
degli oggetti macroscopici, mentre l’interpretazione di osservazioni sperimentali che coinvolgono energie e
dimensioni atomiche è storicamente alla base dello sviluppo della meccanica quantistica1 .
Figura 1.1: Il congresso Solvay nel 1927 a Bruxelles.
1.1
Punti materiali
Richiamiamo alcuni i principi elementari della meccanica classica (non relativistica). L’oggetto di studio
primario della meccanica classica è il punto materiale, descritto da un raggio vettore ~r rispetto all’origine di
un sistema di riferimento. La velocità ~v del punto materiale è la variazione di ~r nel tempo
~v =
∂~r
∂t
(1.1)
Il momento lineare del punto materiale è semplicemente p~ = m~v , dove m è la massa del punto materiale.
Le forze agenti sul punto si sommano in modo vettoriale per dare origine alla forza totale agente sul punto,
1
Lo sviluppo scientifico è perciò non solo causa, ma in parte conseguenza dello sviluppo tecnologico: migliori strumenti
tecnici di osservazione comportano teorie più raffinate
1.1. PUNTI MATERIALI
13
F~ . Il principio fondamentale del moto del punto materiale è dato dalla II Legge di Newton, che stabilisce
una relazione tra la forza ed il momento
d~
p
F~ =
dt
(1.2)
Un sistema di riferimento fisso od inerziale è tale che in esso la II legge di Newton è verificata. Sistemi di riferimento in accelarzione rispetto ad un sistema di riferimento inerziale sono detti non-inerziali o non-galileiani.
Nel seguito ci riferiremo sempre ad un sistema di riferimento inerziale o di “laboratorio”, se non specificato
diversamente. Altre grandezze importanti, che saranno impiegate nel seguito e di cui considereremo gli
~ definito come
equivalenti quantistici, sono il momento angolare L,
~ = ~r × p~
L
(1.3)
~
ed il momento della forza o coppia N
~ = ~r × F~
N
(1.4)
che sono in una relazione reciproca analoga alla (1.2) e da questa ricavabile
~
~ = dL
N
dt
(1.5)
Il lavoro fatto da F~ sul punto materiale che si muova da un punto ~r1 ad un punto ~r2 è dato dall’integrale di
linea
Z
W =
F~ · d~r
(1.6)
integrata, questa relazione può essere riscritta nella forma
W = T2 − T1
(1.7)
1
T = mv 2
2
(1.8)
dove T è l’energia cinetica del punto materiale. Se il lavoro W è indipendente dal cammino scelto tra i punti
iniziale e finale della traiettoria del punto materiale, si dice che la forza e/o il sistema sono conservativi. In
questo caso la forza si può calcolare, come conseguenza di un teorema fondamentale dell’analisi vettoriale in
funzione di una funzione scalare V (~r) come
F~ = −∇V
(1.9)
La somma delle energia potenziale V e dell’energia cinetica T è l’energia totale del punto materiale.
Esempio 2.
Un oscillatore armonico classico monodimensionale è una particella di massa m
sottoposta ad un potenziale V (x) = kx2 /2; la legge del moto può essere scritta come una coppia di
equazioni differenziali in x(t) e momento lineare p(t):
ẋ =
p
m
ṗ = −kx
14
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
Se supponiamo che inizialmente x(0) = x0 e p(0) = 0, la soluzione in x(t) è x(t) = x0 cos ωt, p(t) =
p
−mω sin ωt, dove ω = k/m è la frequenza dell’oscillatore.
Dalle definizioni precedenti discendono tre principi di base, che si possono esprimere sotto forma di di
teoremi di conservazione
Principio di conservazione del momento lineare: se la forza totale F~ è zero il momento lineare si
conserva nel tempo (I Legge di Newton)
~ è zero il
Principio di conservazione del momento angolare: se il momento della forza totale N
momento angolare si conserva nel tempo
Principio di conservazione dell’energia: se la forza è conservativa, l’energia totale si conserva nel
tempo
~ ponendo F~ e N
~ pari a zero; l’ultimo
dove i primi due principi discendono dalle leggi del moto di p~ e L,
principio si ottiene integrando l’espressione del lavoro dopo aver sostituito l’espressione della forza in funzione
del potenziale ed uguagliando con la (1.7).
1.2
Sistemi di particelle
Un sistema di particelle è costituito da un insieme di N punti materiali, per i quali valgono N leggi del moto
X
j
d~
pi
F~ji + F~ie =
dt
(1.10)
dove F~ji è la forza agente sul punto i dovuta al punto j, mentre F~ie è la forza esterna agente sul punto i.
La III Legge di Newton in forma debole assume che F~ji = −F~ij (legge di azione e reazione): non è valida
per tutte le forze, ma nel seguito assumeremo che lo sia sempre. Sommando la precedente espressione,
possiamo facilmente scrivere la seguente equazione che esprime l’effetto delle sole forze esterne sul sistema
di particelle, in condizioni di validità della III Legge di Newton
M
~
dP~
d2 R
= F~
=
M
dt2
dt
(1.11)
P
~ = P mi vri /M è il centro di massa del sistema P~ = P p~i è il
dove M = i mi è la massa del sistema, R
i
i
P
momento lineare totale mentre F~ = i F~ie è la forza esterna totale: il momento lineare totale del sistema è
quello di una unica particella avente massa M e la cui posizione coincide con il centro di massa del sistema
di punti materiali.
Esempio 3.
Consideriamo un insieme di N particelle aventi la stessa massa m e costrette a
muoversi lungo una retta; ciascuna particella è legata alle due particelle da una molla ideale k. Qual è
la legge del moto? Basta generalizzare le espressioni precedenti relative all’oscillatore monodimensionale
mẍ1 = k(−x1 + x2 )
mẍi = −k(xi − xi−1 ) − k(xi − xi+1 ) = k(xi−1 − 2xi + xi+1 )
1<i<N
1.3. MOMENTO ANGOLARE E FORZA TOTALE
15
mẍN = k(xN −1 − xN )
P
Il baricentro del sistema è X = ( i xi )/N Le forze esterne agenti sul sistema sono nulle e le forze
interne verificano, come tutte le forze centrali, la III legge di Newton; vale perciò che Ẍ = 0, come
si può vedere anche sommando semplicemente tutte le equazioni precedenti: il baricentro del sistema è
fermo o in moto rettilineo uniforme.
1.3
Momento angolare e forza totale
~ = P ~ri × p~i , per il quale vale la legge
Possiamo anche calcolare il momento angolare totale del sistema L
del moto
~
X
X
∂L
=
~ri × F~ie +
~ri × F~ji
(1.12)
∂t
i
i6=j
che si riduce alla legge più semplice
~
dL
dt
~ =
=N
X
~ri × F~ie
(1.13)
i
sole se i termini dipendenti dalle forze interne si possono trascurare nella (1.12), che è una forma forte della
legge di azione e reazione. L’espressione del momento angolare può essere messa in una forma analoga
~ la posizione del punto
a quella del momento lineare, ma più complicata. Se definiamo con ~ri0 = ~ri − R
materiale i-esimo rispetto al baricentro e la corrispondente velocità ~vi0 = ~vi − ~v (e momento p~0i = mi~vi0 ) dove
~
~v = dR/dt,
allora il momento angolare totale può essere scritto come
~ =R
~ × M~v +
L
X
~ri0 × p~0i
(1.14)
i
cioè il momento angolare è dato dal momento angolare del centro di massa più i momenti angolari rispetto al
centro di massa. Le definizioni di lavoro ed energia cinetica sono analoghe al caso precedente di una singola
particella. L’energia cinetica si può trascrivere separando la parte relativa al centro di massa
1
1X
2
T = M v2 +
mi vi0
(1.15)
2
2 i
Infine supponiamo che le forze agenti tra le particelle siano i) conservative, cioè ottenibili da un’unica funzione
di coppia Vij , che ii) dipende solo dalla distanza mutua tra le due particelle, Vij = Vij (|~ri − ~rj |). Vagono
perciò sia la forma forte che quella debole della III Legge di Newton, dato che
F~ji − ∇i Vij = ∇j Vij = −F~ij ∝ ~ri − ~rj
Se anche le forze esterne sono conservative, possiamo scrivere l’energia totale come
X
1
1X
1X
2
W = T + V = M v2 +
Vij
mi vi0 +
Vi +
2
2 i
2 i6=j
i
(1.16)
(1.17)
Possiamo imporre dei vincoli sia alle posizioni che alle velocità dei singoli punti materiali costituenti il sistema.
Un vincolo è espresso dall’equazione
f (t, {~ri }, {~vi }) = 0
Un vincolo si dice olonomo se non dipende dalle velocità e stazionario se non dipende dal tempo.
(1.18)
16
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
1.4
Equazioni di Lagrange e di Hamilton
Uno spostamento virtuale δ~ri è una variazione infinitesimale della posizione di un punto materiale compatibile
con le forze ed i vincoli agenti sul sistema. Per un sistema generico vale il cosiddetto principio di D’Alembert

X

d~
pi
~a −
F
i
dt
i
 · δ~
ri = 0
(1.19)
che esprime una condizione generale indipendentemente dalle forze di vincolo, generalmente non note. Possiamo esprimere le leggi del moto del sistema eliminando i vincoli (che supponiamo olonomi), in funzione di
un insieme di n coordinate generalizzate qj ? In generale si esprimono le coordinate assolute, i momenti e
gli spostamenti virtuali in funzione delle coordinate generalizzate. Con un pò di algebra, si dimostra che il
principio di D’Alembert assume la forma

X


d

dt
j

∂T
∂ q̇j
−

∂T
∂qj
− Qj  δqj = 0
(1.20)
P
dove Qj = i F~i · (∂~ri /∂qj ) è una forza generalizzata. L’espressione precedente vale per qualunque insieme
di coordinate generalizzate. Se però le coordinate qj sono un set di coordinate indipendenti ricavate da un
insieme di vincoli olonomi, gli spostamenti virtuali deltaqj sono indipendenti, e dunque

d

dt

∂T
∂ q̇j
−
∂T
∂qj
= Qj
(1.21)
dette equazioni di Lagrange. Se le forze sono conservative, cioè ricavabili da un potenziale totale V , anche
le forze generalizzate si possono scrivere come
Qj = −
X
∇i V ·
i
∂~ri
∂t
=−
∂V
(1.22)
∂qj
e le equazioni di Lagrange assumono la forma più nota

d
dt


∂L
∂ q̇j
−
∂L
∂qj
=0
(1.23)
dove L = T − V è la funzione lagrangiana del sistema.
Esempio 4.
Consideriamo una particella che si muova in un piano, con coordinate cartesiane
x e y; vogliamo scrivere le equazioni del moto in coordinate polari r e θ. La relazione tra i due set
di coordinate è nota: x = r cos θ, y = r sin θ; le velocità sono calcolabili come ẋ = ṙ cos θ − rθ̇ sin θ,
ẏ = ṙ sin θ + rθ̇ cos θ; l’energia cinetica in coordinate cartesiane e polari è perciò
·
´
³ ´2
1
1 ³
T = m ẋ2 + ẏ 2 = m ṙ2 + rθ̇
2
2
¸
Le forze generalizzate sono semplicemente Qr = Fr e Qθ = rFθ . Sostituendo, e calcolando le varie
derivate parziali, otteniamo le due equazioni di Lagrange
mr̈ − mr(θ̇)2 = Fr
mr2 θ̇ + 2mrṙθ̇ = Fθ
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
17
Alla formulazione lagrangiana si affianca di solito la formulazione hamiltoniana delle equazioni del moto.
Matematicamente, le equazioni del moto secondo Lagrange sono espresse come n equazioni differenziali
del secondo ordine nelle n coordinate generalizzate qj . Possiamo definire un analogo set di 2n equazioni
differenziali di primo ordine in 2n coordinate: le prime n sono ancora le qj , accanto alle quali si definiscono
n momenti coniugati pj
pj =
∂L
(1.24)
∂ q̇j
La procedura formale che permette di passare dall’insieme qj , q̇j , t all’insieme qj , pj , t è detta trasformazione
di Legendre. Le equazioni canoniche del moto secondo Hamilton hanno la forma
q̇j =
∂H
(1.25)
∂pj
ṗj = −
∂H
(1.26)
∂qj
a cui si aggiunge in generale
∂L
∂t
=
∂H
(1.27)
∂t
P
dove H =
q̇j pj − L è detta funzione hamiltoniana. Per un sistema scleronomo conservativo (cioè con
vincoli stazionari e sottoposto a sole forze conservative), L = T − V (quindi l’ultima equazione di Hamilton
è subito verificata) ed H = T + V è l’energia totale del sistema.
1.5
Approfondimento: formalismi di Lagrange e Hamilton
Riprendiamo alcuni dei concetti espressi nelle sezioni precedenti, chiarendo alcune derivazioni e discutendo
con maggior dettaglio alcune affermazioni.
Dato un sistema di N punti materiali, sono date le N equazioni del moto ’naturali’ (1.10). Possiamo
P
~ = P mi~ri /M , il momento
definire la massa totale M = i mi del sistema, la posizione del baricentro R
i
P
~˙ ed infine il momento anoglare totale L
~ = P ~ri × p~i . La III legge di Newton
lineare totale P~ = i p~i = M R
i
può ora essere scritta in una forma debole
X
˙
F~ij + F~ji = 0 → P~ =
F~iext = F~ e
(1.28)
i
oppure in una forma forte
~rij × F~ji = 0 → L̇ =
X
~e
~ri × F~ie = N
(1.29)
i
P
L’energia cinetica del sistema è data dalla solita espressione T = i p2i /2mi mentre il lavoro relativo ad un
P H
cammino da un punto 1 ad un punto 2 è W12 = i 12 F~i · d~si = T2 − T1 = ∆T . Supponiamo ora che
valgano le seguenti condizioni:
18
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
• ∃Vie : Fei = −∇i Vie
• ∃Vij (rij ) : F~ji = −∇i Vij
• V =
P
e
i Vi
+
P
i6=j
Vij /2
allora W12 = V1 − V2 = −∆V → ∆(T + V ) = 0: se tutte le forze sono conservative l’energia totale è
costante.
Di fondamentale interesse è lo studio di sistemi di N punti materiali in presenza di vincoli. In effetti,
un chimico interessato per esempio all’applicazione dei metodi della dinamica molecolare (classica) allo
studio delle proprietà di una molecola flessibile, cioè dotata di gradi di libertà interni, può immediatamente
immaginare molti esempi per i quali una chiara comprensione della dinamica di oggetti vincolati ı̀mportante. A
partire dalla definizione delle proprietà dei sistemi vincolati possiamo inoltre introdurre facilmente le proprietà
di un corpo rigido.
Come sempre, abbiamo bisogno inizialmente di un po’ di nomenclatura. Possiamo imporre dei vincoli
sia alle posizioni che alle velocità dei singoli punti materiali costituenti il sistema. Un vincolo è espresso
dall’equazione
f (t, {~ri }, {~vi }) = 0
(1.30)
se le velocità non compaiono nell’espressione del vincolo, si parla di vincolo finito o geometrico od olonomo;
un vincolo generale è invece detto differenziale o cinematico. Un vincolo geometrico è detto stazionario se il
tempo non compare esplicitamente nell’espressione che lo definisce. Un sistema di punti è detto scleronomo
se si impongono solo vincoli stazionari, mentre è detto olonomo se i vincoli sono finiti.
Definiamo come vincoli olonomi K equazioni della forma fk (~r1 , . . . , ~rN , t) = 0 e coordinate generalizzate una serie di variabili qk tali che ~ri = ~ri (q1 , . . . , q3N −k , t). Un corpo rigido può a questo punto essere
definito come un insieme di N particelle con 3N − 6(5) vincoli olonomi del tipo: rij = cost. Un corpo rigido
è costituito da un sistema di punti materiali scleronomo, cioè con vincoli stazionari, in numero tale che nota
la posizione di un punto materiale siano ricavabili dai soli vincoli le posizioni di tutti gli altri punti materiali.
Il problema di ricavare le equazioni del moto di un sistema in presenza di vincoli si può affrontare in
modo relativamente semplice. Iniziamo derivando rispetto al tempo i K vincoli; si ottengono le seguenti
espressioni:
∂fk
∂t
+
X
∇i fk · ~vi = 0
(1.31)
i
dove ~vi sono le velocità possibili, d~ri = ~vi dt sono gli spostamenti possibili, d~ri = ~vi dt e d~ri0 = ~vi0 dt sono due
set di spostamenti possibili ad uguale t e {~ri }. Le differenze δ~ri = ~ri − ~ri0 sono dette spostamenti virtuali:
X
∇i fk · δ~ri = 0
(1.32)
i
In presenza di vincoli le equazioni del moto di un sistema di particelle soggetto a forze applicate note F~ia
sono
~ i = F~i
p~˙ i = F~ia + R
(1.33)
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
19
Il problema che dobbiamo ora affrontare è il seguente: date le forze F~ia , e condizioni iniziali compatibili con
~ i?
i vincoli, quali sono le equazioni del moto e le reazioni dei vincoli R
Come possiamo procedere? Sono date 6N incognite e 3N + K equazioni. Abbiamo quindi bisogno di
6N − 3N − K = 3N − K = n equazioni in più! La soluzione esiste per i vincoli ideali, tali che
X
~ i δ~ri = 0
R
(1.34)
i
Siano infatti δqα = (α = 1, . . . , n) gli n spostamenti indipendenti. I rimanenti possono essere espressi in
funzione dei δqα ; sostituendo nella (1.34) si ottiene
n
X
Aα δqα = 0
(1.35)
α=1
gli n coefficienti Aα devono essere nulli, e dunque Aα = 0 sono le n relazioni mancanti.
1.5.1
Principio di D’Alembert e equazioni di Lagrange
Riprendiamo ed approfondiamo il principio di D’Alembert, precedentemente discusso nella Sezione (1.4). Uno
spostamento virtuale δ~ri è una variazione infinitesimale della posizione di un punto materiale compatibile
con le forze ed i vincoli agenti sul sistema. Per un sistema in equilibrio, la forza agente su ciascuna particella
è nulla, F~i = 0. Il lavoro virtuale totale è perciò anche nullo se si distinguono le forze agenti sulle particelli
in forze agenti e forze di vincolo,F~i = F~ia + f~i ; possiamo scrivere
X
F~ia · δ~ri +
X
i
f~i · δ~ri = 0
(1.36)
i
per un corpo rigido e in generale per sistemi olonomi, il lavoro totale virtuale dei vincoli vale zero
X
F~ia · δ~ri = 0
(1.37)
i
che è il principio del lavoro virtuale statico. L’equivalente dinamico è detto appunto principio di D’Alembert

X

~a −
F
i
i
d~
pi
dt
 · δ~
ri = 0
(1.38)
che esprime una condizione generale indipendentemente dalle forze di vincolo, generalmente non note. Il
principio di D’Alembert vale per un sistema di N particelle in presenza di K vincoli ideali. In condizioni
P
stazionarie (p~˙ i = 0) è noto come principio del lavoro virtuale i F~ia · δ~ri = 0.
Consideriamo ora il caso dei vincoli olonomi: sono ideali e ci permettono di definire n coordinate generalizzate qα . Consideriamo il primo termine del’eq. (1.38):
X
F~ia · δ~ri =
i
X
i,α
X
∂~ri
Qα δqα
F~ia ·
δqα =
∂qα
α
(1.39)
dove Qα è la forza generalizzata associata a qα :
Qα =
X
i
∂~ri
F~ia ·
∂qα
(1.40)
20
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
Possiamo ora esplicitare il secondo termine dell’eq. (1.38):
X
X
p~˙ i · δ~ri =
i
i,α
X
=
i,α
X
=
i,α
mi~¨ri

∂~ri
∂qα
δqα =




∂~ri
d ∂~ri 
d
−p
 p
~i · 
δqα =
~i ·
dt
dt ∂qα
∂qα




∂~vi
∂~vi
d
 p
−p
 δqα =
~i ·
~i ·
dt
∂ q̇α
∂qα
 
Ã
Ã
!
!

X1
X1
X d
∂
∂

=
mi vi2  −
mi vi2
δq
 dt ∂ q̇α
 α
2
2
∂qα
α
i
i
da cui segue, combinando le due espressioni:

X
α



d ∂T  ∂T
 
−
− Qα  δqα = 0
dt ∂ q̇α
∂qα
(1.41)
Poichè gli spostamenti generalizzati sono indipendenti (vincoli olonomi), per ogni α deve valere che


d  ∂T  ∂T
−
= Qα
dt ∂ q̇α
∂qα
(1.42)
Se esiste V (non necessariamente indipendente da t!) tale che F~ia = −∇i V , si ottiene Qα = −∂V /∂qα .
Segue di conseguenza che le equazioni del moto del sistema possono essere scritte come:


d  ∂L  ∂L
−
=0
dt ∂ q̇α
∂qα
(1.43)
dove L = T − V è la (funzione) Lagrangiana del sistema.
Consideriamo l’energia cinetica del sistema. Possiamo scrivere T evidenziando i termini di ordine 0, 1 e
2 rispetto alle coordinate generalizzate:
T = T0 +
X
aα q̇α +
α
dove
T0 =
1X
aαβ q̇α q̇β
2 α,β

1X
2
mi 
i
∂ri
(1.44)
2

∂t
aα =
∂ri ∂ri
1X
mi
2 i
∂qα ∂t
aαβ =
∂~ri ∂~ri
1X
mi
2 i
∂qα ∂qβ
In un sistema scleronomo (vincoli non dipendenti da t), resta solo il termine quadratico. Nel caso più generale
in cui
Qα = −
∂V
∂qα
+ Q̃α
(1.45)
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
21
dove Q̃α dipende anche dalle velocità generalizzate, le equazioni di Lagrange hanno la forma:


d  ∂L  ∂L
−
= Q̃α
dt ∂ q̇α
∂qα
(1.46)
Consideriamo ora la variazione nel tempo dell’energia totale. Per un sistema olonomo arbitrario, se
E =T +V:
∂T
∂V
dE X
d
=
Q̃α q̇α + (T1 + 2T0 ) −
+
dt
dt
∂t
∂t
α
(1.47)
Restrizioni aggiuntive sulla natura dei vincoli permettono di ottenere condizioni sempre più strette sulla
natura della variazione temporale dell’energia totale:
∂V
P
• Sistema scleronomo: dE
dt = α Q̃α q̇α + ∂t
P
• Sistema scleronomo e V indipendente da t: dE
dt = α Q̃α q̇α
• Sistema conservativo (scleronomo, forze potenziali e V indipendente da t): dE
dt = 0
Il caso della presenza di forze non potenziali è di grande interesse. In generale le forze non potenziali
P
sono dette giroscopiche se la loro potenza ( α Q̃α q̇α ) è nulla; per esempio
Q̃α =
X
gαβ q̇β
β
dove i coefficienti gαβ formano una matrice antisimmetrica. Le forze non potenziali dissipative sono invece
tali se la potenza è negativa o nulla; per esempio
Q̃α = −
X
dαβ q̇β
β
P
dove la matrice dαβ è simmetrica; la funzione R = 21 αβ dαβ q̇α q̇β ≤ 0 è detta(funzione dissipativa di
Rayleigh). In tal caso possiamo scrivere le equazioni di Lagrange nella forma:


∂R
d  ∂L  ∂L
−
+
=0
dt ∂ q̇α
∂qα ∂ q̇α
1.5.2
(1.48)
Equazioni di Hamilton
Una formulazione alternativa alle leggi del moto è data dalle equazioni di Hamilton. La formulazione di
Lagrange porta a scrivere n equazioni del secondo ordine nelle n incognite qi (t) (i = 1, . . . , n); la formulazione
di Hamilton consente di scrivere 2n equazioni al primo ordine in 2n variabili (qi , pi ). La formulazione di
Hamilton permette di evidenziare la connessione esistente tra meccanica classica e quantistica e si presta
meglio alla derivazione di equazioni stocastiche.
Pe iniziare definiamo i momenti generalizzati:
pi =
∂L
∂ q̇i
(1.49)
22
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
Le quantità qi , pi sono dette variabili canoniche. Definiamo la (funzione) hamiltoniana H(q, p, t) come la
trasformata di Legendre della lagrangiana L(q, q̇, t):
H=
X
q̇i pi − L
(1.50)
i
Differenziando l’hamiltoniana H si ottiene

dH =
X
i
=


X

∂H
∂qi
−
i
=
X
dqi +
∂L
∂qi
∂H
∂pi
dpi  +

dqi + q̇i dpi  −
(q̇i dpi − ṗi dqi ) −
i
∂L
∂t
∂H
∂t
∂L
∂t
dt =
dt =
dt
da cui seguono le equazioni di Hamilton:
q̇i =
∂H
∂pi
ṗi = −
∂L
∂t
= −
∂H
(1.51)
∂qi
∂H
∂t
Una fomulazione compatta e molto elegante delle equazioni di Hamilton è la cosiddetta formulazione simplettica:
xi = qi
xi+n = pi
Ã
J =
ẋ = J
0 1
−1 0
!
∂H
∂x
Si noti che J2 = −1, Jtr = −J = J−1 e quindi det J = 1.
A questo punto, riassumiamo in modo schematico la ’procedura’ per scrivere le equazioni del moto di un
sistema (olonomo)
1. Definiamo un insieme di coordinate generalizzate qi eliminando gli eventuali vincoli
2. Costruiamo la funzione di Lagrange L = T − V
3. Definiamo i momenti coniugati pi come funzioni di qi , q̇i
4. Costruiamo l’hamiltoniana dalla trasformata di Legendre (1.50)
5. Sostituiamo q̇i con le opportune funzioni q̇i = q̇i (q, p, t) ottenute invertendo la definizione dei momenti
6. Scriviamo infine le equazioni di Hamilton secondo la (1.51).
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
1.5.3
23
Principio di Hamilton
Prima di discutere il principio di Hamilton, ricordiamo alcuni elementi di calcolo variazionale. Consideriamo
il funzionale
J=
Z x2
x1
f [y1 (t), . . . , yn (x), ẏ1 (x), . . . , ẏn (x), x]dx
(1.52)
dove le funzioni yi sono vincolate ad assumere valori noti a x1 e x2 . Poniamoci il seguente problema: che
forma devono assumere le yi perchè J sia stazionario? Per rispondere, dobbiamo prima scrivere in modo
esplicito una variazione infinitesima del funzionale. In generale, una variazione infinitesimale di J è indicata
come
δJ = δ
Z x2
x1
f [y1 (x), . . . , yn (x), ẏ1 (x), . . . , ẏn (x), x]dx
(1.53)
Quindi la risposta al problema (un tipico quesito del calcolo variazionale) è data dalle funzioni yi (x) tali che
δJ = 0. Per procedere, possiamo immaginare che le funzioni yi siano dipendenti da un parametro ²
y1 (x, ²)
=
y1 (x, 0) + ²η1 (x)
y2 (x, ²)
=
y2 (x, 0) + ²η2 (x)
...
yn (x, ²)
=
yn (x, 0) + ²η2 (x)
dove le yi (x, 0) sono la soluzione del problema. La condizione di punto stazionario per J è
µ
dJ
δJ =
d² = 0 →
d²
dJ
d²
¶
=0
²=0
Possiamo ora riscrivere la variazione di J nella forma:
δJ
=
=
Z x2 X
dJ
d² =
d²
Z x2 X
x1
i
x1
i




∂f ∂yi
∂yi ∂²
d² +

∂f ∂ ẏi
∂ ẏi ∂²
d² dx =
∂f
d ∂f  ∂yi

−
d²dx
∂yi dx ∂ ẏi ∂²
dove si è fatto uso delle relazioni
Z x2
∂f ∂ ẏi
x1
∂ ẏi ∂²
Z x2
∂f ∂ 2 ẏi
dx =
x1
∂ ẏi ∂²∂x
dx =
¯x 2


¯
Z x2
∂f
∂f d
¯ −

 dx
¯
x1 ∂yi dx
∂ ẏi ∂² ¯
∂ ẏi
∂f ∂yi ¯
=
x1
Quindi si ottiene
δJ = 0 →
Z x2 X
x1
i


∂f
d ∂f 

−
δyi dx = 0
∂yi dx ∂ ẏi
24
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
∂yi
dove le δyi ≡
∂f
∂yi
∂²
|²=0 d² sono indipendenti; ne consegue che
d ∂f
=0
dx ∂ ẏi
−
i = 1, . . . , n
(1.54)
Le equazioni precedenti, dette di Eulero-Lagrange, sono la condizione necessaria e sufficiente perchè J sia
stazionario.
Possiamo ora introdurre il principio di Hamilton, che da un certo punto di vista è la riscrittura delle
equazioni del moto di un sistema nel linguaggio del calcolo variazionale. Consideriamo la grandezza
I=
Z t2
t1
Ldt
(1.55)
che è detta azione (nel senso di Hamilton). Si può verificare che (principio di Hamilton) per una lagrangiana
L(q, q̇, t) le soluzioni qi delle equazioni di Lagrange sono tali che
δI = 0
(1.56)
Il principio di Hamilton afferma dunque che l’azione è stazionaria in corrispondenza delle traiettorie del moto
che verificano le equazioni di Lagrange. Possiamo nauralmente scrivere l’azione come
I=
Z t 2 "X
t1
#
pi q̇i − H(q, p, t) dt
(1.57)
i
e considerare il problema variazionale nelle 2n incognite (q, p). Allora si verifica subito che la soluzione del
problema variazionale (1.56), ottenuta applicando le equazioni di Eulero-Lagrange, è data esattamente dalle
equazioni di Hamilton. Il principio di Hamilton afferma dunque che l’azione è stazionaria in corrispondenza
delle traiettorie del moto che verificano le equazioni di Hamilton.
1.5.4
Parentesi di Poisson e trasformazioni canoniche
I formalismi introdotti finora ci permettono di definire in modo compatto molte quantità di interesse. Per
esempio, chiediamoci quale sia la variazione nel tempo di un’osservabile generica F (q, p, t). Possiamo scrivere

dF
dt
=
=
=
∂F
∂t
∂F
∂t
∂F
∂t
+
X
i
+
X
i

∂F dqi
∂F dpi

=
+
∂qi dt
∂pi dt



∂F ∂H
∂qi ∂pi
−
∂H ∂F
∂qi ∂pi
=
+ {F, H}
dove si sono impiegate le parentesi di Poisson

{M, N } =
X
i


∂M ∂N
∂qi ∂pi
−
∂N ∂M
∂qi ∂pi

(1.58)
Grazie alla parentesi di Poisson possiamo scrivere immediatamente gli integrali del moto di un sistema.
Consideriamo per semplicità un sistema conservativo in coordinate cartesiane
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
• Energia H =
1
2
25
P 2
pi /mi + V
Ḣ = {H, H} = 0
(1.59)
P
• Momento lineare P~ = i p~i
X
˙
P~ = {P~ , H} = −
∇i V = F~
(1.60)
i
~ = P ~ri × p~i
• Momento angolare L
i
X ∂V
~˙ = {L,
~ H} = −
~
L
=N
∂φ
i
i
(1.61)
dove ~ri = (ri cos φi , ri sin φi , zi ).
~ sono costanti.
Per un sistema isolato si vede subito che P~ ed M
Di interesse è anche il problema di trasformare le coordinate di un sistema da un insieme di funzioni ad
un altro. Una trasformazione di variabili è definita in generale come
Qi = Qi (q, p, t)
Pi = Pi (q, p, t)
e si dice canonica se esiste la funzione H = H(Q, P ), ovvero se H espressa in funzione delle (Q, P ), è tale
che
Q̇i =
∂H
∂Pi
Ṗi = −
∂H
∂Qi
In generale due set di coordinate canoniche soddisfano la relazione
X
pi q̇i − H =
i
X
Pi Q̇i − H +
i
dF
dt
dove F è detta funzione generatrice della trasformazione dalle q, p) alle (Q, P ). La tabella (1.5.4) mostra
in modo schematico la relazione tra variabili originarie e trasformate in funzione della forma della funzione
generatrice
1.5.5
Teorema di Liouville
Il formalismo basato sulle equazioni di Hamilton e le parentesi di Poisson ci permette di definire le proprietà
di un sistema con un approccio globale che si presta particolarmente bene ad una descrizione statistica
Definiamo lo spazio configurazionale q = q1 , . . . , qn e lo spazio dei momenti p = p1 , . . . , pn come le due parti
che formano il cosiddetto spazio delle fasi (q, p) (SDF). Un punto nello SDF rappresenta lo stato di un
sistema; una traiettoria rappresenta l’evoluzione temporale di un sistema; un insieme di punti di rappresenta
26
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
F = F (q, Q, t)
F = F (q, P, t)
∂F
pi =
pi =
∂qi
Pi = −
∂F
Qi =
∂Qi
H=H−
∂F
∂F
qi = −
∂qi
∂F
∂Pi
H=H−
∂t
F = F (p, Q, t)
∂F
∂t
Pi = −
∂F
∂pi
F = F (p, P, t)
qi = −
∂F
Qi =
∂Qi
H=H−
∂F
∂t
∂F
∂pi
∂F
∂Pi
H=H−
∂F
∂t
gli stati degli elementi di un insieme statistico: dato un sistema, consideriamo N repliche come gli elementi
di un insieme: in pratica consideriamo una famiglia di N traiettorie con diverse condizioni iniziali.
La densità degli stati di un insieme è la funzione ρ = ρ(q, p, t) che definisce il numero di sistemi dN in
un intorno infinitesimale dqdp di un punto (q, p) dello SDF
dN = ρ(q, p, t)dqdp ≡ ρ(q1 , . . . , qn , p1 , . . . , pn )dq1 . . . dqn dp1 . . . dpn
Naturalmente assumiamo per semplicità che N sia grande a sufficienza da poter essere considerato una
funzione reale e continua. Il numero totale di sistemi è dato da
Z Z
N =
ρ(q, p, t)dqdp
e il valor medio di un’osservabile F (q, p, t) si ottiene come la media
F =
1
N
Z Z
F (q, p, t)ρ(q, p, t)dqdp
Consideriamo ora volume V associato ad una regione R nello SDF
Z
Z
V=
...
R
dq1 . . . dqn dp1 . . . dpn
(1.62)
Siano qi = qi (t, q 0 , p0 ), pi = pi (t, q 0 , p0 ) le equazioni di Hamilton risolte per una condizione iniziale a t = t0 :
(q 0 = q10 , . . . , qn0 , p0 = p01 , . . . , pn0 ) e consideriamo una regione R0 , a cui corrisponde un volume V0 . Quale è
il volume della regione R formata dai punti al tempo t delle traiettorie originate in R0 a t0 ? La risposta è:
Z
Z
V=
...
R0
Idq10 . . . dqn0 dp01 . . . dp0n
dove I è lo jacobiano per il cambio di variabile (q, p) → (q 0 , p0 )
¯
¯
¯
¯
¯ ∂(q1 , p1 , . . . , qn , pn ) ¯
¯
¯
I=¯
¯
¯ ∂(q10 , p01 , . . . , qn0 , p0n ) ¯
Evidentemente Vt=t0 = V0 e It=t0 = 1. Inoltre si ottiene:
µ
dV
dt
¶
Z
=
t=t0
Z
...
R0
¯
dI ¯¯
dq 0 . . . dqn0 dp01 . . . dp0n
dt ¯t=t0 1
1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON
¯
¯
Si può verificare che İ ¯
¯
t=t0
27
= 0. Infatti:




X ∂ q̇i
X
∂ ṗi
∂ ∂H
∂ ∂H
dI ¯¯
=


=
+
− 0 0 = 0
¯
0
0
0
0
dt t=t0
∂qi
∂pi
∂qi ∂pi
∂pi ∂qi
i
i
³
Da ciò segue che dV
dt
´
t=t0
e quindi per l’arbitrarietà di t0
dV
=0
dt
La grandezza del volume di una regione non cambia nel tempo. Se ora consideriamo la densità degli stati
associati ad una regione infinitesimale, otteniamo che ρ = dN /dV. Entrambe le quantità dN e dV sono
costanti nel tempo e quindi
∂ρ
∂ρ
dρ
+ {ρ, H} = 0 →
= −{ρ, H}
≡
dt
∂t
∂t
che è il teorema di Lioville.
28
CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA
Capitolo 2
Dinamica molecolare: metodologie ed
applicazioni
2.1
Introduzione
Le tecniche di calcolo di dinamica molecolare (molecular dynamics, MD) sono basate sulla soluzione “esatta”
delle equazioni del moto di un insieme di N particelle e sul calcolo diretto delle varie osservabili fisiche:
simulazione matematica −→ riproduzione di un sistema fisico
Da un punto di vista metodologico, possiamo distinguere le seguenti fasi nella messa a punto di una simulazione MD
• definizione delle condizioni del sistema (insieme termodinamico di appartenenza)
• definizione dei gradi di libertà e delle interazioni tra le componenti del sistema (statica)
• scelta della legge del moto (dinamica)
• condizioni al contorno e condizioni iniziali
• scelta del metodo di risoluzione numerica delle equazioni del moto
• calcolo delle osservabili fisiche ed implementazione computazionale: grandezze riscalate, condizioni
periodiche al contorno, trattamento di gradi di libertà rotazionali
La definizione di un sistema di particelle interagenti, e la simulazione delle proprietà macroscopiche del sistema
stesso, può essere effettuata nell’ambito di uno dei vari insiemi termodinamici: l’insieme microcanonico
classico: un sistema all’equilibrio di N particelle (oppure N1 , N2 . . . per un sistema a più componenti)
interagenti a energia E totale costante e volume V fisso −→ (E, N , V ); l’insieme canonico: temperatura,
numero di particelle e volume costanti −→ (T , N , V ); l’insieme isotermo-isobarico: temperatura, numero di
particelle e pressione costanti −→ (T , N , P ); l’insieme grandcanonico: potenziale chimico, temperatura e
volume costanti −→ (µ, T , V ). Nella maggior parte delle simulazioni MD si utilizza l’insieme microcanonico,
si considera cioè un’insieme isolato di particelle interagenti.
29
30
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
Le equazioni del moto delle singole molecole sono, nella maggior parte delle applicazioni in letteratura,
le equazioni della meccanica classica, nella loro forma standard di equazioni di Newton. Per un insieme di N
particelle classiche puntiformi possiamo definire le coordinate e i momenti lineari in modo immmediato come
le posizioni (vettori cartesiani) {~r(t)1 , ~r(t)2 , . . . , ~r(t)N } e i vettori momenti lineari: {~
p(t)1 , p~(t)2 , . . . , p~(t)N },
dove
~vi = mi
d~ri (t)
= mi~vi (t)
dt
(2.1)
Le proprietà statiche del sistema sono definite se è nota l’energia potenziale:
V = V ({~r(t)1 , ~r(t)2 , . . . , ~r(t)N })
(2.2)
che contribuisce all’energia totale del sistema
H =K +V =
N
X
p~2i
i=1
1
+ V (~r) = p~ · m−1 · p~ + V (~r)
2mi
2
(2.3)
La presenza di eventuali campi esterni (e.g. campi gravitazionali, elettrici magnetici, stress meccanici imposti
al sistemi) permette di simulare sistemi fluidi in condizioni di non-equilibrio. Nel seguito faremo riferimento
solo a sistemi isolati, aventi energia meccanica costante definita dalla (2.3).
2.2
Potenziali di interazione
Nel caso di N particelle (atomi) indistinguibili m1 = m2 = . . . = m, possiamo definire l’energia potenziale
P
come risultante dalla somma di sole interazione tra coppie di particelle, V (~r) = i<j v(~ri , ~rj ). In generale,
l’energia potenziale si può scrivere come la somma di interazioni ad un corpo (interazioni con campi esterni),
a due corpi, a tre corpi etc.:
V =
X
i
v1 (~ri ) +
X
X
v2 (~ri , ~rj ) +
i<j
v3 (~ri , ~rj , ~rk ) + . . .
(2.4)
i<j<k
È noto come fino al 10 % dell’energia reticolare di un cristallo di argon possa essere dovuta ai termini di
interazione a tre corpi; nel seguito, in analogia alla maggioranza delle applicazioni MD, trascureremo termini
di interazione a più di due corpi.
I potenziali di coppia utilizzati per la simulazione MD di fluidi non-ionici sono di solito i seguenti
• 6-12 o Lennard-Jones (LJ):
v LJ (r) = 4²
"µ ¶
12
σ
r
µ ¶6 #
−
σ
r
(2.5)
Il potenziale LJ è il più usato per la maggior parte delle applicazioni MD in cui si intendano simulare
proprietà statiche e dinamiche di fluidi atomici (o molecolari, vedi oltre), poichè tiene conto in modo
qualitativamente corretto sia delle interazioni repulsive che attrattive tra due particelle.
2.3. LIQUIDI MOLECOLARI
σ
31
2σ 3σ
σ
2σ 3σ
σ
−4ε
2σ 3σ
−4ε
(a)
(b)
(c)
Figura 2.1: Potenziali: Lennard-Jones (a), hard-sphere (b), square-well (c)
• potenziale hard-sphere e square-well:
(
v
HS
(r) =
∞ (r < σ)
0 (σ ≤ r)
v
SW


∞
(r < σ1 )
(r) = −² (σ1 ≤ r < σ2 )


0
(σ2 ≤ r)
(2.6)
I potenziali hard-sphere e square-well sono potenziali semplificati che permettono una soluzione più
rapida, dal punto di vista computazionale, delle equazioni del moto, rispetto ai potenziali continui
come il potenziale di LJ.
• potenziali soft-sphere:
v
SS
µ ¶n
(r) = ²
σ
r
(2.7)
L’utilizzazione di potenziali soft-sphere è accettabili soprattutto nell’ambito di simulazioni di particelle
non-atomiche (e.g. sospensioni di particelle macroscopiche in fasi fluide, colloidi etc.).
Per i sistemi ionici si deve considerare l’interazione elettrostatica:
zi zj
v z (rij ) =
4π²0 rij
(2.8)
I potenziali elettrostatici, che sono intrinsicamente diversi dai potenziali precedenti in quanto espressione di
forze a lungo raggio, sono molto difficili da trattare nell’ambito di simulazioni MD, a causa della limitata
dimensione del sistema trattabile nell’ambito delle consuete applicazioni MD.
2.3
Liquidi molecolari
Nel caso di sistemi formati da molecole non mono-atomiche, la definizione dei gradi di libertà del sistema è
notevolmente complicata dalla presenza di coordinate rotazionali, ed eventualmente, per molecole non rigide,
32
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
di coordinate interne. Da un punto di vista energetico, i sistemi molecolari possono essere agevolmente
descritti da siti localizzati, che rappresentano singoli atomi o gruppi di atomi, interagenti mediante potenziali
sito-sito del tipo descritto nella sezione precendente:
v(~rij , Ωi , Ωj ) =
XX
a
vab (rab )
(2.9)
b
dove si indica con Ωi il set di angoli di Eulero che specifica l’orientazione della molecola i (vedi oltre), con
~rij = ~ri −~rj la differenza tra i vettori che indicano il centro di massa delle molecole i e j e con rab = |~ria −~rjb |
la differenza tra i vettori che indicano il sito a della molecola i e il sito b della molecola j. Applicazioni più
1
6
1
2
2
5
6
3
4
3
5
4
Figura 2.2: Due molecole interagenti a 6 siti
sofisticate prevedono anche l’uso di potenziali Lennard-Jones generalizzati:
²(Ωi , Ωj ) = ²[1 − χ2 (ei · ej )2 ]−1/2
·
¸
1
σ(~rij , Ωi , Ωj ) = σ 1 − χf (~rij · ei , ~rij · ej , ei · ej )
2
(2.10)
(2.11)
e si possono poi considerare, soprattutto per sistemi a molti siti termini aggiuntivi di energia interna vibrazionale, torsionale ed interazioni dipolari, quadrupolari etc. Poichè il nostro studio sarà limitato a fluidi
formati da molecole lineari biatomiche rigide, non considereremo nel dettaglio questo tipo di interazioni.
2.3.1
Leggi del moto
Le equazioni del moto definiscono al tempo t la posizione e la velocità di ciascuna particella. Per un sistema
di N molecole interagenti, i gradi di libertà traslazionali ~ri , e le corrispondenti velocità lineari ~vi obbediscono
alle equazioni del moto
mi~v˙ i = F~i
(2.12)
dove F~i è la forza totale agente sulla i-esima molecola, ottenuta come gradiente rispetto a ~ri del potenziale
V ; indichiamo con ȧ la derivata temporale di una quantità a. Nel caso di molecole rigide non-monoatomiche
2.3. LIQUIDI MOLECOLARI
33
dobbiamo considerare anche i gradi di libertà rotazionali di ciascuna molecola; in generale, nel caso di molecole
rigide non lineari possiamo definire l’orientazione di un sistema di riferimento solidale con la molecola rispetto
al laboratorio utilizzando come coordinate gli angoli di Eulero Ω = φ, θ, ψ, oppure in termini di quaternioni
Q = q0 , q1 , q2 , q3 . Alle coordinate rotazionali, definite in termini di angoli di Eulero o quaternioni, è associato
il vettore di velocità angolare ω
~ . La legge del moto rotazionale di una molecola rigida non-lineare i è in
generale scritta in termini del momento della coppia ~τi che è l’analogo rotazionale della forza agente sulle
coordinate traslazionali del centro di massa F~i . In generale, se le componenti di ~τi e ω
~ i sono riferite ad un
sistema di riferimento solidale con la molecola i, le equazioni del moto rotazionale sono
µ
ω̇i x =
ω̇iy =
ω̇i z =
¶
Iiyy − Iizz
τi x
+
ωi y ωi z
Ii xx
Ii xx
Ã
!
τi y
Ii zz − Ii zz
+
ωiz ωix
Ii yy
Ii yy
µ
¶
Iixx − Iiyy
τi z
+
ωi x ωi y
Ii zz
Ii zz
(2.13)
(2.14)
dove Iixx , Iiyy , Iizz sono i valori principali del tensore di inerzia della molecola. Le leggi del moto rotazionale
sono completate dalle relazioni geometriche che legano la velocità angolare con le derivate temporali delle
coordinate rotazionali prescelte, siano esse gli angoli di Eulero o i quaternioni. Nel caso di molecole lineari,
le equazioni del moto sono leggermente modificate, per tener conto della degenerazione del moto attorno
all’asse di simmetria molecolare.
2.3.2
Sistemi termodinamici e condizioni di simulazione
In assenza di campi esterni, il sistema costituito da N molecole interagenti viene considerato un insieme
microcanonico. In pratica, il numero limitato di molecole considerato (N ∼ O(102 )) e il tempo di simulazione anch’esso necessariamente limitato (dell’ordine di decine di picosecondi) implica che la condizione di
equilibrio termodinamico conseguita dal sistema sia un’approssimazione. In pratica, il sistema è inizialmente
preparato in una qualche condizione facilmente definibile (e.g. uno stato cristallino ordinato), e con una data
densità ρ. Alle molecole è assegnata un’energia cinetica iniziale distribuendo in modo casuale, secondo una
distribuzione di Maxwell, le velocità lineari ed angolari iniziali. Dopodichè si conducono uno o più lunghi
cicli di equilibrazione, che ahnno lo scopo di portare il sistema nelle condizioni il più vicino possibile a quelle
di equilibrio termodinamico. Solo a questo punto inizia la vera e propria simulazione, con la memorizzazione
delle traiettorie delle particelle ed il calcolo di vari osservabili.
2.3.3
Osservabili
In generale, una proprietà osservabile Aobs viene calcolata come media temporale della funzione che lega
l’osservabile A alle coordinate roto-traslazionali delle molecole costituenti il sistema:
Aobs = hAitempo = hA[Γ(t)]i = lim
1
t→∞ tobs
Z tobs
0
dtA[Γ(t)]
(2.15)
Le funzioni termodinamiche sono perciò immediatamente calcolabili dalle loro definizioni microscopicostatistiche:
34
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
energia totale
E = hHi = hKi + hV i
(2.16)
in un insieme isolato questa quantità deve essere costante, e dunque uguale all’energia assegnata al
sistema a t = 0, e può quindi essere utilizzata per controllare l’accuratezza del metodo numerico di
risoluzione delle equazioni del moto;
temperatura
PN
3N kB T = 2hKi = h
p
~2i
i=1 mi i
(2.17)
la temperatura è calcolata in termini di energia cinetica media;
pressione
P V − N kB T = hW i = h− 13
PN
ri
i=1 ~
ˆ iV i
·∇
(2.18)
la pressione è calcolata come media della funzione viriale W .
Una funzione di grande utilità è la funzione di correlazione di coppia; per un fluido atomico, la funzione
di correlazione è
Z
N (N − 1)
g(~r1 , ~r2 ) = 2
ρ ZN V T
·
V (~r1 , . . . , ~rN )
d~r3~r4 . . . ~rN exp −
kB T
¸
(2.19)
In pratica la seguente definizione operativa (con media su tutte le coppie) è utilizzata
g(~r) =
1 P P
V P P
h i j6=i δ(~ri )δ(~rj − ~r)i = 2 h i j6=i δ(~r − ~rij )i
2
ρ
N
(2.20)
e per un sistema isotropo g(~r) = g(r). Ogni media di una funzione di coppie di particelle è esprimibile in
funzione di g(r):
ha(~ri , ~rj )i =
Z
1
V2
d~ri d~rj g(~ri , ~rj )a(~ri , ~rj )
P P
hAi = h
i
j6=i a(rij )i
=
Z
Nρ ∞
2
0
(2.21)
dr4πr2 a(r)g(r)
(2.22)
Di conseguenza numerose osservabili possono essere calcolate indirettamente una volta che sia nota la
funzione g(r)
energia
3
E = N kB T + 2πN ρ
2
Z ∞
0
drr2 v(r)g(r);
(2.23)
pressione
2
P V = N kB T − πN ρ
3
Z ∞
0
drr2
dv(r)
g(r);
dr
(2.24)
2.3. LIQUIDI MOLECOLARI
35
potenziale chimico
3
µ = kB T ln(ρΛ ) + 4πρ
dove Λ =
p
Z 1
0
dξ
Z ∞
0
drr2 v(r)g(r; ξ)
(2.25)
h2 /2πmkB T è la frequenza termica di De Broglie.
Funzioni termodinamiche più complesse quali l’energia libera di Gibbs, G, l’energia di Helmholtz, A, ol’entropia,
S. sono funzioni riconducibili al calcolo diretto della funzione di partizione Q:
µ
A
exp
kB T
¶
=
1
QN V T
³
= hexp
V
kB T
´
i
(2.26)
il cui calcolo diretto nell’ambito del sistema microcanonico è difficoltoso. Si può perciò ricorrere a simulazioni
MD che utilizzano insiemi termodinamici diversi come l’insieme NVT, ottenibile per esempio mediante una
modifica stocastica della velocità di una o più particelle di un sistema NVE per simulare l’interazione con una
ipotetica particella del termostato; oppure coime l’insieme NPT, ottenibile con la definizione di una grado di
libertà aggiuntivo che rappresenta un ’pistone’ che esercita una pressione esterna P sul sistema.
Le proprietà del sistema dipendenti dal tempo sono descrivibili dallo o quadratico mediodi un’osservabile,
che misura l’entità delle fluttuazioni del’oservabile dal valore medio
σ 2 (A) = hA2 i = h(A − hAi)2 i = hA2 i − hAi2
(2.27)
e soprattutto dalle funzioni di correlazione temporale che misurano la correlazione media tra il valore di un
osservabile al tempo t e al tempo t = 0:
CAB (t) = hδA(t)δB(0)i = hδA[Γ(t)]δB[Γ(0)]i
(2.28)
Una funzione di correlazione si dice di autocorrelazione se A = B. Le funzioni di correlazioni hanno molte
applicazioni:
• danno informazioni sul comportamento dinamico dei fluidi;
• i loro integrali sono legati a grandezze macroscopiche;
• le loro trasformate di Fourier sono legate a osservabili spettroscopiche.
Un esempio di una classe di osservabile legata al calcolo di funzioni di correlazione è dato dai coefficienti
di trasporto. Il coefficiente traslazionale di diffusione di una particella sonda è per esempio definito in
funzione della funzione di autocorrelazione della velocità lineare:
1
D=
3
Z ∞
0
dth~v (t)~v (0)i =
1
1
lim h|~ri (t) − ~ri (0)|2 i
t→∞
6
t
(2.29)
Il calcolo di funzioni di correlazione rotazionali è utile per la comprensione della natura dei moti rototraslazionali nei liquidi molecolari; inoltre opportune funzioni di correlazione rotazionale possono essere messe
in relazione a vari osservabili spettroscopici
• spettri infrarosso
C1mm0 (t) = hY1m [Ω(t)]Y1m0 [Ω(0)]i
(2.30)
36
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
• spettri Raman, NMR ed EPR
C2mm0 (t) = hY2m [Ω(t)]Y2m0 [Ω(0)]i
(2.31)
Lo studio di liquidi rotazionali permette di verificare varie teorie per la descrizione della fase liquida. Un’osservabile
importante è la funzione di autocorrelazione della velocità angolare:
cωω (t) = hω(t) · ω(0)i/hω 2 i
(2.32)
che può essere messa in relazione con il coefficiente di diffusione rotazione di una singola molecola.
2.4
Metodi computazionali di MD
Come tutte le metodologie di simulazione, anche per la Dinamica Molecolare è necessario, al fine di implementare le potenziali applicazioni di questa tecnica allo studio delle proprietà dei fluidi, utilizzare una serie
di accorgimenti pratici. Il primo aspetto che vogliamo sottolineare, anche per la comprensione dei risultati
presentati nei Capitoli successivi è l’impiego di grandezze scalate: le varie grandezze fisiche sono di solito
ricondotte e presentate in termini di unità di misura convenientemente scelte (vedi Tabella (2.4)). Cosı̀ la
Grandezza
Massa
Spazio
Tempo
Energia
Forza
Temperatura
Densità
Pressione
Grandezza riscalata
m∗ = m/mu
l∗ = l/lu
t∗ = t/tu
E ∗ = E/Eu
F ∗ = F/Fu
T ∗ = T /Tu
ρ∗ = ρ/ρu
P ∗ = P/Pu
Coefficiente di scala (atomi di Ar)
mu = mAr
lu = σ
p
tu = σ 2 mAr /²
Eu = ²
Fu = ²/σ
Tu = ²/kB
ρu = σ −3
Pu = ²/σ 3
Tabella 2.1: Grandezze riscalate in unità σ
funzione hamiltoniana scalata risulta essere:
H∗ =
1 X ∗2 X ∗ ∗
v +
V (|ri − rj∗ |)
2 i i
i<j
(2.33)
dove il potenziale scalato è:
µ
V ∗ (r∗ ) = 4
1
r∗ 12
−
1
r∗ 6
¶
(2.34)
Un’altro aspetto pratico dell’implementazione dei metodi MD è costituito dall’uso di condizioni periodiche:
nello studio dei fluidi, i sistemi trattati dalle simulazioni MD comprendono solitamente 102 , 103 particelle
(nel caso per esempio di simulazione massive, altamente parallelizzate, di studio di stress meccanici in
solidi atomici sonjo stati effettuati studi con 106 particelle). In presenza di una parete (sistema a volume
costante), la maggior parte delle particelle interagirebbe solo con la parete e di conseguenza gli effetti di
superficie sarebbero dominanti: a titolo di esempio per un sistema di 1000 particelle in un cristallo cubico (10
2.4. METODI COMPUTAZIONALI DI MD
37
× 10 × 10), 488 giacciono sulle pareti. Nella maggior parte delle applicazioni, si preferisce perciò utilizzare
condizioni periodiche, in cui il sistema è a contatto con un numero infinito di repliche, tali che se rxi , ryi ,
rzi è la posizione della particella i-esima, ogni sua replica ha posizione rxi + nx Lx , ryi + ny Ly , rzi + nz Lz ,
dove nx , ny , nz sono numeri interi. Ogni particella costituente il sistema interagisce con tutte le particelle
A
A
P
P
A
A
P
A
A
P
A
A
P
P
P
P
Figura 2.3: Condizioni al contorno periodiche e raggio di cut-off
delle repliche, Il calcolo del potenziale agente sulla particella può essere effettuato in vari modi: utilizzando
il metodo della convenzione dell’immagine minima: si considerano tutte le molecole che giacciono in una
pseudoscatola centrata sulla molecola in esame; per un potenziale a coppie si calcolano 12 N (N − 1) termini;
oppure usando il raggio di cutoff: si considerano solo le molecole giacenti in una sfera di raggio rc < 12 L
(es. rc = 2.5σ). Altre condizioni al contorno sono utilizzabili per studi MD specifici come le condizioni al
contorno ipersferiche, in cui le molecole giacciono sulla superficie di un’ipersfera; e soprattutto l’impiego di
cluster in cui si considerano veri cluster molecolari, con condizioni al contorno non-periodiche.
2.4.1
Metodi alle differenze finite
Il metodo principale di soluzione delle equazioni di Newton in MD consiste nella discretizzazione delle traiettorie rispetto al tempo usando uno dei vari schemi in cui le derivate temporali sono approssimate da rapporti
incrementali. Qualunque metodologia di calcolo dovrà ottimizzare i seguenti requisiti, imposti dalle limitate
risorse computazionali
1. elevata velocità di calcolo;
2. minima richiesta di memoria su disco;
3. accuratezza nel calcolo delle traiettorie;
4. semplicità di implementazione;
5. conservazione dell’energia e della quantità di moto;
38
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
6. reversibilità temporale
Lo schema di discretizzazione più semplice delle equazioni del moto è basato sull’approssimazione di Eulero.
Se indichiamo con ~a, ~v , ~r i vettori collettivi delle accelerazioni, velocità, vettori di posizione di tutte le
particelle del sistema ( e consideriamo per semplicità un fluido atomico), l’equazioni di Netwon discretizzate
secondo lo schema di Eulero sono:
~a(t + δt) ≈ ~a(t)
(2.35)
~v (t + δt) ≈ ~v (t) + ~a(t)δt
(2.36)
1
~r(t + δt) ≈ ~r(t) + ~v (t)δt + ~a(t)δt2
2
(2.37)
Il metodo di Eulero è molto semplice, e facilmente implementabile purtroppo, a meno di non usare un passo
temporale δt estremamente piccolo non è nè stabile nè reversibile. Metodi di discretizzazione più sofisticati
devono perciò essere utilizzati. Nella Sezione successiva dedicata allo studio di molecole lineari, lo schema di
discretizzazione utilizzato in questo lavoro sarà descritto in dettaglio. Tra agli schemi di discretizzazione più
utilizzati, soprattutto per fluidi atomici, possiamo ricordare il cosiddetto lgoritmo di Verlet che consiste
in una ridefinizione dello schema di discretizzazione di Eulero nel modo seguente:
1
~r(t + δt) = ~r(t) + ~v (t)δt + ~aδt2
2
1 2
~r(t − δt) = ~r(t) − ~v (t)δt + ~aδt
2
(2.38)
(2.39)
sommando si elimina la velocità:
~r(t + δt) = 2~r(t) − ~r(t − δt) + ~aδt2
(2.40)
Poichè al tempo t sono noti ~a(t), ~r(t) e ~r(t − δt), al tempo t + δt si ricava ~r(t + δt), mentre la velocità la
tempo t è:
~v (t) =
~r(t + δt) − ~r(t − δt)
2δt
(2.41)
Il metodo di Verlet è stabile, permette di usare step fino a 0.01 ps, è reversibile e conserva energia e momento.
2.5
Molecole lineari
Nel caso di una molecola lineare, la definizione dell’orientazione molecolare è specificabile da solo due coordinate, che indichino la direzione e il versore di un versore unitario ~e diretto lungo l’asse molecolare. È
dunque possibile utilizzare una descrizione semplificata della geometria e delle equazioni del moto, anche se
è possibile utilizzare descrizioni per esempio basate sulla geometria dei quaternioni, al prezzo comunque di
una ridondanza nella definizione della geometria molecolare.
Il momento di inerzia relativo alla rotazione intorno all’asse di simmetria è nullo, mentre i due rimanenti
valori principali di I sono uguali, La velocità angolare e il momento della coppia ~τ sono sempre perpendicolari
all’asse molecolare . Di conseguenza, possiamo scrivere
~τ = ~e × ~g
(2.42)
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
39
dove ~g è una funzione delle forze agenti sulla molecola. Per una molecola lineare formata da M siti puntiformi,
per la quale cioè ciascun sito sia definito rispetto al centro di massa dall’identità vettoriale
d~j = dj ~e
j = 1, . . . , M
(2.43)
il vettore ~g è definito come
~g =
j=M
X
dj f~j
(2.44)
j=1
dove f~j è la forza agente sul sito j. Il vettore ~g può essere sostituito con la componente perpendicolare
all’asse molecolare ~g ⊥ = ~g − (~g · ~e)~e. Le equazioni del moto rotazionale di una molecola lineare si possono
scrivere nella seguente forma:
~e˙ = ~u
(2.45)
⊥
~g
~u˙ =
+ λ~e
(2.46)
I
La prima equazione definisce il momento generalizzato ~u come derivata prima temporale di ~e. La seconda
descrive il moto rotazionale della molecola in presenza del momento di coppia generalizzato ~g , con il termine
aggiuntivo λ~e che tiene conto del vincolo di lunghezza costante della molecola: λ è dunque un moltiplicatore
indeterminato di Lagrange. Nel corso di una simulazione MD, λ viene determinato numericamente nell’ambito
dello schema di discretizzazione impiegato. Tra gli schemi più comuni descriviamo nel dettaglio il metodo
leap-frog che è anche stato impiegato nel corso delle simulazioni MD presentate in questo lavoro. Al tempo
t siano noti i vettori ~e(t), ~u(t − δt/2) e ~g ⊥ (t). Il vettore ~u(t) è calcolato dallo schema discreto al primo
ordine
"
#
1
~g ⊥ (t)
~u(t) = ~u(t − δt/2) + δt
+ λ(t)~e(t)
(2.47)
2
I
se si prende il prodotto scalare con ~e(t) di entrambi i membri, si ottiene
λ(t) = −2~u(t − δt/2) · ~e(t)/δt
(2.48)
tenendo conto del fatto che ~e · ~u = ~e · ~g ⊥ = 0. È ora possibile calcolare in modo diretto il vettore ~u˙ (t)
dall’equazione (2.46) definita al tempo t. Noto ~u˙ si può ora valutare u(t + δt/2):
~u(t + δt/2) = ~u(t − δt/2) + δt~u˙ (t)
(2.49)
Infine il versore di orientazione al tempo t + δt è calcolato dall’equazione (discretizzata) (2.45)
~e(t + δt) = ~e(t) + δt~u(t + δt/2)
2.6
(2.50)
Esempio: Studio di un fluido atomico
Il Capitolo (2) aveva un carattere intenzionalmente introduttivo alle tecniche di base della Dinamica Molecolare applicata a fluidi costituiti da atomi o molecole rigide, trattati come corpi interagenti. In questo secondo
Capitolo dedicato alla Dinamica Molecolare discuteremo in modo dettagliato un’applicazione. Partiremo
dalla definizione del sistema di interesse; definiremo quindi le metodiche utilizzate per il calcolo; illustreremo
un programma in linguaggio Fortran dedicato al calcolo stesso; ed infine commenteremo alcuni risultati.
Il sistema considerato è un fluido atomico, formato cioè da particelle puntiformi interagenti mediante un
potenziale a simmetria sferica.
40
2.6.1
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
Il sistema
Il primo sistema da noi considerato è costituito da N particelle puntiformi - atomi - interagenti mediante
un potenziale a coppie Lennard-Jones. La semplicità di questo sistema è utile per introdurre le metodologie fondamentalie della Dinamica Molecolare: le particelle costituenti sono dotate dei soli gradi di libertà
traslazionali, e quindi non è necessaria un’implementazione complicata delle equazioni del moto che hanno
la semplice forma descritta nelle prime sezioni del Capitolo (2). Il sistema considerato si può confrontare con
un fluido costituito da atomi di gas rari, per esempio l’argon. In effetti, parametri ² e σ di un potenziale di
Lennard-Jones per la riproduzione realistica di proprietà termodinamiche di fluidi atomici di Ar ed altri gas
rari sono noti Per fissare le idee, considereremo il caso di un insieme di N atomi di Ar, cioè con ²/kB = 119.8
He
Ne
Ar
Kr
²/kB (K)
10.2
47.0
119.8
164.0
σ (nm)
0.228
0.272
0.341
0.383
Tabella 2.2: Coefficienti LJ per i gas rari
K e σ = 0.341 nm, contenuti in una scatola cubica, con condizioni al contorno periodiche, a densità e
prefissata. Il sistema è isolato, cioè è trattato nell’ambito di una descrizione termodinamica microcanonica
(NVE).
Come definiamo la configurazione iniziale del sistema? Solitamente si assegna una configurazione ordinata, basata su un qualche reticolo cristallino di facile construzione. Assumeremo perciò nel seguito una
configurazione iniziale basta su un reticolo cristallino cubico a facce centrate. (face centered cubic lattice,
fcc).
Costruiamo cioè il sistema iniziale come un insieme di Nc celle elementari fcc per lato. Una cella
elementare fcc contiene 4 unità molecolari ed il numero di celle in un volume cubico è Nc3 , quindi il
numero di particelle totali è N = 4Nc3 . In Fig. (2.4) è illustrata una cella elementare fcc (a) ed un
sistema formato da 8 celle elementari (Nc = 2) per un totale di 32 atomi. Lo stato iniziale del sistema può essere definito in termini di una temperatura iniziale T0 , che vedremo non corrispondere esattamente alla temperatura di equilibrio, e di una densità ρ. La temperatura iniziale è il parametro che
definisce l’energia cinetica totale iniziale del sistema. In pratica le velocità iniziali delle particelle del sistema
~vi (i = 1, . . . , N ) sono assegnate secondo una distribuzione gaussiana, secondo la legge di Maxwell, in
modo tale che l’energia cinetica cinetica media di un atomo sia data da 3kB T0 /2. Nel corso della successiva
evoluzione temporale dallo stato assegnato inizialmente, il sistema si porta in una stato di equilibrio, caratterizzato da una temperatura di equilibrio T . Le condizioni al contorno sono, solitamente, di tipo periodico:
ogni particella risente perciò dell’interazione con le particelle entro il volume cubico, e di tutte le “repliche”
o immagini negli infiniti volumi cubici circostanti. In pratica, dato che il potenziale di interazione decade
rapidamente con la distanza, è sufficiente considerare una distanza massima o raggio di cut-off, rc , che
tipicamente è dell’ordine di di 3, 4 volte σ.
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
41
(a)
(b)
Figura 2.4: Un reticolo cristallino fcc (a) ed un sistema di 4 celle elementari fcc (b)
2.6.2
Metodo di calcolo
Adottiamo come metodo di risoluzione numerica uno schema di discretizzazione di tipo leap-frog descritto
in precedenza nel Capitolo (2), in una versione semplificata per sole coordinate traslazionali. Ad ogni nuovo
passo il vettore delle velocità del sistema è aggiornato secondo lo schema
~v (t + δt/2) = ~v (t − δ/2) + δt~a(t)
(2.51)
dove il vettore delle accelerazioni è calcolato al tempo t usando la seconda legge di Newton e dunque
calcolando le forze agenti sulle particelle. Il vettore delle posizioni è aggiornato al tempo t + δt secondo lo
schema
~r(t + δt) = ~r(t) + δt~v (t + δt/2)
(2.52)
È necessario specificare dunque come ulteriore parametro di input il passo temporale dello schema di discretizzazione, δt. Una sessione di calcolo tipica è di solito completamente determinata specificando anche
un lasso temporale teq , che specifichi il tempo assegnato al sistema per raggiungere lo stato di equilibrio
termodinamico; ed un tempo di calcolo vero e proprio degli osservabili di interesse tcalc , che segue il tempo
teq e che viene effettivamente considerato per il calcolo di funzioni di stato, funzioni di correlazione etc. Ricapitolando, il sistema è definito dai seguenti parametri: Nc , n. celle elementari del reticolo fcc che specifica
la configurazione iniziale; ² e σ che definiscono il potenziale di interazione tra gli atomi; T0 , la temperatura
iniziale, corrispondente ad uno stato di non equilibrio; ρ, la densità (intesa come numero di particelle su
volume); rc , raggio di cut-off del potenziale; δt, passo dello schema di discretizzazione delle equazioni di
Newton; teq , tempo di equilibrazione e tcalc , tempo di calcolo. In pratica, i codici esistenti implementano
le equazioni del moto utilizzando, per motivi di convenienza numerica e per evitare calcoli ridondanti, coordinate riscalate. È sufficiente definire il sistema, se si usano grandezze scalate, con il seguente insieme di
coordinate di input: Nc , T0∗ , ρ∗ , rc∗ , δt∗ , t∗eq e t∗calc .
42
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
Figura 2.5: Condizioni al contorno periodiche
Esercizio 7. Si vuole simulare un sistema preparato inizialmente secondo un reticolo fcc, formato da circa
100 atomi di Ar, con una temperatura iniziale di 100 K, una densità (massa su volume) di ρm = 1.5 × 103
Kgm−3 , con un passo di integrazione di 10 fs; fissiamo il tempo di equilibrazione in 30 ps ed il tempo di
calcolo in 10 ps. I parametri ² e σ sono rispettivamente 1.653 × 10−21 J e 3.41 × 10−10 m; assumiamo un
raggio di cut-off pari a 3.5σ. Il sistema più vicino a quello desiderato corrisponde a Nc = 3, vale a dire 27
celle elementari, ovvero 108 atomi. La temperatura riscalata è T0∗ = kB T0 /² = 0.834. La densità riscalata
è ρ∗ = ρσ 3 /mAr = 0.815; il raggio di cutoff è semplicemente 3.5; i parametri temporali sono δ ∗ = 0.0046,
t∗eq = 13.8, t∗calc = 4.62. Per esercizio, calcolate la lunghezza riscalata del lato del volume cubico.
2.6.3
Codice
Può essere utile commentare un programma per la simulazione di un sistema atomico in modo dettagliato dal
testo di Allen e Tildesley [8]. Il programma principale è formato, come al solito da una sezione di dichiarazione
delle variabili e di input dei parametri. Segue la definizione della configurazione iniziale (routines fcc e
comvel). Il programma opera utilizzando un set di coordinate riferite ad una lunghezza unitaria del lato del
volume cubico, quindi opera una conversione a partire dalle coordinate riscalate di input riferite a σ.
************************************************************************
** LOW-STORAGE MD PROGRAMS USING THE LEAPFROG VERLET ALGORITHM
**
************************************************************************
C
*******************************************************************
C
** TWO SEPARATE PARTS: FORTRAN AND BASIC VERSIONS.
**
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
*******************************************************************
*******************************************************************
** FICHE F.3 - PART A
**
** FORTRAN PROGRAM USING THE LEAPFROG ALGORITHM.
**
*******************************************************************
PROGRAM FROGGY
include ’block.inc’
*******************************************************************
** FORTRAN PROGRAM TO CONDUCT MOLECULAR DYNAMICS OF ATOMS.
**
**
**
** A SPECIAL LOW-STORAGE FORM OF THE LEAPFROG VERLET ALGORITHM
**
** IS USED AND WE TAKE THE LENNARD-JONES POTENTIAL AS AN EXAMPLE.**
**
**
** REFERENCE:
**
**
**
** FINCHAM AND HEYES, CCP5 QUARTERLY, 6, 4, 1982.
**
**
**
** ROUTINES REFERENCED:
**
**
**
** SUBROUTINE READCN ( CNFILE )
**
**
READS IN CONFIGURATION
**
** SUBROUTINE FORCE ( DT, SIGMA, RCUT, NEWV, NEWVC, NEWW )
**
**
CALCULATES THE ACCELERATIONS AND ADVANCES THE VELOCITIES
**
**
FROM T - DT/2 TO T + DT/2. ALSO CALCULATES POTENTIAL
**
**
ENERGY AND VIRIAL AT TIMESTEP T.
**
** SUBROUTINE MOVE ( DT )
**
**
ADVANCES POSITIONS FROM T TO T + DT.
**
** SUBROUTINE KINET ( NEWK )
**
**
CALCULATES KINETIC ENERGY.
**
** SUBROUTINE WRITCN ( CNFILE )
**
**
WRITES OUT CONFIGURATION
**
**
**
** PRINCIPAL VARIABLES:
**
**
**
** INTEGER N
NUMBER OF ATOMS
**
** REAL
DT
TIMESTEP
**
** REAL
RX(N),RY(N),RZ(N) ATOMIC POSITIONS
**
** REAL
VX(N),VY(N),VZ(N) ATOMIC VELOCITIES
**
** REAL
ACV,ACK ETC.
AVERAGE VALUE ACCUMULATORS
**
** REAL
AVV,AVK ETC.
AVERAGE VALUES
**
** REAL
ACVSQ, ACKSQ ETC. AVERAGE SQUARED VALUE ACCUMULATORS **
** REAL
FLV,FLK ETC.
FLUCTUATION AVERAGES
**
**
**
** USAGE:
**
**
**
** THE LEAPFROG ALGORITHM IS OF THE FORM
**
43
44
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
** VX(T + DT/2) = VX(T - DT/2) + DT * AX(T) (SIMILARLY FOR Y,Z) **
** RX(T + DT)
= RX(T) + DT * VX(T + DT/2) (SIMILARLY FOR Y,Z) **
** TO SAVE STORAGE IN THIS PROGRAM WE ACCUMULATE VALUES AX(T)
**
** DIRECTLY ONTO THE VELOCITIES VX(T - DT/2) IN THE FORCE LOOP. **
** THIS MEANS THAT AN APPROXIMATION MUST BE USED FOR THE KINETIC **
** ENERGY AT EACH TIME STEP:
**
** K = ( OLDK + NEWK ) / 2 + ( OLDV - 2 * V + NEWV ) / 8
**
** WHERE K
= K( T
), V
= V( T )
**
**
OLDK = K( T - DT/2 ), OLDV = V( T - DT )
**
**
NEWK = K( T + DT/2 ), NEWV = V( T + DT )
**
** AT THE START OF A STEP THE FOLLOWING VARIABLES ARE STORED:
**
** R
: R(STEP)
V
: V(STEP+1/2)
**
** OLDV : V(STEP-2)
V
: V(STEP-1)
NEWV : V(STEP) **
** OLDK : K(STEP-1/2)
NEWK : K(STEP+1/2)
**
** THIS PROGRAM USES UNIT 10 FOR CONFIGURATION INPUT AND OUTPUT **
**
**
** UNITS:
**
**
**
** THE PROGRAM USES LENNARD-JONES REDUCED UNITS FOR USER INPUT
**
** AND OUTPUT BUT CONDUCTS SIMULATION IN A BOX OF UNIT LENGTH.
**
** SUMMARY FOR BOX LENGTH L, ATOMIC MASS M, AND LENNARD-JONES
**
** POTENTIAL PARAMETERS SIGMA AND EPSILON:
**
**
OUR PROGRAM
LENNARD-JONES SYSTEM
**
** LENGTH
L
SIGMA
**
** MASS
M
M
**
** ENERGY
EPSILON
EPSILON
**
** TIME
SQRT(M*L**2/EPSILON) SQRT(M*SIGMA**2/EPSILON) **
** VELOCITY
SQRT(EPSILON/M)
SQRT(EPSILON/M)
**
** PRESSURE
EPSILON/L**3
EPSILON/SIGMA**3
**
*******************************************************************
INTEGER
STEP, NSTEP, IPRINT
REAL
DENS, NORM, RCUT, DT, SIGMA, TEMP1
REAL
V, K, E, W
REAL
OLDK, NEWK, OLDV, NEWV, NEWW
REAL
OLDVC, NEWVC, VC, KC, EC
REAL
VN, KN, EN, ECN, PRES, TEMP
REAL
ACV, ACK, ACE, ACEC, ACP, ACT
REAL
AVV, AVK, AVE, AVEC, AVP, AVT
REAL
ACVSQ, ACKSQ, ACESQ, ACECSQ, ACPSQ, ACTSQ
REAL
FLV, FLK, FLE, FLEC, FLP, FLT
REAL
SR3, SR9, VLRC, WLRC, PI, SIGCUB
CHARACTER
CNFILE*30, TITLE*80
REAL
FREE
PARAMETER ( FREE = 3.0 )
PARAMETER ( PI = 3.1415927 )
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
45
C
*******************************************************************
C
** READ IN INITIAL PARAMETERS **
WRITE(*,’(1H1,’’ **** PROGRAM FROGGY ****
WRITE(*,’(//, ’’ MOLECULAR DYNAMICS OF LENNARD-JONES ATOMS
WRITE(*,’(
’’ LEAPFROG ALGORITHM WITH MINIMAL STORAGE
WRITE(*,’(’’ ENTER RUN TITLE
READ (*,’(A)’) TITLE
WRITE(*,’(’’ ENTER NUMBER OF STEPS
READ (*,*) NSTEP
WRITE(*,’(’’ ENTER NUMBER OF STEPS BETWEEN OUTPUT LINES
READ (*,*) IPRINT
WRITE(*,’(’’ ENTER CONFIGURATION FILENAME
READ (*,’(A)’) CNFILE
WRITE(*,’(’’ ENTER THE FOLLOWING IN LENNARD-JONES UNITS
WRITE(*,’(’’ ENTER DENSITY
READ (*,*) DENS
WRITE(*,’(’’ ENTER INIT. TEMPERATURE
READ (*,*) TEMP1
WRITE(*,’(’’ ENTER POTENTIAL CUTOFF DISTANCE
READ (*,*) RCUT
WRITE(*,’(’’ ENTER TIME STEP
READ (*,*) DT
WRITE(*,’(//1X,A)’) TITLE
WRITE(*,’(’’ NUMBER OF ATOMS = ’’,I10 )’) N
WRITE(*,’(’’ NUMBER OF STEPS = ’’,I10 )’) NSTEP
WRITE(*,’(’’ OUTPUT FREQUENCY = ’’,I10 )’) IPRINT
WRITE(*,’(’’ POTENTIAL CUTOFF = ’’,F10.4)’) RCUT
WRITE(*,’(’’ DENSITY
= ’’,F10.4)’) DENS
WRITE(*,’(’’ TIME STEP
= ’’,F10.6)’) DT
C
C
C
C
** READ CONFIGURATION INTO COMMON / BLOCK1 / VARIABLES **
CALL FCC
CALL COMVEL( TEMP1 )
** CONVERT INPUT DATA TO PROGRAM UNITS **
SIGMA = ( DENS / REAL ( N ) ) ** ( 1.0 / 3.0 )
RCUT = RCUT * SIGMA
DT
= DT * SIGMA
DENS = DENS / ( SIGMA ** 3 )
** CALCULATE LONG-RANGE CORRECTIONS **
** NOTE: SPECIFIC TO LENNARD-JONES **
SR3
SR9
= ( SIGMA / RCUT ) ** 3
= SR3 ** 3
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
’’)’)
46
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
:
:
SIGCUB = SIGMA ** 3
VLRC = ( 8.0 /9.0 ) * PI * DENS * SIGCUB * REAL ( N )
* ( SR9 - 3.0 * SR3 )
WLRC = ( 16.0 / 9.0 ) * PI * DENS * SIGCUB * REAL ( N )
* ( 2.0 * SR9 - 3.0 * SR3 )
Segue il calcolo vero e proprio, effettuato come un ciclo su numero di passi temporali totali nstep; per
semplicità non sono inclusi in questo codice passi preliminari di equilibrazione. Ad ogni passo del ciclo
vengono chiamate nell’ordine le routine move (che aggiorna le posizioni, date le velocità calcolate nel
passo precedente), force che calcola le forze e aggiorna le velocità secondo l’algoritmo di leap-frog e
kinet che calcola l’osservabile richiesto (in questo caso l’energia cinetica del sistema).
C
** ZERO ACCUMULATORS **
ACV
ACK
ACE
ACEC
ACP
ACT
C
0.0
0.0
0.0
0.0
0.0
0.0
ACVSQ
ACKSQ
ACESQ
ACECSQ
ACPSQ
ACTSQ
=
=
=
=
=
=
FLV
FLK
FLE
FLEC
FLP
FLT
0.0
0.0
0.0
0.0
0.0
0.0
=
=
=
=
=
=
0.0
0.0
0.0
0.0
0.0
0.0
** CALCULATE INITIAL VALUES **
CALL
CALL
CALL
CALL
CALL
CALL
CALL
CALL
C
=
=
=
=
=
=
FORCE
MOVE
FORCE
FORCE
KINET
MOVE
FORCE
KINET
(
(
(
(
(
(
(
(
-DT, SIGMA,
-DT )
-DT, SIGMA,
DT, SIGMA,
OLDK )
DT )
DT, SIGMA,
NEWK )
RCUT, NEWV, NEWVC, NEWW )
RCUT, V, VC, W )
RCUT, V, VC, W )
RCUT, NEWV, NEWVC, NEWW )
** INCLUDE LONG-RANGE CORRECTIONS **
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
V
W
NEWV
NEWW
=
=
=
=
V + VLRC
W + WLRC
NEWV + VLRC
NEWW + WLRC
IF ( IPRINT .LE. 0 ) IPRINT = NSTEP + 1
WRITE(*,’(//1X,’’**** START OF DYNAMICS ****’’)’)
WRITE(*,10001)
C
C
C
*******************************************************************
** MAIN LOOP BEGINS
**
*******************************************************************
DO 1000 STEP = 1, NSTEP
C
** IMPLEMENT ALGORITHM **
CALL MOVE ( DT )
OLDV = V
V
= NEWV
OLDVC = VC
VC
= NEWVC
W
= NEWW
CALL FORCE ( DT, SIGMA, RCUT, NEWV, NEWVC, NEWW )
** INCLUDE LONG-RANGE CORRECTIONS **
NEWV = NEWV + VLRC
NEWW = NEWW + WLRC
C
C
:
:
C
C
** CALCULATE KINETIC ENERGY AT CURRENT STEP **
K = ( NEWK + OLDK ) / 2.0
+ ( NEWV - 2.0 * V + OLDV ) / 8.0
KC = ( NEWK + OLDK ) / 2.0
+ ( NEWVC - 2.0 * VC + OLDVC ) / 8.0
OLDK = NEWK
CALL KINET ( NEWK )
** CALCULATE INSTANTANEOUS VALUES **
E
= K + V
EC
= KC + VC
VN
= V / REAL ( N )
KN
= K / REAL ( N )
EN
= E / REAL ( N )
ECN = EC / REAL ( N )
TEMP = 2.0 * KN / FREE
PRES = DENS * TEMP + W
** CONVERT TO LENNARD-JONES UNITS **
PRES = PRES * SIGMA ** 3
47
48
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
C
C
:
1000
C
C
C
** INCREMENT ACCUMULATORS **
ACE = ACE + EN
ACEC = ACEC + ECN
ACK = ACK + KN
ACV = ACV + VN
ACP = ACP + PRES
ACESQ = ACESQ + EN ** 2
ACECSQ = ACECSQ + ECN ** 2
ACKSQ = ACKSQ + KN ** 2
ACVSQ = ACVSQ + VN ** 2
ACPSQ = ACPSQ + PRES ** 2
** OPTIONALLY PRINT INFORMATION **
IF ( MOD( STEP, IPRINT ) .EQ. 0 ) THEN
WRITE(*,’(1X,I8,6(2X,F10.4))’)
STEP, EN, ECN, KN, VN, PRES, TEMP
ENDIF
CONTINUE
*******************************************************************
** MAIN LOOP ENDS
**
*******************************************************************
WRITE(*,’(/1X,’’**** END OF DYNAMICS **** ’’//)’)
C
** OUTPUT RUN AVERAGES **
NORM
= REAL ( NSTEP )
AVE = ACE / NORM
AVEC = ACEC / NORM
AVK = ACK / NORM
AVV = ACV / NORM
AVP = ACP / NORM
ACESQ = ( ACESQ / NORM ) - AVE **
ACECSQ = ( ACECSQ / NORM ) - AVEC **
ACKSQ = ( ACKSQ / NORM ) - AVK **
ACVSQ = ( ACVSQ / NORM ) - AVV **
ACPSQ = ( ACPSQ / NORM ) - AVP **
IF ( ACESQ .GT. 0.0 ) FLE = SQRT (
IF ( ACECSQ .GT. 0.0 ) FLEC = SQRT (
IF ( ACKSQ .GT. 0.0 ) FLK = SQRT (
IF ( ACVSQ .GT. 0.0 ) FLV = SQRT (
IF ( ACPSQ .GT. 0.0 ) FLP = SQRT (
AVT = AVK * 2.0 / FREE
FLT = FLK * 2.0 / FREE
2
2
2
2
2
ACESQ
ACECSQ
ACKSQ
ACVSQ
ACPSQ
)
)
)
)
)
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
:
:
C
49
WRITE(*,’(’’ AVERAGES’’,6(2X,F10.5))’)
AVE, AVEC, AVK, AVV, AVP, AVT
WRITE(*,’(’’ FLUCTS ’’,6(2X,F10.5))’)
FLE, FLEC, FLK, FLV, FLP, FLT
** WRITE OUT FINAL CONFIGURATION **
CALL WRITCN ( CNFILE )
STOP
10001
:
:
FORMAT(//1X,’TIMESTEP ..ENERGY.. CUTENERGY.’
’ ..KINETIC. ..POTENT..’,
’ .PRESSURE. ..TEMPER..’/)
END
Alcune routine sono riportate nel seguito. In particolare, si deve prestare atenzione al doppio ciclo
presente nella routine force che costituisce la sezione del codice che utilizza la maggior parte del tempo
di CPU richiesto dal programma (fino al 90%).
SUBROUTINE FORCE ( DT, SIGMA, RCUT, V, VC, W )
include ’block.inc’
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
*******************************************************************
** ROUTINE TO COMPUTE FORCES WITH CUTOFF & MINIMUM IMAGING.
**
**
**
** THE ROUTINE ACTUALLY RETURNS TWO DIFFERENT POTENTIAL ENERGIES.**
** V IS CALCULATED USING THE UNSHIFTED LENNARD-JONES POTENTIAL. **
** WHEN LONG-RANGE TAIL CORRECTIONS ARE ADDED, THIS MAY BE USED **
** TO CALCULATE THERMODYNAMIC INTERNAL ENERGY ETC.
**
** VC IS CALCULATED USING THE SHIFTED LENNARD-JONES POTENTIAL
**
** WITH NO DISCONTINUITY AT THE CUTOFF. THIS MAY BE USED TO
**
** CHECK ENERGY CONSERVATION.
**
** PROGRAM UNITS MAKE EPSILON = MASS = 1, BUT SIGMA IS NOT UNITY **
** SINCE WE TAKE A BOX OF UNIT LENGTH.
**
** THE ROUTINE IS COMBINED WITH THE LEAPFROG ALGORITHM FOR
**
** ADVANCING VELOCITIES, I.E. FORCES ARE ACCUMULATED DIRECTLY
**
** ONTO VELOCITIES.
**
*******************************************************************
REAL
V, RCUT, DT, SIGMA, W, VC
INTEGER
REAL
REAL
REAL
REAL
REAL
I, J, NCUT
RCUTSQ, VCUT, SIGSQ
RXI, RYI, RZI, VXI, VYI, VZI
RXIJ, RYIJ, RZIJ, RIJSQ
SR2, SR6, SR12
VIJ, WIJ, VELIJ, DVX, DVY, DVZ
50
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
C
*******************************************************************
C
** CALCULATE SQUARED DISTANCES FOR INNER LOOP **
C
SIGSQ = SIGMA ** 2
RCUTSQ = RCUT ** 2
** CONDUCT OUTER LOOP OVER ATOMS **
V
= 0.0
W
= 0.0
NCUT = 0
DO 1000 I = 1, N - 1
RXI = RX(I)
RYI = RY(I)
RZI = RZ(I)
VXI = VX(I)
VYI = VY(I)
VZI = VZ(I)
C
** CONDUCT INNER LOOP OVER ATOMS **
DO 900 J = I + 1, N
RXIJ = RXI - RX(J)
RXIJ = RXIJ - ANINT ( RXIJ )
IF ( ABS ( RXIJ ) .LT. RCUT ) THEN
RYIJ = RYI - RY(J)
RYIJ = RYIJ - ANINT ( RYIJ )
RIJSQ = RXIJ ** 2 + RYIJ ** 2
IF ( RIJSQ .LT. RCUTSQ ) THEN
RZIJ = RZI - RZ(J)
RZIJ = RZIJ - ANINT ( RZIJ )
RIJSQ = RIJSQ + RZIJ ** 2
IF ( RIJSQ .LT. RCUTSQ ) THEN
SR2
= SIGSQ / RIJSQ
SR6
= SR2 ** 3
SR12 = SR6 ** 2
VIJ
= 4.0 * ( SR12 - SR6 )
WIJ
= 24.0 * ( 2.0 * SR12 - SR6 )
VELIJ = WIJ * DT / RIJSQ
DVX
= VELIJ * RXIJ
DVY
= VELIJ * RYIJ
DVZ
= VELIJ * RZIJ
VXI
= VXI + DVX
VYI
= VYI + DVY
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
VZI
VX(J)
VY(J)
VZ(J)
V
W
NCUT
ENDIF
ENDIF
ENDIF
900
C
=
=
=
=
=
=
=
51
VZI + DVZ
VX(J) - DVX
VY(J) - DVY
VZ(J) - DVZ
V + VIJ
W + WIJ
NCUT + 1
CONTINUE
** END OF INNER LOOP **
VX(I) = VXI
VY(I) = VYI
VZ(I) = VZI
1000
C
C
CONTINUE
** END OF OUTER LOOP **
** CALCULATE POTENTIAL SHIFT **
SR2
SR6
SR12
VIJ
VC
=
=
=
=
=
SIGSQ / RCUTSQ
SR2 * SR2 * SR2
SR6 * SR6
4.0 * ( SR12 - SR6 )
V - REAL ( NCUT ) * VIJ
W
= W / 3.0
RETURN
END
la routine move, che aggiorna le posizioni ad ogni passo temporale (mentre le velocità sono aggiornate
direttamente nella routine force).
SUBROUTINE MOVE ( DT )
include ’block.inc’
C
C
C
*******************************************************************
** LEAPFROG VERLET ALGORITHM FOR ADVANCING POSITIONS
**
*******************************************************************
REAL
DT
52
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
INTEGER
C
I
*******************************************************************
DO 1000 I = 1, N
RX(I) = RX(I) + VX(I) * DT
RY(I) = RY(I) + VY(I) * DT
RZ(I) = RZ(I) + VZ(I) * DT
1000
CONTINUE
RETURN
END
la routine fcc, che assegna la configurazione iniziale secondo un reticolo cubico a facce centrate
SUBROUTINE FCC
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
*******************************************************************
** SETS UP THE ALPHA FCC LATTICE FOR N LINEAR MOLECULES.
**
**
**
** THE SIMULATION BOX IS A UNIT CUBE CENTRED AT THE ORIGIN.
**
** N SHOULD BE AN INTEGER OF THE FORM ( 4 * ( NC ** 3 ) ),
**
** WHERE NC IS THE NUMBER OF FCC UNIT CELLS IN EACH DIRECTION.
**
** SEE FIGURE 5.10 FOR A DIAGRAM OF THE LATTICE AND A
**
** DEFINITION OF THE FOUR ORIENTATIONAL SUBLATTICES.
**
**
**
** PRINCIPAL VARIABLES:
**
**
**
** INTEGER N
NUMBER OF MOLECULES
**
** REAL
RX(N),RY(N),RZ(N)
MOLECULAR POSITIONS
**
** REAL
EX(N),EY(N),EZ(N)
UNIT VECTORS GIVING ORIENTATIONS **
** REAL
RROOT3
1.0 / SQRT ( 3.0 )
**
*******************************************************************
INCLUDE ’block.inc’
REAL
RROOT3
PARAMETER ( RROOT3 = 0.5773503 )
REAL
INTEGER
C
CELL, CELL2
I, IX, IY, IZ, IREF, M
*******************************************************************
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
C
C
C
C
C
C
C
96
97
98
99
C
100
** CALCULATE THE SIDE OF THE UNIT CELL **
CELL = 1.0 / REAL ( NC )
CELL2 = 0.5 * CELL
** BUILD THE UNIT CELL **
** SUBLATTICE A **
RX(1) = 0.0
RY(1) = 0.0
RZ(1) = 0.0
** SUBLATTICE B **
RX(2) = CELL2
RY(2) = CELL2
RZ(2) = 0.0
** SUBLATTICE C **
RX(3) = 0.0
RY(3) = CELL2
RZ(3) = CELL2
** SUBLATTICE D **
RX(4) = CELL2
RY(4) = 0.0
RZ(4) = CELL2
** CONSTRUCT THE LATTICE FROM THE UNIT CELL **
M = 0
DO 99 IZ = 1, NC
DO 98 IY = 1, NC
DO 97 IX = 1, NC
DO 96 IREF = 1,
RX(IREF+M) =
RY(IREF+M) =
RZ(IREF+M) =
CONTINUE
M = M + 4
CONTINUE
CONTINUE
CONTINUE
4
RX(IREF) + CELL * REAL ( IX - 1 )
RY(IREF) + CELL * REAL ( IY - 1 )
RZ(IREF) + CELL * REAL ( IZ - 1 )
** SHIFT CENTRE OF BOX TO THE ORIGIN **
DO 100 I = 1, N
RX(I) = RX(I) - 0.5
RY(I) = RY(I) - 0.5
RZ(I) = RZ(I) - 0.5
CONTINUE
RETURN
END
53
54
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
la routine comvel, che assegna le velocità iniziali, definite in modo casuale secondo una distribuzione
gaussiana
C
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
*******************************************************************
** centre of mass and angular velocities for linear molecules
**
**
**
** principal variables:
**
**
**
** integer n
the number of molecules
**
** real
rx(n),ry(n),rz(n)
positions
**
** real
vx(n),vy(n),vz(n)
velocities
**
** real
temp
reduced temperature
**
**
**
** supplied routines:
**
**
**
** subroutine comvel ( temp )
**
**
sets the centre of mass velocities for a configuration of **
** real function ranf ( dummy )
**
**
returns a uniform random variate on the range zero to one **
** real function gauss ( dummy )
**
**
returns a uniform random normal variate from a
**
**
distribution with zero mean and unit variance.
**
**
**
** units:
**
**
**
** we assume unit molecular mass and employ lennard-jones units **
**
property
units
**
**
rx, ry, rz
(epsilon/m)**(1.0/2.0)
**
**
ox, oy, oz
(epsilon/m*sigma**2)**(1.0/2.0)
**
**
inert
m*sigma**2
**
*******************************************************************
subroutine comvel ( temp )
include ’block.inc’
c
c
c
c
c
c
c
c
c
c
c
*******************************************************************
** translational velocities from maxwell-boltzmann distribution **
**
**
** the distribution is determined by temperature and (unit) mass.**
** this routine is general, and can be used for atoms, linear
**
** molecules, and non-linear molecules.
**
**
**
** routine referenced:
**
**
**
** real function gauss ( dummy )
**
**
returns a uniform random normal variate from a
**
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
c
c
**
distribution with zero mean and unit variance.
**
*******************************************************************
REAL
REAL
REAL
REAL
temp
rtemp, sumx, sumy, sumz
gauss, dummy
ranf
external gauss
external ranf
c
100
c
*******************************************************************
rtemp = dsqrt ( temp )
do 100 i = 1, n
vx(i) = rtemp * gauss ( dummy )
vy(i) = rtemp * gauss ( dummy )
vz(i) = rtemp * gauss ( dummy )
continue
200
** remove net momentum **
sumx = zero
sumy = zero
sumz = zero
do 200 i = 1, n
sumx = sumx + vx(i)
sumy = sumy + vy(i)
sumz = sumz + vz(i)
continue
300
sumx = sumx / real
sumy = sumy / real
sumz = sumz / real
do 300 i = 1, n
vx(i) = vx(i) vy(i) = vy(i) vz(i) = vz(i) continue
( n )
( n )
( n )
sumx
sumy
sumz
return
end
c
c
function gauss ( dummy )
include ’block.inc’
*******************************************************************
** random variate from the standard normal distribution.
**
55
56
c
c
c
c
c
c
c
c
c
c
c
c
c
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
**
**
** the distribution is gaussian with zero mean and unit variance.**
**
**
** reference:
**
**
**
** knuth d, the art of computer programming, (2nd edition
**
**
addison-wesley), 1978
**
**
**
** routine referenced:
**
**
**
** real function ranf ( dummy )
**
**
returns a uniform random variate on the range zero to one **
*******************************************************************
REAL
parameter
parameter
parameter
REAL
REAL
REAL
external
c
a1, a3, a5, a7, a9
( a1 = 3.949846138e0, a3 = 0.252408784e0 )
( a5 = 0.076542912e0, a7 = 0.008355968e0 )
( a9 = 0.029899776e0
)
sum, r, r2
ranf, dummy
gauss
ranf
*******************************************************************
10
:
sum = zero
do 10 i = 1,
sum = sum
continue
r = ( sum r2 = r * r
gauss = ((((
* r
return
end
12
+ ranf ( dummy )
6.e0 ) / 4.e0
a9 * r2 + a7 ) * r2 + a5 ) * r2 + a3 ) * r2 +a1 )
function ranf ( dummy )
c
c
c
c
c
c
c
c
*******************************************************************
** returns a uniform random variate in the range 0 to 1.
**
**
**
**
***************
**
**
** warning **
**
**
***************
**
**
**
** good random number generators are machine specific.
**
2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO
c
c
57
** please use the one recommended for your machine.
**
*******************************************************************
integer
l, c, m
parameter ( l = 1029, c = 221591, m = 1048576 )
integer
REAL
save
data
REAL ranf
c
seed
dummy
seed
seed / 0 /
*******************************************************************
seed = mod ( seed * l + c, m )
ranf = real ( seed ) / m
return
end
c
c
c
*******************************************************************
** common block
**
*******************************************************************
integer nc,n
parameter (nc=3,n=4*nc**3)
real rx(n), ry(n), rz(n), vx(n), vy(n), vz(n)
common / par / rx, ry, rz, vx, vy, vz
Ecco il risultato di una simulazione di dinamica molecolare effettuata sul sistema precedente. Il sistema
è formato da 108 atomi (vedi, nel listato precedentemente descritto, la variabile nc). La simulazione
corre su 5000 passi temporali, e ciascun passo corrisponde a 0.004 unità temporali riscalate. Nono sono
effettuati passi iniziali di equilibrazione. Ogni 500 passi il programma stampa l’energia totale del sistema,
l’energia cinetica, l’energia potenziale, la pressione, la temperatura ed il coefficiente di compressibilità.
Alla fine il programma calcola i valori medi di queste grandezze su tutta l’estensione temporale della
simulazione, insieme alla deviazione quadratica media che dà una misura delle fluttuazioni presenti nel
sistema.
1 **** PROGRAM FROGGY ****
MOLECULAR DYNAMICS OF LENNARD-JONES ATOMS
LEAPFROG ALGORITHM WITH MINIMAL STORAGE
ENTER RUN TITLE
test n. 1
ENTER NUMBER OF STEPS
5000
ENTER NUMBER OF STEPS BETWEEN OUTPUT LINES
58
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
500
ENTER
save
ENTER
ENTER
0.81
ENTER
1.5
ENTER
3.5
ENTER
0.004
CONFIGURATION FILENAME
THE FOLLOWING IN LENNARD-JONES UNITS
DENSITY
INIT. TEMPERATURE
POTENTIAL CUTOFF DISTANCE
TIME STEP
test n. 1
NUMBER OF ATOMS
NUMBER OF STEPS
OUTPUT FREQUENCY
POTENTIAL CUTOFF
DENSITY
TIME STEP
=
=
=
=
=
=
108
5000
500
3.5000
0.8100
0.004000
**** START OF DYNAMICS ****
TIMESTEP
..ENERGY..
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
-4.4422
..KINETIC.
..POTENT..
.PRESSURE.
..TEMPER..
..COMPRESS..
1.2232
1.2445
1.2990
1.2282
1.2470
1.3362
1.1561
1.1903
1.1678
1.1185
-5.6656
-5.6865
-5.7413
-5.6708
-5.6891
-5.7786
-5.5984
-5.6324
-5.6101
-5.5607
0.4121
0.4484
-0.0802
0.3816
0.3459
-0.3143
0.6978
0.5920
0.6005
0.6746
0.8155
0.8297
0.8660
0.8188
0.8314
0.8908
0.7707
0.7935
0.7785
0.7457
-0.3761
-0.3327
-1.1143
-0.4246
-0.4863
-1.4356
0.1177
-0.0789
-0.0477
0.1169
0.82385
0.05419
-0.52308
0.53147
**** END OF DYNAMICS ****
AVERAGES
FLUCTS
-4.44221
0.00000
1.23578
0.08129
-5.67808
0.08090
0.29658
0.40580
2.7. INTRODUZIONE AL METODO MONTE CARLO
2.7
59
Introduzione al metodo Monte Carlo
Il metodo Monte Carlo è, essenzialmente, una tecnica di calcolo per la valutazione di integrali definiti.
In particolare, nell’ambito della meccanica statistica, il metodo Monte Carlo consente di valutare in
modo efficiente il valore medio di una proprietà osservabile in un sistema a molte coordinate, data,
naturalmente la densità di probabilità degli stati del sistema.
Consideriamo il seguente problema: è data una funzione osservabile F (q) definita rispetto ad un set
di coordinate (classiche) q = (q1 , q2 , . . . qN )tr . Le coordinate q rappresentano uno stato del sistema, che
supponiamo sia descritto nell’ambito del’insieme canonico. L’energia totale del sistema è
1
E = V (q) + T = V (q) + p · m−1 p
2
(2.53)
dove p = (p1 , p2 , . . . pN )tr è il vettore dei momenti generalizzati; m è la matrice generalizzata delle
masse (che può anche essere fuzione di q). Il valore medio dell’osservabile F è semplicemente
R
F =
R
dq dpF (q) exp[−E(q, p)/kB T ]
R
R
dq dp exp[−E(q, p)/kB T ]
(2.54)
L’integrale configurazionale in dq è esteso al volume del sistema. Integrando rispetto ai momenti p,
resta l’espressione, che coinvolge la sola energia potenziale del sistema:
R
F =
dqF (q) exp[−V (q)/kB T ]
R
=
dq exp[−V (q)/kB T ]
R
dqF (q) exp[−V (q)/kB T ]
Q
(2.55)
dove Q è la funzione di partizione canonica configurazionale. Il metodo Monte Carlo, almeno nelle sue
applicazioni standard, è appunto dedicato al calcolo numerico di espressioni analoghe a (2.55). L’idea che
è alla base del metodo Monte Carlo è la seguente: si determini un insieme o campione rappresentativo
di punti, generati casualmente all’interno dello spazio delle fasi del sistema; si sostituiscano gli integrali
esatti a numeratore e denominatore di (2.55) con somme approssimate che dipendono dal campione
di punti. Evidentemente sarà cruciale il criterio di campionamento adottato per scegliere il campione
rappresentativo dei punti, che dovrà essere in grado di esplorare o rappresenare in modo efficiente lo
spazio delle fasi complessivo del sistema.
Esercizio 8. In Fig. (2.6) è riportato uno schema relativo ad un sistema di tre particelle monodimensionali che si muovono lungo una retta da 0 ad L. Lo spazio delle fasi è dunque costituito da una
sfera di raggio L centrata nell’origine di una terna di assi x = (x1 , x2 , x3 ). Una collezione di punti
x1 , x2 , . . . , xM è rappresentata in figura.
La scelta di un campione rappresentativo dello spazio delle fasi del sistema potrebbe essere effettuata,
in linea di principio semplicemente generando una sequenza o catena casuale1 di punti. È evidente
però che in generale questa scelta non sarà molto efficiente nel caso di un potenziale generico V (q): è
opportuno infatti generare punti dello spazio delle fasi o configurazioni che massimizzino l’integrando
exp(−V /kB T ) cioè, sostanzialmente, configurazioni a bassa energia ed alta probabilità del sistema. Il
campionamento deve dunque tener conto della distribuzione di Boltzmann delle energie del sistema:
1
La scelta casuale o stocastica dei punti dello spazio delle fasi, analoga ai numeri casuali ottenuti da una roulette di un
Casinò, dà il nome al metodo: Monte Carlo
60
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
x3
x1
x2
x3
L
L
x2
x1
Figura 2.6: Spazio delle fasi e campione di punti rappresentativo per un sistema a tre coordinate
questa procedura (detta anche importance sampling) è implementata in modo efficiente dal cosiddetto
schema Metropolis2 , che è descritto nella sezione successiva.
2.8
Metodologia
Lo schema Metropolis può essere descritto brevemente nel seguente modo:
1. è dato una qualche stato iniziale del sistema q1 : utilizzando un qualche criterio di scelta stocastico,
cioè basato su una scelta almeno parzialmente casuale, una nuova configurazione qprova viene
generata;
2. si calcola la differenza di energia ∆V = V (qprova ) − V (q1 ): se tale differenza è minore di zero,
cioè se l’energia della configurazione di prova è minore di quella precedente, la configurazione di
prova viene accettata, ed entra a fare parte del campione rappresentativo, q2 = qprova ;
3. se invece ∆V > 0, la configurazione è accettata, q2 = qprova , nel campione solo se exp(−∆V /kB T )
è maggiore di un numero casuale ² uniformemente distribuito nell’intervallo [0, 1]; altrimenti la
configurazione di prova viene rifiutata e si mantiene la configurazione precedente, q2 = q1 - in
pratica la nuova configurazione viene accettata con una probabilità data dal fattore di Boltzmann
exp(−∆V /kB T ).
4. data la nuova configurazione q2 si genera una nuova configurazione del campione ripartendo dal
punto 1.
Lo schema Metropolis dunque non sceglie configurazioni in modo casuale, ma le “pesa” tenendo conto
del fattore di Boltzmann exp(−V /kB T ). Una volta che un numero M sufficientemente elevato di config2
Il nome deriva da uno dei coautori del lavoro N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth,, A.H. Teller e E.
Teller, J. Chem. Phys., 21, 1087 (1953)
2.8. METODOLOGIA
61
urazioni è stato generato, il valor medio di una proprietà F (q) è ottenuto come una media non pesata
su tutte le configurazioni del campione
F =
M
1 X
F (qj )
M j
(2.56)
È possibile una giustificazione formale del metodo Monte Carlo secondo lo schema Metropolis, basata
sull’idea che il campionamento costituisce una pseudo-dinamica del sistema: cioè che la successione
di configurazioni è ottenuta in base ad un’evoluzione temporale, o traiettoria, definita nello spazio
configurazionale del sistema. L’evoluzione temporale non è naturalmente data dalla vera dinamica del
sistema, ciò che equivarrebbe ad una simulazione di Dinamica Molecolare, ma ha la caratteristica di
mantenere alcune proprietà fondamentali per il calcolo delle proprietà di equilibrio del sistema.
2.8.1
Catene di Markov
Consideriamo una sequenza di punti qj associati ai tempi discreti nj . La probabilità condizionale che
il sistema sia nel punto qj+1 al tempo nj+1 , dato il suo precedente passaggio per q1 a n1 , q2 a n2 , . . .,
qj a nj si indica con P (qj+1 , nj+1 |qj , nj ; . . . ; q2 , n2 ; q1 , n1 ). Se il sistema non ha memoria degli eventi
precedenti a nj , allora
P (qj+1 , nj+1 |qj , nj ; . . . ; q2 , n2 ; q1 , n1 ) =
(2.57)
e la sequenza di configurazioni è detta catena di Markov. Consideriamo ora una catena di Markov per
la quale le probabilità condizionali siano indipendenti dal tempo:
P (qj , nj |qi , ni ) = Pij
(2.58)
cioè dipendono solo dagli stati iniziale e finale qi e qj . La matrice Pij è detta matrice di transizione
stocastica. Sia ρi (n) la probabilità che il sistema sia nello stato qi dopo n passi; allora in notazione
matriciale si può scrivere
ρ(n) = Ptr ρ(0)
(2.59)
dove ρ(0) è una distribuzione iniziale arbitraria. Nel limite n → ∞, esiste una distribuzione limite di
stato stazionario
lim Ptr ρ(0) = P
n→∞
(2.60)
Si può dimostrare che esiste un’unica distribuzione di stato stazionario se ogni stato del sistema può
essere raggiunto da ogni altro stato del sistema attraverso almeno un cammino a più step con probabilità
non nulla. In questo caso il sistema (e/o la catena di Markov) si dice ergodico.
La scelta di una catena di Markov, ovvero la determinazione di una sequenza di punti dello spazio
configurazionale, deve avvenire in maniera tale che all’equilibrio il numero di configurazioni accettate
in uscita da uno stato i siano uguali a quelle che portano ad i da tutti gli altri stati.Una condizione
sufficiente è che la matrice P verifichi il principio del bilancio dettagliato
Pi Pij = Pj Pji
(2.61)
62
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
Lo schema Metropolis è una possibile soluzione alla scelta della matrice di transizione. Formalmente,
si definisce una matrice simmetrica di transizione pij , che definisce il criterio per generare una nuova
configurazione di prova, data una certa configurazione di partenza. La matrice di transizione è data
come
Pij = pij
ρj
Pij = pij
ρi
if ρi ≥ ρj con i 6= j
(2.62)
if ρi < ρj con i 6= j
(2.63)
La probabilità che il sistema rimanga nello stato i è data da
Pii = 1 −
X
Pij
(2.64)
i6=j
Se il campionamento viene effettuato rispetto ad una distribuzione canonica, cioè si utilizzano i pesi
dati dalla distribuzione di Boltzmann, si può dimostrare che la distribuzione limite è data da
Pi =
exp[−V (qi )/kB T ]
Q
(2.65)
ρ
Si può notare che poichè in Eq. (2.63) compare solo il rapporto ρji , non è necessaria la conoscenza a
priori della funzione di partizione Q. Possiamo concludere questa Sezione notando anche che lo schema
di Metropolis non è l’unica soluzione possibile. Molti altri schemi alternativi possono essere scelti, che
verificano l’Eq. (2.65), e che non richiedono la consocenza di Q, come per esempio lo schema:
Pij
=
pij ρj
ρi + ρj
Pii = 1 −
X
i 6= j
Pij
(2.66)
(2.67)
i6=j
Nella maggior parte delle applicazioni di letteratura, tuttavia, lo schema Metropolis è il più diffuso.
2.9
Applicazioni
2.9.1
Alcuni esempi
Ogni proprietà che possa essere scritta sotto forma di una media rispetto ad una distribuzione canonica
(e non solo, vedi la Sezione successiva) di equilibrio può essere determinata una volta che sia stato
selezionato un campione rappresentativo del sistema. Tra i sistemi più adatti ad essere studiati con
il metodo Monte Carlo sono naturalmente i fluidi. Consideriamo per esempio il sistema definito nel
Capitolo precedente, un insieme di N particelle puntiformi interagenti via un potenziale di LennardJones, in un volume cubico con condizione periodiche. Per generare una catena di Markov del sistema,
secondo lo schema di Metropolis, possiamo procedere definendo la matrice pij per la transizione da uno
stato ad un altro del sistema seguendo per esempio il seguente schema di Metropolis
1. uno stato del sistema è rappresentato dalla collezione di vettori ~r1 , ~r2 , . . . , ~rN e inizialmente il
sistema è preparato in una qualche struttura cristallina; una nuova configurazione si può generare
scegliendo per esempio una particella i in modo casuale, e cambiando il vettore ~ri di un vettore
δ~r di direzione e lunghezza casuale (entro per esempio un certo raggio di cut off prescelto).
2.9. APPLICAZIONI
63
2. si calcola la differenza di energia ∆V : se tale differenza è minore di zero, cioè se l’energia della
configurazione di prova è minore di quella precedente, la configurazione di prova viene accettata,
ed entra a fare parte del campione rappresentativo
3. se invece ∆V > 0, la configurazione è accettata nel campione solo se exp(−∆V /kB T ) è maggiore di
un numero casuale ² uniformemente distribuito nell’intervallo [0, 1]; altrimenti la configurazione di
prova viene rifiutata e si mantiene la configurazione precedente in pratica la nuova configurazione
viene accettata con una probabilità data dal fattore di Boltzmann exp(−∆V /kB T ).
4. data la nuova configurazione o collezione di punti si genera una nuova configurazione del campione
ripartendo dal punto 1.
In pratica lo schema Metropolis è implementato specificando il criterio di scelta delle configurazioni di
prova, che nel caso specifico è basato sulla determinazione di quattro numeri casuali: la particella che
deve essere mossa, la lunghezza del vettore δ~r e i due angoli che ne specificano l’orientazione.
Un altro esempio classico, che sarà descritto nel dettaglio nel Capitolo successivo, è dato dallo
studio delle proprietà di equilibrio di un polimero. Consideriamo una catena formata da M elementi o
monomeri. I gradi di libertà interni del sistema sono specificati da N grandezze: gli angoli di legame
tra i legami che uniscono due monomeri successivi, le distanze o lunghezze di legame tra due monomeri
successivi e gli angoli torsionali identificati da tre legami consecutivi valore costante le distanze di legame.
Supponiamo di fissare ad un valore uguale e costante gli angoli di legame e le distanze di legame. Se
fissiamo nello spazio le posizioni dei primi tre monomeri, dovremo definire N = M − 3 angoli torsionali
per definire in modo univoco una conformazione della molecola, cfr. Fig. (2.7). Possiamo definire
z
M-3
5
3
2
φ
φ
3
φ
N-1
1
4
φ
2
6
φ
0
1
M-2
M-1
y
0
x
Figura 2.7: Catena di M monomeri definita da N angoli
l’energia del sistema come una somma di interazioni steriche, rappresentate da semplici potenziale sito-
64
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
sito Lennard-Jones, e termini torsionali, che specificano l’energia conformazionale
V = 4²S
M
−1 M
−1
X
X
i=0
Ã
σ

Rij
j=i+1
!12
Ã
−
σ
Rij
!6 
−1
² NX
+ T
(1 + cos 3φk )
2
(2.68)
k=0
Il metodo Monte Carlo prevede un campionamento sulle possibili conformazioni del sistema. I criteri
di scelta possibili delle conformazioni sono molteplici. Per esempio
• ad ogni nuova scelta di una conformazione, data la conformazione precedente, si sceglie in modo
casuale un angolo torsionale, e lo si ruota di un valore casuale
• si genera la nuova conformazione, data la conformazione precedente, spostando un segmento (alcuni monomeri consecutivi), scelto in modo casuale, dalla sua posizione originale ad un’altra
posizione, definita anch’essa in modo casuale
• si sceglie un segmento, si fissano le posizioni del primo ed ultimo monomero del segmento, e si
generano nuove conformazioni interne del segmento stesso
In questo modo si possono esplorare le conformazioni possibili, sino a raccogliere un campione rappresentativo sufficientemente esteso per il calcolo di proprietà di equilibrio del sistema. Sistemi formati da
singole catene o collezioni di catene sono importanti per lo studio di molecole o aggregati di interesse
biochimico, come le proteine, gli acidi nucleici, le membrane fosfolipidiche.
2.9.2
Altri insiemi termodinamici
Anche se finora sono state discusse applicazioni del metodo Monte Carlo solo nell’ambito dell’insieme
canonico (NVT), è possibile effettuare simulazioni Monte Carlo anche nell’ambito di altri insiemi termodinamici, come per esempio l’insieme grancanonico (µVT): il numero di particelle N diviene in questo
caso una grandezza variabile, che viene campionata durante la scelta dei punti dello spazio delle configurazioni in modo analogo agli altri gradi di libertà del sistema. Il peso di ciascuna configurazione viene
naturalmente dato dalla distribuzione configurazionale grandcanonica
exp[µN/kB T − V (q)/kB T ]
(2.69)
Ξ
dove Ξ è il corrispondente integrale di configurazione. Una simulazione Monte Carlo nell’insieme grandcanonico prevederà perciò l’inserzione o l’eliminazione casuale di particelle; il rifiuto o l’accettazione di
queste mosse nella determinazione della catena di Markov è effettuato nel solito modo, ma la probabilità
è ora dettata dalla distribuzione in Eq. (2.69). L’attrattiva del sistema grandcanonico è nella definizione
iniziale del potenziale chimico, che permette perciò di definire in partenza l’energia libera del sistema.
Tra gli altri insiemi utilizzati, possiamo ricordare l’insieme N P T , che permette di definire in partenza
la pressione del sistema e riveste quindi una certa utilità per sistemi (e.g. fluidi di particelle rigide), per
i quali il calcolo di P negli insiemi consueti sia difficile. In questo caso la densità di probabilità degli
stati è proporzionale a
ρ=
exp[P V − V (q)/kB T ]
(2.70)
Π
dove Π è l’integrale di configurazione. L’implementazione dell’insieme N P T richiede l’inclusione nei
criteri di scelta della catena di Markov di mosse che modificano il volume del campione.
ρ=
2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA
2.10
65
Esempio: studio conformazionale di una catena alchilica
Concludiamo l’esposizione dedicata al metodo Monte Carlo con un esempio specifico. Consideriamo
dunque il sistema precedentemente descritto di una singola catena formata da M monomeri, con N =
M − 3 gradi di libertà interna costituiti da altrettanti angoli torsionali, cfr. Fig. (2.7). Vogliamo
descrivere un semplice programma Fortran per il calcolo della distanza media tra il primo e l’ultimo
atomo (nel seguito useremo i termini “atomo”, “monomero” o “sito” in modo equivalente).
2.10.1
Il sistema
~ i con
La geometria del sistema è descritta in Fig. (2.7). Ogni atomo è identificato dal vettore R
i = 0, . . . , M − 1; gli angoli torsionali sono φj con j = 0, . . . , N − 1. Per eliminare i gradi di libertà
esterni (rotazionali e traslazionali) fissiamo i primi tre siti ponendo il sito i = 1 nell’origine:
~ 0 = (d sin θ, 0, d cos θ)tr
R
~ 1 = (0, 0, 0)tr
R
~ 0 = (0, 0, d)tr
R
(2.71)
L’angolo θ definisce l’angolo di legame tra due legami; per esempio per un legame tetraedrico θ = 109◦ .
La distanza di legame tra due siti adiacenti vale d. Noti gli N = M − 3 angoli torsionali φj , non è
~ i con i = 3, . . . , M − 1 usando la seguente relazione ricorsiva
difficile ricavare i vettori R
n
~i = R
~ i−1 + d cosθ[1 + cos φi−3 ](R
~ i−2 − R
~ i−1 ) + cos φi−3 (R
~ i−3 − R
~ i−2 )
R
o
−
~ i−2 − R
~ i−1 ) × (R
~ i−3 − R
~ i−2 )
sin φi−3 (R
(2.72)
L’energia di una configurazione, caratterizzata dal vettore φ avente elementi φj , è calcolabile come
la somma di vari contributi: interazioni steriche, conformazionali, vibrazionali, etc., come è stato già
accennato nel Capitolo precedente. Adotteremo nel resto del Capitolo la semplice Eq. (2.68): i parametri
che specificano la forma funzionale dell’energia conformazionale sono σ, ²S e ²T - il diametro di un atomo,
e due parametri energetici, relativamente al contributo sterico e conformazionale.
In un calcolo Monte Carlo applicato al sistema in questione dovremo generare, in accordo con lo
schema Metropolis, una catena di Markov di conformazioni. Genereremo ogni nuova conformazione
adottando il semplice criterio di muovere a caso, di una quantità compresa tra zero e φc , uno degli
angoli torsionali. Ogni conformazione della catena di Markov potrà poi essere utilizzata per il calcolo
~ M −1 − R
~ 0 | La conformazione iniziale cordell’osservabile, che nel nostro caso è semplicemente R = |R
risponderà ad una catena completamente estesa. Possiamo finalmente riassumere i parametri necessari
a specificare in modo completo una simulazione Monte Carlo: θ, d, σ, ²S , ²T , la temperatura T , l’angolo
di cut-off φc e eventualmente il numero massimo di conformazioni che si vogliono includere nella catena
di Markov, Nc .
In pratica è conveniente ricorrere ad un set parametrico leggermente ridotto, che descrive il sistema
in termini di coordinate riscalate. Fisseremo perciò come unità di lunghezza la grandezza d; inoltre
poichè la temperatura compare solo come denominatore nel calcolo dei pesi di ciascuna configurazione
possiamo semplicemente introdurre i parametri riscalati ²S /kB T e ²T /kB T . I parametri riscalati che
definiscono il sistema sono perciò: θ, σ = σ/d, ²S = ²S /kB T , ²T = ²T /kB T , più naturalmente φc e Nc .
66
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
2.10.2
Metodo di calcolo e codice
Il programma, molto semplice, legge da file i parametri sigma, theta, eps, ept, m, angle (l’angolo di
cut-off) e iseed. Quest’ultimo è un semplice parametro per inizializzare la routine che genera numeri
casuali (vedi oltre).
c...............................................................
c
c
Testing Monte Carlo on a single chain
c
c
M
monomers
c
N = M-3
torsional angles
c...............................................................
implicit none
include ’data.inc’
integer istep,nstep,iout,iseed
double precision dist,average,sum
c...............................................................
c
input
open (unit=1,file=’file.in’,form=’formatted’,status=’unknown’)
read (1,*) sigma,theta,eps,ept
theta=theta*d2r
read (1,*) m
if (m.lt.5) m=5
n=m-3
read (1,*) nstep,iout
if (nstep.le.1000) nstep=1000
read (1,*) angle,iseed
angle=angle*d2r
close (unit=1)
c...............................................................
c
assign initial configuration
call initial
c...............................................................
c
Monte Carlo step
open (unit=2,file=’file.out’,form=’formatted’,status=’unknown’)
2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA
67
sum=zero
do istep=1,nstep+1
call observable(dist)
sum=sum+dist
average=sum/istep
if (mod(istep,iout).eq.0) then
write (2,*) istep,average
write (6,*) istep,average
end if
call choise(iseed)
end do
close (unit=2)
c...............................................................
end
La routine initial ha il semplice scopo di scegliere la configurazione iniziale. Segue il calcolo Monte
Carlo vero e proprio: la routine observable calcola il valore medio aggiornato dell’osservabile in esame,
mentre la routine choise è il nucleo del programma: sceglie una nuova configurazione, ne calcola
l’energia e la confronta con l’energia della configurazione precedente, decidendo se rifiutarla o accettarla
secondo lo schema di Metropolis.
subroutine choise(iseed)
implicit none
include ’data.inc’
integer ibond,i,j,iseed
double precision energy1,energy2,r1,r2,r3,
_
rotate,oldq,oldr(3,0:mx-1),delta
call potential(energy1)
call random(iseed,r1)
ibond=int(r1*n)
call random(iseed,r2)
rotate=r2*angle
oldq=q(ibond)
do i=0,m-1
do j=1,3
oldr(j,i)=r(j,i)
end do
68
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
end do
q(ibond)=q(ibond)+rotate
call cartesian
call potential(energy2)
delta=energy2-energy1
if (delta.lt.zero) then
return
else
call random(iseed,r3)
delta=dexp(-delta)
if (delta.gt.r3) then
return
else
q(ibond)=oldq
do i=0,m-1
do j=1,3
r(j,i)=oldr(j,i)
end do
end do
return
end if
end if
end
All’interno della routine choise troviamo le routine potential (per il calcolo dell’energia di una conformazione) e random per generare numeri casuali compresi tra 0 e 1. La routine potential implementa
la formula (2.68), che implica a sua volta la conoscenza delle coordinate cartesiane degli atomi, date le
coordinate interne torsionali: la conversione è effettuata dalla routine cartesian
subroutine potential(energy)
implicit none
include ’data.inc’
integer i,ii,j
double precision energy,ratio
energy=zero
do i=0,m-1
do ii=i+1,m-1
ratio=sigma/dsqrt((r(1,ii)-r(1,i))**two
_
+(r(2,ii)-r(2,i))**two+(r(3,ii)-r(3,i))**two)
ratio=ratio**six
2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA
energy=energy+four*eps*(ratio**two-ratio)
end do
end do
do j=0,n-1
energy=energy+half*ept*(one+dcos(3q(j)))
end do
return
end
c.......................................................
subroutine cartesian
implicit none
include ’data.inc’
integer i,j
double precision cq(0:nx-1),sq(0:nx-1),a(3),b(3),c(3)
do i=0,n-1
cq(i)=dcos(q(i))
sq(i)=dsin(q(i))
end do
do i=3,m-1
do j=1,3
a(j)=r(j,i-2)-r(j,i-1)
b(j)=r(j,i-3)-r(j,i-2)
end do
c(1)=a(3)*b(2)-a(2)*b(3)
c(2)=a(1)*b(3)-a(3)*b(1)
c(3)=a(2)*b(1)-a(1)*b(2)
do j=1,3
r(j,i)=r(j,i-1)
_
+ct*(one+cq(i-3))*a(j)+cq(i-3)*b(j)+sq(i-3)*c(j)
end do
end do
return
end
Un esempio di calcolo è riportato nel seguito. Il file di input file.in è semplicemente
1.2d0,109.d0,1.0d0,1.0d0
5
69
70
CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI
100000,10000
5.d0,999
che definisce una catena di cinque atomi, con angoli di legame tetraedrici, σ = 1.2; i parametri di
potenziale (non troppo realistici, per una catena alchilica) sono ²S = ²T = 1; si vogliono generare 106
configurazioni, con “mosse” di rotazione di 5◦ al massimo. L’andamento di R è riportato in Fig. (2.8).
2.48
R
2.47
2.46
2.45
2.44
0
2
4
6
8
10
Nc (x 100000)
Figura 2.8: Distanza media R tra il primo e l’ultimo atomo in una catena di cinque monomeri, in
funzione del numero di elementi della catena di Markov generata in una simulazione Monte Carlo
Capitolo 3
Presentazione analitica della meccanica
quantistica
3.1
Operatori
Formuleremo nel seguito i postulati fondamentali della meccanica quantistica (non relativistica) mantenendo al minimo il formalismo matematico. In un capitolo successivo, di approfondimento, saranno
rivisti alcuni dei principi basilari dell’algebra lineare e riformuleremo i contenuti di questo capitolo nel
linguaggio più conciso degli spazi funzionali.
Consideriamo come oggetto di studio (o sistema) un insieme di N punti materiali, descritto dall’insieme
di coordinate cartesiane {~ri }; nel seguito useremo semplicemente il simbolo r per indicare l’insieme delle
coordinate del sistema. Indicheremo anche con dr un elemento di volume nello spazio delle coordinate
del sistema. L’integrale di volume di una funzione generica f (r) verrà indicato come
Z
hf i =
drf (r)
(3.1)
Infine con i simboli O, P̂ etc. definiremo semplicemente un operatore, cioè un insieme di istruzioni
che modificano una generica funzione f . Avendo definito queste poche nozioni matematiche di base, la
descrizione quantistica del sistema è definita dai seguenti postulati
Postulato I. Lo stato fisico di un sistema al tempo t è descritto da una funzione, detta funzione
d’onda, a valori complessi, Ψ(r, t); la funzione d’onda deve essere continua, finita e monotona per
tutti i punti r.
Postulato II. Una grandezza fisica osservabile sperimentalmente è rappresentata da un operatore
lineare hermitiano. Un operatore lineare gode della proprietà
O(af + bg) = aOf + bOg
(3.2)
un operatore hermitiano soddisfa la condizione
·Z
Z
drf ∗ Og =
drg ∗ Of
¸∗
(3.3)
71
72
CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA
Postulato III. Siano x̂α e p̂α gli operatori che rappresentano gli osservabili posizione lungo l’asse
α = x, y o z e momento lineare lungo i medesimi assi di una particella generica del sistema.
Allora i sei operatori devono soddisfare le proprietà
[x̂α , p̂α0 ] = ih̄δα,α0
(3.4)
[x̂α , x̂α0 ] = 0
(3.5)
[p̂α , p̂α0 ] = 0
(3.6)
dove [A, B] = AB − BA si dice commutatore degli operatori A, B.
Postulato IV. In una serie di misure ripetute di un’osservabile rappresentata dall’operatore generico
O, il valore medio risultante è pari al valore d’attesa dell’operatore sulla funzione d’onda del
sistema
R
drΨ∗ OΨ
hOi = R
∗
drΨ Ψ
(3.7)
Postulato V. La probabilità che il sistema sia in un intorno r + dr del punto r, cioè che sia rinvenibile
in un elemento di volume dr intorno al punto r è proporzionale a |Ψ(r)|2 dr
Postulato VI. La variazione nel tempo della funzione d’onda Ψ(r, t) è descritta dall’equazione di
Schrödinger
ih̄
∂Ψ
∂t
= HΨ
Ψ(r, 0) = Ψ0 (r)
(3.8)
(3.9)
dove H è l’operatore hamiltoniano, che è l’operatore rappresentativo dell’osservabile energia totale
del sistema (cioè della funzione hamiltoniana classica).
La presentazione degli assiomi o postulati della meccanica quantistica può variare, anche in dipendenza del linguaggio e del formalismo matematico impiegato (cfr. Cap. (4)). Tuttavia, è chiaro che
l’impostazione finora presentata è notevolmente diversa da quella della meccanica classica. Innanzitutto lo stato del sistema è definito da un funzione, non da un insieme di coordinate. In altri termini,
la conoscenza di un sistema è data da una relazione funzionale tra le coordinate o spazio delle fasi
classico del sistema stesso, e non da una serie di traiettorie nel tempo che specificano ad ogni istante
la configurazione del sistema. Inoltre il concetto di “osservabile” diviene centrale in meccanica quantistica. Quello che in fisica classica è solo una funzione delle coordinate e dei momenti del sistema
(per esempio, l’osservabile energia cinetica, l’osservabile momento lineare totale etc.) diviene in fisica
quantistica un operatore che agisce sugli stati del sistema. Nasce perciò il problema di rappresentare
gli operatori. Data la prescrizione fondamentale tra l’operatore posizione e il corrispondente operatore
momento (Postulato III),
[x̂, p̂] = ih̄
se si definisce l’uno, resta definito l’altro. Le due rappresentazioni sono perciò
(3.10)
3.2. AUTOFUNZIONI ED AUTOVALORI
73
Rappresentazione della posizione: x̂ ≡ x, p̂ ≡ (h̄/i)
Rappresentazione del momento: x̂ ≡ −(h̄/i)
∂
∂p
∂
∂x
, p̂ ≡ p
Nella prima, che sarà usata nel resto di questo testo, l’operatore posizione è semplicemente la moltiplicazione per x, mentre l’operatore momento è proporzionale alla derivata prima in x; l’opposto nel caso
della rappresentazione del momento. Dati gli operatore momento e posizione, gli altri operatori rappresentativi delle varie osservabili classiche sono ottenuti usando il principio di corrispondenza, sostituendo
cioè alle posizioni ed ai momenti i corrispondenti operatori. Per esempio, quali sono gli operatori rappresentativi dell’energia cinetica e dell’energia totale di un sistema di N particelle, in presenza di un
potenziale V ? Per una singola particella, il momento lineare è semplicemente il vettore formato dai tre
operatori momento lineare, lungo le tre coordinate, quindi −ih̄∇i , dove ∇i è il gradiente rispetto alle
coordinate xi , yi , zi
 ∂
 ∂x
i


 ∂

∇i = 
 ∂yi


 ∂











(3.11)
∂zi
L’operatore energia cinetica delle singole particelle è semplicemente T i = −(h̄2 /2mi )∇2i dove ∇2i è il
laplaciano rispetto alle coordinate xi , yi , zi
∇2i
= ∇i · ∇i =
∂2
∂xi 2
+
∂2
∂yi 2
+
∂2
∂zi 2
(3.12)
L’operatore energia potenziale è la stessa funzione V . Quindi l’hamiltoniano del sistema è
H=T +V =
X
i
3.2
Ti+V =−
h̄2 X 1 2
∇ +V
2 i mi i
(3.13)
Autofunzioni ed autovalori
In meccanica quantistica assume grande importanza il concetto di autofunzione od autostato di un
operatore
Oψ = on ψn
(3.14)
o è l’autovalore associato all’autofunzione ψ dell’operatore O. L’importanza del concetto di autofunzioneautovalore è particolarmente evidente quando si discuta la teoria della misura di un’osservabile. Consideriamo un operatore O avente autofunzioni ψn ; nel seguito supporremo che le autofunzioni siano
normalizzate ed ortogonali
Z
drψn∗ ψn0 = δn,n0
(3.15)
74
CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA
e che ogni stato del sistema sia esprimibile come combinazione lineare delle autofunzioni stesse, cioè che
il set di autofunzioni sia completo
Ψ=
X
cn ψn
(3.16)
n
(vedremo in seguito che ciò equivale ad affermare che le autofunzioni di O costituiscono una base
ortonormale dello spazio funzionale del sistema). Se lo stato di un sistema coincide con un autostato,
Ψ = ψn , il valore di attesa di O coincide con on . Altrimenti, un rapido calcolo algebrico permette di
dedurre che il valore di attesa è una combinazione lineare dei vari autovalori
hOi =
X
|cn |2 on
(3.17)
n
Quindi, solo se lo stato di un sistema è ’puro’, cioè coincide con un autostato, misure ripetute portano
ad unico risultato, on ; altrimenti si ottiene una combinazione lineare di autovalori, pesati dai valori
|cn |2 , cioè dai quadrati dei pesi delle autofunzioni che contribuiscono a definire lo stato del sistema.
3.3
Il principio di indeterminazione
Dato un operatore O, parliamo di operatore aggiunto O† :
·Z
Z
∗
∗
drf Og =
†
¸∗
drg O f
(3.18)
dato un operatore generico, possiamo sempre definire l’operatore aggiunto; gli operatori hermitiani
sono quei particolari operatori che coincidono con i loro aggiunti vale a dire O = O† . La preminenza
che è data agli operatori hermitiani in meccanica quantistica nasce dal fatto che essi devono rappresentare grandezze fisiche sperimentali, a valori reali ed univocamente definiti. Nel caso degli operatori
hermitiani, e solo per essi, valgono infatti due importanti proprietà: 1) gli autovalori di un operatore
hermitiano sono reali e 2) ad autovalori distinti di un operatore hermitiano corrispondono funzioni ortogonali. La prima relazione è molto semplice da dimostrare. Supponendo, come è sempre possibile,
che le autofunzioni siano normalizzate
Z
Oψn = on ψn →
drψn∗ Oψn = on
(3.19)
e quindi anche
µZ
drψn∗ Oψn
¶∗
= o∗n
(3.20)
ma per definizione di operatore hermitiano, il primo membro è reale, e dunque anche il secondo, cioè
l’autovalore generico on , è reale. Quanto all’ortogonalità di autofunzioni relative ad autovalori diversi,
scriviamo
Oψn = on ψn
Oψm = om ψm
(3.21)
∗ , la complessa coniugata della seconda per ψ e sottraiamo
moltiplichiamo la prima uguaglianza per ψm
m
membro a membro
∗
∗
∗
ψm
Oψn − ψn Oψm
= (on − om )ψn ψm
(3.22)
3.3. IL PRINCIPIO DI INDETERMINAZIONE
75
integrando a primo e secondo membro, resta
Z
Z
∗
drψm
Oψn
−
Z
∗
drψn Oψm
= (on − om )
∗
drψn ψm
(3.23)
ma l’espressione a primo membro è nulla, perchè l’operatore è hermitiano, dunque l’integrale del prodotto
delle due autofunzioni deve essere nullo. Nel seguito considereremo solo operatori lineari hermitiani,
se non altrimenti specificato. Gli autovalori più importanti di un sistema conservativo sono senz’altro
relativi all’operatore hamiltoniano
HΨE = EΨE
(3.24)
gli autostati ΨE sono stati del sistema ad energia definita E. L’equazione precedente è l’equazione di
Schrödinger indipendente dal tempo.
Esempio 5. L’esistenza di autovalori dell’operatore, cioè di valori definiti dell’energia di un sistema
ha profonde conseguenze sulla descrizione fisica. Vedremo nei capitoli successivi come le proprietà di
vari sistemi semplici siano completamente diversi se considerati quantisticamente. L’interpretazione di
Planck della radiazione del corpo nero è basata proprio sull’assunzione, sostanzialmente fenomenologica,
che un oscillatore armonico ammetta soli stati energetici discreti, e non continui. Ciò è sufficiente per
modificare completamente un fenomeno ’macroscopico’ come l’emissione di un corpo nero.
Ogni corpo a T > 0K costituisce una sorgente di radiazione elettromagnetica; se investito da una
radiazione, ne assorbe una parte, e riflette la parte restante. A temperatura costante, il corpo è in uno
stato di equilibrio. Un corpo nero ideale è un oggetto che assorbe tutta l’energia radiante incidente su
di esso, senza rifletterne alcuna. A temperatura costante emette dunque radiazione su tutte le lunghezze
d’onda. La migliore realizzione sperimentale di un corpo nero è un corpo cavo isolato mantenuto a
temperatura costante: la radiazione termica viene osservata da una piccola fessura aperta nel corpo. Il
problema è determinare la distribuzione spettrale della radiazione, cioè la frazione di energia irradiata
E(ν)dν entro un intorno dν di una data frequenza ν. Secondo la fisica classica, all’equilibrio possiamo
supporre che le varie frequenze della radiazione (oscillatori armonici monodimensionali) siano presenti
nella cavità con un’energia media pari ²c = kT per il principio di equipartizione dell’energia: kT /2 per
l’energia cinetica e kT /2 per l’energia potenziale. La distribuzione dell’energia tra le varie frequenze
si riduce a determinare il numero di vibrazioni permesse in un intervallo di frequenze dν. Il risultato
classico per il numero di onde stazionarie in un contenitore chiuso di volume V è
4πV 2
ν dν
c3
Qundi l’energia della radiazione dovrebbe crescere indefinitamente con ν, visto che ogni oscillatore ha
energia media pari a kT : è questa la cosiddetta catastrofe ultravioletta: la radiazione dovrebbe crescere
indefinitamente in intensità. In realtà, per una data temperatura, l’energia di emissione ha un massimo,
in corrispondenza di una frequenza νmax = 1.035 × 1011 T Hz, e decade esponenzialmente a frequenze
maggiori.
L’interpretazione di Planck è la seguente: ogni oscillatore ammette energie discrete nhν, con n ≥ 0,
dove h è una costante da determinarsi. L’energia media per oscillatore si può calcolare con i metodi
della meccanica statistica usando la distribuzione di Boltzmann e porta al risultato
dn =
²q =
hν
exp(hν/kT ) − 1
76
CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA
La densità di energia di radiazione è ora data dalla precdente espressione per il numero di oscillatori per
unità di volume, eq. (3.3) per l’energia media quantistica ²q . Il risultato (moltiplicato per due, poichè
in un campo elettromagnetico oscillano sia il campo elettrico che quello magnetico) è la legge di Planck:
E(ν) =
1
8πhν 3
3
c
exp(hν/kT ) − 1
che è in ottimo accordo con i dati sperimentali di Lummer e Pringsheim, sostituendo a h il valore di
6.6262 × 10−34 Js.
Sperimentalmente, un sistema è descritto da un insieme di proprietà fisiche, rappresentate dagli operatori A, B e cosı̀ via. Possiamo misurare contemporaneamente due proprietà osservabili con precisione
arbitraria? Possiamo cioè individuare gli autostati comuni ad un set di operatori ? Consideriamo una
coppia di osservabili e sia ψ un autostato comune, tale cioè che Aψ = aψ e Bψ = bψ. Vale il seguente,
importante teorema: se due o più operatori ammettono un insieme completo di autofunzioni comuni,
commutano e viceversa, se commutano, ammettono un insieme completo di autofunzioni comuni. Cioè
osservabili multiple sono conoscibili simultaneamente con precisione arbitraria se e solo i loro operatori
commutano. È facile verificare la prima parte del teorema. Ammettiamo che A, B abbiano un set
completo di autofunzioni in comune, ψn : si ricordi che dire che un set di funzioni è completo significa
affermare che ogni funzione può essere espressa come combinazione lineare delle funzioni stesse. Per
una funzione generica f si ha perciò
ABf = AB
X
n
cn ψn =
X
n
cn ABψn =
X
cn an bn ψn
(3.25)
n
e la stessa espressione si ottiene evidentemente applicando BA ad f ; quindi AB = BA, cioè [A, B].
Operatori non commutativi corrispondono a proprietà fisiche non conoscibili simultaneamente con precisione arbitraria in meccanica quantistica. Possiamo chiederci se sia possibile valutare qualitativamente
il grado di precisione con cui due grandezze non commutative siano conoscibili. Nel caso di un operatore
posizione e momento, vale il famoso principio di indeterminazione
1
∆x∆px ≥ h̄
2
(3.26)
che limita la possibilità di conoscere con precisione arbitraria il momento e la posizione di una particella,
simultanemamente.
3.4
Verifica del principio di indeterminazione
Utilizziamo, come suggerisce Atkins, il metodo generale di Robertson, per il caso di due operatori
hermitiani generici non commutativi, A e B, tali cioè che
[A, B] = iC
(3.27)
dove C è non nullo (il fattore immaginario i è inserito per convenienza). Il sistema sia definito in uno
stato arbitrario Ψ. Definiamo gli operatori differenza δA = A − hAi e δB = B − hBi; si dimostra subito
che il loro commutatore è dato da iC:
[δA, δB] = iC
(3.28)
3.4. VERIFICA DEL PRINCIPIO DI INDETERMINAZIONE
77
Consideriamo il valore di attesa dell’operatore (sδA + iδB)(sδA − iδB)
Z
drΨ∗ (sδA + iδB)(sδA − iδB)Ψ = [(sδA − iδB)Ψ]∗
I = h(sδA + iδB)(sδA − iδB)i =
(3.29)
che si riduce facilmente a
Z
I = [(sδA − iδB)Ψ] =
dr|(sδA − iδB)Ψ|2
(3.30)
dove s è un numero arbitrario reale: I è evidentemente sempre non-negativo poichè è stato ridotto
all’integrale di un integrando sempre non-negativo, e può essere riscritto come
I = s2 h(δA)2 i + shCi + h(δB)2 i ≥ 0
(3.31)
Perchè l’espressione precedente sia maggiore o uguale a zero basta che il discriminante sia minore o
uguale o zero, da cui si ricava subito che
1
h(δA)2 ih(δB)2 i ≥ hCi2
4
(3.32)
Si definisce lo scarto quadratico medio ∆A di A come la radice quadrata di hA2 i−hAi2 , ed analogamente
per B; poichè si dimostra facilmente che (∆A)2 = h(δA)2 i risulta che
1
1
∆A∆B ≥ |hCi| = |h[A, B]i|
2
2
(3.33)
Nel caso di A = x e B = p̂x si ottiene esattamente la (3.26). Se la particella è nota in una posizione
definita, il suo momento è arbitrario; se la velocità della particella è nota con precisione arbitraria,
la sua posizione è sconosciuta. Un approccio alternativo al principio di indeterminazione può essere
basato un’interpretazione qualitativa, considerando solo il caso degli operatori posizione e momento di
una particella generica seguendo l’argomento di Landau e Lifšits. Supponiamo che la particella sia in
un volume di spazio finito ∆V = ∆x∆y∆z, e che il valore medio del momento della particella sia p~0 ; ciè
equivale ad affermare che Ψ ≈ u(~r) exp(i~
p0 · ~rh̄), dove u(~r) è una funzione che differisce da zero solo per
valori di ~r nel volume ∆V . La funzione d’onda Ψ può essere sviluppata in funzione delle autofunzioni
dell’operatore vettoriale momento, che ammette in generale autovalori continui p~, con autofunzioni
ψp~ = exp(i~
p · ~rh̄)1 . In altri termini, possiamo scrivere Ψ sotto forma di integrale di Fourier
1
Ψ(r) = 3
h
Z
d~
pa(~
p) exp(i~
p · ~r/h̄)
(3.34)
dove le funzioni a(~
p) sono ottenibili come
Z
a(~
p) =
Z
d~rΨ(~r) exp(−i~
p · ~r/h̄) =
d~ru(~r) exp [i(~
p0 − p~) · ~r/h̄]
(3.35)
Solo se i periodi delle funzioni oscillanti exp [i(~
p0 − p~) · ~r/h̄] sono non trascurabile rispetto a ∆x, ∆y e
∆z nella regione ∆V i coefficienti a(~
p) sono diversi da zero, cioè solo i coefficienti a(~
p) relativi ai valori
1
La normalizzazione di un set di autofunzioni con autovalori continui è analoga al caso di autovalori discreti, ma con la
sostituzione di una funzione di Dirac al simbolo di Dirac; nel caso specifico le funzioni sono scelte in modo tale che
Z
ψp~∗0 ψp~ = h3 δ(~
p0 − p
~)
78
CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA
di p~ tali che (px 0 − px )∆x/h̄ ≤ 1 etc. contribuiscono a determinare la funzione d’onda. Ma |(a(~
p)|2 non
è altro che la probabilità che la particella abbia quantità di moto p~, quindi (px 0 − px ) = ∆px etc. indica
gli intervalli ’possibili’ delle componenti delle quantità di moto, da cui segue che
∆pα ∆xα ∼ h̄
(3.36)
Tanto maggiore è la precisione con cui è nota una delle coordinate, tanto minore è la conoscenza
disponibile relativa al momento corrispondente.
3.5
Meccanica classica e meccanica quantistica
Consideriamo la variazione nel tempo del valore di attesa di un operatore O, di per sè non dipendente
dal tempo, per un sistema nello stato (normalizzato) Ψ(r, t)
d
Z
Z
drΨ∗ OΨ =
dt
dr
∂Ψ∗
∂t
Z
OΨ +
drΨ∗ O
∂Ψ
∂t
=−
1
ih̄
Z
drΨ∗ HOΨ +
1
ih̄
Z
drΨ∗ OHΨ
(3.37)
da cui segue che
dhOi
dt
=
1
h[H, O]i
ih̄
(3.38)
Se e solo se il valore d’attesa del commutatore di O e dell’hamiltoniano del sistema commutano il valore
di attesa di O è costante. Nel caso di una particella in una dimensione sottoposta ad un potenziale
V (x), cui corrisponde una forza F = −dV /dx, non è difficile riscrivere la relazione precedente per gli
operatori O = x e O = p̂x nella forma
d
dt
d
dt
hp̂x i = hF i
(3.39)
hp̂x i
m
(3.40)
hx̂i =
note anche come relazioni di Ehrenfest, molto simili alle equazioni del moto canoniche classiche; la
descrizione classica emerge dalla descrizione quantistica come descrizione dei valori medi degli osservabili
posizione e momento.
3.6
Moto semi-classico
Ad ogni particella quantistica si può associare una lunghezza d’onda (principio di de Broglie) tale che se
p è il valore di attesa del momento lineare, la lunghezza d’onda associata è h/p. È questo il principio di
de Broglie, di natura assai profonda e che è alla base del problema del dualismo onda-particella, uno dei
dibattiti scientifici più interessanti del XX secolo. In pratica, consideriamo l’onda di de Broglie come
3.6. MOTO SEMI-CLASSICO
79
una misura della natura quantomeccanica della particella: se λ è molto piccola rispetto alle dimensioni caratteristiche di una dato sistema, le proprietà del sistema stesso sono sostanzialmente classiche.
Consideriamo l’equazione di Schrödinger indipendente dal tempo per un sistema monodimensionale
"
#
h̄2 d2
−
+ V (x) − E Ψ = 0
2m dx2
(3.41)
e cerchiamo una soluzione formale nella forma
Ψ = exp(iσ/h̄)
(3.42)
Un metodo comune di soluzione di equazioni differenziali, anche complesse, prevede di impiegare uno
sviluppo in serie di potenze in funzione di qualche parametro piccolo; nel caso usiamo h̄ come parametro
σ = σ0 +
h̄
σ1 + . . .
i
(3.43)
Possiamo sostituire la precedente espressione nell’equazione di Schrödinger e scrivere separatamente i
termini in h̄0 (ordine zero), h̄ (primo ordine) e cosı̀ via:

dσ0
2
1 
 = E − V (x)
2m dx
dσ0 dσ1
dx dx
+
(3.44)
1 d2 σ1
=0
2 dx2
(3.45)
Risolvendo prima in σ0 e poi in σ1 troviamo la seguente soluzione, corretta al primo ordine in h̄
·
C+
i
Ψ= p
exp
h̄
p(x)
Z
¸
·
C−
i
dxp(x) + p
exp −
h̄
p(x)
Z
¸
dxp(x)
(3.46)
p
dove p(x) = 2m [E − v(x)] è la quantità di moto classica di una particella avente energia E e C ± sono
costanti arbitrarie. Si può dimostrare che l’espansione in serie di potenze di h̄ è arrestabile al primo
ordine sotto la condizione
"
mh̄|dV /dx|
h̄2
=¿
1
→
λ
¿
p3
m|dV (x)/dx|
#1/3
=L
(3.47)
cioè quando il momento non è troppo piccolo, ovvero quando la lunghezza d’onda di de Broglie è
molto minore della lunghezza caratteristica L, che dipende dalla massa e dalla forza classica. La forma
della funzione d’onda semiclassica corrisponde al moto nei due sensi di un pacchetto d’onda localizzato
(possiamo porre per esempio C − = 0 per indicare il moto nella direzione positiva). Il significato del
fattore pre-esponenziale 1/sqrtp è il seguente: la probabilità |Ψ|2 di trovare la particella tra x e x + dx
√
assume nel caso semi-classico, grazie appunto al fattore 1/ p il valore 1/p: in analogia al caso di un
particella classica, che percorre il segmento infinitesimo dx in un tempo 1/p.
80
CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA
Capitolo 4
Formalismo algebrico della meccanica
quantistica
4.1
Spazi vettoriali
Iniziamo con una breve presentazione degli spazi vettoriali. Le definizioni che seguono sono del tutto
generali: vale a dire le proprietà definite per uno spazio vettoriale non dipendono dalla natura dei suoi
componenti, o vettori, che possono essere i vettori di uno spazio tridimensionale noti dai corsi di analisi
matematica, o un insieme di funzioni e cosı̀ via.
La definizione di uno spazio vettoriale V è fondata sulla precedente definizione di un insieme K di
quantità scalari, cioè un insieme di numeri. Il corpo K gode delle proprietà:
• Se a e b appartengono a K, allora a + b e ab appartengono a K
• 0 e 1 appartengono a K
• Se a appartiene a K, −a appartiene a K; se a non è 0 allora a−1 appartiene a K
Esempio 6. Sia N l’insieme dei numeri naturali; si vede subito che non è un corpo, poiché se n
appartiene a N , −n non è un numero naturale; analogamente per l’insieme dei numeri interi Z, per
un cui elemento generico z si ha che 1/z non appartiene a Z.
In effetti si parla di spazio vettoriale V sul corpo K di scalari. Il corpo K è in genere dato
dall’insieme dei numeri razionali Q, o reali R o complessi C, o loro sottoinsiemi. Uno spazio vettoriale
V sul corpo K è dunque un insieme di oggetti che possono essere addizionati fra loro e moltiplicati per
elementi di K (nel seguito semplicemente numeri), in modo che il risultato appartenga ancora a V , con
le seguenti proprietà aggiuntive:
Associativa. Se u, v, w sono elementi di V , allora:
(u + v) + w = u + (v + w)
(4.1)
Neutro. Esiste un elemento 0 di V , tale che
0+u=u+0=u
(4.2)
81
82
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
per ogni u di V
Opposto. Per ogni u di V esiste −u di V tale che
u + (−u) = (−u) + u = 0
(4.3)
Commutativa. Per ogni coppia u, v vale che
u+v=v+u
(4.4)
Proprietà in K. Se a, b, c sono numeri
• c(u + v) = cu + cv
• (a + b)u = au + bu
• (ab)u = a(bu)
• 1u = u
Esempio 7. Alcuni esempi di spazi vettoriali:
1. lo spazio PN (x) di tutti i polinomi a coefficienti reali o complessi di grado N nella coordinata x;
lo spazio F di tutte le funzioni di variabile complessa definite in un intervallo.
2. Dato l’insieme Rn di tutte le n-uple di numeri reali, dove la somma di due elementi è definita
come la somma ordinata delle componenti, (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) e il
prodotto per uno scalare come a(x1 , . . . , xn ) = (ax1 , . . . , axn ), allora Rn è uno spazio vettoriale.
Lo studente provi a dimostrarlo verificando i vari punti della definizione di spazio vettoriale.
3. Dato l’insieme di numeri reali positivi R+ , definiamo le seguenti operazioni: ’addizione’, x ⊗
y = xy (cioè l’ordinaria moltiplicazione di due reali), ’moltiplicazione per un numero reale a’,
a · x = xa (potenza); allora si dimostra che R+ è uno spazio vettoriale rispetto alle due operazioni
appena definite. Lo studente provi a dimostrarlo verificando i vari punti della definizione di spazio
vettoriale.
Una somma generica di elementi di uno spazio vettoriale V ,
n
X
ai xi = a1 x1 + a2 x2 + . . . + an xn
(4.5)
i=1
è detta combinazione lineare del set di vettori {xi }; gli n vettori sono linearmente dipendenti se esistono
n scalari ai non tutti nulli tali che la combinazione lineare sia zero, o linearmente indipendenti se non
esistono. Se è possibile esprimere tutti gli elementi di V come combinazioni lineari del set {xi }, allora
si dice che il set genera (in inglese, span) lo spazio vettoriale. Una base dello spazio vettoriale è definita
come un’insieme di vettori {ei } che sia linearmente indipendente e generi lo spazio. Si può dimostrare
che due basi qualunque di uno spazio, se esistono, hanno lo stesso numero di elementi. La dimensione n
4.2. PRODOTTI SCALARI
83
dello spazio V è il numero di elementi di una base, e può anche essere infinita. Per un vettore generico
possiamo scrivere perciò:
x=
n
X
xi ei
(4.6)
i=1
il coefficiente xi è la proiezione o componente di x sull’elemento i-esimo della base. L’insieme dei
coefficienti è anche detto coordinate.
Esempio 8. Quali sono le coordinate della funzione f (θ) = 3 sin θ + 5 cos θ in un opportuno spazio
di dimensione 2? Evidentemente, se si considerano come elementi di base sin θ e cos θ, le componenti
sono 3 e 5. E quali sono le coordinate della funzione df /dθ? deriando si ottiene df /dθ − 5sinθ + 3 cos θ,
di componenti -5 e 3.
In generale se consideriamo lo spazio vettoriale delle funzioni f (θ) a valori reali e periodiche in
[−π, π], l’insieme degli elementi sin θ, sin 2θ, sin 3θ etc. e cos θ, cos 2θ, cos 3θ etc. costituisce una base
4.2
Prodotti scalari
Se V è uno spazio vettoriale definito su un corpo K, definiamo con un prodotto scalare un modo per
associare ad ogni coppia di elementi u e v di V uno scalare di K, che indichiamo con u · v. Valgono le
seguenti proprietà
Commutativa. Per ogni coppia u, v vale che u · v = v · u
Distributiva. Per ogni terna u, v, w vale che u · (v + w) = u · v + uw
Scalare. Se a appartiene a K allora (au) · v = a(u · v) e u · (av) = a(u · v).
Due vettori u, v si dicono ortogonali o perpendicolari se u · v = 0. Data una base e1 , . . . , en , questa si
dice ortogonale, se per ogni coppia di indici ei · ej = 0.
Esempio 9. Consideriamo lo spazio vettoriale delle coppie di numeri reali R2 . Si noti che tale spazio
è in corrispondenza biunivoca con lo spazio dei vettori (in senso tradizionale, quantità con una intensità,
direzione e verso) nel piano. Definiamo il prodotto scalare di due vettori u = (u1 , u2 ) e v = (v1 , v2 )
come:
u · v = u1 v1 + u2 v2
Torniamo all’insieme di tutte le funzioni periodiche a valori reali in [−π, π]. Definiamo il prodotto
f (θ) · g(θ) =
Z π
−π
dθf (θ)g(θ)
Lo studente può verificare facilemente che si tratta di un prodotto scalare.
Consideriamo ora nel seguito di questo paragrafo uno spazio vettoriale sul corpo R dei numeri reali.
Definiamo un prodotto scalare. Si dice che il prodotto è definito positivo se per ogni u di V si ha che
u · u ≥ 0, e per ogni u non nullo, u · u > 0. Per una coppia di vettori u e v, se v non è nullo definiamo
la proiezione di u lungo v come:
a=
u·v
v·v
(4.7)
84
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
detta anche coefficiente di Fourier. Data un base ortogonale, si può verificare che le coordinate di un
elemento generico di V rispetto alla base stessa sono i coefficienti di Fourier rispetto agli elementi della
base
u=
X
ui ei ,
ui =
i
u · ei
ei · ei
Dato un vettore u, Si dice norma la grandezza scalare u =
dice normalizzato, o vettore unità, o versore 1 .
(4.8)
√
u · u. Se la norma vale 1, il vettore u si
Esempio 10. Consideriamo l’insieme dei polinomi P2 (x) di grado 2 in [0, 1] a valori reali. È uno
spazio vettoriale (definendo l’addizione come somma dei coefficienti)? Di che dimensione? Possiamo
definire una base? Ed un prodotto scalare? Ed una base ortonormale? Suggerimenti: la dimensione
coincide con il numero massimo di coefficienti; una base è data semplicemente da 1, x e . . .; il prodotto
scalare può essere definito come l’integrale da 0 ad 1 del prodotto di . . .
Consideriamo nel seguito la generalizzazione del concetto di prodotto scalare che è valido per spazi
vettoriali sul corpo dei numeri reali, al caso di spazi vettoriali sul corpo dei complessi. Parleremo in
questo caso di prodotto hermitiano tra due vettori u e v, con le seguenti proprietà
Commutativa. Per ogni coppia u, v vale che u · v = (v · u)∗
Distributiva. Per ogni terna u, v, w vale che u · (v + w) = u · v + uw
Scalare. Se a è un numero complesso allora (au) · v = a(u · v) e u · (av) = a∗ (u · v).
dove con a∗ indichiamo il complesso coniugato di a. Tutte le definizioni precedenti relative al prodotto
scalare (definito positivo, ortogonalità, basi ortogonali, etc.) sono analoghe.
Esempio 11. Ecco due esempi di prodotto hermitiano
1. Consideriamo lo spazio delle n-uple complesse, C n ; un elemento generico è u = (u1 , . . . , un ) dove
ui appartiene a C. La dimensione dello spazio è evidentemente n; definiamo il prodotto hermitiano
u·v=
n
X
u∗i vi
i=1
Il prodotto è definito positivo poiché se u 6= 0, allora almeno uno dei numeri ui è diverso da zero
(complesso) e u∗i ui è sempre positivo.
2. Consideriamo lo spazio delle funzioni f (θ) a valori complessi definite in [−π, π]. È uno spazio
vettoriale, di dimensione infinita, e possiamo introdurre il prodotto hermitiano definito positivo:
f ·g =
1
Z π
−π
dθf (θ)∗ g(θ)
Supponiamo che V abbia dimensione finita n. Una sua base e1 , . . . , en si dice ortonormale se essa è ortogonale e se
ogni ogni suo elemento è un vettore unità; da una base ortogonale si può sempre ricavare una base ortonormale, dividendo
ogni elemento della base per la sua norma.
4.3. VETTORI E MATRICI
85
Non è difficile verificare che l’insieme di funzioni {1, e±iθ , e±2iθ , . . .} costituisce una base ortogonale
del problema; se indichiamo con fn = einθ dove n è un numero intero, la norma di ciascuna
funzione di base è
fn · fn =
Z π
−π
dθe−inθ einθ = 2π
Ogni elemento generico dello spazio può essere espresso come combinazione lineare delle funzioni
di base; il coefficiente di Fourier n-esimo è il coefficiente che misura il contributo di ciascuna
funzione di base:
f (θ) =
X
cn fn =
X
cn einθ
n
f · fn
1
cn =
=
fn · fn
2π
4.3
Z π
−π
dθf (θ)∗ einθ
Vettori e matrici
Nel corso di questa Sezione riassumeremo alcune proprietà già note allo studente dei vettori tridimensionali reali. Quindi procederemo alla definizione e allo studio delle grandezze matriciali.
Un vettore nello spazio tridimensionale ordinario è definito come una coppia ordinata di punti
dello spazio. In Figura 4.1 è riportata la rappresentazione di due vettori ~u e ~v , definiti rispetto ad
un punto comune di origine. Si deve notare che lo spazio vettoriale delle triple di numeri reali R3 è
in corrispondenza biunivoca con lo spazio dei vettori ordinari, che possono perciò essere identificati
da una terna di numeri reali (le componenti rispetto ad un sistema di riferimento, vedi Figura 4.1).
Comunque la definizione dello spazio vettoriale dei vettori ordinari può essere data prescindendo dalla
rappresentazione: il vettore si può identificare come una freccia orientata, con una direzione, un verso ed
un’intensità. Nel seguito useremo sempre caratteri in grassetto per indicare n-ple di numeri o matrici
(es. la tripla di numeri v1 , v2 , v3 sarà v); e caratteri tipografici per indicare il vettore o la matrice
indipendentemente dalla sua rappresentazione (es. v). Dove non sia necessario specificare la differenza
useremo caratteri in grassetto. La somma di due vettori è descritta come un vettore ottenibile con la
regola del parallelogramma (vedi Figura 4.1). Il prodotto scalare è ottenuto in accordo con la definizione
nota di prodotto scalare, ~u ·~v = uv cos θ, dove u e v sono il modulo dei due vettori e θ è l’angolo compreso.
Alternativamente, se si considera l’equivalente spazio R3 , introducendo una base di tre versori ~e1 , ~e2 , ~e3 ,
ed ogni vettore viene rappresentato dalle sue componenti sulla base, la somma e il prodotto scalare sono
definiti
u+v=
3
X
(ui + vi )ei
(4.9)
i=1
u·v=
3
X
ui vi
(4.10)
i=1
Altri prodotti possono essere definiti con un chiaro significato geometrico. Il prodotto vettoriale di ~u e ~v
è un vettore che ha per modulo la quantità uv sin θ, per direzione la perpendicolare al piano definito da
86
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
e
3
u+v
v
u
u x v
u
3
e1
u
u
e
2
1
2
Figura 4.1: Vettori nello spazio 3D
~u e ~v e per verso quello ottenuto avvitando una vite destrorsa lungo la direzione definita, in modo da
portare ~u su ~v (regola della vite o della mano destra). Il prodotto vettoriale è un esempio di applicazione
definita in uno spazio vettoriale: ovvero un’operazione che associa elementi dello spazio ad altri elementi
dello spazio. Ecco alcune utili identità:
~a × ~b = −~b × ~a
(4.11)
~a · (~b × ~c) = ~b · (~c × ~a) = ~c · (~a × ~b)
(4.12)
~a × (~b × ~c) = ~b(~a · ~c) − ~c(~a · ~b)
(4.13)
~ = (~a · ~c)(~b · d)
~ − (~a · d)(
~ ~b · ~c)
(~a × ~b) · (~c × d)
(4.14)
La notazione vettoriale è di grande utilità perché permette di riassumere in modo compatto equivalenze ed equazioni in tre dimensioni, o in n dimensioni, la generalizzazione a Rn essendo molto semplice.
In R3 cosı̀ l’equazione che definisce un piano nello spazio passante per un punto x0 è
(x − x0 ) · n = 0
(4.15)
dove n è un versore normale al piano. L’angolo diedro tra due piani è invece dato come
cos Θ = |n1 · n2 |
(4.16)
Molte altre identità e definizioni della geometria analitica nello spazio tridimensionale sono note allo
studente dai corsi di matematica. L’uso della notazione vettoriale è utile anche per definire funzioni
4.4. MATRICI
87
vettoriali. Possiamo distinguere funzioni scalari, o campi scalari, che associano elementi di R3 a R o
funzioni vettoriali che associano elementi di R a R3 . Un campo vettoriale è infine una funzione che
associa elementi di R3 a R3 .
Esempio 12. Ecco alcuni esempi di campi scalari, funzioni vettoriali e campi vettoriali:
Campi scalari: la temperatura di un laboratorio, intesa come funzione delle coordinate spaziali; la
funzione f (x) = |x|; la funzione f (x) = x21 − x2 x3 ; la concentrazione di cloruro di terbutile in un
reattore contenente alcol terbutilico, cloro e cloruro di terbutile.
Funzioni vettoriali: la retta x(t) = x0 + nt; la funzione x(t) = r cos ωte1 + r sin ωte2 + vte3 , che
rappresenta la traiettoria di una particella che si muova lungo un’elica destrorsa, con asse parallelo
a e3 (vedi Figura 4.2).
Campi di vettori: la forza di gravità tra due corpi; la funzione f(x) = x × n; l’orientazione delle
molecole di cristallo liquido che formano il display di un orologio digitale.
4.4
Matrici
Una matrice di mn elementi dove m ed n sono rispettivamente il numero di righe ed il numero di colonne,
è definita come una tabella rettangolare di numeri, il cui elemento generico è aij (dove 1 ≤ i ≤ m e
1 ≤ j ≤ n), e si indica nel modo seguente

a11

 a21

A=
a12
a22

am1
am2
a13
a23
...
am3
...
...

a1n

a2n 

(4.17)


...
amn
o con notazioni equivalenti: p.es. doppie linee invece di parentesi. Consideriamo l’insieme delle matrici
m×n. Possiamo definire la moltiplicazione per uno scalare α di una matrice A come la matrice ottenuta
moltiplicando ciascun elemento di A per α
(αA)ij = αaij
(4.18)
La somma di due matrici si ottiene sommando gli elementi delle matrici addende
(A + B)ij = aij + bij
(4.19)
La matrice nulla è formata solo da zeri
0ij = 0
(4.20)
ed infine la matrice opposta di una matrice generica è
(−A)ij = −aij
(4.21)
Si verifica facilmente che l’insieme cosı̀ definito è uno spazio vettoriale di dimensione mn. Una base è
costituita dalle mn matrici con elementi ovunque nulli, tranne che in una posizione
Ã
e11 =
1 ...
0 ...
0
0
!
Ã
,...,
emn =
0 ... 0
0 ... 1
!
(4.22)
88
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
z
10
5
0
−1
y
−1
0
0
1
1
Figura 4.2: Una spirale destrorsa.
x
4.4. MATRICI
89
Esempio 13. Definiamo un prodotto tra due matrici m × n come la matrice ottenuta moltiplicando
gli elementi nella stessa posizione (A ∗ B)ij = aij bij . L’operazione ∗ è un prodotto scalare?
Il prodotto tra matrici è un’applicazione che associa a due matrici generiche A m × n e B n × p
una matrice AB m × p (il numero di colonne della prima matrice deve essere uguale al numero di righe
della seconda):
(AB)ij =
n
X
aik bkj
(4.23)
k=1
L’insieme delle n-uple di numeri, cioè gli elementi di Rn o C n si possono mettere in relazione biunivoca
con le matrici 1 × n (matrici riga) oppure n × 1 (matrici colonna). Cosı̀ la moltiplicazione di una matrice
m × n per un vettore n dimensionale significa in pratica la moltiplicazione per una matrice colonna n × 1
ed il risultato è una matrice colonna m × 1:

a11

 a21

a12
a22


am1
a13
a23
...
am3
am2
...
...
...




v1
u1
a1n

 

u  v 
a2n 
  2  =  2  ≡ Au = v
... ...

 

vm
un
amn
(4.24)
Pn
dove vi = j=1 aij uj .
Esempio 14. Il prodotto tra matrici non è commutativo, ovvero AB 6= BA. Si definisce il commutatore come la matrice: [A, B] = AB − BA. Evidentemente perché il commutatore esista deve essere
m = p; si dice che due matrici commutano se [A, B] = 0.
Consideriamo nel seguito solo le matrici quadrate n × n (nel seguito, di dimensione n), e vettori
(matrici riga o colonna). Alcune matrici quadrate speciali di dimensione n sono le seguenti:
• la matrice identità

1

0


0
1
0 ... 0

0 ... 0


...

0 0 ... 1
1=

0
(4.25)
• le matrici scalari, A= a 1
• le matrici diagonali

d1

 0

D=
0
d2

0
0
0 ...
0 ...
...
0 ...

0

0 



(4.26)
dn
• le matrici tridiagonali

d1

 e1

Td = 
e1
d2

0
0
0
0
...
0
...
...

0

0 



...
dn
(4.27)
90
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
• le matrici triangolari (superiori od inferiori)

t11

 0

T=
t12
t22

0
0
t13
t23
...
0
...
...

t1n

t2n 

(4.28)


...
tnn
• la potenza di una matrice: Ap = A · . . . A (p volte)
• le matrici idempotenti: P2 = P
In associazione con una generica matrice A con elementi aij si possono definire alcune matrici strettamente collegate
• la matrice trasposta

a11

 a12

AT = 
a21
a22

a1n
a2n
a31
a32
...
a3n
...
...

an1

an2 



...
(4.29)
ann
• la matrice complessa coniugata
 ∗
a11
 ∗
 a21
A∗ = 


a∗12
a∗22
a∗1n
a∗2n
a∗13
a∗23
...
a∗3n
...
...

a∗1n

a∗2n 



...
a∗nn
...
...
a∗n1

a∗n2 

(4.30)
• la matrice aggiunta
 ∗
a11
 ∗
 a12
A† = 


a∗21
a∗22
a∗1n
a∗2n
a∗31
a∗32
...
a∗3n



...
(4.31)
a∗nn
evidentemente (AT )∗ = (A∗ )T = A† . Prima di procedere oltre consideriamo il concetto di funzione
scalare di una matrice, ovvero una corrispondenza tra una matrice e l’insieme dei reali o complessi. Le
funzioni scalari più importanti sono la traccia
Tr(A) =
n
X
aii
(4.32)
i=1
che è la somma di tutti gli elementi diagonali di una matrice; ed il determinante
det(A) =
X
(−1)P Πnj=1 ajP(j)
(4.33)
P
di definizione un poco più complicata: si tratta della somma di n! addendi, ciascun dei quali è ottenuto
moltiplicando n quantità che coincidono con un elemento per ciascuna riga; vi sono appunto n! possibili
scelte, che coincidono con le permutazioni tra gli n indici 1, 2, . . . , n; ogni permutazione è caratterizzata
4.4. MATRICI
91
dal simbolo P ed è pari, (−1)P = 1 o dispari (−1)P = −1 a seconda che sia ottenuto con un numero
pari o dispari di trasposizioni degli indici. In pratica il calcolo dei determinanti è effettuato applicando
il seguente teorema
det(A) = (−1)1+j a1j det(A1j ) + . . . + (−1)n+j anj det(Anj )
(4.34)
cioè scegliendo una colonna della matrice (indice j) e sommando i determinanti delle sottomatrici di
dimensione n − 1 ottenute cancellando la colonna e la riga corrispondente a ciascun elemento (e.g. A12
è la matrice ottenuta cancellando la prima riga e la seconda colonna). Un’analoga relazione sussiste per
uno sviluppo lungo una riga. Varie proprietà elementari dei determinanti sono facilmente dimostrabili:
• det(1) = 1
• det(D) = Πni=1 di
• det(T) = Πni=1 tii
• det(AT ) = det(A)
• det(A∗ ) = det(A)∗
• det(A† ) = det(A)∗
• det(AB) = det(A) det(B)
• det(αB) = αn det(A)
Possiamo ora definire esplicitamente la matrice inversa di una matrice generica come la matrice A−1
tale che
AA−1 = A−1 A = 1
(4.35)
Gli elementi della matrice inversa sono calcolabili infatti come:
(A−1 )ij = (−1)i+j
det(Aji )
det(A)
(4.36)
quindi una matrice ammette inversa solo se il determinante non è nullo (altrimenti si dice singolare).
Le matrici associate ad applicazioni fisiche od utilizzate nei calcoli quantomeccanici godono spesso di
alcune proprietà speciali, tra le quali
• matrice simmetrica: AT = A
• matrice hermitiana: A† = A
• matrice ortogonale: AT = A−1
• matrice unitaria: A† = A−1
92
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Una matrice reale simmetrica o ortogonale è anche hermitiana o unitaria.
Esempio 15. Nel trattamento di Hückel dei polieni lineari è necessario calcolare il determinante
della matrice tridiagonale

x

1

AT = 
1
x

0
0
0
1
...
0
...
...

0

0



...
x
Come si può procedere per ridurlo ad un polinomio?
In generale la moltiplicazione di un vettore per una matrice denota una trasformazione del vettore. Nello spazio tridimensionale possiamo usare analoghi geometrici per indicare una trasformazione
(rotazione, traslazione etc.) del vettore stesso. In uno spazio n-dimensionale questo non è ovviamente
possibile. Consideriamo per esempio il problema di descrivere la rotazione di un vettore nello spazio 3D:
in generale una rotazione si può identificare mediante tre angoli, detti angoli di Eulero. Consideriamo
Z
z
β
O
X
α
γ
Y
y
N
x
Figura 4.3: Angoli di Eulero α, β, γ per specificare la rotazione di un sistema di riferimento molecolare
rispetto ad un sistema di riferimento di laboratorio.
un vettore generico ~u che abbia le coordinate (X, Y, Z) in un dato sistema di riferimento fisso (per
~ Y
~ , Z);
~ vogliamo sapere quali sono le sue
esempio solidale con il laboratorio, e definito dai versori (X,
coordinate in un sistema di riferimento ruotato (per esempio solidale con una molecola, e definito dai
versori ~x, ~y , ~z). Il sistema di riferimento ruotato è definito in modo complicato ma rigoroso, tramite tre
rotazioni elementari successive (vedi Figura 4.3):
~ questa rotazione porta Y
~ nella linea dei nodi
• una rotazione antioraria di un angolo α intorno a Z;
~;
N
~ ; questa rotazione porta Z
~ in ~z;
• una rotazione antioraria di un angolo β intorno a N
4.4. MATRICI
93
~ in ~y ;
• una rotazione antioraria di un angolo γ intorno a ~z; questa rotazione porta N
Dopo la prima rotazione, le coordinate del vettore siano (x0 , y 0 , z 0 ); dopo la seconda rotazione (x00 , y 00 , z 00 );
dopo la terza, nel sistema di riferimento molecolare (x, y, z). Applicando la trigonometria, si vede che:
 0 
x
cos α
 0 
 y  =  − sin α
z0
0
 00  
x
cos β
 00  
y  =  0
z 00
 
sin β

x
cos γ
  
 y  =  − sin γ
z
0
sin α
cos α
0
0
1
cos β
sin γ
cos γ
0


0
X
 
0 Y 
1
Z
− sin β
 0
x
 0 
y 
(4.38)
z0
0

(4.37)

0
x00


0   y 00 
1
z 00
(4.39)
Moltiplicando le tre matrici di rotazione elementari si ottiene:
 

x
cos α cos β cos γ − sin α sin γ
  
 y  =  − cos α cos β sin γ − sin α cos γ
z
cos α sin β
sin α cos β cos γ + cos α sin γ
− sin α cos β sin γ + cos α cos γ
sin α sin β


− sin β cos γ
X
 
sin β sin γ   Y (4.40)
cos β
Z
La matrice di trasformazione è detta matrice di Eulero, E.
Esempio 16. Qual è la trasformazione lineare che moltiplica le componenti di un vettore n-dimensionale
per uno scalare a? Scrivere la matrice che rappresenta la trasformazione. E qual è la trasformazione
che scambia la componente i-esima con la componente j-esima?
Matrici e vettori sono molto utili per la rappresentazione matematica di proprietà fisiche che dipendano dalla direzione di misura. Consideriamo per esempio il momento di dipolo indotto µ in una
molecola da un campo elettrico E: in generale si dovrà scrivere
~
m
~ = aE
(4.41)
~ sono vettori tridimensionali, mentre a è un tensore cartesiano del secondo ordine, cioè una
dove m
~ eE
proprietà rappresentabile da una matrice 3 × 3 (Figura 4.4). Se la nostra molecola ha una simmetria
cilindrica, e si esprimono tutte le grandezze vettoriali in un sistema di riferimento solidale con la molecola
ed avente l’asse z diretto lungo l’asse principale della molecola, allora la matrice di polarizzabilità assume
una forma particolarmente semplice:

a⊥

a= 0
0
0
a⊥
0

0

0
ak
(4.42)
In generale, le proprietà fisiche rappresentabili da matrici 3 × 3 sono dette proprietà tensoriali, e si
può sempre identificare un sistema di riferimento (di solito solidale con la molecola), tale che siano
rappresentate da matrici diagonali (i valori diagonali si chiamano allora valori principali). Le grandezze
tensoriali in Tabella (4.1) sono sempre rappresentabili come matrici reali simmetriche. Se i tre valori
principali sono uguali, la rappresentazione della proprietà tensoriale è la stessa in qualunque sistema di
riferimento, e si parla di proprietà scalare.
94
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
z
O
m
E
a II
C
aI
O
Figura 4.4: Schema del momento dipolare indotto in una molecola di CO2 da un campo elettrico esterno.
Relazione tensoriale
Momento angolare = tensore di inerzia × velocità angolare
Momento di dipolo = polarizzabilità × campo elettrico
Induzione elettrica = tensore dielettrico × campo elettrico
Magnetizzazione = suscettibilità magnetica × campo magnetico
Velocità della luce = indice di rifrazione × velocità nel vuoto
y
~
L
m
~
~
D
~
M
~v
A
x
I
a
²
χ
n
ω
~
~
E
~
E
~
H
~v0
Tabella 4.1: Relazioni tensoriali nella forma generica ~y = A~x
Esempio 17. Consideriamo il seguente problema; è data una molecola del complesso Cu(NH3 )2+
6 .
Calcoliamo il tensore di inerzia nel sistema di riferimento indicato in Figura 4.5 dai versori ~x, ~y , ~z. Dal
corso di Fisica I è noto che per un sistema di punti materiali con masse mi e coordinate ri = (xi , yi , zi ),
P
P
il momento di inerzia ha componenti I11 = i mi (ri2 − x2i ), I12 = − i mi xi yi e cosı̀ via. Nel sistema
di riferimento indicato in Figura 4.5 si ha perciò:

1
2
I = 4mNH3 l  0
0
0
1
0

0

0
1
Quindi il sistema di riferimento ~x, ~y , ~z è tale che il tensore di inerzia è già in forma diagonale. Lo
studente può verificare facilmente che anche il sistema ruotato ~x0 , ~y 0 , ~z0 gode di questa proprietà).
4.5
Sistemi lineari
Dopo aver discusso le proprietà principali delle matrici e dei vettori, riassumiamo brevemente alcune
applicazioni a problemi matematici che ricorrono sistematicamente nello studio della chimica (e non
solo della chimica quantistica).
4.6. TRASFORMAZIONI
95
z’
NH 3
l
NH 3
NH 3
Cu
y
2+
x
NH 3
NH 3
y ’
x’
NH 3
Figura 4.5: Calcolo del momento di inerzia del complesso Cu(NH3 )2+
6 .
La soluzione dei sistemi lineari di equazioni si presta molto bene ad una implementazione in termini
di matrici e vettori. Consideriamo solo il caso di n equazioni lineari in n incognite. Possiamo scrivere
un sistema lineare in forma estesa
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
(4.43)
..
.
an1 x1 + an2 x2 + . . . + ann xn
= bn
o in forma compatta Ax = b; la soluzione si ottiene semplicemente nella forma x = A−1 b. Naturalmente
la soluzione esiste solo se la matrice A è invertibile, cioè se il suo determinante non è nullo.
Esempio 18. 100 ml di una soluzione di iodio I− e Cl− titola 100 ml 0.1 N di AgNO3 . 100 ml
della stessa soluzione, trattati con un eccesso di AgNO3 , danno 1.5 g di precipitato. Calcolare la concentrazione di iodio e cloro nella soluzione.
Di interesse sono anche i sistemi omogenei:
Ax = 0
(4.44)
in cui b = 0; se A non è singolare, l’unica soluzione possibile è A−1 0 = 0, cioè l’n-upla nulla. Se A è
singolare, det(A) =, l’equazione ammette infinite soluzioni, multiple della soluzione generica:
xi = (−1)i+j det(Aji )
(4.45)
dove j è un indice di riga qualunque.
4.6
Trasformazioni
Come un vettore tridimensionale ha diverse componenti in un diverso sistema di riferimento (o, nel
linguaggio degli spazi vettoriali, in una diversa base), cosı̀ una matrice ha diverse componenti in un
96
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
diverso sistema di riferimento.
Nella Sezione precedente era stato discusso brevemente il concetto di rotazione di un sistema di
riferimento; inoltre nell’esempio riferito alla polarizzabilità, il momento di dipolo, il campo elettrico
e la polarizzabilità erano stati espressi implicitamente in un sistema di riferimento ‘conveniente’, che
permetteva di esprimere la polarizzabilità in una forma semplice. In generale, qual è la relazione tra
la trasformazione di un sistema di riferimento e le componenti di un vettore o di una matrice? Ancora
una volta si tratta di un problema facilmente descrivibile nel linguaggio degli spazi vettoriali. di n-uple
di numeri. Consideriamo in generale una base ei (per esempio, nel caso della rotazione tridimensionale,
la base di versori che identifica gli assi del laboratorio). Un vettore generico v ha componenti v1 , . . . , vn
nella base, cioè l’n-upla v. Introduciamo un secondo sistema di riferimento, cioè una seconda base e0i ,
in cui il vettore v ha componenti v10 , . . . , vn0 , o v0 . La relazione tra le componenti del vettore nei due
sistemi di riferimento è in generale esprimibile come una trasformazione lineare
v = Tv0
(4.46)
Nell’esempio della rotazione del sistema di riferimento T era l’inversa della matrice di Eulero, che
coincide con la trasposta della matrice di Eulero (che è ortogonale), T = ET . Consideriamo ora una
relazione tra due vettori generici, u e v, nella forma
u = Av
(4.47)
Nelle due basi ei e e0i (o nei due sistemi di riferimento, se si preferisce), si possono scrivere due distinte
relazioni matriciali:
u = Av
(4.48)
u0 = A0 v0
(4.49)
Sostituendo nella prima equazione le espressioni u = Tu0 e v = Tv0 si ottiene
Tu0 = ATv0 → u0 = T−1 ATv0
(4.50)
da cui si vede che la matrice trasformata è
A0 = T−1 AT
(4.51)
La precedente equazione è detta anche trasformazione di similitudine; se T è unitaria o ortogonale,
parleremo di trasformazione unitaria o ortogonale.
4.7
Problemi agli autovalori
Un problema molto comune che ricorre nelle applicazioni fisiche è il calcolo degli autovettori e degli
autovettori di una matrice, o della risoluzione del problema agli autovalori relativo ad una matrice.
Un’autovettore x di una matrice A è un vettore tale che:
Ax = λx
(4.52)
4.7. PROBLEMI AGLI AUTOVALORI
97
cioè tale che la moltiplicazione per A non ne modifica altro che la lunghezza, di un coefficiente scalare
λ, detto autovalore. L’insieme degli autovalori è detto spettro della matrice. La n-upla nulla, 0 è sempre una soluzione, triviale; dato un autovettore x, ogni vettore ax è pure un autovettore. E‘ possibile
avere più di un autovettore linearmente indipendente corrispondente ad uno stesso autovalore. Il numero di autovettori linearmente indipendenti che condividono lo stesso autovalore è detto molteplicità
dell’autovalore; se la molteplicità è diversa da uno, l’autovalore è degenere. La soluzione del problema
agli autovalori è impostabile come il calcolo degli zeri di un polinomio di grado n. Infatti l’equazione
agli autovalori si può scrivere come un sistema omogeneo
(A − λ1)x = 0
(4.53)
che ammette soluzioni non triviali solo se la matrice è singolare:
det(A − λ1) = 0
(4.54)
L’equazione precedente è detta equazione secolare. Se si è in grado di trovare gli autovalori e i corrispondenti autovettori, i quali possono essere eventualmente normalizzati per evitare l’arbitrarietà di
un fattore scalare, possiamo costruire un matrice diagonale Λ con gli autovalori in diagonale ed una
matrice X la cui colonna i-esima è l’autovettore i-esimo. L’insieme delle n equazioni lineari diviene
dunque
AX = XΛ
(4.55)
od anche
Λ = X−1 AX
(4.56)
La matrice degli autovettori è dunque una matrice che trasforma A secondo una trasformazione di
similitudine che la rende diagonale: se due matrici generiche A, B commutano, [A, B] = 0, allora
si possono scegliere combinazioni lineari di autovettori di A che sono anche anche autovettori di B o
viceversa. In altre parole, due matrici con commutatore nullo si possono diagonalizzare simultaneamente
con la stessa trasformazione; questa affermazione si generalizza anche ad un numero generico di matrici:
se A1 , A2 , . . . , An commutano fra loro, possono essere diagonalizzate simultaneamente.
Esempio 19. Nella teoria MO, basata sull’approssimazione di Huckel, per calcolare gli orbitali
molecolari π dell’alchene 1,4-butadiene è necessario diagonalizzare la seguente matrice

0

1
A=
0

0
1
0
1
0
0
1
0
1

0

0

1

0
Il determinante secolare è dato da
λ4 − 3λ2 + 1 = 0
Lo studente verifichi che è un’equazione biquadratica con le seguenti soluzioni
s
s
s
s
√
√
√
√
3+ 5
3− 5
3− 5
3+ 5
λ2 = −
λ3 =
λ4 =
λ1 = −
2
2
2
2
Nelle applicazioni quantomeccaniche, i problemi agli autovalori coinvolgono sempre matrici hermitiane. Le matrici hermitiane H godono delle seguenti importanti proprietà
98
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
• gli autovalori di H sono reali
• gli autovettori corrispondenti ad autovalori distinti sono ortogonali
Poiché gli autovettori corrispondenti ad un autovalore degenere costituiscono comunque un set linearmente indipendente, si può trovare una trasformazione lineare che li trasforma in un set ortogonale. Di
conseguenza, il set complessivo di autovettori normalizzati di una matrice hermitiana costituisce una
base ortonormale, tale che per una coppia qualunque
x†i xj = δij
(4.57)
dove δij è il simbolo di Kronecker (0 se i 6= j, 1 se i = j). In definitiva, se X è la matrice degli autovettori
di H, e Λ è la matrice diagonale degli autovalori, si ha che:
X† HX = Λ
(4.58)
dove X è unitaria e Λ e reale.
4.8
Funzioni di matrici
Concludiamo questo capitolo introducendo il concetto di funzione di matrice. Data una funzione continua f (x) nella variabile x definita dalla serie convergente
∞
X
f (x) =
cn xn
(4.59)
n=0
si definisce la funzione della matrice A come la matrice ottenuta dalla serie
f (A) =
∞
X
cn An
(4.60)
n=0
Esempio 20. Alcune funzioni di matrici:
• Polinomio in A: f (A) =
PN
n
n=0 cn A
• Esponenziale in A: f (A) = exp(A) =
• Coseno in A: f (A) = cos(A) =
• Seno in A: f (A) = sin(A) =
P∞
n=0 A
n
/n!
P∞
n 2n
n=0 (−1) A /(2n)!
P∞
n=0 (−1)
• Inversa di 1 + A: f (A) = (1 + A)−1 =
n A2n+1 /(2n
+ 1)!
P∞
n n
n=0 (−1) A ;
• Inversa della radice di 1+A: f (A) = (1+A)−1/2 =
limn→∞ (2n)!An /22n n!2 = 0
P∞
con la condizione limn→∞ An = 0
n=0 (−1)
n (2n)!An /22n n!2 ;
con la condizione
Dato lo sviluppo in serie di una funzione, la valutazione della funzione di matrice si persegue utilizzando il concetto di diagonalizzazione. Sia data la funzione generica (4.60) in A. Siano note la matrice
degli autovalori Λ e la matrice degli autovettori X di A, allora
f (A) =
∞
X
n=0
cn An =
∞
X
n=0
cn (XΛX−1 )n
(4.61)
4.9. ESERCIZI
99
e lo studente può verificare per ispezione che (XΛX−1 )n = XΛn X−1 da cui segue
f (A) = X
̰
X
!
cn Λn X−1 = Xf (Λ)X−1
(4.62)
n=0
e f (Λ) è immediatamente valutabile come una matrice diagonale il cui i-esimo elemento diagonale è
f (λi ).
Esempio 21. È data la matrice 2 × 2:
!
Ã√
2 1
√
A=
1
2
Valutare exp(A). Le matrici Λ e X (gli autovettori non sono normalizzati) sono:
Ã√
!
!
Ã
2+1
0
1 1
√
λ=
X=
0
1 −1
2−1
Quindi exp(A) è data da:
Ã
exp(A) =
1
1
1
−1
!Ã
√
exp( 2 + 1)
0
0
√
exp( 2 − 1)
!Ã
1/2
1/2
1/2
−1/2
!
ed infine
Ã
A=
√
√
exp( 2 + 1) + exp( 2 − 1)
√
√
exp( 2 + 1) − exp( 2 − 1)
!
√
√
exp( 2 + 1) − exp( 2 − 1)
√
√
/2
exp( 2 + 1) + exp( 2 − 1)
La soluzione di un sistema di equazioni lineari differenziali ordinarie può essere espressa formalmente
usando la funzione esponenziale della matrice dei coefficienti.
Esempio 22. La soluzione di un sistema di equazioni lineari differenziali ordinarie per n specie
chimiche aventi concentrazioni al tempo t date da c1 (t), c2 (t), . . . , cn (t) si presta molto bene ad evidenziare l’utilità delle funzioni di matrici. Il sistema si può scrivere in forma compatta come:
dc(t)
dt
= −Kc(t)
dove K è una matrice di coefficienti costanti. Le condizioni iniziali, che specificano la concentrazione
al tempo iniziale, sono c(0) = c0 . La soluzione del sistema è semplicemente
c(t) = exp(−Kt)c0
che si può scrivere anche come: c(t) = X exp(−Λt)X−1 c0 . Quindi il problema è equivalente alla
diagonalizzazione della matrice K.
4.9
Esercizi
1. Siano x ⊗1 y e x ⊗2 y due prodotti scalari definiti nello stesso spazio vettoriale. Dimostrare che
anche le seguenti operazioni: x ¯1 y = x ⊗1 y + x ⊗2 y e x ¯2 y = λx ⊗1 y + µx ⊗2 y, sono prodotti
scalari dove λ e µ sono numeri arbitrari non negativi e non simultaneamente nulli.
100
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
2. Definire il prodotto scalare dello spazio dei polinomi di grado ≤ n in modo che la base 1, t, t2 /2!, . . . , tn /n!
sia ortonormale.
3. Valutare il determinante di una matrice triangolare superiore di dimensione n.
4. Valutare il determinante di una matrice triangolare inferiore di dimensione n.
5. Porre in forma di polinomio di t il determinante della matrice

−t
a
 2

A=
 0

 0
0
0
−t
a3
0
0
0
0
−t
0
0
... 0
... 0
... 0
. . . −t
. . . an

a1
0 


0 


0 
−t
6. Per quali valori di λ il seguente sistema ammette soluzione?
x1 + x2 + λx3 = 1
x1 + λx2 + x3 = 1
λx1 + x2 + x3 = 1
7. Trovare l’inversa della matrice

0

 0

A=

an

0 ... 0
0 . . . a2
...
0 ... 0
a1

0



0
8. Trovare l’inversa della matrice

1 0 ... 0
a 1 ... 0


A=
0 a ... 0


...
0 0 ... a

0
0


0



1
9. Esprimere l’equazione secolare della seguente matrice in forma polinomiale:

0
0


0
0
A=


0
c1
0
c2
... 0
... 0
...
... 0
. . . cn

b1
b2 





bn 
a
10. Trovare gli autovalori di una matrice triangolare superiore di dimensione n.
4.10. SPAZI DI HILBERT
4.10
101
Spazi di Hilbert
L’estensione dei concetti introdotti nelle Sezioni del precedente Capitolo per spazi vettoriali di dimensioni finite è abbastanza ovvia. Un concetto completamente nuovo che deve però essere introdotto è
quello di completezza, essenziale per il calcolo di autovalori ed autovettori e per il trattamento computazionale di matrici di dimensioni formalmente infinite. Gli spazi vettoriali di dimensioni infinite per
i quali si possa definire la proprietà addizionale di completezza sono anche detti spazi di Hilbert e sono
di importanza fondamentale per lo studio della meccanica quantistica. Per questo motivo cambieremo
la simbologia generica del Capitolo precedente utilizzando la notazione di Dirac o notazione bracket
tipica delle applicazioni quanto-meccaniche. Un vettore di uno spazio Hilbertiano è rappresentato da
un ket |φi.
Consideriamo uno spazio vettoriale di dimensione infinita, con un prodotto hermitiano. Per due
vettori generici, |φi e |ψi, il prodotto è hφ|ψi (dove il primo vettore appare in forma bra). L’opposto di
|φi è −|φi, l’elemento nullo è |0i e cosı̀ via. Il modulo di un vettore è hφ|φi. Sia ora data una successione
di vettori |φ1 i, . . . , |φn i, . . . ed un vettore limite |φi. La successione converge2 al vettore limite se per
ogni numero ² positivo piccolo a piacere esiste un intero N (²) tale che per n > N (²) vale che
hδφn |δφn i < ²
(4.63)
dove |δφn i = |φn i − |φi. Si dice che lo spazio vettoriale è uno spazio di Hilbert, di cui la successione
φn è una base, se la successione converge a |φi per ogni |φi. Nel seguito considereremo solo spazi
hilbertiani.
Esempio 23. Lo spazio delle funzioni periodiche a valori complessi è uno spazio Hilbertiano. Qual
è una sua base completa?
Una volta definita una base, possiamo rappresentare ogni vettore nella base definendone le componenti. Se pensiamo agli elementi dello spazio hilbertiano come a delle funzioni generiche, queste possono
essere rappresentate da vettori colonna di dimensioni infinite. Un’applicazione ovvero una corrispondenza che mette in relazione un vettore con un altro vettore può essere espressa tramite il concetto,
fondamentale, di operatore
O|φi = |ψi
(4.64)
Nell’equazione precedente l’operatore O agisce sul vettore |φi trasformandolo nel vettore |ψi. Sia ora
data una base ortonormale {|ii}; stando alle definizioni del Capitolo 4, si ha che hi|ii = δij . Un vettore
generico è
|φi =
X
φj |ji
(4.65)
j
sostituendo nell’equazione (4.64) e premoltiplicando per un generico |ii:
X
hi|O|jiφj = ψj
(4.66)
j
che si può scrivere in termini matriciali come
Oφ = ψ
La rappresentazione di un operatore è una matrice di dimensioni infinite.
2
In senso forte: esiste anche una definizione di convergenza debole, più generale.
(4.67)
102
4.11
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Operatori lineari
Nella meccanica quantistica sono impiegati solo gli operatori lineari che godono della proprietà
O(a|φi + b|ψi) = aO|φi + bO|ψi
(4.68)
dove O è un operatore lineare, a e b due scalari generici. Tutti i concetti definiti in precedenza per le
matrici possono essere generalizzati per gli operatori
• operatore unità: 1̂ =
P
i |iihi|
∗
• operatore aggiunto di un operatore O: hψ|O† |φi = hφ|O|ψi
• commutatore di due operatori: [O1 , O2 ] = O1 O2 − O2 O1
e cosı̀ via: per esempio, un’operatore O si dice hermitiano se O† = O.
Esempio 24. Si dimostri, usando le proprietà degli operatori lineari, dei prodotti hermitiani e le
definizioni precedenti, che
(a1 O1 + a2 O2 )† = a∗1 O1† + a∗2 O2†
(O1 O2 )† = O2† O1†
Il problema agli autovalori per un operatore si pone analogamente a quello di una matrice di dimensioni finite:
O|φi = λ|φi
(4.69)
anzi, coincide con un problema matriciale a dimensioni infinite una volta che si sia introdotto una base:
Oφ = λφ
(4.70)
Valgono per gli operatori hermitiani le medesime proprietà introdotte per le matrici hermitiane: gli
autovalori sono reali, autovettori (o autofunzioni) corrispondenti ad autovalori distinti sono ortogonali;
l’operatore di trasformazione è unitario. Nella notazione di Dirac un autovettore con autovalore λ si
indica con |λi, ovvero O|λi = λ|λi.
4.12
Postulati della quantomeccanica
Formuliamo i principi generali della meccanica quantistica
pena introdotta.
3
utilizzando la simbologia matematica ap-
Principio I: lo stato fisico di un sistema isolato è descritto da un vettore |φi di un appropriato spazio
hilbertiano.
3
Ricordiamo ancora una volat: non si tratta di postulati rigorosi che costituiscano assiomi matematici da cui dedurre una
struttura matematica coerente; piuttosto sono principi fisici, esposti in modo semplificato per comprendere le applicazioni
della meccanica quantistica nella sua formulazione non-relativistica.
4.12. POSTULATI DELLA QUANTOMECCANICA
103
Principio II: una grandezza fisica osservabile è rappresentato da un operatore lineare hermitiano
F̂ .
Principio III: i risultati possibili della misura di un’osservabile F sono gli autovalori fi di F:
F|fi i = fi |fi i
(4.71)
se |φi = |fi i, il sistema è in un autostato di F e la misura dà con certezza fi .
Principio IV: il valore d’attesa di un’osservabile F è definito come
F̄ =
hφ|F|φi
hφ|φi
(4.72)
dove F̄ è il risultato medio di una serie di misure di F
Principio V: l’operatore relativo ad un’osservabile si può esprimere in funzione di operatori spostamento x̂ e momento p̂ (in una dimensione), che obbediscono al principio
[x̂, p̂] = ih̄
(4.73)
dove h̄ = h/2π = 1.054 × 10−34 Js.
Principio VI: lo stato al tempo t di un sistema è ottenibile come la soluzione dell’equazione di
Schrödinger
ih̄
∂
∂t
|φ(t)i = H|φ(t)i
(4.74)
dove H è l’operatore hamiltoniano del sistema isolato. Gli autovalori dell’hamiltoniano sono le
autoenergie del sistema:
H|Ei = E|Ei
(4.75)
|Ei è un autostato del sistema con energia E.
Cosa significa ‘spazio appropriato’ ? Dipende dalla natura fisica del sistema. Consideriamo il caso di
una particella che si muova lungo una retta: la coordinata (nel senso della meccanica classica) è x, il
momento associato è p. Gli operatori quantomeccanici corrispondenti sono x̂ e p̂. Definiamo la base
continua |xi come gli autostati di x̂ con autovalori x:
x̂|xi = x|xi
(4.76)
Nella base continua |xi, un vettore |φi è rappresentato come una funzione φ(x), l’operatore spostamento
x̂ è rappresentato dalla moltiplicazione per la funzione x, cioè x̂|φi = xφ(x) l’operatore p̂ è rappresentato
∂
da h̄/ i . L’hamiltoniano è invece dato dall’espressione
∂x
h̄2 ∂ 2
+ U (x)
(4.77)
2m ∂x2
dove il primo termine rappresenta l’energia cinetica (m è la massa), il secondo l’energia potenziale.
H=−
104
4.13
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Il metodo variazionale
Dato l’operatore hamiltoniano del sistema, uno dei problemi fondamentali in meccanica quantistica
è il calcolo degli autovalori, ovvero delle autoenergie del sistema, e dei corrispondenti autostati. Per
esempio, un chimico che conosca, con vari gradi di approssimazione, l’espressione per l’energia totale
classica di una molecola, e dunque sia in grado di costruire l’hamiltoniano quantomeccanico (applicando
il principio di corrispondenza e sostituendo alle funzioni classiche posizione e momento le corrispondenti
rappresentazioni nella base continua) vuole conoscere prima di ogni altra cosa l’energia dello stato fondamentale della molecola cioè il più basso autovalore dell’hamiltoniano. Ha cosı̀ informazioni sull’energia
‘di riposo’ della molecola, nel suo stato fondamentale, e può confrontare questo dato con misure di
tipo calorimetrico e termodinamico. Il calcolo degli autovalori di un sistema richiede 1) la conoscenza
dell’hamiltoniano del sistema; 2) una rappresentazione matriciale dell’hamiltoniano. In generale comunque si tratta di un problema non-triviale. I sistemi (gli hamiltoniani) di cui sia possibile calcolare
in modo esatto (analitico) lo spettro di autoenergie sono pochi, e saranno discussi nel Capitolo seguente.
Tecniche di risoluzione approssimata per lo studio di hamiltoniani elettronici atomici e molecolari sono
disponibili e molto diffuse. Nei Capitoli successivi sarà presentata una loro discussione sistematica.
In questo Capitolo considereremo i principi di base dei metodi di risoluzione approssimata: il metodo
variazionale e la teoria delle perturbazioni.
Consideriamo in questa Sezione il calcolo approssimato dell’autostato fondamentale di un sistema.
In generale si potrà esprimere lo stato (il vettore) come una combinazione (non necessariamente lineare)
di vettori di base noti; i coefficienti dell’espansione possono essere determinati sulla base del principio
variazionale, che sostanzialmente sfrutta le proprietà di hermiticità dell’operatore hamiltoniano.
È dato un sistema descritto dall’hamiltoniano H, con autofunzioni ψ, Hψ = Eψ. Ci poniamo il
seguente problema: sotto quali condizioni il funzionale di una generica funzione d’onda ξ
J[ξ] = hξ|H|ξi
(4.78)
è stazionario, cioè massimo o minimo? Assumiamo inoltre che ξ debba essere normalizzata
hξ|ξi = 1
(4.79)
Dal punto di vista del calcolo variazionale il problema può essere posto sotto forma della ricerca di un
punto stazionario vincolato, ed è dunque equivalente ad individuare le condizioni di stazionarietà del
funzionale non vincolato
J 0 [ξ] = hξ|H|ξi − λ(hξ|ξi − 1)
(4.80)
Al primo ordine, la variazione di J 0 è data da
δJ 0 = hδ²|H|²i + h²|H|δ²i − δλ(hξ|ξi − 1) − λhδξ|ξi − λhξ|δξi
(4.81)
che si può riscrivere come
δJ 0 = (hδξ|H|ξi − λhδξ|ξi) + (hδξ|H|ξi − λhδξ|ξi)∗ − δλ(hξ|ξi − 1)
(4.82)
La soluzione si ottiene i) se hξ|ξi = 1, dato che solo cosı̀ il termine in δλ si annulla e poi ii) se
hδξ|H|ξi = λhδξ|H|ξi
(4.83)
4.13. IL METODO VARIAZIONALE
105
o in altri termini, dato che δξ è arbitraria, se
Hξ = λξ
(4.84)
cioè se ξ è un’autofunzione normalizzata di H con autovalore λ. In pratica, definiamo il rapporto di
Rayleigh per un generica funzione d’onda ξ
hHi = ²[ξ] =
hξ|H|ξi
hξ|ξi
(4.85)
²[|ξi è un funzionale della funzione generica ξ. Se J 0 [ξ] è reso stazionario da ξ anche ² è stazionario.
Il principio variazionale può essere applicato utilmente al calcolo degli autovalori di un sistema. Il
teorema di Eckart afferma che se E0 è il più basso autovalore del sistema, il rapporto di Rayleigh è
sempre maggiore o uguale a E0 .
²[ξ] ≥ E0
(4.86)
La dimostrazione è la seguente: espandiamo |ξi (usiamo la notazione di Dirac per convenienza) sulla
base degli autostati esatti dell’hamiltoniano H
H|ψn i = En |ψn i
E0 ≤ E1 ≤ . . .
(4.87)
hψn |ψn0 i = δnn0
|ξi =
X
(4.88)
cn |ψn i
(4.89)
n
consideriamo la quantità hξ|H − E0 |ξi:
hψn |H − E0 |ψn0 i =
X
c∗n cn0 (En − E0 )hψn |ψn0 i =
X
|cn |2 (En − E0 ) ≥ 0
(4.90)
n
nn0
infatti |cn |2 ≥ 0, En ≥ E0 ; segue che:
hξ|H|ξi − E0 hξ|ξi ≥ 0 ⇒ ²[ξ] ≥ E0
QED
(4.91)
Data dunque una funzione generica normalizzabile, il rapporto di rayleigh costituisce sempre un limite
superiore dell’auovalore più basso dell’hamiltoniano del sistema. Nella sua versione piú comune, il
teorema variazionale è implementato sotto forma di metodo variazionale lineare. Il vettore d’onda
di prova |ξi è cioè dato come una combinazione lineare di N vettori noti, che indichiamo semplicemente
come |1i, |2i etc.
|ξi =
N
X
cn |ni
(4.92)
n=1
Il rapporto di Rayleigh può essere scritto come
²=
c† Hc
cSc
(4.93)
dove c è il vettore dei coefficienti cn , mentre H e S sono le matrici rappresentative di H e dell’unità sui
vettori |ni, cioè le matrici N × N aventi elementi
Hnn0 = hn|H|n0 i
Snn0 = hn|n0 i
(4.94)
106
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
La variazione infinitesimale della funzione di prova diviene ora una variazione infinitesimale dei coefficienti cn ; dal principio variazionale segue perciò
δ² =
δc† Hc − ²δc† Sc
+ complesso coniugato = 0
c† Sc
(4.95)
che è verificata solo se δc† (Hc − ²Sc) = 0 ovvero
Hc = ²Sc
(4.96)
cioè la forma generalizzata di un problema agli autovalori, che si può risolvere calcolando le radici
dell’equazione secolare
det(H − ²S) = 0
(4.97)
Il problema agli autovalori diviene più semplice se si assumono delle funzioni di base ortonormali S = 1:
Hc = Ec
(4.98)
che è ora un problema agli autovalori in forma standard, con matrici e vettori di dimensioni finite,
poiché la rappresentazione (4.92) è di solito arrestata ad un numero finito di termini.
Esempio 25. È dato l’hamiltoniano
H=−
h̄2 ∂ 2
+ V (x)
2m ∂x2
per un sistema monodimensionale. il potenziale V (x) è


 V0
V (x) =


0
∞
0 < x < L/2
L/2 < x < L
altrove
Consideriamo le due funzioni di base
r
|1i =
r
|2i =
µ
2
πx
sin
L
L
µ
¶
2
2πx
sin
L
L
¶
Calcolare un valore approssimante all’energia dello stato fondamentale mediante il metodo variazionale.
Si deve procedere 1) calcolando gli elementi di matrice hi|H|ji con i, j pari a 1,2 (il prodotto hermitiano
è l’integrale su x); diagonalizzando la matrice H 2 × 2 e scegliendo l’autovalore più piccolo.
4.14
Perturbazioni indipendenti dal tempo per sistemi non-degeneri
Di solito è possibile conoscere in modo esatto, o quantomeno accurato, la soluzione esatta di un problema agli autovalori relativo ad un sistema fisico semplificato rispetto al sistema di cui si vogliono
effettivamente calcolare le proprietà. Se il sistema semplificato differisce dal sistema reale solo per un
termine piccolo dell’hamiltoniano (perturbazione) è possibile cercare sistematicamente la correzione alle
autoenergie ed autostati del sistema semplificato mediante la teoria delle perturbazioni indipendenti dal
tempo.
4.14. PERTURBAZIONI INDIPENDENTI DAL TEMPO PER SISTEMI NON-DEGENERI
107
Supponiamo perciò che l’hamiltoniano del sistema reale sia
H = H0 + ²V
(4.99)
dove H0 è l’hamiltoniano del sistema semplificato (imperturbato) e V è la perturbazione; ² è un
parametro che definisce l’ordine di grandezza della perturbazione. Sia nota la soluzione al problema
imperturbato (PI)
H0 |ni = En(0) |ni
(4.100)
Gli autovettori |ni costituiscono una base ortonormale e completa dello spazio hilbertiano. Cerchiamo
la soluzione al problema perturbato (PP)
H|Φi = E|Φi
(4.101)
Nel seguito, per semplicità considereremo inizialmente solo sistemi con spettri di autovalori discreti e
non degeneri. Possiamo rappresentare le autofunzioni del PP nella base costituita dalle autofunzioni
del PI:
|Φi =
X
cn |ni
(4.102)
n
Sostituendo la precedente eguaglianza nell’espressione del PP si ottiene
X
h
i
cn En(0) + ²V |ni = E
n
X
cn |ni
(4.103)
n
ed integrando per un generico hm|
h
i
(0)
E − Em
cm = ²
X
Vmn cn
(4.104)
n
dove Vmn = hm|V|ni. Si vuole calcolare la correzione all’ m-esimo autostato, cioè si vuole che per
² → 0 (perturbazione nulla) il sistema perturbato tenda all’autostato m-esimo del sistema perturbato.
Espandiamo ora i coefficienti cn e l’energia E in serie di ²:
(0)
E = Em
+ ²E (1) + ²2 E (2) + . . .
(4.105)
2 (2)
cn = δmn + ²c(1)
n + ² cn + . . .
(4.106)
(0)
come si vede, per ² → 0 l’energia diventa Em , mentre i coefficienti cn diventano δmn , e quindi 1 se
m = n, e zero in caso contrario. Per calcolare le correzioni alle energie e ai coefficienti si procede
sostituendo le espansioni in serie nelle equazioni (4.104), raccogliendo i termini nella stessa potenza di
² a primo e secondo membro, ed eguagliando. Cosı̀ per esempio la correzione al primo ordine per le
energie si ottiene conservando solo i termini di primo ordine nell’equazione (4.104) con n = m:
E (1) = Vmm
(4.107)
mentre le correzioni al primo ordine per i coefficienti si ottengono con n 6= m:
Vmn
c(1)
n 6= m
n =
(0)
(0)
Em − En
(1)
(4.108)
il coefficiente cm resta indeterminato. Si può specificare imponendo che l’autostato del PP al primo
(1)
ordine sia normalizzato, a meno di termini al primo ordine: si può verificare che ciò avviene per cm = 0.
Le approssimazioni successive si calcolano in modo analogo.
108
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
4.15
Sistemi in ordine zero con autostati degeneri
Supponiamo che l’hamiltoniano del problema imperturbato ammetta un set di autofunzioni degeneri k
(0)
volte |m1 i, |m2 i, . . ., |mk i con autoenergia Em . Possiamo definire un set di combinazioni lineari delle
k autofunzioni, che sono ancora autofunzioni dell’operatore H0
|φi =
k
X
|mj iaj
(4.109)
j=1
Gli autovalori del sistema perturbato sono ancora scritte nella forma
E=
(0)
Em
+
∞
X
²l E (l)
(4.110)
l=1
mentre per la generica autofunzione perturbata possiamo scrivere
|Φi = |φi +
X
cn |ni
(4.111)
n6=m
Per i coefficienti aji e cn vale lo sviluppo perturbativo
aj =
∞
X
(l)
aj
cn =
l=0
∞
X
c(l)
n
(4.112)
l=0
(l)
(l)
Si tratta ora di trovare i termini correttivi E (l) , e i coefficienti aj e cn ; possiamo limitarci a calcolare
le correzioni degli autovalori al primo ordine, cioè calcolare solo E (1) e i coefficienti aj , cn in ordine zero.
Sostituendo le varie espressioni precedenti nel PP e considerando i termini in ²1 :
³
(0)
H 0 − Em
k
´X
(0)
(1)
aj |mj i = (Em
− V)
j=1
k
X
(0)
aj |mj i
(4.113)
j=1
che può essere moltiplicata per il generico elemento hmi |. Il termine relativo al sistema imperturbato si
annulla, e resta l’espressione
k
X
(0)
(1)
hmi |V|mj i = Em
ai
(4.114)
j=1
dove naturalmente le autofunzioni imperturbate sono ritenute ortonormali; in forma matriciale la precedente espressione è semplicemente Va = Ea, chiamando per semplicità V, a ed E la matrice rappre(0)
sentativa di V, il vettore dei coefficienti aj e la correzione al primo ordine all’autovalore degenere del
(0)
PI. Si noti che se il sistema non è degenere, al posto di aj nella relazione abbiamo 1, e la somma
è semplicemente hm|V|mi, e dunque si ritrova l’espressione della correzione al primo ordine per stati
non-degeneri.
Esempio 26. Consideriamo ancora l’hamiltoniano dell’esempio precedente, che descrive una particella di massa m in un scatola di lato L. L’hamiltoniano del problema imperturbato è naturalmente
h̄2 ∂ 2
2m ∂x2
che, come vedremo nel capitolo successivo, ammette il set completo di autofunzioni
H=−
r
|ki =
µ
2
kπx
sin
L
L
¶
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
109
(0)
con autovalori non-degeneri Ek = k 2 h̄2 /2m e k > 1. Qual è la correzione al primo ordine dell’autovalore
(0)
più basso del sistema, che definisce l’energia di punto zero del sistema imperturbato, E1 = h̄2 /2m ?
Sostituendo troviamo
(1)
E1 = h1|V|1i =
4.16
2V0
L
Z L/2
0
µ
dx sin2
πx
L
¶
= V0
(π − 1)
2π
Sistemi risolvibili analiticamente
Concludiamo questo capitolo con una raccolta di problemi risolti relativi a sistemi quantomeccanici
risolvibili analiticamente. Tra i vari casi trattati sono compresi gli esempi che si trovano in tutti i
libri di testo: particella nella scatola monodimensionale e bidimensionale, rotatore monodimensionale,
oscillatore armonico, particella su una sfera, atomo idrogenoide. In più sono presentate “variazioni sul
tema”, come particelle in scatole monodimensionali di forme svariate, scatole tridimensionali, scatole
cilindriche e set di oscillatori interagenti.
Esempi/esercizi non risolti (con suggerimenti e schemi di soluzione in alcuni casi) sono distribuiti
nel corso del testo.Consideriamo lo schema in Fig. (4.6), che rappresenta il potenziale confinante per
una particella (in una dimensione) imprigionata in una scatola dalle pareti infinite. Qual è l’andamento
nel tempo della funzione d’onda della particella, data una determinata configurazione iniziale? Vedremo
che per rispondere a questo quesito sarà necessario definire le autofunzioni e gli autovalori dell’operatore
hamiltoniano. Anzi, poichè il problema è di natura generale, consideriamo per cominciare un sistema
generico definito nello spazio delle funzioni f (x) dove x è l’insieme delle coordinate del sistema. Al tempo
t il sistema è definito dalla funzione d’onda |ψ(x, t)i la cui evoluzione temporale è dettata dall’equazione
di Schrödinger
ih̄
∂
∂t
|ψ(x, t)i = H|ψ(x, t)i
(4.115)
al tempo t = 0 la funzione è definita da una configurazione generica (che ci dice come il sistema è stato
preparato inizialmente):
|ψ(x, 0)i = |ψ0 (x)i
(4.116)
Sappiamo che l’hamiltoniano ammette autostati |Ei con autoenergie E:
H|Ei = E|Ei
(4.117)
che sono ortonormali hE|E 0 i = δE,E 0 e costituiscono una base completa dello spazio. Quindi possiamo
espandere |ψ(x, t)i
|ψ(x, t)i =
X
cE (t)|Ei
(4.118)
E
i coefficienti CE (t) sono ottenute come proiezioni della funzione d’onda sulle autofunzioni
cE (t) = hψ(x, t)|Ei
(4.119)
e al tempo t = 0 vale che
cE (0) = hψ0 (x)|Ei
(4.120)
110
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Sostituendo nell’Eq. (4.115) si ottiene, moltiplicando per un generico hE| ed integrando
ih̄ċE (t) = EcE (t)
(4.121)
Infine, con le condizioni iniziali (4.120) si trova
cE (t) = hψ0 (x)|Ei exp(Et/ih̄)
(4.122)
e la funzione d’onda si può scrivere al tempo t come:
|ψ(x, t)i =
X
|Eihψ0 (x)|Ei exp(Et/ih̄)
(4.123)
E
Dunque la funzione d’onda è una sovrapposizione degli autostati del sistema con ‘pesi’ che dipendono dal
tempo in modo esponenziale, dove le ‘costanti di decadimento’ di ciascun esponenziale sono proporzionali
agli autovalori, e dalle condizioni iniziali.
L
x
Figura 4.6: Potenziale per una particella in una scatola 1D.
In linea di principio possiamo distinguere lo spettro di autoenergie di un sistema in due parti: lo
spettro discreto, ovvero l’insieme delle autoenergie separate da intervalli non accessibili, e lo spettro
continuo. Consideriamo un sistema monodimensionale con un potenziale U (x) che tenda a U0 per
x → +∞ e a U1 > U0 per x → −∞, vedi Fig. (4.7). Lo spettro discreto si ha per autostati con energie
E < U0 : la particella è chiusa nella scatola. Se E > U0 lo spettro diviene continuo, e la partcella è
libera. Il numero di autostati discreti può esser finito (se U0 e U1 sono quantità finite) od infinito. Nel
seguito consideremo solo stati con autovalori discreti, cioè sistemi in stati confinati.
Torniamo ora al caso della particella in una scatola monodimensionale con pareti infinite. Assumiamo
che l’energia potenziale sia nulla all’interno della scatola ed infinita all’esterno. La funzione d’onda è
dunque definita solo per 0 ≤ x ≤ L, vedi Fig. (4.6). L’equazione di Schrödinger indipendente dal tempo
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
111
U(x)
U
1
U
0
x
Figura 4.7: Un potenziale generico in una dimensione.
assume la forma 4 :
h̄2 d2
−
ψE (x) = EψE (x)
2m dx2
(4.124)
dove m è la massa della particella. Valgono le condizioni al contorno
ψE (0) = 0,
ψE (L) = 0
(4.125)
L’Eq. (4.124) è un’equazione differenziale ordinaria a coefficienti costanti del secondo ordine. La sua
soluzione generica ha la forma
ψE (x, t) = A1 exp(α1 x) + A2 exp(α2 x)
(4.126)
dove α1,2 sono le radici dell’equazione
−
h̄2 2
α =E
2m
(4.127)
q
vale a dire α1,2 = ±i
2mE
.
h̄2
Sostituendo nelle condizioni al contorno si ottiene
A1 + A2 = 0
4
Ci poniamo nella rappresentazione continua, in modo da lavorare direttamente con funzioni della variabile x
(4.128)
112
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA


s

A1 exp iL

s
2mE 
+ A2 exp −iL
h̄2
2mE 
=0
h̄2
(4.129)
che è un sistema lineare omogeneo in A1 e A2 , risolvibile solo se il determinante dei coefficienti è nullo.
Si trova cosı̀ la condizione in E:


s
2mE 
=1
h̄2
exp 2iL
(4.130)
le cui soluzioni sono
E=
h̄2 π 2 k 2
,
2mL2
k∈N
(4.131)
Gli autostati di una particella chiusa in un pozzo infinitamente profondo sono quantizzati come i quadrati
dei numeri interi; sono anche inversamente proporzionali alla massa della particella e alla larghezza del
pozzo. Vale a dire: per una massa molto grande, od un pozzo molto largo, gli autovalori sono molto
vicini tra loro (lo spettro diviene quasi continuo), e il comportamento della particella si avvicina al
comportamento previsto dalla meccanica classica. Le autofunzioni si trovano subito tenendo conto
A1 = −A2 ; imponendo la condizione che siano normalizzate in [0, L] si trova:
r
ψk (x) =
µ
¶
2
kπ
sin
x
L
L
(4.132)
Supponiamo ora che la particella sia inizialmente al centro del pozzo:
ψ(x, 0) = δ(x − L/2)
(4.133)
Da cui segue che al tempo t la funzione d’onda è
"
#
µ
¶
µ
2 X
k 2 h̄π 2
kπ
kπ
ψ(x, t) =
exp
x sin
t sin
L k≥1
2mL2
L
2
¶
(4.134)
ma il seno di kπ/2 vale è zero per k pari; per k = 2n + 1 dispari, con n ≥ 0, vale (−1)n ; perciò
"
#
µ
¶
2 X
(2n + 1)2 h̄π 2
kπ
ψ(x, t) =
(−1)n exp
x
t sin
L n≥0
2mL2
L
(4.135)
Naturalmente per una scatola con pareti infinite tutte le autoenergie sono discrete (non esistono stati
“liberi” della particella).
Esempio 27. Calcolare e rappresentare in un grafico ai tempi t: 1 ps, 10 ps, 1 ns e 1 µs la densità
di probabilità |ψ 2 (x, t)| per un neutrone in un pozzo largo 1 Å, che sia posto al centro del pozzo a t = 0.
4.16.1
Fuga dal pozzo
E se una le pareti del pozzo avessero un’altezza finita? Il potenziale è rappresentato in Fig. (4.8):


V
V (x) =


0
V
x≤0
0<x<L
L≤x
(4.136)
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
113
Consideriamo solo lo spettro discreto, vale a dire gli stati confinati della particella, E < V . La soluzione
generica per l’autofunzione ψE (x) con autoenergia E è definita nei singoli intervalli come



B1 exp(bx)
x≤0
ψ(x) = A1 exp(iax) + A2 exp(−iax) 0 ≤ x < L


B2 exp(−bx)
L≤x
q
(4.137)
q
dove a = 2mE/h̄2 e b = 2m(V − E)/h̄2 ; si noti che che per x < 0 si pone a zero il coefficiente
dell’esponenziale exp(−bx) che altrimenti divergerebbe per x → −∞ (ed analogamente per x ≥ L).
Valgono poi quattro condizioni relative alla continuità e derivabilità dell’autofunzione in x = 0 e
x = L:
A1 + A2 = B1
(4.138)
iaA1 − iaA2 = bB1
(4.139)
A1 exp(iaL) + A2 exp(−iaL) = B2 exp(−bL)
(4.140)
iaA1 exp(iaL) − iaA2 exp(−iaL) = −bB2 exp(−bL)
(4.141)
Risolvendo il determinante 4 × 4 (scrivetelo), si ottiene una condizione in E. Saltando vari passaggi
algebrici il risultato è:
nπ − kL
h̄a
=
arcsin √
2
2mV
(4.142)
con n ∈ N , che si risolve in a. Si verifica subito che il numero degli autostati discreti è finito.
4.16.2
Una scatola con una barriera interna
L’esempio successivo è relativo al caso di un pozzo con un barriera interna finita, Fig. (4.8). Lo schema
di soluzione è analogo ai casi precedenti: i) definizione delle forme generali delle autofunzioni; ii) imposizione di condizioni al contorno; iii) determinazione degli autostati dalla soluzione di un sistema lineare
omogeneo. L’algebra è un più complicata, ma per geometrie elementari si semplifica considerevolmente.
Il potenziale che descrive il nostro pozzo è dato in [0, L3 ]:


 V1
V (x) =
0 ≤ x < L1
L1 ≤ x < L2
L2 < x ≤ L3
V2


V3
(4.143)
La soluzione generica per l’autofunzione ψE (x) con autoenergia E è definita nei singoli intervalli come
 (1)
(1)
(1)
(1)

 A1 exp(α1 x) + A2 exp(α2 x)
ψ(x) =
(i)
(2)
(2)
A1 exp(α1 x)

 (3)
(3)
A1 exp(α1 x)
q
+
+
(2)
(2)
A2 exp(α2 x)
(3)
(3)
A2 exp(α2 x)
0 ≤ x < L1
L1 ≤ x < L2
L2 < x ≤ L3
(4.144)
i)
. Le condizioni al contorno sono analoghe al primo caso: ai confini del pozzo
dove α1,2 = ±i 2m(E−V
h̄2
l’autofunzione deve annullarsi, poichè la particella non può penetrare una barriera infinita. I coefficienti
ignoti dell’autofunzione sono sei, e disponiamo di due condizioni al contorno piú altre quattro condizioni:
114
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
V2
V
x
L
1
L
2
V3
L3
L
x
(b)
(a)
Figura 4.8: Potenziali per una particella in una scatola 1D con una barriera interna.
per ciascun dei punti interni, in L1 ed L2 la funzione deve essere continua e derivabile. In definitiva,
valgono le sei relazioni lineari:
(1)
(1)
A1 + A2
(1)
(1)
(1)
(1)
A1 exp(α1 L1 ) + A2 exp(α2 L1 )
(1) (1)
(1)
(1) (1)
(1)
α1 A1 exp(α1 L1 ) + α2 A2 exp(α2 L1 )
(2)
(2)
(2)
(2)
A1 exp(α1 L2 ) + A2 exp(α2 L2 )
(2) (2)
(2)
(2) (2)
(2)
α1 A1 exp(α1 L2 ) + α2 A2 exp(α2 L2 )
(3)
(3)
(3)
(3)
A1 exp(α1 L3 ) + A2 exp(α2 L3 )
=
0
(2)
(2)
(2)
(2)
=
A1 exp(α1 L1 ) + A2 exp(α2 L1 )
(2) (2)
(2)
(2) (2)
(2)
= α1 A1 exp(α1 L1 ) + α2 A2 exp(α2 L1 )
(4.145)
(3)
(3)
(3)
(3)
=
A1 exp(α1 L2 ) + A2 exp(α2 L2 )
(3) (3)
(3)
(3) (3)
(3)
= α1 A1 exp(α1 L2 ) + α2 A2 exp(α2 L2 )
=
0
da cui si ricava il determinante 6 × 6 che permette di determinare E.
Esempio 2. Scrivete il determinante relativo al sistema precedente.
Consideriamo il caso della buca simmetrica, Fig. (4.8). Il sistema precedente assume la forma, un poco
più maneggevole:
(1)
(1)
=
0
exp(−iaL)
=
A1 exp[(ia − v)L] + A2 exp[−(ia − v)L]
iaA1 exp(iaL) − iaA2 exp(−iaL)
=
(ia − v)A1 exp[(ia − v)L] − (ia − v)A2 exp[−(ia − v)L]
=
A1 exp(2iaL) + A2 exp(−2iaL)
=
(3)
iaA1
=
0
A1 + A2
(1)
A1
exp(iaL) +
(1)
(1)
A2
(1)
(2)
(2)
A1 exp[2(ia − v)L] + A2 exp[−2(ia − v)L]
(ia −
(2)
v)A1
exp[2(ia − v)L] − (ia −
(3)
A1
(2)
v)A2
exp[−2(ia − v)L]
exp(3iaL) +
(3)
A2
exp(−3iaL)
(2)
(2)
(2)
(3)
(2)
(3)
exp(2iaL) −
(3)
iaA2
exp(−2iaL)
(4.146)
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
q
dove a =
2mE/h̄2 e v =
115
q
2mV /h̄2
Esempio 3. Scrivete il determinante.
Dal calcolo del determinante si ottiene un’equazione trascendente (non polinomiale) in a (cioè in E),
che si può risolvere per via numerica. A questo punto lo schema di soluzione per un potenziale generico
monodimensionale che sia rapresentabile da una serie di segmenti orizzontali e verticali, con pareti
infinite, vale a dire un pozzo monodimensionale infinitamente profonda con un “fondo” qualunque,
dovrebbe risultare chiaro: 1) si imposta la soluzione generica in ciascun intervallo; 2) si impongono
condizioni di continuità e derivabilità in ogni punto interno; 3) si annulla la soluzione alle due pareti.
Il risultato è un sistema omogeneo di equazioni per i coefficienti dell’autofunzione in ciascun intervallo,
V
V1
l
L
V2
(a)
(b)
V3
L
V2
V
n-1
V1
Vn
V1
V2
V4
V3
L
V3
(c)
(d)
Figura 4.9: Varie scatole 1D.
il cui determinante si deve annullare e fornisce un’equazione per calcolare le energie.
Esempio 28.
1. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (a) di Fig. (4.9).
Cosa succede se V → 0, o l → 0?
2. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (b) di Fig. (4.9).
Cosa succede se il numero di gradini diviene infinito, mentre la loro larghezza tende a zero (ovvero
N → ∞ con N L → cost.)?
3. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (c) di Fig. (4.9).
116
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Cosa succede se il numero di gradini diviene infinito, mentre la loro larghezza tende a zero (ovvero
N → ∞ con N L → cost.)?
4. Impostare e risolvere numericamente il problema agli autostati relativo ad un pozzo generico, come
in (d) di Fig. (4.9).
4.16.3
Scatola tridimensionale
Una particella di massa m in tre dimensioni è descritto dall’hamiltoniano generico
H=−
h̄2 ˆ 2
∇ + U (x)
2m
(4.147)
ˆ è l’operatore laplaciano, che in coordinate cartesiane ha la forma
dove ∇
2
2
2
ˆ2 = ∂ + ∂ + ∂
∇
∂x1 2 ∂x2 2 ∂x3 2
(4.148)
Nel caso di una particella racchiusa in una scatola in tre dimensioni, con pareti di lato a1 , a2 e a3 , il
potenziale è nullo all’interno della scatola, ed infinito all’esterno. Il problema è ridotto allo studio di tre
e
3
a
3
e
1
a2
a
e
1
2
Figura 4.10: Scatola tridimensionale.
problemi separati lungo i tre assi; cioè l’autofunzione del sistema si può scrivere come:
(1)
(2)
(3)
ψE (x) = ψE (x1 )ψE (x2 )ψE (x3 )
(4.149)
(1)
dove ψE (x1 ) è definita per 0 < x < a1 e cosı̀ via. Le autoenergie sono date dall’espressione:
h̄2 π 2
E=
2m
Ã
k12 k22 k32
+ 2+ 2
a21
a2
a3
!
(4.150)
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
117
dove k1 , k2 e k3 sono interi. I corrispondenti autostati sono dati dall’equazione inserendo le forme
(1)
esplicite di ψE (x1 ) etc. nella (4.149):
s
ψE (x) =
µ
¶
µ
¶
µ
8
πk1
πk2
πk3
sin
sin
sin
a1 a2 a3
a1
a2
a3
¶
(4.151)
È importante notare che nel caso tridimensionale le autoenergie possono essere degeneri: per una scatola
cubica (a1 = a2 = a3 ) una coppia di autostati identificate da terne k1 , k2 e k3 che differiscano solo per
una permutazione hanno lo stesso energia.
Esempio 29. Consideriamo il caso di una scatola bidimensionale quadrata: i) scrivere le espressioni
generali per le autoenergie e gli autostati; ii) porre in grafico le autofunzioni corrispondenti ai primi
cinque autovalori distinti.
4.16.4
Particella in e su un anello
Considereremo in questa Sezione e nelle Sezioni successive problemi agli autovalori relativi a sistemi che
si possono risolvere analiticamente introducendo coordinate curvilinee, non cartesiane, che sono dettate
naturalmente dalla geometria del potenziale. Come primo caso prendiamo in analisi una particella che
sia racchiusa in una zona dello spazio bidimensionale in una circonferenza: V = 0 se |x| < a, V = ∞ se
|x| > a, vedi Fig. (4.11) (a); a è il raggio della circonferenza; oppure che sia costretta a muoversi sulla
circonferenza stessa (rotatore planare). L’hamiltoniano per il sistema nel piano è:
e
2
P
r
θ
e
1
R
e1
P(x 1 , x 2 )
(a)
(b)
e2
Figura 4.11: Un pozzo cilindrico ed un anello.


∂2
h̄2  ∂ 2

H=−
+
2m ∂x1 2 ∂x2 2
(4.152)
Introduciamo le coordinate polari: r, φ, dove r è il modulo del vettore x = (x1 , x2 ) e φ è l’angolo formato
con l’asse delle ascisse. È facile dimostrare che l’hamiltoniano, proporzionale all’operatore laplaciano in
118
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
due dimensioni, assume la forma:


h̄2  ∂ 2
1 ∂
1 ∂2 
H=−
+
+
2m ∂r2 r ∂r r2 ∂φ2
(4.153)
Consideriamo prima il caso del rotatore planare. La particella si muove su una circonferenza a r = a,
di consequenza le derivate in r si annullano. L’hamiltoniano si riduce al solo termine dipendente da φ.
L’equazione di Schrödinger assume la forma:
−
h̄2 d2
ΨE (θ) = EΨE (φ)
2I dφ2
(4.154)
dove I = ma2 è il momento di inerzia. Risolvendo, si trova come nel caso della particella nella scatola
monodimensionale:
ΨE (θ) = A1 exp(iml φ) + A2 exp(−iml φ)
(4.155)
q
dove ml = 2IE/h̄2 . Le condizioni al contorno sono da ricercarsi nelle proprietà fondamentali delle
funzioni d’onda di un sistema quantomeccanico, che devono sempre dar luogo ad una densità di probabilità univoca: cioè dato x, un punto dello spazio delle coordinate del sistema, la funzione |φ(x)| deve
essere univocamente determinata. Nel caso in questione questo implica che la funzione calcolata in φ o
in φ + 2π (quindi nello stesso punto), deve essere uguale:
ΨE (φ + 2π) = ΨE (φ)
(4.156)
quindi ml deve essere un numero intero. Gli autovalori sono dunque:
E=
m2l h̄2
,
2I
ml ∈ N
(4.157)
Lo stato di una particella con autoenergia E è dunque descritto da una somma di due esponenziali
complessi, che rappresentano in realtà due moti sovrapposti, in un senso (ml ) e nel senso opposto
(−ml ). Supponiamo di aver preparato la particella con un unico senso di rotazione, A2 = 0; la costante
di normalizzazione dell’autofunzione rimanente si ottiene integrando |ΨE (φ)|. Si ottiene infine:
r
Ψml (φ) =
1
exp(iml φ)
2π
(4.158)
Ed ora consideriamo il caso di una particella racchiusa in un anello, che cioè sia costretta a muoversi
all’interno della circonferenza. L’hamiltoniano è dato dalla (4.153). L’autofunzione generica si può
scrivere in una forma fattorizzata, poichè le coordinate r e φ sono separabili:
ΨE (r, φ) = R(r)Ψ(φ)
(4.159)
Sostituendo nell’equazione di Schrödinger, HΨE = EΨE , dividendo per ΨE e moltiplicando per r2 , si
ottiene:


h̄2  2 d2 R
h̄2 d2 Ψ
dR 
2
−
r
−
Er
=
+
r
2mR
dr
2mΨ dφ2
dr2
(4.160)
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
119
che è un’equazione separabile; il primo e il secondo membro devono sempre essere uguali, indipendentemente dal valore di r e φ; scriviamo perciò
d2 Ψ
= −m2l Ψ
2
dφ
(4.161)
dove m2l è una costante; poichè la funzione deve essere univocamente definita e dunque Ψ periodica, ml
è un numero intero. Resta però da risolvere un’equazione in R:
2d
2
R
dR
r
+r
+
2
dr
dr
µ
¶
2mE 2
r − ml 2 R = 0
h̄2
(4.162)
le condizioni al contorno sono: i) la funzione d’onda deve essere continua ovunque, anche all’origine
r = 0; e ii) deve annullarsi sul bordo r = a. Le funzioni che verificano l’equazione radiale con queste
condizioni sono dette funzioni di Bessel di ordine intero:
s
Rml (r) = Jml 
con il vincolo:
s
Jml 

2mE 
r
h̄2
(4.163)

2mEml ,n 
a =0
h̄2
(4.164)
risolvendo l’equazione precedente si trova un set di valori di Eml ,n per ogni valore di ml , con n = 1, 2, . . ..
In definitiva la soluzione generica è:
s
Ψml ,n (r, φ) = exp(iml φ)Jml 

2mEml ,n 
r
h̄2
(4.165)
con la condizione (4.164) sulle autoenergie.
Esempio 30. Fate una ricerca bibliografica sulle proprietà delle funzioni di Bessel e valutate con
l’ausilio di tabelle i valori di E0,l con l =≤ 3, se la massa della particella è quella di un protone e il
raggio della circonferenza è pari a 2 Å.
4.16.5
Particella in e su una sfera
Da due a tre dimensioni il passo è breve, almeno in questo caso. Generalizziamo le precedenti considerazioni al caso di una sfera: studiamo dunque il problema del moto di una particella di massa m su una
sfera di raggio a e poi dentro la medesima sfera. L’hamiltoniano del sistema è in coordinate cartesiane,
in analogia con il caso dell’anello:
h̄2 ˆ 2
∇
(4.166)
2m
dove si è fatto uso dell’operatore laplaciano. Introduciamo ora le coordinate polari sferiche r, φ, θ, vedi
Fig. (4.12):
H=−
x1
x2
x3
= r sin θ cos φ
= r sin θ sin φ
=
r cos θ
(4.167)
120
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
e3
θ
φ
r
e
2
e
1
Figura 4.12: Coordinate polari sferiche.
Il laplaciano assume una forma particolarmente semplice nelle coordinate sferiche:
ˆ 2 = 1 ∂ r2 ∂ + 1 M2
∇
r2 ∂r ∂r r2
M2 =
∂
1 ∂
1 ∂2
+
sin θ
2
2
sin θ ∂θ
sin θ ∂φ
∂θ
(4.168)
(4.169)
dove M2 è anche detto operatore legendriano. Procediamo ora come abbiamo fatto per il caso del
rotatore planare. Se la particella è costretta a muoversi sulla superficie della sfera, trascuriamo le
derivate in r, e poniamo r = R. Dall’equazione di di Schrödinger si ottiene un’equazione in ΨE (φ, θ):
−
h̄2 2
M ΨE = EΨE
2I
(4.170)
dove I = ma2 . La funzione ΨE dovrà essere periodica in φ e in θ. Inoltre deve essere finita a θ = π. La
soluzione generale si può scrivere in termini di funzioni speciali, note come funzioni armoniche sferiche,
che altro non sono, da un certo punto di vista, che l’equivalente tridimensionale degli esponenziali
complessi che sono stati usati nel caso bidimensionale. Varie loro proprietà sono note (e si rimanda
lo studente ad opportuni testi specializzati). Tra le altre proprietà, fondamentale è il fatto che sono
autofunzioni del legendriano:
M2 Ylml (θ, φ) = −l(l + 1)Ylml (θ, φ)
(4.171)
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
121
dove l = 0, 1, . . . e ml = −l, −l + 1, . . . , l − 1, l. Segue dunque che le autoenergie di una particella che si
muova su una sfera sono caratterizzate da:
h̄2
l(l + 1)
(4.172)
2I
Si noti che per ogni autostato, caratterizzato dai numeri quantici l e ml , esistono 2(l + 1) autovalori
degeneri, dato che Elml non dipende da ml .
Procediamo ora con il caso della particella confinata nella sfera. Ora dobbiamo considerare il laplaciano nella sua forma completa. Analogamente al caso precedente, si può assumere che la parte angolare
debba essere quella determinata dal moto sulla sfera:
Elml =
ΨE (r, θ, φ) = R(r)Ylml (θ, φ)
(4.173)
Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale:
1 d 2 dR l(l + 1)
2m
r
−
R + 2 ER = 0
(4.174)
2
2
r dr dr
r
h̄
con le condizioni al contorno che R = 0 per r = a ed R finita a r = 0. In generale avremo dunque delle
funzioni Rnl (r) che si ottengono risolvendo la precedente equazione differenziale ordinaria. Consideriamo
nel seguito il solo caso l = 0, cioè le soluzioni del problema che siano indipendenti dagli angoli polari
(Y0,0 è una costante). L’equazione in R si può porre nella forma ridotta
1 d2
rR − κ2 R = 0
r dr2
(4.175)
q
2mE/h̄2 . La soluzione finita a r = 0 è
dove κ =
sin(κr)
r
e la condizione al contorno impone che ka = 0, vale a dire ancora una volta
R(r) = A
(4.176)
h̄2 n2 π 2
(4.177)
2I
Esempio 31. Normalizzate l’autofunzione radiale. Ricordate che nel passaggio da coordinate cartesiane a coordinate sferiche si ha che:
E=
Z
Z
dx1
4.16.6
Z
dx2
Z
dx2 f (x1 , x2 , x3 ) =
Z
drr
2
Z
dθ sin θ
dφf (r, θ, φ)
Oscillatore armonico
L’oscillatore lineare o armonico è un altro esempio di sistema risolvibile analiticamente, ovvero tale
che le sue autofunzioni sono esprimibili in termini di funzioni note. Il potenziale è definito come una
parabola, con una curvatura mω 2 :
mω 2 2
x
2
ω è la frequenza dell’oscillatore. Consideriamo l’hamiltoniano del sistema:
V (x) =

(4.178)

h̄2 d2
mω 2 2 
−
x ψE (x) = EψE (x)
+
2m dx2
2
(4.179)
122
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Introduciamo per comodità di calcolo la coordinata adimensionale ξ =
diviene:
µ
d2
dξ
ψ +
2 E
q
mω
h̄ x.
L’equazione in ψ(ξ)
¶
2E
− ξ 2 ψE = 0
h̄ω
(4.180)
La funzione ψ deve essere finita per ξ → ∞; per x molto grandi si può trascurare il termine in E rispetto
a ξ 2 , quindi la funzione si deve comportare asintoticamente come exp(−ξ 2 /2):
ψE (ξ) = exp(−ξ 2 /2)χ(ξ)
(4.181)
dove χ(ξ) può anche divergere con ξ → ∞, ma non più velocemente di exp(−ξ 2 /2); possiamo perciò
ottenere l’equazione in χ(ξ):
d2 χ
dξ 2
− 2ξ
dχ
+
dξ
µ
¶
2E
−1 χ=0
h̄ω
(4.182)
La soluzione generica all’equazione differenziale precedente, con la condizione al contorno che per ξ → ∞
la funzione χ non cresca più rapidamente di una potenza finita di ξ (in modo che comunque ψE vada a
zero per ξ → ∞, è data dai polinomi di Hermite, con il vincolo che
2E
− 1 = 2n
(4.183)
h̄ω
ed n deve essere naturale. Le autofunzioni di un oscillatore armonico monodimensionale sono dunque
proporzionali ai polinomi di Hermite, con autovalori quantizzati dall’indice n. La costante di proporzionalità è determinabile, come sempre, dalla condizione di normalizzazione della funzione d’onda.
Sostituendo di nuovo x al posto di ξ infine si trova:
µ
ψn (x) =
mω
πh̄
¶1/4
µ
¶
1
mω 2
x Hn
exp −
1/2
n
2h̄
(2 n!)
"µ
mω
h̄
¶1/2 #
x
(4.184)
cui corrisponde l’autovalore
µ
¶
1
En = n +
h̄ω
(4.185)
2
Esempio 32. Porre in grafico le prime tre autofunzioni di un oscillatore lineare con la massa di un
elettrone e ω = 10−14 s−1 .
La generalizzazione ad un oscillatore armonico in tre dimensioni è semplice. L’equazione di Schrödinger
è data da:
#
"
´
h̄2 ˆ 2 1 ³ 2 2
2 2
2 2
∇ +
(4.186)
−
ω x + ω2 x2 + ω3 x3 ΨE (x1 , x2 , x3 ) = EΨE (x1 , x2 , x3 )
2m
2 1 1
analogamente al caso della particella in tre dimensioni (e in generale in tutti i casi in cui il potenziale
sia scritto come una somma di potenziali separati agenti ciascuno su una coordinata), possiamo scrivere
gli autostati come il prodotto degli autostati lungo ciascuna coordinata
µ
ψn1 ,n2 ,n3 (x) =
Π3i=1
mωi
πh̄
¶1/4
e le autoenergie come somme:
¶
Xµ
1
ni +
E=
h̄ωi
2
i
µ
¶
1
mωi 2
x Hni
exp −
1/2
n
2h̄ i
(2 i ni !)
"µ
mωi
h̄
#
¶1/2
xi
(4.187)
(4.188)
Esempio 33. Qual è la degenerazione in funzione di n = n1 + n2 + n3 dell’autostato E = (n1 +
n2 + n3 + 3/2)h̄ω per un oscillatore armonico tridimensionale con ω1 = ω2 = ω3 = ω?
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
4.16.7
123
Potenziale di Morse
Consideriamo il potenziale
V (x) = D(1 − e−αx )2
(4.189)
detto potenziale di Morse ed è mostrato in Fig. (4.13). Per x → ∞ il potenziale va a D; per x → −∞ il
V(x)
D
x
Figura 4.13: Potenziale di Morse.
potenziale va a +∞. Evidentemente esisteranno autovalori discreti e positivi per E < D, ed uno spettro
continuo per E > D. L’equazione di Schrödinger è data come al solito da
−
h̄2 ∂ 2
ψE (x) + D(1 − e−αx )2 ψE (x) = EψE (x)
2m ∂x2
Introduciamo la variabile ausiliaria ξ che va da 0 a ∞
√
2 2mD
ξ=
exp(−αx)
αh̄
(4.190)
(4.191)
L’equazione di Schrödinger assume la forma ridotta:
∂ 2 ψE
Ã
!
1 ∂ψE
1 n + s + 1/2 s2
+
+
−
+
− 2 ψE = 0
(4.192)
ξ ∂ξ
4
ξ
ξ
∂ξ 2
√
√
2m(D−E)
1
dove s =
e n = 2mD
αh̄
αh̄ − s − 2 . Per ξ → ∞ la funzione deve evolvere come exp(−ξ/2) e per
ξ → 0 come ξ s . La soluzione generica si può scrivere perciò come
ψE (ξ) = exp(−ξ/2)ξ s χ(ξ)
(4.193)
124
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Sostituendo, si trova un’equazione differenziale in χ(ξ) (come si vede la procedura è sostanzialmente
analoga al caso dell’oscillatore armonico):
ξ
∂2χ
∂ξ
2
+ (2s + 1 − ξ)
∂χ
∂ξ
+ nχ = 0
(4.194)
La soluzione generica è detta funzione ipergeometrica confluente e si scrive in generale χ = F (−n, 2s +
1, ξ); sappiamo che χ deve essere finita per ξ → 0; per ξ → ∞ χ non può tendere all’infinito più
rapidamente di una potenza finita di ξ. Queste condizioni si ottengono dallo studio delle proprietà delle
funzioni ipergeometriche confluenti, solo nel caso n intero non negativo. Da ciò segue che le autoenergie
discrete sono:
(
·
¶¸ )
µ
αh̄
1 2
En = D 1 − 1 − √
n+
(4.195)
2
2mD
√
Si noti che se αh̄/ 2mD > 2 non esistono autovalori discreti. Il potenziale di interazione tra gli atomi di
una molecola biatomica può essere rappresentato in modo qualitativo da una curva di Morse. In realtà
possiamo interpretare un sistema rappresentato dalla curva di Morse come un esempio di oscillatore
anarmonico.
4.16.8
Atomo idrogenoide
Concludiamo questa Sezione con un sistema ‘chimico’ semplice, risolvibile analiticamente: il calcolo
dello spettro di autoenergie e delle relative autofunzioni per l’elettrone di un atomo di idrogeno con un
nucleo a riposo. In generale, se il nucleo non è a riposo dobbiamo semplicemente sostituire alla massa
dell’elettrone la massa ridotta del sistema protone/elettrone. L’hamiltoniano del sistema è perciò:
H=−
h̄2 ˆ 2
e2 1
∇ −
2µ
4π²0 r
(4.196)
dove µ è la massa ridotta e il secondo termine è il potenziale coulombiano attrattivo tra il nucleo con
carica +e e l’elettrone con carica −e a distanza r. Il potenziale è a simmetria radiale. Possiamo perciò
procedere senza perdere tempo come nel caso della particella racchiusa in una sfera: i) introduzione di
coordinate sferiche; ii) fattorizzazione della funzione d’onda in una parte angolare dipendente da θ e
φ e in una parte radiale dipendente da r; iii) imposizione di condizioni al contorno per il calcolo delle
autoenergie. La parte angolare dell’autofunzione non cambia, ed è data ancora dalle funzioni armoniche
sferiche: in realtà ciò è vero per qualunque potenziale a simmetria sferica, cioè dipendente solo dal
modulo r:
ΨE (r, θ, φ) = R(r)Ylml (θ, φ)
(4.197)
Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale:
Ã
!
1 d 2 dR l(l + 1)
2m
e2 1
r
−
R
+
E
+
R=0
r2 dr dr
r2
4π²0 r
h̄2
(4.198)
Lo spettro degli autovalori sarà discreto per E < 0, e continuo per E > 0 (il potenziale coulombiano
tende a zero per r → ∞ e a −∞ per r → 0). A questo punto possiamo procedere come in tutti i casi
4.16. SISTEMI RISOLVIBILI ANALITICAMENTE
125
precedenti: l’equazione differenziale in R, con le condizioni al contorno R finita a r → 0 e R → ∞ è
riconoscibile com l’equazione che ha per soluzione delle funzioni note: le funzioni associate di Laguerre
(moltiplicate per l’esponenziale di −r). In definitiva gli autostati e le autoenergie dell’atomo di idrogeno
a riposo sono:
Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ)
(4.199)
dove le funzioni radiali Rnl sono
Rnl = −
2 (n − l − 1)! l 2l+1
ρ Ln+l (ρ) exp(−ρ/2)
na 2n [(n + l)!]3
(4.200)
e gli autovalori corrispondenti sono
En,l,ml = −
µe4
1
2 n2
2
2
32π ²0 h̄
(4.201)
dove ρ = 2r/na ed a = 4π²0 h̄2 /µe2 . Gli autostati discreti sono negativi e dipendono solo da 1/n2 .
Esempio 34. Qual è la degenerazione di ciascun livello energetico dell’atomo di idrogeno a riposo?
E quanto vale il valore di attesa di r rispetto per l’autofunzione con n = l = ml = 0.
126
CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA
Capitolo 5
Metodi di base della chimica quantistica
5.1
Momenti angolari
Nel Capitolo (1), dedicato ad un breve ripasso dei principi fondamentali della meccanica classica, ab~ = ~r × p~. Esprimendo le componenti di L
~
biamo definito il momento angolare di una particella come L
abbiamo
Lx = ypz − zpy
Ly = zpx − xpz
Lz = xpy − ypx
(5.1)
Possiamo costruire l’equivalente operatore quantomeccanico per il momento angolare di una particella
usando il principio di corrispondenza


∂
∂
h̄
−z 
Lx = y
i
∂z
∂y


∂
∂
h̄
Ly = z
−x 
i
∂x
∂z


∂
∂
h̄
Lz = x
−y 
i
∂y
∂x
(5.2)
di particolare importanza è l’operatore modulo quadrato del momento angolare
L2 = L2x + L2y + L2z
(5.3)
Le proprietà generali dell’operatore momento angolare di un punto materiale (o momento angolare
orbitale) sono comuni ad una vasta classe di operatori, caratterizzati in un ultima analisi non dalla
loro forma esplicita, ma, formalmente, solo dalle loro proprietà di commutazione. Ricaviamo perciò ora
esplicitamente le proprietà di commutazione del momento angolare orbitale. È utile considerare le sue
componenti in unità h̄ (che ha le dimensioni di un momento angolare, joule per secondo in unità SI).
Dalle proprietà di commutazione degli operatori posizione e momento, si ricava facilmente
[Lx , x] = 0
[Ly , y] = 0
[Lz , z] = 0
[Lx , y] = iz [Lx , z] = −iy
[Ly , z] = ix [Ly , x] = −iz
[Lz , x] = iy [Lz , y] = −ix
(5.4)
regole analoghe valgono per le proprietà di commutazione con il momento lineare
[Lx , p̂x ] = 0
[Ly , p̂y ] = 0
[Lz , p̂z ] = 0
[Lx , p̂y ] = ip̂z
[Ly , p̂z ] = ip̂x
[Lz , p̂x ] = ip̂y
[Lx , p̂z ] = −ip̂y
[Ly , p̂x ] = −ip̂z
[Lz , p̂y ] = −ip̂x
(5.5)
127
128
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
In forma compatta, possiamo scrivere
[Li , xj ] = i²ijk xk
[Li , p̂j ] = i²ijk p̂k
(5.6)
dove ²ijk è il tensore di Levi-Civita o tensore di unità assiale: le sue 27 componenti sono pari a +1 se gli
indici i, j, k sono una permutazione pari di 1,2,3, −1 se sono una permutazione dispari, zero altrimenti.
Dalle precedenti espressioni possiamo ricavare finalmente le operazioni di commutazione del momento
angolare con se stesso
[Lx , Lx ] = 0 [Lx , Ly ] = iLz
[Ly , Ly ] = 0 [Ly , Lz ] = iLx
[Lz , Lz ] = 0 [Lz , Lx ] = iLy
[Lx , Lz ] = −iLy
[Ly , Lx ] = −iLz
[Lz , Ly ] = −iLx
(5.7)
o in forma compatta
[Li , Lj ] = i²ijk Lk
(5.8)
Rispetto all’operatore L2 , le regole di commutazione sono ricavabili dalla (5.3)
[L2 , Lx ] = [L2 , Ly ] = [L2 , Lz ] = 0
(5.9)
Relazioni analoghe valgono per il momento angolare di un sistema di particelle o di un corpo rigido
(vedi Capitolo (1)), le cui componenti indichiamo nel seguito con il simbolo Jˆi
[Jˆi , Jˆj ] = i²ijk Jˆk
(5.10)
2
2
2
[Jˆ , Jˆx ] = [Jˆ , Jˆy ] = [Jˆ , Jˆz ] = 0
(5.11)
e come vedremo in seguito, per le componenti del momento angolare di spin di una particella o di un
sistema di particelle. In generale possiamo definire un operatore vettore come un operatore momento
angolare se valgono relazioni di commutazione analoghe alle (5.8) e (5.9).
5.2
Autovalori ed autovettori dei momenti angolari
2
Consideriamo un generico momento angolare (adimensionale), che indichiamo con ˆl , ˆli , per cui valgono
le proprietà di commutazione
[ˆli , ˆlj ] = i²ijk ˆlk
2
[ˆl , ˆli ] = 0
(5.12)
Le proprietà di commutazione degli operatori momento angolare hanno un’importante conseguenza:
poichè le singole componenti non commutano tra loro, non è possibile misurare con una precisione
arbitraria il momento angolare di un sistema: solo il modulo quadro e una delle componenti sono
2
conoscibili in modo completo, cioè possiamo definire un set completo di autostati comuni a ˆl e ˆlz (o
una qualunque delle componenti). In meccanica quantistica possiamo misurare con precisione arbitraria
il modulo del momento angolare di un sistema e la sua proiezione lungo uno degli assi del sistema di
riferimento (che nel seguito sarà sempre l’asse z).
5.2. AUTOVALORI ED AUTOVETTORI DEI MOMENTI ANGOLARI
129
2
È possibile ricavare gli autovalori della coppia ˆl e ˆlz nonchè le proprietà generali degli autostati
dalle sole proprietà di commutazione. L’operatore modulo quadro può essere scritto nella forma
ˆl2 = ˆl+ ˆl− + ˆlz
(5.13)
dove definiamo con ˆl± = ˆlx ± ˆly gli ’operatori scaletta’ che, vedremo, hanno molte interessanti caratteristiche. Il termine ’operatori scaletta’ od ’operatori di spostamento’ dipende dalla loro azione sugli
autostati. Per cominciare, diamo le relazioni, facilmente dimostrabili
[ˆlz , ˆl± ] = ±ˆl±
2
[ˆl± , ˆl ] = 0
(5.14)
†
dunque ˆl+ e ˆl− , che sono aggiunti l’uno dell’altro (ˆl+ = ˆl− ), non commutano fra loro, ma commutano
2
2
con ˆl . e chiamiamo |a, mi gli autostati (normalizzati) di ˆl e ˆlz :
ˆl2 |a, mi = a|a, mi
ˆlz |a, mi = m|a, mi
(5.15)
dove a e m numeri per ora arbitrari. Grazie alle relazioni (5.14), si verifica che
ˆlz ˆl± |a, mi = (m + ±)|a, mi
(5.16)
quindi ˆl+ ed ˆl− aumentano o diminuiscono di un’unità gli autovalori di ˆlz . Poichè invece commutano
2
con ˆl non hanno effetto sui valori di a. Dalle relazioni precedenti segue che
ˆl± |a, mi = c± |a, m ± 1i
(5.17)
dove c± sono costanti da definirsi. I due operatori di spostamento sono aggiunti l’uno dell’altro; dunque
2
ha, m|ˆl+ ˆl− |a, mi ≥ 0 (dimostratelo) è hermitiano, perciò ha, m|ˆl − ˆlz (ˆlz + 1)|a, mi = a − m(m + 1) ≥ 0.
Partendo dal valore di attesa di ˆl− ˆl+ otteniamo un’espressione analoga; in definitiva valgono le seguenti
disequazioni
a − m(m ± 1) ≥ 0 → a ≥ m2
(5.18)
Per ogni a abbiamo perciò una valore minimo e massimo di m, che chiamiamo m e m. Poichè per
definizione ˆl+ |a, mi = ˆl− |a, mi = 0 e quindi a − m(m + 1) = a − m(m − 1). Segue che il valore massimo
e minimo sono legati dalla relazione m2 + m − m(m − 1) = 0, ovvero m = m − 1 (da scartare perchè
m ≥ m e m = −m. Chiamiamo l il valore di m, e rinominiamo il genrico ket come |l, mi:
ˆl2 |l, mi = l(l + 1)|l, mi
ˆlz |l, mi = m|l, mi
(5.19)
e combinando le relazioni precedenti si ottengono anche i valori espliciti di c± :
ˆl± |l, mi =
q
l(l + 1) − m(m ± 1)|l, m ± 1i
(5.20)
Applicando ˆl+ ad una generica |l, −li si generano autostati di ˆlz con autovalori −l + 1, −l + 2, . . ., l.
Quindi l − (−l) = 2l deve essere un numero intero, cioè l può essere un intero o un multiplo di 1/2.
Tutte queste conclusioni sono state tratte partendo dalle sole relazioni di commutazione, senza
invocare alcuna forma particolare degli operatori momento angolare. Sono dunque applicabili ad ogni
operatore angolare, e proprietà analoghe alle (5.19) e (5.20) valgono anche per gli autostati comuni
2
anche ad operatori che commutino con ˆlz e ˆl .
130
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
5.3
Forma esplicita del momento angolare orbitale
Il momento angolare orbitale può essere posto in forma esplicita in coordinate sferiche x = r cos φ sin θ,
y = r sin φ sin θ, z = r cos θ. Dopo aver trasformato le derivate rispetto alle coordinate cartesiane in
derivate rispetto alle coordinate sferiche si ottiene
Lz = −i
L2 = −
∂
(5.21)
∂φ
∂
1 ∂
1 ∂2
sin θ
2 ∂φ2 − sin θ
sin θ
∂θ
∂θ
(5.22)
2
si noti che L2 = −M̂ , operatore legendriano, già incontrato durante lo studio del moto di una particella
su una sfera. Le autofunzioni di L2 e ˆlz sono dunque le armoniche sferiche, giv̀iste nella medesima
occasione
L2 Ylm (θ, φ) = l(l + 1)Ylm (θ, φ)
(5.23)
Lz Ylm (θ, φ) = mYlm (θ, φ)
(5.24)
con l ≥ 0 intero, e −l ≤ m ≤ l. Le funzioni armoniche sferiche possono essere scritte nella forma
(−1)l
Ylm (θ, φ) = l
2 l!
s
(2l + 1)(l − |m|)! |m|
Pl (cos θ)eimφ
4π(l + |m|)!
(5.25)
|m|
le funzioni Pl (x) sono dette funzioni associate di legendre di grado l e ordine |m| e sono definibili in
funzione dei polinomi di Legendre (vedi Appendice (A))
|m|
Pl
5.4
(x)(1 − x2 )|m|/2
d|m|
Pl (x)
dx|m|
(5.26)
Il rotatore rigido
Il formalismo degli operatori momento angolare trova un’applicazione immediata allo studio degli autostati di un rotatore rigido. Consideriamo due masse m1 e m2 a distanza fissa R. Il sistema ruota
intorno al centro di massa, fisso nell’origine del sistema di riferimento. L’energia cinetica classica del
sistema é
T =
ω2
Iω 2
L2
(m1 r12 + m2 r22 ) =
=
2
2
2I
(5.27)
dove ri è la distanza dal centro di massa della massa mi , ed omega è la velocità angolare di rotazione.
L’energia cinetica può anche essre scritta in funzione del momento angolare classico, che per questo
sistema è semplicemente L = Iω e del momento di inerzia I = m1 r12 + m2 r22 , od anche I = µR2 dove
µ = m1 m2 /(m − 1 + m2 ) è la massa ridotta del sistema. L’hamiltoniano del sistema è perciò (usando
la forma adimensionale dell’operatore momento angolare)
H=−
h̄2 2
L
2I
(5.28)
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
131
Le auofunzioni del rotatore sono dunque le armoniche sferiche Ylm (θ, φ) con autovalori
h̄2 l(l + 1)
2I
ogni livello energetico è degenere 2l + 1 perchè corrisponde ai possibili autostati di Lz .
El =
5.5
(5.29)
Approfondimento: momenti angolari
5.5.1
Accoppiamento di due momenti angolari
Consideriamo due generici momenti angolari ̂1 e ̂2 . I due operatori vettori agiscono su spazi diversi, e
quindi le loro componenti commutano fra loro [̂1i ,̂2,j ] = 0 (i, j = x, y, z). L’operatore somma ̂ = ̂1 +̂2
è ancora un momento angolare, infatti
[̂i ,̂j ] = [̂1i ,̂1j ] + [̂2i ,̂2j ] = i²ijk (̂1k + ̂2k ) = i²ijk ̂k
(5.30)
Possiamo ora selezionare due quaterne di operatori con un set di autostati comuni, cioè che commutano
reciprocamente: la prima e quasi ovvia è data da ̂21 , ̂1z , ̂22 , ̂2z , che ammetteranno come autostati
comuni gli stati ottenuti come il prodotto diretto degli autostati dei due momenti angolari di partenza,
|j1 m1 , j2 m2 i = |j1 m1 i|j2 m2 i; lo spazio complessivo ha dimensione (2j1 + 1)(2j2 + 1)) e gli autovalori
sono rispettivamente j1 , m1 , j2 , m2 . La seconda quaterna è data da ̂21 , ̂22 , ̂2 , ̂z ; gli autostati comuni
sono indicati come |j1 j2 jmi e lo spazio complessivo ha naturalmente la stessa dimensione, come verrà
discusso fra breve, e gli autovalori sono j1 , j2 , j, m. In pratica, nel passaggio dalla prima alla secopnda
quaterna di operatori si sta semplicemnte operando una trsformazione unitari della base originaria
(disaccoppiata) nella base finale (accoppiata). Possiamo usare la comoda notazione di Dirac
|j1 j2 j, mi =
X
|j1 m1 , j2 m2 ihj1 m1 , j2 m2 |j1 j2 j, mi
(5.31)
m1 ,m2
per indicare la trasformazione che porta dalla base disaccoppiata alla base accoppiata, e viceversa
|j1 m1 , j2 m2 i|j1 j2 jmi =
X
|j1 j2 jmihj1 j2 jm|j1 m1 , j2 m2 i
(5.32)
j,m
I coefficienti (reali per convenzione) hj1 m1 , j2 m2 |j1 j2 jmi = hj1 j2 jm|j1 m1 , j2 m2 i = C(j1 j2 j; m1 m2 m)
della trasformazione sono detti coefficienti di Clebsch-Gordan (CG) o coefficienti di Wigner. Si
noti che per l’unitarietà della matrice dei coefficienti CG (o per l’ortonormalità dlle basi accoppiata e
disaccoppiata) il prodotto di due righe o due colonne è zero (righe/colonne diverse) o uno (righe/colonne
uguali), vale a dire
X
hj1 j2 jm|j1 m1 , j2 , m2 ihj1 m1 , j2 , m2 |j1 j2 j 0 m0 i = δj,j 0 δm,m0
(5.33)
m1 ,m2
X
j,m
hj1 m1 , j2 , m2 |j1 j2 jmihj1 j2 jm|j1 m01 , j2 , m02 i = δm1 ,m01 δm2 ,m02
(5.34)
Quali sono le condizioni imposte a j ed m? Un coeffciente CG vale zero a meno che m = m1 + m2 e
|j1 − j2 | ≤ j ≤ j1 + j2 . Infatti applicando jz alla (5.31) si ottiene
X
m1 ,m2
(m1 + m2 )|j1 m1 , j2 m2 ihj1 m1 , j2 m2 |j1 j2 j, mi =
X
m01
m02 m|j1 m01 , j2 m02 ihj1 m01 , j2 m02 |j1 j2 j, mi(5.35)
132
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
che può essere verificata solo se m − m1 − m2 = 0. Segue da ciò che il massimo valore possibile di
m è dato dalla somma dei valori amssimi di m1 e m2 , quindi mmax = j1 + j2 = jmax , dove l’ultima
uguaglianza discende dal fatto che −j ≤ m ≤ j per ogni valore di j. Possiamo ora raggruppare gli stati
accoppiati e disaccoppiati caratterizzati dallo stesso valore di m, partendo dal valore massimo mmax .
Per m = mmax esiste solo uno stato; per m = mmax esistono due stati ( in tabella si può vedere la loro
m
mmax
mmax − 1
accoppiata |(j1 j2 )jmi
|j1 + j2 , j1 + j2 i
|j1 + j2 , j1 + j2 − 1i,|j1 + j2 − 1, j1 + j2 − 1i
..
.
disaccoppiata |j1 m1 , j2 m2 i
|j1 j1 , j2 j2 i
|j1 j1 , j2 j2 − 1i, |j1 j1 − 1, j2 j2 i
Tabella 5.1: Base accoppiata vs. base disaccoppiata
rappresentazione accoppiata o disaccoppiata) e cosı̀ via. Ad ogni nuovo valore di m è incluso uno stato
accoppiato con un j ridotto di un’unità rispetto agli stati associati al valore di m precedente. In totale
si dovrà pervenire ad un valore minimo di j, tale che
jX
max
(2j + 1) = (2j1 + 1)(2j2 + 1) ≡ [jmax (jmax + 1) − jmin (jmin − 1)]/2
(5.36)
jmin
l’ultima identità si verifica da proprietà elementari di somme fra interi (o seminteri), da cui discende
che se jmax = j1 + j2 , l’unico valore non-negativo possibile di jmin è jmin = |j1 − j2 .
I coefficienti hj1 m1 j2 m2 |j3 m3 i CG possono essere ricavati in forma esplicita in funzione degli interi
(seminteri) j1 , m1 , j2 , m2 , j3 , m3 (formule di Racah), e godono di numerose proprietà di simmetria,
che possono essere più facilmente riassunte se si scrivono i coefficienti CG in funzione dei simboli 3-j:
Ã
j1 j2 j3
m1 m2 m3
!
= (−1)j1 −j2 −m3 (2j3 + 1)−1/2 hj1 m1 j2 m2 |j3 − m3 i
(5.37)
Ogni permutazione pari di colonne di un simbolo 3-j lascia il suo valore invariato; ogni permutazione
dispari moltiplica il valore del simbolo risultante per (−1)j1 +j2 +j3 . Analogo effetto ha il cambio di segno
di tutti gli indici della seconda riga.
5.5.2
Accoppiamento di tre o più momenti angolari
Consideriamo brevemente in questa sezione l’accoppiamneto fra più di due momenti angolari. Se partiamo da tre momenti angolari, ̂1 , ̂2 e ̂3 possiamo immaginare di combinare per esempio ̂1 con ̂2 per
dare ̂12 che poi, combinato con ̂3 , dà il momento angolare totale ̂. I set di operatori che commutano
fra loro sono ̂21 , ̂1z , ̂22 , ̂2z ,̂23 , ̂3z e ̂21 , ̂22 , ̂23 , ̂212 , ̂2 ,̂z . La relazione tra base accoppiata |j1 j2 j3 j12 jmi e
disaccoppiata è
|j1 j2 j3 j12 jmi =
X
|j1 m1 , j2 m2 , j3 m3 ihj1 m1 , j2 m2 |j1 j2 j12 m12 ihj12 m12 , j3 m3 |j12 j3 jmi (5.38)
m1 ,m2 ,m3 ,m12
Ma uno schema di accoppiamento equivalente può essere di sommare prima ĵ2 e ĵ3 e di aggiungere poi
al risultante ĵ23 il vettore rimanente bhj1 . Il nuovo set di operatori con autostati comuni è ̂21 , ̂22 , ̂23 , ̂223 ,
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
133
e vale la relazione tra base accoppiata e base disaccoppiata
X
|j1 j2 j3 j23 jmi =
|j1 m1 , j2 m2 , j3 m3 ihj2 m2 , j3 m4 |j2 j3 j23 m23 ihj23 m23 , j1 m1 |j23 j1 jmi (5.39)
m1 ,m2 ,m3 ,m23
Le due nuove basi rappresentano comunque lo stesso spazio di dimensione (2j1 + 1)(2j2 + 1)(2j3 + 1) e
sono dunque ottenibili l’una dall’altra mediante una trasformazione unitaria. Possiamo scrivere
|j1 j2 j3 j23 jmi =
X
|j1 j2 j3 j12 jmihj1 j2 j3 j12 jm|j1 j2 j3 j23 jmi
(5.40)
j1 2
I coefficienti hj1 j2 j3 j12 jm|j1 j2 j3 j23 jmi ≡ hj12 j3 j|j1 j23 ji sono indipendenti da m è possono, con un po’
di pazienza, espressi sotto forma di somme di coefficienti CG. I coefficienti oggi noti come coefficienti di
Racah 1 furono definiti da Racah come
W (j1 j2 jj3 ; j12 j23 ) = [(2j12 + 1)(2j23 + 1)]−12 hj12 j3 j|j1 j23 ji
(5.41)
Una rappresentazione più conveniente è fornita dai simboli 6-j, introdotti da Wigner
(
j1 j2 j12
j3 j j23
)
= (−1)j1 +j2 +j3 +j W (j1 j2 jj3 ; j12 j23 )
(5.42)
che esibiscono numerose proprietà (per esempio: sono invarianti rispetto allo scambio di due colonne o
degli elementi superiore ed inferiore di una colonna). La relazione (o meglio una possibile relazione) tra
simboli 3-j e 6-j è la seguente:
(
j1 j2 j3
j4 j5 j6
)
=
X
(−1)j1 −m1 +j2 −m2+j3 −m3 +j4 −m4 +j5 −m5 +j6 −m6
m
Ã
×
Ã
×
j1
j2
j3
−m1 −m2 −m3
j2
j6
j4
m2 −m6 m4
!Ã
!Ã
j1
j5
j6
m1 −m5 m6
j3
j4
j5
m3 −m4 m5
!
(5.43)
!
L’accoppiamento di quattro momenti angolari porta alla definizione di una nuova serie di coefficienti,
detti 9-j. Ancora una volta, sono possibili vari schemi di accoppiamento, e le varie basi accoppiate sono
legate da traformazioni unitarie. Per esempio, possiamo accoppiare ̂1 e ̂4 per dare ̂14 e ̂2 e ̂3 per dare
̂23 ; infine possiamo accoppiare ̂14 e ̂23 per dare ̂. Oppure possiamo accoppiare prima ̂1 e ̂2 per dare
̂12 e ̂3 e ̂4 per dare ̂34 . Le due basi sono ottenute l’una dall’altra come
|(j1 j4 )j14 (j2 j3 )j23 jmi =
X
|(j1 j2 )j12 (j3 j4 )j34 jmih(j1 j2 )j12 (j3 j4 )j34 j|j1 j4 )j14 (j2 j3 )j23 ji
(5.44)
j12 j34
e i coefficienti non dipendono da m. I simboli 9-j sono definiti come


 j1
1/2
h(j1 j2 )j12 (j3 j4 )j34 j|j1 j4 )j14 (j2 j3 )j23 ji = [(2j12 + 1)(2j34 + 1)(2j14 + 1)(2j23 + 1)]
j3


j14
1
j2
j4
j23
j12
j34
j





(5.45)
Giulio Racah è un fisico e matematico italiano, di origine israelita; noto anche come Joel Racah e Yoel Racah. Nel 1939,
a causa delle leggi razziali italiane, Racah emigrò in Palestina e da allora svolse la sua attività alla Hebrew University di
Gerusalemme; Racah derivò per primouna procedura generale per classificare i livelli energetici di atomi con configurazione
”open shell”
134
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
Ancora una volta, varie proprietà di simmetria sono identificabili: il simbolo 9-j non cambia per una
permutazione pari di righe o colonne, e viene moltiplicato per (−1)j1 +j2 +j12 +j3 +j4 +j34 +j14 +j23 +j a causa
di una permutazione dispari; inoltre può essere scritto in funzione dei simboli 6-j come



 j1

(
)(
)(
)
j2 j3 

 X
j1 j4 j7
j2 j5 j6
j3 j6 j9
0
2j 0
=
(−1) (2j + 1)
j5 j6

j8 j9 j 0
j4 j 0 j6
j 0 j1 j2


j0
j8 j9
j4


 j
7
5.5.3
(5.46)
Rotazioni
Consideriamo un sistema descritto da due basi |ui i e |vi i. Le due basi sono legate da una trasformazione
lineare Û
|vi i = Û |ui i
(5.47)
se vogliamo che le due basi abbiano la medesima lunghezza dei singoli vettori e che due generici vettori
†
formino i medesimi angoli cioè che hvi |vj i = hui |Û Û |uj i = hui |uj i, l’operatore Û deve essere unitario:
†
Û Û = 1̂
(5.48)
Un generico stato |φi può essere rappresentato come
|φi =
X
|ui ihui |φi
(5.49)
i
e lo stato ’ruotato’ Û |φi = |ψi è semplicemente
|ψi =
X
†
|vi ihui |Û Û |φi =
i
X
|vi ihvi |ψi
(5.50)
i
Il valore medio di un’osservabile generico, rappresentato da un operatore Ô su uno stato generico ketφ,
†
†
è dato da O = hφ|Ô|φi = hψ|Û ÔÛ |ψi. Quindi l’operatore ruotato è dato da Û ÔÛ .
Un generico operatore della forma 1̂+i²Ŝ dove ² è un infinitesimo, è unitario al primo ordine in ² solo
†
se Ŝ = Ŝ, cioè se Ŝ è hermitiano; 1̂ + i²Ŝ è una trasformazione infinitesima (unitaria). Consideriamo
ora un’operatore ottenuto applicando n volte la trasformazione infinitesima con ² = τ /n
µ
τ
Û n = 1̂ + i Ŝ
n
¶n
(5.51)
nel limite n → ∞ possiamo scrivere
µ
Û = lim Û n = lim
n→∞
n→∞
τ
1̂ + i Ŝ
n
¶n
Û = exp(iτ Ŝ)
(5.52)
che è ancora un operatore unitario. L’operatore hermitiano Ŝ si dice generatore della trasformazione
infinitesima, mentre Û rappresenta una trasformazione finita. Si noti che Û e Ŝ commutano (Û è
funzione di Ŝ) e quindi ammettono autostati comuni. Un classico esempio di trasformazione finita,
convenientemente espressa a partire dalla relativa trasformazione infinitesima, è dato dalla rotazione.
Consideriamo un asse orientato rispetto al quale si vuole ruotare un sistema: una rotazione positiva è
data da quella trasformazione che fa girare di un angolo dato α una vita destrogira che avanza nella
direzione positiva dell’asse. Una rotazione generica R̂n (α) di un sistema è quindi identificata da tre
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
135
parametri: un versore n̂ e l’angolo α. Se per esempio fissiamo il nostro asse lungo l’asse z del sistema
di riferimento (SDR), la trasformazione R̂z (φ) è quella trasformazione attiva che ruota il sistema di un
angolo φ a partire da un valore iniziale Φ0 (quindi l’orientazione del sistema passa nello stesso SDR da
Φ0 a Φ0 + φ), e quindi è equivalente ad una trasformazione passiva che ruota il sistema di riferimento
di un angolo −φ (quindi l’orientazione del sistema passa da Φ0 nel SDR iniziale a Φ1 = Φ0 − φ nel SDR
ruotato). Nel seguito consideriamo la rotazione come passiva, cioè teniamo fisso il sistema e cambiamo
il SDR. Per un angolo generico φ lo stato del sistema è ottenibile come
|Φ1 i = |Φ0 i + (−φ)

= exp −φ
∂
∂φ
|Φ0 i +

∂
∂φ
∂2
1
(−φ)2
|Φ0 i + . . .
2!
∂phi2
³
´
 |Φ0 i = exp −iφJˆz |Φ0 i = R̂z (φ)|Φ0 i
(5.53)
∂
dove abbiamo definito Jˆz = i
come l’operatore di rotazione infinitesimale attorno all’asse z del SDR.
∂φ
Analogamente possiamo definire Jˆx e Jˆy , che formano un set di tre operatori con le proprietà di un
momento angolare; per una rotazione generica abbiamo invece che
³
´
R̂n (α) = exp −iαĴn̂
(5.54)
dove Ĵ è l’operatore momento angolare del sistema, definito nel SDR (supposto fisso) iniziale e dove
∂
vale che Ĵn̂ ≡ −i .
∂α
5.5.4
Matrici di Wigner
Come abbiamo già visto in una delle sezioni precedenti, l’orientazione relativa di due sistemi di riferimento può essere indicata da un set di angoli, detti angoli di Eulero Ω = (α, β, γ). La propriet`
principale che rende gli angoli di Eulero particolarmente utili è il fatto che la rotazione complessiva che
porta il sistema di riferimento iniziale (laboratorio, SL) a quello finale (molecolare, SM), può essere
scritta come il prodotto di tre rotazioni consecutive successive, definite nel SL. Si può dimostrare infatti
che:
R̂(Ω) = exp(−iαJˆZ ) exp(−iβ JˆY ) exp(−iγ JˆZ )
(5.55)
Partendo dalla definizione degli angoli di Eulero, possiamo definire la forma esplicita dell’operatore
momento angolare, definito nel SL. Un generico versore n̂ avrà infatti componenti cartesiane nel SL
X̂,Ŷ ,Ẑ, che possono essere impiegate per scrivere le componenti associate ai tre angoli di Eulero
n̂α = n̂Z
n̂β = −n̂X sin α + n̂Y cos α
n̂γ
= n̂X sin β cos α + n̂Y sin β cos α + n̂Z cos α
(5.56)
136
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
dopo qualche passaggio trigonometrico. Tenendo conto che le tre componenti angolari di Ĵ sono semplicemente le derivate rispetto agli angoli di Eulero (a meno di una fattore −i), otteniamo


JˆX
∂
1 ∂ 
= −i cos α − cot β
+
+ i sin α
∂α sin β ∂γ
∂β
∂


∂
JˆY
∂
1 ∂ 
= −i sin α − cot β
+
− i cos α
∂α sin β ∂γ
∂β
JˆZ
= −i
(5.57)
∂
∂α
Si noti che possiamo esprimere le componenti dell’operatore Ĵ in un qualunque sistema di riferimento,
anche in quello molecolare. In questo caso abbiamo che le componenti del versore espresse nel SM sono
legate quelle relative agli angoli di Eulero come
n̂α = −n̂x sin β cos γ + n̂y sin β cos γ + n̂z cos γ
n̂β = n̂x sin γ + n̂y cos γ
n̂γ
(5.58)
= n̂z
e che le componenti del momento angolare sono

Jˆx

∂
1 ∂ 
= −i cos α cot β
−
− i sin γ
∂γ sin β ∂α
∂β
∂

Jˆy

∂
∂
1 ∂ 
= i sin γ cot β
−
− i cos γ
∂γ sin β ∂α
∂β
(5.59)
∂
Jˆz = −i
∂γ
Si noti che le componenti di Ĵ presentano proprietà di commutazione anomale:
[Jˆi , Jˆj ] = −i²ijk Jˆj
(5.60)
Consideriamo ora l’effetto di una rotazione generica su uno autostato generico
³
´|JM i dell’operatore
2
Ĵ . Poichè la rotazione generica è funzione di Ĵ, dato che R̂n (α) = exp −iαĴn̂ , commuta con Ĵ .
Quindi:
2
R̂(Ω)|JM i =
X
J
0
DM
0 M (Ω) |JM i
(5.61)
M0
0
J
I coefficienti DM
0 M (Ω) = hJM |R̂(Ω)|JM i|JM i sono gli elementi di una matrice di dimensione 2J + 1
detta matrice di rotazione o matrice di Wigner. Nel seguito vengono elencate alcune importanti
proprietà della matrice di Wigner.
Definizione: una matrice di Wigner dipende da un set di angoli di Eulero Ω ed ha la forma generale:
L
−iM α L
DM
dM, K (β) e− i K γ
K (Ω) = e
(5.62)
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
137
dove dL
M, K (β) è una matrice ridotta di Wigner calcolabile secondo la formula:
dL
M K (β) =
X
(−)h
h
[(L + M )! (L − M )! (L + K)! (L − K)! ]1/2
×
(L + M − h)! (L − K − h)! h! (h + K − M )!
(5.63)
× (cos β/2)2L+M −K−2h (sin β/2)2h+K−M
dove la sommatoria corre su tutti quei valori di h per i quali i fattoriali rimangono non negativi.
Simmetria: esiste una semplice relazione tra una matrice di Wigner e la complessa coniugata
∗
L
M −K L
L
DM
D− M − K (Ω) = DK
K (Ω) = (−)
M (−Ω)
(5.64)
Prodotto: il prodotto di due matrici di Wigner si scrive come
L1
DM
1 K1
(Ω)
L2
DM
2 K2
(Ω) =
X
Ã
[L3 ]
L3
L1 L2 L3
M1 M2 M3
!Ã
L1 L2 L3
K1 K2 K3
!
∗
L3
DM
(Ω)
3 K3
(5.65)
dove L3 = |L1 − L2 |, . . . , (L1 + L2 ), M3 = − (M1 + M2 ), K3 = − (K1 + K2 ) e [L3 ] =
2 L3 + 1.
Prodotto interno: tra due matrici di Wigner (omettendo la dipendenza da Ω):
Z
L1 ∗
L2
dΩ DM
DM
=
1 K1
2 K2
8 π2
δL , L δM , M δK , K
[L1 ] 1 2 1 2 1 2
(5.66)
fra tre matrici di Wigner:
Ã
Z
L1
L2
L3
dΩ DM
DM
DM
= 8 π2
1 K1
2 K2
3 K3
L1 L2 L3
M1 M2 M3
!Ã
L1 L2 L3
K1 K2 K3
!
(5.67)
Trasformazione per rotazione: dato un tensore sferico irriducibile T (l, m)a (vedi oltre) espresso
nel sistema di riferimento a, la sua espressione in un sistema di riferimento b si ottiene dalla
trasformazione:
T (l, m)a =
X
l
Dm
k (Ωa→b ) T (l, k)b
(5.68)
k
dove Ωa→b indica il set di angoli di Eulero che trasforma da a a b. La trasformazione inversa si
ottiene semplicemente:
T (l, k)b =
X
l∗
Dm
k (Ωb→a ) T (l, m)a
m
(5.69)
138
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
Operatori momento angolare: una matrice di Wigner dipendente da un set di angoli di Eulero Ω
che mettono in relazione due sistemi di riferimento a e b è autofunzione degli operatori momento
angolare e proiezione lungo l’asse z del momento angolare, definiti nei due sistemi di riferimento.
Per il sistema di riferimento a:

a 2
L
L


 Ĵ , DM K (Ω) = L (L + 1) DM K (Ω)
a Jˆ
DL
(Ω) = − M DL
(Ω)
Z MK
MK


 aˆ
∓
L
L
J± DM K (Ω) = − cL, M DM
∓ 1 K (Ω)
(5.70)
Per il sistema di riferimento b:

L
b 2 L


 Ĵ DM K (Ω) = L (L + 1) DM K (Ω)
b Jˆ
DL
(Ω) = − K DL
(Ω)
Z MK
MK


 bˆ
±
L
L
(Ω)
=
−
c
J± DM
K
L, M DM K ± 1 (Ω)
in cui c±
L, M =
5.5.5
p
(5.71)
L (L + 1) − M (M ± 1).
Tensori sferici
Concludiamo questa sezione di approfondimento con una presentazione delle proprietà dei tensori sferici
irriducibili. Si dice tensore sferico irriducibile di rango k un insieme di 2k+1 oggetti (funzioni, operatori)
ciascuno caratterizzato dal valore q = −k, −k + 1, . . . , k − 1, k che trasforma sotto rotazione del sistema
di riferimento come
R̂T (k, q)R̂
−1
=
X
Dqk0 q T (k, q 0 )
(5.72)
q0
sottoposto ad una rotazione del sistema di riferimento (trasformazione unitaria), l’operatore T (k, q) si
trasforma in una combinazione lineare di 2k + 1 operatori e i coefficienti della combinazione lineare
sono dati dalla matrice di Wigner per la rotazione. Esempio ovvi ma importanti di operatore scalare:
l’hamiltoniano di una molecola isolata o l’orbitale 1s dell’atomo di idrogeno.
Qual è il significato fisico-geometrico dei tensori sferici irriducibili? Se consideriamo per esempio i
−1
tensori di rango zero, abbiamo che R̂T (0, 0)R̂ = D00 0 T (0, 0) = T (0, 0): un tensore sferico irriducibile
di rango zero è invariante rispetto alla rotazione, vale a dire è un operatore scalare. Per k = 1 abbiamo
tre possibili componenti T (1, q) con q = 0, ±1. Le tre componenti constituiscono una base irriducibile
del gruppo di rotazione tridimensionale (vedi oltre), e trasformano quindi come un operatore vettore (o
dipolo). Un esempio di operatore di rango uno è dato dall’operatore dipolare o dai tre orbitali 2p di un
atomo di idrogeno. In particolare lo stesso operatore posizione r = (x, y, z) può essere immediatamente
scritto come un tensore sferico di rango uno
q
T (1, 1) = −(x + iy)/ (2)
T (1, 0) = z
q
T (1, −1) = (x − iy)/ (2)
(5.73)
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
139
Analogamente un tensore sferico irriducibile di rango due può essere associato ad un momento di
quadrupolo, o agli orbitali 3d di un atomo di idrogeno. Più in generale, un esempio di tensore di
rango l è dato dalle armoniche sferiche Ylm (θ, φ). In generale si ha che:
R̂Ylm (θ, φ)R̂
−1
=
X
l
Dm
0 m Ylm0 (θ, φ)
(5.74)
m0
quindi un generico tensore trasforma sotto rotazione come le armoniche sferiche. In effetti possiamo
dire che un generico tensore di rango k trasforma sotto rotazione secondo la rappresentazione irriducibile Dk del gruppo di simmetria delle rotazioni SO(3). Una definizione alternativa delle proprietà dei tensori sferici irriducibili può anche essere data nei termini delle relazioni
di commutazione con le componenti del momento angolare Ĵ: [Jˆz , T (k, q)] = qT (k, q) e [Jˆ± , T (k, q)] =
p
k(k + 1) − q(q ± 1)T (k, q ± 1).
Infine le relazioni generali tra le componenti di un tensore sferico irriducibile nel SL e nel SM
sono ottenibili tenendo conto delle relazioni di commutazione normale ed anomala tra le componenti
dell’operatore momento angolare nei due sistemi di riferimento. In generale abbiamo:
M
X
T (k, q) =
Dpk q L T (k, p)
(5.75)
p
L
X
T (k, p) =
∗
Dpk q L T (k, q)
(5.76)
q
Relazioni tra tensori sferici e cartesiani
In modo compatto, nel seguito indichiamo un tensore di rango k come T(k) , ed una generica componente
come T (k, q). Un qualsiasi tensore cartesiano di rango T(1) uno può essere scritto in una base sferica
secondo la relazione:


T (1, 1)

T

 X






 = U  TY










 T (1, 0)



T (1, −1)












U = 




1
−√

2

con
TZ
i
−√
2
0
0
1
√
2
i
−√
2

0




1 




(5.77)
0
oppure:
T (1, µ) =
X



 µ = −1, 0, 1
Uµ A TA
A
con


 A = X, Y, Z
(5.78)
Analogamente, le componenti di un tensore cartesiano di rango due possono essere espresse nella base
sferica come segue:
TA B =
X
µ, ν
Uµ† A Uν† B T (1, µ) T (1, ν)
(5.79)
Da cui si vede che il tensore di rango due è esprimibile come:
T(2) = T (0) ⊕ T (1) ⊕ T (2)
(5.80)
140
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
dove ogni componente è data da:
T (j, m) =
X X


j = 0, 1, 2











 −j ≤ m ≤ j
Uµ A Uν B h1 µ, 1 ν | j mi TA B
A, B µ, ν




−1 ≤ µ, ν ≤ 1








 A, B = X, Y, Z
(5.81)
Le componenti sferiche sono:
1
T (0, 0) = − √ (TX X + TY
3
Y
+ TZ Z )

i



 T (1, 0) = √ (TX Y − TY X )
2


1

 T (1, ±1) = [(TZ X − TX Z ) ± i (TZ Y − TY Z )]
2
(5.82)

1


T (2, 0) = √ (2TZ Z − TX X − TY Y )



6





1
T (2, ±1) = ∓ [(T
+T
) ± i (T
+T
)]
ZX
XZ
ZY
Y Z

2






1


 T (2, ±2) = [(TX X − TY Y ) ± i (TX Y + TY X )]
2
Per un tensore simmetrico:
1
T (0, 0) = − √ (TX X + TY
3
Y
+ TZ Z )



 T (1, 0) = 0


 T (1, ±1) = 0
(5.83)

1


T (2, 0) = √ (2TZ Z − TX X − TY Y )



6




T (2, ±1) = ∓ (TX Z ± i TY Z )








 T (2, ±2) = TX X − TY Y ± i TX Y
2
5.5.6
Teorema di Wigner-Eckart
I tensori sferici irriducibili si rivelano di grande utilità per semplificare i ccomplessi elementi di matrice
che sono comuni nel calcolo di proprietà chimico-fisiche di stati a momento angolare definito. In pratica,
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
141
le caratteristiche di simmetria rotazionale (geometria) possono essere ’estratte’ in modo generale e
ricondotte a pochi fattori fondamentali, lasciando la sola necessità di valutare degli elementi di matrice
’ridotti’, non dipendenti dalle proprietà rotazionali. In effetti possiamo in genrale dimostrare che il
generico elemento di matrice haJM |T (k, q)|a0 J 0 M 0 i, dove lo stato generale |aJM i dipende da un set di
numeri quantici generale a più quelli rotazionali J e M può essere scritto nella forma
haJM |T (k, q)|a0 J 0 M 0 i = hkq, J 0 M 0 |JM ihaJkT k ka0 J 0 i
(5.84)
questa relazione è nota come teorema di Wigner-Eckart e separa la dipendenza geometrica, concentrata nel fattore hkq, J 0 M 0 |JM i e quella ’fisica’, descritta dall’elemento di matrice ridotto haJkT k ka0 J 0 i.
La dimostrazione del teorema di Wigner-Eckart può essere svolta in molti modi, anche se il linguaggio più opportuno per definire la materia in esame proviene in ultima analisi dalla teoria dei gruppi.
Consideriamo per semplicità un approccio basato sulle proprietà di commutazione dei tensori sferici con
le componenti dei momenti angolari. Possiamo cominciare scrivendo
haJM |Jˆz T (k, q)|a0 J 0 M 0 i − haJM |T (k, q)Jˆz |a0 J 0 M 0 i = qhaJM |T (k, q)|a0 J 0 M 0 i
(5.85)
e quindi
(M − M 0 − q)haJM |T (k, q)|a0 J 0 M 0 i = 0
(5.86)
Quindi l’elemento di matrice va a zero a meno che M = M 0 + q. Analogamente possiamo scrivere
haJM |Jˆ± T (k, q)|a0 J 0 M 0 i − haJM |T (k, q)Jˆ± |a0 J 0 M 0 i =
q
(k ± q)(k ± q + 1)haJM |T (k, q ± 1)|a0 J 0 M 0 i
che si può riscrivere come
p
(J ± M )(J ∓ M + 1)haJM ∓ 1|T (k, q)|a0 J 0 M 0 i
−
=
p
(J 0 ∓ M 0 )(J 0 ± M 0 + 1)haJM |T (k, q)|a0 J 0 M 0 ± 1i =
p
(k ∓ q)(k ± q + 1)haJM |T (k, q ± 1)|a0 J 0 M 0 i
(5.87)
dove nella (5.87) ogni termine va a zero a meno che M = M 0 + q pm1 data la (5.86). Teniamo da
parte questa conclusione e consideriamo ora gli stati T (k, q)|aJ 0 M 0 i: questi in generale costituiscono
un insieme di dimensione (2k + 1)(2J 0 + 1): nel linguaggio della teoria dei gruppi, generano un rappre0
sentazione riducibile prodotto diretto Dk ⊗ DJ del gruppo SO(3). Possiamo costruire stati a momento
angolare definito J, grazie alle proprietà dei coefficienti di Clebsch-Gordan:
|a0 JM i =
X
hkq, J 0 M 0 |JM iT (k, q)|a0 J 0 M 0 i
(5.88)
q,M 0
Applichiamo Jˆ∓ ai due lati della precedente equazione; con un po’ di pazienza otteniamo
p
(J ± M )(J ∓ M + 1)|a0 JM ∓ 1i =
Xp
(J 0 ± M 0 )(J 0 ∓ M 0 + 1)hkq, J 0 M 0 |JM iT (k, q)|a0 J 0 M 0 ∓ 1i
q,M 0
+
Xp
(k ∓ q)(k ± q + 1)hkq, J 0 M 0 |JM iT (k, q ∓ 1)|a0 J 0 M 0 i
(5.89)
q,M 0
Ora usiamo la (5.88) per eliminare |a0 JM ∓ 1i a sinistra della precedente equazione; a destra poniamo
poi µ = M 0 ∓ 1, λ = q nel primo termine e µ = M 0 , λ = q ∓ 1 nel secondo termine
Xp
(J ± M )(J ∓ M + 1)hkλ, J 0 µ|JM ∓ 1iT (k, λ)|a0 J 0 µi
=
µ,λ
Xp
(J 0 ∓ µ)(J 0 ± µ + 1)hkλ, J 0 µ ± 1|JM iT (k, λ)|a0 J 0 µi
µ,λ
+
Xp
(k ∓ q)(k ± q + 1)hkλ ± 1, J 0 µ|JM iT (k, λ)|a0 J 0 µi (5.90)
µ,λ
142
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
possiamo ora mettere in relazione i termini delle tre sommatorie con µ = M 0 e λ = q, e portare il primo
termine del lato destro a sinistra; otteniamo
p
p
(J ± M )(J ∓ M + 1)hkq, J 0 M 0 |JM ∓ 1i −
(J 0 ∓ M 0 )(J 0 ± M 0 + 1)hkq, J 0 M 0 ± 1|JM i =
p
(k ∓ q)(k ± q + 1)hkq ± 1, J 0 M |JM i
=
(5.91)
La (5.5.6) è una relazione ricorsiva per i coefficienti CG del tutto identica formalmente alla (5.87).
Ne segue che la dipendenza dai numeri quantici secondari degli elementi di matrice deve essere la
medesima,e tutta contenuta nella dipendenza dei coefficienti CG da questi numeri quantici: ne deriva
perció che il teorema enunciato dalla (5.84) è vero. In letteratura il teorema di Wigner -Eckart può
√
essere trovato in varie forme; per convenzione nel seguito includiamo un fattore 2J + 1 nell’elemento
di matrice ridotto e scriviamo
Ã
haJM |T (k, q)|a0 J 0 M 0 i
5.5.7
J−M
= (−1)
k J0
q M0
J
−M
!
haJkT k ka0 J 0 i
(5.92)
Prodotti di tensori sferici
Un’operazione di moltiplicazione o contrazione tra due tensori sferici permette di generare nuovi tensori
sferici. In pratica possiamo definire il tensore T( l) come risultante dalla contrazione dei tensori A(l1 ) ,
B(l2 ) :
T (l, q) =
X
hl1 q1 l2 q2 |lqiA(l1 , q1 )B(l2 , q2 ) ≡ [A(l1 ) ⊗ B(l2 ) ](l)
q
(5.93)
q1
Possiamo verificare facilmente che le componenti T (l, q) formano un tensore sferico di rango l applicando
una trasformazione rotazionale:
R̂T (l, q)R̂
−1
=
X
hl1 q1 l2 q2 |lqiR̂A(l1 , q1 )R̂
−1
R̂B(l2 , q2 )R̂
−1
q1
=
X
q1 ,q10 ,q20
hl1 q1 l2 q2 |lqiDql10 q1 Dql20 q2 A(l1 , q10 )B(l2 , q20 )
1
X
=
0
l0 ,q1 ,q10 ,q20
=
X
q10 ,q20
=
X
2
hl1 q1 l2 q2 |lqihl1 q1 l2 q2 |l0 qihl1 q10 l20 q2 |l0 q 0 iDql 0 +q0 q1 +q2 A(l1 , q10 )B(l2 , q20 )
1
2
Dql 0 +q0 q1 +q2 hl1 q10 l2 q20 |lq 0 iA(l1 , q10 )B(l2 , q20 )
1
(5.94)
2
Dql 0 q hl1 q10 l2 q20 |lq 0 iA(l1 , q10 )B(l2 , q20 ) =
q0
X
Dql 0 q T (l, q 0 )
q0
dove sono state risommate le matrici di Wigner con la serie di Clebsch-Gordan.
Molte relazioni di uso comune nel trattamento teorico di termini spettrali, valutazione di elementi
di matrice di hamiltoniani magnetici etc. trovano il loro fondamento nell’operazione di contrazione. Di
particolare interesse è la contrazione di due tesnori di ugual rango per dare uno scalare, come si può
verificare da una semplice proprietà dei coefficienti CG
0
(0)
[A(k) ⊗B(k ) ]0 =
X
hkq, k 0 q 0 |00iA(k, q)B(k 0 , q 0 ) = (2k+1)−1/2
(−1)k−q A(k, q)B(k 0 , −q 0 )δk,k0 (5.95)
q
q
L’operatore scalare generico
X
(0)
[A(k) ⊗B(k) ]0
è proporzionale al prodotto interno A(k) ·B(k) , per definizione:
(0)
A(k) · B(k) = (01)k (2k + 1)1/2 [A(k) ⊗ B(k) ]0
(5.96)
5.5. APPROFONDIMENTO: MOMENTI ANGOLARI
5.5.8
143
Elementi di matrice di prodotti
Infine, possiamo mettere insieme tutte i formalismi finora definiti e ricavare espressioni generali per il
calcolo di elementi di matrice di operatori tensoriali che siano a loro volta prodotti di tensori. Consideriamo due spazi 1 e 2 rispetto ai quali siano definibili gli stati |j1 m1 i e |j2 m2 i, da cui è possibile come
sempre costruire sia la base disaccoppiata |j1 m1 , j2 m2 i che quella accoppiata |j1 j2 jmi; definiamo poi
due operatori tensoriali A(k1 ) e B(k2 ) agenti sullo spazio 1 e sullo 2 rispettivamente, insieme all’operatore
contratto T(k) = [A(k1 ) ⊗ B(k2 ) ](k) . In pratica:
|j1 j2 jmi =
X
Ã
(−1)
j1 −j2 +m
1/2
(2j + 1)
m1 ,m2
T (k, q) =
X
(−1)
Ã
k1 −k2 +q
(2k + 1)
1/2
q1 ,q2
j1 j2
j
m1 m2 −m
k1 k2 k
q1 q2 −q
!
|j1 m1 , j2 m2 i
(5.97)
!
A(k1 , q1 )B(k2 , q2 )
(5.98)
Vogliamo ora valutare l’elemento di matrice haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i. Iniziamo applicando direttamente il teorema di Wigner-Eckart
Ã
haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i
j−m
= (−1)
j
k j0
−m q m0
!
haj1 j2 jkT k ka0 j10 j20 j 0 i
(5.99)
Possiamo anche procedere combinando (5.97) e (5.98), applicando il teorema di Wigner-Eckart separatamente negli spazi 1 e 2; un po’ laboriosamente otteniamo
X
haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i =
0
0
0
(−1)k1 −k2 +q+j1 −j2 +m+j1 −j2 +m
a00 ,m1 ,m2 ,m01 ,m02 ,q1 ,q2
× [(2j + 1)(2j 0 + 1)(2k + 1)]1/2
Ã
×
j1 j2
j
m1 m2 −m
!Ã
Ã
j1 −m1 +j2 −m2
× (−1)
j10
j20
j0
m01 m02 −m0
j1
k1 j10
−m1 q1 m01
!Ã
!Ã
k1 k2 k
q1 q2 −q
j2
k2 j20
−m2 q2 m02
!
!
(5.100)
× haj1 kAk1 ka00 j10 iha00 j2 kB k1 ka0 j20 i
A questo punto possiamo uguagliare i due lati Ãdestri delle equazioni
(5.99) e (5.100), moltiplicare
!
0
j
k j
l’equazione risultante per il simbolo 3-j (−1)j−m
e sommare rispetto a m, m0 e q. Si
−m q m0
ottiene in questo modo un’espressione esplicita per l’elemento di matrice ridotto haj1 j2 jkT k ka0 j10 j20 j 0 i,
che non trascriviamo, come una somma pesata di prodotti di sei simboli 3-j, che può essere ricondotta
ad un simbolo 9-j:


 j1
0
1/2
k
0 0 0 0
haj1 j2 jkT ka j1 j2 j i = [(2j +1)(2j +1)(2k+1)]
j2


j
j10
j20
j0

k1 
X
haj1 kAk1 ka00 j10 iha00 j2 kB k1 ka0 j20 i(5.101)
k2

 a00
k
Di uso molto comune è l’espressione completa dell’elemento di matrice del prodotto interno A(k) · B(k) :
(
haj1 j2 jm|A
(k)
·B
(k)
|a0 j10 j20 j 0 m0 i
= δjj 0 δmm0 (−1)
j10 +j2 +j
j1
j20
j2
j10
j
k
)
X
a00
haj1 kAk ka00 j10 iha00 j2 kB k ka0 j20 i(5.102)
144
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
dove il simbolo 9-j è stato declassato ad un simbolo 6-j grazie alla forma scalare dell’operatore. Infine,
si può notare come sia possibile, in modo sostanzialmente analogo, ricavare un’espressione analoga alla
(5.101) per l’elemento di matrice ridotto di un operatore T(k) = [A(k1 ) ⊗ B(k2 ) ](k) , formato da due
operatore che agiscano sullo stesso spazio, rispetto al quale sono definiti gli stati |ajmi senza poterli
decomporre in sottospazi separati,
Ã
0 0
0
hajm|T (k, q)|a j m i =
hajkT k ka0 j 0 i =
j−m
(−1)
0
j
−m
k
q
j0
m0
(−1)k+j+j (2k + 1)1/2
!
X
a00 j 00
5.6
hajkT k ka0 j 0 i
(
k1
j0
k2
j
k
j 00
(5.103)
)
haj1 kAk1 ka00 j 00 iha00 j 00 kB k1 ka0 j 0 i(5.104)
L’equazione di Schrödinger: insieme di punti materiali
Nel seguito sarà data un’introduzione schematica alle metodiche di calcolo più comuni per la determinazione di funzioni d’onda elettroniche. Le tecniche di calcolo quanto-meccanico permettono la
previsione ed ottimizzazione di geometrie molecolari e lo studio di proprietà molecolari (momento di
dipolo, polarizzabilità, densità elettronica etc.) a partire dalla definizione dell’operatore hamiltoniano
di una data specie chimica, e dalla soluzione numerica dell’equazione di Schrödinger corrispondente.
Tradizionalmente, le tecniche di calcolo vengono classificate in
• metodi ab initio: calcoli autoconsistenti di Hartree-Fock (HF), interazione di configurazione (CI);
l’equazione di Schrödinger viene risolta in modo ‘esatto’ (mediante un’espansione della funzione
d’onda su una base di funzioni note, o mediante l’applicazione di tecniche perturbative);
• metodi semiempirici: metodi di Hückel, Hückel esteso, PPP, i vari metodi NDO (neglect of
differential overlap); varie approssimazioni e parametrizzazioni sono introdotte per semplificare
gli integrale numerici a uno, due o più elettroni che sono definiti nell’approccio esatto.
I metodi ab initio consentono una buona definizione del problema quantomeccanico, essendo basati
fondamentalmente sull’hamiltoniano esatto del sistema molecolare, e dunque in principio definito solo
da informazioni sulla struttura della molecola e di costanti fondamentali. La dimensione del problema di
algebra lineare (diagonalizzazione di matrice) correlato ad un calcolo ab initio per un sistema molecolare
di N elettroni cresce almeno come N 2 : molecole di media complessità possono già costituire un serio
problema computazionale. D’altra parte, i metodi semiempirici sono in grado di trattare in modo veloce
ed efficiente anche il calcolo delle strutture di equilibrio di molecole organiche di notevole complessità.
Non sempre però l’hamiltoniano approssimato è definito in modo chiaro, nè la parametrizzazione degli
integrali elettronici scelta per un determinato metodo semiempirico, in modo da ottimizzarne i risultati
per determinate classi di molecole, consente di ottenere buoni risultati in diverse condizioni o per altre
classi di sistemi molecolari.
cui siano associate le masse inerziali mi (i = 1, . . . , N ). La descrizione del comportamento nello
spazio e nel tempo dell’insieme di punti è data in meccanica quantistica tramite la funzione d’onda
Ψ({~ri }, t), definita mediante l’equazione di Schrödinger dipendente dal tempo:
−
h̄ ∂
Ψ({~ri }, t) = HΨ({~ri }, t)
i ∂t
(5.105)
5.6. L’EQUAZIONE DI SCHRÖDINGER: INSIEME DI PUNTI MATERIALI
145
HOMO del pirrolo calcolato con il metodo Extended Hückel (isosuperficie a 0.06 unità atomiche).
dove H è l’operatore di Hamilton o hamiltoniano, definito come la somma dell’operatore di energia
cinetica T e dell’energia potenziale H = T + V ({~ri }) dove
T =
N
X
p~2i
i=1
2mi
(5.106)
L’operatore momento lineare p~i per la particella i-esima è definito come
p~i =
h̄ ∂
i ∂~ri
(5.107)
e dunque l’operatore energia cinetica può essere scritto anche nella forma
T =−
2
N
h̄2 X
1 ˆ2
∇
2 i=1 mi i
(5.108)
ˆ i è l’operatore di Laplace relativo alla particella i-esima. La funzione d’onda è definita quando
dove ∇
siano stabilite delle condizioni iniziali, ovvero lo stato del sistema al tempo t = 0 e le condizioni al
contorno, ovvero l’integrabilità della funzione d’onda. La soluzione formale dell’equazione di Schrödinger
é data nella forma:
µ
¶
iHt
Ψ({~ri }, t) = exp −
Ψ({~ri }, 0)
(5.109)
h̄
146
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
con la condizione di integrabilità
Z
hΨ|Ψi =
d~rΨ({~ri }, t)∗ Ψ({~ri }, t) = 1
(5.110)
dove d~r = d~r1 d~r2 . . . d~rN . La funzione d’onda generica è ottenibile come un’espansione rispetto alle
autofunzioni dell’hamiltoniano
Ψ({~ri }, t) =
X
exp(−iEn t/h̄)Ψn ({~ri })hΨn ({~ri })|Ψ({~ri }, , 0)i
(5.111)
n
HΨn ({~ri }) = En Ψn ({~ri })
(5.112)
L’equazione (5.112) è l’equazione di Schrödinger indipendente dal tempo.
Esempio 35.
Consideriamo, per fissare le idee, il caso di un sistema di 2 particelle ~r1 e ~r2 ,
accoppiate da un potenziale V (|~r1 − ~r2 |) L’hamiltoniano è dato nella forma:
H=−
h̄2 ˆ 2
h̄2 ˆ 2
∇1 −
∇ + V (|~r1 − ~r2 |)
2m1
2m2 2
L’hamiltoniano è separabile, ovvero è riducibile alla somma di due hamiltoniani non interagenti, introducendo un nuovo set di variabili, date dalla distanza relativa tra le due particelle ~r = ~r1 − ~r2 e dalla
r2
2~
posizione del baricentro del sistema ~rc = m1m~r11 +m
+m2 :
1 ˆ2
1 ˆ2
1 ˆ2
1 ˆ2
∇1 +
∇2 = ∇
+
∇
m1
m2
µ
M c
m2
ˆ 2, ∇
ˆ 2c sono i laplaciani
dove µ è la massa ridotta µ = mm11+m
, M è la massa totale M = m1 + m2 e ∇
2
rispetto a ~r e ~rc . L’hamiltoniano risulta separabile poichè si può scrivere come:
H=−
5.7
h̄2 ˆ 2
h̄2 ˆ 2
∇ + V (r) −
∇
2µ
2M c
Hamiltoniani atomici e molecolari
La definizione dell’hamiltoniano completo di un sistema atomico o molecolare non è affatto un problema
semplice. Trascurando termini di interazione con campi elettrici e magnetici, che sono peraltro di
grande importanza per l’interpretazione di osservabili spettroscopici, ed ignorando correzioni di natura
relativistica, restano da considerare in dettaglio i vari termini di interazione elettrostatiche e magnetiche
dei nuclei e degli elettroni.
Consideriamo prima di tutto alcuni hamiltoniani relativi a sistemi atomici e molecolari semplici:
l’atomo H, l’atomo He e la molecola H+
2 , limitandoci ad includere nell’energia potenziale i soli termini
di interazione elettrostatica.
~ di massa
L’atomo di idrogeno, H, è un sistema descritto da due particelle tridimensionali: il nucleo R
mH e l’elettrone ~re di massa me L’hamiltoniano dell’atomo di idrogeno è dato come:
H=−
h̄2 ˆ 2
2e2
1
h̄2 ˆ 2
∇e −
∇R −
~ − ~re |
2mH
2me
4π²0 |R
(5.113)
~ I gradi di libertà complessivi del
ˆ 2 indichiamo il laplaciano rispetto ai vettori ~re e R.
ˆ2 e ∇
dove con ∇
e
R
sistema sono dunque 6. L’atomo di elio, He, è un sistema descritto da tre particelle tridimensionali (il
5.7. HAMILTONIANI ATOMICI E MOLECOLARI
147
e
1
|R - r |
1
He
|r - r |
1
2
|R - r |
2
r
1
R
e2
r
2
Figura 5.1: Sistema di riferimento e coordinate He
nucleo e due elettroni). L’hamiltoniano dell’atomo di elio è dato come:
h̄2 ˆ 2
h̄2 ˆ 2 ˆ 2
2e2
H=−
∇R −
(∇1 + ∇2 ) −
2mHe
2me
4π²0
Ã
1
~ − ~r1 |
|R
+
!
1
~ − ~r2 |
|R
+
e2
1
4π²0 |~r1 − ~r2 |
(5.114)
ˆ 2 indichiamo i laplaciani rispetto a ~r1 e ~r2 . I gradi di libertà complessivi del sistema sono
dove con ∇
1,2
dunque 9. In Fig. 1 viene riportato uno schema delle coordinate nell’ambito di un sistema di riferimento
inerziale (di laboratorio).
La molecola di idrogeno ionizzata, H+
2 , è ancora un sistema descritto da tre particelle tridimensionali
(due nuclei e un elettrone). L’hamiltoniano è dato come:
2
2
´
h̄2 ³ ˆ 2
ˆ 2e − e
ˆ 2B − h̄ ∇
H=−
∇A + ∇
2mH
2me
4π²0
Ã
1
~ A − ~re |
|R
+
1
~ B − ~re |
|R
!
+
1
e2
~B − R
~ A|
4π²0 |R
(5.115)
~ A ed R
~ B indichiamo la posizione dei nuclei, con ~re quella dell’elettrone. I gradi di libertà
dove con R
complessivi del sistema sono sempre 9.
Definiamo ora con un certo grado di generalità l’hamiltoniano, limitato ai soli termini di inter~ p (p = 1, . . . , M ) i vettori
azione elettrostatica, per una molecola di M nuclei ed N elettroni. Siano R
posizione dei nuclei e ~ri (i = 1, . . . , N ) i vettori posizione degli elettroni. L’hamiltoniano molecolare
non-relativistico con i soli termini elettrostatici è allora scritto come:
M,M
N,N
M,N
M
N
h̄2 X
e2 X
1
e2 X
Zp
1 ˆ 2 h̄2 X
e2 X Zp Zq
2
ˆ
H=−
∇p −
+
−
(5.116)
∇i +
~
~
~
2 p=1 mp
2me i=1
4π²0 p<q |Rp − Rq | 4π²0 i<j |~ri − ~rj | 4π²0 p,i |Rp − ~ri |
148
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
È conveniente nel seguito introdurre un insieme di unità di misura ad hoc, dette unità atomiche, che
permettano di definire grandezze fisiche riscalate in modo semplice. Nella Tabella 1 sono definite le
principali unità atomiche: di particolare importanza sono l’unità di lunghezza, detta Bohr, e l’unità di
energia, chiamata Hartree. Nel seguito si useranno sempre unità atomiche, se non verrà espressamente
massa
lunghezza
mu
lu
momento angolare
energia
carica
Lu
Eu
e
me = 9.1091 × 10−31 Kg
2
0 h̄
a0 = 4π²
= 0.52917 × 10−10 m
me e2
h̄ = 4.16336 × 10−33 J s−1
e2
−18 J
4π²0 a0 = 4.359 × 10
e = 1.602 × 10−19 C
Tabella 5.2: Unità atomiche
indicato altrimenti. L’hamiltoniano molecolare elettrostatico in unità atomiche diventa:
H=−
M,N
N
M
N
X
X
X
Zr
1
Zp Zq
1 ˆ2 1 X
ˆ2 −
∇p −
∇
+
+
.
i
~
~p − R
~ q|
2mp
2 i=1
ri | i<j |~ri − ~rj | p<q |R
p=1
p,i |Rp − ~
M
X
(5.117)
Indichiamo per semplicità con gli indici i, j coordinate elettroniche, con gli indici p, q coordinate
nucleari.
Esempio 36. Vogliamo scrivere l’hamiltoniano molecolare per un sistema con nuclei a spin nullo,
non-relativistico ed in assenza di interazioni con campi esterni. L’hamiltoniano molecolare si può descrivere in prima approssimazione come dato da tre termini principali
H = H0 + HSO + HSS
Il primo contributo è dato dall’operatore relativo all’energia cinetica + elettrostatica (5.117). Il secondo
contributo corrisponde al termine di interazione spin-orbitale, vale a dire tra il momento di spin di
ciascun elettrone e il moto spaziale dell’elettrone stesso
HSO = −gβe2
X 1
i6=j
3
rij
ˆ j + sj · rij × ∇
ˆ j)
(2si · rij × ∇
Il terzo termine è riferito all’energia di interazione spin-spin
X 1
1
2
HSS = − gβe2
5 [3(si · rij )(sj · rij ) − rij si · sj ]
2
r
i,j ij
Parecchi termini di interazione al secondo ordine sono stati trascurati nella definizione (5.7). I nuclei
sono considerati come aventi momento di spin nullo. Nei calcoli di strutture elettroniche si considera
di solito solo il primo termine.
5.8
Approssimazione di Born-Oppenheimer
Il primo problema che ci poniamo è la possibilità di separazione tra le coordinate nucleari ed elettroniche.
Fisicamente, la massa dei nuclei, molto maggiore rispetto a quella degli elettroni, ci consente di affermare
che il moto dei primi avviene su una scala dei tempi molto più lenta rispetto al moto dei secondi. Ciò
5.8. APPROSSIMAZIONE DI BORN-OPPENHEIMER
149
equivale al fatto che, con buona approssimazione, le proprietà degli elettroni possono essere definite
assumendo che lo ‘scheletro’ della molecola, formato dai nuclei, sia immobile. Fondamentalmente,
questa è l’approssimazione di Born-Oppenheimer (BO).
Consideriamo prima di tutto il problema della separazione del moto del centro di massa, che è
conseguibile in modo esatto. È dato un sistema di N elettroni ed M nuclei. L’hamiltoniano molecolare
è dato in (5.117). Definiamo il vettore baricentro


N
M
X
X
~ c = 1  me~ri +
~ p
R
mp R
M i=1
p=1
(5.118)
dove M è la massa totale del sistema; definiamo inoltre N coordinate vettoriali ~xi che specificano la
posizione degli elettroni rispetto al baricentro dei soli nuclei ed infine 3M − 3 coordinate ’interne’ QI
(con I = 1, . . . , 3M − 3) per i nuclei, che descrivono il moto rotazionale e vibrazionale della molecola e
che si possono esprimere, per esempio [cfr. Appendice (C)] come combinazioni lineari delle coordinate
vettoriali dei nuclei. In pratica siamo esattamente nelle condizioni descritte in Appendice (C) dove gli
elettroni sono le particelle leggere e i nuclei le particelle pesanti. Usiamo le conclusioni che sono tratte
in Appendice (C) per scrivere l’hamiltoniano nelle forma
H = Hc + Hel + Hnu
(5.119)
dove l’hamiltoniano relativo al centro di massa è
Hc = −
1 ˆ2
∇
2M c
(5.120)
l’hamiltoniano elettronico è
Hel = −
M,N
N
N
M
X
X
X
X
Zp
1X
1
Zp Zq
ˆ 2i − 1
ˆi · ∇
ˆj +
∇
∇
−
+
~
~p − R
~ q|
2 i
2M ij
|~r − ~rj |
ri | p<q |R
p,i |Rp − ~
i<j i
(5.121)
ed infine il termine nucleare è
Hnu = T nu
(5.122)
dove le coordinate vettoriali elettroniche sono definite relativamente al baricentro; la forma esatta
dell’energia cinetica nucleare T nu dipende dalla scelta delle coordinate interne QI nucleari; le com~ p − ~ri etc. sono funzioni di dette coordinate interne e dei vettori ~xi . Indichiamo
ponenti dei vettori R
ˆ i il gradiente relativo a ~xi e cosı́ via. Il primo contributo Hc è relativo al moto traslazionale
con ∇
del baricentro. Il secondo termine è dato dalla somma dell’energia cinetica elettronica, corretta con
un termine dipendente dall’inverso della massa totale del sistema detto di polarizzazione di massa, e
dell’energia potenziale elettroni-elettroni ed elettroni-nuclei. Il terzo termine descrive il moto nucleare
roto-vibrazionale. Si noti che l’energia potenziale nucleare è stata inclusa nell’hamiltoniano elettronico,
per convenzione.
150
5.9
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
Separazione delle coordinate elettroniche
Nel seguito indichiamo con Q l’insieme di coordinate nucleari interne e con x l’insieme delle coordinate elettroniche. L’equazione di Schrödinger indipendente dal tempo per l’hamiltoniano elettroniconucleare, in cui d’ora in poi non includiamo il termine, separato, relativo al moto del baricentro, è scritta
nella forma:
HΞ(Q, x) = EΞ(Q, x)
(5.123)
dove Ξ(Q, x) è l’autofunzione roto-vibro-elettronica della molecola con energia E. Definiamo l’insieme
di autofunzioni del solo hamiltoniano elettronico
Hel Ψ(Q|x) = ²n (Q)Ψ(Q|x)
(5.124)
che dipendono parametricamente dalle coordinate nucleari Q, con autovalori ²n (Q). Le autofunzioni
Ψn costituiscono una base ortonormale per lo spazio di Hilbert in x. Il seguente sviluppo è perciò del
tutto generale:
Ξ(Q, x) =
X
Φn (Q)Ψn (Q|x)
(5.125)
n
Sostituendo le equazioni (5.124) e (5.125) nella (5.123), si ottiene:
X
[Enel (Q) + T nu − E]Φn (Q)Ψn (Q|x) = 0
(5.126)
n
pre-moltiplicando per il bra hΨm (Q|r)| si trova l’espressione
el
[Em
(Q) − E]Φm (Q) +
X
hΨm |T nu |Ψn iΦn (Q) = 0
(5.127)
n
che fornisce un sistema di equazioni per determinare le funzioni incognite Φn (Q). Si noti che l’integrazione
hldotsi è rispetto a x. Sinora non è stata fatta alcuna approssimazione, e l’equazione (5.127) è equivalente all’equazione di Schrödinger di partenza. Si danno ora varie possibilità. Dal punto di vista
fisico è lecito attendersi che ad ogni significativo cambiamento della configurazione nucleare gli elettroni
vadano incontro ad un rapido riaggiustamento, in una scala dei tempi molto più veloce di quella tipica
dei moti nucleari a causa della grande differenza di massa. È quindi ragionevole attendersi che la dipendenza parametrica delle funzioni d’onda elettroniche Ψn (Q|x) sia ’debole’, ed addirittura trascurabile
in prima approssimazione. L’approssimazione di Born-Oppenheimer consiste nel trascurare completamente questa dipendenza, cosicchè il valor medio (in generale un’operatore agente sulle coordinate
nucleari) che compare nel secondo termine della (5.127) diventa:
B.O.
hΨm |T nu |Ψn i = hΨm |Ψn iT nu = T nu δm,n
(5.128)
La funzione d’onda per la parte nucleare nell’approssimazione BO è data quindi come:
el
[Em
(Q) + T nu ]Φm (Q) = EΦm (Q)
(5.129)
• L’equazione (5.124) è alla base dell’interpretazione delle osservazioni sperimentali basate sulla
spettroscopia elettronica (UV, visibile);
5.10. LA MOLECOLA DI IDROGENO IONIZZATA: HAMILTONIANO ELETTRONICO
151
• l’equazione (5.129) è utilizzata per la comprensione delle osservazioni sperimentali basate sulla
spettroscopia vibrazionale (IR);
• l’approssimazione di Born-Oppenheimer non può essere impiegata per interpretare quei fenomeni
chimico-fisici in cui vi siano interazioni forti fra elettroni e nuclei (es. scattering elettronico), o
quando in generale non sia lecito considerare la funzione d’onda elettronica come debolmente
dipendente dalle coordinate nucleari.
5.10
La molecola di idrogeno ionizzata: Hamiltoniano elettronico
Considereremo in questa sezione il sistema molecolare H+
2 . Seguiamo le considerazioni generali svolte
nella sezione precedente, separando il baricentro, applicando l’approssimazione di Born-Oppenheimer,
trascurando i termini di polarizzazione di massa nell’hamiltoniano elettronico, definendo appropriate
coordinate interne nucleari - che possiamo scegliere in modo conveniente come R, θ and φ dove R è
~A − R
~ B |, θ e φ le coordinate polari del vettore R
~A − R
~ B . L’hamiltoniano
la distanza internucleare |R
elettronico è perciò
1
1
1
1 ˆ2
−
−
+
Hel = − ∇
2
rA rB
R
dove rA =
p
r2 + (z + R/2)2 e rB =
(5.130)
p
r2 + (z − R/2)2 [cfr. Fig. (5.2)]. Gli autostati e i livelli
e2
A
rA
+R/2
rB
z
y
e1
-R/2
x
B
e3
Figura 5.2: Sistema di riferimento e coordinate H+
2
energetici della molecola di idrogeno ionizzata saranno in generale funzioni parametriche di R. Per
R → 0 la molecola diviene l’atomo di elio ionizzato, ed i suoi orbitali e stati energetici sono quelli di
152
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
un atomo idrogenoide con Z = 2. Per R → ∞ la molecola diviene equivalente alla coppia H + + H.
Scriviamo l’equazione di Schrödinger nella forma
µ
1 ˆ2
1
1
− ∇
−
−
2
rA rB
¶
Ψ = EΨ
(5.131)
L’energia di un autostato elettronico è data in funzione dell’autovalore E come
E el = E +
1
R
(5.132)
Introduciamo le coordinate ellissoidali µ, ν e l’angolo azimutale φ relativo alla rotazione intorno all’asse
internucleare; valgono le relazioni dirette ed inverse:
µ
ν
x
y
z
=
rA + rB /R
=
rA − rB /R
p
2
=
(µ − 1)(1 − ν 2 )/R cos φ
p
=
(µ2 − 1)(1 − ν 2 )/R sin φ
=
µνR/2
(5.133)
con µ ≥ 1, −1 ≤ ν ≤ 1; µ descrive gli ellissoidi di rivoluzione aventi come fuochi i nuclei, mentre ν
descrive gli iperboloidi confocali di rivoluzione [cfr. Fig. (5.3)]. Il laplaciano può essere espresso in
ν
µ
00
11
00
11
00111111111111111111
11
111
000
000000000000000000
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
000
111
000000000000000000
111111111111111111
A111
000
0000000000000000001
111111111111111111
11111111111111111111
00000000000000000000
0
1
0
0
1
0
1
B
Figura 5.3: Coordinate ellissoidali H+
2
queste coordinate nella forma:


∂ 2
∂
∂
∂
∂
4
(µ2 − ν 2 )
2 ∂
ˆ =


∇
(µ
−
1)
+
(1
−
ν
)
+
2
2
2
2
2
R (µ − ν ) ∂µ
∂µ ∂ν
∂ν
∂φ (µ − 1)(1 − ν ) ∂φ
2
(5.134)
5.10. LA MOLECOLA DI IDROGENO IONIZZATA: HAMILTONIANO ELETTRONICO
153
Sostituendo nell’equazione di Schrödinger, si ottiene un’equazione differenziale separabile, cioè ponendo
Ψ(µ, ν, φ) = M (µ)N (ν)F (φ)
(5.135)
si trovano le tre equazioni separate:


λ2
 (µ2 − 1)
− ²µ2 + 2Rµ − 2
+ κ M (µ) = 0
ν −1
dµ
dµ
d
d


λ2
 (1 − ν 2 )
− κ N (ν) = 0
+ ²ν 2 +
1 − ν2
dν
dν
d


(5.136)
d2
dφ2
d
(5.137)

+ λ2  F (φ) = 0
(5.138)
λ e κ sono costanti di separazione, mentre ² = −R2 E/2. In particolare, λ è il numero quantico
associato con la componente del momento angolare elettronico lungo l’asse internucleare, ed assume
i valori 0, ±1, ±2, . . .. L’autovalore E dipende da λ2 , ovvero è presente una doppia degenerazione
Figura 5.4: I primi due livelli energetici della molecola di H+
2 [E. Teller, Z. Physik, 61, 474 (1930)]
dovuta all’equivalenza delle due direzioni di rotazione attorno all’asse. I valori permessi di κ e ² sono
determinabili numericamente. In generale i vari stati, doppiamente degeneri, di H+
2 sono simboleggiati
da una notazione del tipo nlαu,g dove: n ed l sono riferiti ai numeri quantici dell’orbitale atomico
idrogenoide, cfr. Appendice (B), cui l’orbitale molecolare tende per R → 0; α è un una lettera greca σ, π,
δ, φ, . . . corrispondente a |λ| = 0, 1, 2, 3, . . .; u o g corrispondono alla simmetria dell’orbitale molecolare
rispetto all’operazione di inversione rispetto al punto centrale tra i nuclei - si può dimostrare che l’orbitale
molecolare cambia di segno (u) o resta invariato (g) rispetto questa operazione di simmetria.
154
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
MMMMOOOOLLLLDDDDEEEENNNN
MMMOOOLLLDDDEEENNN
defaults used
Edge = 2.40 Contour 3D Psi = 1
CONTOUR VALUE
1
2
3
4
5
6
7
8
9
10
11
12
13
0.12500
0.15000
0.17500
0.20000
0.22500
0.25000
0.27500
0.30000
0.32500
0.35000
0.37500
0.40000
0.42500
Figura 5.5: Superficie che rappresenta l’orbitale 1sσg in un piano molecolare
5.11
Hamiltoniano nucleare
Possiamo scrivere l’hamiltoniano risultante dall’approssimazione di Born-Oppenheimer nella seguente
forma, in cui il laplaciano è espresso in coordinate rotazionali:

−


∂
∂

1 
R2
− L2  + E el (R) Φ(R, θ, φ) = EΦ(R, θ, φ)
mH R2 ∂R ∂R
(5.139)
dove L è l’operatore di momento angolare del sistema nucleare. Le coordinate angolari sono separabili e
dunque la funzione d’onda è fattorizzata in una parte radiale (vibrazionale), ed in una parte rotazionale:
Φ(R, θ, φ) = S(R)YJK (θ, φ)
(5.140)
dove YJK è la generica armonica sferica
L2 YJK (θ, φ) = J(J + 1)YJK (θ, φ)
(5.141)
5.11. HAMILTONIANO NUCLEARE
155
MMMMOOOOLLLLDDDDEEEENNNN
MMMOOOLLLDDDEEENNN
defaults used
Edge = 2.40 Contour 3D Psi = 2
CONTOUR VALUE
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
............
0.00000
0.02500
0.05000
0.07500
0.10000
0.12500
0.15000
0.17500
0.20000
0.22500
0.25000
0.27500
0.30000
0.32500
0.35000
-0.02500
-0.05000
-0.07500
-0.10000
-0.12500
-0.15000
-0.17500
-0.20000
-0.22500
-0.25000
Figura 5.6: Superficie che rappresenta l’orbitale 2pσu in un piano molecolare
dove L2 = −M2 in unità atomiche e la parte radiale è data dall’equazione



 d
d
R2
+ mR2 [E − E el (R)] − J(J + 1) S(R) = 0

 dR
dR
(5.142)
che può essere risolta per via numerica od anche analitica, se si assume una particolare forma funzionale
per E el (R) che ne approssimi l’andamento. Consideriamo per esempio lo stato elettronico 1sσg ed
approssimiamolo con un potenziale di Morse
E el (R) = D{1 − exp[−β(R − Re )]}
(5.143)
dove D, β ed Re sono costanti opportune. I livelli energetici rotovibrazionali sono calcolabili in modo
esatto e risultano essere:
µ
E = a0 n +
1
2
¶
µ
− a1 n +
1
2
¶2
µ
+ b0 J(J + 1) − b1 J 2 (J + 1)2 − c n +
¶
1
J(J + 1)
2
(5.144)
156
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
dove Il primo termine ha la forma di un oscillatore armonico, il secondo è una correzione anarmonica,
il terzo un contributo di tipo rotatore rigido, il quarto la correzione di moto centrifugo, il quinto
l’accoppiamento tra moto vibrazionale (numero quantico n) e rotazionale (numero quantico J).
5.12
Soluzione approssimata della struttura elettronica
Come vedremo nelle sezioni successive, lo studio di sistemi a molti elettroni dovrà tenere presente gli
stati di spin e sarà necessario rispettare il principio di esclusione di Pauli per descrivere la natura
fermionica degli elettroni. Nel caso della molecola di idrogeno ionizzata possiamo però adottare un
approccio semplice dato che un solo elettrone è presente nel sistema. Seguiamo la metodogia illustrata
nell’Appendice (D) ed introduciamo una base di sole due funzioni, 1sA (~r) e 1sB (~r), rispettivamente il
primo orbitale idrogenoide centrato sul nucleo A ed il primo orbitale idrogenoide centrato sul nucleo B.
Il calcolo della matrice rappresentativa dell’hamiltoniano (5.130) e della matrice di overlap portano alla
semplice equazione secolare
¯
¯ a + 1/R − E
¯
¯
¯ b + s/R − ES
b + s/R − Es
a + 1/R − E
¯
¯
¯
¯=0
¯
(5.145)
dove a è l’elemento di matrice dell’hamiltoniano elettronico a meno del termine 1/R rispetto a 1sA (~r),
b è l’elemento di matrice dell’hamiltoniano elettronico a meno del termine 1/R rispetto a 1sB (~r), s è
l’elemento di matrice di overlap tra le due funzioni, che sono normalizzate ma non ortogonali:
−2R
a = − 12 + e−2R + e R −1 < 0
−R
b =
− 2s +
´< 0
³ e (1 + R)
2
R
s =
e−R 1 + R + 3 > 0
(5.146)
Risolvendo si trovano le seguenti espressioni for i due autovalori E1 < E2 e relativi autostati
Stato fondamentale
E1 =
1
a+b
+
1+s R
1
(1sA + 1sB )
2(1 + s)
(5.147)
1
(1sA − 1sB )
2(1 + s)
(5.148)
Ψ1 = p
Stato eccitato
E2 =
a−b
1
+
1−s R
Ψ1 = p
La scelta della base utilizzata per il calcolo approssimato dei primi due stati elettronici della molecola di
idrogeno ionizzata è stata effettuata in base al comportamento al limite di R → ∞ della molecola, cioè
assumendo che sostanzialmente gli orbitali molecolari siano ottenibili come combinazioni lineari degli
orbitali atomici idrogenoidi centrati sui nuclei (metodo LCAO, Linear Combination of Atomic Orbitals).
5.13
Stati di spin
Ad ogni particella è associato un momento di spin. La definizione completa dello coordinate di una
particella deve includere dunque anche la descrizione del suo stato di spin. La giustificazione formale
5.14. PRINCIPIO DI INDISTINGUIBILITÀ
157
delle proprietà di spin richiede una formulazione della meccanica quantistica in modo che sia consistente
con la teoria della relatività ristretta. Il problema, affrontato da P.A.M. Dirac, conduce alla definizione in
modo non arbitrario di una proprietà assimilabile ad un momento angolare, che è descritta dall’operatore
~ Le componenti dell’operatore di spin (Sx , Sy , Sz ) obbediscono alle consuete regole
(vettoriale) di spin S.
di commutazione delle componenti di un operatore momento angolare generico:
[Sx , Sy ]
[Sz , Sx ]
[Sy , Sz ]
[S 2 , Sx ]
=
iSz
=
iSy
=
iSx
2
= [S , Sy ] = [S 2 , Sz ] = 0
(5.149)
Le autofunzioni dell’operatore di momento di spin sono ottenibili come:
S 2 |S, MS i = S(S + 1)|S, MS i
Sz |S, MS i = MS |S, MS i
(5.150)
con −S ≤ MS ≤ S Le autofunzioni dell’operatore di spin sono ortonormali. Per esempio, Per S = 1/2
sono permessi i valori MS = ±1/2 :
MS = +1/2
MS = −1/2
|αi = |1/2, +1/2i
|βi = |1/2, −1/2i
(5.151)
Le pseudo-coordinate di una particella avente spin S = 1/2 saranno quindi completamente definite solo
dopo aver specificato le coordinate spaziali (x, y, z) e il numero quantico di spin MS che può essere 1/2
(stato α) o −1/2 (stato β).
5.14
Principio di indistinguibilità
Se una proprietà misurabile dipende dalle coordinate di un’insieme di particelle indistinguibili, ogni
misura di detta proprietà deve essere indifferente al tipo di classificazione delle particelle. Consideriamo
per semplicità il caso di due sole particelle indistinguibili il cui stato sia descritto da una determinata
funzione d’onda Ψ. Se definiamo:
• la probabilità di trovare 1 in q1 e 2 in q2 :
|Ψ[q1 (1), q2 (2)]|2 dq1 dq2 ;
• la probabilità di trovare 1 in q2 e 2 in q1 :
|Ψ[q2 (1), q1 (2)]|2 dq1 dq2 ;
ne consegue che le due probabilità devono essere uguali:
|Ψ[q1 (1), q2 (2)]|2 = |Ψ[q2 (1), q1 (2)]|2
(5.152)
Quindi, poiche’ si puo’ sempre scegliere una funzione d’onda in modo che sia reale (almeno in assenza
di campi vettoriali, come un campo magnetico esterno), la funzione d’onda può solo cambiare di segno
quando le coordinate delle due particelle siano scambiate fra loro:
Ψ[q1 (1), q2 (2)] = ±Ψ[q2 (1), q1 (2)]
In generale, vale la seguente classificazione:
(5.153)
158
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
• Tutte le particelle con momenti di spin multipli dispari di 1/2 sono descritti da funzioni d’onda
antisimmetriche; p. es.: elettrone, protone, neutrone, 32 He2+ (e i nuclei a numero di massa dispari).
Tali particelle sono dette FERMIONI e seguono la statistica di Fermi-Dirac.
• Tutte le particelle con momenti di spin multipli pari di 1/2 sono descritti da funzioni d’onda
simmetriche; p. es.: fotone (S = 1), deuterone (S = 1), 42 He2+ (e i nuclei a numero di massa pari).
Tali particelle sono dette BOSONI e seguono la statistica di Bose-Einstein.
Gli elettroni sono fermioni con S = 1/2 e di conseguenza la funzione d’onda elettronica di una molecola
deve essere una funzione antisimmetrica rispetto allo scambio di coordinate tra due elettroni qualunque
(principio di Pauli). In generale data una collezione di bosoni indistinguibili rappresentata dalla funzione
d’onda Ψbosoni , se si definisce con P un generico operatore di permutazione (che opera un certo numero
di scambi tra le coordinate delle particelle, argomenti della funzione d’onda), vale che
PΨbosoni = Ψbosoni
(5.154)
cioè la funzione d’onda non cambia. Se è data invece una collezione di fermioni indistinguibili, con
funzione d’onda Ψfermioni , gli scambi di coordinate portano ad un possibile cambio di segno della funzione
d’onda:
PΨfermioni = (−)P Ψfermioni
(5.155)
dove (−1)P indica la parità della permutazione P.
5.15
Determinanti di Slater
È data una base completa ortonormale di funzioni delle coordinate spaziali di un elettrone φj (~r), detti
anche orbitali. Le proprietà di spin dell’elettrone sono descritte dalla base |mi, con m = ±1/2. Il
prodotto diretto della base di orbitali e di stati spin costituisce una base completa per l’elettrone, che
definiamo spin-orbitali. Un generico spin-orbitale è Sk (q) = φj (~r)|mi dove k indica la coppia j, m e q
indica le pseudo-coordinate (spaziali e di spin) dell’elettrone. La base di spinorbitali è ortonormale:
Z
[Sk |Sk0 ] =
dqSk (q)∗ Sk0 (q) = hφj |φj 0 ihm|m0 i = δj,j 0 δm,m0 = δk,k0
(5.156)
dove indichiamo con [. . .] l’integrazione in q. Una funzione d’onda elettronica è perciò sempre rappresentabile come una combinazione lineare di spin-orbitali:
Ψ=
X
ck Sk (q)
(5.157)
k
In un sistema multi-elettronico, sia Sk (n) un generico spin orbitale relativo all’elettrone n, cioè avente
come argomento le pseudo-coordinate qn . Una funzione di N elettroni può essere scritta come il prodotto
delle N funzioni spin-orbitaliche:
ΨHartree =
N
Y
k=1
Sk (k)
(5.158)
5.15. DETERMINANTI DI SLATER
159
La funzione precedente è chiamata prodotto di Hartree e non può rappresentare un insieme di fermioni,
poichè non verifica la (5.155). La costruzione di una funzione d’onda a N elettroni, simmetrizzata, si
può ottenere sotto forma di determinante di una matrice di funzioni N × N :
¯
¯
¯ S1 (1) S2 (1) . . . SN (1)
¯
1 ¯¯ S1 (2) S2 (2) . . . SN (2)
Ψ= √ ¯
...
...
...
N ! ¯¯ . . .
¯
¯ S1 (N ) S2 (N ) . . . SN (N )
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
(5.159)
La funzione d’onda è detta determinante di Slater. La proprietà (5.155) è infatti verificata osservando
che dalla definizione di determinante risulta:
1 X
Ψ= √
(−1)P PΨHartree
(5.160)
N! P
Esempio 37. Verifichiamo che la funzione d’onda soddisfi la (5.155). Le permutazioni costituiscono un gruppo, quindi date due permutazioni P0 e P, P0 P è un’altra permutazione e la sua parità è
(−1)P0 +P = (−1)P0 (−1)P . Quindi:
X
1 X
0
P0 Ψ = √
(−1)P P0 PΨHartree = (−1)P0
(−1)P P 0 ΨHartree = (−1)P0 Ψ
N! P
P0
Il principio di esclusione di Pauli è implicito nella definizione della funzione d’onda multielettronica
det Ψ, poichè questa vale zero se 2 elettroni sono rappresentati dallo stesso spin-orbitale (infatti un
determinante con due colonne uguali è zero) e cambia di segno se due elettroni scambiano la loro
posizione (infatti un determinante cambia di segno se si scambiano due righe).
In letteratura sono utilizzate di frequente le notazioni alternative:
• Ψ ≡ |S1 S2 . . . SN |
• φi (j) ≡ φi (j)α(j)
• φi (j) ≡ φi (j)β(j).
Una configurazione in cui gli elettroni hanno tutti gli spin accoppiati deve essere necessariamente una
autofunzione di S 2 con spin 0 (singoletto)
S 2Ψ = 0
(5.161)
e può essere scritta a partire da N funzioni d’onda monoelettronica sotto forma del seguente determinante di Slater:
Ψ = |φ1 φ1 φ2 φ2 . . . φN −1 φN −1 φN φN |
(5.162)
Il determinante di Slater è ottenuto dal prodotto di Hartree applicando l’operatore di anti-simmetria:
Ψ = AΨHartree
(5.163)
dove
1 X
(−1)P P
A= √
N! P
(5.164)
Nel seguito di questa sezione, consideriamo alcune proprietà degli operatori permutazione, dell’operatore
A e dei determinanti di Slater, che ci saranno utili nel seguito.
160
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
P è unitario. Ovvero P † = P −1 . Rappresentiamo con q l’insieme delle coordinate elettroniche.
Applicando P ad una generica funzione multielettronica Ψ(q), sostituiamo a q un set di coordinate
scambiate:
PΨ(q) = Ψ(q0 )
(5.165)
Vale anche, per definizione, che
Ψ(q) = P −1 Ψ(q0 )
(5.166)
Se consideriamo ora la definizione di aggiunto di P, si ha che
hPΨq (q)|Ψ2 (q)i = hΨ1 (q)|P † |Ψ2 (q)i
(5.167)
ed applicando (5.165) al ket e (5.166) al bra del primo membro si ha
hPΨq (q)|Ψ2 (q)i = hΨq (q)|P −1 |Ψ2 (q)i
(5.168)
quindi P † = P −1 .
A è hermitiano. Infatti:
1 X
1 X
1 X
A† = √
(−1)P P † = √
(−1)P P −1 = √
(−1)−P P −1 = A
N! P
N! P
N ! −P
(5.169)
A2 è proporzionale a A. Sviluppando il quadrato si ottiene:

A2 =

i
=

X
1 X
1 XX
(−1)Pi Pi   (−1)Pj Pj  =
(−1)Pi +Pj Pi Pj
N! P
N
!
P P
P
j
i
j
√
1 X
(−1)pk Pk = N !A
N! P
(5.170)
k
Commutazione. Dato un’operatore O simmetrico rispetto ad uno scambio di coordinate, vale naturalmente che
[O, P] = 0 → [O, A] = 0
(5.171)
Ortonormalità. I determinanti di Slater sono ortonormali. infatti:
hΨ|Ψ0 i = hAΨHartree |AΨ0Hartree i = hΨHartree |A2 |Ψ0Hartree i =
√
N !hΨHartree |A|Ψ0Hartree i
(5.172)
da cui segue che
hΨ|Ψ0 i = hΨHartree |
P
P
0
P (−1) P|ΨHartree i
= hΨHartree |Ψ0Hartree i = δΨ,Ψ0
(5.173)
5.16. METODO DI HARTREE-FOCK
161
Invarianza. I determinanti di Slater sono invarianti rispetto ad una trasformazione unitaria degli
spinorbitali. Sia U una matrice N ×N unitaria, tale cioè che U† = U−1 , il che implica | det U|2 = 1.
Una trasformazione unitaria degli spinorbitali conserva l’ortonormalità
Si0 =
X
Sj Uji → [Si0 |Si00 ] =
X
∗
Uji
Uj 0 i0 [Sj |Sj 0 ] = (U† U)ii0 = δi,i0
(5.174)
j,j 0
j
Se indichiamo con Ψ0 il determinante di Slater costruito con gli spinorbitali Si0 , abbiamo che
¯
¯ 0
0 (1)
¯ S1 (1) S20 (1) . . . SN
¯
0 (2)
1 ¯¯ S 0 (2) S20 (2) . . . SN
Ψ0 = √ ¯ 1
...
...
...
N ! ¯¯ . . .
¯ 0
0
0
¯ S1 (N ) S2 (N ) . . . SN (N )
¯
¯
¯
¯
¯
¯ S1 (1) S2 (1) . . . SN (1)
¯
¯
¯
1 ¯¯ S1 (2) S2 (2) . . . SN (2)
¯
¯= √
¯
¯
...
...
...
N ! ¯¯ . . .
¯
¯
¯
¯
¯ S1 (N ) S2 (N ) . . . SN (N )
¯
¯
¯
¯
¯
¯
¯ det U(5.175)
¯
¯
¯
¯
vale a dire Ψ0 = Ψ det U = Ψ exp(iφ), cioè il nuovo determinante di Slater differisce dal vecchio
solo per un fattore di fase, che è ininfluente nel calcolo dei valori di attesa.
5.16
Metodo di Hartree-Fock
L’approssimazione di Hartree-Fock è alla base del più usato metodo di calcolo ab initio per strutture
elettroniche molecolari. Deve perciò essere chiaro che si tratta di una approssimazione appunto, e
non di un metodo esatto di risoluzione dell’equazione di Schrödinger elettronica, ed ha per fine la
determinazione dello stato fondamentale di un sistema di elettroni. Considereremo dunque una molecola
di N elettroni. L’hamiltoniano elettronico in unità atomiche è:
N
X
X
1
|~rn − ~rn0 |
(5.176)
X
Zk
1
ĥ(n) = − ∇2n −
~ k|
2
rn − R
k |~
(5.177)
H=
n=1
ĥ(n) +
n6=n0
dove
l’hamiltoniano monoelettronico di “core” di ciascun elettrone è relativo all’energia cinetica e di interazione con i nuclei.
L’approssimazione di Hartree consiste nell’identificare la funzione d’onda multielettronica (autofunzione dell’hamiltoniano elettronico) come il prodotto di Hartree di N funzioni d’onda monoelettroniche.
Evidentemente, l’approssimazione di Hartree agisce a due livelli
1. si assume una forma di funzione d’onda compatibile solo con un hamiltoniano separabile dei N
elettroni;
2. si trascura il principio di indistinguibilità e dunque non si applica il principio di Pauli.
L’approssimazione di Hartree-Fock (HF) consiste nell’obbligare la funzione d’onda ad obbedire al principio di Pauli, assumendo che la sua forma non sia un prodotto di Hartree, bensı̀ un determinante di
Slater: cioè che sia data dall’equazione (5.15). Resta l’approssimazione fondamentale: una funzione
162
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
d’onda multielettronica è approssimata da una somma finita di prodotti di funzioni monoelettroniche.
Il problema è a questo punto formulabile nel modo seguente: nell’ambito dell’approssimazione HF, quali
sono le funzioni monoelettroniche spaziali e di spin (spinorbitali) S1 , . . . , SN che assicurino che l’energia
totale della molecola sia più vicina a quella esatta?
Allo scopo di determinare i migliori2 spinorbitali Si si impiega il principio variazionale: il valore
di attesa dell’hamiltoniano rispetto ad una funzione d’onda arbitraria è sempre maggiore del primo
autovalore del sistema. Vale a dire che se si calcola il valore di attesa (la media) dell’hamiltoniano
elettronico rispetto al determinante di Slater, si ottiene una valore numerico che è sempre maggiore
dell’energia esatta del sistema multi-elettronico. È chiaro perciò che i migliori orbitali si possono ottenere
cercandone la forma che rende minimo, e perciò più vicino al valore esatto, il valore di attesa.
5.16.1
Ottimizzazione degli spinorbitali
3
Definiamo un algoritmo di calcolo degli spinorbitali che descrivono lo stato fondamentale Ψ0 = Ψ,
dove Ψ è il determinante di Slater (5.15) per una molecola di N elettroni secondo l’approssimazione
HF. È dato il valore di attesa dell’hamiltoniano rispetto al determinante di Slater:
E = hΨ|H|Ψi
(5.178)
Assumiamo che gli N spinorbitali S1 , . . . , SN siano ortonormali; diciamo VHF il sottospazio generato
dalla base S1 , . . . , SN ; per una variazione infinitesimale di ciascun spinorbitale
Si0 = Si + δSi
(5.179)
possiamo costruire lo spinorbitale
0
Ψ0 = |S10 S20 . . . SN
|
(5.180)
P
e limitando lo sviluppo ai soli termini al primo ordine si ottiene Ψ0 = Ψ + i δΨi dove δΨi =
|S1 . . . δSi SN |. Se le variazioni δSi sono ortogonali allo spazio VHF risulta che la variazione al primo
ordine del valore di attesa dell’hamiltoniano rispetto al determinante di Slater è data da
δE =
X
hδΨi |H|Ψi + hΨ|H|δΨi i
(5.181)
i
Possiamo perciò affermare che la variazione infinitesimale δE è nulla al primo ordine (cioè E è minimo)
se sono indipendentemente nulli i seguenti integrali
hδΨi |H|Ψi = 0
(5.182)
cioè se una variazione infinitesimale di un generico spinorbitale, ortogonale a VHF , dà un contributo
nullo alla variazione del valore di attesa.
2
Nel senso appena definito: tali che ottimizzano il calcolo dell’energia elettronica dello stato fondamentale della molecola
nell’approssimazione di Hartree-Fock, cioè rappresentando lo stato fondamentale stesso mediante un unico determinante
di Slater
3
Questa sezione e la successiva sono in parte basate su appunti di lezione del prof. Giorgio J. Moro
5.16. METODO DI HARTREE-FOCK
163
La condizione (5.182) può essere ridotta al calcolo di un integrale monoelettronico:
hδΨi |H|Ψi =
1 X
N ! P 0 ,P 00
Z
0
00
dq(−1)P (−1)P δΨi ∗Hartree P 0
−1
HP 00 ΨHartree
(5.183)
dove si ricordi che q rappresenta l’insieme delle pseudocoordinate del sistema e ΨHartree è il prodotto di
Hartree costruito con gli N spinorbitali; nell’equazione precedente siè fatto uso della proprietà P † = P −1 .
La sommatoria su P 00 può essere sostituita con la sommatoria su P = P 0−1 P 00 , tenendo conto del fatto
che H commuta con una generica permutazione, [H, P] = 0. Si ottiene perciò che
hδΨi |H|Ψi =
X
Z
(−1)
P
dqδΨi ∗Hartree HPΨHartree
(5.184)
P
e quindi si può scrivere
X
(−1)P


Z
dqδΨi ∗Hartree ĥ(i) +
P
X 1
r
n6=i ni
 PΨHartree
(5.185)
che può essere scritto come
hδΨi |H|Ψi = [δSi |ĥ|Si ] +
X
([δSi Si |Sn Sn ] − [δSi Sn |Sn Si ])
(5.186)
n6=i
dove sono definiti i seguenti integrali mono e bi-elettronici:
Z
[Sa |ĥ|Sb ] =
dq1 Sa (1)∗ ĥ(1)Sb (1)
(5.187)
Z
[Sa Sb |Sc Sd ] =
dq1 dq2 Sa (1)∗ Sb (1)
1
Sc (2)∗ Sd (2) = [Sb Sa |Sd Sc ]∗ = [Sc Sd |Sa Sb ]
r12
(5.188)
Possiamo definire l’operatore di Coulomb associato all’n-esimo spinorbitale
·Z
¸
dq2 Sn (2)∗
Jn (1)Sm (1) =
1
Sn (2) Sm (1)
r12
(5.189)
e l’operatore di scambio associato all’n-esimo spinorbitale
·Z
¸
dq2 Sn (2)∗
Kn (1)Sm (1) =
1
Sm (2)Sn (1)
r12
(5.190)
In questo modo gli integrali bi-elettronici si possono scrivere come elementi di matrice monoelettronici
degli operatori di Coulomb
[Sa Sb |Sn Sn ] = [Sa |Jn |Sb ]
(5.191)
e di scambio:
[Sa Sn |Sn Sb ] = [Sa |Kn |Sb ]
(5.192)
ed in definitiva possiamo scrivere la variazione hδΨi |H|Ψi nella forma:
hδΨi |H|Ψi = [δSi |F|Si ]
(5.193)
dove F è l’operatore (monoelettronico) di Fock:
F(1) = ĥ(1) +
Xh
n
i
Jˆn (1) − Kn (1)
(5.194)
164
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
L’operatore di Fock dipende, tramite gli operatori di Coulonb e di scambio, dal set di spinorbitali che
definisce VHF . La condizione di stazionarietà variazionale è espressa dall’equazione
[δSi |F|Si ] = 0
(5.195)
per tutti gli spinorbitali Si e qualsiasi variazione δSi ortogonale a VHF , che deve perciò essere uno spazio
chiuso rispetto a F:
FSi ∈ VHF .
5.16.2
(5.196)
Proprietà dell’operatore di Fock
L’operatore di Fock F è definito in relazione agli spinorbitali che generano lo spazio hilbertiano VHF ,
ma non dipende da una scelta specifica di questi spinorbitali. In altre parole, vale il seguente teorema
Teorema l’operatore F è invariante rispetto ad una trasformazione unitaria della base che genera lo
spazio VHF
Se infatti trasformiamo gli N spinorbitali secondo la trasformazione unitaria
Si0 =
X
Sj Uji
(5.197)
j
dove U−1 = U† , si trova che sia la somma degli operatori di Coulomb
Z
X 0
X
X
1
∗
ˆ
ˆ
J (n) (UU )jj 0 dq2 Sj (2)∗
Sj 0 (2) =
J(n)
r
12
0
n
n
jj
che di quelli di scambio
X
0
K (n)Sa (1)
n
X
Z
∗
dq2 Sj (2)∗
(UU )
jj 0
jj 0
X
1
Sa (2)Sj 0 (2) =
K(n)Sa (1)
r12
n
(5.198)
(5.199)
risulta invariata, e dunque l’operatore di Fock stesso risulta invariato. Un’altra importante proprietà
dell’operatore di Fock è la seguente
Teorema l’operatore F è autoaggiunto F † = F.
Infatti ĥ(1) è autoaggiunto per definizione; per gli operatori coulombiani e di scambio vale che:
¸ h
·Z
·
¸
Z
i∗
h
i
1
†
Sa |Jˆn |Sb = Sb |Jˆn |Sa = dq1 Sa (1)∗
dq2 Sn (2)∗
Sn (2) Sb (1) = Sa |Jˆn |Sb
(5.200)
r12
h
i
Sa |K†n |Sb = [Sb |Kn |Sa ]∗ =
·Z
Z
dq2 Sa (2)∗
¸
dq1 Sn (1)∗
1
Sb (1) Sn (2) = [Sa |Kn |Sb ]
r12
(5.201)
Poichè F non genera spinorbitali che appartengono allo spazio complementare a VHF , una volta nota una
base ortonormale completa di spinorbitali in cui i primi N elementi siano base per lo spazio VHF stesso,
l’operatore di Fock è rappresentabile come una matrice diagonale a blocchi, ovvero (F)ij = [Si |F|Sj ]
vale 0 se 1 ≤ i ≤ N e j ≥ N + 1 o i ≥ N + 1 e 1 ≤ j ≤ N . Per mezzo di una trasformazione unitaria
della base ortonormale iniziale possiamo sempre rendere diagonale la matrice F, vale a dire possiamo
sceglere come base ortonormale l’insieme di autofunzioni di F:
FSi = ²i Si
i = 1, . . . , N, N + 1, . . .
(5.202)
La procedura per il calcolo di un insieme completo di spinorbitali ortonormali che verifichino l’approssimazione
HF è dunque
5.16. METODO DI HARTREE-FOCK
165
1. scelta di una base di spinorbitali e selezione di una sottobase, cioè dello spazio VHF
2. calcolo di F per il dato VHF
3. diagonalizzazione di F
4. confronto delle prime N autofunzioni di F e della base; iterazione della procedura dal punto 2.
fino al raggiungimento della condizione di autoconsistenza, ovvero della indistinguibilità (a meno
di qualche opportuno criterio di precisione numerica) tra le prime N autofunzioni di F e della
base.
L’algoritmo cosı̀ definito permette la determinazione di un insieme di spinorbitali che è completo, cioè
include anche gli spinorbitali SN +1 , SN +2 , . . ., detti orbitali virtuali, che non compaiono nella definizione
dello stato fondamentale e possono essere usati per rapresentare gli stati eccitati della molecola.
Una volta noti gli spinorbitali che verifichino le condizioni precedenti, l’energia dello stato fondamentale della molecola si può calcolare direttamente del valore di attesa dell’hamiltoniano elettronico
rispetto al determinante di Slater:
E = hΨ|H|Ψi =


X
i

1X
([Si Si |Sn Sn ] − [Si Sn |Sn Si ])
[Si |ĥ|Si ] +


2 n6=i
(5.203)
vale a dire
E=
X
[Si |ĥ +
i
1X ˆ
(J n − Kn )|Si ]
2 n
L’energia totale non è la somma dei primi N autovalori di F, poichè la somma
premoltiplicata per il fattore 1/2; se si scrive l’operatore di Fock come
F = ĥ + G
(5.204)
P
ˆ − Kn ) compare
n (J n
(5.205)
allora l’energia totale è
E=
X
i
[Si |F − G/2|Si ] =
X
[Si |ĥ + G/2|Si ]
(5.206)
i
dove G descrive l’interazione tra un elettrone e tutti gli altri elettroni (da cui segue il fattore 1/2 per
non contare l’interazione due volte).
Il significato fisico degli autovalori ²i dell’operatore di Fock può essere ricavato dal teorema di
Koopmans
Teorema a meno di correzioni di ordine superiore al primo, gli spinorbitali ottenuti secondo la procedura HF per un sistema di N elettroni e equlli relativi ai sistemi con un’elettrone in più o in
meno sono gli stessi
Di conseguenza l’energia Ek del sistema dopo aver estratto un elettrone si può ottenere, secondo il
teorema di Koopmans, come
E − Ek = [Sk |ĥ + G|Sk ] = [Sk |F|Sk ] = ²k
(5.207)
166
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
Se quindi Sk è l’autostato dell’operatore di Fock con autovalore ²k più elevato occupato (Highest Occupied Molecular Orbital, HOMO, a cui segue il Lowest Unoccupied Molecular Orbital, LUMO), −²k è
l’energia di prima ionizzazione del sistema, cioè la minima energia richiesta per la reazione
+
X(g) → X(g)
+ e−
(5.208)
dove X rappresenta il sistema molecolare di N elettroni.
Per He e Li i potenziali di ionizzazione misurati sono rispettivamente -24.5 eV e -5.39 eV contro
valori calcolati secondo HF pari a -24.98 eV e -5.34 eV.
5.16.3
Sistemi a guscio chiuso
La procedura descritta nella sezione precedente è riferita ad uns sistema elettronico generico, ed è perciò
detta UHF, cioè “unrestricted” HF. Se S~ è l’operatore di spin elettronico totale
S~ =
X
~
S(n)
(5.209)
n
deve valere che [H, S 2 ] = [H, Sz ] = 0, poichè come abbiamo visto non includiamo termini espliciti di
spin nell’hamiltoniano elettronico. Di conseguenza la funzione multielettronica deve essere autofunzione
di S 2 e di Sz : il metodo UHF non assicura questa proprietà. In pratica buona parte delle applicazioni
sono per molecole stabili in stato di singoletto di spin, con un numero N pari di elettroni. Si può quindi
definire fin dal principio un determinante di Slater scelto in maniera tale da verificare la condizione
di essere uno stato di singoletto, cfr. Eq. (5.161). Come abbiamo visto nel capitolo precedente, se si
definiscono N/2 orbitali φ1 , φ2 , . . . , φN/2 , il determinante di Slater si può costruire alternando stati di
spin α e β
Ψ = |φ1 φ1 φ2 φ2 . . . φN/2 φN/2 |
(5.210)
In questo caso di parla di metodo RHF, cioè “restricted” HF. La procedura RHF si può facilmente
ricavare dal caso più generale UHF, verificando che l’operatore di Fock conserva la componente di spin
F(1)φi (1)|m(1)i = |m(1)iF̂ φi (1)
(5.211)
dove F̂ è un’operatore di Fock che agisce sulla sola parte orbitalica
N/2 h
F̂ (1) = ĥ(1) +
X
i
2Jˆn (1) − K̂ n (1)
(5.212)
i=n
dove si impiega l’operatore di Coulomb associato all’n-esimo orbitale
·Z
¸
Jˆn (1)φm (1) =
dr2 φn (2)∗
1
φn (2) φm (1)
r12
(5.213)
e l’operatore di scambio associato all’n-esimo orbitale
·Z
¸
1
dr2 φn (2)
φm (2)φn (1)
r12
∗
K̂ n (1)φm (1) =
(5.214)
L’energia totale di un sistema a guscio chiuso si può scrivere nella forma
N/2
E=2
X
i
N/2
hi +
X
i,j
(2Jij − Kij )
(5.215)
5.16. METODO DI HARTREE-FOCK
167
dove sono definire i seguenti integrali mono e bi-elettronici
Z
hi = hφi (1)|ĥi (1)|φi (1)i =
Z
d~r1 d~r2 |φi (1)|2
Jij =
(5.216)
1
|φj (2)|2
r12
Z
Kij =
d~r1 φi (1)∗ ĥi (1)φi (1)
d~r1 d~r2 φi (1)∗ φj (1)
(5.217)
1
φi (2)∗ φj (2)
r12
(5.218)
dove Jij e Kij sono detti gli integrali coulombiani e di scambio. In Appendice (E) il valore di attesa
dell’hamiltoniano monoelettronico viene riderivato in modo esplicito e semplificato per il solo caso di
un sistema a guscio chiuso.
5.16.4
Soluzione numerica delle equazioni HF
La natura delle equazioni di Hartree-Fock è intrinsecamente non-lineare: gli operatori agenti sugli
orbitali φi dipendono a loro volta dagli orbitali φi stessi. Di conseguenza uno schema di soluzione
numerica naturale è di tipo auto-consistente, come è stato già evidenziato nella sezione precedente
(0)
(0)
1. si definiscono delle funzioni in ordine 0, φ1 , . . . , φN/2 ;
(0)
(0)
(0)
2. si calcolano le forme esplicite degli operatori Jˆj , K̂ j in funzione delle funzioni φi ;
(1)
(1)
3. si calcolano nuove funzioni φ1 , . . . , φN/2 , risolvendo il problema agli autovalori lineare con gli
(0)
(0)
operatori Jˆj , K̂ j ;
(1)
(1)
(1)
4. si calcolano nuovi operatori Jˆj , K̂ j in funzione delle funzioni φi ;
(n+1)
5. il ciclo si ripete finchè le funzioni φ1
errore prefissato.
(n+1)
, . . . , φN/2
(n)
(n)
differiscono dalle φ1 , . . . , φN/2 a meno di un
Il modo migliore di procedere è, oggigiorno, quello di espandere linearmente le funzioni incognite φi su
un set di funzioni di base note. I coefficienti numerici dell’espansione divengono poi le vere incognite
del problema: in questo modo si riduce un sistema di equazioni differenziali ad un sistema di equazioni
ordinarie, che deve poi comunque essere risolto in modo auto-consistente.
Un set di funzioni di base permette di esprimere qualunque funzione come combinazione lineare delle
funzioni componenti:
φ = Ctr χ
(5.219)
dove χm = χm e C è una matrice il cui vettore colonna m sarà indicato con cm








φ1
φ2
...
φM

 
 
 
=
 
 
c11 c12
c21 c22
... ...
cM 1 cM 2
. . . c1M
. . . c2M
... ...
. . . cM M
tr 













χ1
χ2
...
χM



 = (c1 , c2 , . . . , cM )tr χ


(5.220)
168
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
Si possono definire varie grandezze matriciali e vettoriali in termini dei coefficienti cm e di altri integrali
che coinvolgono gli orbitali (noti) χm :
∆pq = hχp |χq i
(5.221)
hi = hφi |ĥ(1)|φi i = c†i χ† ĥ(1)χci = c†i hci
(5.222)
Ji pq = hχp |Jˆi |χq i
(5.223)
Jij = c†i Jj ci = c†j Ji cj
(5.224)
Ki pq = hχp |K̂i |χq i
(5.225)
Kij = c†i Kj ci = c†j Ki cj
(5.226)
L’energia HF assume la forma:
hHiav = 2
X †
ci hci +
i
X †
ci (2Jj − Kj )ci
(5.227)
ij
Le equazioni di Hartree-Fock diventano le equazioni di Roothaan:
FC = ∆C²
(5.228)
dove Fpq = hχp |F̂ |χq i.
La scelta delle funzioni orbitaliche di base è di importanza fondamentale per l’acccuratezza del
calcolo HF. Sostanzialmente è necessario bilanciare due fattori i) all’aumentare del numero di funzioni
di base il calcolo sarà più accurato, ma il costo in termini computazionali (CPU, spazio di memoria per
immagazzinare gli integrali mono e bielettronici) crescerà in modo superlineare con il numero di funzioni
di base stesso; ii) funzioni di base accurate, costituite per esempio dagli orbitali dell’atomo idrogenoide,
per quanto siano più efficienti in termini di numero di funzioni di base, possono comportare un aumento
nel costo computazionale dovuto all’aumentata complessità nel calcolo degli integrali. Per un sistema
molecolare si può in generale scegliere un set di funzioni di base tale da riprodurre lo stato fondamentale
degli atomi componenti: è questa la cosiddetta base minima. Per esempio, nel caso della molecola CO
si possono usare come base minima gli orbitali atomici (AO) 1s, 2s, 2px,y,z per il carbonio e gli stessi
orbitali per l’ossigeno; per la molecola di ammoniaca NH3 si possono usare ancora i medesimi orbitali
centrati sull’azoto gli orbitali 1s per i tre atomi di idrogeno e cosı̀ via. Si parla di basi estese quando si
includono AO relativi a stati non occupati dei singoli atomi.
Tra le funzioni più utilizzate per definire gli AO di partenza, ricordiamo
orbitali idrogenoidi ottenuti dalla soluzione del problema agli autostati per un atomo idorgeonoide,
della forma generica
Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ)
(5.229)
già discussi in precedenza, costituiti dal prodotto delle armoniche sferiche per le funzioni di Laguerre:
s
Rnl =
(n − l − 1)!Z l+1 2l+1
ρ Ln+l (ρ) exp(−ρ/2)
n2 [(n + l)!]3
(5.230)
5.16. METODO DI HARTREE-FOCK
169
Queste funzioni sono ortogonali, non-complete ed in generale computazionalmente ‘costose’, data
la loro forma particolarmente complicata.
Slater-type orbitals, STO aventi la forma generale
1
(2α)n+1/2 rn−1 exp(−αr)Ylml (θ, φ)
(2n)!
uα,n,l,ml (r, θ, φ) = p
(5.231)
dove n ed α sono parametri variazionali; costituiscono un set completo relativamente poco costoso
computazionalmente benchè non siano ortogonali.
Gaussian-type orbitals, GTO espressi come
gα,n,l,ml (r, θ, φ) = N rn−1 exp(−αr2 )Ylml (θ, φ)
(5.232)
Solitamente si impiegano combinazioni lineari di GTO per rappresentare in modo approssimato
gli orbitali di tipo STO: si parla cosı̀ di basi STO-2G, STO-3G, . . . , STO-6G per descrivere basi
costituite da funzioni STO approssimate come combinazioni lineari di 2, 3, . . . , 6 GTO.
Riassumendo: un calcolo RHF secondo il metodo di Roothaan della struttura elettronica dell’acqua
H2 O con una base minima STO-4G prevede l’applicazione del metodo RHF con la base di 7 AO nonortogonali 1sO , 2sO , 2px,y,zO e 1sH1 , 1sH2 descritti come STO approssimati da 4 GTO ciascuno. Altre
basi molto usate sono caaratterizzate da un trattamento più accurato di alcuni elettroni rispetto ad
altri, come le funzioni 3-21G, funzioni STO approssimate da 3 GTO per gli elettroni interni e 2 per
ogni elettrone di valenza e le funzioni 6-21 o 6-31G, con 6 gaussiane per gli elettroni interni; ricordiamo
anche le funzioni 6-31G∗ considerano anche AO di tipo d e 6-31G∗∗ che includono AO di tipo p centrati
sugli idrogeni.
5.16.5
Interazione di configurazione
A differenza del metodo di Hartree-Fock, il metodo dell’interazione di configurazione (CI), è almeno in
principio in grado di fornire un risultato esatto (o arbitrariamente vicino al risultato esatto) del calcolo
della funzione d’onda elettronica. L’idea alla base del metodo CI è molto semplice: la funzione d’onda
è data da una combinazione (non necessariamente lineare) di funzioni di base note multielettroniche; i
coefficienti dell’espansione sono determinati sulla base del principio variazionale. Riassumiamo brevemente il principio variazionale per il calcolo di una generica funzione d’onda multielettronica partendo
dal rapporto di Rayleigh per una generica funzione d’onda Ψ
²[Ψ] =
hΨ|H|Ψi
hΨ|Ψi
(5.233)
Il principio variazionale afferma che se E0 è il più basso autovalore del sistema, il rapporto di Rayleigh
è sempre maggiore o uguale di E0
²[Ψ] ≥ E0
(5.234)
La dimostrazione è la seguente: espandiamo Ψ sulla base delle autofunzioni esatte dell’hamiltoniano H
HΦ = En Φ
E0 ≤ E1 ≤ . . .
(5.235)
170
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
hΦn |Φ0n i = δnn0
Ψ=
X
(5.236)
cn Φn
(5.237)
n
consideriamo la quantità hΨ|H − E0 |Ψi:
hΨ|H − E0 |Ψi =
X
c∗n cn0
(5.238)
nn0
hΦn |H − E0 |Φn0 i =
X
c∗n cn0 (En − E0 )hΦn |Φn0 i =
X
|cn |2 (En − E0 ) ≥ 0
(5.239)
n
nn0
infatti |cn |2 ≥ 0, En ≥ E0 ; segue che:
hΨ|H|Ψi − E0 hΨ|Ψi ≥ 0 ⇒ ²[Ψ] ≥ E0
QED
(5.240)
Nella sua versione piú comune, il metodo CI è implementato sotto forma di metodo variazionale
lineare. La funzione d’onda di prova Ψ è cioè data come una combinazione lineare di funzioni note:
Ψ=
N
X
cn0 Ψn0
(5.241)
n0 =1
sostituendo in HΨ = EΨ:
X
cn0 HΨn0 = E
n0
X
cn0 Ψn0
(5.242)
n0
premoltiplicando per Ψn ed integrando:
X
cn Hnn0 = E
n0
X
cn Snn0
(5.243)
n0
dove Hnn0 = hΨn |H|Ψn0 i, Snn0 = hΨn |Ψn0 i; in forma matriciale:
Hc = ESc
(5.244)
Il problema agli autovalori diviene più semplice se si assumono delle funzioni di base ortonormali S = 1:
Hc = Ec
(5.245)
In linea di principio, un calcolo CI dovrebbe includere un numero infinito di funzioni multielettroniche.
Se ci limitiamo a rappresentare ogni possibile configurazione multielettronica come un determinante
di Slater costruito a partire dagli spinorbitali (reali e virtuali) definiti nel corso di un calcolo UHF o
RHF, dobbiamo comunque considerare un numero molto elevato di possibili configurazioni accoppiate
con lo stato fondamentale rappresentato dalla funzione Ψ0 . Possiamo però considerare in ordine di
importanza le correzioni apportate dalle varie configurazioni. Sia M lo spazio degli stati del sistema
multielettronico, che si può ripartire come
M = M0 ⊗ M1 ⊗ M2 ⊗ M3 ⊗ . . .
(5.246)
dove M0 è lo spazio monodimensionale costituito da Ψ0 ; M1 è lo spazio costituito dai determinanti di
Slater ottenuti sostituendo in Ψ0 uno spinorbitale virtuale ad uno reale (configurazioni eccitate singolarmente); M1 è lo spazio costituito dai determinanti di Slater ottenuti sostituendo in Ψ0 due spinorbitali
virtuali a due reali (configurazioni eccitate doppiamente); e cosı̀ via. Vale ora il seguente teorema
5.16. METODO DI HARTREE-FOCK
171
Teorema di Brillouin. Gli elementi di matrice tra spinorbitali appartenenti a M1 e Ψ0 sono nulli.
dal cui si può concludere che le configurazioni singolarmente eccitate non hanno un effetto diretto sulla
correzione CI. In molti casi il metodo Ci viene applicato includendo solo le configurazioni di stato
fondamentale e quelle doppiamente eccitate (M2 ). Si noti che un’effetto indiretto delle configurazioni
singolarmente eccitate è naturalmente presente, dato che sono comunque accoppiate con gli elementi di
M2 , M3 etc.
M
0
M0
M
1
M2
M
1
M
2
11111
00000
00000
11111
00000
11111
00000
11111
00000
11111
0000000000000
1111111111111
00000
11111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
Figura 5.7: Schema degli elementi di matrice H nel metodo CI. Sono indicati in nero i blocchi diagonali
non nulli, in grigio i blocchi non-diagonali non nulli, in bianco i blocchi non-diagonali nulli
La differenza tra l’energia esatta dello stato fondamentale e quella calcolata nell’approssimazione
HF è detta energia di correlazione elettronica
Ecorr = Eesatta − EHF
(5.247)
Una metologia sostanzialmente equivalente per il calcolo di Ecorr è basata su un trattamento perturbativo
e va sotto il nome di correzione di Mœller-Plesset (o metodo MPPT, Mœller-Plesset perturbation theory).
È basato su una separazione dell’hamiltoniano elettronico in due contributi: uno considerato di ordine
zero secondo la teoria delle perturbazioni indipendenti dal tempo e coincidente con l’operatore di Fock,
l’altro equivalente alla differenza tra F e H:
H = H(0) + H(1) ≡ F + (H − F)
(5.248)
L’energia dello stato fondamentale nel limite HF è data dai contributi perturbativi di ordine zero e di
ordine uno:
EHF = hΨ0 |H(0) + H(1) |Ψ0 i
(5.249)
assumendo come funzione d’onda dello stato fondamentale in ordine zero la solita funzione Ψ0 risultante
dal calcolo HF. Correzioni non banali di ordine successivo si calcolano a partire dal secondo ordine in poi,
172
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
che coinvolgono elementi di matrice tra Ψ0 e configurazioni doppiamente eccitate (metodo MPPT2).
Ordini successivi di correzioni perturbative coinvolgono configurazioni una, due e tre volte eccitate
(metodo MPPT3) e cosı̀ via.
5.16.6
Alcuni esempi di calcolo ab initio
In questa sezione sono illustrati molto brevemente alcuni esempi di calcolo ab initio RHF. I calcoli
sono stati effettuati impiegando il software Gaussian 94, un pacchetto per determinare strutture elettroniche, ottimizzazione di geometrie etc. La descrizione dei risultati è stata fatta impiegando Molden,
un pacchetto per la visualizzazione di vari programmi di calcolo (oltre a Gaussian 94 sono disponibili come freeware, shareware od in commercio molti altri pacchetti software: ricordiamo tra gli altri
Gamess, Spartan, Mopac).
L’hamiltoniano elettronico della molecola di idrogeno è
H = h(1) + h(2) +
1
r12
(5.250)
La molecola è descritta nello stesso sistema di riferimento già utilizzato per la molecola di idrogeno
ionizzata, H+
r1 e ~r2 . Lo stato fondamentale
2 , salvo la presenza di due elettroni definiti dalle coordinate ~
è descritto dal determinante di Slater
Ψ = |φφ|
(5.251)
e l’operatore di Fock (RHF, guscio chiuso, spin e parte orbitalica fattorizzate) può essere scritto come:
F̂ = −∇2 −
1
1
−
+ 2Jˆ − K̂
rA rB
(5.252)
dove Jˆ e K̂ sono definiti come
ˆ r)φ(~r) = K̂(~r)φ(vr) =
J(~
ÃZ
!
|φ(~r)|2
φ(~r)
d~r
|~r − ~r0 |
0
(5.253)
Adottando il metodo di Roothaan con una base minima assumiamo che un generico orbitale sia
φi = c1i 1sA + c2i 1sB
(5.254)
poichè usiamo una base di 2 funzioni per un sistema a guscio chiuso con 2 elettroni, otteremo due
orbitali, uno reale (HOMO) e l’altro virtuale (LUMO). La diagonalizzazione dell’operatore di Fock sulla
base scelta porta alla seguente equazione secolare
¯
¯ a + J 0 − ² b + J 00 − ²s
¯
¯
¯ b + J 00 − ²s a + J 0 − ²
¯
¯
¯
¯=0
¯
(5.255)
dove a, b ed s sono state definte in precedenza per lo studio approssimato della molecola di idrogeno
ionizzata, mentre gli integrali J 0 e J 00 sono definiti come
J 0 = h1sA |2Jˆ − K̂|1sA i = h1sB |2Jˆ − K̂|1sB i
(5.256)
J 00 = h1sA |2Jˆ − K̂|1sB i = h1sB |2Jˆ − K̂|1sA i
(5.257)
5.16. METODO DI HARTREE-FOCK
173
Gli autovalori ²i e i coefficienti di espansione cij si possono trovare immediatamente, senza cioè applicare
alcun metodo iterativo, poichè il sistema è definito completamente dalle sue proprietà di simmetria. Gli
autovalori sono ottenuti come
a ± +J 0 ∓ J 00
²1,2 =
(5.258)
1±s
mentre gli orbitali sono dati da
φ1,2 = p
1
(1sA ± 1sB )
2(1 ± s)
(5.259)
Considerazioni di simmetria conducono al risultato corretto se si tiene conto che è possibile costruire
una base orbitalica ortonormale simmetrica rispetto all’inversione delle coordinate ~r → −~r. Data la
geometria della molecola si vede subito che un orbitale simmetrico è φg = φ1 , mentre un orbitale
antisimmetrico è φu = φ2 . Costruendo l’operatore di Fock direttamente rispetto a φg si ottiene che
F̂ (~r) ≡ F̂ (−~r) da cui segue che hφu |F̂ |φg i = 0 cioè F̂ è diagonale sulla base costruita per simmetria con
autovalori ²g = ²1 e ²u = ²2 .
Una volta nota la configurazione dello stato fondamentale, avendo a disposizione un’orbitale virtuale,
possiamo costruire vari stati eccitati, come i tre stati degeneri di tripletto eccitato
ΨT1 = |φg φu | =
ΨT0 =
φ1 (1)φ2 (2) − φ1 (2)φ2 (1)
√
α(1)α(2)
2
|φg φu | + |φg φu |
φ1 (1)φ2 (2) − φ1 (2)φ2 (1) α(1)β(2) + α(2)β(2)
√
√
√
=
2
2
2
ΨT−1 = |φg φu | =
φ1 (1)φ2 (2) − φ1 (2)φ2 (1)
√
β(1)β(2)
2
(5.260)
(5.261)
(5.262)
che ha un’energia calcolata come valore di attesa pari a
ET = hΨTi |H|ΨTi i = hg + hu + Jg,u − Kg,u
(5.263)
e lo stato di singoletto eccitato
ΨS1 =
|φg φu | − |φg φu |
φ1 (1)φ2 (2) + φ1 (2)φ2 (1) α(1)β(2) − α(2)β(2)
√
√
√
=
2
2
2
(5.264)
avente l’energia
ES1 = hΨS1 |H|ΨS1 i = hg + hu + Jg,u + Kg,u .
(5.265)
Calcoli RHF effettuati su H2 con una base estesa 6-31G permettono di determinare una distanza di
equilibrio R tra i due nuclei (ottenuta ripetendo il calcolo RHF a diverse distanze R fino ad individuare
un minimo dell’energia dello stato fondamentale - un esempio di ottimizzazione di geometria molecolare)
pari a 1.38 Å, contro 1.40 Å determinato sperimentalmente; il potenziale di ionizzazione calcolato è
invece 3.49 eV contro 4.75 eV sperimentale.
La funzione calcolata secondo la procedura RHF per la molecola di idrogeno nel suo stato fondamentale non rappresenta in modo adeguato il sistema, soprattutto per R → ∞. Se infatti calcoliamo la
forma limite per R → ∞ si ottiene
lim |φg φg | = [1sA (1)1sB (2) + 1sB (1)1sA (2)] + [1sA (1)1sA (2) + 1sB (1)1sB (2)]
R→∞
(5.266)
174
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
il primo termine indica due atomi H·, mentre il secondo indica la coppia ionica H+ , H− . Ciò implica
il 50 % di probabilità che una molecola di idrogeno dissoci sotto forma di coppia biradicalica o ionica,
che è del tutto irrealistico. Un calcolo realistico terrà conto di configurazioni aggiuntive che vanno oltre
l’approssimazione HF. Si tratta perciò sostanzialmente di uan correzione CI al risultato RHF, ottenuta
includendo configurazioni di tipo covalente e ionico scritte in modo opportuno per tener conto della
indistinguilibilità degli elettroni:
¡
¢
1
Ψcov = √
|1sA 1sB | − |1sA 1sB |
2 1 + s2
(5.267)
¢
¡
1
Ψion = √
|1sA 1sA | + |1sB 1sB |
2 1 + s2
(5.268)
La generalizzazione del metodo CI per la molecola di idrogeno, basata sull’impiego di un set di funzioni
bi-elettroniche completo, permette di ottenere un accordo con i dati sperimentali decisamente buono:
il potenziale di ionizzazione calcolato con 50 configurazioni di base è 4.74 eV, mentre la distanza di
equilibrio è 1.4 Å.
Nel caso di molecule lineari l’applicazione di vincoli di simmetria alla scelta delle funzioni di base
semplifica grandemente il calcolo ab initio. L’uso di basi adattate per simmetria sarà descritto nel
capitolo successivo. Qui ci limitiamo a commentare brevemente il risultato di altri due calcoli RHF
effettuati per una molecola lineare, HCl, e per l’acqua, H2 O. Nel seguito, mostriamo l’esempio di un
tabulato di calcolo risultante da una ottimizzazione di geometria per la molecola di aqcua eseguita con
Gaussian 94:
**********************************************************************
Population analysis using the SCF density.
**********************************************************************
Orbital Symmetries:
Occupied (A’) (A’) (A’) (A’) (A")
Virtual
(A’) (A’) (A’) (A’) (A") (A’) (A’) (A’) (A’) (A’)
(A") (A’) (A’) (A’)
The electronic state is 1-A’.
Alpha occ. eigenvalues -- -20.54532 -1.35692 -0.73115 -0.55177 -0.50132
Alpha virt. eigenvalues -0.14513
0.21389
0.58263
0.58295
1.00216
Alpha virt. eigenvalues -1.02050
1.15363
1.43225
2.45181
2.51888
Alpha virt. eigenvalues -5.30956
5.41111
5.58159 51.43742
Molecular Orbital Coefficients
1
2
3
4
5
(A’)--O
(A’)--O
(A’)--O
(A’)--O
(A")--O
EIGENVALUES --20.54532 -1.35692 -0.73115 -0.55177 -0.50132
1 1
O 1S
0.55143 -0.11348
0.00000 -0.03853
0.00000
2
2S
0.47167 -0.19044 -0.00001 -0.06523
0.00000
3
2PX
0.00000 -0.00001
0.22078
0.00001
0.00000
4
2PY
-0.00246 -0.04002
0.00000
0.25682
0.00000
5
2PZ
0.00000
0.00000
0.00000
0.00000
0.29245
5.16. METODO DI HARTREE-FOCK
175
M
O
L
D
E
N
M
O
L
D
E
N
M
O
L
D
E
N
M
O
LL
D
EE
N
M
M
O
D
N
M
O
L
D
E
N
M
O
L
D
E
N
M
O
L
D
E
N
MO
OL
LD
DE
EN
N
defaults used
Edge = 5.60 Contour 3D Psi = 9
CONTOUR VALUE
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
............
0.00000
0.05000
0.10000
0.15000
0.20000
0.25000
0.30000
0.35000
0.40000
0.45000
0.50000
0.55000
0.60000
0.65000
0.70000
0.75000
-0.05000
-0.10000
-0.15000
-0.20000
-0.25000
-0.30000
-0.35000
-0.40000
-0.45000
M
O
L
D
E
N
M
O
L
D
E
N
M
O
L
D
E
N
M
O
LL
D
EE
N
M
M
O
D
N
M
O
L
D
E
N
M
O
L
D
E
N
M
O
L
D
E
N
MO
OL
LD
DE
EN
N
defaults used
Edge = 5.60 Contour 3D Psi = 10
CONTOUR VALUE
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
0.00000
0.05000
0.10000
0.15000
0.20000
0.25000
0.30000
0.35000
0.40000
0.45000
0.50000
0.55000
0.60000
-0.05000
-0.10000
-0.15000
-0.20000
-0.25000
-0.30000
-0.35000
-0.40000
-0.45000
-0.50000
-0.55000
-0.60000
Figura 5.8: Orbitali HOMO e LUMO di HCl, rappresentati come superficie
6
7
8
9
10
11
12
13
14 2
15
16
17 3
18
19
H
H
3S
3PX
3PY
3PZ
4S
4PX
4PY
4PZ
1S
2S
3S
1S
2S
3S
0.00558
0.00000
0.00090
0.00000
-0.00020
0.00000
-0.00033
0.00000
0.00020
-0.00011
0.00011
0.00020
-0.00011
0.00011
6
0.54438
-0.00001
-0.08843
0.00000
0.43887
0.00000
-0.05127
0.00000
0.09982
0.03908
-0.00396
0.09983
0.03908
-0.00396
7
0.00001
0.36854
0.00000
0.00000
0.00003
0.21489
0.00000
0.00000
0.16213
0.19580
0.04616
-0.16214
-0.19580
-0.04616
8
0.19936
0.00001
0.38806
0.00000
0.26427
0.00001
0.40111
0.00000
-0.08409
-0.09301
-0.03139
-0.08409
-0.09299
-0.03138
9
0.00000
0.00000
0.00000
0.43983
0.00000
0.00000
0.00000
0.48851
0.00000
0.00000
0.00000
0.00000
0.00000
0.00000
10
176
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
EIGENVALUES -1
O 1S
2S
2PX
2PY
2PZ
3S
3PX
3PY
3PZ
4S
4PX
4PY
4PZ
2
H 1S
2S
3S
3
H 1S
2S
3S
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
EIGENVALUES -1
O 1S
2S
2PX
2PY
2PZ
3S
3PX
3PY
3PZ
4S
4PX
4PY
4PZ
2
H 1S
2S
3S
3
H 1S
2S
3S
EIGENVALUES --
(A’)--V
0.14513
-0.03453
-0.05645
0.00001
-0.07330
0.00000
0.10790
0.00001
-0.12323
0.00000
0.88554
0.00003
-0.20430
0.00000
-0.03829
0.03062
-0.83695
-0.03828
0.03062
-0.83685
11
(A’)--V
1.02050
0.01558
0.02682
-0.00002
-0.23105
0.00000
-0.08512
-0.00006
-0.84364
0.00000
-0.35054
0.00011
1.34290
0.00000
0.04545
0.24804
0.09448
0.04546
0.24802
0.09456
16
(A")--V
5.30956
(A’)--V
0.21389
0.00000
0.00000
0.12046
0.00000
0.00000
0.00000
0.13921
0.00000
0.00000
-0.00006
0.51385
-0.00003
0.00000
-0.02042
0.10816
-1.52605
0.02041
-0.10819
1.52615
12
(A’)--V
1.15363
0.00000
0.00000
-0.23607
0.00002
0.00000
0.00001
-0.90999
0.00007
0.00000
-0.00001
1.76898
-0.00012
0.00000
-0.03403
-0.21412
-0.74736
0.03405
0.21403
0.74740
17
(A’)--V
5.41111
(A’)--V
0.58263
0.00154
0.00269
-0.13119
0.00447
0.00000
-0.00669
-0.19665
0.00722
0.00000
-0.05599
-1.21714
0.04192
0.00000
0.08034
1.59978
-0.76977
-0.07289
-1.44387
0.71209
13
(A’)--V
1.43225
0.11902
0.25119
0.00000
0.03803
0.00000
-1.81879
0.00000
0.10786
0.00000
2.82235
-0.00004
-0.63696
0.00000
-0.00505
-0.59360
-0.36175
-0.00508
-0.59358
-0.36184
18
(A’)--V
5.58159
(A’)--V
0.58295
0.03296
0.05733
0.00615
0.09530
0.00000
-0.14264
0.00922
0.15371
0.00000
-1.19721
0.05718
0.89445
0.00000
0.07574
1.59260
-0.57995
0.08292
1.73540
-0.64934
14
(A’)--V
2.45181
-0.01185
-0.01343
0.00000
-0.14705
0.00000
-0.08442
-0.00004
-0.03304
0.00000
-0.48794
0.00004
0.36023
0.00000
-1.09309
1.59577
-0.48824
-1.09291
1.59555
-0.48808
19
(A’)--V
51.43742
(A")--V
1.00216
0.00000
0.00000
0.00000
0.00000
-0.24082
0.00000
0.00000
0.00000
-0.83803
0.00000
0.00000
0.00000
1.13618
0.00000
0.00000
0.00000
0.00000
0.00000
0.00000
15
(A’)--V
2.51888
-0.00001
-0.00001
-0.19470
-0.00001
0.00000
0.00004
0.01704
-0.00003
0.00000
-0.00013
0.33600
0.00005
0.00000
1.10715
-1.63769
0.76446
-1.10733
1.63799
-0.76451
5.16. METODO DI HARTREE-FOCK
1 1
2
3
4
5
6
7
8
9
10
11
12
13
14 2
15
16
17 3
18
19
O
1S
0.00000
0.00427
0.00000 -2.24644
2S
0.00000
0.01050
0.00000
2.32902
2PX
0.00000
0.00006 -1.28379
0.00000
2PY
0.00000 -1.27272 -0.00006 -0.00424
2PZ
-1.27030
0.00000
0.00000
0.00000
3S
0.00000 -0.07359 -0.00001 -0.24329
3PX
0.00000 -0.00007
1.49245
0.00000
3PY
0.00000
1.40721
0.00007
0.01308
3PZ
1.36970
0.00000
0.00000
0.00000
4S
0.00000
0.30033
0.00005
0.24052
4PX
0.00000
0.00004 -0.83840 -0.00001
4PY
0.00000 -0.65361 -0.00003 -0.04421
4PZ
-0.52370
0.00000
0.00000
0.00000
H 1S
0.00000
0.21235 -0.28655
0.00635
2S
0.00000 -0.31639
0.35306 -0.03858
3S
0.00000
0.01468
0.15005 -0.03243
H 1S
0.00000
0.21233
0.28663
0.00635
2S
0.00000 -0.31637 -0.35316 -0.03859
3S
0.00000
0.01471 -0.15005 -0.03244
Condensed to atoms (all electrons):
1
2
3
1 O
8.292901
0.261664
0.261662
2 H
0.261664
0.364534 -0.034311
3 H
0.261662 -0.034311
0.364535
Total atomic charges:
1
1 O
-0.816227
2 H
0.408113
3 H
0.408114
Sum of Mulliken charges=
0.00000
Atomic charges with hydrogens summed into heavy atoms:
1
1 O
0.000000
2 H
0.000000
3 H
0.000000
Sum of Mulliken charges=
0.00000
Electronic spatial extent (au): <R**2>=
19.0015
Charge=
0.0000 electrons
Dipole moment (Debye):
X=
-0.0001
Y=
-2.4886
Z=
0.0000 Tot=
2.4886
Quadrupole moment (Debye-Ang):
XX=
-3.8663
YY=
-6.3645
ZZ=
-7.2759
XY=
-0.0002
XZ=
0.0000
YZ=
0.0000
Octapole moment (Debye-Ang**2):
XXX=
-0.0001 YYY=
-1.4797 ZZZ=
0.0000 XYY=
0.0001
XXY=
-1.3015 XXZ=
0.0000 XZZ=
0.0000 YZZ=
-0.4291
177
178
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
YYZ=
0.0000 XYZ=
0.0000
Hexadecapole moment (Debye-Ang**3):
XXXX=
-5.3157 YYYY=
-6.1828 ZZZZ=
-5.3837 XXXY=
0.0000
XXXZ=
0.0000 YYYX=
0.0000 YYYZ=
0.0000 ZZZX=
0.0000
ZZZY=
0.0000 XXYY=
-1.7032 XXZZ=
-2.0640 YYZZ=
-1.9605
XXYZ=
0.0000 YYXZ=
0.0000 ZZXY=
0.0000
N-N= 9.291362481815D+00 E-N=-1.993505611185D+02 KE= 7.611888714322D+01
Symmetry A’
KE= 7.153312626549D+01
Symmetry A"
KE= 4.585760877728D+00
Leave Link 601 at Mon Mar 15 08:37:32 1999, MaxMem=
4000000 cpu:
(Enter /usr/local/g94/l9999.exe)
Final structure in terms of initial Z-matrix:
O
H,1,r2
H,2,r3,1,a3
Variables:
r2=0.94565985
r3=1.56665299
a3=34.06847266
0.3
Test job not archived.
1\1\GINC-CFGAMMA\FOpt\RHF\6-311G\H2O1\NINOP\15-Mar-1999\0\\#P TEST OPT
HF/6-311G GFINPUT IOP(6/7=3)\\This Gaussian input file generated by B
abel 1.06e\\0,1\O,-0.0199352024,0.,-0.1040561682\H,-0.6895863854,0.,0.
5636562348\H,0.8490680049,0.,0.2687931105\\Version=SGI-G94RevE.2\State
=1-A’\HF=-76.0109546\RMSD=7.476e-09\RMSF=1.284e-04\Dipole=0.184244,0.,
0.9615714\PG=CS [SG(H2O1)]\\@
AND ALL THIS SCIENCE I DON’T UNDERSTAND
IT’S JUST MY JOB FIVE DAYS A WEEK
-- ELTON JOHN, "ROCKET MAN"
Job cpu time: 0 days 0 hours 1 minutes 18.3 seconds.
File lengths (MBytes): RWF=
5 Int=
0 D2E=
0 Chk=
Normal termination of Gaussian 94
2 Scr=
1
In entrambi i casi è stata impiegata una base 6-31G; nel caso dell’acido cloridrico il problema è dunque
a 3 (H) + 21 (Cl) funzioni di base (1s, 2s, 3s per l’idrogeno e tutto gli AO di tipo s con n da 1 a 6 e
tutti gli AO di tipo p da 1 a 5 per il Cl). In Fig. (5.8) sono mostrati gli orbitali HOMO e LUMO per
l’acido cloridrico, in corrispondenza della geometria di equilibrio. Le Figg. (5.9) e (5.10) mostrano gli
stessi orbitali, rappresentati sotto forma di superficie aventi uguale valore di densità di carica. Infine
in Figg. (5.11) e (5.12) sono raffigurati gli orbitali HOMO e LUMO ottenuti da un calcolo RHF per
l’acqua, ancora usando una base 6-31G (19 funzioni di base).
5.16. METODO DI HARTREE-FOCK
179
M
O
LLLLDDDDEEEENNNN
M
O
M
OO
M
M
M
O
MO
OLLLDDDEEENNN
defaults used
Edge = 5.60 Space = 0.1000 Psi = 9
Figura 5.9: Orbitale HOMO di HCl, rappresentato come una superficie ad uguale densità di carica
M
O
LLLLDDDDEEEENNNN
M
O
M
OO
M
M
M
O
MO
OLLLDDDEEENNN
defaults used
Edge = 5.60 Space = 0.1000 Psi = 10
Figura 5.10: Orbitale LUMO di HCl, rappresentato come una superficie ad uguale densità di carica
180
CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA
M
O
LLLLDDDDEEEENNNN
M
O
M
OO
M
M
M
O
MO
OLLLDDDEEENNN
defaults used
Edge = 4.04 Space = 0.3000 Psi = 5
Figura 5.11: Orbitale HOMO di H2 O, rappresentato come una superficie ad uguale densità di carica
M
O
LLLLDDDDEEEENNNN
M
O
M
OO
M
M
M
O
MO
OLLLDDDEEENNN
defaults used
Edge = 4.04 Space = 0.1000 Psi = 6
Figura 5.12: Orbitale LUMO di H2 O, rappresentato come una superficie ad uguale densità di carica
Capitolo 6
Teoria dei gruppi di simmetria ed
orbitali molecolari
6.1
Gruppi di simmetria puntuale
Un gruppo G è un insieme di elementi in cui è assegnata una operazione - detta legge di composizione, e
che denotiamo per ora con ◦ - che permette di associare ad ogni coppia di elementi x, y ∈ G un elemento
x ◦ y ∈ G, e che gode delle seguenti proprietà:
Associativa Per ogni terna x, y, z ∈ G vale che
(x ◦ y) ◦ z = x ◦ (y ◦ z)
(6.1)
Elemento neutro Esiste un elemento e ∈ G tale che
e◦x=x◦e=x
(6.2)
Inverso Per ogni x ∈ G esiste un elemento y ∈ G tale che
x◦y =y◦x=e
(6.3)
indichiamo l’inverso di x con x−1 .
Se il gruppo G gode della proprietà aggiuntiva
Commutativa Per ogni coppia x, y ∈ G vale che
x◦y =y◦x
(6.4)
allora si dice abeliano o commutativo.
Esempio 38. Alcuni esempi di gruppi: l’insieme delle permutazioni dei nuclei di una molecola P
rispetto all’operazione di composizione (moltiplicazione delle permutazioni); l’insieme di tutte le matrici
m × n sul corpo di numeri K rispetto all’addizione; l’insieme dei numeri pari rispetto all’operazione di
addizione.
181
182
CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI
Alcune definizioni utili relative all’algebra dei gruppi saranno impiegate in seguito. I gruppi sono
infiniti o finiti, se il numero dei loro elementi è finito o infinito. L’ordine h di un gruppo finito è il
numero di elementi costituenti il gruppo. Definiamo tavola di moltiplicazione o tabella di un gruppo
finito la matrice che riassume il risultato dell’operazione del gruppo tra ogni coppia di elementi del
gruppo. Definiamo un sottogruppo come un sottoinsieme del gruppo che gode delle proprietà di gruppo.
Diciamo gruppo ciclico quel gruppo costituito da e, un elemento a e da tutte le potenze con esponente
0 ≤ n ≤ h dell’elementoa, vale a dire a ◦ a ◦ . . . ◦ a (n volte). Definiamo infine il concetto di classe:
• due elementi a e b di un gruppo G si dicono coniugati quando esiste un terzo elemento del gruppo
x tale che b = x−1 ◦ a ◦ x; si noti che ogni elemento è coniugato di se stesso e che se a è coniugato
a b e b è coniugato a c, allora a è coniugato a c.
• il sottoinsieme di G che contiene tutti gli elementi coniugati fra loro è una classe di G.
Nel seguito ci occuperemo dei gruppi formati dalle operazioni di simmetria di un corpo rigido:
gruppo di simmetria: l’insieme di operazioni di simmetria relative ad un corpo rigido, considerato
come un insieme di punti materiali verifica le condizioni di gruppo, rispetto all’operazione di
composizione (applicazione successiva) di due operazioni di simmetria.
In generale si definisce operazione di simmetria una trasformazione delle coordinate dell’insieme di punti
materiali che porta ogni punto in un punto equivalente. Nel caso di un sistema molecolare l’insieme
dei punti materiali coincide con i nuclei. Un’operazione di simmetria è definita rispetto ad elemento di
simmetria, che è un ente geometrico (punto, retta o piano) rispetto al quale possono essere eseguite una
o più operazioni di simmetria. La composizione, cioè l’applicazione successiva di due operazioni A1 e
A2 (prima A1 e dopo A2 ) si indica con A2 A1 .
Nel seguito considereremo i soli gruppi di simmetria puntuali, vale a dire quei gruppi di operazioni
di simmetria che conservano la posizione di un punto, comune a tutte le operazioni del gruppo, e non
tratteremo dei gruppi spaziali, che includono operazioni di traslazione e non conservano perciò alcun
punto fermo. I gruppi spaziali sono necessari per la comprensione delle simmetrie presenti nei reticoli
cristallini.
6.2
Elementi ed operazioni di simmetria
Nella trattazione della simmetria molecolare è necessario considerare solo quattro tipi di elementi di
simmetria e le relative operazioni di simmetria. Nel seguito useremo per chiarezza il carattere tipografico
per indicare un elemento di simmetria, distinguendolo dalle operazioni di simmetria da esso generate.
Assumiamo per semplicità che un sistema di riferimento xyz sia definito in modo solidale con la molecola
(sistema di riferimento molecolare).
identità: è l’operazione E che lascia invariata la configurazione del sistema molecolare
rotazione propria: un asse proprio di simmetria Cn è associato ad un’operazione di rotazione propria,
ovvero ad una rotazione in senso orario di un angolo 2π/n attorno all’asse dove n è il maggior
intero che genera una configurazione equivalente. Un asse di simmetria C3 permetterà di definire
6.2. ELEMENTI ED OPERAZIONI DI SIMMETRIA
183
le operazioni C3 (rotazione di 2π/3), C32 (rotazione di 4π/3) e C33 = E (rotazione di 2π, cioè
l’identità). Facendo coincidere l’asse di simmetria con l’asse z molecolare, le componenti di un
~ saranno ruotate dall’operazione Cn secondo la trasformazione
generico vettore R





x0
cos 2π/n − sin 2π/n 0
x

 


 y 0  =  sin 2π/n


cos 2π/n 0   y 

 

z0
0
0
1
z
(6.5)
riflessione: un piano di simmetria molecolare σ permette di definire una operazione di riflessione σ. Si
noti che σ 2 = E. Parliamo di operazioni di simmetria σv se sono associate a piani di simmetria che
contengono l’asse principale di rotazione del sistema molecolare. Se l’asse del piano di simmetria
forma un angolo φ con l’asse x del sistema molecolare le componenti di un vettore generico sono
trasformate come





cos 2φ sin 2φ 0
x
x0
 



 y 0  =  sin 2φ − cos 2φ 0   y 

 


z0
0
0
1
z
(6.6)
Parliamo di operazioni di simmetria σh se sono associate al piano di simmetria xy perpendicolare
all’asse principale di rotazione del sistema molecolare; le componenti di un vettore generico sono
trasformate come





x0
1 0 0
x

 


 y0  =  0 1 0   y 

 


z0
0 0 −1
z
(6.7)
inversione: un centro di inversione i permette di definire l’operazione di inversione i. Iterando i per
n volte con n pari si ottiene l’identità, con n dispari si riottiene i. Se poniamo i nell’origine del
sistema del sistema molecolare le componenti di un vettore generico sono trasformate come





x0
−1 0
0
x

 


 y 0  =  0 −1 0   y 

 


0
z
0
0 −1
z
(6.8)
rotazione impropria una rotazione impropria Sn di ordine n è costituita da una rotazione propria
e da una riflessione rispetto ad un piano perpendicolare all’asse di rotazione (indipendentemente
dall’ordine di esecuzione). L’asse di rotazione impropria si indica con Sn . Se esistono un asse di
rotazione propria e un piano di riflessione perpendicolare esiste anche l’asse di rotazione impropria,
ma può anche darsi l’esistenza di Sn senza Cn e σh . Per un vettore generico, la rotazione impropria
si può scrivere come





cos 2π/n − sin 2π/n 0
x
x0
 





 y 0  =  sin 2π/n
cos 2π/n
0  y 
 


0
0
−1
z
z0
(6.9)
184
CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI
Casi particolari sono dati dalla rotazione impropria di ordine 1, che coincide con σh , S2 = σh e
dalla rotazione impropria di ordine 2, che coincide con l’inversione, S2 = i. Un asse improprio
di ordine n genera le operazioni Sn , Sn2 , . . . , Snn ; per n pari Snm = Cnm se m è pari, quindi per
esempio per n pari Snn = Cnn = E. Viceversa, per n dispari Snn = σh . Si noti che per n dispari
l’esistenza di Sn implica l’esistenza di σh e Cn . Un sistema molecolare che non possiede nessun
asse di simmetria improprio è dissimetrica, cioè non può essere sovrapposta alla sua immagine
speculare (vale a dire, o ha solo assi di rotazione propria o non ha alcun elemento di simmetria).
6.3
Gruppi puntuali
Possiamo classificare i vari gruppi puntuali di simmetria considerando i vari possibili insiemi completi di
operazioni di simmetria. I gruppi di simmetria sono denominati secondo due nomenclature fondamentali,
basate sulla notazione di Schœnflies ed internazionale. Nel seguito adotteremo sempre la notazione di
Schœnflies1 .
gruppo C1 È costituito dall’identità E. La molecola non ha elementi di simmetria.
gruppi Cs e Ci È presente solo un piano di riflessione σ o solo un centro di inversione i. Sono
entrambi gruppi ciclici di ordine 2.
gruppi Cn È presente un asse proprio Cn , che genera le operazioni Cn , Cn2 , . . . , Cnn = E. Sono gruppi
ciclici di ordine n.
gruppi Sn È presente un asse improprio di ordine n pari. Sono gruppi ciclici di ordine n. S2 è
equivalente a i.
gruppi Dn È presente un asse proprio Cn ed n assi di rotazione binaria perpendicolari. L’ordine è 2n.
gruppi Cnh Sono presenti un asse proprio Cn ed il piano di riflessione σh . L’ordine è 2n. Corrispondono
ai gruppi Sn con n dispari.
gruppi Cnv Sono presenti un asse proprio Cn ed n piani verticali di riflessione σv . L’ordine è 2n.
gruppi Dnh Sono presenti un asse proprio Cn , n assi di rotazione binaria perpendicolari ed il piano di
riflessione σh . L’ordine è 4n.
gruppi Dnd Sono presenti un asse proprio Cn , n assi di rotazione binaria perpendicolari ed n piani
diedri σd , ovvero piani di riflessione che bisecano gli angoli tra coppie adiacenti di assi binari.
L’ordine è 4n.
gruppi C∞v e D∞h Sono gruppi infiniti relativi a molecole lineari eteronucleari, C∞v , con un asse C∞
ed infiniti assi binari perpendicolari; e molecole lineari omonucleari, D∞h , con un asse C∞ , infiniti
assi binari perpendicolari ed un piano di riflessione orizzontale.
1
La notazione di Schœnflies usa nomi simili alle operazioni di simmetria principali del gruppi considerati, che iniziano
per C, da “cyclic”, D, da “dyhedral”, S, da “spiegel” con l’aggiunta di apici quali h , v e d rispettivamente da “horizontal”,
“vertical” e “diagonal”.
6.4. RAPPRESENTAZIONI
185
gruppi dei solidi platonici Sono i gruppi ad elevata simmetria dei cinque solidi platonici: tetraedro
(Td , ordine 24), cubo ed ottaedro (Oh , ordine 48), dodecaedro e icosaedro (Ih , ordine 120).
6.4
Rappresentazioni
Consideriamo un gruppo di simmetria puntuale G ed un insieme di funzioni fi tali che applicando una
qualunque delle operazioni di simmetria R ad una di esse si ottiene una combinazione lineare delle
funzioni stesse:
Rfi =
g
X
Rki fk
(6.10)
k=1
Se non è possibile trovare un insieme di combinazioni lineari di m tra le funzioni fi , con m < g, diciamo
che le funzioni fi formano una rappresentazione irriducibile di dimensione g del gruppo G. Altrimenti
si parla di rappresentazione riducibile. Data una rappresentazione di dimensione g, ad ogni operazione
R è associabile la matrice R con elementi Rki . Il carattere χ(R) di una operazione R rispetto ad una
data rappresentazione è la traccia della matrice associata. Nel caso di una rappresentazione (irriducibile,
naturalmente) monodimensionale i caratteri sono tutti pari a +1 o −1. In generale una rappresentazione
è descritta da una tabella dei caratteri che elenca i caratteri associati ad ogni operazione di simmetria.
Le rappresentazioni irriducibili monodimensionali, bidimensionali, tridimensionali sono denominate con
lettere e numeri in considerazione del carattere di alcune operazioni di simmetria secondo la seguente
nomenclatura
• A e B indicano rappresentazioni monodimensionali); E bidimensionali; T tridimensionali
• gli indici 1 e 2 si aggiungono ad A o B per indicare che il carattere di ua rotazione relativa ad un
asse C2 perpendicolare all’asse principale è +1 o −1.
• gli indici 0 e 00 si aggiungono ad tutti simboli per indicare che il carattere di una riflessione relativa
ad un piano σh è +1 o −1.
• gli indici g (da “gerade”) e u da (“ungerade”) si aggiungono a tutti i simboli per indicare che il
carattere di un’inversione relativa ad un centro σh è +1 o −1.
Classificazioni più complesse con indici numerici, sono definite per rappresentazioni E, T e cosı̀ via. Il
numero ed il tipo di rappresentazioni irriducibili distinte di un dato gruppo puntuale è una proprietà
univocamente definita del gruppo stesso. Data una qualunque rappresentazione, o è irriducibile, o è
possibile ridurla ad una somma di rappresentazioni irriducibili, tra quelle ammesse dal gruppo. La rappresentazione monodimensionale con caratteri tutti uguali a 1 è detta rappresentazione totalsimmetrica
del gruppo.
Consideriamo nel seguito due rappresentazioni, di dimensione gi e gj . Vale il seguente teorema
generale:
Teorema di ortogonalità Se h è l’ordine del gruppo, e gi , gj le dimensioni di due rappresentazioni,
allora
X
R
h
(i) ∗ (j)
Rmn
Rm0 n0 = √
δij δmm0 δnn0
gi gj
(6.11)
186
CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI
(i)
dove con Rmn indichiamo l’elemento mn della matrice rappresentativa dell’operazione R relativo
alla rappresentazione i-esima.
Da questo teorema generale discendono varie conseguenze, di importanza applicativa, che si possono
riassumere nei seguenti tre vincoli
1. La somma dei quadrati delle dimensioni delle rappresentazioni irriducibili di un gruppo è uguale
all’ordine del gruppo
2. In una data rappresentazione, i caratteri di tutte le operazioni appartenenti alla stessa classe
hanno lo stesso carattere.
3. Il numero delle rappresentazioni irriducibili di un gruppo è uguale al numero di classi del gruppo.
Date due rappresentazioni irriducibili, vale il seguente teorema di ortogonalità derivato direttamente dal
precedente teorema generale sommando i termini diagonali delle matrici rappresentativi delle operazioni:
Teorema di ortogonalità delle rappresentazioni Se gi , gj sono le dimensioni di due rappresentazioni irriducibili, allora
X
∗
χ(i) (R) χ(j) (R) = gi gj δij
(6.12)
R
per i = j ritroviamo il primo vincolo. Data una rappresentazione riducibile, possiamo scrivere per ogni
operazione
χ(r) (R) =
X
ai χ(i) (R)
(6.13)
i
ed utilizzando il precedente teorema di ortogonalità possiamo ricavare i coefficienti ai che permettono di
sviluppare la r-esima rappresentazione riducibile come una combinazione lineare delle rappresentazioni
∗
irriducibili; moltiplicando per χ(j) (R) entrambi i membri e sommando su tutte le operazioni R si
ottiene
1 X (j)
∗
χ (R) χ(r) (R)
(6.14)
aj =
h R
Noti i caratteri di una rappresentazione riducibile, e la tabella dei caratteri del gruppo di simmetria
puntuale, è dunque possibile calcolare il coefficiente della rappresentazione irriducibile in analogia al
calcolo della componente di Fourier di un elemento generico di uno spazio vettoriale (la rappresentazione
riducibile) rispetto ad un elemento della base ortogonale (la rappresentazione irriducibile).
Un utile concetto per la costruzione di rappresentazioni di gruppi di simmetria è dato dal prodotto
diretto di due rappresentazioni. Siano αi le funzioni che definiscono una data rappresentazione e βi
quelle che definiscono un’altra rappresentazione. Allora si può costruire la rappresentazione prodotto
(α)
(β)
diretto come l’insieme di tutti i prodotti αi βj . Se Rmn e Rm0 n0 sono le matrici rappresentative di una
generica operazione R del gruppo, allora la matrice rappresentativa nella rappresentazione prodotto
diretto è data come
(αβ)
(β)
(α)
Rmm0 ,nn0 = Rmn
Rm0 n0
(6.15)
che è il prodotto di Kronecker delle due matrici Rα e Rβ ; formalmente si scrive anche R(αβ) = Rα ⊗Rβ .
Si noti che χ(αβ) (R) = χ(α) (R)χ(β) (R), e che in generale la rappresentazione prodotto diretto, anche di
due rappresentazioni irriducibili, è riducibile.
6.5. OPERATORI DI PROIEZIONE
6.5
187
Operatori di proiezione
Data un determinato insieme di funzioni che costituisca una rappresentazione di un gruppo, è utile
disporre di un metodo sistematico per costruire le rappresentazioni irriducibili contenute. Uno strumento
formale molto utile è l’operatore di proiezione P (i) che proietta la base per la i-esima rappresentazione
irriducibile del gruppo, e che ha la forma
P (i) =
gi X (i)
∗
χ (R) R
h R
(6.16)
L’utilità dell’operatore di proiezione è costituita dal fatto che si possono costruire basi per rappresentazioni irriducibili in modo semplice una volta nota basi per rappresentazioni irriducibili. Consideriamo
per esempio il caso del gruppo C3v , che ammette le rappresentazioni irriducibili A1 , A2 ed E. Costruiamo
i tre operatori di proiezione
PA1 =
´
1³
E + C3 + C32 + σ1 + σ2 + σ3
6
(6.17)
PA2 =
´
1³
E + C3 + C32 − σ1 − σ2 − σ3
6
(6.18)
PE =
´
2³
2E − C3 − C32
3
(6.19)
Prendiamo in esame la funzione x2 . Applicando gli operatori precedenti otteniamo:
PA1 x2 ∝ x2 + y 2
(6.20)
PA2 x2 ∝ 0
(6.21)
PE x2 ∝ x2 − y 2
(6.22)
dalla tabella del gruppo C3v troviamo infatti che x2 + y 2 è base per la rappresentazione irriducibile A1 ,
mentre x2 − y 2 è una delle funzioni di base per la rappresentazione irriducibile bidimensionale E. La
funzione x2 non ha componenti appartenenti alla rappresentazione irriducibile A2 .
6.6
Applicazioni al calcolo di orbitali molecolari
L’applicabilità della teoria dei gruppi puntuali al calcolo di orbitali molecolari è evidente nel caso del
calcolo di elementi di matrice di operatori che condividono la simmetria del gruppo di punti di un
sistema molecolare.
Consideriamo un operatore F che sia invariante rispetto alle operazioni di simmetria di un gruppo
puntuale e calcoliamo l’elemento di matrice
Z
hφ1 |F|φ2 i =
dqφ∗1 Fφ2
(6.23)
Il valore dell’integrale è zero a meno che la funzione integranda sia invariante rispetto a tutte le operazioni
di simmetria del gruppo, o se almeno una sua parte sia invariante, cioè se costituisce o contiene una base
per la rappresentazione totalsimmetrica del gruppo. Poichè l’operatore F è invariante rispetto a tutte le
188
CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI
operazioni del gruppo, l’integrale è diverso da zero se la funzione φ∗1 φ2 appartiene alla rappresentazione
totalsimmetrica. Possiamo considerare la funzione prodotto come un elemento della rappresentazione
prodotto diretto α di due rappresentazioni α1 e α2 , cui appartengono rispettivamente φ∗1 e φ2 . Dalle
proprietà delle rappresentazioni prodotto diretto, discende che α contiene la rappresentazione totalsimmetrica solo α1 = α2 . Infatti la componente aA della rappresentazione totalsimmetrica contenuta in α
è
aA =
1 X (α)
1 X (α1 )
∗
χ (R) =
χ
(R) χ(α2 ) (R) = δα1 α2
h R
h R
(6.24)
Il calcolo degli elementi di matrice dell’operatore hamiltoniano o dell’operatore di Fock può perciò
essere notevolmente semplificati se si scelgono funzioni di base raggruppate secondo la loro appartenenza
alle rappresentazioni irriducibili del gruppo di simmetria molecolare. Combinazioni lineari di orbitali
determinate secondo questo criterio si dicono orbitali adattati per simmetria.
La simmetria è infine conservata nella definizione degli autostati degeneri di un hamiltoniano. Nel
caso infatti un hamiltoniano ammetta autostati degeneri è possibile dimostrare che
Teorema Ogni autofunzione di un hamiltoniano di un sistema quantomeccanico corrisponde ad una
rappresentazione irriducibile del gruppo di simmetria cui appartiene il sistema, vale a dire ogni
insieme di autofunzioni relative ad un autovalore degenere g volte è base per una rappresentazione
irriducibile di dimensione g.
6.7
Alcuni esempi
Consideriamo un sistema costituito da un solo nucleo. Il gruppo di simmetria di appartenenza è il
gruppo infinito delle rotazioni nello spazio R3 , in cui la rotazione di un angolo qualunque attorno ad un
asse passante per il nucleo lascia il sistema invariato. Consideriamo ora le funzioni armoniche sferiche
Ylml (θ, φ) per un dato valore di l: poichè per definizione una rotazione applicata ad una di queste
2l + 1 funzioni genera una loro combinazione lineare, costituiscono una base - che si può verificare
essere irriducibile - del gruppo R3 . Gli autostati dell’hamiltoniano atomico saranno perciò almeno 2l + 1
degeneri e le autofunzioni avranno la forma generica
φ(r, θ, φ) = R(r)Ylml (θ, φ)
(6.25)
dove R(r) è invariante per simmetria rotazione, quindi funzione del modulo r. I vari livelli energetici
s, p, d sono dunque coincidenti con rappresentazioni irriducibili monodimensionali, tridimensionali,
pentadimensionali del gruppo R3 .
Nel caso di molecole lineari omonucleari il gruppo di simmetria di appartenenza è, come abbiamo
visto, D∞h . Lo stato fondamentale di una molecola lineare omonucleare apparterrà alla rappresen+ proviene dal fatto
tazione irriducibile monodimensionale totalsimmetrica di D∞h , detta Σ+
g (l’apice
che χ(σv ) = 1, mentre il pedice g è dovuto aχ(i) = 1). Lo stato successivo, primo singoletto eccitato, appartiene ancora ad un rappresentazione irriducibile monodimensionale, Σ+
u , antisimmetrica
all’inversione. Continuando in questo modo possiamo classificare gli autostati degeneri appartenenti ad
altre rappresentazioni, e.g. Πu , bidimensionale. Nella costruzione degli orbitali di simmetria adattati
6.8. UN ESEMPIO NON TRIVIALE: IL BENZENE
189
per il calcolo HF della molecola di idrogeno la scelta intuitiva di φg ∝ 1sA + 1sB e φu ∝ 1sA − 1sB si
+
può quindi razionalizzare come la definizione di due funzioni di base rispettivamente per Σ+
g e Σu .
Consideriamo la base minimale per una calcolo HF relativo alla molecola di acqua, che appartiene
al gruppo C2v : 1s per ciascun H e 1s,2s,2px,y,z per O. Gli AO si possono classificare facilmente secondo
le rappresentazioni irriducibili di C2v
√
A1 : 1s, 2s, 2pz , (1sH1 + 1sH2 )/ 2
B1 : 2px
√
B2 : 2py , (1sH1 − 1sH2 )/ 2
Il calcolo HF è dunque fattorizzato in un blocco 4 × 4, in uno monodimensionale ed in uno 2 × 2.
Lo stato fondamentale della molecola, che appartiene alla rappresentazione totalsimmetrica A1 di C2v
ha la seguente configurazione: (1a1 )2 (2a1 )2 (1b2 )2 (3a1 )2 )(1b1 )2 dove 1a1 , 2a1 etc. sono orbitali atomici
calcolati appartenenti ad A1 e cosı̀ via: la procedura HF genera perciò tre orbitali reali ed uno virtuale appartenenti alla A1 , un orbitale reale appartenente alla B1 , un orbitale reale ed uno virtuale
appartenente alla B2 .
6.8
Un esempio non triviale: il benzene
Discutiamo la scelta di un insieme di orbitali atomici SALC (Symmetry Adapted Linear Combination)
per il benzene C6 H6 . La base minima per una calcolo HF è data da 36 orbitali atomici: sei di tipo 1s
per ciascun idrogeno e sei insiemi 1s, 2s, 2p per ciascun carbonio. Nel caso degli orbitali 2p giacenti
nel piano dell’anello, definiamo per ogni carbonio un sistema di riferimento locale, orientati in maniera
tale da essere equivalenti per rotazione intorno all’asse di simmetria C6 del benzene, che appartiene al
gruppo di simmetria D6h : per ogni carbonio scegliamo poi due opportune combinazioni lineari degli
orbitali 2px e 2py che sono equivalenti per rotazione. Gli AO cosı̀ definiti si possono raggruppare
secondo la tabella 6.1. Cosı̀ per esempio si possono costruire quattro orbitali molecolari appartenenti
rappresentazione irriducibile
tipo di funzioni di base
numero di MO
A1g
B1u
E1u
E2g
A2u
B2g
E1g
E2u
B2u
1sH , 1s, 2s, 2px,y
1sH , 1s, 2s, 2px,y
1sH , 1s, 2s, 2px,y
1sH , 1s, 2s, 2px,y
2pz
2pz
2pz
2pz
2px,y
4
4
10
10
1
1
2
2
2
Tabella 6.1: Rappresentazioni irriducibili e AO di base del benzene
alla rappresentazione irriducibile A1g che coinvolgono gli orbitali degli idrogeni, gli orbitali 1s, 2s e 2p
190
CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI
nel piano dei carboni, quattro orbitali molecolari appartenenti alla rappresentazione irriducibile B1u
che coinvolgono gli orbitali degli idrogeni, gli orbitali 1s, 2s e 2p nel piano dei carboni etc. La matrice
y
1
6
2
x
z
5
3
4
Figura 6.1: Set di orbitali 2p nel piano per il benzene
rappresentativa dell’operatore di Fock è perciò fattorizzabile in due blocchi 4 × 4, due 10 × 10 ed uno
2× che si riferiscono ad orbitali molecolari coinvolgenti legami nel piano dell’anello (A1g , B1u , E1u , E2u
e B2u ) e due blocchi 1 × 1 e due blocchi 2 × 2 che si riferiscono ad orbitali molecolari coinvolgenti legami
perpendicolari al piano dell’anello (A2u , B2g , E1g , E2u ).
Capitolo 7
Cenni a metodi semiempirici e tecniche
avanzate
7.1
Metodi semiempirici
Come è stato già accennato nell’introduzione, i vari metodi semiempirici comportano l’introduzione
di approssimazioni e semplificazioni nella forma degli hamiltoniani elettronici e nella definizione degli
integrali mono e multi-centro che devono essere valutati nel corso di un calcolo esatto. È abbastanza
difficile dare delle classificazioni generali dei vari metodi semiempirici. Di conseguenza discuteremo il
piú semplice (e forse, malgrado tutto, ancora piú usato) schema semiempirico, l’approssimazione di
Hückel, come un esempio particolare degli schemi generali di approssimazione tipici di molti metodi
semiempirici. Questa Sezione si concluderà poi con un richiamo alla classe di metodi semiempirici del
tipo NDO.
7.1.1
Metodo di Hückel
Il metodo di Huc̈kel è applicabile a molecole organiche, nelle quali sia possibile separare una classe
di elettroni relativamente localizzati ed inattivi, tipicamente impegnati in legami σ, e un’insieme di
elettroni delocalizzati e reattivi, impegnati in legami π. La natura di questa identificazione può non
essere affatto chiara, anche se nei casi più comuni (p. es. l’insieme di legami coniugati nei sistemi
aromatici) risulta essere abbastanza ovvia. Le classi piú comuni di molecole coinvolte sono:
• Polieni lineari: es. 1,3-butadiene;
• idrocarburi aromatici: benzene, naftalene;
• etero-molecole aromatiche: piridina, furano, acroleina;
Il sistema più semplice è il radicale planare CH3 ·
(
(1s)2 (Ω1 )2 (Ω2 )2 (Ω3 )2 (2pz )
Ωi = 1sH + λsp2
(1s)2 : inner shell
(Ωi )2 : elettroni σ
(2pz ) : elettrone π
191
192
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
2p
z
H
H
C
H
Figura 7.1: Radicale CH3 ·
Un tentativo di sistematizzazione dell’approssimazione di Hückel è stato dato da Likos e Parr nell’ambito
di un formalismo di partenza di tipo Hartree-Fock. Sotto le condizioni di separabilità σ − π si può
separare il calcolo della parte della funzione d’onda riferita ai soli orbitali π. Le equazioni di Roothaan
per l’hamiltoniano π−HF:
Fπ C = ∆C²
(7.1)
generano il seguente problema agli autovalori per la determinazione dei livelli energetici:
|Fπ − ²∆| = 0
(7.2)
Come è tipico di quasi tutte le metodologie di calcolo semiempiriche, il passo successivo è dato dalla
parametrizzazione degli elementi di matrice:
∆rs = δrs
(7.3)
Frr = αr
(7.4)
(
Frs =
βr atomi primi vicini
0
altrimenti
(7.5)
αr è l’integrale di Coulomb, βr è l’integrale di risonanza. In assenza di eteroatomi:
αr = α
(7.6)
βr = β
(7.7)
Ponendo x = (α − ²)/β, il calcolo è ricondotto alla diagonalizzazione della matrice topologica A:
|A − x1| = 0
dove Ars è 1 per atomi primi vicini, 0 altrimenti.
(7.8)
7.1. METODI SEMIEMPIRICI
2p
193
2p
z
z
2p
C
C
2p
z
z
2
1
C
C
4
3
Figura 7.2: Esempio: 1,3-butadiene.
Consideriamo p. es. il caso dell’1,3-butadiene. La matrice topologica è data da:




A=



0
1
0
0
1
0
1
0
0
1
0
1
0
0
1
0






(7.9)
Il gruppo di simmetria a cui appartiene il trans-1,3-butadiene è il C2h .
C2h
E
C2
i
σh
Ag
Au
Bg
Bu
1
1
1
1
1
1
-1
-1
1
-1
1
-1
1
-1
-1
1
Rz , x2 , y 2 , z 2 , xy
z
Rx , Ry , xz, yz
x, y
Tabella 7.1: Tabella dei caratteri del gruppo C2h
R̂
R̂φ1
R̂φ2
R̂φ3
R̂φ4
E
C2
i
σh
φ1
φ4
−φ4
−φ1
φ2
φ3
−φ3
−φ2
φ3
φ2
−φ2
−φ3
φ4
φ1
−φ1
−φ4
Tabella 7.2: Funzioni φi in C2h
Possiamo perciò utilizzare la simmetria delle funzioni di base nel gruppo C2h per semplificare il
calcolo. La rappresentazione riducibile è 2Au ⊕ 2Bg . I livelli energetici calcolati corrispondono a due
194
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
funzioni d’onda au e 2 funzioni d’onda bg :
²(2bg ) = α − 1.618β
²(2au ) = α − 0.618β
²(1bg ) = α + 0.618β
²(1au ) = α + 0.618β
la configurazione dello stato fondamentale è (1au )2 (1bg )2 =1 Ag Se si fosse partiti dall’isomero cis i
risultati finali non sarebbero stati diversi (poichè la matrice topologica dipende solo dalla struttura
topologica, cioè dalle connessioni tra atomi, e non dalla loro disposizione nello spazio), anche se si
sarebbe dovuto impiegare, per sfruttare proprietà di simmetria, il gruppo C2v .
7.1.2
Neglect-of-differential-overlap (NDO)
Concludiamo questa Sezione con un cenno alla classe di metodi semiempirici del tipo NDO. Il differential overlap tra due funzioni atomiche φk e φl è definito come la probabilità di trovare l’elettrone
i-esimo in un elemento di volume comune:
dkl = φk (i)φl (i)
(7.10)
L’approssimazione zero-differential-overlap (ZDO) consiste nel porre:
dkl = dkk δkl
(7.11)
L’approssimazione ZDO comporta varie conseguenze nella valutazione dei gli integrali di overlap, di
Coulomb etc.:
Skl = hφk |φl i ∝ δkl
Nn = Zn hφk | r1ni |φl i ∝ δkl
overlap
(7.12)
interazione elettrone-nucleo
J, K = hφk (i)φm (j)| r1ij |φl (i)φn (j)i ∝ δkl δmn
scambio e repulsione
(7.13)
(7.14)
Lascia però inalterati gli integrali che coinvolgono operatori differenziali:
ˆ 2 |φl i
Ii = hφk |∇
i
energia cinetica
(7.15)
I vari metodi semiempirici implicano sia regole di eliminazione o semplificazione degli integrali multicentro che di parametrizzazione di alcuni o tutti gli integrali rimanenti. I parametri ottimizzabili del
calcolo sono di solito gli integrali a 1 elettrone e parti degli integrali a 2 elettroni (nel caso precedente
dell’approssimazione di Hückel i numeri α e β). I vari schemi NDO corrispondono a diverse parametrizzazioni, fatta salva la comune applicazione a diversi livelli di sofisticazione, dell’approssimazione NDO.
• Complete NDO; Pople et al.; adotta l’approssimazione ZDO
– CNDO/1
– CNDO/2
• Intermediate NDO; adotta l’approssimazione ZDO solo per gli integrali a 2 centri
7.2. IL METODO DEL FUNZIONALE DENSITÀ
195
• Modified NDO; Pople et al.; INDO con una parametrizzazione più complessa
– MNDO/1
– MNDO/2
– MNDO/3
• Partial Neglect of Diatomic DO; MNDO solo per orbitali su centri diversi.
Il metodo MNDO è stato utilizzato per calcolare calori di formazione, ottimizzare geometrie molecolari,
calcolare potenziali di ionizzazione e momenti di dipolo, rivelandosi utile soprattutto per idrocarburi
ciclici, ma dimostrando per esempio di non essere in grado di descrivere quantitativamente interazioni
dovute a legami idrogeno. Metodi semiempirici più sofisticati sono ormai disponibili da molti anni in
letteratura: ricordiamo tra gli altri i metodi PM3 e AM1.
7.2
Il metodo del funzionale densità
Il metodo del funzionale densità (density functional, DF) è divenuto, a partire dai primi anni ’80, una
delle tecniche computazionali più versatili per il calcolo di strutture elettroniche molecolari. Il metodo
DF è al giorno d’oggi applicato con successo al calcolo di dati termochimici, strutture molecolari,
frequenze e campi di forza, interpretazione di segnali NMR, ESR ed UV, studio di stati di transizione,
calcolo di momenti dipolari etc. La popolarità del metodo DF è basata su
• la sua applicabilità a sistemi molecolari relativamente grandi (50-100 atomi): a differenza di altri
metodi post-HF) il metodo DF non riscala in modo proibitivo con il numero di elettroni del sistema
• l’accordo dimostrato con dati sperimentali di vario tipo, grazie alla descrizione relativamente
accurata dell’energia di correlazione del sistema.
Consideriamo un sistema di N elettroni. Sia H l’hamiltoniano elettronico, (privo di termini d’interazione
con i nuclei) del sistema e sia Ψ la funzione d’onda dello stato fondamentale, che supponiamo non
degenere. Sia infine ρ(~r) la densità elettronica nel punto ~r, che è in generale una funzione soggetta al
vincolo
Z
d~rρ(~r) = N
(7.16)
Alla base del metodo DF è la possibilità, formalmenta dimostrata da Hohenberg e Kohn nel 1964, ed in
seguito ulteriormente elaborata da Levy, di scrivere l’energia dello stato fondamentale del sistema come
un funzionale della densità elettronica. Si può infatti affermare che
1. esiste un funzionale universale F
hΨ|H|Ψi = F [ρ]
(7.17)
2. in presenza di un potenziale ’esterno’ V (~r), e nel nostro caso il potenziale esterno sarà sempre
identificato con l’interazione con M nuclei fissi
V (~r) = −
M
X
Zp
~
r|
p=1 |Rp − ~
(7.18)
196
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
l’energia dello stato fondamentale E del sistema è legata ad F dalla relazione
Z
E[ρ] =
d~rV (~r)ρ(~r) + F [ρ]
(7.19)
Il funzionale f avrà un minimo in corrispondenza della esatta densità ρ corrispondente alla esatta
funzione d’onda Ψ. Nota la forma del funzionale è perciò possibile in linea di principio risolvere
il problema variazionale di minimizzare il funzionale E[ρ] rispetto alla funzione ρ, con il vincolo
(7.16).
Il metodo DF prevede la definizione di una forma approssimata del funzionale F , o di alcune sue parti,
in una forma conveniente per il calcolo del minimo di E.
7.2.1
Equazioni di Kohn-Sham
L’implementazione usuale del metodo del funzionale densità è basata sulle equazioni di Kohn-Sham, che
riconducono il calcolo di una struttura multielettronica alla determinazione di un insieme di orbitali
monoelettronici, in analogia con il trattamento tradizionale HF.
È dato un sistema di N elettroni interagenti, e sottoposti al potenziale esterno V (~r). Secondo
il modello monoelettronico KS, è possibile associare al sistema cosı̀ definito un insieme di orbitali
monoatomici φi (~r) (i = 1, . . . , N ) che consentono di scrivere senza alcuna approssimazione l’energia
totale del sistema nella forma
Z
E = T [ρ] +
1
ρ(~r1 )V (~r1 )d~r1 +
2
Z
ρ(~r1 )ρ(~r2 )
d~r1 d~r2 + Exc
|~r1 − ~r2 |
(7.20)
dove il primo termine T [ρ] è un funzionale che rappresenta l’energia cinetica di un sistema di N elettroni
non interagenti
T [ρ] = −
1X
2 i
Z
ˆ 2 φi (~r)
φ∗i (~r)∇
(7.21)
che abbiano la medesima densità del sistema originario, definita in funzione degli orbitali come
ρ(~r) =
N
X
|φi (~r)|2
(7.22)
i=1
Il secondo termine tiene conto dell’interazione elettronico-nucleare, mentre il terzo esplicita l’interazione
coulombiana tra le due distribuzioni di carica ρ(~r1 ) e ρ(~r2 ). L’equazione (7.20) è determinata a meno
della quantità Exc , detta energia di scambio-correlazione (exchange-correlation), e che riveste un ruolo
fondamentale nella metodologia DF. La scelta di una forma funzionale per Exc determina in ultima
analisi l’accuratezza del calcolo, e costituisce il nucleo centrale di qualunque applicazione del metodo
DF. Gli orbitali elettronici sono determinati mediante le equazioni di Kohn-Sham, che ricordano molto
da vicino le corrispondenti equazioni HF
ĥKS φi = ²i φi
(7.23)
dove l’operatore monoelettronico ĥKS è definito come
1 ˆ2
+ VKS (~r)
ĥKS = − ∇
2
(7.24)
7.3. INTRODUZIONE AI METODI IBRIDI QM/MM
197
Il potenziale efficace di Kohn-Sham è definito come la somma del potenziale esterno, di un termine che
dipende dall’interazione coulombiana e della derivata funzionale dell’energia di scambio-correlazione:
Z
VKS (~r) = V (~r) +
Vxc (~r) =
ρ(~r0 )
d~r0 + Vxc (~r)
|~r − ~r0 |
δExc
δρ
(7.25)
(7.26)
Le equazioni KS possono essere risolte con la procedura di Roothaan, vale a dire espandendo gli orbitali
φi in funzione delle funzioni di base note, e risolvendo il sistema non lineare nei coefficienti dell’espansione
in modo iterativo.
7.2.2
Funzionali densità
Evidentemente, poichè la determinazione dell’energia di scambio-correlazione non è possibile in modo
esatto, è necessario ricorrere ad approssimazioni. Il modello più semplice per definire in modo approssimato il funzionale Exc è detto modello del gas omogeneo di elettroni, e separa il contributo di scambio
dal contributo di correlazione:
Exc = Ex + Ec
(7.27)
il primo termine, l’energia di scambio, si ottiene integrando l’energia di un gas uniforme di elettroni di
densità ρ su tutto lo spazio delle fasi. Si ottiene l’espressione
3
Ex = −
2
sµ
¶
Z
3 X
ρσ (~r)4/3 d~r
4π σ
(7.28)
dove l’indice σ è riferito agli stati di spin α e β. Il secondo termine Ec è detto energia di correlazione,
ed è descrivibile nei termini dell’energia di correlazione per elettrone, ²c [ρα , ρβ ] in un gas con densità
ρα e ρβ
Z
Ec =
ρ(~r)²c [ρα (~r), ρβ (~r)]d~r
(7.29)
varie forme funzionali sono state proposte per l’energia specifica di correlazione ²c .
7.3
Introduzione ai metodi ibridi QM/MM
Gli effetti solvente influenzano significativamente la struttura e la reattività delle specie in soluzione ed
è per questo che la chimica teorica cerca da decenni di sviluppare metodi computazionali che riescano
a descrivere ed a prevedere in maniera quantitativa il comportamento di specie chimiche in soluzione.
Questi problemi possono essere trattati a livello molecolare utilizzando metodi di dinamica molecolare e
il metodo Monte Carlo nei quali le molecole di soluto sono posizionate in celle unitarie periodiche che contengono anche centinaia o migliaia di molecole di solvente. Le proprietà termodinamiche sono ottenute
con un effetto medio sulle configurazioni. La chiave del successo delle simulazioni computazionali di sistemi in fasi condensate è la disponibilità di funzioni che descrivano in modo accurato l’energia potenziale
considerando opportunamente le interazione intermolecolari. Teoricamente i metodi quantomeccanici
ab-initio (QM) potrebbero essere utilizzati per calcolare sistematicamente le interazioni intermolecolari
198
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
in soluzione e generare i dati energetici e strutturali necessari. In pratica è impossibile trattare un intero
sistema in fase condensata mediante calcoli quantistici perchè il tempo di calcolo necessario, anche con il
computer piú veloce attualmente disponibile, sarebbe proibitivo anche per sistemi di piccole dimensioni.
Devo quindi essere fatte delle approssimazioni. In genere vengono utilizzate delle funzioni empiriche
per il potenziale ma sono difficili da associare al molecular mechanics (MM) force field. La difficoltà
è dovuta al fatto che la struttura elettronica non viene esplicitamente rappresentata, i campi di forza
MM non sono adeguati e le funzioni empiriche che descrivono il potenziale (e di conseguenza i semplici
metodi di dinamica molecolare) non sono in grado di descrivere neppure approssimativamente reazioni
chimiche evolvono con rottura o formazione di un legame. I sistemi di interesse chimico in biologia
computazionale e nella catalisi, per fare un esempio dei campi di maggiore applicazione, sono sistemi in
fasi condensate composti da molte migliaia di atomi gli studi ed è per questo che negli ultimi anni sono
aumentati rapidamente gli studi e di conseguenza le pubblicazioni e le reviews [22] sui metodi QM/MM
con conseguente sviluppo di adeguati software per la loro implementazione (CHARMM). L’approccio
alternativo dei metodi ibridi QM/MM consiste nel suddividere il sistema in due parti trattando una
parte mediante metodi QM e una parte mediante una metodologia classica MM.
7.4
I metodi ibridi QM/MM
Lo sviluppo dei metodi ibridi QM/MM che inizia con gli studi pionieristici di Warshel e Levitt [23] e di
Singh e Kollman [24] segue come linea generale l’idea che un sistema chimico composto da centinaia o
migliaia di atomi possa essere partizionato (7.3) in una regione elettronicamente importante che richiede
un trattamento quantomeccanico e la rimanente regione che agisce in modo perturbativo e ammette
una descrizione classica. La perturbazione potrebbe essere principalmente meccanica, ad esempio se le
forze della regione classica costringono la regione quantistica in una particolare geometria, ma possono
includere anche effetti elettronici come l’elettrostatica e la polarizzazione. In questo modo il sistema
di reazione (o il sito attivo di un enzima) è trattato esplicitamente mediante una metodologia QM
mentre le molecole di solvente che rappresentano l’ambiente di reazione (o gli amminoacidi adiacenti)
e costituiscono la parte computazionalmente più pesante nel calcolo delle superfici di potenziale sono
trattate mediante MM force field standard. I metodi ibridi hanno il merito di combinare gli approcci
classici e quantistici. La parte quantistica permette il calcolo delle proprietà dello stato fondamentale ed
elettronico o dei potenziali di ionizzazione nelle reazioni chimiche e richiede una limitata (semiempirici)
o addirittura assente (ab-initio) parametrizzazione mentre il successo del campo di forza classico MM è
fortemente dipendente dalla calibrazione di un elevato numero di parametri rispetto ai dati sperimentali.
La parte classica porta una notevole efficienza computazionali. Dal momento che la struttura elettronica
coinvolta nella reazione e le interazioni soluto-solvente sono determinate mediante calcoli quantistici
queste procedure si dimostrano di notevole interesse per lo studio di reazioni chimiche. Inoltre gli effetti
di polarizzazione del solvente sul soluto sono inclusi nei calcoli QM mediante un modello che descrive il
solvente come un dielettrico continuo e calcola l’energia di solvatazione usando il campo di reazione di
Onsager. I modelli di questo tipo hanno il vantaggio di essere efficienti per i contributi elettrostatici a
lungo raggio nella solvatazione ma non considerano le specifiche interazioni soluto-solvente. In molti casi
è invece necessario includere esplicitamente queste interazioni. Conseguentemente è stato sviluppato
7.4. I METODI IBRIDI QM/MM
199
Figura 7.3: Rappresentazione schematica della partizione di un sistema in fase condensata.
un modello che tratta il soluto insieme a poche molecole di solvente nei calcoli QM ed incorpora poi
esplicitamente modelli classici per il solvente come descritto da Warshel [25] nella teoria del legame
empirico di valenza (EVB). Rimane quindi il problema di come includere esplicitamente gli effetti
solvente nei calcoli QM, cioè di come trattare la regione tra i sottoinsiemi QM e MM. In teoria la
divisione tra le due regioni potrebbe sembrare piuttosto semplice e netta ma raramente è possibile
scrivere l’energia totale del sistema in termini di due sottosistemi non interagenti. Molto spesso invece
le interazioni tra i due sottosistemi sono piuttosto forti (il caso piú ovvio è quello della presenza di un
legame chimico di qualsiasi natura) tanto da rendere necessari dei trattamenti particolari nella zona
tra la regione QM e la regione MM. Questi approcci per lo studio delle terminazioni dei metodi QM
possono essere grossolanamente divisi in due gruppi principali:
1. approcci basati sui link atoms nei quali vengono aggiunti dei centri addizionali solo nei calcoli
QM ma che non sono presenti nell’intero sistema
2. approcci che presentano una boundary region tra la regione QM e MM; i centri che si trovano in
tale regione sono soggetti sia a calcoli QM che MM
L’ultimo aspetto da considerare per descrivere nella sua interezza il sistema in esame riguarda le
condizioni al contorno, cioè l’energia dovuta ai vincoli applicati nella parte più esterna della regione
MM e che permette di mantenere la struttura. L’energia totale di un sistema cosı̀ definito può essere
espressa in modo semplificato come:
E = E(QM ) + E(M M ) + E(QM/M M ) + E(contorno)
(7.30)
dove E(QM) rappresenta l’energia della regione QM come se fosse isolata, il termine E(MM) fornisce
l’energia del sistema MM, E(QM/MM) è l’energia di interazione tra le regioni QM e MM che dipende
da come viene definito il sistema in questa delicata regione. Questo termine energetico, che include
200
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
tutti i termini di accoppiamento tra le due regioni, deve tener conto delle interazioni di van der Waals
e delle modificazioni dell’Hamiltoniano QM che possono influenzare la regione MM come ad esempio
perturbazioni elettrostatiche (non trascurabili in presenza di link atoms). Infine E(contorno) è il termine energetico dovuto ai vincoli imposti nella parte più esterna della regione MM. Nelle sottosezioni
successive si andranno a descrivere le metodologie applicabili in ogni regione nella quale è stato diviso
il sistema e si tenterà di riportare alcuni buoni criteri di scelta per riuscire a districarsi tra le varie
metodologie particolari che sono state sviluppate.
7.4.1
I metodi QM
La scelta del metodo QM da utilizzare nei metodi ibridi QM/MM segue fondamentalmente gli stessi
criteri da applicare ai puri calcoli QM e cioè si tratta di accettare un ragionevole compromesso tra
l’efficienza computazionale e l’accuratezza chimica desiderata. I metodi quantomeccanici per lo studio
di molecole possono essere divisi in due categorie: metodi ab-initio e metodi semiempirici. I metodi
ab-initio assicurano un’elevata accuratezza ma questa comporta tempi di calcolo proibitivi anche per
sistemi di ridotte dimensioni. Tra questi metodi si include l’Hartree-Fock (HF) o teoria dell’orbitale
molecolare (MO), la teoria dell’interazione di configurazione (CI), la teoria perturbativa (PT) e la teoria
del funzionale densità (DFT). I metodi semiempirici si trovano a metà strada tra un metodo ab-initio
e un metodo MM perchè come i secondo utilizzano parametri derivati sperimentalmente per migliorare
l’accuratezza ma restano comunque una metodologia di natura quantomeccanica. I metodi semiempirici
sono molto più veloci computazionalmente perch eliminano il calcolo di alcuni integrali particolarmente
complicati e l’errore introdotto con questa drastica operazione viene compensato attraverso l’uso di
parametri: i risultati sono considerati comparabili con calcoli ab-initio che utilizzano uno split valence
basis sets 3-21G. Tra queste metodologie possono essere citate l’Austin model 1 (AM1), il PM3, l’EVB,
lo ZINDO. La maggior parte delle implementazioni nella regione quantistica sono trattate mediante il
metodo empirico del legame di valenza (EVB) di Warshel [25] che include un Hamiltoniano parametrizzato o con metodi semiempirici come AM1 [26] che hanno il vantaggio di essere computazionalmente
poco pesanti ma presentano altre notevoli limitazioni. Le maggiori limitazioni sono l’accuratezza e
l’affidabilità oltre al fatto che devono essere opportunamente parametrizzate per riprodurre le proprietà
delle molecole nello stato fondamentale, parametri che sono disponibili per un limitato range di elementi.
Per sopperire a questi limitazioni ultimamente sono stati sviluppati [27] metodi HF [28],[29] e DFT
[30],[31],[32] per i calcoli nella regione QM. Entrambi questi metodi assicurano un’elevata accuratezza
quantitativa e il DFT è computazionalmente poco costoso pur includendo la correlazione elettronica.
Recentemente sono stati implementati programmi basati sul Car-Parrinello DFT [33]. In generale non è
quindi possibile determinare i sistemi da studiare con una metodologia rispetto ad un’altra. Fino a poco
tempo fa la miglior scelta per problemi inerenti ad applicazioni organiche e biologiche erano sicuramente
i metodi semiempirici tanto che la maggior parte dei calcoli riportati in letteratura utilizzano questi
metodi; ora però si sono dimostrati competitivi anche i metodi HF e DFT in particolare per lo studio
delle reazioni chimiche in sistemi enzimatici e per gli studi sulla complessazione [27].
7.4. I METODI IBRIDI QM/MM
7.4.2
201
I metodi MM
La seconda importante componente della metodologia QM/MM è il campo di forza MM, cioè un set di
equazioni matematiche che descrivono l’energia in termini di una distorsione dai valori ideali. Anche se
lo scopo della trattazione è la scelta del metodo MM può essere utile una breve descrizione su campi
di forza empirici che vengono utilizzati nello studio di liquidi e proteine. Il maggior merito delle simulazioni computazionali di sistemi molecolari è la predizione di strutture di equilibrio e la riproduzione
della dinamica dei moti molecolari entrambe definite in termini di forze intra e intermolecolari. Per ottenere questi risultati è necessario conoscere l’energia potenziale del sistema in funzione della struttura
molecolare o delle coordinate interne. L’intuizione chimica e l’esperienza dimostrano che atomi e legami
mostrano una certa regolarità e valori caratteristici che si riflettono sulla geometria di equilibrio, sulle
frequenze vibrazionali e sulle energie di dissociazione. La MM assume che l’energia potenziale di una
molecola vicino alla configurazione di equilibrio sia semplicemente una funzione della distanza atomica,
degli angoli di legame, etc
P
bonds E(bonds)
P
P
+ angles E(angles) + dihed. E(dihed.)+
E(M M ) =
P
P
P
+ non−bonds E(non − bonds) + i6=j E(vdW ) + i6=j E(elect.)
(7.31)
dove l’energia è funzione rispettivamente dello stretching dei legami, del bending degli angoli, degli
angoli torsionali, delle interazioni di non-legame e dei vari termini di accoppiamento. un problema
pratico in MM è la scelta delle coordinate interne per specificare e definire l’energia molecolare. Tutti
i termini descritti nell’equazione sono ricavati attraverso una parametrizzazione del campo di forza
ma la determinazione delle costanti di forza non è un procedimento semplice. Innanzitutto si parte
definendo un set di molecole e le si associa a determinate proprietà sperimentali che andranno interpolate
mediante opportuni campi di forza. I parametri risultanti saranno utilizzati per predire le proprietà
di altre molecole. Le proprietà sperimentali includono la struttura molecolare in fase gas, le frequenza
vibrazionali, le barriere torsionali, l’energia dei legami idrogeno, l’energia libera di solvatazione, etc In
generale la scelta del modello MM [34] da utilizzare dipende può essere significativamente influenzata
dal trattamento utilizzato per descrivere la regione di confine tra QM e MM i cui approcci rispetto alle
interazioni di legame e di non-legame possono essere notevolmente diversi. La più importante distinzione
si ha tra (a) campi di forza di valenza esemplificati da campi di forza biomolecolari (CHARMM e
AMBER) e costruiti da termini energetici come lo stretch di legame, il bend degli angoli, etc (b) campi
di forza ionici i cui termini principali sono le forze elettrostatiche e a corto raggio (van der Waals). Per
la scelta del modello MM si devono quindi precedentemente stimare due aspetti: (a) la scelta del campo
di forza influenza la carica parziale atomica che a sua volta ifluisce sulle interazioni QM/MM a lungo
raggio, nell’implementazione si utilizza la stessa carica per le interazioni MMMM e MMQM. Il campo di
forza ionico tende a generare una carica più grande di quella generata dall’interpolazione del potenziale
elettrostatico. In molti casi si sviluppano cariche ioniche formali. (b) Il trattamento dei legami e i
contatti interionici tra le regioni QM e MM seguono generalmente lo stesso approccio utilizzato per le
interazioni nella regione MM. Nel caso del campo di forza di valenza si identificano facilmente i termini
derivati dallo stretch dei legami e dal bend degli angoli e possono quindi essere eliminati i termini che
derivano dall’interazione QM. Nei campi di forza ionici i termini di interazione attrattiva a corto-raggio
QMMM derivano dalla presenza di cariche MM nell’Hamiltoniano QM e di conseguenza non possono
202
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
essere separate dalle interazioni a lungo-raggio. Per queste ragioni è più semplice utilizzare un campo
di forza di valenza. La classe di forze di tipo ionico può essere utilizzata nella regione di confine tra QM
e MM ma solamente se le cariche riescono a generare un corretto potenziale elettrostatico nella regione
QM. I metodi MM quindi considerano gli elettroni in maniera esplicita ma non trattano la polarizzazione
o il trasferimento elettronico. Non considerano neppure la rottura o la formazione di legami e non
possono di conseguenza essere usati per simulare reazioni chimiche. Sono invece ampiamente utilizzati
per simulare sistemi di notevoli dimensioni come ad esempio le proteine transmembrana.
7.4.3
Trattamento dei termini di accoppiamento di non-legame QM/MM
Nella maggior parte dei modelli classici le interazioni di non-legame comprendono le forze elettrostatiche
e le forze a corto-raggio o di van del Waals. Nel contesto delle metodologie QM/MM è applicata la
stessa nomenclatura per le interazioni di non-legame tra i centri QM e MM.
I termini di interazione a corto raggio o di Lennard-Jones
Il trattamento delle interazioni QM/MM a corto-raggio segue generalmente lo stesso modello utilizzato
per i calcoli MM. Spesso è necessario un nuovo fitting rispetto ai parametri di non-legame ed in particolare nel caso degli studi sulla solvatazione [35] o dove sono particolarmente importanti i contatti
dettagliati di non-legame.
I termini di interazione elettrostatica
Il trattamento delle interazioni elettrostatiche nella regione di confine QM/MM è descritto mediante tre
vie da Bakowies e Thiel [36]. I tre metodi sono etichettati come modello A, modello B e modello C:
A. modello meccanico nel quale i calcoli QM sono essenzialmente ottenuti in fase gas senza accoppiamento elettronico con l’ambiente. L’energia QM e MM è calcolata separatamente, viene separato
il rilassamento MM. Le interazioni elettrostatiche tra le regioni QM e MM sono omesse o incluse nei
calcoli MM utilizzando un modello classico di carica puntuale per la distribuzione di carica QM. Esempi
di questo modello sono dati da Morokuma (IMOMM) e Bakowies e Thiel (MNDO/MM)
B. modello elettrostatico nel quale la partizione classica appare come una distribuzione di cariche
esterna nell’Hamiltoniano QM. La polarizzazione della regione QM da parte della distribuzione di carica
della regione MM avviene nei calcoli della struttura elettronica QM. Le cariche parziali utilizzate per
descrivere la distribuzione in MM sono le stesse che si ricavano dai campi di forza. Nello schema ab-initio
il modello B è implementato aggiungendo il contributo delle cariche puntuali MM nell’Hamiltoniano
monoelettronico
C. modello di polarizzazione nel quale viene inclusa la polarizzazione della regione MM dovuta alla
distribuzione di carica in QM.
7.4.4
Regione di interazione QM/MM che presenta legami tra gli atomi
Nel paragrafo precedenti si sono considerati i termini di accoppiamento di non-legame e cioè si sono
esplicitate le interazioni che intercorrono tra atomi che non sono legati. Ma che cosa avviene quando
esiste un legame ad esempio di tipo covalente tra gli atomi delle regione QM e quelli nella regione MM?
7.4. I METODI IBRIDI QM/MM
203
La (7.4) presenta schematicamente la situazione in esame. In generale si può anticipare che deve essere
mantenuta sia la valenza della regione QM che la geometria del sistema MM. Solitamente si assume
Figura 7.4: Schema delle regioni QM e MM divise da un legame covalente.
che non ci sia trasferimento di carica tra la regione QM e MM, un’ipotesi abbastanza ragionevole per
soluzioni diluite nelle quali le molecole di soluto sono trattate mediante la meccanica quantistica mentre
il solvente è affrontato classicamente. La regione di confine può essere sistemata in modo che non ci
siano legami covalenti tra i due sottosistemi ma è facile immaginare che la maggior parte dei sistemi
organici non cadano in questa categoria. Nei casi in cui ci sono legami o forti interazioni ioniche tra i
sottosistemi è necessario introdurre particolari terminazioni per i calcoli QM come ad esempio attraverso
link atom o approcci per la boundary region. Oltre a queste metodologie più comunemente utilizzate
sono stati sviluppati altri metodi come il metodo EVB [37], il metodo EFP [38] e il metodo GHO [39].
La prima descrizione della rappresentazione di un legame covalente che connette atomi della regione QM
e delle regione MM venne effettuata da Warshel e Levitt che utilizzarono degli orbitali ibridi sull’atomo
MM [40]. Durante quello studio venne sviluppato il metodo semiempirico QCFF/ALL che include tutti
gli elettroni di valenza con gli orbitali atomici ibridi. Ma l’approccio più comunemente utilizzato per
trattare la terminazione di siti che presentano legami covalenti è il metodo dei link atoms [23] introdotto
da Singh e Kollman [24] e schematizzato in (7.5). In questo metodo vengono introdotti degli atomi
addizionali che formano un legame covalente con la regione QM che dovrebbe mimare il legame con la
regione MM. Questi atomi legati soddisfano la valenza degli atomi QM. Il più semplice ed ancora più
utilizzato atomo legato è l’atomo di idrogeno che viene posizionato lungo il legame QM/MM che è stato
rotto. Possono essere utilizzati anche altri atomi o gruppi funzionali come gli alogeni o i gruppi metile.
Ci sono delle evidenti differenze chimiche tra gli atomi di idrogeno ed i gruppi che vanno a replicare e per
questo Antes e Thiel [41]. I link atoms sono trattati in maniera esatta nei calcoli QM ma non è permesso
loro di interagire con gli atomi MM (è come se risultassero invisibili agli atomi MM), l’energia e le forze
204
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.5: Rappresentazione del metodo link-atoms.
risultano dai termini energetici di legame. I termini elettrostatici e di van der Waals che si considerano
di non-legame sono trattati separatamente: (a) le interazioni di van der Waals attraverso la regione QM
e MM sono determinati in modo esatto come se l’intero sistema fosse classico mentre (b) l’energia di
interazione elettrostatica è ottenuta da calcoli quantomeccanici sugli atomi QM insieme ai link atoms
in presenza di tutte le cariche parziali MM escluse quelle prodotte dai link atoms. Chiaramente il
metodo non rappresenta un approccio ideale perch dovrebbe essere introdotta una perturbazione del
sistema, ma si dimostra particolarmente utile quando i link atoms sono relativamente lontani rispetto
agli atomi che partecipano alle reazioni chimiche. Molteplici sono gli autori [42],[43] che in questi anni
hanno studiato questo problema proponendo ad esempio nuovi metodi del modello [43] degli atomi legati
che soddisfa la valenza del sistema quantico ma la posizione degli atomi legati dipende dalla posizione
degli atomi reali agli estremi del legame covalente che è stato troncato; non vengono introdotti nuovi
gradi di libertà al sistema dovuti ai link atoms. Un altro tipo di approccio molto utilizzato sviluppa il
trattamento dei legami costringendo la soluzione a riflettere l’influenza dei legami che precedentemente
sono stati omessi. Un primo metodo è lo schema local self-consistent field (LSCF) sviluppato da Rivail
e co. [44] che utilizza dei frozen orbital (o orbitali di legame localizzati) parametrizzati degli orbitali
lungo il legame QM/MM che nei modelli precedenti non venivano preliminarmente ottimizzati (7.6).
Il metodo LSCF è un modo piuttosto elegante per terminare la distribuzione di carica nella regione
QM senza introdurre atomi aggiuntivi nel sistema, ma i calcoli [45] sull’energia dimostrano che questo
metodo è meno robusto rispetto a quello degli atomi legati. L’energia con LSCF è più sensibile a fattori
come le dimensioni della parte QM, il valore delle cariche MM sull’atomo di frontiera MM e la scelta
della popolazione elettronica sugli orbitali di legame localizzati. Nonostante tutto il metodo permette
la delocalizzazione elettronica su un numero più piccolo di orbitali molecolari. Se il frammento quantico
è piccolo o se la densità di carica sull’atomo di frontiera è alta conviene utilizzare il metodo degli atomi
legati, se il legame di frontiera è lontano dal sito che subisce modificazioni chimiche i due metodi sono
equivalenti, ma l’LSCF è più semplice perchè non è necessario introdurre vincoli negli orbitali di frontiera
per mantenere le proprietà geometriche. Nel metodo generalised hybrid orbital (GHO) sviluppato da
7.4. I METODI IBRIDI QM/MM
205
Figura 7.6: Rappresentazione degli orbitali utilizzati nel metodo LSCF.
Gao e co. [39] gli orbitali ibridi sugli atomi tra le regione QM e la regione MM vengono divisi in orbitali
attivi e orbitali ausiliari (7.7). Gli orbitali ibridi attivi sono ottimizzati con calcoli quantomeccanici
mentre la densità di carica degli orbitali ausiliari è definita dal potenziale MM. Rispetto al metodo
LSCF non è necessario riparametrizzare ogni volta il sistema. Per completezza espositiva si citano altre
due metodologie per il trattamento della zona di confine tra la regione QM e MM anche se queste
metodologie sono meno utilizzate rispetto alle precedenti. Il metodo empirical valence bond (EVB)
sviluppato da Warshel [37] tratta ogni punto della superficie di reazione come la combinazione di una
o più strutture del legame valenza. La parametrizzazione viene eseguita o dai calcoli quantistici QM
o dai dati sperimentali. Può rivelarsi un metodo utile ma deve essere accuratamente impostato con
opportuni parametri per ogni sistema. Il metodo effective fragment potential (EFP) proposto da Webb
e Gordon [38] e ripreso da Jensen [46] aggiunge dei ”frammenti” al trattamento standard QM che
sono totalmente polarizzabile e sono parametrizzati da calcoli ab-initio eseguiti separatamente. Risulta
attualmente ancora problematico il trattamento dei legami tra la ”vera” regione QM e i frammenti
introdotti.
7.4.5
Le condizioni al contorno
In tutte le simulazione computazionali di liquidi o proteine si presenta il problema di come approssimare
un sistema virtualmente infinito [34] mediante una costruzione finita. Spesso vengono utilizzate delle
condizioni periodiche al contorno che mimano le condizioni del bulk. In questo approccio la cella unitaria centrale è replicata periodicamente mediante traslazioni nello spazio tridimensionale rimuovendo
qualsiasi effetto al contorno. Gli atomi nella cella primaria interagiscono con le vicine immagini di atomi
nelle celle adiacenti. Tipicamente viene utilizzato un cut-off per troncare le interazioni a lungo-raggio
206
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.7: Rappresentazione schematica della divisione del legame QM/MM e partizione degli orbitali
ibridi sull’atomo di contorno.
e vengono scelte smoothing-function per permettere all’energia potenziale di annullarsi. Un approccio alternativo è lo sviluppo di condizioni stocastiche al contorno dove si sviluppa nella simulazione
un sistema molecolare finito; non viene replicata una singola cella ma vengono applicate delle forze
al contorno che interagiscono con gli atomi del sistema [47]. La difficoltà nell’uso di questo metodo è
dovuta all’ambiguità associata con la definizione e la parametrizzazione delle forze al contorno. Infine
metodi utilizzati nelle simulazione MC o MD potrebbero essere mutuati negli approcci QM/MM [48].
In generale è utile sottolineare che l’utilizzo di un sistema finito per le simulazioni in fasi condensate è
sempre una grande approssimazione sia che siano sviluppate condizioni periodiche o forza al contorno.
7.5
Implementazione dei metodi QM/MM
Per molti aspetti i software che permettono di implementare i metodi QM/MM sono simili a quelli
associati con i singoli metodi QM e MM. La maggior parte dei termini di accoppiamento sono già
presenti nei singoli pacchetti MM e QM. Quindi stabilito che il punto di partenza sono i singoli package
i vari tipi di implementazione per i metodi QM/MM possono essere divisi in tre gruppi [34]:
1. uno che utilizza un pacchetto di modelling classico nel quale la parte quantistica QM è integrata
come un estensione del campo di forza classico
2. uno basato sul pacchetto quantistico QM nel quale l’ambiente classico MM è incorporato come
una perturbazione
3. uno schema modulare in cui è presente un programma centrale di controllo che permette la scelta
sia di un metodo QM che di un metodo MM
7.5. IMPLEMENTAZIONE DEI METODI QM/MM
207
La prima implementazione di un potenziale ibrido QM/MM mediante l’utilizzo di un calcolatore venne
fatta da Warshel e Levitt [23] utilizzando un Hamiltoniano QCFF/ALL trattando gli elettroni π con il
metodo PPP. Successivamente Singh e Kollman [24] svilupparono il programma QUEST che combina
Gaussian 80 e AMBER. Merz e collaboratori [30] svilupparono un DFT combinato con AMBER. Il
metodo semiempirico MNDO/AM1 fu combinato per la prima volta con un campo di forza MM nel
programma CHARMM da Field e Karplus [49]. Andiamo ora, dopo la breve digressione storica, a
riprendere la divisione in gruppi descritta in precedenza. Oggi l’approccio più utilizzato è sicuramente
il primo perchè sono già presenti programmi per il modelling in pacchetto MM/MD che vengono largamente utilizzati per lo studio di grandi e complessi sistemi chimici. Un buon esempio di questo gruppo è
il CHARMM [27],[28] package che contiene anche l’implementazione QM. Questo programma funziona
tradizionalmente bene per sistemi macromolecolari ma dovrebbe essere potenziato per la ricerca degli
stati di transizione. La capacità di CHARMM può essere estesa con l’inclusione del pacchetto GRACE.
L’approccio considerato nel secondo gruppo è particolarmente utilizzato quando si ha a che fare con
piccole molecole e per la ricerca degli stati di transizione. Prendendo però un ambiente stazionario o
completamente rilassato ad ogni step viene perduta la complessità conformazionale e rimane il problema
dell’ottimizzazione QM. Morokuma [50] ha sviluppato su questa via l’accoppiamentro tra GAMESSUK e AMBER mentre Breuer [51] utilizzò il pacchetto MSI Cerius-2 che introduce un modello MM
per l’ambiente in un implementazione RI-DFT con ottimizzazione delle coordinate interne per mezzo
di TURBOMOLE. Il terzo gruppo deve essere considerato in modo un po’ più dettagliato. I benefici
di una costruzione modulare sono molteplici: (i) tale costruzione offre una maggiore flessibilità ed in
particolare è in grado di analizzare sistemi chimici che richiedano differenti classi di campi di forza e (ii)
i vari pacchetti posso essere opportunamente sostituiti nel momento in cui siano disponibili versioni più
aggiornate. Tra gli svantaggi devono essere inclusi: (i) i vari pacchetti devono essere messi in relazione,
è quindi necessario realizzare un programma che adempia a questo compito, (ii) deve essere considerata
l’efficienza di trasferimento dei dati tra i vari pacchetti che hanno eseguito indipendentemente i calcoli QM e MM. Un esempio di sistema modulare include l’accoppiamento di AMBER con CADPAC e
MNDO. Altri esempi sviluppati da vari gruppi prevedono: QCPE con MOPAC, il MCQUB che combina il MOPAC con il programma BOSS, ARGUS e HyperChem che supportano una grande varietà di
modelli semiempirici.
7.5.1
Implementazione dei metodi ibridi QM/MM mediante Gaussian98 e Gaussian03
Negli ultimi anni è stato sviluppato un nuovo approccio per implementare i metodi QM/MM mediante
il pacchetto Gaussian. In questa metodologia si parte dal problema generale del trattamento teorico di
sistemi di grandi dimensioni. Un sistema molecolare si divide quindi in due o tre differenti strati (layers)
connessi tra loro ed ogni strato può essere trattato con un livello differente di accuratezza. Queste sono le
basi del metodo ONIOM [52],[53],[54] che viene implementato nel pacchetto di Gaussian98 e Gaussian03.
La (7.8) può essere utile per esplicitare lo schema utilizzato nel metodo ONIOM. Il sistema che si andrà
a studiare deve essere diviso in due o tre strati; la parte in rosso rappresenta il livello più accurato
di calcoli quantistici e viene trattata in genere con MP2, CCSD(T) o CISDT, la parte in blu è ad un
livello intermedio di complessità e la si può trattare con HF, AM1 o PM3 ed infine la parte in nero
208
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
è la porzione di sistema affrontato con un approccio classico come MM2 o MMFF. Le applicazioni di
Figura 7.8: Rappresentazione del metodo ONIOM utilizzando la triade catalitica della carbossipepdidasi.
ONIOM sono molteplici: (i) calcolo delle energie di legame perch il metodo permette l’inclusione della
correlazione elettronica nella ristretta parte della molecola nella quale avviene la rottura del legame e
(ii) ottimizzazione della geometria e calcolo delle frequenze vibrazionali. Può essere utile citare il lavoro
di Torrent e co. [55] che si propone come una buona applicazione del metodo ONIOM in quanto studia il
complesso di un metallo di transizione in un sistema biologico. Si sviluppano quindi ONIOM2(QM:MM)
e ONIOM3(QM:QM:MM) per le prima applicazione su modelli di metalloenzimi nei quali la maggior
parte dei residui proteici sono inclusi nei calcoli. La geometria è ottimizzata includendo ai calcoli QM
anche atomi MM e le interazioni QM/MM. Il metodo ONIOM implementato in Gaussian permette di
trattare le differenti parti del sistema con differenti gradi di accuratezza in base all’arbitraria definizione
degli starti. Tutti i metodi disponibili nel pacchetto Gaussian possono quindi essere separatamente
modificati ed eventualmente parametrizzati rispetto a dati empirici.
7.6
Applicazioni dei metodi QM/MM
Le applicazioni ai metodi ibridi QM/MM sono molteplici: la maggior parte sono concentrate nell’area
del modeling proteico [56],[57],[58],[59],[60] come ed esempio la predizione della pKa di piccole molecole
[59] o il profilo dell’energia libera per l’associazione di metalli alcalini [60] mentre sono ancora limitati
gli impieghi per la catalisi basata sui metalli di transizione. Solo recentemente Morokuma [61] ha
dimostrato che queste metodologie possono essere applicate anche alle reazioni metallorganiche come
l’addizione ossidativi di idrogeno molecolare ad un complesso di platino e Woo [62] ha esaminato il ruolo
dei sostituenti nel bulk nei processi di catalisi che avvengono nella polimerizzazione delle olefine. Ma
7.6. APPLICAZIONI DEI METODI QM/MM
209
gli esempi sono molteplici e possono essere estesi a studi di solvatazione [63], a spettroscopia in fase
condensata [64], a studi di flessibilità conformazionale [65], allo studio delle reazioni chimiche in fasi
condensate, agli enzimi [66] e al DNA [58]. Attualmente la driving-force per lo sviluppo dei metodi
QM/MM è la necessità di studiare la reattività enzimatica. I benefici ottenuti dalla comprensione dei
dettagli dei meccanismi delle reazioni enzimatiche giustificano pienamente gli sforzi sempre maggiori
indirizzati nello sviluppare opportune metodologie QM/MM. La maggior parte dei lavori pubblicati negli
ultimi decenni mostra come questo tipo di approccio si presti bene allo studio di molecole biologiche e
di sistemi di dimensioni nanometriche. La maggior parte degli enzimi sono metalloproteine e quindi si
studia come lo ione metallico interagisca con il campo elettrostatico e come questo effetto possa essere
modellato utilizzando i campi di forza MM o i potenziali semiempirici QM.
7.6.1
Applicazioni biochimiche dei metodi ibridi QM/MM
Modellizzazione dello step di idrosilazione nel p-Idrossibenzoato Idrogenasi
Attualmente c’è un grande interesse attorno alle reazioni di ossidazione biologica ed in particolare sui
meccanismi di reazione di enzimi coinvolti nell’attivazione del”ossigeno. Un’importante famiglia di enzimi ossigenasi è quella delle flavin-dependent monoossigenasi e il p-Idrossibenzoato Idrogenasi (PHBH)
è stato lungamente studiato perchè come rappresentante di questa famiglia. Questo enzima catalizza
l’idrossilazione del p-idrossibenzoato nella posizione orto rispetto al gruppo idrossile, uno step cruciale
nella biodegenerazione di una grande varietà di composti aromatici inclusa la lignina (il maggior componente del legno) che è uno dei biopolimeri più abbondanti in natura. La reazione ciclica del PHBH
Figura 7.9: Rappresentazione dello stato intermedio del PHBH ottenuto mediante calcoli QM/MM.
si evolve legando il substrato, riducendo il cofattore flavina per mezzo del NADPH e incorporando
una molecola di ossigeno per formare la specie reattiva C4a-perossiflavina. Il preciso meccanismo di
210
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
idrossilazione è rimasto incerto per molto tempo. Il meccanismo di idrossilazione aromatica può essere studiato attraverso metodi QM/MM [67]. Nella maggior parte delle applicazioni su enzimi dei
metodi QM/MM si utilizza un trattamento semiempirico per la regione QM ma nel caso descritto sono
stati necessari calcoli ab-initio HF per investigare lo step descritto ed in particolare l’ipotesi di una
sostituzione aromatica elettrofila e l’importanza delle interazioni nel sito attivo. Il modello QM/MM
per l’intermedio (7.9) del C4a-idrossiflavina-substato del PHBH è stato inizialmente costruito partendo
dalla struttura cristallina. La regione QM include 49 atomi con una carica totale di −2e. La rimanente
regione MM è descritta utilizzando campi di forza del programma CHARMM e comprende 4841 atomi
che includono tutti i residui amminacidici e 330 molecole di acqua. Durante i calcoli di ottimizzazioni si
sono condiderati mobili i 1187 atomi che corrispondono all’intorno di una sfera di raggio 16Å centrata
sull’ossigeno distale del residuo perossidico. Tutti gli altri atomi all’esterno della sfera si sono tenuti
fissi. Lo step di idrossilazione nel PHBH si presta ad essere studiato con metodi QM/MM grazie alla
disponibilità della struttura cristallina ad alta risoluzione dell’enzima legato al substrato che è un ottimo
punto di partenza per i calcoli. I profili energetici calcolati confermano che la sostituzione elettrofila
aromatica è lo step che limita la velocità di reazione nella reazione ciclica catalizzata dal PHBH.
Modellizzazione del centro di reazione fotosintetico del Rhodopseudomonas viridis
Gli studi ab-initio su cofattori dei centri di reazione batterici devono necessariamente essere approssimati e le geometrie risultanti ne sono cosı̀ drasticamente influenzate. Questi problemi possono essere
risolti utilizzando una metodologia ibrida QM/MM ed in particolare all’ottimizzazione della struttura
dei cofattori nei centri di reazione fotosintetici del Rhodopseudomonas viridis (7.10) e del Rhodobacter
sphaeroides mentre un modello puramente MM è utilizzato per rifinire la struttura del rimanente ambiente proteico [68]. Il calcolo si divide in due aspetti principali: la generazione di strutture proteiche
e l’ottimizzazione delle geometrie del cofattore all’interno di queste strutture proteiche. La geometria
di partenza è quella ottenuta dai raggi X che presentano però una bassa risoluzione. All’interno del
formalismo PCM (point charge model) il sistema molecolare è diviso in una parte quantistica e in una
parte classica che sono completamente separate le une dalle altre. I cofattori sono tratatti interamente
con metodi quantistici. L’energia totale del sistema cosı̀ descritto è data dalla somma della parte quantistica, la somma della parte classica e da un termine di interazione. I risultati ottenuti motrano che
l’ottimizzazione dei cofattori dei centri di reazione fotosintetici dei due batteri prermettono di ottenere
dei gruppi prostetici molto vicini ai dati cristallografici. In più è possibile però il calcolo della distanza
dei legami idrogeno tra i vari residui amminoacidici coinvolti nelle reazioni, inoltre le forti deformazioni
dei sistemi ad anelli non derivano da interazione inter-batteri ma dalla forte interazione tra il cofattore
e la proteina.
7.6.2
Applicazioni allo studio di superfici dei metodi ibridi QM/MM
Gli stessi metodi utilizzati per lo studio di sistemi in fasi condensate nell’ultimo decennio sono stati
applicati con notevole successo anche allo studio di ricostruzione di superfici di silice [69], diamante [70]
o vari semiconduttori [71], per lo studio di adsorbimento superficiale [72] o per studi di reazioni che
avvengono in superficie [73]. L’approccio alternativo dei metodi ibridi QM/MM consiste nel suddividere
7.6. APPLICAZIONI DEI METODI QM/MM
211
Figura 7.10: Centro di reazione fotosintetico del Rh. viridis.
il sistema in due parti trattando una parte mediante metodi QM e una parte mediante una metodologia
classica MM.
Ricostruzione di superfici di diamante(100)
Dopo aver esposto in maniera generale le caratteristiche dei metodi ibridi QM/MM si vuole ora evidenziare come queste metodologie nate per lo studio di sistemi in soluzione possano essere applicate
con ottimi risultati allo studio delle superfici. Le prime applicazioni sono sulla ricostruzione di superfici
risalgono solo ad un decennio fa e riguardano la ricostruzione di superfici di diamante(100)[70]. In
seguito si sono evolute le varie parti che compongono i metodi ibridi ma l’idea generale non è variata.
Per questo si è deciso di trattare in maniera approfondita questo caso che rappresenta un importante
pietra miliare nell’esplorazione delle superfici con i metodi QM/MM. La scelta del diamante non è stata
casuale dato che questa forma allotropica del carbonio è un materiale interessante per le utili proprietà
fisiche che vanno dall’alta conduttività termica all’inerzia chimica, dal basso coefficiente di frizione alla
durezza e ad un possibile uso come semiconduttore ad alte temperature. Quando vennero applicati i
metodi QM/MM alle superfici la maggior parte degli studi teorici erano in accordo nel sostenere che
212
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.11: Modello di una superficie di diamante(100).
le superfici più stabili fossero quelle in cui ogni atomo di carbonio fosse saturato da un singolo atomo
di idrogeno e tali superfici furono chiamate monoidrate. Questa modellizzazione era però in disaccordo
con gli ordini e le lunghezze di legame e con le energie ricavate sperimentalmente. Si investigò cosı̀ la
superficie di diamante(100) (7.11) utilizzando simulazioni di dinamica molecolare combinando metodi
quantistici e forze empiriche. La superficie si è modellata partendo da un cluster interno descritto da un
potenziale quantistico semiempirico a cui è stato aggiunto un cluster di dimensioni maggiori descritto
da un potenziale empirico. La simulazione è stata sviluppata combinando meccanica quantistica QM e
funzioni di energia potenziale classica MM. Il modello utilizzato (7.6.2) contiene 360 atomi di carbonio
arraggiati secondo una struttura cristallina di 10 strati con 36 atomi ciascuno. I 40 atomi centrali
sono decritti mediante un potenziale quantistico QM mentre i rimanenti sono descritti da potenziali
empirici. Le condizioni periodiche al contorno sono assicurate utilizzando delle immagini del sistema
base riprodotte nelle tre dimensioni. Per mantenere l’ibridizzazione sp3 gli angoli del cluster descritto
con metodi quantistici sono stati saturati con degli atomi di idrogeno ”fantasma”. Le forze dovute a
questi atomi ”fantasma” non influenzano la dinamica mentre le forze tra gli atomi empirici e gli atomi
quantistici sono determinate attraverso un potenziale empirico. Una parte fondamentale del lavoro è
quindi stata la scelta di un adeguato potenziale che tenga conto di tutti i legami che intercorrono tra
le due regioni nonch delle proprietà energetiche del bulk di diamante e della superficie. L’opportuna
parametrizzazione rispetto agli spettri vibrazionali del diamante a 300 K si è effettuata utilizzando un
cluster C33 H48 (7.13)che date le dimensioni e la struttura scelta è in grado di mimare le proprietà del
diamante. La parametizzazione effettuata su cluster di dimensioni minori non è in grado di riprodurre
le frequenze vibrazionali e gli altri dati sperimentali disponibili per il diamante. La ricostruzione della
superficie deidrogenata ha messo in evidenza la presenza di due principali configurazioni : in una conformazione i dimeri superficiali sono disposti ”a righe” mentre nell’altra sono disposti ”a zig-zag”. Il
7.6. APPLICAZIONI DEI METODI QM/MM
213
Figura 7.12: Modello di una superficie di diamante(100) utilizzato per le simulazioni. Le sfere grigie
rappresentano gli atomi della regione quantistica, le sfere bianche gli atomi della regione descritta
empiricamente mentre le sfere nere gli atomi mantenuti fissi durante la simulazione.
confronto tra le energie delle due conformazioni con gli spettri vibrazionali indica che la prima conformazione è nettamente più stabile della seconda. Test successivi con l’addizione nei siti dimeri di
molecole di CH2 in entrambe le conformazioni permettono importanti considerazioni. In questo modo
si è potuta inserire nel modello teorico un’imperfezione, in genere trascurata, che riproduce gli steps
a livello atomico solitamente contenuti nei campioni sperimentali. Questi steps creano dei siti openshell attorno ad essi generando di conseguenza un significativo aumento della reattività chimica sulla
superficie del diamante. Le metodologie QM/MM sono state poi applicate anche allo studio di superfici
di diamante idrogenate considerando che entrambe le conformazioni possono assumere due differenti
tipologie di idrogenazione. La superficie è pienamente idrogenata quando ogni atomo di carbonio dei
dimeri superficiali lega due atomi di idrogeno mentre è monoidrogenata quando un atomi di idrogeno
si lega ad un atomo di carbonio del dimero. I risultati mettono in luce che una superficie pienamente
idrogenata è poco stabile a causa della notevole repulsione che esiste tra gli atomi di idrogeno mentre
una superficie monoidrata è più stabile ma non è in grado di riprodurre risultati sperimentali come le
lunghezze e gli ordini di legame. Gli studi energetici e vibrazionali hanno infine messo in evidenza che
in presenza di idrogeno la condizione energeticamente più favorevole è data da una regolare alternanza
tra siti pienamente idrogenati e siti monoidrogenati con rapporto H/C pari a 1.33.
Studio di interazioni di atomi, ioni e cluster di rame su una superficie di ZnO
Sherwood et all. [74] nel 2003 realizzarono uno studio dettagliato sull’interazioni degli atomi di rame nei
vari stati di ossidazione di importanza catalitica (Cu, Cu+ e Cu2+ ) e di cluster di rame su superfici polari
214
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.13: Cluster C33 H48 utilizzato per lo sviluppo del potenziale empirico. Le sfere nere rappresentano gli atomi di carbonio centrali, le sfere grigie la prima sfera degli atomi di carbonio mentre le sfere
bianche sono la seconda sfera degli atomi di carbonio.
(in particolare ZnO) applicando un metodo ibrido QM/MM. Utilizzando questo metodo vennero studiati
i siti superficiali specifici dell’interazione Cu/ZnO mediante metodologie ab-initio di alto livello come
il DFT mentre con l’ausilio di metodologie classiche MM si sono mantenuti gli effetti dovuti ai vincoli
sterici del bulk, le influenze a lungo raggio del calcolo elettrostatico e la polarizzazione del supporto
di ZnO. Il modello è stato applicato in dettaglio a atomi di rame, a ioni e a clusters (Cun , n=1,4)
su superfici ZnO zinco terminali. La modellizzazione della superficie di Zn (7.14) è stata effettuata
considerando (i) che nel bulk sia gli ioni ossigeno che gli ioni Zn sono coordinati tetraedricamente e (ii)
che un recente lavoro sulla diffrazione a raggi X ha dimostrato che la miglior interpolazione con i dati
sperimentali si ottiene considerando un’occupanza di 0.74 dello Zn sui siti superficiali. La superficie di
Zn è stata stabilizzata dalla rimozione di ioni Zn su di una supercella 5×5 in modo da avere un’occupanza
di 0.76. I siti di vacanza sono posizionati alla massima distanza gli uni dagli altri. Risultano quindi alla
fine due tipi diversi di siti superficiali derivanti dalla ricostruzione: le vacanze e le isole di terminazione
del bulk. I siti vacanti presentano un’elevata capacità di intrappolare specie ioniche e atomiche sia a
causa della loro morfologia che della bassa coordinazione e per questo sono stati identificati come i siti
primari di adsorbimento (7.15) per il rame. Il lavoro esposto è il primo studio dettagliato di interazione
di clusters di metalli di transizione con superfici realistiche polari contenenti ossigeno. In particolare è
stato sviluppato uno schema per un metodo QM/MM che permette la polarizzazione autoconsistente
dei clusters e del supporto polare e lo studio di tre differenti stati di ossidazione del rame sull’ZnO. I
risultati mostrano che lo stato di ossidazione più alto del rame lega fortemente la superficie e l’energia
di legame aumenta con le dimensioni del clusters; si è notata anche la tendenza dello ione Cu2+ ad
adsorbire in modo relativamente profondo nel bulk dato il piccolo raggio ionico e questo è in accordo
7.6. APPLICAZIONI DEI METODI QM/MM
215
Figura 7.14: Modello della struttura della superficie di Zn. Gli atomi di ossigeno sono evidenziati in
rosso mentre gli atomi di Zn in grigio.
con la solubilità del Cu2+ in un bulk di ZnO.
Studi di reazione di cicloaddizione di acrilonitrile su una superficie di Si(100)
Le metodologie QM/MM permettono anche lo studio di reazioni di cicloaddizione [73],[75] su superfici
di silicio permettendo di evidenziare la variazione di energia potenziale superficiale dei vari meccanismi
che possono avvenire in superfici. Lo studio sulle reazioni di cicloaddizione dell’acrilonitrile su una
superficie Si(100) prevede la presenza di tre differenti meccanismi di reazioni sulla superficie con diverse
energie di attivazione. Il problema è stato affrontato dividendo il sistema in una regione quantistica
e in una regione classica. Tutti i calcoli quantistici (HF e DFT) effettuati su un modello di cluster
di silicio Si9 H12 rappresentato in (7.16). Se lo studio della parte di superficie sulla quale avviene la
reazione di cicloaddizione può essere affrontata con metodi quantistici lo studio dell’intera superficie che
tiene conto di effetti classici legati alle forze elettrostatiche, ai vincoli imposti dalla geometria dell’intero
sistema (superficie+bulk), alle forze di van der Waals, etc deve essere affrontato con una metodologia
ibrida QM/MM. Si accoppia (7.17)quindi il cluster trattato con metodi quantistici con un altro cluster
di dimensioni notevolmente maggiori trattato con metodi classici. La parametrizzazione del potenziale
applicato al cluster di dimensioni maggiori è stata effettuata rispetto a dati sperimentali. L’accurata
riproduzione della superficie e del sito di reazione superficiale permette una scansione dell’energia superficiale lungo i possibili cammini di reazione fino ai prodotti finali. Le grandi barriere di attivazione
trovate permettono anche di concludere che le reazioni superficiali dell’acrilonitrile su Si sono sotto
controllo cinetico piuttosto che termodinamico.
216
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.15: Adsorbimento di un dimero di rame in stato di ossidazione 2+:(a) vista dall’alto;(b) vista
di lato.
Studio dell’adsorbimento dell’HCl sui siti diffettuali di una superficie di ghiaccio
In questo studio i metodi QM/MM vengono applicati allo studio dell’adsorbimento molecolare e dissociativo dell’HCl sui siti difettuali di una superficie di ghiaccio [76]. La chimica dell’HCl su superfici di
ghiaccio gioca un ruolo importante nella riduzione dello strato di ozono e quindi le superfici di ghiaccio
puro si candidano ad essere un buon punto di partenza per lo studio della chimica delle superfici di
ghiaccio nella stratosfera. Evidenze sperimentali sottolineano come l’HCl esiste nella sua forma dissociata sulle superfici di ghiaccio anche alle temperature presenti nella stratosfera. Lo studio presentato
permette di comprendere il ruolo delle difettualità del ghiaccio sulla dissociazioni dell’HCl. Il sistema
viene ancora una volta diviso in una regione quantistica che include la molecola di HCl e 21 molecole di
acqua superficiali la cui geometria è ottimizzata secondo calcoli ab-initio e DFT e in una regione MM
che comprende una lastra periodica di ghiaccio. Le interazioni tra le molecole nella regione QM e nella
regione MM sono ottenute sommando i contributi elettrostatici e di van der Waals. I contributi elettrostatici sorgono dalle interazioni coulombiane e di polarizzazione. Il sistema totale (regione QM+MM)
in studio è quindi composto da 768 molecole di acqua disposte in otto doppi strati con condizioni peri-
7.6. APPLICAZIONI DEI METODI QM/MM
217
Figura 7.16: Modello di cluster C3 N Si9 H15 trattato con metodi quantistici. Le sfere verdi rappresentano
gli atomi di silicio, le sfere bianche gli atomi di idrogeno mentre nella parte in alto della figura compare
l’acrilonitrile addizionato.
odiche al contorno per le molecole MM sulla superficie. Le difettualità sono state riprodotte utilizzando
una regione QM di 21 atomi e sono evidenziate (7.18). Per studiare l’adsorbimento dissociativo o non
dissociativo sulla superficie le molecole di HCl sono state inizializzate in varie posizioni sopra i siti
difettuali della superficie di ghiaccio. Durante il processo di simulazione l’HCl e le molecole superficiali
si sono mosse liberamente mentre la struttura del bulk è mantenuta fissa. Il trasporto di energia tra la
superficie e il bulk è stato modellato applicando una frizione locale. Gli studi QM/MM evidenziano che
quando sono presenti sulla superficie due atomi di H ”dangling” sufficientemente vicini questi possono
adsorbire l’HCl ed è possibile una dissociazione senza barriera di attivazione. In tutti gli altri casi
studiati ( presenza di un solo atomo di idrogeno ”dangling” o due troppo lontani) avviene solo adsorbimento dell’HCl senza dissociazione. I risultati ottenuti dai calcoli QM/MM sono in accordo con altri
risultati sperimentali [77] ed entrambi indicano che avviene la dissociazione dell’HCl senza barriere in
presenza di due atomi vicini di H. Sotto le condizioni presenti nella stratosfera l’importanza di questo
meccanismo di dissociazione, se confrontata con gli altri possibili meccanismi, è fortemente dipendente
dalla struttura della superficie di ghiaccio e dalla densità degli H superficiali. Se la struttura cristallina
presenta infatti una bassa densità di atomi di idrogeno ”dangling” allora il lento meccanismo di incapsulamento dell’HCl potrebbe essere il processo dominante mentre ad alte densità il rapido meccanismo
di dissociazione senza barriera. Infine si può anche evidenziare che i siti difettali non hanno significativi
218
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Figura 7.17: Cluster modello ottenuto componendo il cluster trattato con metodi quantistici (atomi
viola) con il cluster trattato con metodi classici (in verde).
effetti catalitici nei processi che avvengono sulle superfici dato che l’energia di adsorbimento tra siti con
difettualità e siti senza difettualità sono molto simili.
7.7
Conclusioni
Il breve riepilogo eseguito sugli approcci QM/MM ha certamente enfatizzato l’enorme varietà di strade
mediante le quali i calcoli QM e MM possono essere combinati. Se da una parte risultano abbastanza
consolidate le metodologie quantistiche molto lavoro c’è ancora da fare per sviluppare la parte MM. Si
sono quindi incrementati gli studi per definire adeguate condizioni al confine tra le regioni QM e MM
che tengano conto delle reali interazioni in gioco. Altro problema è la definizione dei campi di forza che
potrebbero arrivare a dipendere da dati ab-initio e non più empirici. Sarebbe particolarmente interessante anche l’incorporazione di effetti quantici sul solvente all’interno di simulazioni di fasi condensate.
La trattazione della regione al contorno potrebbe fare un forte balzo in avanti si riuscisse a trattare il
mezzo come un continum trattando il solvente non più a livello molecolare ma a livello mesoscopico;
verrebbero eliminate le condizioni periodiche al contorno che sono una fonte di errore spesso difficilmente stimabile. Quello che emerge chiaramente dagli esempi portati è la grande potenzialità di queste
metodologie che possono trovare applicazioni sia nel campo della ricerca di base per la comprensione di
intermedi di reazioni e di stati di transizioni sia al livello di ricerca applicata per la comprensione dei
meccanismi di reazione e interazione degli enzimi o del DNA.
7.7. CONCLUSIONI
219
Figura 7.18: (a) Siti esagonali senza difettualità ,(b) siti esagonali che invece presentano difettualità.
Sono evidenziati solo gli atomi di ossigeno. Le sfere nere sono atomi di O trattati con metodi QM
mentre le sfere grigie sono atomi di O trattati con metodi MM.
220
CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE
Capitolo 8
Proprietà dipendenti dal tempo in fasi
condensate
8.1
Teoria dei responsi lineari
Consideriamo un insieme di N particelle, ciascuna associata alla coordinata vettoriale ~ri , i = 1, . . . , N .
In assenza di interazioni con campi esterni, la funzione d’onda del sistema sarà descritta da un hamiltoniano H0 (vedi II parte). In presenza di interazioni con un campo esterno F (~r, t), possiamo scrivere
l’hamiltoniano del sistema come
H = H0 + H0 (t)
(8.1)
dove H0 (t) è l’operatore quantomeccanico corrispondente all’interazione tra il campo esterno F ed il
sistema. Nell’ipotesi che l’intensità dell’interazione sia debole (|H0 | ¿ |H0 |, dove con |H0 | si deve
intendere come una qualche misura dell’energia media del sistema dovuta ad H0 , per esempio ottenuta
calcolando il valore di attesa di H0 rispetto alla funzione d’onda del sistema), l’interazione può essere
scritta come un’espressione integrale lineare in F :
Z
0
H (t) = −
d~rB(~r)F (~r, t)
(8.2)
dove B(~r) è un operatore dinamico dipendente da una proprietà del sistema. Se si definisce l’operatore
B come la somma di operatori relativi alle singole particelle, dipendenti dalla posizione delle medesime,
si ottiene
B(~r) =
N
1X
[Bi , δ(~r − ~ri )]+
2 i=1
(8.3)
e l’hamiltoniano di interazione assume la forma
H0 (t) = −
N
1X
[B i , F (~ri , t)]+
2 i=1
(8.4)
Esercizio 1. La scrittura precedente è formalmente corretta per una gran numero di interazioni
lineari, e può essere facilmente riportata a forme standard nei vari casi specifici. Se per esempio ogni
221
222
CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE
L
m1 m2
m3
m n m n+1
m
x1
x3
x n x n+1
x
x2
N
N
Figura 8.1: Fluido monodimensionale formato da N particelle puntiformi nell’intervallo [0, L].
~ r, t)
particella è portatrice di un momento elettrico di dipolo µ
~ i , l’interazione con un campo elettrico E(~
è, come è noto dalla fisica classica
H0 (t) = −
N
X
~ r, t)
µ
~ i · E(~
(8.5)
i=1
Da un punto di vista macroscopico, possiamo scrivere l’energia di interazione sotto forma integrale
Z
~ (~r) · E(~
~ r, t)
d~rM
H0 (t) = −
(8.6)
~ (~r) è la polarizzazione macroscopica del sistema nel punto ~r che può essere scritta come
dove M
N
X
~ (~r) = 1
[~
µi , δ(~r − ~ri )]+
M
2 i=1
(8.7)
Per fissare le idee, possiamo considerare un sistema modello. In Fig. (8.1) è mostrato un disegno
schematico del nostro sistema modello, costituito da un ‘fluido’ monodimensionale. Le particelle costituenti sono caratterizzate dalle coordinate xi , definite nell’intervallo [0, L].
Definiamo come responso al tempo t e nel punto ~r la grandezza hB(~r, t)i. Il responso è dipendente
dalla storia precedente al tempo t del sistema e della campo applicato F . In generale si potrà scrivere
hB(~r, t)i =
Z t
∞
Z
0
dt
d~r0 ΦBB (~r, ~r0 ; t, t0 )F (~r0 , t0 )
(8.8)
La funzione ΦBB (~r, ~r0 ; t, t0 ) mette in relazione il comportamento del sistema descritto dall’osservabile
B nel punto (~r, t), con la perturbazione dovuta a F nel punto (~r0 , t0 ). La funzione ΦBB (~r, ~r0 ; t, t0 ) è in
generale una funzione reale: per un sistema omogeneo in equilibrio termodinamico potremo assumere
che i) ΦBB è traslazionalmente invariante, cioè dipende solo da |~r − ~r0 |; ii) ΦBB è stazionaria, cioè
dipende solo da t − t0 .
Le precedenti definizioni sono immediatamente traducibili nel dominio delle frequenze. Un campo
generico può essere visto in generale come un insieme di onde piane
F (~r, t) =
X
~k,ω
= F~kω exp[−i(~k · ~r − ωt)]
(8.9)
8.1. TEORIA DEI RESPONSI LINEARI
223
Sostituendo la precedente espressione in (8.8), si ottiene facilmente che il responso hB(~r, t)i è dato da:
hB(~r, t)i =
χBB (~k, ω) =
X
χBB (~k, ω)F~kω exp[−i(~k · ~r − ωt)]
~k,ω
Z ∞
0
Z
dt
d~rΦBB (~r, t) exp[i(~k · ~r − ωt)]
(8.10)
(8.11)
dove χBB (~k, ω) è la suscettibilità complessa associata al responso lineare hB(~r, t)i, definita come la
trasformata di Fourier-Laplace della funzione ΦBB . Dalle proprietà fondamentali delle trasformate di
Fourier-Laplace discende che la suscettibilità complessa χBB = χ0BB +iχ00BB gode delle seguenti proprietà
χ0BB (−~k, −ω) = χ0BB (~k, ω)
(8.12)
χ00BB (−~k, −ω)
(8.13)
−χ00BB (~k, ω)
=
χBB (−~k, −ω) = χ∗BB (~k, ω)
8.1.1
(8.14)
Assorbimento ed emissione di energia
Un sistema esposto ad un campo esterno esibisce un responso accompagnato da assorbimento ed emissione di energia. La differenza tra energia assorbita ed emessa è l’energia dissipata. Supponiamo che
il sistema sia sottoposto ad una radiazione monocromatica reale, formata cioè da due onde piane:
F =
o
1n
∗
F~kω exp[−i(~k · ~r − ωt)] + F~kω
exp[i(~k · ~r − ωt)
2
(8.15)
Sia Q(~k, ω) l’energia dissipata per unità di tempo, ottenibile come la media rispetto ad un periodo di
oscillazione del campo della variazione temporale dell’energia del sistema:
Q(~k, ω) =
ω
2πV
Z
2π
ω
0
Z
dt
d~rhB(~r, t)i
∂F (~r, t)
∂t
(8.16)
dove V è il volume del sistema. Sostituendo l’eq. (8.15) otteniamo:
ω
Q(~k, ω) = χ00BB (~k, ω)|F~kω |2
2
(8.17)
La parte immaginaria della suscettibilità complessa è dunque proporzionale all’energia dissipata.
8.1.2
Principio del bilancio dettagliato
Nell’ipotesi di una campo monocromatico, eq. (8.15), possiamo riscrivere l’energia di interazione del
sistema nella forma
∗
H0 (t) = −B −~k F~kω exp(iωt) − B~k F~kω
exp(−iωt)
(8.18)
dove l’operatore B~k è
N
1X
B~k =
[B i , exp(i~k · ~ri )]+
2 i=1
Definiamo ora due stati del sistema di particelle, uno stato iniziale |ii ed uno stato finale |f i.
(8.19)
224
CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE
Esercizio 2. Gli stati |ii sono autostati dell’hamiltoniano del sistema isolato H0 . La perturbazione
debole H0 (t) in ordine zero lascia invariati gli autostati del sistema
Chiamiamo Ei(f ) l’energia del sistema di particelle nello stato iniziale (finale), qi(f ) la probabilità che il
sistema sia nello stato iniziale (finale), secondo la distribuzione di Boltzmann
qi(f ) =
exp(−Ei(f ) /kB T )
Q
(8.20)
dove Q è la funzione di partizione del sistema di particelle nell’insieme statistico canonico. Dalla teoria
delle perturbazioni dipendenti dal tempo la probabilità che il campo esterno induca una transizione da
i a f e la probabilità che avvenga il processo opposto, da f ad i, sono (nell’unità di tempo):
Wi→f (~k, ω) =
Wf →i (−~k, −ω) =
2π
|F~ |2 |hi|B~k |f i|2 δ(ω − ωf i )
4h̄2 kω
2π
|F~ |2 |hf |B −~k |ii|2 δ(ω − ωf i )
4h̄2 kω
(8.21)
(8.22)
dove ω = (Ef − Ei )/h̄. La probabilità per unità di tempo che il sistema acquisisca un momento h̄~k
e un’energia h̄ω, indipendentemente dagli stati iniziale e finale, e la probabilità opposta che il sistema
acquisisca un momento −h̄~k e un’energia −h̄ω, indipendentemente dagli stati iniziale e finale, sono:
X
P (~k, ω) =
if
X
P (−~k, −ω) =
if
X
2π
qi |hi|B~k |f i|2 δ(ω − ωf i )
qi Wi→f (~k, ω) = 2 |F~kω |2
4h̄
if
(8.23)
X
2π
qf Wf →i (~k, ω) = 2 |F~kω |2
qf |hf |B −~k |ii|2 δ(ω − ωf i )
4h̄
if
(8.24)
Dalle proprietà della funzione delta di Dirac, e dal fatto che B−~k è l’operatore aggiunto di B~k , si ottiene
l’equazione del bilancio dettagliato, che collega le probabilità di transizione a e da uno stato del
sistema:
P (−~k, −ω) = exp(−h̄ω/kB T )P (~k, ω)
(8.25)
Segue che |P (−~k, −ω)| < |P (~k, ω)| cioè che il sistema assorbe più energia per unità di tempo di quanta
non ne emetta, con una conseguente dissipazione di energia prelevata dal campo esterno.
8.1.3
Funzioni di correlazione temporale
La suscettibilità complessa χ00BB può essere messa in relazione diretta con medie dell’osservabile B a
tempi diversi, dette funzioni di (auto)correlazione temporali.
Definiamo la densità spettrale o fattore dinamico di forma come la funzione
SB (~k, ω) = 2π
X
qi |hi|B~k |f i|2 δ(ω − ωf i )
(8.26)
if
che è direttamente proporzionale a P (~k, ω). Se si esprime la funzione delta di Dirac in forma integrale
δ(ω − ωf i ) =
1
2π
Z +∞
−∞
dt exp[i(ω − ωf i )t]
(8.27)
8.1. TEORIA DEI RESPONSI LINEARI
225
la densità spettrale può essere riscritta come trasformata di Fourier di una funzione del vettore d’onda
e del tempo:
SB (~k, ω) =
cBB (~k, t) =
Z +∞
dt exp(iωt)cBB (t)
(8.28)
qi |hi|B~k |f i|2 exp(iωf i t)
(8.29)
−∞
X
if
Poichè |ii e |f i sono autostati dell’hamiltoniano del sistema isolato, possiamo scrivere
cBB (~k, t) =
X
qi hi| exp(iH0 t/h̄)B~k exp(−iH0 t/h̄)|f ihf | − B −~k |ii =
if
X
qi hi|B~k (t)|f ihf | − B −~k (0)|ii(8.30)
if
dove B~k (t) e B−~k (0) sono gli operatori B ±~k rispettivamente al tempo t e al tempo 0, nella rappresentazione di Heisenberg
Esercizio 3. Ricavate l’eq. (8.30). Si può procedere usando i) la proprietà di B~k e B −~k di essere
operatori coniugati, ii) la definizione di ωf i e iii) la definizione di un operatore generico A(t) al tempo
t nella rappresentazione di Heisenberg, data la sua forma A(t0 ) al tempo t0
A(t) = exp[iH0 (t − t0 )/h̄)]A(t0 ) exp[−iH0 (t − t0 )/h̄)]
(8.31)
L’equazione (8.30) permette il calcolo della funzione cBB (~k, t) come una traccia rispetto alla matrice
densità di equilibrio del sistema, q̂, i cui elementi di matrice sono hm|q̂|ni = qm δm,n :
cBB (~k, t) = Tr[q̂B~k (t)B−~k (0)] ≡ B~k (t)B(−~k)(0)
(8.32)
Possiamo valutare direttamente l’energia dissipata per unità di tempo e di volume dalle probabilità
P (~k, ω) (assorbimento) e P (−~k, −ω) (emissione), come:
Q(~k, ω) = h̄ω[P (~k, ω) − P (−~k, −ω)]
(8.33)
che può anche essere riscritta come la differenza dei fattori dinamici di forma SB (~k, ω) e SB (−~k, −ω).
La somma e la differenza dei fattori dinamici possono ora essere scritti in termini di medie temporali
degli operatori B±~k e tenendo conto della relazione esistente tra Q(~k, ω) e la parte immaginaria della
suscettibilità complessa, eq. (8.17), otteniamo infine le seguenti importanti relazione:
µ
¶ Z +∞
1
h̄ω
00
~
χBB (k, ω) =
tanh
exp(iωt)CBB (~k, t)
(8.34)
h̄
2kB T
−∞
1
(8.35)
CBB (~k, t) =
[B~ (t), B−~k (0)]+
2 k
dove CBB (~k, t) è la funzione di autocorrelazione del processo B al tempo t e numero d’onda ~k. La trasformata di Fourier della funzione di autocorrelazione è direttamente proporzionale alla parte immaginaria
della suscettibilità e dunque all’energia dissipata
Z
1 +∞
~
dt exp(iωt)CBB (~k, t)
(8.36)
JBB (k, ω) =
2π −∞
µ
¶
ωπ
h̄ω
Q(~k, ω) =
tanh
|F~kω |2 JBB (~k, ω)
(8.37)
h̄
2kB T
L’equazione (8.37) è un esempio di relazione tra dissipazione e fluttuazione poichè collega la risposta di un
sistema, o meglio l’energia dissipata dal sistema in seguito ad una risposta lineare ad una perturbazione
debole esterna, ai moti molecolari.
226
CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE
8.1.4
Limite classico
Fino ad ora si è considerato un sistema quantistico. Tuttavia, tutte le considerazioni sinora esposte possono essere traslate nell’mabito della meccanica classica. Consideriamo un sistema meccanico caratterizzato da M coordinate generalizzate q = (q1 , . . . , qM ) e dagli M momenti coniugati p = (p1 , . . . , pM ).
Possiamo per esempio considerare il sistema come una collezione di N punti materiali descritti da
3N = M coordinate cartesiane ~ri , per quanto la descrizione possa essere facilmente generalizzata ad un
sistema meccanico generico, formato sia da punti materiali che corpi rigidi (con le corrispondenti coordinate rotazionali e momenti angolari coniugati). Le coordinate cartesiane e i momenti lineari possono
anche essere sostituite da altrettante coordinate generalizzate e dai loro momenti coniugati. Lo stato
del sistema ad un certo istante t è descritto da un punto Γt dello spazio M -dimensionale, detto spazio
delle fasi del sistema. Le equazioni canoniche del moto del sistema sono
~r˙ i =
∂H
(8.38)
∂~
pi
∂H
p~˙ i = −
∂~ri
(8.39)
per i = 1, . . . , M . Indichiamo con H = H({~ri }, {~
pi }. Lo stato al tempo t + τ del sistema Γt+τ è univocamente determinato dallo stato al tempo t - le equazioni della meccanica classica sono deterministiche.
Per ogni stato Γt possiamo perciò individuare una traiettoria del sisteam come l’insieme dei punti dello
spazio delle fasi ottenuti risolvendo le equazioni del moto con la condizione che al tempo t il sistema sia
nel punto Γt . Consideriamo ora una proprietà del sistema
B~k (Γ) =
M
X
Bm (~rm , p~m ) exp(i~k · ~rm )
(8.40)
m=1
La misura della correlazione tra il valore della proprietà B~k al tempo 0 ed al tempo t sarà in generale
ottenibile come una media avente la forma
1
T →∞ T
hB−~k (0)B~k (t)i = lim
Z T
0
dt0 B−~k (Γt0 )B~k (Γt+t0 )
(8.41)
Se ora utilizziamo le metodologie della meccanica statistica classica, assumendo che valgano le condizioni
per descrivere il sistema, a partire dal tempo t = 0, nell’ambito di un insieme statistico canonico,
possiamo sostituire, in forza dell’ipotesi ergodica, alla media temporale dell’equazione precedente una
media rispetto alla distribuzione canonica ρ(Γ0 ) del prodotto B−~k (Γ0 )B~k (Γt ). Discende perciò che la
funzione di auto-correlazione può essere scritta come
cl ~
hB−~k (0)B~k (t)i ≡ CBB
(k, t) =
Z
dΓ0 ρ(Γ0 )B−~k (Γ0 )B~k (Γt )
(8.42)
alla meccanica classica elementare è noto che la variazione temporale di una proprietà di un sistema
meccanica è data dall’equazione (classica) di Liouville che esprime la derivata totale temporale di
una generica proprietà f = f ({~ri }, {~
pi }) 1
df
= iLcl f
dt
1
Nell’ipotesi che f non dipenda esplicitamente da t ma solo dalle coordinate e dai momenti del sistema
(8.43)
8.1. TEORIA DEI RESPONSI LINEARI
227
L’operatore classico di Liouville iLcl è definito in termini delle parentesi di Poisson
iLcl f = {f, H} ≡
N
X


i=1

∂f
∂~ri
·
∂H
∂~
pi
−
∂f
∂~
pi
·
∂H

∂~qi
(8.44)
La soluzione formale dell’equazione di Liuoville è scritta immediatamente come
f (t) = exp(iLcl t)f (0)
(8.45)
L’operatore exp(iLcl t) è detto propagatore temporale; è possibile ora esprimere B~k (Γt ) utilizzando il
propagatore temporale e riscrivere la funzione di autocorrelazione come
cl ~
CBB
(k, t) =
Z
dΓ0 ρ(Γ0 )B−~k (Γ0 ) exp(iLcl t)B~k (Γ0 )
(8.46)
Tecnica di misura
Osservabile
Funzione di correlazione
Diffusione traslazionale
Diffusione rotazionale
Assorbimento infrarosso
Scattering Raman
Forma di riga NMR
Velocità del centro di massa di una molecola sonda
Velocità angolare una molecola sonda
Vettore momento di dipolo di transizione
Vettore momento di dipolo di transizione
Componente x della magnetizzazione
h~v (0) · ~v (t)i
hω(0) · ω(t)i
hµ(0) · µ(t)i
hP2 [µ(0) · µ(t)]i
hMx (0)Mx (t))i
Tabella 8.1: Osservabili e funzioni di correlazione temporale
228
CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE
Capitolo 9
Variabili e processi stocastici
9.1
Introduzione
Lo studio dei fenomeni dinamici in fasi condensate presuppone l’esistenza di determinate equazioni
del moto dalle proprietà formali chiaramente definite, ed atte a descrivere osservabili fisici e la loro
variazione nel tempo. Per inciso, la descrizione di in un sistema fisico può essere, in modo grossolano,
caratterizzata come la definizione di un insieme di variabili caratteristiche del sistema (cinematica),
delle caratteristiche statiche o di equilibrio e di una teoria dinamica. Cosı̀ a fondamento della teoria
della meccanica classica elementare sono le equazioni di Lagrange e/o di Hamilton-Jacobi; la meccanica
quantistica non-relativistica è basata sulle descrizioni di Schrödinger o di Heisenberg, mentre nella sua
formulazione relativistica è definita nell’mabito del formalismo di Dirac.
Nel seguito, più o meno in modo esaustivo, ci occuperemo dello studio di sistemi chimico-fisici definiti
come gradi di libertà classici traslazionali e/o rotazionali di singole molecole, gradi di libertà conformazionali, variabili collettive formate dalla combinazione di varie coordinate molecolari (e.g. coordinate
di reazione in reazioni chimiche intermolecolari, gradi di libertà conformazionali in catene alchiliche o
molecole generalmente flessibili, coordinate di rottura di simmetria in fasi liquido-cristalline etc.), interagenti con l’ambiente circostante o mezzo mediante l’influenza di forze stocastiche o casuali (d’ora
innanzi, senza inutili sofismi, considereremo i due termini come sinonimi). Parleremo tout-court, un
poco impropriamente, di meccanica stocastica per descrivere l’insieme dei formalismi e dei metodi che
descrivono le variabili e le equazioni della dinamica di processi stocastici.
La prima parte del Corso è perciò dedicata all’introduzione dei rudimenti della teoria della probabilità
e alla definizione dei processi stocastici, cioè alla definizione degli strumenti di base. In particolare, il
Capitolo 9 contiene un breve riassunto dei concetti principali utili alla comprensione della natura delle
variabili casuali. Nel Capitolo ?? saranno descritte le caratteristiche principali delle variabili stocastiche.
I processi stocastici saranno descritti nel Capitolo ??.
9.2
Definizioni
Una variabile stocastica X è definita da un insieme di valori e da una distribuzione di probabilità (Van
Kampen)
229
230
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
Insieme di valori: è l’insieme dei possibili valori assunti (detti anche eventi mutualmente esclusivi)
dalla variabile o spazio delle fasi. Lo spazio delle fasi S può essere discreto o continuo, mono o
multidimensionale. Per esempio: testa o croce, i possibili valori assunti dalla variabile “lancio di
una moneta” (escludendo la possibilità che al moneta cada di taglio e resti in equilibrio . . .); le
tre componenti del vettore posizione del baricentro di una particella di polline soggetta a moto
browniano, in una goccia d’acqua giacente sul piattino di un microscopio; il numero di molecole
di glucosio in un volume di un micrometro cubo situato al centro di un centimetro cubico di
una soluzione zuccherina 1 m. Come esercizio, definite quantitativamente lo spazio delle fasi in
quest’ultimo caso.
Distribuzione di probabilità: è la probabilità associata ai valori assunti dalla variabile. La distribuzione o densità di probabilità di una variabile stocastica X, di cui indichiamo un valore
assunto con x (intendendo nel seguito una variabile stocastica generica; per semplicità si può considerare una variabile continua mono-dimensionale) è una funzione P (x) non-negativa, P (x) ≥ 0
e normalizzata ad uno nello spazio delle fasi
Z
S
P (x)dx = 1
(9.1)
La densità di probabilità non deve essere confusa con la funzione di distribuzione cumulativa,
che è appunto la probabilità cumulativa di un insieme di valori assunti da x (o eventi). Per una
variabile continua mono-dimensionale possiamo definire la probabilità cumulativa come
Prob(x) =
Z x
−∞
P (x0 )dx0
(9.2)
ovvero la probabilità che X assuma un qualunque valore inferiore a x.
Consideriamo una variabile il cui spazio S sia in parte continuo ed in parte discreto. Potremo in genere
distinguere una parte continua ed una discreta di P :
P (x) =
X
pn δ(x − xn ) + P̃ (x)
(9.3)
n
δ(x) è la funzione delta di Dirac; la distribuzione è normalizzata secondo l’equivalente della (9.1)
X
Z
pn +
P̃ (x)dx = 1
(9.4)
n
9.2.1
Definizione assiomatica della teoria della probabilità
Un trattamento più completo ed astratto è basato sulla teoria assiomatica della probabilità, dovuta ad
A. Kolmogorov. Consideriamo lo spazio delle fasi S dei valori assunti da X come un insieme, che può
essere ripartito in vari sottoinsiemi, ciascuno costituito dall’unione di varie eventi elementari x1 , x2 etc.
L’intepretazione usuale della probabilità associa ad un evento X un’operazione di campionatura, vale a
dire una misura ripetuta della variabile per un numero molto grande N di volte. Per un certo numero
di volte, NX , l’evento X sarà verificato; allora la probabilità dell’evento X è
Prob(X) →
NX
N
(9.5)
9.3. DISTRIBUZIONI
231
per un numero teoricamente infinito di misure, in pratica per un numero grande a sufficienza per poter
trascurare fluttuazioni nella frequenza di realizzazione dell’evento.
Secondo l’approccio assiomatico, la funzione Prob(X) di un evento generico soddisfa le seguenti
condizioni
1. Per ogni evento X, Prob(X) ≥ 0
2. L’insieme di tutti i possibili eventi elementari è certo, cioè se E = x1
S
x2 +. . ., allora Prob(E) = 1
T
3. Se X1 ed X2 sono incompatibili, cioè non si possono realizzare contemporaneamente, X1 X2 = ∅,
S
allora Prob(X1 X2 ) = Prob(X1 ) + Prob(X2 ), vale a dire eventi indipendenti hanno probabilità
additive.
Sulla base di tali assiomi, tutte le varie definizioni statistiche e di probabilità sono deducibili:
Densità di probabilità P (Xi ) = Prob(Xi ), cioè è la probabilità di un singolo evento elementare
T
Probabilità condizionale P (X|Y ) = Prob(X Y )/Prob(X), ovvero la probabilità di Y condizionata
da X (purchè X sia realizzabile, Prob(X) 6= 0), è data dalla probabilità di realizzazione dell’evento
congiunto divisa per la probabilità dell’evento X. Se Prob(X|Y ) = Prob(Y ), cioè Y ha la stessa
probabilità di realizzarsi indipendentemente da X, si parla di eventi statisticamente indipendenti,
T
Prob(X Y ) = Prob(X)Prob(Y ).
Per esempio, consideriamo il processo “lancio di un dado”. Gli eventi esclusivi, che formano lo spazio
delle fasi sono x1 , x2 , x3 , x4 , x5 , x6 , corrispondenti all’uscita delle varie faccie. Poichè il gioco si svolge in
una bisca onesta, i singoli eventi sono equiprobabili, Prob(xi ) = 1/6. Un evento generico E è per esempio
S S
S S
E = x2 x4 x6 (uscita di una faccia con numero pari); un altro evento è F = x1 x3 x5 (uscita
S
di faccia dispari). E ed F sono eventi indipendenti, quindi Prob(E F ) = 3 × (1/6) + 3 × (1/6) = 1
(cosa che comunque sarebbe vera anche per un dado truccato, perchè esprime solo la probabilità che
esca una faccia pari oppure dispari). Un altro esempio: il gioco del poker. Consideriamo come variabile
stocastica la scelta di una carta; ogni figura del poker può essere definita come l’intersezione di varie
eventi elementari. Qual è per esempio la probabilità di un poker d’assi? Per un mazzo standard di 52
carte la probabilità di pescare il primo asso è 4/52. La probabilità di pescare due assi è data da 4/52
(probabilità di pescare il primo asso) per la probabilità condizionata di pescare un asso da un mazzo
che cui sia già stato estratto un asso, cioè 3/51; e cosı́ la la probabilità di pescare quattro assi di seguito
da un mazzo è 4!48!/52!, circa 3.7 × 10−6 . Piuttosto poco.
9.3
Distribuzioni
Data la probabilità P (x) possiamo definire numerose quantità di interesse come per esempio la media
di una funzione
Z
hf (x)i =
S
f (x)P (x)dx
(9.6)
con le sue varie grandezze accessorie, come la varianza o dispersione
σ 2 = h(x − hxi)2 i
(9.7)
232
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
I momenti sono definiti come le medie mn = hxn i. Una grandezza importante è la funzione caratteristica
G(k) = hexp(ikx)i
(9.8)
i momenti sono proporzionali alle derivate della funzione caratteristica
¯
¯
1 dn G ¯¯
mn = n
i dxn ¯¯
(9.9)
k=0
mentre i cumulanti sono proporzionali alle derivate del logaritmo della funzione caratteristica
¯
¯
1 dn ln G ¯¯
cn = n
¯
i
dxn ¯
(9.10)
k=0
esistono relazioni ricorsive tra momenti e cumulanti (e.g. c1 = m1 , c2 = m2 − m21 = σ 2 etc.). Noti i
momenti (o i cumulanti), è nota la distribuzione, e viceversa. Una distribuzione gaussiana è definita per
esempio come
"
(x − m1 )2
P (x) = √
exp −
2σ 2
2πσ 2
1
#
(9.11)
con momenti m1 e m2 = σ 2 + m21 ; qualunque distribuzione con i primi due momenti non nulli, e tutti
gli altri nulli, è gaussiana.
9.4
Diffusione e processi stocastici
Consideriamo1 una molecula di un soluto disciolto in un liquido contenuto in un tubicino molto sottile, che per semplicità descriviamo come un segmento privo di spessore avente lunghezza L. Vogliamo
studiare il processo di diffusione traslazionale responsabile del processo di dissoluzione del soluto nel solvente (in assenza di altri effetti macroscopici come i moti convettivi risultanti da agitazioni meccaniche,
accoppiamento con gradienti termici etc.).
La variabile stocastica di interesse è la posizione al tempo t della molecola, X(t). Lo spazio delle fasi
del sistema è −L/2 ≤ X(t) ≤ L/2, ovvero S = [−L/2, L/2], ponendo l’origine nel centro del segmento.
La probabilità cumulativa che la molecola sia in un intervallo [a, b] è Prob(a ≤ X(t) ≤ b). La densità di
probabilità è perciò
Prob(x ≤ X(t) ≤ x + ∆x)
p(x, t) = lim
(9.12)
∆x
∆x→0+
da cui consegue la relazione integrale inversa
Prob(a ≤ X(t) ≤ b) =
Z b
a
p(x, t)dx
(9.13)
La probabilità di trovare la molecola in qualche punto del tubicino deve essere unitaria (la molecola
esiste!):
Z L/2
−L/2
p(x, t)dx = 1
(9.14)
mentre il valore medio di una funzione f (x) della posizione della molecola è data da
hf (t)i =
1
Z L/2
−L/2
f (x)p(x, t)dx
Questa sezione è basata in parte su appunti di lezione del Prof. Giorgio Moro.
(9.15)
9.4. DIFFUSIONE E PROCESSI STOCASTICI
9.4.1
233
Probabilità e concentrazione
Qual è la relazione tra densità di probabilità per la posizione di una singola molecola e la concentrazione
c(x, t) (per esempio in numero di molecole per unità di volume di soluzione) di tutte le molecole del
soluto in un punto x? Il numero di molecole contenute nel segmento [a, b] generico è
N =A
Z b
a
c(x, t)dx
(9.16)
dove A è l’area di un sezione del tubo; il numero di molecole totali sia noto e dato da Ntot . Si noti
che volendo esprimere le concentrazioni in moli/volume dovremmo solo dividere c per LA , numero di
Avogadro. La probabilità cumulativa è il rapporto tra N ed Ntot
A
Prob(a ≤ X(t) ≤ b) =
Ntot
Z b
a
c(x, t)dx
(9.17)
da cui segue che la densità di probabilità è
p(x, t) =
A
c(x, t)
Ntot
(9.18)
quindi per tubi sottili, in assenza di effetti convettivi, possiamo affermare che la probabilità è proporzionale alla concentrazione. La legge che descrive la variazione nel tempo e nello spazio di c(x, t)
e dunque della densità di probabilità p(x, t) è ottenibile in base alla prima e seconda legge di Fick.
La prima legge di Fick afferma che la variazione di concentrazione nel tempo è uguale ed opposta alla
variazione nello spazio del flusso per unità di superficie J(x, t)
∂c(x, t)
∂t
=−
∂J(x, t)
(9.19)
∂x
La prima legge di Fick esprime la condizione di conservazione della quantità di soluto. Infatti consideriamo per esempio il numero di molecole comprese nel tratto a e b
N (a, b, t) = A
Z b
a
"Z
c(x, t)dx = A
L/2
a
c(x, t)dx −
Z L/2
b
#
c(x, t)dx
= N (a, L/2, t) − N (b, L/2, t)
(9.20)
dove con N (x, L/2, t) si indica il numero di molecole comprese tra x e l’estremità superiore;
N (x, L/2, t) = A
Z L/2
x
c(x, t)dx
(9.21)
definiamo come flusso J(x, t) per unità di superficie la variazione nel tempo del numero di molecole
N (x, L/2, t)
J(x, t) =
1 ∂N (x, L/2, t)
A
∂t
(9.22)
La derivata temporale della relazione (9.20) è perciò
∂
∂t
N (a, b, t) = A
Z b
∂c(x, t)
a
∂t
= A [J(a, t) − J(b, t)] = −A
Z b
∂J(x, t)
a
∂x
(9.23)
234
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
da cui discende la prima legge di Fick. La seconda legge di Fick è in realtà un principio fenomenologico (od empirico), che assume come ragionevole il fatto che il flusso sia proporzionale al gradiente
locale della concentrazione, con il segno negativo (il flusso avviene in direzione opposto al gradiente di
concentrazione)
J(x, t) = −D
∂c(x, t)
(9.24)
∂x
dove D ≥ 0 è il coefficiente di diffusione traslazionale. La seconda legge di Fick perde di validità nel caso
siano presenti forti gradienti di concentrazione, moti convettivi e turbolenti, gradienti termici elevati
etc. Dalla combinazione delle due leggi discende l’equazione di diffusione
∂c(x, t)
∂t
=D
∂ 2 c(x, t)
(9.25)
∂x2
con condizioni al contorno (ed iniziali) da determinarsi. Se per esempio imponiamo che non vi sia
perdita di soluto agli estremi, deve valere
J(±L/2, t) = 0
(9.26)
ovvero la derivate di c rispetto ad x deve essere nulla agli estremi, ad ogni t. L’equazione corrispondente
per la densità di probabilità p(x, t) è del tutto analoga, data la proporzionalità tra le due grandezze
∂p(x, t)
∂t
∂p(±L/2, t)
∂x
9.4.2
= D
∂ 2 p(x, t)
(9.27)
∂x2
= 0
(9.28)
Alcuni esempi numerici
In tre dimensioni possiamo generalizzare l’equazione di diffusione nella forma

∂p(~r, t)
∂t
= D∇2 p(~r, t) = D 
∂2
∂x1 2
+
∂2
∂x2 2
+
∂2
∂x3 2

 p(~
r, t)
(9.29)
con condizioni al contorno ed iniziali da definirsi. Più in generale il coefficiente di diffusione i) può avere
forma tensoriale ed ii) può dipendere dalla posizione
∂p(~r, t)
∂t
= ∇ · D(~r) · ∇p(~r, t)
(9.30)
dove Dij (~r) sono gli elementi del tensore, soggetti alla condizione di simmetria Dij = Dji ed avente
autovalori positivi.
9.4. DIFFUSIONE E PROCESSI STOCASTICI
9.4.3
235
Tubo illimitato
Consideriamo la soluzione dell’equazione di diffusione (9.27) per la probabilità p(x, t), per un tubo
illimitato, L → ∞. Supponiamo che al tempo t = 0 il sistema sia descritto da una distribuzione iniziale
p0 (x), vale a dire
p(x, 0) = p0 (x)
(9.31)
Una soluzione particolare si ottiene con il metodo di separazione delle variabili, o metodo di Fourier; la
soluzione particolare si cerca perciò nella forma
p(x, t) = T (t)X(x)
(9.32)
sostituendo otteniamo l’equazione separabile
T 0 (t)
X 00 (x)
=
= −λ2
DT (t)
X(x)
(9.33)
dove λ è un parametro arbitrario; segue che
T (t) = exp(−λ2 Dt)
(9.34)
X(x) = A cos λx + B sin λx
(9.35)
dove A e B sono costanti per ora indeterminate. La soluzione generale si può trovare sotto forma di
integrale rispetto al parametro arbitrario λ, considerando A e B come funzioni di λ
p(x, t) =
Z ∞
−∞
exp(−λ2 Dt)[A(λ) cos λx + B(λ) sin λx]dλ
(9.36)
Possiamo ora determinare le funzioni A(λ) e B(λ) nota la funzione iniziale p0 (x); sostituendo la soluzione
generica nell’equazione differenziale, e verificando la condizione iniziale troviamo infatti
Z
A(λ) =
B(λ) =
1 ∞
p0 (ξ) cos λξdξ
2π −∞
Z ∞
1
p0 (ξ) sin λξdξ
2π −∞
(9.37)
(9.38)
sostituendo nell’espressione per p(x, t) giungiamo ad una notevole semplificazione
Z ∞
"
#
1
(ξ − x)2
p0 (ξ) √
exp −
p(x, t) =
dξ =
4Dt
2 πDt
−∞
Z ∞
−∞
p0 (ξ)G(ξ − x, t)dξ
(9.39)
si noti che la soluzione è interpretabile come la convoluzione di una funzione gaussiana, G(x, t), con
la distribuzione iniziale p0 (x). La funzione G(x, t) è la distribuzione al tempo t e nel punto x di una
sorgente iniziale centrata in un punto ξ al tempo t = 0. Se la soluzione iniziale è una delta di Dirac,
ovvero inizialmente il sistema esiste solo in un punto, per esempio nell’origine, p0 (x) = δ(x).
p(x, t) = G(x, t)
(9.40)
236
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
9.4.4
Tubo finito
Consideriamo ora un tubo finito, con le condizioni di riflessione al contorno, Eq. (9.28). Ancora una
volta la soluzione particolare si ottiene nella forma precedente, salvo che ora imponiamo le condizioni
al contorno
¯
¯
¯
¯
¯
∂p(x, t) ¯
∂x
=0
(9.41)
x=±L/2
o flusso nullo agli estremi. Applichiamo queste condizioni alla soluzione generica X(x); si ottiene
λL
λL
+ B cos
2
2
λL
λL
A sin
+ B cos
2
2
−A sin
= 0
(9.42)
= 0
(9.43)
un sistema omogeneo lineare in A e B, con soluzione non triviale solo se il determinante dei coefficienti
è nullo. Si trova subito che
sin λL = 0
(9.44)
ovvero λ = nπ/L, con n intero ≥ 0; per n = 2m pari la soluzione non triviale del sistema lineare è A 6= 0,
B = 0; per n = 2m + 1 dispari, la soluzione è A = 0, B 6= 0 La soluzione dell’equazione differenziale è
perciò data sotto forma di serie di Fourier
p(x, t) =
X
"
m≥0
+
Ã
!
4m2 π 2 D
2mπx
Am exp −
t cos
2
L
L
Ã
!
(2m + 1)2 π 2 D
(2m + 1)πx
Bm exp −
t sin
2
L
L
#
(9.45)
dove i coefficienti An e Bn sono ottenuti dalla condizione iniziale p(x, 0) = p0 (x)
Am =
2
L
Bm =
2
L
9.4.5
Z L/2
−L/2
Z L/2
−L/2
p0 (x) cos
2mπx
L
(9.46)
p0 (x) sin
(2m + 1)πx
L
(9.47)
Equazione di diffusione ed equazione di Schrödinger
L’equazione di diffusione per la probabilità di una particella rappresentata dal vettore posizione ~r , e
l’equazione di Schrödinger della meccanica quantistica per la funzione d’onda di un punto materiale
sono isomorfe, cioè hanno una struttura matematica analoga. La forma più generale di equazione di
diffusione per una particella ~r è:
∂p(~r, t)
∂t
= ∇ · D(~r) · peq (~r)∇p−1
r)p(~r, t) = −Γ̂p(~r, t)
eq (~
(9.48)
dove D(~r) è il tensore di diffusione con dipendenza spaziale, mentre peq (~r) è la soluzione all’equilibrio,
ottenibile come il limite a t → ∞ della probabilità p(~r, t)
peq (~r) = lim p(~r, t)
t→∞
(9.49)
9.4. DIFFUSIONE E PROCESSI STOCASTICI
237
L’operatore Γ̂ dell’equazione (9.48) è detto operatore di diffusione. Possiamo definire in generale un
potenziale di equilibrio ovvero riscrivere la distribuzione di equilibrio nella forma di una distribuzione
di Boltzmann
1
(9.50)
peq (~r) = exp[−U (~r)/kB T ]
Z
e Z è una costante di normalizzazione. Una particella diffusiva è perciò caratterizzata da un tensore di
diffusione D(~r) e da un potenziale U (~r). Consideriamo lo spazio funzionale F delle funzioni (reali) in ~r
che soddisfino le condizioni al contorno richieste, con un prodotto hermitiano (scalare) definito come
Z
hf |gi =
S
d~rf (~r)g(~r)
(9.51)
dove S è il volume di integrazione. L’operatore di diffusione Γ̂ non è hermitiano nello spazio F; se però
consideriamo l’operatore simmetrizzato Γ̃
Γ̃ = p−1/2
r)Γ̂p1/2
r)
eq (~
eq (~
(9.52)
possiamo verificare che Γ̃ è hermitiano. L’equazione di diffusione simmetrizzata altro non è che la legge
−1/2
del moto per la funzione p̃(~r, t) = peq (~r)p(~r, t), che verifica l’equazione di diffusione simmetrizzata
∂ p̃(~r, t)
∂t
−1/2
= p−1/2
r)∇ · D(~r) · peq (~r)∇peq
(~r)p̃(~r, t) = −Γ̃p̃(~r, t)
eq (~
(9.53)
Una forma alternativa della (9.53) è ottenibile esplicitando le derivate e scrivendo
∂ p̃(~r, t)
∂t
= ∇ · D(~r)∇p̃(~r, t) + F (~r)p̃(~r, t)
(9.54)
dove F (~r) è una funzione complicata avente la forma

F (~r) =
X
ij

2
∂ U
∂U ∂U
1  ∂Dij ∂U
1
−
+ Dij
2 T 2 Dij
2kB T
4k
∂ri ∂rj
∂ri ∂rj
∂ri ∂rj
B
(9.55)
Se D = D1 (cioè è uno scalare) si ha semplicemente
F (~r) =
D
2kB T
X ∂2U
i
∂ri
2

−
∂U
2
1 

2kB T ∂ri
(9.56)
Consideriamo ora il caso di una particella o punto materiale quantistico di massa m, in un campo di
potenziale V (~r). L’equazione di Schrödinger per la funzione d’onda ψ(~r, t) della particella è
ih̄
∂ψ(~r, t)
∂t
= Ĥψ(~r, t) = −
h̄2 2
∇ ψ(~r, t) + V (~r)ψ(~r, t)
2m
(9.57)
possiamo dunque evidenziare l’isomorfismo dell’equazione di Schrödinger e dell’equazione di diffusione
identificando
ih̄
Dij →
δij
(9.58)
2m

2
ih̄ X ∂ 2 U
1  ∂U 
F (~r) =
−
2
4kB T m i ∂ri
2kB T ∂ri
i
→ − V (~r)
h̄
l’equazione (9.59) può essere risolta per trovare il potenziale U .
(9.59)
238
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
9.5
Equazioni stocastiche
L’applicazione più nota ed immediata delle metodologie stocastiche è data dall’interpretazione del moto
browniano. Il fenomeno, osservato per primo dal biologo Robert Brown nel 1828 durante lo studio del
comportamento di polline in soluzione acquosa, consiste nel moto caotico di particelle macroscopiche
in sospensioni colloidali. La prima interpretazione quantitativa del fenomeno è dovuta ad Einstein che
nel 1905 pubblicò un articolo dal titolo “Il moto delle particelle in sospensione nei fluidi in quiete, come
previsto dalla teoria cinetico-molecolare del calore”. L’articolo recita all’inizio:
“In questo lavoro faremo vedere come, secondo la teoria cinetico-molecolare del calore,
particelle in sospensione in una soluzione compiano, in consequenza del moto termico delle
molecole, movimenti di ampiezza tale che li si può agevolmente osservare al microscopio,
purchè, beninteso, la dimensione delle particelle stesse sia accessibile allo strumento. Può
darsi che i moti che qui saranno considerati coincidano con il cosiddetto moto molecolare
browniano; tuttavia i dati che ho potuto ottenere su quest’ultimo sono cosı̀ imprecisi che non
mi stato possibile formulare alcun giudizio in merito.
Se il moto in questione si potrà effettivamente osservare, con tutte le regolarità che per
esso si possono attendere, la termodinamica classica non sarà più da considerare esattamente
valida già per spazi microscopicamente distinguibili, e quindi una determinazione esatta della
vera grandezza degli atomi sarà possibile. Se viceversa la nostra previsione si dimostrasse inesatta, ciò fornirebbe un serio argomento contro la concezione cinetico-molecolare del calore”.
Il moto browniano viene quindi interpretato come una conseguenza del moto disordinato delle particelle a seguito degli urti che ricevono dalle molecole sottoposte ad agitazione termica.
9.6
Equazione di Langevin e moto browniano
La descrizione del moto browniano di una particella macroscopica è basata sull’equazione di Langevin,
che scriviamo per una particella monodimensionale sospesa in un fluido in assenza di gravità
m
dv
dt
= −ξv + f (t)
(9.60)
dove v = dz/dt e z è la coordinata posizionale della particella di massa m; il termine ξv è la forza di attrito, ovverosia l’effetto di “rallentamento” sistematico dovuto al mezzo, l’attrito essendo proporzionale
alla viscosità η del mezzo. Per una particella sferica di raggio R calcoli puramente idrodinamici forniscono la legge di Stokes
ξ = CπRη
(9.61)
la costante C vale 4 per un fluido che scivoli sulla superficie della particella, e 6 per un fluido che
aderisca alla superficie. Il termine f (t) è una forza casuale dovuta agli urti delle molecole del soluto,
la cui conoscenza precisa è impossibile. La descrizione dettagliata della variabile stocastica f (t) viene
9.6. EQUAZIONE DI LANGEVIN E MOTO BROWNIANO
239
perciò sostituita nella teoria del moto browniano da alcune semplici proprietà relative alle medie della
variabile f (t):
hf (t)i = 0
(9.62)
hv(t)f (t0 )i = hv(tihf (t0 )i = 0
(9.63)
L’equazione (9.62) definisce la variabile stocastica come avente media nulla (l’effetto medio sul moto
della particella degli urti molecolari deve essere zero); l’equazione (9.63) afferma che la forza fluttuante
e la velocità della particella sono staticamente indipendenti. Si noti che la media h. . .i è intesa come una
media su un numero molto grande di particelle identiche immerse in un fluido. In pratica ciò equivale
ad una media su un numero elevato di particelle in un unico campione di fluido (se la sospensione
è abbastanza diluita) od anche ad una media su un numero di di osservazioni ripetute della stessa
particella, purchè siano abbastanza distanziate da essere considerate indipendenti. L’equazione (9.63)
contiene il primo esempio in questo testo di funzione di correlazione temporale.
La soluzione dell’equazione di Langevin è data da
v(t) = v(0) exp(−t/τv ) +
Z t
0
dτ exp[(τ − t)/τv ]f (τ )/m
(9.64)
dove τv = ξ/m. Consideriamo l’andamento nel tempo dei valori medi hv(t)i ed G(t) = hv(0)v(t)i, ovvero
la funzione di autocorrelazione della velocità. Si noti che il sistema deve essere invariante rispetto a
variazioni dell’origine dell’asse temporale, ovvero hv(t)v(t0 )i = hv(0)v(t0 − t)i, ed anche hf (t)f (t0 )i =
hf (0)f (t0 − t)i. Troviamo facilmente, usando la prima proprietà delle forze
hv(t)i = hv(0)i exp(−t/τv )
(9.65)
La funzione di autocorrelazione è invece data da
dG(t)
dt
= hv(0)
dv(t)
dt
i = hv(0)[f (t) − ξv(t)]i/m = −G(t)/τv
(9.66)
Qual è il valor medio all’equilibrio di v(t) e G(t)? La risposta è data da una media di Maxwell sulle
velocità iniziali della particella, da cui segue che
G(t) = kB T exp(−t/τv )/m
(9.67)
Ritorniamo all’equazione (9.64), e moltiplichiamo per f (0) effettuando la media sia sull’insieme di
repliche che sulla distribuzione di equilibrio delle velocità iniziali; otteniamo
hf (0)v(t)i = hf (0)v(0)i exp(−t/τv ) +
Z t
0
dτ exp[(τ − t)/τv ]hf (0)f (τ )i/m
(9.68)
poichè le variabili stocastiche f (t) e v(t) sono scorrelate, segue che anche la funzione di autocorrelazione
della forza deve essere nulla a tempi diversi, o in altri termini
hf (0)f (t)i = hf (0)2 iδ(t)
(9.69)
La costante hf (0)2 )i si può trovare calcolando hv(t)2 i:
hv(t)2 i
=
hv(0)2 i exp(−2t/τv )
+
Z t
0
dτ
Z t
0
dτ 0 exp[(τ + τ 0 − 2t)/τv ]hf (τ )f (τ 0 )i/m2
= hv(0)2 i exp(−2t/τv ) + hf (0)2 i[1 − exp(−2t/τv )]/(2m2 ξ)
(9.70)
(9.71)
240
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
ma a tempi t ¿ τv devono essere scomparse le conseguenze della velocità iniziale (sistema all’equilibrio)
e quindi deve essere
hv(∞)2 i = hf (0)2 i/(2m2 ξ) = kB T /m
(9.72)
da cui discende una relazione tra i coefficiente ξ (dissipazione) e hf (0)2 i (fluttuazione)
hf (0)2 i = 2ξkB T
(9.73)
cioè il teorema di fluttuazione-dissipazione, originariamente formulato da Einstein.
9.6.1
Equazione di Langevin generalizzata
Possiamo generalizzare l’equazione di Langevin relativa ad un insieme di coordinata stocastica q(t) =
(q1 (t), q2 (t), . . . , qN (t)
dqi (t)
dt
= ai (q) +
X
bij (q)ςj (t)
(9.74)
j
dove i termini ai (t) e bij sono funzioni delle coordinate qi e determinano il contributo rispettivamente
al moto di tipo deterministico e stocastico. Le funzioni ςi (t) sono fonti di rumore bianco
hςi (t)i = 0
(9.75)
hςi (t)ςj (t0 )i = δij δ(t − t0 )
9.7
(9.76)
Probabilità e processi stocastici
In questo capitolo riprenderemo molti dei concetti esposti nei capitoli precedenti, cercando però di discuterli all’interno di una teoria coerente dei processi stocastici. Consideriamo un insieme di variabili
stocastiche dipendenti dal tempo q(t) = [q1 (t), q2 (t), . . . , qn (t)]: n, il numero totale di variabili considerate, sarà considerato nel seguito un numero finito, benchè questa non sia una seria limitazione alla
generalità della nostra trattazione. Di solito ci riferiremo alla coordinata vettoriale stocastica funzione
continua del tempo q(t) (che definiamo d’ora innanzi un processo stocastico), senza specificare le componenti, a meno che non sia necessario. Per semplicità, assumiamo che ogni qi possa variare da −∞ a
+∞.
Poichè q(t) è una coordinata vettoriale funzione continua di t, costituisce a tutti gli effetti un insieme
infinito di variabili stocastiche, una per ogni istante temporale t. La probabilità totale che al tempo t
sia qi (t) ≤ qi0 , o più brevemente q(t) ≤ q0 è data in funzione della densità di probabilità ad un singolo
tempo W1 (q, t)
Prob(q(t) ≤ q0 ) = Πni=1
Z q0
i
−∞
Z
dqi W1 (q, t) ≡
q≤q0
dqW1 (q, t)
(9.77)
o in forma differenziale
W1 (q, t)dq = Prob(q ≤ q(t) ≤ q + dq)
(9.78)
9.7. PROBABILITÀ E PROCESSI STOCASTICI
241
Possiamo definire la probabilità congiunta per m tempi Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm )
Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm )dq1 dq2 . . . dqm =
= Prob(q1 ≤ q(t1 ) ≤ q1 + dq1 , q2 ≤ q(t2 ) ≤ q2 + dq2 , . . . , qm ≤ q(tm ) ≤ qm + dqm )
(9.79)
(9.80)
Evidentemente dalla probabilità congiunta ad m tempi si ricava la probabilità congiunta ad m − 1 tempi
Z
Wm (q1 , t1 ; q2 , t2 ; . . . ; qm − 1, tm − 1) =
dqm Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm )
(9.81)
La probabilità congiunta ad un tempo è naturalmente normalizzata ad uno
Z
dqW1 (q, t) = 1
(9.82)
da cui discende, grazie alla (9.81), che tutte le probabilità congiunte sono normalizzate ad uno. La
conoscenza di tutte le probabilità congiunte equivale ad una completa conoscenza statistica del processo.
Il valore medio di una qualunque funzione osservabile f (q) è calcolabile come
Z
hf (t)i =
dqf (q)W1 (q, t)
(9.83)
analogamente, medie multitemporali ad m tempi di funzioni, dette funzioni di correlazione, sono ottenibili dalla probabilità congiunta corrispondente, per esempio date due funzioni f (q) e g(q)
Z
hf (t1 )g(t2 )i
dq1 dq2 f (q1 )g(q2 )W2 (q1 , t1 ; bq2 , t2 )
(9.84)
Alcune definizioni speciali che derivano dalle precedenti, piuttosto usate nella letteratura corrente, sono
1. valori medi, hqi (t)i =
R
dqqi W1 (q, t)
2. fluttuazioni, δqi (t) = qi (t) − hqi (t)i
3. matrice di covarianza a due tempi, σ(t, t0 ) = hδq(t)δq(t0 )tr i
4. funzione di correlazione a due tempi, C(t, t0 ) = hq(t)q(t0 )tr i
e vale evidentemente che σ(t, t0 ) = C(t, t0 ) − hq(t)ihq(t0 )itr .
9.7.1
Probabilità condizionali
La caratterizzazione del processo stocastico è basata su altri tipi di probabilità. Un processo stocastico
si può considerare come un insieme di repliche (insieme statistico) di un sistema fisico; per ogni replica
l’osservatore considera (misura) le variabili q. La probabilità congiunta ad un tempo è la probabilità
di misurare un valore di q al tempo t tra q e q + dq, cioè è la frazione di repliche (numero di repliche
divise per il numero totale) aventi quel valore; analoghe definizioni valgono per le probabilità congiunte
superiori. Cosı̀ la probabilità congiunta a due tempi W2 (q1 , t1 ; q2 , t) è il prodotto delle frazioni di
repliche che hanno il valore2 q1 a t1 e q2 a t2 . Consideriamo ora il sottoinsieme di repliche che hanno
valore q1 a t1 e misuriamone la frazione (numero di repliche diviso per il numero di repliche totale
2
Scriviamo che x(t) assume il valore x intendendo che x(t) è compreso tra x e x + dx
242
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
del sottoinsieme) che assume il valore q2 a t2 ; questa probabilità, P2 (q1 , t1 |q2 , t2 ), si dice densità di
probabilità condizionale a due tempi e vale evidentemente che
W2 (q1 , t1 ; q2 , t2 ) = W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 )
(9.85)
si noti che l’evoluzione temporale e spaziale della probabilità congiunta ad un tempo è determinata
dalla probabilità condizionale a due tempi
Z
W1 (q2 , t2 ) =
dq1 W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 )
(9.86)
La generalizzazione delle precedenti definizioni è facile; la probabilità condizionale ad m tempi è la
probabilità P (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm )dqm pari alla frazione del numero totale di repliche che
hanno assunto valori q1 a t1 , . . ., qm−1 a tm−1 , che assumono il valore qm a tm ; vale che
Wm (q1 , t1 ; . . . ; qm , tm ) = Wm−1 (q1 , t1 ; . . . ; qm−1 , tm−1 )Pm (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm )
(9.87)
È interessante notare che
W2 (q1 , t; q2 , t) = W1 (q2 , t)δ(q1 − q2 ) → P2 (q1 , t|q2 , t) = δ(q1 − q2 )
9.7.2
(9.88)
Processi stazionari, markoviani, gaussiani
I processi stocastici stazionari sono processi invarianti rispetto ad una traslazione dell’origine dell’asse
temporale; la variabile q(t + τ ) è cioè indistinguibile dalla variabile q(t); ciò implica che tutte le medie
a singolo tempo siano costanti, ovvero che la probabilità congiunta ad un tempo sia costante:
W1 (q, t)
processo
stazionario
→
Weq (q)
(9.89)
Inoltre le probabilità congiunte e condizionali a più tempi dipendono solo da differenze di tempi
W2 (q1 , t1 ; q2 , t2 )
P2 (q1 , t1 |q2 , t2 )
processo
processo
stazionario
→
stazionario
→
W2 (q1 , 0; q2 , t2 − t1 )
(9.90)
P2 (q1 , 0; q2 , t2 − t1 ) ≡ P2 (q1 ; q2 , t)
(9.91)
I processi stocastici markoviani sono processi le cui proprietà sono completamente definite dalla probabilità condizionale a due tempi e dalla probabilità congiunta ad un tempo; quindi per ogni m
Pm (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm )
processo
markoviano
→
P2 (qm−1 , tm−1 |qm , tm )
(9.92)
da cui discende che
Wm (q1 , t1 ; . . . ; qm−1 , tm−1 ; qm , tm )
processo
markoviano
→
W1 (q1 , t1 )Πm
i=2 P2 (qi−1 , ti−1 |qi , ti )
(9.93)
I processi stocastici gaussiani sono infine processi le cui densità di probabilità, congiunte o condizionali,
hanno forma gaussiana
G(q) = [(2π) det σ(t)]−1/2 exp[−(q − q(t))tr σ(t)−1 (q − q(t))/2]
dove naturalmente
(9.94)
Z
dqG(q) = 1
(9.95)
Z
dqqG(q) = q(t)
(9.96)
dq(q − q(t))tr G(q)(q − q(t)) = σ(t)
(9.97)
Z
I processi che siano contemporaneamente stazionari, gaussiani e markoviani si dicono processi di OrnsteinUhlenbeck.
9.7. PROBABILITÀ E PROCESSI STOCASTICI
9.7.3
243
Equazione di Chapman-Kolmogorov
Consideriamo un processo generico. Valgono le seguenti identità
Z
W2 (q1 , t1 ; q3 , t3 ) =
dq2 W3 (q1 , t1 ; q2 , t2 ; q3 , t3 )
(9.98)
W2 (q1 , t1 ; q3 , t3 ) = W1 (q1 , t1 )P2 (q1 , t1 |q3 , t3 )
(9.99)
supponiamo ora che il processo sia markoviano; vale l’identità aggiuntiva
W3 (q1 , t1 ; q2 , t2 ; q3 , t3 ) = W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 )P2 (q2 , t2 |q3 , t3 )
(9.100)
sostituendo (9.99) e (9.100) in (9.98) si ottiene
Z
P2 (q1 , t1 |q3 , t3 ) =
dq2 P2 (q1 , t1 |q2 , t2 )P2 (q2 , t2 |q3 , t3 )
(9.101)
detta equazione di Chapman-Kolmogorov che fornisce una legge del moto (sotto forma di equazione integrale) per la probabilità condizionale di un processo markoviano. L’equazione di Chapman-Kolmogorov
è ottenibile per altri tipi di probabilità. In una forma generale possiamo scrivere
Z
P (q, t + ∆t) =
q0 P (q0 , t)P2 (q0 , t|q, t + ∆t)
(9.102)
dove con P (q, t) indichiamo W1 (q, t), W2 (q0 , t0 ; q, t), oppure P2 (q0 , t0 |q, t).
9.7.4
Equazione di Fokker-Planck
Le equazioni in forma integrale hanno una antica e nobile tradizione (per esempio sono state studiate
dal matematico italiano Vito Volterra, che le applicò a problemi biologici). Tuttavia, il loro trattamento
formale e la loro soluzione numerica è di grande difficoltà; è perciò utile ricavare una forma approssimata
di evoluzione temporale della probabilità, di tipo differenziale.
Consideriamo l’integrale
1
τ →0 τ
lim
Z
Z
dqf (q)[P2 (q1 , t1 |q, t + τ ) − P2 (q1 , t1 |q, t)] ≡ I =
dqf (q)
∂P2 (q1 , t1 |q, t)
∂t
(9.103)
dove f (q) è una funzione generica, analitica, che va a zero, con le sue derivate, per q → ∞. Grazie
all’equazione di Chapman-Kolmogorov, possiamo riscrivere il primo membro della precedente espressione
nella forma
1
I = lim
τ →0 τ
Z
Z
dqf (q)
Z
dq2 P2 (q1 , t1 |q2 , t2 )P2 (q2 , t|q, t + τ ) −
dqf (q)P2 (q1 , t1 |q, t)
(9.104)
Definiamo ora una proprietà aggiuntiva del nostro processo markoviano: il processo è diffusivo. Diciamo
che un processo è diffusivo se è markoviano e se esistono i seguenti limiti
1
τ →t τ − t
1
τ →t τ − t
lim
Z
P2 (q, t|q0 , τ )(q0 − q)dq0 = A(q, t)
(9.105)
P2 (q, t|q0 , τ )(q0 − q)(q0 − q)tr dq0 = B(q, t)
(9.106)
lim
Z
dove A e B sono rispettivamente un vettore differenziabile almeno una volta rispetto a q ed una matrice
differenziabile almeno due volte rispetto a q: sono detti rispettivamente termini di drift (’deriva’) e di
244
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
diffusione, e sono i primi due momenti di transizione che misurano il cambiamento infinitesimale di primo
e secondo ordine di q rispetto al valore posseduto a t. In più, per un processo diffusivo si assumono
nulli i momenti di transizione superiori
1
lim
τ →t τ − t
Z
P2 (q, t|q0 , τ )Πnl=1 (qi0l − qil )dq0 = 0
(9.107)
Tornando ora alla (9.104), possiamo espandere f (q) in serie di Taylor attorno a q2 ed integrare rispetto
a q; grazie alle espressioni che definiscono le proprietà di un processo diffusivo, l’espansione può essere
arrestata al secondo ordine, e otteniamo


n
X ∂2f
X
∂f
1
dqP2 (q1 , t1 |q, t) 
Ai (q, t) +
Bij (q, t)
Z
I=
i=1
∂qi
2
ij
∂qi ∂qj
(9.108)
integrando per parti la precedente espressione (una volta il termine in derivata prima, due volte quello
in derivata seconda), e tenendo conto della (9.103)

Z
dqf (q) 
∂P2
∂t
+
n
X
∂Ai P2
i=1
∂qi

1 X ∂ 2 Bij P2 
−
=0
2 ij ∂qi ∂qj
(9.109)
poichè però f è una funzione arbitraria, si ottiene un’equazione differenziale, detta equazione di FokkerPlanck:
∂P2
∂t
=−
n
X
∂Ai P2
i=1
∂qi
+
1 X ∂ 2 Bij P2
2 ij ∂qi ∂qj
(9.110)
Nel seguito considereremo solo casi in cui sia i coefficienti di deriva che quelli di diffusione sono indipendenti dal tempo. L’equazione di Fokker-Planck con coefficienti indipendenti dal tempo è un’equazione
locale alle derivate parziali di secondo ordine, analogaamente all’equazione di Schrödinger, e può essere
scritta introducendo l’operatore di Fokker-Planck
∂P
∂t
= −Γ̂P
Γ̂ =
n
X
∂
i=1
∂qi
(9.111)
Ai −
1 X ∂2
Bij
2 ij ∂qi ∂qj
P (q, 0) = δ(q − q0 )
(9.112)
(9.113)
dove tralasciamo qui nel seguito l’indice al piede della probabilità condizionale, che scriviamo semplicemente come P (q, t).
9.7.5
Relazione con l’equazione di Langevin
L’equazione di Fokker-Planck descrive l’andamento della probabilità condizionale di un processo stocastico markoviano diffusivo, ovvero un processo stocastico per il quale sono state introdotte ben precise
ipotesi relativamente alla dipendendenza temporale (markoviano) e spaziale (diffusivo). Possiamo descrivere il processo stocastico utilizzando il formalismo delle equazioni di Langevin, che permette di
definire le traiettorie temporali mediante equazioni di Newton contenenti forze stocastiche. In effetti
9.7. PROBABILITÀ E PROCESSI STOCASTICI
245
possiamo affermare che l’equazione di Fokker-Planck (9.110) è equivalente all’equazione di Langevin
multidimensionale introdotta nel capitolo precedente, (9.74), che qui riportiamo per convenienza
dqi (t)
dt
= ai (q) +
X
bij (q)ςj (t)
(9.114)
j
dove i termini ai (t) e bij sono funzioni delle coordinate qi e determinano il contributo rispettivamente
al moto di tipo deterministico e stocastico. Le funzioni ςi (t) sono fonti di rumore bianco
hςi (t)i = 0
(9.115)
0
hςi (t)ςj (t0 )i = δij δ(t − t )
(9.116)
Per verificare l’equivalenza delle (9.74) (9.110), riscriviamo esplicitamente i termini di drift e diffusione
Z
1
∆t→0 ∆t
Z
1
= lim
∆t→0 ∆t
Z
1
= lim
∆t→0 ∆t
Z
1
= lim
∆t→0 ∆t
Ai =
Bij
lim
P (q, t|q0 , t + ∆t)(qi0 − qi )dq0
1
h∆qi i
∆t→0 ∆t
P (q, t|q + ∆q, t + ∆t)∆qi d∆q = lim
(9.117)
P (q, t|q0 , t + ∆t)(qi0 − qi )(qj0 − qj )dq0
P (q, t|q + ∆q, t + ∆t)∆qi ∆qj d∆q = lim
∆t→0
1
h∆qi ∆qj i
∆t
(9.118)
dove ∆q(t) = q(t + ∆t) − q(t) è la variazione del processo stocastico rispetto al valore q(t). L’equazione
di Langevin d’altro canto fornisce l’espressione, corretta nel limite ∆ → 0
∆qi = ai (q)∆t +
X
bij (q)ςj (t)∆t
(9.119)
j
Se sostituiamo la precedente espressione in (9.117) otteniamo
Ai = ai +
X
bij hςj (t)i = ai
(9.120)
j
mentre sostituendo in (9.118) troviamo
Bij = lim ai aj ∆t +
∆t→0
X
ai bjl hςk (t)i∆t +
l
X
bik bjl hςk (t)ςl (t)i∆t =
X
kl
bik bjk
(9.121)
k
dove l’ultima uguaglianza discende dalla proprietà del rumore bianco hςi (t)ςj (t0 )i = δij δ(t − t0 ) e dalle
proprietà della funzione generalizzata delta di Dirac.
Nei casi in cui il sistema raggiunge una distribuzione d’equilibrio
Peq (q) = lim P (q, t) =
t→∞
1
exp[−V (q)/kB T ]
Z
(9.122)
possiamo scrivere l’operatore di Fokker-Planck in forma tale da verificare automaticamente la soluzione
stazionaria, Γ̂Peq = 0. In effetti possiamo scrivere l’operatore di Fokker-Planck come
Γ̂ = −
X ∂
ij
∂qi
Ξij (q)Peq (q)
∂
∂qj
Peq (q)−1
(9.123)
246
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
dove Ξij (q) è una matrice che può essere messa in relazione con i coefficienti della forma canonica
dell’operatore di Fokker-Planck
X ∂Ξij
∂V
1
Ξij
kB T
∂qj
(9.124)
= 2(Ξij )simm = Ξij + Ξji
(9.125)
Ai =
j
Bij
+
∂qj
Si noti che la forma (9.123) è meno generale della (9.110), e che solo sotto alcune ipotesi aggiuntive
relative alle proprietà dei coefficienti di drift e diffusione possiamo ridurre la forma canonica alla (9.123),
che quindi costituisce una classe speciale, anche se molto estesa, di operatori di Fokker-Planck.
9.7.6
Alcuni esempi
Consideriamo alcuni esempi di processi stocastici, in parte riprendendo alcuni casi già esposti in precedenza.
Moto browniano libero
Una particella che si muova di moto browniano lungo una direzione, in assenza di forze esterne (e.g.
gravità) è definita dalla velocità v(t), che segue, come abbiamo visto nel capitolo precedente, l’equazione
di Langevin
m
dv(t)
dt
= −ξv +
p
2kB T ξς(t)
(9.126)
L’equazione di Fokker-Planck corrispondente è definita dai coefficienti di drift e diffusione
ξv
m
2ξkB T
m
A = −
(9.127)
B =
(9.128)
e l’operatore di Fokker-Planck si scrive nella forma


ξkB T ∂  ∂
mv 
Γ̂ = −
+
2
m ∂v ∂v kB T
(9.129)
Sappiamo dalla meccanica statistica che la particella, per t → ∞, è descritta da una distribuzione di
equilibrio
r
Peq (v) =
Ã
m
mv 2
exp −
2πkB T
2kB T
!
(9.130)
Possiamo scrivere l’operatore di Fokker-Planck in forma tale da verificare automaticamente la soluzione
stazionaria, Γ̂Peq = 0:
Γ̂ = −
∂ −1
ξkB T ∂
Peq Peq
2
m ∂v
∂v
(9.131)
9.7. PROBABILITÀ E PROCESSI STOCASTICI
247
La soluzione dell’equazione di Fokker-Planck in questo caso è analitica. La probabilità condizionale è
ottenibile come una gaussiana
(
1
[v − v(t)]2
P (v, t) = p
exp
−
2σ(t)2
2πσ(t)2
)
(9.132)
dove v(t) e σ(t) sono semplicemente
v(t) = v0 e−t/tauv
´
kB T ³
1 − e−2t/τv
σ(t)2 =
m
(9.133)
(9.134)
e τv = m/ξ (vedi capitolo II). Si può notare che v(t) è un processo di Ornstein-Uhlenbeck.
Diffusione traslazionale
Consideriamo una particella aventi coordinate vettoriali ~r(t); l’equazione di Fokker-Planck può essere
scritta direttamente utilizzando la forma (9.123). In un mezzo anisotropo, ed in presenza di un potenziale
V (~r), l’equazione di Fokker-Planck è governata dall’operatore
Γ̂ = −
X ∂
ij
∂ri
Dij (r)Peq (r)
∂
∂rj
−1
Peq (r)−1 = −∇ · D(~r) · Peq (~r)∇Peq
(~r)
(9.135)
cioè l’operatore di diffusione, o di Smoluchowski, introdotto nel capitolo I, che si riduce nel caso di
assenza di potenziale ed in mezzi isotropi all’operatore di diffusione
Γ̂ = −D∇2
(9.136)
Nella (9.135), Peq è la distribuzione di Boltzmann rispetto a V (~r).
Moto browniano
In presenza di una forza esterna agente su una particella browniana, non è possibile limitare le componenti del processo stocastico alla sola velocità. Considerando, per semplicità, il caso di una particella
browniana monodimensionale soggetta ad un campo di forze conservativo, possiamo scrivere l’equazione
di Langevin in funzione della posizione x(t) e della velocità v(t)
dx
dt
m
dv
dt
= v
(9.137)
= −ξv −
dV (x)
dx
+
p
2ξkB T ς(t)
(9.138)
La probabilità condizionale del processo markovoviano diffusivo x(t), v(t) si può trovare quindi nella
forma
∂P (x, v, t)
∂t
= −Γ̂P (x, v, t)
(9.139)

∂

1 dV (x) ∂
ξ ∂ 
kB T ∂ 
Γ̂ = v
−
−
v+
m ∂v
∂x m dx ∂v m ∂v
(9.140)
248
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
detta anche equazione di Kramers-Klein. La soluzione stazionaria è la distribuzione di Boltzmann
"
1
mv 2
V (x)
Peq (x, v) = exp −
−
Z
2kB T
kB T
#
(9.141)
e l’equazione Kramers-Klein può essere scritta nella forma (9.123)

µ
Γ̂ = −
∂
∂
∂x
∂v
¶tr Ã
0
1
−m
1
ξ
m
!
∂



 ∂x 

 Peq (x, v)−1
Peq (x, v) 

 ∂ 
(9.142)
∂v
9.8
Densità spettrale
Consideriamo un processo stocastico (monodimensionale per semplicità) q(t). Supponiamo di determinare N traiettorie qn (t) che costituiscono un campione statistico del processo. Il peso della componente di frequenza ω della traiettoria n−esima è ottenuto dalla trasformata di Fourier definita come
q̃n (ω) =
X
1 +∞
dte−iωt qn (t)
2π −∞
(9.143)
Dati i pesi relativi alle varie frequenze, una traiettoria temporale può essere ricostruita come antitrasformata di Fourier
qn (t) =
+∞
X
dωeiωt q̃n (ω)
(9.144)
−∞
La correlazione tra i pesi a due frequenze diverse è il risultato della media su tutte le traiettorie del
prodotto dei due pesi
hq̃(ω)q̃(ω 0 )∗ i =
=
1 X
q̃n (ω)q̃n (ω 0 ) =
N n
Z
Z
1
0 0
dt
dt0 eiω t −iωt hq(t)q(t0 )i
2
4π
(9.145)
Per un processo stazionario la funzione di correlazione temporale dipende solo dalla differenza tra i
tempi t e t0 , nonchè assumere che sia invariante rispetto alla direzione di propagazione temporale
hq(t)q(t0 )i = G(|t − t0 |)
(9.146)
dalle proprietà delle trasformate di Fourier discende allora che
hq̃(ω)q̃(ω 0 )∗ i =
δ(ω − ω 0 )
<J(ω)
π
(9.147)
dove J(ω) è la trasformata di Fourier-Laplace della funzione di correlazione
J(ω) =
Z +∞
0
eiωt G(t)
(9.148)
L’equazione (9.147) è il cosidetto teorema di Wiener-Khinchin, che afferma come non vi sia correlazione
tra componenti (pesi) a frequenze diverse.
9.9. FUNZIONI DI CORRELAZIONE ED OPERATORE FOKKER-PLANCK
249
Per una funzione di correlazione esponenziale (e normalizzata ad uno per semplicità)
G(t)
= e−t/τ
G(0)
(9.149)
La densità spettrale è una lorentziana complessa
J(ω)
1
=
G(0)
iω + 1/τ
(9.150)
cui corrisponde la parte reale
<
J(ω)
1/τ
= 2
G(0)
ω + 1/τ 2
(9.151)
Per un processo stocastico con le proprietà di un rumore bianco unitario la densità spettrale è costante
hq(t)q(t0 )i = δ(t − t0 )
1
J(ω) =
2
da cui deriva la definizione di “bianco”: tutte le frequenze hanno uguale peso.
9.9
(9.152)
(9.153)
Funzioni di correlazione ed operatore Fokker-Planck
Ricaviamo la funzione di autocorrelazione di un osservabile f (q) (in generale complesso) per un sistema
descritto dall’operatore di Fokker-Planck Γ̂. Per definizione di funzione di correlazione
Z
G(t) = hf (0)f (t)∗ i =
Z
dqf (q0 )f (q)∗ W (q0 , 0; q, t)
dq0
(9.154)
La probabilità congiunta W (tralasciamo di includere gli indici che specificano se le varie probabilità
sono ad un tempo, due tempi etc.) si trova dalla probabilità condizionale
Z
G(t) =
Z
dqf (q0 )f (q)∗ Peq (q0 )P (q0 , 0|q, t)
dq0
(9.155)
e la probabilità condizionale si trova dall’equazione di Fokker-Planck; sostituendo l’espressione della
soluzione formale si ottiene
Z
G(t) =
Z
dq0
dqf (q0 )f (q)∗ Peq (q0 )e−Γ̂t δ(q − q0 )
(9.156)
ch può essere riscritta come
Z
G(t) =
∗ −Γ̂t
Z
dqf (q) e
dqf (q0 )Peq (q0 )δ(q − q0 )
(9.157)
perchè l’operatore Γ̂ agisce su q; integrando in q0 si trova subito
Z
G(t) =
dqf (q)∗ e−Γ̂t f (q)Peq (q) = hf ∗ |e−Γ̂t |f Peq i
(9.158)
−1/2
Si noti che in termini dell’operatore simmetrizzato Γ̃ = Peq
1/2
Γ̂Peq troviamo
1/2
−1/2
G(t) = hf ∗ |e−Γ̂t |f Peq i = hf ∗ |e−Peq Γ̃Peq t |f Peq i =
=
=
∞
X
k=0
∞
X
k tk
hf ∗ | (−1)
k!
1/2
1/2
−1/2 k
) |f P
(Peq Γ̃Peq
k tk
hf ∗ Peq | (−1)
k!
k
eq i
=
Γ̃ |f Peq i = hf ∗ Peq |e−Γ̃t |f Peq i
1/2
1/2
1/2
k=0
dove si è fatto uso dell’espansione in serie di Mc Laurin dell’operatore esponenziale.
(9.159)
250
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
9.10
Equazioni di Fokker-Planck lineari
Consideriamo nel seguito la soluzione (esatta) dell’equazione di Fokker-Planck per il moto di una particella browniana sottoposta ad un potenziale armonico. È utile descrivere prima brevemente le caratteristiche principali dei regimi di moti previsti per una particella non-browniana (cioè deterministica)
soggetta a potenziale armonico e dissipiazione.
9.10.1
Oscillatore con dissipazione
Un sistema di equazioni differenziali lineari ha semplicemente la forma
q̇(t) = −Mq
(9.160)
e si risolve formalmente come
q(t) = e−Mt q(0)
(9.161)
noti gli autovalori e la matrice T formata dagli autovettori di M possiamo scrivere
MT = TΛ
(9.162)
q(t) = Te−Λt T−1 q(0)
(9.163)
per una particella sopposta ad un potenziale armonico U = kx2 /2 ed in presenza di attrito ξ le equazioni
del moto sono
ẋ = v
(9.164)
mv̇ = −kx − ξv
(9.165)
od in forma matriciale come nella (9.160), posto che
Ã
q=
x
v
!
Ã
M=
definendo ω =
λ± =
0 −1
ω 2 1/τ
!
(9.166)
p
k/m e τ = m/ξ. Gli autovalori o frequenze caratteristiche del moto sono
1
1q
±
(1 − 4ω 2 τ 2 )
2τ
2τ
(9.167)
Possiamo distinguere due regimi dinamici limite:
basso attrito Nel regime di basso di attrito vale la diseguaglianza
s
τω =
mk
1
À
2
ξ
2
(9.168)
e quindi gli autovalori sono stimabili come
λ± ≈
1
± iω
2τ
(9.169)
le traiettorie calcolate per la posizione e la velocità delle particelle sono oscillazioni smorzate con
frequenza ω e tempo di decadimento 2τ . Se l’attrito è nullo, lo smorzamento cessa di esistere e le
9.10. EQUAZIONI DI FOKKER-PLANCK LINEARI
251
Figura 9.1: Traiettorie (caso a basso attrito): ω = 1 s−1 , τ = 10 s.
oscillazioni permangono indefinitamente nel tempo, dando luogo ad orbite (curve nel piano x, v)
chiuse. Per un attrito piccolo, le orbite sono spirali molto ravvicinate che tendono al punto (0, 0).
Possiamo valutare in questo caso la variazione della energia totale della particella, E = p2 /2m+U ;
infatti
Ė = mv
dv
dt
+ kx
dx
dt
≡ −ξv 2
(9.170)
se l’attrito è piccolo, possiamo approssimare un ciclo dell’orbita a spirale ad un’orbita chiusa e
valutare mediante il principio di equipartizione dell’energia il valore medio dell’energia per un ciclo
hEic ≈ mhv 2 ic ≈ khx2 ic
(9.171)
da cui si ottiene
˙ ≈ − hEic
hEi
c
τ
(9.172)
l’energia totale della particella media decade perciò con un tempo di decadimento τ .
alto attrito Nel regime di alto attrito vale la diseguaglianza
s
τω =
mk
1
¿
2
ξ
2
(9.173)
segue che gli autovalori sono reali
λ− ≈ τ ω 2 ¿ λ+ ≈
1
τ
(9.174)
le orbite presentano prima un rapido decadimento di v a valori vicini a zero, con tempi dell’ordine
di τ e poi un lento approssimarsi al punto (0, 0) con tempi dell’ordine di 1/λ− .
252
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
Figura 9.2: Orbite (caso a basso attrito): ω = 1 s−1 , τ = 10 s.
9.10.2
Oscillatore browniano
Passiamo ora allo studio delle equazioni di Fokker-Planck lineari, che sono caratterizzate da coefficienti di deriva lineari nelle coordinate e coefficienti di diffusione costanti; per un processo stocastico q
n−dimensionale:
∂P
= −Γ̂P
∂t
Γ̂ =
X
(9.175)
ai −
i
ai =
X
1 X ∂2
bij
2 ij ∂qi ∂qj
(9.176)
Aij (t)qj
(9.177)
j
bij
= Bij (t)
(9.178)
con la solita condizione iniziale P (0) = δ(q − q0 ); le grandezze Aij (t), Bij (t) possono essere funzioni
del tempo. Seguendo il metodo di Van Kampen, la distribuzione di probabilità si trova in funzione dei
valori medi e della matrice di covarianza
·
P
n
−1/2
= [(2π) det C]
¸
1
exp − (q − m)tr C−1 (q − m)
2
(9.179)
mi (t) = hqi i
(9.180)
Cij (t) = hqi qj i − hqi ihqj i
(9.181)
il vettore m e la matrice C verificano le seguenti equazioni
ṁ = Am
(9.182)
tr
Ċ = AC + CA + B
(9.183)
9.10. EQUAZIONI DI FOKKER-PLANCK LINEARI
253
Figura 9.3: Traiettorie (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s.
con le condizioni iniziali m(0) = q0 e C(0) = 0. le equazioni precedenti si ottengono semplicemente
moltiplicando l’equazione di Fokker-Planck per qi e qi qj ed integrando. La soluzione generale del problema è fornita da Van Kampen. Per A e B costanti, la soluzione è
m = eAt q0
C =
Z t
0
(9.184)
tr
dτ eA(t−τ ) BeA (t−τ )
(9.185)
Possiamo ora specializzare la precedente soluzione al caso di una particella browniana sottoposta ad un
potenziale armonico kx2 /2, cioè l’equivalente modello stocastico del modello deterministico analizzato
nella precedente sezione. Se scegliamo q come la posizione ed il momento della particella, i tensori A e
B sono
Ã
A = −M,
B=
0
0
0
!
2ξkT
m
(9.186)
da cui si può trovare immediatamente la distribuzione di probabilità che è una gaussiana in x e v,
tendente alla soluzione di equilibrio (distribuzione di Boltzmann rispetto all’energia totale). In pratica,
è più istruttivo valutare direttamente le funzioni di correlazione normalizzate
gx (t) = hx(0)x(t)i/hx2 i
(9.187)
gv (t) = hv(0)x(t)i/hv 2 i
(9.188)
Ricordiamo che in generale, per un’osservabile reale f (q)
hf (0)f (t)i = hf |e−Γ̂t |f Peq i
(9.189)
Integrando per parti possiamo dimostrare come la precedente espressione sia esprimibile rispetto all’operatore
aggiunto di Γ̂
†
hf |e−Γ̂t |f Peq i = hf Peq |e−Γ̂ t |f i
(9.190)
254
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
Figura 9.4: Orbite (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s.
†
Nel caso in questione è particolarmente facile valutare e−Γ̂ t f per un’osservabile f lineare, avente cioè
la forma f = ctr q:
†
e−Γ̂ t ctr q = ctr e−Mt q
(9.191)
Il calcolo delle funzioni di correlazione di osservabili lineari in x e v porge perciò semplicemente
hf (0)f (t)i =
X
³
´
ci e−Mt c hqi i2
(9.192)
i
Possiamo ora calcolare facilmente gx e gv . Ancora una volta è conveniente discutere i nostri risultati
distinguendo il caso di basso ed alto attrito.
basso attrito Nel regime di basso attrito entrambe le funzioni di correlazione hanno un tipico comportamento oscillante smorzato, analogo al comportamento delle traiettorie nel caso deterministico,
ed in pratica
gx (t) ≈ gv (t) ≈ e−t/2τ cos ωt
(9.193)
alto attrito Nel regime di alto attrito entrambe le funzioni di correlazione decadono a zero in modo
monotono; quella della velocità decade rapidamente a zero, mentre la funzione di correlazione
della coordinata decade molto più lentamente
gx (t) ≈ eω
2τ t
,
gv (t) ≈ e−t/τ
(9.194)
9.11. METODI DI SOLUZIONE NUMERICA DELL’EQUAZIONE DI SMOLUCHOWSKI
9.11
255
Metodi di soluzione numerica dell’equazione di Smoluchowski
In generale, le equazioni di Fokker-Planck relative a potenziali non armonici o con tensori di attrito/diffusione non costanti non sono risolvibili analiticamente. È necessario perciò ricorrere a metodi
numerici, di natura variazionale, analoghi ai metodi impiegati per la soluzione numerica delle equazioni
di Schrödinger.
Consideriamo i due problemi i) calcolo della probabilità condizionale e ii) determinazione di funzione
di correlazione generica, per un sistema definito da un modello di Fokker-Planck. Consideriamo per
semplicità un sistema diffusivo, cioè caratterizzato da un operatore di Smoluchowski. La probabilità
condizionale è ottenuta dall’equazione
∂P (q, t)
∂t
= −Γ̂P (q, t)
(9.195)
con la condizione iniziale P (q, 0) = δ(q − q0 ). È utile introdurre il problema simmetrizzato, che come
abbiamo visto coinvolge l’operatore hermitiano Γ̃
∂ P̃ (q, t)
∂t
= −Γ̃P̃ (q, t)
(9.196)
−1/2
dove P̃ = P Peq
e Peq è la distribuzione di Boltzmann del sistema. Introduciamo gli autovalori e le
autofunzioni di Γ̃
Γ̃P̃n (q) = ωn P̃n (q)
(9.197)
gli autovalori di Γ̃ coincidono con gli autovalori di Γ̂, mentre le autofunzioni di Γ̂ e Γ̃ sono in relazione
−1/2
P̃n = Pn Peq . Gli autovalori sono reali (l’operatore Γ̃ è hermitiano) e non-negativi, poichè descrivono
il decadimento di un sistema che ammette una distribuzione di equilibrio; possiamo ordinarli come
ω0 = 0 < ω1 < ω2 ..., dove il primo autovalore deve valere zero, perchè corrisponde alla distribuzione di
equilibrio. Le autofunzioni possono essere sempre definite in modo che siano ortonormali
|
hPn Pn0 i = δn,n0
(9.198)
La probabilità condizionale può essere scritta in termini delle autofunzioni come
P̃ (q, t) =
X
cn (t)Pn (q)
(9.199)
n
dove i coefficienti c(n) si trovano dalle condizioni iniziali e dall’equazione agli autovalori
cn (t) = cn (0)e−ωn t
(9.200)
Z
cn (0) = hP̃n |P̃ (q, 0)i =
dqP̃n (q)∗ δ(q − q0 )Peq (q)−1/2 =
Pn (q0 )
Peq (q0 )
(9.201)
1/2
per t → ∞ la probabilità condizionale simmetrizzata si riduce correttamente a Peq .
Una generica funzione di autocorrelazione si può ottenere dall’espressione dimostrata in precedenza
Z
G(t) = hf (0)f (t)∗ i =
1/2 −Γ̃t
1/2
dqf (q)∗ Peq
e
f (q)Peq
= hf ∗ Peq |e−Γ̃t |f (q)Peq i
1/2
1/2
(9.202)
256
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
1/2
Posto che f Peq può essere proiettato sulla base di funzioni Pn
1/2
f Peq
=
X
fn Pn
(9.203)
n
1/2
fn = hP̃n |f Peq i
(9.204)
si ottiene la semplice espressione
X
G(t) =
|fn |2 e−ωn t
(9.205)
n
La funzione di autocorrelazione è una somma di decadimenti esponenziali; la densità spettrale corrispondente è una somma di lorentziane complesse
J(ω) =
X |fn |2 ωn
n
(9.206)
iω + ωn
In generale il problema della determinazione degli autovalori ed autofunzioni di un operatore può
essere ricondotto ad un problema di diagonalizzazione di matrici. Introduciamo la base di funzioni
generica completa ed ortonormale |li per lo spazio di funzioni in q
hl|l0 i = δl,l0
(9.207)
L’equazioni agli autovalori (9.197) può essere ricondotta ad un’equazione secolare tenendo conto che
P̃n =
X
|lihl|P̃n i =
X
l
xl |li
xl = hl|P̃n i
(9.208)
l
e sostituendo nella (9.197) si ottiene
X
xl Γ̃|li = ωn
X
l
xl |li
(9.209)
l
premoltiplicando per una generico hl0 | si ottiene
X
hl0 |Γ̃|lixl = ωn xl0 → Γx = ωn x
(9.210)
l
dove l’autovettore della matrice Γ ha autovalore ωn .
9.11.1
Un modello monodimensionale
Si consideri a livello esemplificativo lo studio del comportamento di un sistema monodimensionale oscillante sottoposto ad un potenziale del tipo: V /kT = ∆ cos 2θ.
L’evoluzione temporale della distribuzione di probabilità simmetrizzata di questo sistema è data dall’equazione
di Fokker-Plank:
∂ P̃ (θ, t)
∂t
= Γ̃P̃ (θ, t)
(9.211)
dove l’operatore di Smoluchowsky (Fokker-Planck diffusivo) simmetrizzato Γ̃ è dato da
−1/2
Γ̃ = −DPeq
∂
∂θ
Peq
∂
∂θ
−1/2
Peq
(9.212)
9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI
257
D è un coefficiente di diffusione e Peq è la distribuzione di Boltzmann relativa al potenziale scelto.
Introduciamo le autofunzioni e gli autovalori dell’operatore
Γ̃P̃n (θ) = ωn P̃n (θ)
(9.213)
Una base opportuna problema è data da esponenziali complessi del tipo: |ni = exp(inθ)(2π)−1/2 , con
n ∈ I. L’operatore simmetrizzato ha la forma esplicita:
³
Γ̃ = D −∂ 2 /∂θ2 + ∆2 sin2 2θ + 2∆ cos 2θ
´
(9.214)
Gli elementi generici della matrice che rappresenta l’operatore sulla base prescelta sono
³
´
hn|Γ̃|mi = n2 + ∆2 /2 δnm + ∆δ|m−n|,2 − (∆2 /4)δ|m−n|,4
(9.215)
Le autofunzioni P̃n (θ) sono calcolate come combinazioni lineari delle funzioni di base; la somma è troncata ad un numero finito di termini (nel caso in questione, le autofunzioni e gli autovalori si determinano
con una accuratezza accettabile per ∆ = 2 con non più di 40 funzioni esponenziali). La prima autofunzione calcolata, con autovalore λ0 = 0 è la (radice quadrata della) probabilità di equilibrio ed è
disegnata in Fig. 9.5 La seconda funzione, disegnata in Fig.9.6, con un autovalore molto vicino a zero,
F0(θ)
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
0
50
100
150
200
250
300
350
θ
Figura 9.5: Autofunzione di equilibrio
descrive il processo di transizione da un minimo di potenziale all’altro.
9.12
Equazioni diffusive rotazionali
L’orientazione di un corpo rigido è definita come l’orientazione relativa di un sistema di riferimento
solidale con il corpo stesso (nel seguito parleremo, considerando una molecola come un corpo rigido di
sistema di riferimento molecolare, SM rispetto ad un sistema di riferimento fisso nello spazio (e
parleremo di sistema di riferimento di laboratorio, SL). Per ciascuno dei due sistemi di riferimento
possiamo definire una terna di assi (ortonormali)
258
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
F1(θ)
∆ =2
1.0
∆ =5
∆ = 10
0.5
0.0
-0.5
-1.0
0
50
100
150
200
250
300
350
θ
Figura 9.6: Autofunzione di salto al variare della barriera ∆.
SM: ~eM
eM
eM
1 ,~
2 ,~
3
SL: ~eL
eL
eL
1 ,~
2 ,~
3
Consideriamo un vettore generico nello spazio ~r: possiamo scriverlo come riferito al SM o al SL, esprimendo le componenti
M M
L L
L L
~r = r1M ~eM
e2 + r3M ~eM
e1 + r2L~eL
e3
1 + r2 ~
3 = r1 ~
2 + r3 ~
(9.216)
Premoltiplicando per un generico ~eL
i si ottiene
riL =
X
M
~eL
eM
i ·~
j rj =
X
Eij rjM
(9.217)
j
La matrice E si dice matrice di Eulero ed è definita come la matrice dei coseni direttori (coseni degli
angoli compresi) tra i versori dei sistemi di riferimento cartesiani SM e SL. Le componenti di un vettore
generico nello spazio rispetto a SL si trovano moltiplicando le componenti nel SM tramite la matrice di
Eulero; le componenti in SM si trovano dalle componenti in SL tramite la matrice di Eulero trasposta,
Etr .
9.12.1
Coordinate rotazionali
La definizione delle componenti della matrice di Eulero è specificata da tre parametri liberi che descrivono l’orientazione del SM rispetto al SL. L’insieme di coordinate rotazionali più comune è dato
dagli angoli di Eulero, Ω = (α, β, γ), definiti secondo una sequenza di tre rotazioni del sistema di
laboratorio che lo portano a coincidere nel sistema molecolare (ammettendo che l’origine sia la stessa)
0
0
0
1. SL (~eL
eL
eL
eL
1 ,~
2 ,~
3 ) si trasforma in SL’ (e1 , e2 , e3 ) mediante una rotazione antioraria attorno a ~
3 di
L
0
una angolo 0 ≤ α ≤ 2π (gli assi ~e3 e e3 coincidono);
9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI
259
2. SL’ (e01 , e02 , e03 ) si trasforma in SL” (e001 , e002 , e003 ) mediante una rotazione antioraria attorno a e02 di
una angolo 0 ≤ β ≤ π (gli assi e02 e e002 coincidono);
00
3. SL” (e001 , e002 , e003 ) si trasforma in SM (~eM
eM
eM
1 ,~
2 ,~
3 ) mediante una rotazione antioraria attorno a e3
di una angolo 0 ≤ γ ≤ 2π (gli assi e003 e ~eM
3 coincidono)
la matrice di Eulero espressa rispetto ai seni ed ai coseni degli angoli di Eulero è ottenuta come il
prodotto delle tre matrici di rotazione elementare in α, β e γ


cos α cos β cos γ − sin α sin γ − cos α cos β sin γ − sin α cos γ cos α cos β



E=
 sin α cos β cos γ + cos α sin γ − sin α cos β sin γ + cos α cos γ sin α sin β 
− sin β cos γ
sin β sin γ
cos β
(9.218)
Alternativamente agli angoli di Eulero sono usati per esempio i quaternioni, un insieme di quattro
numeri q0 , q1 , q2 , q3 , vincolati secondo la legge q02 + q12 + q22 + q32 = 1; la matrice di Eulero ha elementi
espressi secondo potenze di secondo grado dei quaternioni (Goldstein, 1980).
Infine, possiamo definire l’orientazione di un sistema di riferimento rispetto ad un altro come il
risultato di una rotazione di un angolo φ attorno ad un asse definito da un versore n: ancora una
volta tre parametri (l’angolo e due componenti del versore) specificano completamente l’orientazione:
~ pari ad ~n moltiplicato per φ. Consideriamo in particolare un corpo
possiamo parlare di un vettore φ
Figura 9.7: Definizione degli angoli di Eulero.
rigido (o il suo sistema di riferimento solidale) che ruoti di un angolo φ attorno ad un asse; in questo modo
SM è passato a SM’; l’orientazione tra SM’ e SL sia indicato dai nuovi angoli di Eulero Ω0 . Possiamo
determinare la forma specifica che assume l’operatore di rotazione infinitesima, che corrisponde ad una
~ tale che Ω0 = Ω+dΩ? Per trasformazioni infinitesime le rotazioni sono additive,
rotazione infinitesima dφ
~ come il risultato di una rotazione di SL
e qundi possiamo scrivere il vettore di rotazione infintesima dφ
a SM’ definite dai tre angoli di Eulero infinitesimi dΩ = (dα, dβ, dγ)
~ = ~eL dα + ~e0 dβ + ~eM dγ
dφ
3
2
3
(9.219)
260
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
~ nel SL sono calcolabili facilmente
Le componenti di dφ
~
dφiL = ~eL
i dφ =
X
L
Rij
dΩj
(9.220)
j
dove intendiamo (Ω1 , Ω2 , Ω3 ) = (α, β, γ). La matrice RL è


0 − sin α cos α sin β


L

R =  0 cos α sin α sin β 

1
0
cos β
(9.221)
Una qualunque funzione dell’orientazione del corpo, che indichiamo con f (Ω), viene perciò trasformata
da una rotazione infinitesima come
df = f (Ω + dΩ) − f (Ω) =
X
dΩi
i
∂f
∂Ωi
=
X
L −1
dφL
j [(R ) ]ij
ij
∂f
∂Ωi
=
X
L
dφL
j M̂ j f
(9.222)
j
L
dove abbiamo introdotto l’operatore vettore differenziale di rotazione M̂ , con componenti espresse nel
sistema di riferimento di laboratorio
MjL =
X
[(RL )−1 ]ij
i

L
M̂
∂f
(9.223)
∂Ωi
∂
 − cos α cos β
sin β

∂α




α cos β ∂
=  − sinsin
β

∂α



∂

− sin α
cos α
∂
cos α
sin β








sin β
∂γ 




0
∂β
∂
∂γ
sin α ∂
∂β
0
∂α
∂
(9.224)
Analogamente possiamo introdurre le componenti dell’operatore vettore differenziale di rotazione con
M
componenti nel SM, M̂ :
df = f (Ω + dΩ) − f (Ω) =
X
dΩi
i
dove la matrice RM è

RM
∂f
∂Ωi
=
X
M −1
dφM
j [(R ) ]ij
ij
∂f
∂Ωi
=
X
M
dφM
j M̂ j f
(9.225)
j

− sin β cos γ sin γ 0



=  sin β sin γ cos γ 0 

cos β
0
1
(9.226)
dove le componenti esplicitamente definite sono
MjM
=
X
∂f
i
∂Ωi
[(RM )−1 ]ij

M
M̂
=
∂
 − cos γ
sin β

∂α



 sin γ ∂
 sin β

∂α




0
sin γ
cos γ
0
(9.227)
∂
∂β
∂
∂β
cos β cos γ
sin β
−
∂







∂γ 




∂γ
cos β sin γ ∂
sin β
∂
∂γ

(9.228)
9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI
261
L’operatore di rotazione finita si ottiene come espansione in serie rispetto al vettore di rotazione finito
φ. In generale per una funzione f (x)
f (x + ∆x) =
∞
X
(∆x)n ∂ n f (x)
∂xn
n!
n=0


= exp ∆x
∂
∂x
 f (x)
(9.229)
e dunque per una rotazione finita da Ω ad Ω0 possiamo scrivere
~ M̂)f (Ω)
f (Ω0 ) = exp(φ
(9.230)
con M̂ espresso in SL o SM.
Gli operatori di rotazione infinitesima sono equivalenti agli operatori momento angolare di un corpo
rigido a meno di un fattore costante i (e posto h̄ = 1)
L,M
Ĵ
L,M
= iM̂
(9.231)
2
L
L
M
Poichè gli operatori Jˆ3 , Jˆ3 e Ĵ (che ha una forma evidentemente uguale se calcolata a partire Ĵ o
M
Ĵ ) commutano si ottiene che devono esistere autofunzioni con numeri quantici J, −J ≤ M ≤ J e
−J ≤ K ≤ J. le autofunzioni sono tradizionalmente note con il nome di matrici (funzioni) di Wigner
2
J
J
Ĵ DM
K (Ω) = J(J + 1)DM K (Ω)
L J
Jˆ3 DM
K (Ω)
M J
Jˆ3 DM K (Ω)
(9.232)
J
= M DM
K (Ω)
(9.233)
J
KDM
K (Ω)
(9.234)
=
Le matrici di Wigner sono ortogonali (ma non normalizzate)
Z
hJM K|J 0 M 0 K 0 i
≡
∗
J
J
dΩDM
K (Ω)DM K (Ω) =
8π 2
δJ,J 0 δM,M 0 δK,K 0
2J + 1
(9.235)
dove dΩ = dαdβ sin βdγ.
9.12.2
Rotazione diffusiva di un corpo rigido
L’equazione di Langevin che descrive la rotazione soggetta a momenti delle forze stocastiche di un
corpo rigido (molecola) si ottiene a partire dalle equazioni del moto classico per la rotazione, in cui la
variazione del momento angolare è legata al momento delle forze
~ = I~
L
ω
~
dL
dt
~ = N
~ ≡ −ξ~
+ω
~ ×L
ω + ~n(t)
(9.236)
(9.237)
dove I è il tensore di inerzia, ω
~ è la velocità angolare (esprimibile in funzione delle variazioni nel tempo
~ è distinto in una parte dissipativa, dove compare il
degli angoli di Eulero); il momento delle forze N
tensore di attrito rotazionale ξ ed un termine puramente stocastico ~n(t). Per il caso di rumore bianco,
vale il teorema di fluttuazione-dissipazione
hni (t)nj (t0 )i = 2kT ξij δ(t − t0 )
(9.238)
262
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
le componenti del tensore di attrito nel sistema di riferimento molecolare per un corpo di simmetria
assiale può essere ottenuto da considerazioni idrodinamiche in funzione della viscosità η del mezzo; in
particolare per un ellissoide di rotazione aventi semiassi Rk e R⊥ (Perrin, 1934):


ξ⊥ 0 0



ξ =  0 ξ⊥ 0 

0 0 ξk
(9.239)
dove ξk e ξ⊥ sono
ξk =
ξ⊥ =
S =
2 )R2
32π(Rk2 − R⊥
⊥
2 S)
3(2Rk − R⊥
η
4)
32π(Rk4 − R⊥
2 )S − 2R ]
3[(2Rk2 − R⊥
k
Z ∞
0
(9.240)
η
ds
2
(R⊥
q
+ s) Rk2 + s
(9.241)
(9.242)
con il limite ξk = ξ⊥ = 8π 2 R3 η, dove R = R⊥ = Rk per una sfera.
La descrizione stocastica precedente è basata sulle coordinate rotazionali Ω e sulle componenti della
velocità angolare (o del momento angolare). Nel limite diffusivo, la velocità angolare raggiunge rapidamente una distribuzione di equilibrio ed il sistema può essere descritto sulla base delle sole coordinate
rotazionali. In modo sostanzialmente analogo al caso traslazionale, possiamo ricavare un equazione di
Langevin in Ω o più direttamente scrivere l’equazione di Smoluchwski rotazionale
∂
∂t
P (Ω, t) = −Γ̂P (Ω, t)
(9.243)
per la probabilità condizionale P (Ω, t). L’operatore di Smoluchowski Γ̂ è definito come
tr
Γ̂ = Ĵ DĴ
(9.244)
dove D è il tensore di diffusione
D = kT ξ −1
(9.245)
Per una molecole assiale, esprimendo l’operatore Ĵ nel sistema di riferimento solidale con la molecola,
SM, si trova
2
M
Γ̂ = D⊥ Jˆ + (Dk − D⊥ )Jˆ3
2
(9.246)
−1
, con autofunzioni proporzionali alle funzioni di Wigner
dove D⊥,k = kT ξ⊥,k
J
2
J
Γ̂DM
K = [J(J + 1)D⊥ + K (Dk − D⊥ )]DM K
(9.247)
0 =1
in particolare la distribuzione di equilibrio (autofunzione con autovalore nullo) corrisponde alla D00
a meno della costante di normalizzazione 8π 2
Peq (Ω) =
1
8π 2
(9.248)
9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI
9.12.3
263
Depolarizzazione di fluorescenza
In un esperimento di depolarizzazione di fluorescenza un campione in soluzione viene eccitato con luce
~
polarizzata lungo un asse di laboratorio, per esempio ~eL
3 . Se indichiamo con E il vettore del campo
elettrico associato alla radiazione, possiamo scrivere
E~ = E~eL
3
(9.249)
La probabilità di transizione per una data molecola di soluto a partire da una orientazione Ω dipende
dall’elemento di matrice dell’hamiltoniano di interazione tra la funzione d’onda nello stato fondamentale
e nello stato eccitato
~µ|Ψe i|2 = E 2 |~eL · h~
Wassorbimento = |hΨ0 |E~
µi|2
3
(9.250)
µ
~ è il momento di dipolo elettrico di transizione; per una molecola assiale, assumendo che h~
µi =
M
hΨ0 |~
µ|Ψe i abbia solo componenti lungo l’asse principale della molecola assunto lungo ~e3 otteniamo
2
2
Wassorbimento ∝ |~eL
eM
3 ·~
3 | = cos β
(9.251)
All’istante t = 0 in seguito ad eccitazione di un campione di molecole con distribuzione orientazionale
all’equilibrio, si crea quindi una popolazione con distribuzion e
3
1 2
1 0
P (ω, 0) = 2 cos2 β = 2 D00
+ 2 D00
(9.252)
8π
4π
8π
che in seguito alla diffusione rotazionale evolve nel tempo come
e−6D⊥ t 2
1 0
D00 + 2 D00
(9.253)
2
4π
8π
L’intensità della luce emessa lungo una certa direzione ~n dalle molecole eccitate sarà proporzionale
al numero di molecole totale nello stato eccitato, N (t), che può essere valutato come dipendente dal
tempo di vita τf dello stato eccitato, N (t) ∝ exp(−t/τf ); ed alla frequenza di emissione che dipende
dall’orientazione del dipolo di transizione (di emissione, che supponiamo avere la stessa direzione di
quello di assorbimento) rispetto a ~n
P (ω, t) =
2
Wemissione ∝ |~n · ~eM
3 |
(9.254)
L’intensià di emissione lungo lo l’asse della luce di assorbimento si indica con IV V (t) e vale perciò
Z
2
d(Ω)P (ω, t)|~eL
eM
3 ·~
3 |
IV V (t) ∝ N (t)
(9.255)
mentre l’emissione lungo un asse perpendicolare, per esempio ~eL
2 , si indica con IV H (t) ed è
Z
IV H (t) ∝ N (t)
2
d(Ω)P (ω, t)|~eL
eM
2 ·~
3 |
(9.256)
Sosituendo gli opportuni elementi della matrice di Eulero e usando le proprietà di ortogonalità delle
funzioni di Wigner si ottiene una valutazione del rapporto di depolarizzazione al tempo t, dalla cui misura
si può determinare D⊥ :
µ
¶
1
4 −6D⊥ t
IV V (t) ∝ N (t)
1+ e
(9.257)
3
5
µ
¶
1
2
IV H (t) ∝ N (t)
1 − e−6D⊥ t
(9.258)
3
5
2
IV V (t) − IV H (t)
= e−6D⊥ t
(9.259)
r(t) =
IV V (t) + 2IV H (t)
5
264
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
9.13
Interpretazione statistica
La teoria microscopica dei modelli stocastici si pone l’obiettivo di trovare i fondamenti statisticomolecolari delle equazioni stocastiche, in particolare ricavando delle relazioni formali tra i parametri
macroscopici dissipativi (attrito) e le proprietà molecolari. Il problema della caratterizzazione microscopica dei modelli macroscopici statici e dinamici di fase condensate è oggetto di intensa attività
esplorativa da parte di numerosi ricercatori, e non è certo possibile in un contesto limitato presentare
l’argomento in modo esaustivo. Qui ci limitiamo a tratteggiare brevemente un esempio classico di interpretazione del più noto modello tra quelli considerati finora, il moto browniano di una particella,
secondo l’approccio di Mazur e Oppenheimer (1970), nella presentazione di Hynes e Deutch.
Consideriamo una particella puntiforme di massa M (soluto), immersa in un bagno di N particelle
identiche (solvente) di massa m ¿ M . L’energia totale del sistema è
H=
1 2
1 2
1 2
P +
p + U (r) + Uint (r, R) =
P + H0
2M
2m
2M
(9.260)
dove indichiamo con R e P la posizione ed il momento della particella soluto, con r = (r1 , r2 , . . . , rN )
e p = (p1 , p2 , . . . , pN ) le posizioni e momenti delle particelle solvente. I potenziali U e Uint indicano
rispettivamente il potenziale di interazione soluto-solvente e solvente-solvente, che supponiamo per
semplicità il risultato di sole interazioni a coppia a corto raggio:
U
=
Uint =
1X
u(|ri − rj |)
2 i<j
(9.261)
v(|ri − R|)
(9.262)
X
i
definite rispetto alle funzioni potenziali per coppie di molecole u e v. Con H0 indichiamo l’hamiltoniana
del solvente che dipende parametricamente da una particella soluto immobile in R.
Per proseguire, dobbiamo riassumere alcuni concetti fondamentali di meccanica (classica). Secondo
la formulazione della meccanica classica basata sulle equazioni di Hamilton, un insieme di punti descritto
dalle iper-coordinate r, p materiali può essere descritto sotto forma di una distribuzione di probabilità
ρ(r, p, t) che descrive la densità dei punti materiali al tempo t in un intorno del punto r, p nello spazio
delle fasi. La legge del moto che specifica la variazione nel tempo di ρ è l’equazione o teorema di Liouville
∂ρ
∂t
= −{ρ, H} = −iLρ
(9.263)
il simbolo {a, b} indica le parentesi di Poisson
{a, b} =
∂a ∂b
∂r ∂p
−
∂a ∂b
∂p ∂r
=
X ∂a ∂b
i
∂ri ∂pi
−
∂a ∂b
∂pi ∂ri
(9.264)
e il simbolo iL indica l’operatore di Liouville relativo alla funzione hamiltoniana H. Il teorema di
Liouville ha molteplici conseguenze ed un profondo significato per le applicazioni di meccanica statistica,
in quanto permette di riformulare le equazioni del moto classico di un sistema di punti materiali in
termini di grandezze probabilistiche.
9.13. INTERPRETAZIONE STATISTICA
265
Tornando al nostro sistema soluto+solvente, l’operatore di Liouville si può scrivere come
iL =
∂
P ∂
+F
+ iL0
M ∂R
∂P
dove F = −
(9.265)
∂Uint
è la forza esercitata dal solvente sul soluto e iL0 è l’operatore che regola la variazione
∂R
nel tempo del moto del solvente quando la particella soluto sia fissa nello spazio. L’equazione di Liouville
è definita per una densità ρ(R, P, r, p, t), in modo tale che possiamo scrivere


∂ρ
∂
P ∂
= −{ρ, H} = − 
+F
+ iL0  ρ
M ∂R
∂t
∂P
(9.266)
Il nostro scopo è ricavare una descrizione relativa alla sola particella browniana, in cui l’effetto del
solvente sia stato “mediato”. Definiamo la relazione tra la distribuzione di probabilità del solo soluto e
P come la media di ρ su tutte le coordinate di solvente:
Z
P (R, P, t) =
drdpρ(R, P, r, p, t)
(9.267)
Una forma alternativa della precedente equazione è data introducendo l’operatore di proiezione
Z
P = ρ0
drdp . . .
(9.268)
dove ρ0 è la distribuzione di Boltzmann delle coordinate del solvente a soluto fisso, cioè rispetto
all’energia H0 . La (9.267) si può scrivere come
ρ0 P = Pρ
(9.269)
Possiamo ora trovare una equazione del moto per P ? Dobbiamo ricorrere ad un pò di algebra degli
operatori. Ricordiamo che l’operatore P ha le proprietà
P† = P
(9.270)
P2 = P
(9.271)
ossia è hermitiano e idempotente: la sua caratteristica è di proiettare la parte “rilevante” da una funzione
generica, dove per rilevante intendiamo la dipendenza dal soluto. Per la distribuzione ρ(t) possiamo
scrivere le seguenti identità
Pρ(t) = f (t)
(9.272)
(1 − P)ρ(t) = g(t)
(9.273)
∂f (t)
∂t
∂g(t)
∂t
= −PiL[f (t) + g(t)]
(9.274)
= −(1 − P)iL[f (t) + g(t)]
(9.275)
risolvendo formalmente l’ultima identità
g(t) = exp[−(1 − P)iLt]g(0) − i
Z t
0
dτ exp[−(1 − P)iLτ ](1 − P)Lf (t − τ )
(9.276)
266
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
e sostituendo nella penultima identità il risultato precedente si ottiene
∂f (t)
= −PLf (t) − iPL exp[−(1 − P)iLt]g(0) +
∂t
+ i
Z t
0
dτ iPL exp[−(1 − P)iLτ ](1 − P)Lf (t − τ )
(9.277)
che ha la forma di un’equazione chiusa in f . Tenendo ora conto delle identità (la prima ovvia, le altre
due di verifica un poco più complicata)
f
= ρ0 P
(9.278)
PiL = iL0
(9.279)
PiL0 (1 − P) = PF
∂
∂P
(1 − P)
(9.280)
possiamo giungere al risultato, esatto cioè ottenuto direttamente dalle equazioni complete del moto
classico
∂P (t)
= −
∂t
+
∂
P ∂P (t)
−
M ∂R
∂P
∂
Z t
∂P
0
Z
dτ
Z
drdpF exp[−(1 − P)iLt](1 − P)f (0)


∂
kT 
P P (t − τ )
+
drdpF exp[−(1 − P)iLτ ]Fρ0 
M
∂P
(9.281)
dove si è fatto uso dell’ipotesi che la media delle forze agenti sulla particella browniana, dovuta alle
particelle solvente, sia nulla. Questa formidabile espressione può essere ricondotta ad una forma simile
ad una equazione di Kramers-Klein per una particella browniana
∂P (t)
∂t
P ∂P (t)
=−
+
M ∂R
Z t
0


∂
∂ ˆ
kT 
ξ(τ ) 
+
P P (t − τ ) + I(t) + R(t)
dτ
M
∂P
∂P
(9.282)
ˆ
dove sono stati definiti il tensore di attrito generalizzato ξ(t),
il termine di correlazione iniziale I e la
correzione R
ξ(t) = hF exp[−(1 − P)iLt]Ftr i0
I(t) = −
R(t) =
∂
(9.283)
Z
drdpF exp[−(1 − P)iLt]ρ0 ∆χ
∂P
∂
Z t
∂P
0
(9.284)
Z
dτ
drdpFtr ×


∂
kT 
× {exp[−(1 − P)iLτ ] − exp[−iL0 τ ]} Fρ0 
P P (t − τ )
+
M
∂P
(9.285)
dove con h. . .i0 indichiamo la media di Boltzmann sulle coordinate di solvente
Z
h. . .i0 =
drdpρ0 . . .
(9.286)
e ∆χ = χ − hχi0 , dove χ è riferita alla preparazione iniziale del sistema
f (0) = ρ0 χ
(9.287)
9.13. INTERPRETAZIONE STATISTICA
267
A t = 0 possiamo supporre che il sistema sia costituito da un bagno in equilibrio con una qualche
distribuzione delle coordinate del soluto, cioè χ è funzione solo di R e P. Il termine di correlazione
iniziale va dunque a zero (perchè χ = hχi0 ).
Restano da considerare il termine correttivo ed il tensore di attrito generalizzato. L’ipotesi primaria
che possiamo utilizzare per semplificare l’equazione in P (t) è che la particella browniana abbia una
massa molto maggiore della massa delle particelle di solvente. Con un trattamento non triviale, Mazur
ed Oppenheimer furono sostanzialmente in grado di dimostrare che nel limite di m/M → 0 ed N → ∞,
a tempi sufficientemente lunghi (in pratica superiori ai tempi caratteristici dei moti delle particelle di
solvente)
ξ(t) → ξ1
(9.288)
R(t) → 0
(9.289)
il parametro di attrito ξ è calcolabile in questo limite in termini di grandezze molecolari, almeno formalmente. Come risultato, si ottiene l’equazione di Kramers-Klein per una particella Browniana

∂P (t)
∂t

∂
P ∂P (t)
kT 
P P (t)
=−
+ξ
+
M ∂R
M
∂P
(9.290)
268
CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI
Appendice A
Funzioni speciali
Questo capitolo è dedicato al riassunto delle proprietà di alcune classi di funzioni che ritornano spesso
nelle soluzioni di problemi della meccanica quantistica. Si tratta di un compendio molto breve, e senza
pretese di completezza, che ha il solo scopo di fornire un ‘formulario’ allo studente.
A.1
Integrali ellittici
Consideriamo gli integrali indefiniti1
·
Z
I=
¸
q
dxR x,
P (x)
(A.1)
dove R è una funzione razionale e P (x) è un polinomio di terzo o quarto grado. Si dimostra che I è
sempre riducibile ad una funzione elementare di
Z
I1 =
1
dx p
(1 −
Z
I2 =
x2 )(1
√
1 − k 2 x2
dx √
1 − x2
(A.3)
Z
I3 =
(A.2)
− k 2 x2 )
dx
(1 +
n2 x2 )
1
(1 − x2 )(1 − k 2 x2 )
(A.4)
p
che sono rispettivamente integrali ellittici di prima, seconda e terza specie nella forma di Legendre. La
quantità k è detta modulo degli integrali. Altre espressioni utili sono le seguenti
F (ψ, k)
=
E(ψ, k)
=
Rψ
0
Rψ
0
D(ψ, k) =
R
Π(ψ, n, k) = 0ψ dα
1
(1−k2 sin2 α)
dα √
q
dα (1 − k 2 sin2 α)
(A.5)
F (ψ,k)−E(ψ,k)
k2
1
√
(1+n2 sin2 α) (1−k2 sin2 α)
Gli integrali per ψ = π/2 si dicono integrali ellittici completi.
1
Nel seguito, se non altrimenti specificato si usa x per una variabile reale e z per una variabile complessa.
269
270
APPENDICE A. FUNZIONI SPECIALI
A.2
Funzione gamma
Definiamo la funzione gamma sotto forma di integrale di Eulero:
Γ(z) =
Z ∞
0
dttz−1 e−t
(A.6)
Per z = n + 1 (n intero) la funzione gamma coincide con il fattoriale di n:
Γ(n + 1) = n!
(A.7)
Vale la seguente espansione:
1
= zeγz Π∞
n=1
Γ(z)
·µ
¶
z
1+
e−z/n
n
¸
(A.8)
dove γ è la costante di Eulero:
µ
¶
γ = limm→∞ 1 +
1 1 1
1
+ + + ... +
− ln m = 0.5772156649 . . .
2 3 4
m
(A.9)
Di interesse è l’espansione per |z| → ∞ (formula di Stirling):
¶
√ µ
1
1
139
571
Γ(z) ∼ e−z z z−1/2 2π 1 +
+
−
−
+
.
.
.
12z 288z 2 51840z 3 2488320z 4
A.3
(A.10)
Funzione dell’errore
La funzione dell’errore è definita come:
2
erf(z) = √
π
Z z
0
2
dte−t
(A.11)
La funzione complementare erfc(z) è 1 − erf(z). Alcune relazioni utili sono le seguenti:
dn+1
2
2
erf(z) = (−1)n √ Hn (z)e−z
dz n+1
z
(A.12)
2 X (−1)n z 2n+1
erf(z) = √
z n=0 n!(2n + 1)
(A.13)
X
√
1 · 3 · . . . (2n − 1)
2
πzez erfc(z) ∼ 1 +
(−1)n
(2z 2 )n
n=1
Z
−(ax2 +2bx+c)
dxe
|z| → ∞
√
¶
µ
√
1 π b2 −ac
b
=
e a erf
ax + √
+ costante
2 a
a
(A.14)
(A.15)
A.4. FUNZIONI DI BESSEL
A.4
271
Funzioni di Bessel
Sia ν un numero reale non-negativo. Le funzioni di Bessel del primo tipo J±ν (z) e del secondo tipo
Y±ν (z) verificano la seguente equazione differenziale:
z2
d2 w
dw
+z
+ (z 2 − ν 2 )w = 0
2
dz
dz
(A.16)
Sono funzioni regolari, finite a z = 0; J±ν (z) ha un estremo superiore finito per <z → ∞. Le funzioni
di Bessel modificate I±ν (z) e Kν (z) sono soluzioni dell’equazione differenziale
z2
d2 w
dw
+z
− (z 2 + ν 2 )w = 0
dz 2
dz
(A.17)
II±ν (z) tende ad un valore finito per z → 0. Le funzioni di Bessel sono utili p.es. per la soluzione di
equazioni differenziali in problemi con una simmetria cilindrica (vedi II Dispensa). Valgono le seguenti
relazioni:
Jn (z) =
1
in π
In (z) =
1
π
A.5
Z π
Z π
0
0
dθeiz cos θ cos(nθ)
(A.18)
dθez cos θ cos(nθ)
(A.19)
Polinomi ortogonali
È data una funzione reale non negativa w(x) ed un intervallo [a, b]. Supponiamo che
Z b
a
dxxn w(x) esista
per n naturale (0,1,2, . . .), e che sia positivo per n = 0. Allora esiste una successione di polinomi p0 (x),
p1 (x), p2 (x) etc. determinata univocamente dalle condizioni:
1. pn (x) è un polinomio di grado n; il coefficiente qn di xn in pn (x) è positivo
2. i polinomi pn (x) sono ortogonali rispetto al prodotto scalare hf |gi =
hpm |pn i = δmn km
Z b
a
dxw(x)f (x)g(x):
(A.20)
dove km è la norma km = hpm |pm i. La successione costituisce un set di polinomi ortogonali su [a, b]
rispetto alla funzione peso w(x). Valgono le seguenti relazioni generali
1. Relazione di Christoffel-Darboux
X
n
pk (x)pk (y) =
k=0
qn pn+1 (x)pn (y) − px (x)pn+1 (y)
qn+1
x−y
(A.21)
2. Relazione ricorsiva
pn+1 (x) = (an x + bn )pn (x) − cn pn−1 (x) n ≥ 1
(A.22)
272
APPENDICE A. FUNZIONI SPECIALI
A.6
Polinomi di Legendre
I polinomi di Legendre Pn (x) sono definiti in [−1, 1]. Verificano l’equazione differenziale:
(1 − x2 )
d2 Pn (x)
dPn (x)
− 2x
+ n(n + 1)Pn (x) = 0
2
dx
dx
(A.23)
La funzione peso è w = 1, la norma è kn = 2/2n + 1. La relazione ricorsiva è:
(n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x)
(A.24)
dove P0 (x) = 1, P1 (x) = x.
A.7
Polinomi di Hermite
I polinomi di Hermite Hn (x) sono definiti in [−∞, ∞]. Verificano l’equazione differenziale:
dHn (x)
d2 Hn (x)
− 2x
+ 2nHn (x) = 0
dx2
dx
2
La funzione peso è w = e−x , la norma è kn =
(A.25)
√ n
π2 n!. La relazione ricorsiva è:
Hn+1 (x) = 2nxHn (x) − 2nHn−1 (x)
(A.26)
dove H0 (x) = 1, H1 (x) = 2x.
A.8
Polinomi di Laguerre
I polinomi di Laguerre Ln (x) sono definiti in [0, ∞]. Verificano l’equazione differenziale:
x
d2 Ln (x)
dLn (x)
+ nLn (x) = 0
+ (1 − x)
dx2
dx
(A.27)
La funzione peso è w = e−x , la norma è 1. La relazione ricorsiva è:
(n + 1)Ln+1 (x) = (2n + 1 − x)Ln (x) − nLn−1 (x)
dove L0 (x) = 1, L1 (x) = 1 − x.
(A.28)
Appendice B
L’atomo idrogenoide
L’hamiltoniano in unità atomiche è:
H=−
1 ˆ2
1 ˆ2
Z
∇R − ∇
e − ~
2mZ
2
|R − ~re |
(B.1)
~ e ~re la posizione del nucleo e dell’elettrone, e con ∇
ˆ 2R e ∇
ˆ e i relativi gradidove indichiamo con R
enti. Possiamo procedere come nell’Esercizio 1 ed introdurre le variabili di spostamento relativo
~ e ~rc = ~re +mZ R~ , dove M = 1 + mZ è la massa totale del
dell’elettrone e di centro di massa: ~r = ~re − R
M
sistema. Rispetto alle nuove coordinate l’hamiltoniano risulta definito come la somma dell’hamiltoniano
relativo al moto libero del baricentro con massa M e dell’hamiltoniano relativo al moto dell’elettrone
rispetto ad un nucleo a riposo, ed avente massa ridotta µ = mZ /M in unità atomiche. In unità atomiche
l’hamiltoniano separato risulta essere:
H=−
1 ˆ2
1 ˆ2 Z
∇ −
∇ −
2µ
2M c
r
(B.2)
dove ora r è la distanza tra il baricentro e l’elettrone. La parte relativa al baricentro determina il moto
traslazionale libero dell’atomo, e non sarà considerata oltre. La parte elettronica può essere scritta
come l’hamiltoniano di una particella di carica -1 che si muova nel campo di potenziale elettrostatico
generato da un nucleo immobile di carica Z, e avente massa µ:
H=−
1 ˆ2
Z
−
∇
r
2µ
(B.3)
Nel seguito considereremo µ ≈ 1: per Z = 1, assumendo per mZ la massa di un protone avremmo
µ = 0.9994. Il potenziale è a simmetria radiale. Possiamo perciò procedere risolvendo il sistema nel
seguente modo i) introduzione di coordinate sferiche (r, θ, φ); ii) fattorizzazione della funzione d’onda
in una parte angolare dipendente da θ e φ e in una parte radiale dipendente da r; iii) imposizione di
condizioni al contorno per il calcolo delle autoenergie. La parte angolare dell’autofunzione è data dalle
funzioni armoniche sferiche (ciò è vero per qualunque potenziale a simmetria sferica)
ΨE (r, θ, φ) = R(r)Ylml (θ, φ)
(B.4)
Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale:
·
¸
1 d 2 dR
Z
l(l + 1)
r
+2 E+ −
R=0
2
r dr dr
r
2r2
(B.5)
273
274
APPENDICE B. L’ATOMO IDROGENOIDE
Lo spettro degli autovalori sarà discreto per E < 0, e continuo per E > 0 (il potenziale coulombiano
tende a zero per r → ∞ e a −∞ per r → 0). L’equazione differenziale in R, con le condizioni al contorno
R finita per r → 0 e r → ∞ è riconoscibile come l’equazione che ha per soluzione delle funzioni note:
le funzioni associate di Laguerre (moltiplicate per l’esponenziale di −r). In definitiva gli autostati e le
autoenergie (in Hartree) dell’atomo di idrogeno sono:
Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ)
s
Rnl =
(n − l − 1)!Z l+1 2l+1
ρ Ln+l (ρ) exp(−ρ/2)
n2 [(n + l)!]3
En,l,ml = −
Z2
2n2
(B.6)
(B.7)
(B.8)
dove ρ = 2Zr/na; Lαn (ρ) è un polinomio di Laguerre di grado n ed ordine α. Gli autostati discreti sono
negativi e dipendono solo da 1/n2 .
Appendice C
Separazione del baricentro
È data una collezione di punti materiali, che per convenienza dividiamo in due sottoinsiemi ~ri , i =
~ i , p = 1, . . . , M , con masse Mi (nel seguito
1, . . . , N , con masse mi (nel seguito particelle ’leggere’) e R
particelle ’pesanti’). Definiamo l’hamiltoniano del sistema in unità atomiche
H=T +V
T =−
M
N
X
1 ˆ2 X
∇ −
i=1
V =
(C.1)
X
2mi
i
1 ˆ2
∇p
2M
p
p=1
V (~ri − ~rj ) +
i<j
X
(C.2)
~ p) +
V (~ri − R
X
~p − R
~ q)
V (R
(C.3)
p<q
i,p
dove l’unica assunzione è che l’energia potenziale sia data da sole interazioni a coppie dipendenti dalle
distanze vettoriali relative. Vogliamo dimostrare che il baricentro del sistema è una coordinata separabile. A questo scopo, introduciamo il nuovo set di coordinate:
´
³P
P
N
1
~p
~c =
mi~ri + M Mp R
R
~xi
~
Qp
=
=
MT
1
~ri − M
i=1
p=1
PM
~
i = 1, . . . , N
p=1 Mp Rp
~
~
Rp − Rp+1
p = 1, . . . , M
(C.4)
dove M è la massa totale delle particelle pesanti, MT è la massa totale del sistema; abbiamo definito cioè
il vettore del centro di massa del sistema, le N coordinate delle particelle leggere relative al baricentro
delle particelle pesanti, ed M − 1 coordinate vettoriali ottenute come le prime m − 1 differenze tra i
~ p : complessivamente i gradi di libertà del sistema sono 3 + 3N + 3(M − 1) = 3(N + M ).
vettori R
~ c . Possiamo facilmente esprimere le vecchie
Dimostriamo che l’energia potenziale non dipende da R
~ 2, . . . , R
~ M e ~r1 , . . . , ~rN in funzione delle nuove coordinate e di R
~ 1:
coordinate R
P
~
~p =
~ 1 − p−1 Q
p>1
R
R
q=1 q
(C.5)
P
P
p−1 ~
M
1
~ 1 + ~xi −
Qq
~ri = R
M
p=2
q=1
~ 1 è funzione di tutte le nuove coordinate, compreso R
~ c ; ma nell’energia potenziale compaiono solo
R
~ c . Calcoliamo ora l’operatore
differenze tra le posizioni delle particelle, e quindi V è indipendente da R
di energia cinetica nelle nuove coordinate vettoriali. Il gradiente relativo alla i-esima particella leggera
è
ˆ i = mi ∇
ˆc + ∇
ˆx
∇
(C.6)
i
MT
275
276
APPENDICE C. SEPARAZIONE DEL BARICENTRO
ˆ c rispetto a R
~ c . Segue che
ˆ x indichiamo il gradiente rispetto ~xi , con ∇
dove con ∇
i
1 ˆ2
mi ˆ 2
1 ˆ2
2 ˆ ˆ
∇i = 2 ∇
∇xi +
∇c · ∇xi
c +
mi
mi
MT
MT
(C.7)
Il gradiente relativo alla p-esima particella pesante è
n
X
ˆ p = MP ∇
ˆ c − MP
ˆx + ∇
ˆ Qp − ∇
ˆQ
∇
∇
p−1
MT
M i=1 i
(C.8)
ˆ Qp indichiamo il gradiente rispetto Q
~ p . Segue che
dove con ∇
1 ˆ2
∇ =
MP p
−
³
´2
MP ˆ 2 MP X ˆ
ˆ Qp − ∇
ˆQ
ˆx + 1 ∇
∇
+
∇
·
∇
x
c
p−1
i
j
M i,j
MP
MT2
n
N
´
´ X
³
2MP X
2 ³ˆ
ˆc · ∇
ˆx + 2 ∇
ˆc · ∇
ˆ Qp − ∇
ˆQ
ˆ
ˆx
−
·
∇
∇
∇
−
∇
Q
Q
p
p−1
p−1
i
i
MT M i=1
MT
M
i=1
(C.9)
Si può verificare che sostituendo le precedenti equazioni nell’espressione per l’energia cinetica otteniamo:
M
N
´2
X
1 ³ˆ
1 Xˆ
1 ˆ2 X
1 ˆ2
ˆ
ˆQ
T =−
∇c −
∇xi −
∇xi · ∇xj −
∇Qp − ∇
p−1
2MT
2mi
2M i,j
2MP
p=1
i=1
(C.10)
il primo termine è relativo al moto traslazionale libero del baricentro; il secondo all’energia cinetica
delle particelle leggere corretto dal terzo termine detto di polarizzazione di massa; il quarto è l’energia
~ p.
cinetica delle particelle pesanti espressa nelle coordinate interne Q
Appendice D
Problema generalizzato agli autovalori
Consideriamo l’equazione di Schrödinger indipendente dal tempo per le autofunzioni dell’operatore di
Hamilton relativo ad un sistema definito rispetto alle coordinate q. Una (auto)-funzione Ψ(q) è un
elemento dello spazio di Hilbert delle funzioni in q, e sarà indicata nel seguito con il ket |Ψi
H|Ψi = E|Ψi
(D.1)
Introduciamo ora un insieme di funzioni linearmente indipendenti che costituiscano una base, non
necessariamente ortonormale, nello spazio di Hilbert |v1 i, |v2 i, . . .; possiamo perciò esprimere |Ψi come
una combinazione lineare degli elementi della base:
|Ψi =
X
cj |vj i
(D.2)
j
Sostituendo nella (D.1) e premoltiplicando per il generico bra hvi |:
X
hvi |H|vj icj = E
j
X
hvi |vj icj
(D.3)
j
che in notazione matriciale si può scrivere come
Hc = ESc
(D.4)
dove Hij = hvi |H|vj i, Sij = hvi |vj i. Se la base è ortonormale, la matrice di overlap S coincide con la
matrice unità, Sij = δij , e dunque
Hc = Ec
(D.5)
In pratica, se la dimensione dello spazio hilbertiano considerato è infinita, il set di funzioni di base
utilizzato viene troncato ad un numero finito N , introducendo un’approssimazione che dipende da N .
Soluzioni non-triviali del sistema N -dimensionale (D.4) si ottengono dalle radici dell’equazione secolare:
det(H − ES) = 0
(D.6)
Si ottengono N autovalori Ei , i = 1, . . . , N cui corrispondono N autovettori ci . Se si definisce la matrice
C le cui colonne sono autovettori, Cij = (cj )i la matrice diagonale i cui elementi sono diagonali sono
gli autovalori, Eij = δij Ej , risulta che:
HC = SCE
(D.7)
277
278
APPENDICE D. PROBLEMA GENERALIZZATO AGLI AUTOVALORI
Appendice E
Valore di attesa per un guscio chiuso
Assumiamo che le funzioni orbitali (spaziali) siano ortonormali:
Z
dqµ φ∗i (µ)φj (µ) = hφi |φj i = δi,j
(E.1)
Il valore di attesa dell’hamiltoniano H si può dividere in un contributo monoelettronico e in un termine
bi-elettronico. Indicando con Si il generico spinorbitale
E=
X
(−)P hS1 (1)S2 (2) . . . SN (N )|
PN
n=1 ĥ(n)
+
P
P
1
n<n0 rn,n0 |P̂ S1 (1)S2 (2) . . . SN (N )i
(E.2)
Il contributo monoelettronico si può calcolare distinguendo i vari casi:
Permutazione identica. Somma di N/2 termini in ordine zero:
N
X
N/2
hSn (n)|ĥ(n)|Sn (n)i = 2
n
X
N/2
hφi (n)|ĥ(n)|φi (n)i = 2
i=1
X
hi
(E.3)
i=1
Altre permutazioni. Contributo nullo, a causa dell’ortogonalità di spin.
Si procede in modo analogo per il contributo bi-elettronico:
Permutazione identica, n dispari, n0 = n + 1. Somma di integrali a due centri:
X
n disp.
hSn (n)Sn (n)| r 1 0 |Sn (n)Sn (n)i =
nn
,n0 =n+1
N
X
i=1
N/2
hφi (n)φi (n0 )| r 1 0 |φi (n)φi (n0 )i =
nn
X
Jii (E.4)
i=1
Permutazione identica, altri valori di n e n0 . Somma di integrali a due centri:
X
n,n0
N/2
hSn (n)Sn0 (n0 )| r 1 0 |Sn (n)Sn0 (n0 )i
nn
=4
X
i<j
N/2
hφi (n)φj (n0 )| r 1 0 |φi (n)φj (n0 )i
nn
=4
X
Jij
(E.5)
i<j
Permutazioni di due elettroni. Somma di integrali a due centri:
−
X
n<n0
N/2
hSn (n)Sn0 (n0 )| r 1
|Sn0 (n)Sn
0
nn
(n0 )i
= −2
X
i<j
279
N/2
hφi (n)φj (n0 )| r 1 0 |φj (n)φi (n0 )i
nn
= −2
X
i<j
Kij (E.6)
280
APPENDICE E. VALORE DI ATTESA PER UN GUSCIO CHIUSO
Altre permutazioni. Contributo nullo, a causa dell’ortogonalità della parte spaziale.
Poichè Jij = Jji , Kij = Kji , Jii = Kii , resta l’espressione:
N/2
E=2
X
i
N/2
hi +
X
(2Jij − Kij )
i,j
dove Jij e Kij sono gli integrali di Coulomb e di scambio.
(E.7)
Appendice F
Separabilità σ − π (Likos-Parr)
Le condizioni di separabilità σ − π per una funzione d’onda multielettronica si possono scrivere nella
forma:
1. è dato un sistema di N elettroni, nσ di tipo σ, nπ di tipo π:
nσ + nπ = N
(F.1)
2. la funzione d’onda è approssimata da un prodotto (simmetrizzato) di una funzione σ ed una
funzione π:
Ψ(1, 2, . . . , N ) = RΨσ (1, 2, . . . , nσ )Ψπ (nσ + 1, nσ+1 , . . . , nπ )
(F.2)
R è l’operatore somma di tutte i possibili scambi tra elettroni σ e π;
3. le funzioni σ e π sono combinazioni lineari di determinanti di Slater, costruiti a partire da opportuni
spin-orbitali
P
Ψσ = k ak Dk {Dk } ←- {SσI }
P
Ψπ = l bl Dl
{Dl } ←- {SπJ }
(F.3)
4. le due funzioni d’onda sono normalizzate:
hΨσ |Ψσ i = hΨπ |Ψπ i = hΨ|Ψi
(F.4)
Le condizioni 1.-4. costituiscono l’approssimazione di separabilità σ − π.
La funzione d’onda complessiva (nel caso Ψσ e Ψπ siano date ciascuna da un solo determinante di
Slater) è data da:
¯
¯
Sσ1 (1)
¯
¯
..
¯
¯
.
¯
¯ S (n )
¯
¶
µ
σ1 σ
1 1/2 ¯¯
Ψ(1, 2, . . . , N ) =
¯
N!
¯
¯ Sσ1 (nσ + 1)
¯
¯
..
¯
.
¯
¯
¯
Sσ1 (N )
...
Sσnσ (1)
..
.
Sπnσ +1 (1)
..
.
...
...
Sσnσ (nσ )
Sπnσ +1 (nσ )
...
. . . Sσnσ (nσ + 1)
..
.
...
Sσnσ (N )
281
Sπnσ +1 (nσ + 1) . . .
..
.
Sπnσ +1 (N )
...
¯
¯
¯
¯
¯
¯
¯
SπN (nσ ) ¯¯
¯
¯(F.5)
¯
¯
SπN (nσ + 1) ¯¯
¯
..
¯
.
¯
¯
SπnN (N ) ¯
SπN (1)
..
.
282
APPENDICE F. SEPARABILITÀ σ − π (LIKOS-PARR)
L’hamiltoniano molecolare elettronico si può scrivere nel modo consueto, evidenziando i due gruppi di
elettroni:
(0)
H = H(0)
σ + Hπ + Hσπ
(0)
Hi
(F.6)
n
=−
n
i
i
X Zk
X
1
1X
ˆ 2µ −
∇
+
2 µ
r
r
µ,ν µν
µ,k µk
nπ
nσ X
X
1
Hσπ =
µ
ν
nπ
X
core
ĥµ
µ
core
(F.7)
(F.8)
rµν
Hπ = H(0)
π + Hσπ =
ĥµ
i = σ, π
+
nπ
X
1
µ<ν
(F.9)
rµν
nσ
X
1 ˆ 2 X Zk
1
=− ∇
+
µ−
2
rµk
ν rµν
k
(F.10)
Se si trascura lo scambio σ − π, il valore di attesa è dato dalla somma di valori di attesa:
(0)
(0)
hHiav = hHπ + Hσ iav = hΨπ |Hπ |Ψπ i + hΨσ |Hσ |Ψσ i = Eπ + Eσ(0)
(F.11)
(0)
Si può considerare Eσ costante; resta definito l’operatore π−HF, rispetto ai soli elettroni π:
core
F̂π = ĥ
+
X
j
(2Jˆj − K̂j )
(F.12)
Appendice G
Alcune proprietà della funzione delta di
Dirac
Per ogni funzione continua F (x) vale che
Z b
a
dxF (x)δ(x) = F (0)
(G.1)
se e solo se 0 è compreso nell intervallo [a, b]. Valgono le seguenti rappresentazioni analitiche della
funzione delta(x):
sin xL
πx
Z
1 ∞
δ(x) =
dk exp(ikx)
2π −∞
1
a
δ(x) = lim
2
a→0 π a + x2
δ(x) =
lim
(G.2)
L→∞
(G.3)
(G.4)
La derivata della funzione δ(x) è definibile. Il calcolo degli integrali contenenti δ 0 (x) si effettua per parti,
e ponendo δ(x) = 0 per x 6= 0:
Z b
a
δ 0 (x)F (x) = −F 0 (0)
(G.5)
Altre uguaglianze valide sono
µ
1
L cos Lx sin Lx
δ (x) =
lim
−
π L→∞
x
x2
0
xδ (x) = −δ(x)
¶
0
(G.6)
(G.7)
283
284
APPENDICE G. ALCUNE PROPRIETÀ DELLA FUNZIONE DELTA DI DIRAC
Appendice H
Teoria delle perturbazioni dipendenti
dal tempo
Supponiamo di aver definito un sistema mediante un’hamiltoniano H0 . Al tempo t = 0 accendiamo in
modo istantaneo un campo perturbativo dipendente dal tempo, H0 (t), avente la forma




0
t<0
H (t) =
V (t) 0 ≤ t ≤ τ


 0
t>τ
0
(H.1)
Siano |ni le autofunzioni dell’hamiltoniano del sistema imperturbato H0 , con autovalori En . Per semplicità consideriamo solo il caso di uno spettro discreto.
Vogliamo determinare la funzione d’onda del sistema perturbato
ih̄
∂Ψ
= [H0 + H0 (t)]Ψ
∂t
(H.2)
Poichè le funzioni |ni costituiscono un set completo o base ortonormale dello spazio hilbertiano delle
funzioni d’onda del sistema, possiamo scrivere Ψ come
Ψ=
X
an (t)|ni exp(−iEn t/h̄)
(H.3)
n
Assumiamo che in assenza di perturbazione il sistema sia preparato nell’autostato |ii
Ψin = ai |ii exp(−iEi t/h̄)
t<0
(H.4)
cioè an (t) = δni per t < 0. Durante la perturbazione, 0 ≤ t ≤ τ , i coefficienti cambiano fino a raggiungere
i valori ani (τ ). Al cessare della perturbazione, la funzione d’onda è perciò
Ψfin =
X
ani (τ )|ni exp(−iEn t/h̄)
(H.5)
n
La probabilità che il sistema sia in uno stato stazionario |f i di energia Ef è perciò data dal coefficiente
af l (τ ):
wi→f = |af i (τ )|2
(H.6)
285
286
APPENDICE H. TEORIA DELLE PERTURBAZIONI DIPENDENTI DAL TEMPO
Il calcolo dei coefficienti dipendenti dal tempo si può effetturare con un metodo perturbativo. Permoltiplicando l’equazione (H.2) per il bra hf | ed integrando, otteniamo
X
ih̄ȧf (t) =
Vf i (t) exp(iωf i t)ai (t)
(H.7)
i
dove Vf i (t) = hf |V (t)|ii e h̄ωf i = Ef − Ei . Integriamo con la condizione iniziale
af (0) = δf i
(H.8)
Il sistema di equazioni (H.7) si può integrare numericamente noti i coefficienti Vf i (t). In pratica, se τ
non è grande, si può supporre che la variazione dei coefficienti sia piccola. Applicando il metodo delle
approssimazioni successive 1 si ottiene al primo ordine per f 6= i
(1)
af i
Z t
1
=
ih̄
0
dt0 Vf i (t0 ) exp(iωf i t0 )
(H.9)
da cui segue che
¯
wi→f =
H.1
¯
Z
¯2
1 ¯¯ τ
dtVf i (t) exp(iωf i t)¯¯
2 ¯
h̄
0
(H.10)
Probabilità di transizione nell’unità di tempo
La probabilità di transizione si semplifica se V (t) ≡ V , cioè se la perturbazione non cambia nel tempo
nell’intervallo τ . Allora, se Vf i = hf |V |ii, si può esprimere l’eq. (H.10) nella forma
wi→f =
2
|Vf i |2 f (Ef − Ei )
h̄2
(H.11)
dove la funzione f (E) ha la forma
f (E) = h̄2
1 − cos(Eτ /h̄)
E2
(H.12)
per τ >> h̄En , cioè se la durata della perturbazione è molto maggiore dei tempi caratteristici del sistema
imperturbato, la funzione f (E) degenera in un delta di Dirac f (E) → τ πh̄δ(E), e quindi la probabilità
di transizione è data da:
wi→f =
2π
|Vf i |2 τ δ(Ef − Ei )
h̄
(H.13)
la probabilità di transizione nell’unità di tempo è perciò
pi→f =
wi→f
2π
=
|Vf i |2 δ(Ef − Ei )
τ
h̄
1
(H.14)
È dato un sistema di equazioni differenziali al primo ordine, non autonomo ȧ(t) = f [a(t), t] con le condizioni iniziali
a(0) = 0. Allora l’approssimazione di ordine k, a(k) (t), si ottiene dall’approssimazione di ordine k − 1 come
Z
a(k) (t) =
t
dt0 f[a(k−1) (t0 ), t0 ]
0
nella tacita ipotesi che la successione cosı̀ definita converga e converga alla soluzione del sistema per k → ∞.
Appendice I
Matrice densità
Consideriamo un sistema rappresentato in assenza di interazioni con il resto dell’universo, dall’hamiltoniano
H0 , avente autofunzioni |ketn ed uno spettro discreto di livelli energetici corrispondenti En . La funzione
d’onda generica del sistema è
Ψ=
X
an |ni
(I.1)
n
Una proprietà osservabile rappresentata dall’operatore B avrà il seguente valor medio:
B=
X
a∗n am Bnm
(I.2)
mn
dove Bnm = hn|B|mi. Supponiamo ora che il sistema non sia descritto in modo completo, da una
funzione d’onda completamente nota: il sistema può essere per esempio una parte, o sottosistema
caratterizzato dalle coordinate generiche r, di un sistema più grande, in cui le coordinate restanti q
non sono descritte se non in termini di determinate proprietà medie. Il valor medio di una proprietà
osservabile B, in generale agente sulle sole coordinate r del sottosistema di interesse, sarà in generale
descritto da un’espressione analoga all’eq. (I.2)
B=
X
ρmn Bnm
(I.3)
mn
la matrice ρmn è detta matrice statistica o matrice densità, e può essere considerata come formata
dagli elementi di un operatore ρ̂ rispetto alla base |ni. Formalmente, il valor medio di B si può scrivere
come la traccia del prodotto degli operatori ρ̂ e B:
B=
X
(ρ̂B)nn = Tr(ρ̂B)
(I.4)
n
Si noti come:
1. la matrice statistica può essere determinata rispetto a qualunque sistema completo di funzioni
d’onda, non solo relativamente agli autostati del sottosistema di interesse
2. in particolare, sia Ψ(r, q) la funzione d’onda del super-sistema r + q che in generale non è nota.
Il valor medio di un osservabile B è calcolabile come
Z Z
B=
drdqΨ∗ (r, q)BΨ(r, q)
(I.5)
287
288
APPENDICE I. MATRICE DENSITÀ
che può essere riscritto in termini di un operatore secondo le espressioni
Z
ρ(r, r0 ) =
dqΨ(r, q)Ψ∗ (r0 , q)
(I.6)
dr[Bρ(r, r0 )]r=r0
(I.7)
Z
B =
La relazione tra la matrice ρnm e la funzione ρ(r, r0 ) è ottenuta come
ρ(r, r0 ) =
X
mn
ρmn |ni∗r0 |mir
(I.8)
L’operatore ρ̂ gode delle seguenti proprietà: i) è hermitiano, ii) gli elementi diagonali ρnn sono positivi
e iii) soddisfano alla condizione di normalizzazione Trρ̂ = 1. L’equazione di evoluzione temporale
per la matrice densità si può determinare nel caso di un sistema isolato. Utilizzando l’operatore di
commutazione, l’equazione di evoluzione temporale richiesta è
∂ ρ̂
∂t
=
i
[ρ̂, H0 ] = iLhatρ
h̄
(I.9)
detta equazione (quantistica) di Liouville per la matrice densità. L’operatore iL = [. . . , H] è
detto operatore (quantistico) di Liouville: si confronti con l’eq. (8.44) che esprime l’analogo classico.
La condizione di stazionarietà implica che ρ̂ commuti con H0 Nella rappresentazione dell’energia, ciò
equivale alla condizione che ρmn sia diagonale. Nella meccanica statistica quantistica, un sistema isolato
in equilibrio è perciò descritto dagli elementi diagonali positivi e indipendenti dal tempo della matrice
densità.
Bibliografia
Meccanica classica
[1] L.D. Landau, E.M. Lifŝits, Meccanica (Editori Riuniti, Roma, 1976)
[2] H. Goldstein, Classical mechanics (Addison-Wesley, Reading MA, 1980)
[3] R.C. Tolman, The principles of statistic mechanics (Dover, New York, 1979)
[4] R.N. Zare, Angular momentum (Wiley, New York, 1988)
[5] F.R. Gantmacher, Lezioni di meccanica analitica (Editori Riuniti, Roma, 1980)
[6] G.M. Ewing, Calculus of variations with applications (Dover, New York, 1985)
Testi di interesse generale
[7] B.B. Berne, in Physical Chemistry: an Advanced Treatise, Vol. VIII B, H. Eyring, D. Henderson e
W. Jost Eds. (Academic press, New York, 1971), Cap. 9.
[8] M.P. Allen e D.J. Tildesley, Computational Simulation of Liquids, Clarendon, 1987.
[9] R.J. Jacob, in Physical Chemistry: an Advanced Treatise, Vol. XI A, Cap. 1.
[10] S. Lang, Algebra Lineare, (Boringhieri, Torino, 1984).
[11] D. Henderson, in Physical Chemistry: an Advanced Treatise, Vol. XI A, Cap. 4.
[12] I.S. Gradshtein e I.M. Ryzhik, Table of Integrals, Series and Products (Academic Press, New York,
1972).
Probabilità e variabili stocastiche
[13] N.G. Van Kampen, Stochastich Processes in Physics and Chemistry (North-Holland, Amsterdam,
1980).
[14] H. Haken, Rev. Mod. Phys., 47, 67 (1975).
[15] D.A. McQuarrie, in Physical Chemistry: an Advanced Treatise, Vol. XI B.
289
290
BIBLIOGRAFIA
[16] J.T. Hynes e J.M. Deutch, in Physical Chemistry: an Advanced Treatise, Vol. XI B.
[17] A. Kolmogorov, Grundberiffe der Wahrscheinlichkeitsrechnung, Ergebn. Mathem. Grenzgeb., 2,
n. 3 (springer, Berlin 1933); o nella traduzione inglese Foundations of the Theory of Probability
(Chelsea Press, New York 1950).
Complementi matematici
[18] C.L. Perrin, Mathematics for Chemists, (Wiley, New York, 1970).
[19] M. Abramowitz e I. Stegun, Handbook of Mathematical Functions, (Dover, New York, 1972).
[20] H.D. Ikramov, Linear Algebra: Problems Book, (Mir Publishers, Mosca, 1983).
[21] V.I. Smirnov, Corso di Matematica Superiore II, (Editori Riuniti, Roma, 1981).
Metodi quantistici avanzati
[22] J. Gao, Methods and applications of combined quantum mechanical and molecular mechanical
potentials, p.119-185 in Reviews in Computational Chemistry, vol. 7, 1996.
[23] A. Warshel e M. Levitt, J. Mol. Biol.,100 , 13213 (1976).
[24] U.C. Singh e P.A. Kollman, J. Comput. Chem.,7 ,718 (1986).
[25] J. Aqvist e A. Warshel, Chem. Rev., 93, 2523 (1993).
[26] M.J.S. Dewar, E.G. Zoebisch, E.A. Healy e J.J.P. Stewart, J. Am. Chem. Soc.,107, 3902 (1985).
[27] P.D. Lyne, M. Hodoscek e M. Karplus, J Phys. Chem. A, 103, 3462 (1999).
[28] Y.S. Lee, M. Hodoscek e M. Karplus, Biophys. Chem., 70(3), 203 (1998).
[29] Z. Barandiaran e L. Seijo, J. Chem. Phys., 89(9), 5739 (1988).
[30] R. V. Stanton, D. S. Hartsough e K. M. Merz, J. Phys. Chem., 97, 11868 (1993).
[31] D. Wei e D.R. Salahub, Chem. Phys. Lett., 224, 291 (1994).
[32] X.P. Long, J.B. Nicholas, M.F. Guest e R.L. Ornstein, J. Mol. Struct., 412(1-2), 121 (1997).
[33] M. Eichinger, P. Tavan, J. Hutter e M. Parrinello, J. Chem. Phys., 110(21), 10452 (1999).
[34] P. Sherwood, Modern Methods and Algorithms of Quantum Chemistry, vol. 1,257 (2000).
[35] Y.Q. Tu e A. Laaksonen, J. Chem. Phys., 1999, 111(16) , 7519 (1999).
[36] D. Bakowies e W. Thiel, J. Phys. Chem., 100, 10580 (1996).
[37] A. Warshel e R. M. Weiss, J. Am. Chem. Soc., 102, 6218 (1980).
BIBLIOGRAFIA
291
[38] S.P. Webb e M. S. Gordon, J. Phys. Chem. A, 103, 1265 (1999).
[39] J. Gao, P. Amara, C. Alhambra e M.J. Field, J. Phys. Chem. A, 102, 4714 (1998).
[40] A. Warshel e M. Levitt, J. Mol. Biol., 103, 227 (1976).
[41] I. Antes e W. Thiel, J. Phys. Chem. A, 103(46), 9290 (1999).
[42] D. Das, K.P. Eurenius, E. Billings, P. Sherwood, D.C. Chatfield, M. Hodoscek e B.R. Brooks, J.
Chem. Phys., vol. 117, N. 23, 10534 (2002).
[43] M. Swart, Int. J. of Quant. Chem., vol. 91, 177 (2003).
[44] V. Thery, D. Rinaldi, J.L. Rivail, B. Maigret e G.G. Ferenczy, J. Comput. Chem., 15(3), 269
(1994).
[45] N. Reuter, A. Dejaegere, B. Maigret e M. Karplus, J. Chem. Phys. A, 104, 1720 (2000).
[46] V. Kairys e J. H. Jesen, J. Chem. Phys. A, 104, 6656 (2000).
[47] M.P. Allen e D.J. Tildesley, Computer Simulations of Liquids, Oxford University Press, London,
1987
[48] D. Beglov e B. Roux, J. Chem. Phys, 100, 9050 (1994).
[49] M.J. Field, P.A. Bash e M. Karplus, J. Comput. Chem., 11, 700 (1990).
[50] F. Maseras e K. Morokuma, J. Comp. Chem., 16(9),1170 (1995).
[51] K. Breuer, J. H. Teles, D. Demuth, H. Hibst, A. Schafer, S. Brode e H. Domgorgen, Angew. Chem.
Int. Ed. Engl., 38(1), 1401 (1999).
[52] S. Dapprich, I. Komaromi, K.S. Byun, K. Morokuma e M.J. Frisch, J. Mol. Struct. (THEOCHEM),
1-21, 461 (1999).
[53] J.A. Gascon e V.S. Batista, Biophys. J., 87, 2931 (2004).
[54] M. Svensson, S. Humbel, R.D.J. Froese, T. Matsubara, S. Sieber e K. Morokuma, J. Phys. Chem.,
100, 19357 (1996).
[55] M. Torrent, T. Vrenen, D.G. Musaev, K. Morokuma, O. Farkas e H.B. Schlegel, J. Am. Chem.
Soc., vol. 124, N.2 (2002).
[56] L.L. Ho e A.D. MacKerel Jr., J. Phys. Chem., 100, 4466 (1996).
[57] D.S. Hartsough e K.M. Merz Jr., J. Phys. Chem., 99, 11266 (1995).
[58] P.D. Lyne, A.J. Mulholland e W.G. Richards, J. Am. Chem. Soc., 117, 11345 (1995).
[59] H. Li, A.W. Hains, J.E. Everts, A.D. Robertson e J.H. Jensen, J. Phys. Chem. B, 106, 3486 (2002).
[60] M.A. Thompson, J. Am. Chem. Soc., 117, 11341 (1995).
292
BIBLIOGRAFIA
[61] T. Matsubara, F. Maseras, N. Koga e K. Morokuma, J. Phys. Chem., 100, 2573 (1996).
[62] L. Deng, T.K. Woo, L. Cavallo , P.M. Margl e T. Ziegler, J. Am. Chem. Soc., 119, 6177 (1997).
[63] J. Gao, J. Phys. Chem., 96, 537 (1992).
[64] J. Gao, J. Am. Chem. Soc., 116, 9324 (1994).
[65] H. Liu, F. Muller-Plathe e W.F. van Gunsteren, J. Chem. Phys., 102, 1722 (1995).
[66] P.A. Bash, M.J. Field, R.C. Davenport, G.A. Petsko, D. Ringe e M. Karplus, Biochem., 30, 5826
(1991).
[67] L. Ridder, J.N. Harvey, I.M.C.M. Rietjens, J. Vervoort e A.J. Mulholland, J. Phys. Chem. B, 107,
2118 (2003).
[68] M.C. Hutter, J.M. Hughes, J.R. Reimers e N.S. Hush, J. Phys. Chem. B, 103, 4906 (1999).
[69] C.S. Carmer, B. Weiner e M. Frenklach, J. Chem. Phys., 99, 1356 (1993).
[70] S. Skokov, C.S. Carmer, B. Weiner e M. Frenklach, Phys. Rev. B., 49, 5662 (1994).
[71] K. Raghavachari e M. D. Halls, Mol. Phys., 102, 381 (2004).
[72] Y. Joung, C. H. Choi e M. S. Gordon, J. Phys. Chem. B, 105, 4039 (2001).
[73] H.S. Lee, C.H. Choi e M.S. Gordon, J. Phys. Chem. B, 109, 5067 (2005).
[74] S.T. Bromley, S.A. French, A.A. Sokol, C.R.A. Catlow e P. Sherwood, J. Phys. Chem. B, 107,
7045 (2003).
[75] C.H. Choi e M. S. Gordon, J. Am. Chem. Soc., 124, 6162 (2002).
[76] K. Bolton, J. Mol. Struct. (Theochem), 632, 145 (2003).
[77] Y.A. Mantz, F.M. Geiger, L.T. Molina e B.L. Trout, Chem. Phys. Lett., 348, 285 (2001).