Chimica Teorica Metodi per la descrizione di processi molecolari in fasi condensate Antonino Polimeno Dipartimento di Scienze Chimiche Università degli Studi di Padova Indice generale 1 Richiami di meccanica classica 11 1.1 Punti materiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2 Sistemi di particelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3 Momento angolare e forza totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.4 Equazioni di Lagrange e di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5 Approfondimento: formalismi di Lagrange e Hamilton . . . . . . . . . . . . . . . . . . . 17 1.5.1 Principio di D’Alembert e equazioni di Lagrange . . . . . . . . . . . . . . . . . . 19 1.5.2 Equazioni di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.5.3 Principio di Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.5.4 Parentesi di Poisson e trasformazioni canoniche . . . . . . . . . . . . . . . . . . 24 1.5.5 Teorema di Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2 Dinamica molecolare: metodologie ed applicazioni 29 2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2 Potenziali di interazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3 Liquidi molecolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.3.1 Leggi del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3.2 Sistemi termodinamici e condizioni di simulazione . . . . . . . . . . . . . . . . . . . 33 2.3.3 Osservabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Metodi computazionali di MD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.4.1 Metodi alle differenze finite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.5 Molecole lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.6 Esempio: Studio di un fluido atomico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.6.1 Il sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.6.2 Metodo di calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.6.3 Codice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.7 Introduzione al metodo Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.8 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.8.1 Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.9.1 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.9.2 Altri insiemi termodinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.4 2.9 1 2 INDICE GENERALE 2.10 Esempio: studio conformazionale di una catena alchilica . . . . . . . . . . . . . . . . . . . . 65 2.10.1 Il sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.10.2 Metodo di calcolo e codice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3 Presentazione analitica della meccanica quantistica 71 3.1 Operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.2 Autofunzioni ed autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.3 Il principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 3.4 Verifica del principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.5 Meccanica classica e meccanica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . 78 3.6 Moto semi-classico 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Formalismo algebrico della meccanica quantistica 81 4.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.2 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.3 Vettori e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.4 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.5 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.6 Trasformazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.7 Problemi agli autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.8 Funzioni di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.10 Spazi di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.11 Operatori lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.12 Postulati della quantomeccanica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.13 Il metodo variazionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.14 Perturbazioni indipendenti dal tempo per sistemi non-degeneri . . . . . . . . . . . . . . . . 106 4.15 Sistemi in ordine zero con autostati degeneri . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.16 Sistemi risolvibili analiticamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.16.1 Fuga dal pozzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.16.2 Una scatola con una barriera interna . . . . . . . . . . . . . . . . . . . . . . . . . . 113 4.16.3 Scatola tridimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.16.4 Particella in e su un anello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4.16.5 Particella in e su una sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.16.6 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 4.16.7 Potenziale di Morse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 4.16.8 Atomo idrogenoide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 5 Metodi di base della chimica quantistica 127 5.1 Momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 5.2 Autovalori ed autovettori dei momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . 128 5.3 Forma esplicita del momento angolare orbitale . . . . . . . . . . . . . . . . . . . . . . . . . 130 INDICE GENERALE 5.4 5.5 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 131 131 132 134 135 138 140 142 143 144 146 148 150 151 154 156 156 157 158 161 162 164 166 167 169 172 . . . . . . . . 181 181 182 184 185 187 187 188 189 7 Cenni a metodi semiempirici e tecniche avanzate 7.1 Metodi semiempirici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Metodo di Hückel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.2 Neglect-of-differential-overlap (NDO) . . . . . . . . . . . . . . . . . . . . . . . . . 191 191 191 194 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13 5.14 5.15 5.16 Il rotatore rigido . . . . . . . . . . . . . . . . . . . . . . . . Approfondimento: momenti angolari . . . . . . . . . . . . 5.5.1 Accoppiamento di due momenti angolari . . . . . . 5.5.2 Accoppiamento di tre o più momenti angolari . . . 5.5.3 Rotazioni . . . . . . . . . . . . . . . . . . . . . . . 5.5.4 Matrici di Wigner . . . . . . . . . . . . . . . . . . 5.5.5 Tensori sferici . . . . . . . . . . . . . . . . . . . . 5.5.6 Teorema di Wigner-Eckart . . . . . . . . . . . . . 5.5.7 Prodotti di tensori sferici . . . . . . . . . . . . . . 5.5.8 Elementi di matrice di prodotti . . . . . . . . . . . L’equazione di Schrödinger: insieme di punti materiali . . . . Hamiltoniani atomici e molecolari . . . . . . . . . . . . . . . Approssimazione di Born-Oppenheimer . . . . . . . . . . . . Separazione delle coordinate elettroniche . . . . . . . . . . . La molecola di idrogeno ionizzata: Hamiltoniano elettronico Hamiltoniano nucleare . . . . . . . . . . . . . . . . . . . . . Soluzione approssimata della struttura elettronica . . . . . . Stati di spin . . . . . . . . . . . . . . . . . . . . . . . . . . Principio di indistinguibilità . . . . . . . . . . . . . . . . . . Determinanti di Slater . . . . . . . . . . . . . . . . . . . . . Metodo di Hartree-Fock . . . . . . . . . . . . . . . . . . . 5.16.1 Ottimizzazione degli spinorbitali . . . . . . . . . . . 5.16.2 Proprietà dell’operatore di Fock . . . . . . . . . . . 5.16.3 Sistemi a guscio chiuso . . . . . . . . . . . . . . . 5.16.4 Soluzione numerica delle equazioni HF . . . . . . . 5.16.5 Interazione di configurazione . . . . . . . . . . . . 5.16.6 Alcuni esempi di calcolo ab initio . . . . . . . . . . 6 Teoria dei gruppi di simmetria ed orbitali molecolari 6.1 Gruppi di simmetria puntuale . . . . . . . . . . . . 6.2 Elementi ed operazioni di simmetria . . . . . . . . 6.3 Gruppi puntuali . . . . . . . . . . . . . . . . . . . 6.4 Rappresentazioni . . . . . . . . . . . . . . . . . . . 6.5 Operatori di proiezione . . . . . . . . . . . . . . . 6.6 Applicazioni al calcolo di orbitali molecolari . . . . 6.7 Alcuni esempi . . . . . . . . . . . . . . . . . . . . 6.8 Un esempio non triviale: il benzene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 INDICE GENERALE 7.2 7.3 7.4 7.5 7.6 7.7 Il metodo del funzionale densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Equazioni di Kohn-Sham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Funzionali densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduzione ai metodi ibridi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . I metodi ibridi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 I metodi QM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.2 I metodi MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.3 Trattamento dei termini di accoppiamento di non-legame QM/MM . . . . . . 7.4.4 Regione di interazione QM/MM che presenta legami tra gli atomi . . . . . . . 7.4.5 Le condizioni al contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implementazione dei metodi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Implementazione dei metodi ibridi QM/MM mediante Gaussian98 e Gaussian03 Applicazioni dei metodi QM/MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 Applicazioni biochimiche dei metodi ibridi QM/MM . . . . . . . . . . . . . . . 7.6.2 Applicazioni allo studio di superfici dei metodi ibridi QM/MM . . . . . . . . . Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Proprietà dipendenti dal tempo in fasi condensate 8.1 Teoria dei responsi lineari . . . . . . . . . . . . . 8.1.1 Assorbimento ed emissione di energia . . 8.1.2 Principio del bilancio dettagliato . . . . . 8.1.3 Funzioni di correlazione temporale . . . . 8.1.4 Limite classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Variabili e processi stocastici 9.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1 Definizione assiomatica della teoria della probabilità 9.3 Distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Diffusione e processi stocastici . . . . . . . . . . . . . . . 9.4.1 Probabilità e concentrazione . . . . . . . . . . . . 9.4.2 Alcuni esempi numerici . . . . . . . . . . . . . . . 9.4.3 Tubo illimitato . . . . . . . . . . . . . . . . . . . . 9.4.4 Tubo finito . . . . . . . . . . . . . . . . . . . . . . 9.4.5 Equazione di diffusione ed equazione di Schrödinger 9.5 Equazioni stocastiche . . . . . . . . . . . . . . . . . . . . 9.6 Equazione di Langevin e moto browniano . . . . . . . . . 9.6.1 Equazione di Langevin generalizzata . . . . . . . . 9.7 Probabilità e processi stocastici . . . . . . . . . . . . . . 9.7.1 Probabilità condizionali . . . . . . . . . . . . . . 9.7.2 Processi stazionari, markoviani, gaussiani . . . . 9.7.3 Equazione di Chapman-Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 196 197 197 198 200 201 202 202 205 206 207 208 209 210 218 . . . . . 221 221 223 223 224 226 . . . . . . . . . . . . . . . . . 229 229 229 230 231 232 233 234 235 236 236 238 238 240 240 241 242 243 INDICE GENERALE 9.8 9.9 9.10 9.11 9.12 9.13 5 9.7.4 Equazione di Fokker-Planck . . . . . . . . . . . . . . . 9.7.5 Relazione con l’equazione di Langevin . . . . . . . . . 9.7.6 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . Densità spettrale . . . . . . . . . . . . . . . . . . . . . . . . . Funzioni di correlazione ed operatore Fokker-Planck . . . . . Equazioni di Fokker-Planck lineari . . . . . . . . . . . . . . . 9.10.1 Oscillatore con dissipazione . . . . . . . . . . . . . . . 9.10.2 Oscillatore browniano . . . . . . . . . . . . . . . . . . Metodi di soluzione numerica dell’equazione di Smoluchowski 9.11.1 Un modello monodimensionale . . . . . . . . . . . . . Equazioni diffusive rotazionali . . . . . . . . . . . . . . . . . . 9.12.1 Coordinate rotazionali . . . . . . . . . . . . . . . . . . 9.12.2 Rotazione diffusiva di un corpo rigido . . . . . . . . . 9.12.3 Depolarizzazione di fluorescenza . . . . . . . . . . . . Interpretazione statistica . . . . . . . . . . . . . . . . . . . . . A Funzioni speciali A.1 Integrali ellittici . . . A.2 Funzione gamma . . A.3 Funzione dell’errore . A.4 Funzioni di Bessel . . A.5 Polinomi ortogonali . A.6 Polinomi di Legendre A.7 Polinomi di Hermite . A.8 Polinomi di Laguerre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 244 246 248 249 250 250 252 255 256 257 258 261 263 264 . . . . . . . . 269 269 270 270 271 271 272 272 272 B L’atomo idrogenoide 273 C Separazione del baricentro 275 D Problema generalizzato agli autovalori 277 E Valore di attesa per un guscio chiuso 279 F Separabilità σ − π (Likos-Parr) 281 G Alcune proprietà della funzione delta di Dirac 283 H Teoria delle perturbazioni dipendenti dal tempo 285 H.1 Probabilità di transizione nell’unità di tempo . . . . . . . . . . . . . . . . . . . . . . . . . . 286 I Matrice densità 287 6 INDICE GENERALE Indice delle Figure 1.1 Il congresso Solvay nel 1927 a Bruxelles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1 Potenziali: Lennard-Jones (a), hard-sphere (b), square-well (c) . . . . . . . . . . . . . . . . 31 2.2 Due molecole interagenti a 6 siti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3 Condizioni al contorno periodiche e raggio di cut-off . . . . . . . . . . . . . . . . . . . . . . 37 2.4 Un reticolo cristallino fcc (a) ed un sistema di 4 celle elementari fcc (b) . . . . . . . . . . . 41 2.5 Condizioni al contorno periodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.6 Spazio delle fasi e campione di punti rappresentativo per un sistema a tre coordinate . . . . 60 2.7 Catena di M monomeri definita da N angoli . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.8 Distanza media R tra il primo e l’ultimo atomo in una catena di cinque monomeri, in funzione del numero di elementi della catena di Markov generata in una simulazione Monte Carlo . . 70 4.1 Vettori nello spazio 3D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.2 Una spirale destrorsa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.3 Angoli di Eulero α, β, γ per specificare la rotazione di un sistema di riferimento molecolare rispetto ad un sistema di riferimento di laboratorio. . . . . . . . . . . . . . . . . . . . . . . 92 4.4 Schema del momento dipolare indotto in una molecola di CO2 da un campo elettrico esterno. 94 4.5 Calcolo del momento di inerzia del complesso Cu(NH3 )2+ 6 . . . . . . . . . . . . . . . . . . . 4.6 Potenziale per una particella in una scatola 1D. . . . . . . . . . . . . . . . . . . . . . . . . 110 4.7 Un potenziale generico in una dimensione. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.8 Potenziali per una particella in una scatola 1D con una barriera interna. . . . . . . . . . . . 114 4.9 Varie scatole 1D. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 95 4.10 Scatola tridimensionale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.11 Un pozzo cilindrico ed un anello. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4.12 Coordinate polari sferiche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.13 Potenziale di Morse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 5.1 Sistema di riferimento e coordinate He . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 5.2 Sistema di riferimento e coordinate H+ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 5.3 Coordinate ellissoidali H+ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 5.4 I primi due livelli energetici della molecola di H+ 2 [E. Teller, Z. Physik, 61, 474 (1930)] . . 153 5.5 Superficie che rappresenta l’orbitale 1sσg in un piano molecolare . . . . . . . . . . . . . . . 154 5.6 Superficie che rappresenta l’orbitale 2pσu in un piano molecolare . . . . . . . . . . . . . . . 155 7 8 INDICE DELLE FIGURE 5.7 Schema degli elementi di matrice H nel metodo CI. Sono indicati in nero i blocchi diagonali non nulli, in grigio i blocchi non-diagonali non nulli, in bianco i blocchi non-diagonali nulli . 171 5.8 Orbitali HOMO e LUMO di HCl, rappresentati come superficie . . . . . . . . . . . . . . . . 175 5.9 Orbitale HOMO di HCl, rappresentato come una superficie ad uguale densità di carica . . . 179 5.10 Orbitale LUMO di HCl, rappresentato come una superficie ad uguale densità di carica . . . . 179 5.11 Orbitale HOMO di H2 O, rappresentato come una superficie ad uguale densità di carica . . . 180 5.12 Orbitale LUMO di H2 O, rappresentato come una superficie ad uguale densità di carica . . . 180 6.1 Set di orbitali 2p nel piano per il benzene . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 7.1 Radicale CH3 · . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 7.2 Esempio: 1,3-butadiene. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 7.3 Rappresentazione schematica della partizione di un sistema in fase condensata. . . . . . . . 199 7.4 Schema delle regioni QM e MM divise da un legame covalente. . . . . . . . . . . . . . . . . 203 7.5 Rappresentazione del metodo link-atoms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 7.6 Rappresentazione degli orbitali utilizzati nel metodo LSCF. . . . . . . . . . . . . . . . . . . 205 7.7 Rappresentazione schematica della divisione del legame QM/MM e partizione degli orbitali ibridi sull’atomo di contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 7.8 Rappresentazione del metodo ONIOM utilizzando la triade catalitica della carbossipepdidasi. 208 7.9 Rappresentazione dello stato intermedio del PHBH ottenuto mediante calcoli QM/MM. . . 209 7.10 Centro di reazione fotosintetico del Rh. viridis. . . . . . . . . . . . . . . . . . . . . . . . . 211 7.11 Modello di una superficie di diamante(100). . . . . . . . . . . . . . . . . . . . . . . . . . . 212 7.12 Modello di una superficie di diamante(100) utilizzato per le simulazioni. Le sfere grigie rappresentano gli atomi della regione quantistica, le sfere bianche gli atomi della regione descritta empiricamente mentre le sfere nere gli atomi mantenuti fissi durante la simulazione. 213 7.13 Cluster C33 H48 utilizzato per lo sviluppo del potenziale empirico. Le sfere nere rappresentano gli atomi di carbonio centrali, le sfere grigie la prima sfera degli atomi di carbonio mentre le sfere bianche sono la seconda sfera degli atomi di carbonio. . . . . . . . . . . . . . . . . . . 214 7.14 Modello della struttura della superficie di Zn. Gli atomi di ossigeno sono evidenziati in rosso mentre gli atomi di Zn in grigio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 7.15 Adsorbimento di un dimero di rame in stato di ossidazione 2+:(a) vista dall’alto;(b) vista di lato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 7.16 Modello di cluster C3 N Si9 H15 trattato con metodi quantistici. Le sfere verdi rappresentano gli atomi di silicio, le sfere bianche gli atomi di idrogeno mentre nella parte in alto della figura compare l’acrilonitrile addizionato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 7.17 Cluster modello ottenuto componendo il cluster trattato con metodi quantistici (atomi viola) con il cluster trattato con metodi classici (in verde). . . . . . . . . . . . . . . . . . . . . . . 218 7.18 (a) Siti esagonali senza difettualità ,(b) siti esagonali che invece presentano difettualità. Sono evidenziati solo gli atomi di ossigeno. Le sfere nere sono atomi di O trattati con metodi QM mentre le sfere grigie sono atomi di O trattati con metodi MM. . . . . . . . . . . . . . . . 219 8.1 Fluido monodimensionale formato da N particelle puntiformi nell’intervallo [0, L]. . . . . . . 222 INDICE DELLE FIGURE 9.1 9.2 9.3 9.4 9.5 9.6 9.7 Traiettorie (caso a basso attrito): ω = 1 s−1 , τ = 10 s. . Orbite (caso a basso attrito): ω = 1 s−1 , τ = 10 s. . . . . Traiettorie (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s. Orbite (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s. . . Autofunzione di equilibrio . . . . . . . . . . . . . . . . . . Autofunzione di salto al variare della barriera ∆. . . . . . . Definizione degli angoli di Eulero. . . . . . . . . . . . . . . 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 252 253 254 257 258 259 10 INDICE DELLE FIGURE Prefazione L’insegnamento di Chimica Teorica è dedicato all’introduzione di alcuni metodi teorici necessari per descrivere i processi molecolari nelle fasi condensate, ed interpretare misure spettroscopiche. Il programma del corso per l’AA 2008-2009 è cosı̀ organizzato: 1. Cenni di meccanica classica ed applicazioni a problematiche di dinamica molecolare • principio di Hamilton, equazioni del moto del corpo rigido, equazioni di Hamilton, trasformazioni canoniche, formulazione di Poisson • metodi classici esatti ed approssimati per lo studio di dinamiche molecolari roto-traslazionali in fasi condensate 2. Principi e metodi della chimica quantistica • basi della meccanica quantistica e relazione con la meccanica classica • teoria dei momenti angolari • teoria dei gruppi • metodi standard di calcolo di strutture elettroniche (Hartree-Fock), metodi del funzionale densità, • metodi post-HF: metodi multiconfigurazionali e multireference (cenni) 3. Modellizzazione di moti molecolari in fasi condensate • Teoria dei responsi lineari • Descrizione probabilistica dei moti molecolari • Funzioni di correlazione e densità spettrali Capitolo 1 Richiami di meccanica classica In questa prima parte del corso saranno richiamati alcuni concetti fondamentali dell meccanica classica. Senza pretesa di completezza - testi di vari autori, dedicati a questa tematica da un punto di vista fisico e formale sono comunque inclusi nella bibliografia - questi primi capitoli dovrebbero a fornire alcuni strumenti utili per la comprensione delle applicazioni più comuni della meccanica classica a problematiche chimiche (per esempio, tecniche di simulazione di dinamica molecolara) e a porre le basi per illustrare in seguito la connessione tra le descrizioni classica e quantistica. L’atteggiamento tradizionale del chimico moderno è di non approfondire le basi della meccanica classica, ritenendo che l’intepretazione delle problematiche di reattività, dinamica e struttura molecolare siano sempre e comunque interpretabili con il linguaggio della meccanica quantistica (o di una sua versione ’semplificata’). Questa posizione è legittima, ma presenta alemno due problemi: 1) la comprensione delle metodologie quantistiche, anche applicate a problemi chimici, richiede una base classica e 2) lo studio di fasi condensate o di oggetti molecolari complessi (biomolecole) si presta ad una proficua applicazione di metodi classici, non solo per ilf atto che una descrizione completamente quantistica non è possibile anche con le risorse computazionali più avanzate, ma anche perchè la modellizzazione fisica nei termini di un linquaggio classico si presta spesso ad una comprensione molto maggiore dei fenomeni osservati. La scienza fornisce modelli per l’interpretazione dei fenomeni percepiti dai nostri sensi, o da estensioni dei nostri sensi. Il successo di un modello o teoria fisica è proporzionale alla sua capacità di fornire uno schema di comprensione al maggior numero possibile di osservazioni, con il minor numero possibile di postulati o assiomi fondamentali, vale a dire affermazioni non dimostrabili all’interno della teoria stessa. Il confronto quantitativo delle previsioni dei modelli con i dati sperimentali è l’unico criterio per discriminare tra le varie descrizioni teoriche a nostra disposizione. Teorie che sembrano perfettamente adeguate per comprendere un insieme di osservazioni sperimentali diventano inadeguate quando nuovi dati sperimentali siano disponibili. Esempio 1. Storicamente, la crisi della meccanica classica nasce alla fine del XIX secolo. Varie osservazioni indipendenti divengono disponibili relativamente a vari fenomeni perlopiù legati all’emissione ed assorbimento di radiazioni. Tra questi, ricordiamo innanzitutto • gli esperimenti di O. Lummer ed E. Prinsheim (1877-1900) che determinano in modo quantitativo l’emissione energetica di un corpo nero in funzione della lunghezza d’onda della radiazione, in seguito interpretati correttamente da M. Planck (1900); la fisica classica si rivelò presto incapace di prevedere le tipiche curve a massimo con un intensità trascurabile ad altre frequenze della 11 12 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA radiazione emessa; • l’effetto fotoelettrico, osservato da H. Hertz (1887), e da Lenard (1902), cioè l’emissione di elettroni dalla superficie di solidi provocata dalla luce di opportuna lunghezza d’onda; l’interpretazione di A. Einstein (1905) costituisce una delle conferme più significative dell’esistenza di livelli discreti di energia o quanti (e questa, non la teoria della relatività fu la motivazione del premio Nobel); • la presenza di righe discrete negli spettri di emissione atomica (osservata da Fraunhofer, 1823, Bunsen, 1861, Ångstrom, 1868, Balmer, 1885); l’interpretazione fornita da N. Bohr (1913) è basata sulla quantizzazione dei livelli energetici degli atomi. Cosı̀ la meccanica classica newtoniana nasce dall’esigenza di comprendere in modo quantitativo il moto degli oggetti macroscopici, mentre l’interpretazione di osservazioni sperimentali che coinvolgono energie e dimensioni atomiche è storicamente alla base dello sviluppo della meccanica quantistica1 . Figura 1.1: Il congresso Solvay nel 1927 a Bruxelles. 1.1 Punti materiali Richiamiamo alcuni i principi elementari della meccanica classica (non relativistica). L’oggetto di studio primario della meccanica classica è il punto materiale, descritto da un raggio vettore ~r rispetto all’origine di un sistema di riferimento. La velocità ~v del punto materiale è la variazione di ~r nel tempo ~v = ∂~r ∂t (1.1) Il momento lineare del punto materiale è semplicemente p~ = m~v , dove m è la massa del punto materiale. Le forze agenti sul punto si sommano in modo vettoriale per dare origine alla forza totale agente sul punto, 1 Lo sviluppo scientifico è perciò non solo causa, ma in parte conseguenza dello sviluppo tecnologico: migliori strumenti tecnici di osservazione comportano teorie più raffinate 1.1. PUNTI MATERIALI 13 F~ . Il principio fondamentale del moto del punto materiale è dato dalla II Legge di Newton, che stabilisce una relazione tra la forza ed il momento d~ p F~ = dt (1.2) Un sistema di riferimento fisso od inerziale è tale che in esso la II legge di Newton è verificata. Sistemi di riferimento in accelarzione rispetto ad un sistema di riferimento inerziale sono detti non-inerziali o non-galileiani. Nel seguito ci riferiremo sempre ad un sistema di riferimento inerziale o di “laboratorio”, se non specificato diversamente. Altre grandezze importanti, che saranno impiegate nel seguito e di cui considereremo gli ~ definito come equivalenti quantistici, sono il momento angolare L, ~ = ~r × p~ L (1.3) ~ ed il momento della forza o coppia N ~ = ~r × F~ N (1.4) che sono in una relazione reciproca analoga alla (1.2) e da questa ricavabile ~ ~ = dL N dt (1.5) Il lavoro fatto da F~ sul punto materiale che si muova da un punto ~r1 ad un punto ~r2 è dato dall’integrale di linea Z W = F~ · d~r (1.6) integrata, questa relazione può essere riscritta nella forma W = T2 − T1 (1.7) 1 T = mv 2 2 (1.8) dove T è l’energia cinetica del punto materiale. Se il lavoro W è indipendente dal cammino scelto tra i punti iniziale e finale della traiettoria del punto materiale, si dice che la forza e/o il sistema sono conservativi. In questo caso la forza si può calcolare, come conseguenza di un teorema fondamentale dell’analisi vettoriale in funzione di una funzione scalare V (~r) come F~ = −∇V (1.9) La somma delle energia potenziale V e dell’energia cinetica T è l’energia totale del punto materiale. Esempio 2. Un oscillatore armonico classico monodimensionale è una particella di massa m sottoposta ad un potenziale V (x) = kx2 /2; la legge del moto può essere scritta come una coppia di equazioni differenziali in x(t) e momento lineare p(t): ẋ = p m ṗ = −kx 14 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA Se supponiamo che inizialmente x(0) = x0 e p(0) = 0, la soluzione in x(t) è x(t) = x0 cos ωt, p(t) = p −mω sin ωt, dove ω = k/m è la frequenza dell’oscillatore. Dalle definizioni precedenti discendono tre principi di base, che si possono esprimere sotto forma di di teoremi di conservazione Principio di conservazione del momento lineare: se la forza totale F~ è zero il momento lineare si conserva nel tempo (I Legge di Newton) ~ è zero il Principio di conservazione del momento angolare: se il momento della forza totale N momento angolare si conserva nel tempo Principio di conservazione dell’energia: se la forza è conservativa, l’energia totale si conserva nel tempo ~ ponendo F~ e N ~ pari a zero; l’ultimo dove i primi due principi discendono dalle leggi del moto di p~ e L, principio si ottiene integrando l’espressione del lavoro dopo aver sostituito l’espressione della forza in funzione del potenziale ed uguagliando con la (1.7). 1.2 Sistemi di particelle Un sistema di particelle è costituito da un insieme di N punti materiali, per i quali valgono N leggi del moto X j d~ pi F~ji + F~ie = dt (1.10) dove F~ji è la forza agente sul punto i dovuta al punto j, mentre F~ie è la forza esterna agente sul punto i. La III Legge di Newton in forma debole assume che F~ji = −F~ij (legge di azione e reazione): non è valida per tutte le forze, ma nel seguito assumeremo che lo sia sempre. Sommando la precedente espressione, possiamo facilmente scrivere la seguente equazione che esprime l’effetto delle sole forze esterne sul sistema di particelle, in condizioni di validità della III Legge di Newton M ~ dP~ d2 R = F~ = M dt2 dt (1.11) P ~ = P mi vri /M è il centro di massa del sistema P~ = P p~i è il dove M = i mi è la massa del sistema, R i i P momento lineare totale mentre F~ = i F~ie è la forza esterna totale: il momento lineare totale del sistema è quello di una unica particella avente massa M e la cui posizione coincide con il centro di massa del sistema di punti materiali. Esempio 3. Consideriamo un insieme di N particelle aventi la stessa massa m e costrette a muoversi lungo una retta; ciascuna particella è legata alle due particelle da una molla ideale k. Qual è la legge del moto? Basta generalizzare le espressioni precedenti relative all’oscillatore monodimensionale mẍ1 = k(−x1 + x2 ) mẍi = −k(xi − xi−1 ) − k(xi − xi+1 ) = k(xi−1 − 2xi + xi+1 ) 1<i<N 1.3. MOMENTO ANGOLARE E FORZA TOTALE 15 mẍN = k(xN −1 − xN ) P Il baricentro del sistema è X = ( i xi )/N Le forze esterne agenti sul sistema sono nulle e le forze interne verificano, come tutte le forze centrali, la III legge di Newton; vale perciò che Ẍ = 0, come si può vedere anche sommando semplicemente tutte le equazioni precedenti: il baricentro del sistema è fermo o in moto rettilineo uniforme. 1.3 Momento angolare e forza totale ~ = P ~ri × p~i , per il quale vale la legge Possiamo anche calcolare il momento angolare totale del sistema L del moto ~ X X ∂L = ~ri × F~ie + ~ri × F~ji (1.12) ∂t i i6=j che si riduce alla legge più semplice ~ dL dt ~ = =N X ~ri × F~ie (1.13) i sole se i termini dipendenti dalle forze interne si possono trascurare nella (1.12), che è una forma forte della legge di azione e reazione. L’espressione del momento angolare può essere messa in una forma analoga ~ la posizione del punto a quella del momento lineare, ma più complicata. Se definiamo con ~ri0 = ~ri − R materiale i-esimo rispetto al baricentro e la corrispondente velocità ~vi0 = ~vi − ~v (e momento p~0i = mi~vi0 ) dove ~ ~v = dR/dt, allora il momento angolare totale può essere scritto come ~ =R ~ × M~v + L X ~ri0 × p~0i (1.14) i cioè il momento angolare è dato dal momento angolare del centro di massa più i momenti angolari rispetto al centro di massa. Le definizioni di lavoro ed energia cinetica sono analoghe al caso precedente di una singola particella. L’energia cinetica si può trascrivere separando la parte relativa al centro di massa 1 1X 2 T = M v2 + mi vi0 (1.15) 2 2 i Infine supponiamo che le forze agenti tra le particelle siano i) conservative, cioè ottenibili da un’unica funzione di coppia Vij , che ii) dipende solo dalla distanza mutua tra le due particelle, Vij = Vij (|~ri − ~rj |). Vagono perciò sia la forma forte che quella debole della III Legge di Newton, dato che F~ji − ∇i Vij = ∇j Vij = −F~ij ∝ ~ri − ~rj Se anche le forze esterne sono conservative, possiamo scrivere l’energia totale come X 1 1X 1X 2 W = T + V = M v2 + Vij mi vi0 + Vi + 2 2 i 2 i6=j i (1.16) (1.17) Possiamo imporre dei vincoli sia alle posizioni che alle velocità dei singoli punti materiali costituenti il sistema. Un vincolo è espresso dall’equazione f (t, {~ri }, {~vi }) = 0 Un vincolo si dice olonomo se non dipende dalle velocità e stazionario se non dipende dal tempo. (1.18) 16 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA 1.4 Equazioni di Lagrange e di Hamilton Uno spostamento virtuale δ~ri è una variazione infinitesimale della posizione di un punto materiale compatibile con le forze ed i vincoli agenti sul sistema. Per un sistema generico vale il cosiddetto principio di D’Alembert X d~ pi ~a − F i dt i · δ~ ri = 0 (1.19) che esprime una condizione generale indipendentemente dalle forze di vincolo, generalmente non note. Possiamo esprimere le leggi del moto del sistema eliminando i vincoli (che supponiamo olonomi), in funzione di un insieme di n coordinate generalizzate qj ? In generale si esprimono le coordinate assolute, i momenti e gli spostamenti virtuali in funzione delle coordinate generalizzate. Con un pò di algebra, si dimostra che il principio di D’Alembert assume la forma X d dt j ∂T ∂ q̇j − ∂T ∂qj − Qj δqj = 0 (1.20) P dove Qj = i F~i · (∂~ri /∂qj ) è una forza generalizzata. L’espressione precedente vale per qualunque insieme di coordinate generalizzate. Se però le coordinate qj sono un set di coordinate indipendenti ricavate da un insieme di vincoli olonomi, gli spostamenti virtuali deltaqj sono indipendenti, e dunque d dt ∂T ∂ q̇j − ∂T ∂qj = Qj (1.21) dette equazioni di Lagrange. Se le forze sono conservative, cioè ricavabili da un potenziale totale V , anche le forze generalizzate si possono scrivere come Qj = − X ∇i V · i ∂~ri ∂t =− ∂V (1.22) ∂qj e le equazioni di Lagrange assumono la forma più nota d dt ∂L ∂ q̇j − ∂L ∂qj =0 (1.23) dove L = T − V è la funzione lagrangiana del sistema. Esempio 4. Consideriamo una particella che si muova in un piano, con coordinate cartesiane x e y; vogliamo scrivere le equazioni del moto in coordinate polari r e θ. La relazione tra i due set di coordinate è nota: x = r cos θ, y = r sin θ; le velocità sono calcolabili come ẋ = ṙ cos θ − rθ̇ sin θ, ẏ = ṙ sin θ + rθ̇ cos θ; l’energia cinetica in coordinate cartesiane e polari è perciò · ´ ³ ´2 1 1 ³ T = m ẋ2 + ẏ 2 = m ṙ2 + rθ̇ 2 2 ¸ Le forze generalizzate sono semplicemente Qr = Fr e Qθ = rFθ . Sostituendo, e calcolando le varie derivate parziali, otteniamo le due equazioni di Lagrange mr̈ − mr(θ̇)2 = Fr mr2 θ̇ + 2mrṙθ̇ = Fθ 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON 17 Alla formulazione lagrangiana si affianca di solito la formulazione hamiltoniana delle equazioni del moto. Matematicamente, le equazioni del moto secondo Lagrange sono espresse come n equazioni differenziali del secondo ordine nelle n coordinate generalizzate qj . Possiamo definire un analogo set di 2n equazioni differenziali di primo ordine in 2n coordinate: le prime n sono ancora le qj , accanto alle quali si definiscono n momenti coniugati pj pj = ∂L (1.24) ∂ q̇j La procedura formale che permette di passare dall’insieme qj , q̇j , t all’insieme qj , pj , t è detta trasformazione di Legendre. Le equazioni canoniche del moto secondo Hamilton hanno la forma q̇j = ∂H (1.25) ∂pj ṗj = − ∂H (1.26) ∂qj a cui si aggiunge in generale ∂L ∂t = ∂H (1.27) ∂t P dove H = q̇j pj − L è detta funzione hamiltoniana. Per un sistema scleronomo conservativo (cioè con vincoli stazionari e sottoposto a sole forze conservative), L = T − V (quindi l’ultima equazione di Hamilton è subito verificata) ed H = T + V è l’energia totale del sistema. 1.5 Approfondimento: formalismi di Lagrange e Hamilton Riprendiamo alcuni dei concetti espressi nelle sezioni precedenti, chiarendo alcune derivazioni e discutendo con maggior dettaglio alcune affermazioni. Dato un sistema di N punti materiali, sono date le N equazioni del moto ’naturali’ (1.10). Possiamo P ~ = P mi~ri /M , il momento definire la massa totale M = i mi del sistema, la posizione del baricentro R i P ~˙ ed infine il momento anoglare totale L ~ = P ~ri × p~i . La III legge di Newton lineare totale P~ = i p~i = M R i può ora essere scritta in una forma debole X ˙ F~ij + F~ji = 0 → P~ = F~iext = F~ e (1.28) i oppure in una forma forte ~rij × F~ji = 0 → L̇ = X ~e ~ri × F~ie = N (1.29) i P L’energia cinetica del sistema è data dalla solita espressione T = i p2i /2mi mentre il lavoro relativo ad un P H cammino da un punto 1 ad un punto 2 è W12 = i 12 F~i · d~si = T2 − T1 = ∆T . Supponiamo ora che valgano le seguenti condizioni: 18 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA • ∃Vie : Fei = −∇i Vie • ∃Vij (rij ) : F~ji = −∇i Vij • V = P e i Vi + P i6=j Vij /2 allora W12 = V1 − V2 = −∆V → ∆(T + V ) = 0: se tutte le forze sono conservative l’energia totale è costante. Di fondamentale interesse è lo studio di sistemi di N punti materiali in presenza di vincoli. In effetti, un chimico interessato per esempio all’applicazione dei metodi della dinamica molecolare (classica) allo studio delle proprietà di una molecola flessibile, cioè dotata di gradi di libertà interni, può immediatamente immaginare molti esempi per i quali una chiara comprensione della dinamica di oggetti vincolati ı̀mportante. A partire dalla definizione delle proprietà dei sistemi vincolati possiamo inoltre introdurre facilmente le proprietà di un corpo rigido. Come sempre, abbiamo bisogno inizialmente di un po’ di nomenclatura. Possiamo imporre dei vincoli sia alle posizioni che alle velocità dei singoli punti materiali costituenti il sistema. Un vincolo è espresso dall’equazione f (t, {~ri }, {~vi }) = 0 (1.30) se le velocità non compaiono nell’espressione del vincolo, si parla di vincolo finito o geometrico od olonomo; un vincolo generale è invece detto differenziale o cinematico. Un vincolo geometrico è detto stazionario se il tempo non compare esplicitamente nell’espressione che lo definisce. Un sistema di punti è detto scleronomo se si impongono solo vincoli stazionari, mentre è detto olonomo se i vincoli sono finiti. Definiamo come vincoli olonomi K equazioni della forma fk (~r1 , . . . , ~rN , t) = 0 e coordinate generalizzate una serie di variabili qk tali che ~ri = ~ri (q1 , . . . , q3N −k , t). Un corpo rigido può a questo punto essere definito come un insieme di N particelle con 3N − 6(5) vincoli olonomi del tipo: rij = cost. Un corpo rigido è costituito da un sistema di punti materiali scleronomo, cioè con vincoli stazionari, in numero tale che nota la posizione di un punto materiale siano ricavabili dai soli vincoli le posizioni di tutti gli altri punti materiali. Il problema di ricavare le equazioni del moto di un sistema in presenza di vincoli si può affrontare in modo relativamente semplice. Iniziamo derivando rispetto al tempo i K vincoli; si ottengono le seguenti espressioni: ∂fk ∂t + X ∇i fk · ~vi = 0 (1.31) i dove ~vi sono le velocità possibili, d~ri = ~vi dt sono gli spostamenti possibili, d~ri = ~vi dt e d~ri0 = ~vi0 dt sono due set di spostamenti possibili ad uguale t e {~ri }. Le differenze δ~ri = ~ri − ~ri0 sono dette spostamenti virtuali: X ∇i fk · δ~ri = 0 (1.32) i In presenza di vincoli le equazioni del moto di un sistema di particelle soggetto a forze applicate note F~ia sono ~ i = F~i p~˙ i = F~ia + R (1.33) 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON 19 Il problema che dobbiamo ora affrontare è il seguente: date le forze F~ia , e condizioni iniziali compatibili con ~ i? i vincoli, quali sono le equazioni del moto e le reazioni dei vincoli R Come possiamo procedere? Sono date 6N incognite e 3N + K equazioni. Abbiamo quindi bisogno di 6N − 3N − K = 3N − K = n equazioni in più! La soluzione esiste per i vincoli ideali, tali che X ~ i δ~ri = 0 R (1.34) i Siano infatti δqα = (α = 1, . . . , n) gli n spostamenti indipendenti. I rimanenti possono essere espressi in funzione dei δqα ; sostituendo nella (1.34) si ottiene n X Aα δqα = 0 (1.35) α=1 gli n coefficienti Aα devono essere nulli, e dunque Aα = 0 sono le n relazioni mancanti. 1.5.1 Principio di D’Alembert e equazioni di Lagrange Riprendiamo ed approfondiamo il principio di D’Alembert, precedentemente discusso nella Sezione (1.4). Uno spostamento virtuale δ~ri è una variazione infinitesimale della posizione di un punto materiale compatibile con le forze ed i vincoli agenti sul sistema. Per un sistema in equilibrio, la forza agente su ciascuna particella è nulla, F~i = 0. Il lavoro virtuale totale è perciò anche nullo se si distinguono le forze agenti sulle particelli in forze agenti e forze di vincolo,F~i = F~ia + f~i ; possiamo scrivere X F~ia · δ~ri + X i f~i · δ~ri = 0 (1.36) i per un corpo rigido e in generale per sistemi olonomi, il lavoro totale virtuale dei vincoli vale zero X F~ia · δ~ri = 0 (1.37) i che è il principio del lavoro virtuale statico. L’equivalente dinamico è detto appunto principio di D’Alembert X ~a − F i i d~ pi dt · δ~ ri = 0 (1.38) che esprime una condizione generale indipendentemente dalle forze di vincolo, generalmente non note. Il principio di D’Alembert vale per un sistema di N particelle in presenza di K vincoli ideali. In condizioni P stazionarie (p~˙ i = 0) è noto come principio del lavoro virtuale i F~ia · δ~ri = 0. Consideriamo ora il caso dei vincoli olonomi: sono ideali e ci permettono di definire n coordinate generalizzate qα . Consideriamo il primo termine del’eq. (1.38): X F~ia · δ~ri = i X i,α X ∂~ri Qα δqα F~ia · δqα = ∂qα α (1.39) dove Qα è la forza generalizzata associata a qα : Qα = X i ∂~ri F~ia · ∂qα (1.40) 20 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA Possiamo ora esplicitare il secondo termine dell’eq. (1.38): X X p~˙ i · δ~ri = i i,α X = i,α X = i,α mi~¨ri ∂~ri ∂qα δqα = ∂~ri d ∂~ri d −p p ~i · δqα = ~i · dt dt ∂qα ∂qα ∂~vi ∂~vi d p −p δqα = ~i · ~i · dt ∂ q̇α ∂qα à à ! ! X1 X1 X d ∂ ∂ = mi vi2 − mi vi2 δq dt ∂ q̇α α 2 2 ∂qα α i i da cui segue, combinando le due espressioni: X α d ∂T ∂T − − Qα δqα = 0 dt ∂ q̇α ∂qα (1.41) Poichè gli spostamenti generalizzati sono indipendenti (vincoli olonomi), per ogni α deve valere che d ∂T ∂T − = Qα dt ∂ q̇α ∂qα (1.42) Se esiste V (non necessariamente indipendente da t!) tale che F~ia = −∇i V , si ottiene Qα = −∂V /∂qα . Segue di conseguenza che le equazioni del moto del sistema possono essere scritte come: d ∂L ∂L − =0 dt ∂ q̇α ∂qα (1.43) dove L = T − V è la (funzione) Lagrangiana del sistema. Consideriamo l’energia cinetica del sistema. Possiamo scrivere T evidenziando i termini di ordine 0, 1 e 2 rispetto alle coordinate generalizzate: T = T0 + X aα q̇α + α dove T0 = 1X aαβ q̇α q̇β 2 α,β 1X 2 mi i ∂ri (1.44) 2 ∂t aα = ∂ri ∂ri 1X mi 2 i ∂qα ∂t aαβ = ∂~ri ∂~ri 1X mi 2 i ∂qα ∂qβ In un sistema scleronomo (vincoli non dipendenti da t), resta solo il termine quadratico. Nel caso più generale in cui Qα = − ∂V ∂qα + Q̃α (1.45) 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON 21 dove Q̃α dipende anche dalle velocità generalizzate, le equazioni di Lagrange hanno la forma: d ∂L ∂L − = Q̃α dt ∂ q̇α ∂qα (1.46) Consideriamo ora la variazione nel tempo dell’energia totale. Per un sistema olonomo arbitrario, se E =T +V: ∂T ∂V dE X d = Q̃α q̇α + (T1 + 2T0 ) − + dt dt ∂t ∂t α (1.47) Restrizioni aggiuntive sulla natura dei vincoli permettono di ottenere condizioni sempre più strette sulla natura della variazione temporale dell’energia totale: ∂V P • Sistema scleronomo: dE dt = α Q̃α q̇α + ∂t P • Sistema scleronomo e V indipendente da t: dE dt = α Q̃α q̇α • Sistema conservativo (scleronomo, forze potenziali e V indipendente da t): dE dt = 0 Il caso della presenza di forze non potenziali è di grande interesse. In generale le forze non potenziali P sono dette giroscopiche se la loro potenza ( α Q̃α q̇α ) è nulla; per esempio Q̃α = X gαβ q̇β β dove i coefficienti gαβ formano una matrice antisimmetrica. Le forze non potenziali dissipative sono invece tali se la potenza è negativa o nulla; per esempio Q̃α = − X dαβ q̇β β P dove la matrice dαβ è simmetrica; la funzione R = 21 αβ dαβ q̇α q̇β ≤ 0 è detta(funzione dissipativa di Rayleigh). In tal caso possiamo scrivere le equazioni di Lagrange nella forma: ∂R d ∂L ∂L − + =0 dt ∂ q̇α ∂qα ∂ q̇α 1.5.2 (1.48) Equazioni di Hamilton Una formulazione alternativa alle leggi del moto è data dalle equazioni di Hamilton. La formulazione di Lagrange porta a scrivere n equazioni del secondo ordine nelle n incognite qi (t) (i = 1, . . . , n); la formulazione di Hamilton consente di scrivere 2n equazioni al primo ordine in 2n variabili (qi , pi ). La formulazione di Hamilton permette di evidenziare la connessione esistente tra meccanica classica e quantistica e si presta meglio alla derivazione di equazioni stocastiche. Pe iniziare definiamo i momenti generalizzati: pi = ∂L ∂ q̇i (1.49) 22 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA Le quantità qi , pi sono dette variabili canoniche. Definiamo la (funzione) hamiltoniana H(q, p, t) come la trasformata di Legendre della lagrangiana L(q, q̇, t): H= X q̇i pi − L (1.50) i Differenziando l’hamiltoniana H si ottiene dH = X i = X ∂H ∂qi − i = X dqi + ∂L ∂qi ∂H ∂pi dpi + dqi + q̇i dpi − (q̇i dpi − ṗi dqi ) − i ∂L ∂t ∂H ∂t ∂L ∂t dt = dt = dt da cui seguono le equazioni di Hamilton: q̇i = ∂H ∂pi ṗi = − ∂L ∂t = − ∂H (1.51) ∂qi ∂H ∂t Una fomulazione compatta e molto elegante delle equazioni di Hamilton è la cosiddetta formulazione simplettica: xi = qi xi+n = pi à J = ẋ = J 0 1 −1 0 ! ∂H ∂x Si noti che J2 = −1, Jtr = −J = J−1 e quindi det J = 1. A questo punto, riassumiamo in modo schematico la ’procedura’ per scrivere le equazioni del moto di un sistema (olonomo) 1. Definiamo un insieme di coordinate generalizzate qi eliminando gli eventuali vincoli 2. Costruiamo la funzione di Lagrange L = T − V 3. Definiamo i momenti coniugati pi come funzioni di qi , q̇i 4. Costruiamo l’hamiltoniana dalla trasformata di Legendre (1.50) 5. Sostituiamo q̇i con le opportune funzioni q̇i = q̇i (q, p, t) ottenute invertendo la definizione dei momenti 6. Scriviamo infine le equazioni di Hamilton secondo la (1.51). 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON 1.5.3 23 Principio di Hamilton Prima di discutere il principio di Hamilton, ricordiamo alcuni elementi di calcolo variazionale. Consideriamo il funzionale J= Z x2 x1 f [y1 (t), . . . , yn (x), ẏ1 (x), . . . , ẏn (x), x]dx (1.52) dove le funzioni yi sono vincolate ad assumere valori noti a x1 e x2 . Poniamoci il seguente problema: che forma devono assumere le yi perchè J sia stazionario? Per rispondere, dobbiamo prima scrivere in modo esplicito una variazione infinitesima del funzionale. In generale, una variazione infinitesimale di J è indicata come δJ = δ Z x2 x1 f [y1 (x), . . . , yn (x), ẏ1 (x), . . . , ẏn (x), x]dx (1.53) Quindi la risposta al problema (un tipico quesito del calcolo variazionale) è data dalle funzioni yi (x) tali che δJ = 0. Per procedere, possiamo immaginare che le funzioni yi siano dipendenti da un parametro ² y1 (x, ²) = y1 (x, 0) + ²η1 (x) y2 (x, ²) = y2 (x, 0) + ²η2 (x) ... yn (x, ²) = yn (x, 0) + ²η2 (x) dove le yi (x, 0) sono la soluzione del problema. La condizione di punto stazionario per J è µ dJ δJ = d² = 0 → d² dJ d² ¶ =0 ²=0 Possiamo ora riscrivere la variazione di J nella forma: δJ = = Z x2 X dJ d² = d² Z x2 X x1 i x1 i ∂f ∂yi ∂yi ∂² d² + ∂f ∂ ẏi ∂ ẏi ∂² d² dx = ∂f d ∂f ∂yi − d²dx ∂yi dx ∂ ẏi ∂² dove si è fatto uso delle relazioni Z x2 ∂f ∂ ẏi x1 ∂ ẏi ∂² Z x2 ∂f ∂ 2 ẏi dx = x1 ∂ ẏi ∂²∂x dx = ¯x 2 ¯ Z x2 ∂f ∂f d ¯ − dx ¯ x1 ∂yi dx ∂ ẏi ∂² ¯ ∂ ẏi ∂f ∂yi ¯ = x1 Quindi si ottiene δJ = 0 → Z x2 X x1 i ∂f d ∂f − δyi dx = 0 ∂yi dx ∂ ẏi 24 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA ∂yi dove le δyi ≡ ∂f ∂yi ∂² |²=0 d² sono indipendenti; ne consegue che d ∂f =0 dx ∂ ẏi − i = 1, . . . , n (1.54) Le equazioni precedenti, dette di Eulero-Lagrange, sono la condizione necessaria e sufficiente perchè J sia stazionario. Possiamo ora introdurre il principio di Hamilton, che da un certo punto di vista è la riscrittura delle equazioni del moto di un sistema nel linguaggio del calcolo variazionale. Consideriamo la grandezza I= Z t2 t1 Ldt (1.55) che è detta azione (nel senso di Hamilton). Si può verificare che (principio di Hamilton) per una lagrangiana L(q, q̇, t) le soluzioni qi delle equazioni di Lagrange sono tali che δI = 0 (1.56) Il principio di Hamilton afferma dunque che l’azione è stazionaria in corrispondenza delle traiettorie del moto che verificano le equazioni di Lagrange. Possiamo nauralmente scrivere l’azione come I= Z t 2 "X t1 # pi q̇i − H(q, p, t) dt (1.57) i e considerare il problema variazionale nelle 2n incognite (q, p). Allora si verifica subito che la soluzione del problema variazionale (1.56), ottenuta applicando le equazioni di Eulero-Lagrange, è data esattamente dalle equazioni di Hamilton. Il principio di Hamilton afferma dunque che l’azione è stazionaria in corrispondenza delle traiettorie del moto che verificano le equazioni di Hamilton. 1.5.4 Parentesi di Poisson e trasformazioni canoniche I formalismi introdotti finora ci permettono di definire in modo compatto molte quantità di interesse. Per esempio, chiediamoci quale sia la variazione nel tempo di un’osservabile generica F (q, p, t). Possiamo scrivere dF dt = = = ∂F ∂t ∂F ∂t ∂F ∂t + X i + X i ∂F dqi ∂F dpi = + ∂qi dt ∂pi dt ∂F ∂H ∂qi ∂pi − ∂H ∂F ∂qi ∂pi = + {F, H} dove si sono impiegate le parentesi di Poisson {M, N } = X i ∂M ∂N ∂qi ∂pi − ∂N ∂M ∂qi ∂pi (1.58) Grazie alla parentesi di Poisson possiamo scrivere immediatamente gli integrali del moto di un sistema. Consideriamo per semplicità un sistema conservativo in coordinate cartesiane 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON • Energia H = 1 2 25 P 2 pi /mi + V Ḣ = {H, H} = 0 (1.59) P • Momento lineare P~ = i p~i X ˙ P~ = {P~ , H} = − ∇i V = F~ (1.60) i ~ = P ~ri × p~i • Momento angolare L i X ∂V ~˙ = {L, ~ H} = − ~ L =N ∂φ i i (1.61) dove ~ri = (ri cos φi , ri sin φi , zi ). ~ sono costanti. Per un sistema isolato si vede subito che P~ ed M Di interesse è anche il problema di trasformare le coordinate di un sistema da un insieme di funzioni ad un altro. Una trasformazione di variabili è definita in generale come Qi = Qi (q, p, t) Pi = Pi (q, p, t) e si dice canonica se esiste la funzione H = H(Q, P ), ovvero se H espressa in funzione delle (Q, P ), è tale che Q̇i = ∂H ∂Pi Ṗi = − ∂H ∂Qi In generale due set di coordinate canoniche soddisfano la relazione X pi q̇i − H = i X Pi Q̇i − H + i dF dt dove F è detta funzione generatrice della trasformazione dalle q, p) alle (Q, P ). La tabella (1.5.4) mostra in modo schematico la relazione tra variabili originarie e trasformate in funzione della forma della funzione generatrice 1.5.5 Teorema di Liouville Il formalismo basato sulle equazioni di Hamilton e le parentesi di Poisson ci permette di definire le proprietà di un sistema con un approccio globale che si presta particolarmente bene ad una descrizione statistica Definiamo lo spazio configurazionale q = q1 , . . . , qn e lo spazio dei momenti p = p1 , . . . , pn come le due parti che formano il cosiddetto spazio delle fasi (q, p) (SDF). Un punto nello SDF rappresenta lo stato di un sistema; una traiettoria rappresenta l’evoluzione temporale di un sistema; un insieme di punti di rappresenta 26 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA F = F (q, Q, t) F = F (q, P, t) ∂F pi = pi = ∂qi Pi = − ∂F Qi = ∂Qi H=H− ∂F ∂F qi = − ∂qi ∂F ∂Pi H=H− ∂t F = F (p, Q, t) ∂F ∂t Pi = − ∂F ∂pi F = F (p, P, t) qi = − ∂F Qi = ∂Qi H=H− ∂F ∂t ∂F ∂pi ∂F ∂Pi H=H− ∂F ∂t gli stati degli elementi di un insieme statistico: dato un sistema, consideriamo N repliche come gli elementi di un insieme: in pratica consideriamo una famiglia di N traiettorie con diverse condizioni iniziali. La densità degli stati di un insieme è la funzione ρ = ρ(q, p, t) che definisce il numero di sistemi dN in un intorno infinitesimale dqdp di un punto (q, p) dello SDF dN = ρ(q, p, t)dqdp ≡ ρ(q1 , . . . , qn , p1 , . . . , pn )dq1 . . . dqn dp1 . . . dpn Naturalmente assumiamo per semplicità che N sia grande a sufficienza da poter essere considerato una funzione reale e continua. Il numero totale di sistemi è dato da Z Z N = ρ(q, p, t)dqdp e il valor medio di un’osservabile F (q, p, t) si ottiene come la media F = 1 N Z Z F (q, p, t)ρ(q, p, t)dqdp Consideriamo ora volume V associato ad una regione R nello SDF Z Z V= ... R dq1 . . . dqn dp1 . . . dpn (1.62) Siano qi = qi (t, q 0 , p0 ), pi = pi (t, q 0 , p0 ) le equazioni di Hamilton risolte per una condizione iniziale a t = t0 : (q 0 = q10 , . . . , qn0 , p0 = p01 , . . . , pn0 ) e consideriamo una regione R0 , a cui corrisponde un volume V0 . Quale è il volume della regione R formata dai punti al tempo t delle traiettorie originate in R0 a t0 ? La risposta è: Z Z V= ... R0 Idq10 . . . dqn0 dp01 . . . dp0n dove I è lo jacobiano per il cambio di variabile (q, p) → (q 0 , p0 ) ¯ ¯ ¯ ¯ ¯ ∂(q1 , p1 , . . . , qn , pn ) ¯ ¯ ¯ I=¯ ¯ ¯ ∂(q10 , p01 , . . . , qn0 , p0n ) ¯ Evidentemente Vt=t0 = V0 e It=t0 = 1. Inoltre si ottiene: µ dV dt ¶ Z = t=t0 Z ... R0 ¯ dI ¯¯ dq 0 . . . dqn0 dp01 . . . dp0n dt ¯t=t0 1 1.5. APPROFONDIMENTO: FORMALISMI DI LAGRANGE E HAMILTON ¯ ¯ Si può verificare che İ ¯ ¯ t=t0 27 = 0. Infatti: X ∂ q̇i X ∂ ṗi ∂ ∂H ∂ ∂H dI ¯¯ = = + − 0 0 = 0 ¯ 0 0 0 0 dt t=t0 ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi i i ³ Da ciò segue che dV dt ´ t=t0 e quindi per l’arbitrarietà di t0 dV =0 dt La grandezza del volume di una regione non cambia nel tempo. Se ora consideriamo la densità degli stati associati ad una regione infinitesimale, otteniamo che ρ = dN /dV. Entrambe le quantità dN e dV sono costanti nel tempo e quindi ∂ρ ∂ρ dρ + {ρ, H} = 0 → = −{ρ, H} ≡ dt ∂t ∂t che è il teorema di Lioville. 28 CAPITOLO 1. RICHIAMI DI MECCANICA CLASSICA Capitolo 2 Dinamica molecolare: metodologie ed applicazioni 2.1 Introduzione Le tecniche di calcolo di dinamica molecolare (molecular dynamics, MD) sono basate sulla soluzione “esatta” delle equazioni del moto di un insieme di N particelle e sul calcolo diretto delle varie osservabili fisiche: simulazione matematica −→ riproduzione di un sistema fisico Da un punto di vista metodologico, possiamo distinguere le seguenti fasi nella messa a punto di una simulazione MD • definizione delle condizioni del sistema (insieme termodinamico di appartenenza) • definizione dei gradi di libertà e delle interazioni tra le componenti del sistema (statica) • scelta della legge del moto (dinamica) • condizioni al contorno e condizioni iniziali • scelta del metodo di risoluzione numerica delle equazioni del moto • calcolo delle osservabili fisiche ed implementazione computazionale: grandezze riscalate, condizioni periodiche al contorno, trattamento di gradi di libertà rotazionali La definizione di un sistema di particelle interagenti, e la simulazione delle proprietà macroscopiche del sistema stesso, può essere effettuata nell’ambito di uno dei vari insiemi termodinamici: l’insieme microcanonico classico: un sistema all’equilibrio di N particelle (oppure N1 , N2 . . . per un sistema a più componenti) interagenti a energia E totale costante e volume V fisso −→ (E, N , V ); l’insieme canonico: temperatura, numero di particelle e volume costanti −→ (T , N , V ); l’insieme isotermo-isobarico: temperatura, numero di particelle e pressione costanti −→ (T , N , P ); l’insieme grandcanonico: potenziale chimico, temperatura e volume costanti −→ (µ, T , V ). Nella maggior parte delle simulazioni MD si utilizza l’insieme microcanonico, si considera cioè un’insieme isolato di particelle interagenti. 29 30 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI Le equazioni del moto delle singole molecole sono, nella maggior parte delle applicazioni in letteratura, le equazioni della meccanica classica, nella loro forma standard di equazioni di Newton. Per un insieme di N particelle classiche puntiformi possiamo definire le coordinate e i momenti lineari in modo immmediato come le posizioni (vettori cartesiani) {~r(t)1 , ~r(t)2 , . . . , ~r(t)N } e i vettori momenti lineari: {~ p(t)1 , p~(t)2 , . . . , p~(t)N }, dove ~vi = mi d~ri (t) = mi~vi (t) dt (2.1) Le proprietà statiche del sistema sono definite se è nota l’energia potenziale: V = V ({~r(t)1 , ~r(t)2 , . . . , ~r(t)N }) (2.2) che contribuisce all’energia totale del sistema H =K +V = N X p~2i i=1 1 + V (~r) = p~ · m−1 · p~ + V (~r) 2mi 2 (2.3) La presenza di eventuali campi esterni (e.g. campi gravitazionali, elettrici magnetici, stress meccanici imposti al sistemi) permette di simulare sistemi fluidi in condizioni di non-equilibrio. Nel seguito faremo riferimento solo a sistemi isolati, aventi energia meccanica costante definita dalla (2.3). 2.2 Potenziali di interazione Nel caso di N particelle (atomi) indistinguibili m1 = m2 = . . . = m, possiamo definire l’energia potenziale P come risultante dalla somma di sole interazione tra coppie di particelle, V (~r) = i<j v(~ri , ~rj ). In generale, l’energia potenziale si può scrivere come la somma di interazioni ad un corpo (interazioni con campi esterni), a due corpi, a tre corpi etc.: V = X i v1 (~ri ) + X X v2 (~ri , ~rj ) + i<j v3 (~ri , ~rj , ~rk ) + . . . (2.4) i<j<k È noto come fino al 10 % dell’energia reticolare di un cristallo di argon possa essere dovuta ai termini di interazione a tre corpi; nel seguito, in analogia alla maggioranza delle applicazioni MD, trascureremo termini di interazione a più di due corpi. I potenziali di coppia utilizzati per la simulazione MD di fluidi non-ionici sono di solito i seguenti • 6-12 o Lennard-Jones (LJ): v LJ (r) = 4² "µ ¶ 12 σ r µ ¶6 # − σ r (2.5) Il potenziale LJ è il più usato per la maggior parte delle applicazioni MD in cui si intendano simulare proprietà statiche e dinamiche di fluidi atomici (o molecolari, vedi oltre), poichè tiene conto in modo qualitativamente corretto sia delle interazioni repulsive che attrattive tra due particelle. 2.3. LIQUIDI MOLECOLARI σ 31 2σ 3σ σ 2σ 3σ σ −4ε 2σ 3σ −4ε (a) (b) (c) Figura 2.1: Potenziali: Lennard-Jones (a), hard-sphere (b), square-well (c) • potenziale hard-sphere e square-well: ( v HS (r) = ∞ (r < σ) 0 (σ ≤ r) v SW ∞ (r < σ1 ) (r) = −² (σ1 ≤ r < σ2 ) 0 (σ2 ≤ r) (2.6) I potenziali hard-sphere e square-well sono potenziali semplificati che permettono una soluzione più rapida, dal punto di vista computazionale, delle equazioni del moto, rispetto ai potenziali continui come il potenziale di LJ. • potenziali soft-sphere: v SS µ ¶n (r) = ² σ r (2.7) L’utilizzazione di potenziali soft-sphere è accettabili soprattutto nell’ambito di simulazioni di particelle non-atomiche (e.g. sospensioni di particelle macroscopiche in fasi fluide, colloidi etc.). Per i sistemi ionici si deve considerare l’interazione elettrostatica: zi zj v z (rij ) = 4π²0 rij (2.8) I potenziali elettrostatici, che sono intrinsicamente diversi dai potenziali precedenti in quanto espressione di forze a lungo raggio, sono molto difficili da trattare nell’ambito di simulazioni MD, a causa della limitata dimensione del sistema trattabile nell’ambito delle consuete applicazioni MD. 2.3 Liquidi molecolari Nel caso di sistemi formati da molecole non mono-atomiche, la definizione dei gradi di libertà del sistema è notevolmente complicata dalla presenza di coordinate rotazionali, ed eventualmente, per molecole non rigide, 32 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI di coordinate interne. Da un punto di vista energetico, i sistemi molecolari possono essere agevolmente descritti da siti localizzati, che rappresentano singoli atomi o gruppi di atomi, interagenti mediante potenziali sito-sito del tipo descritto nella sezione precendente: v(~rij , Ωi , Ωj ) = XX a vab (rab ) (2.9) b dove si indica con Ωi il set di angoli di Eulero che specifica l’orientazione della molecola i (vedi oltre), con ~rij = ~ri −~rj la differenza tra i vettori che indicano il centro di massa delle molecole i e j e con rab = |~ria −~rjb | la differenza tra i vettori che indicano il sito a della molecola i e il sito b della molecola j. Applicazioni più 1 6 1 2 2 5 6 3 4 3 5 4 Figura 2.2: Due molecole interagenti a 6 siti sofisticate prevedono anche l’uso di potenziali Lennard-Jones generalizzati: ²(Ωi , Ωj ) = ²[1 − χ2 (ei · ej )2 ]−1/2 · ¸ 1 σ(~rij , Ωi , Ωj ) = σ 1 − χf (~rij · ei , ~rij · ej , ei · ej ) 2 (2.10) (2.11) e si possono poi considerare, soprattutto per sistemi a molti siti termini aggiuntivi di energia interna vibrazionale, torsionale ed interazioni dipolari, quadrupolari etc. Poichè il nostro studio sarà limitato a fluidi formati da molecole lineari biatomiche rigide, non considereremo nel dettaglio questo tipo di interazioni. 2.3.1 Leggi del moto Le equazioni del moto definiscono al tempo t la posizione e la velocità di ciascuna particella. Per un sistema di N molecole interagenti, i gradi di libertà traslazionali ~ri , e le corrispondenti velocità lineari ~vi obbediscono alle equazioni del moto mi~v˙ i = F~i (2.12) dove F~i è la forza totale agente sulla i-esima molecola, ottenuta come gradiente rispetto a ~ri del potenziale V ; indichiamo con ȧ la derivata temporale di una quantità a. Nel caso di molecole rigide non-monoatomiche 2.3. LIQUIDI MOLECOLARI 33 dobbiamo considerare anche i gradi di libertà rotazionali di ciascuna molecola; in generale, nel caso di molecole rigide non lineari possiamo definire l’orientazione di un sistema di riferimento solidale con la molecola rispetto al laboratorio utilizzando come coordinate gli angoli di Eulero Ω = φ, θ, ψ, oppure in termini di quaternioni Q = q0 , q1 , q2 , q3 . Alle coordinate rotazionali, definite in termini di angoli di Eulero o quaternioni, è associato il vettore di velocità angolare ω ~ . La legge del moto rotazionale di una molecola rigida non-lineare i è in generale scritta in termini del momento della coppia ~τi che è l’analogo rotazionale della forza agente sulle coordinate traslazionali del centro di massa F~i . In generale, se le componenti di ~τi e ω ~ i sono riferite ad un sistema di riferimento solidale con la molecola i, le equazioni del moto rotazionale sono µ ω̇i x = ω̇iy = ω̇i z = ¶ Iiyy − Iizz τi x + ωi y ωi z Ii xx Ii xx à ! τi y Ii zz − Ii zz + ωiz ωix Ii yy Ii yy µ ¶ Iixx − Iiyy τi z + ωi x ωi y Ii zz Ii zz (2.13) (2.14) dove Iixx , Iiyy , Iizz sono i valori principali del tensore di inerzia della molecola. Le leggi del moto rotazionale sono completate dalle relazioni geometriche che legano la velocità angolare con le derivate temporali delle coordinate rotazionali prescelte, siano esse gli angoli di Eulero o i quaternioni. Nel caso di molecole lineari, le equazioni del moto sono leggermente modificate, per tener conto della degenerazione del moto attorno all’asse di simmetria molecolare. 2.3.2 Sistemi termodinamici e condizioni di simulazione In assenza di campi esterni, il sistema costituito da N molecole interagenti viene considerato un insieme microcanonico. In pratica, il numero limitato di molecole considerato (N ∼ O(102 )) e il tempo di simulazione anch’esso necessariamente limitato (dell’ordine di decine di picosecondi) implica che la condizione di equilibrio termodinamico conseguita dal sistema sia un’approssimazione. In pratica, il sistema è inizialmente preparato in una qualche condizione facilmente definibile (e.g. uno stato cristallino ordinato), e con una data densità ρ. Alle molecole è assegnata un’energia cinetica iniziale distribuendo in modo casuale, secondo una distribuzione di Maxwell, le velocità lineari ed angolari iniziali. Dopodichè si conducono uno o più lunghi cicli di equilibrazione, che ahnno lo scopo di portare il sistema nelle condizioni il più vicino possibile a quelle di equilibrio termodinamico. Solo a questo punto inizia la vera e propria simulazione, con la memorizzazione delle traiettorie delle particelle ed il calcolo di vari osservabili. 2.3.3 Osservabili In generale, una proprietà osservabile Aobs viene calcolata come media temporale della funzione che lega l’osservabile A alle coordinate roto-traslazionali delle molecole costituenti il sistema: Aobs = hAitempo = hA[Γ(t)]i = lim 1 t→∞ tobs Z tobs 0 dtA[Γ(t)] (2.15) Le funzioni termodinamiche sono perciò immediatamente calcolabili dalle loro definizioni microscopicostatistiche: 34 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI energia totale E = hHi = hKi + hV i (2.16) in un insieme isolato questa quantità deve essere costante, e dunque uguale all’energia assegnata al sistema a t = 0, e può quindi essere utilizzata per controllare l’accuratezza del metodo numerico di risoluzione delle equazioni del moto; temperatura PN 3N kB T = 2hKi = h p ~2i i=1 mi i (2.17) la temperatura è calcolata in termini di energia cinetica media; pressione P V − N kB T = hW i = h− 13 PN ri i=1 ~ ˆ iV i ·∇ (2.18) la pressione è calcolata come media della funzione viriale W . Una funzione di grande utilità è la funzione di correlazione di coppia; per un fluido atomico, la funzione di correlazione è Z N (N − 1) g(~r1 , ~r2 ) = 2 ρ ZN V T · V (~r1 , . . . , ~rN ) d~r3~r4 . . . ~rN exp − kB T ¸ (2.19) In pratica la seguente definizione operativa (con media su tutte le coppie) è utilizzata g(~r) = 1 P P V P P h i j6=i δ(~ri )δ(~rj − ~r)i = 2 h i j6=i δ(~r − ~rij )i 2 ρ N (2.20) e per un sistema isotropo g(~r) = g(r). Ogni media di una funzione di coppie di particelle è esprimibile in funzione di g(r): ha(~ri , ~rj )i = Z 1 V2 d~ri d~rj g(~ri , ~rj )a(~ri , ~rj ) P P hAi = h i j6=i a(rij )i = Z Nρ ∞ 2 0 (2.21) dr4πr2 a(r)g(r) (2.22) Di conseguenza numerose osservabili possono essere calcolate indirettamente una volta che sia nota la funzione g(r) energia 3 E = N kB T + 2πN ρ 2 Z ∞ 0 drr2 v(r)g(r); (2.23) pressione 2 P V = N kB T − πN ρ 3 Z ∞ 0 drr2 dv(r) g(r); dr (2.24) 2.3. LIQUIDI MOLECOLARI 35 potenziale chimico 3 µ = kB T ln(ρΛ ) + 4πρ dove Λ = p Z 1 0 dξ Z ∞ 0 drr2 v(r)g(r; ξ) (2.25) h2 /2πmkB T è la frequenza termica di De Broglie. Funzioni termodinamiche più complesse quali l’energia libera di Gibbs, G, l’energia di Helmholtz, A, ol’entropia, S. sono funzioni riconducibili al calcolo diretto della funzione di partizione Q: µ A exp kB T ¶ = 1 QN V T ³ = hexp V kB T ´ i (2.26) il cui calcolo diretto nell’ambito del sistema microcanonico è difficoltoso. Si può perciò ricorrere a simulazioni MD che utilizzano insiemi termodinamici diversi come l’insieme NVT, ottenibile per esempio mediante una modifica stocastica della velocità di una o più particelle di un sistema NVE per simulare l’interazione con una ipotetica particella del termostato; oppure coime l’insieme NPT, ottenibile con la definizione di una grado di libertà aggiuntivo che rappresenta un ’pistone’ che esercita una pressione esterna P sul sistema. Le proprietà del sistema dipendenti dal tempo sono descrivibili dallo o quadratico mediodi un’osservabile, che misura l’entità delle fluttuazioni del’oservabile dal valore medio σ 2 (A) = hA2 i = h(A − hAi)2 i = hA2 i − hAi2 (2.27) e soprattutto dalle funzioni di correlazione temporale che misurano la correlazione media tra il valore di un osservabile al tempo t e al tempo t = 0: CAB (t) = hδA(t)δB(0)i = hδA[Γ(t)]δB[Γ(0)]i (2.28) Una funzione di correlazione si dice di autocorrelazione se A = B. Le funzioni di correlazioni hanno molte applicazioni: • danno informazioni sul comportamento dinamico dei fluidi; • i loro integrali sono legati a grandezze macroscopiche; • le loro trasformate di Fourier sono legate a osservabili spettroscopiche. Un esempio di una classe di osservabile legata al calcolo di funzioni di correlazione è dato dai coefficienti di trasporto. Il coefficiente traslazionale di diffusione di una particella sonda è per esempio definito in funzione della funzione di autocorrelazione della velocità lineare: 1 D= 3 Z ∞ 0 dth~v (t)~v (0)i = 1 1 lim h|~ri (t) − ~ri (0)|2 i t→∞ 6 t (2.29) Il calcolo di funzioni di correlazione rotazionali è utile per la comprensione della natura dei moti rototraslazionali nei liquidi molecolari; inoltre opportune funzioni di correlazione rotazionale possono essere messe in relazione a vari osservabili spettroscopici • spettri infrarosso C1mm0 (t) = hY1m [Ω(t)]Y1m0 [Ω(0)]i (2.30) 36 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI • spettri Raman, NMR ed EPR C2mm0 (t) = hY2m [Ω(t)]Y2m0 [Ω(0)]i (2.31) Lo studio di liquidi rotazionali permette di verificare varie teorie per la descrizione della fase liquida. Un’osservabile importante è la funzione di autocorrelazione della velocità angolare: cωω (t) = hω(t) · ω(0)i/hω 2 i (2.32) che può essere messa in relazione con il coefficiente di diffusione rotazione di una singola molecola. 2.4 Metodi computazionali di MD Come tutte le metodologie di simulazione, anche per la Dinamica Molecolare è necessario, al fine di implementare le potenziali applicazioni di questa tecnica allo studio delle proprietà dei fluidi, utilizzare una serie di accorgimenti pratici. Il primo aspetto che vogliamo sottolineare, anche per la comprensione dei risultati presentati nei Capitoli successivi è l’impiego di grandezze scalate: le varie grandezze fisiche sono di solito ricondotte e presentate in termini di unità di misura convenientemente scelte (vedi Tabella (2.4)). Cosı̀ la Grandezza Massa Spazio Tempo Energia Forza Temperatura Densità Pressione Grandezza riscalata m∗ = m/mu l∗ = l/lu t∗ = t/tu E ∗ = E/Eu F ∗ = F/Fu T ∗ = T /Tu ρ∗ = ρ/ρu P ∗ = P/Pu Coefficiente di scala (atomi di Ar) mu = mAr lu = σ p tu = σ 2 mAr /² Eu = ² Fu = ²/σ Tu = ²/kB ρu = σ −3 Pu = ²/σ 3 Tabella 2.1: Grandezze riscalate in unità σ funzione hamiltoniana scalata risulta essere: H∗ = 1 X ∗2 X ∗ ∗ v + V (|ri − rj∗ |) 2 i i i<j (2.33) dove il potenziale scalato è: µ V ∗ (r∗ ) = 4 1 r∗ 12 − 1 r∗ 6 ¶ (2.34) Un’altro aspetto pratico dell’implementazione dei metodi MD è costituito dall’uso di condizioni periodiche: nello studio dei fluidi, i sistemi trattati dalle simulazioni MD comprendono solitamente 102 , 103 particelle (nel caso per esempio di simulazione massive, altamente parallelizzate, di studio di stress meccanici in solidi atomici sonjo stati effettuati studi con 106 particelle). In presenza di una parete (sistema a volume costante), la maggior parte delle particelle interagirebbe solo con la parete e di conseguenza gli effetti di superficie sarebbero dominanti: a titolo di esempio per un sistema di 1000 particelle in un cristallo cubico (10 2.4. METODI COMPUTAZIONALI DI MD 37 × 10 × 10), 488 giacciono sulle pareti. Nella maggior parte delle applicazioni, si preferisce perciò utilizzare condizioni periodiche, in cui il sistema è a contatto con un numero infinito di repliche, tali che se rxi , ryi , rzi è la posizione della particella i-esima, ogni sua replica ha posizione rxi + nx Lx , ryi + ny Ly , rzi + nz Lz , dove nx , ny , nz sono numeri interi. Ogni particella costituente il sistema interagisce con tutte le particelle A A P P A A P A A P A A P P P P Figura 2.3: Condizioni al contorno periodiche e raggio di cut-off delle repliche, Il calcolo del potenziale agente sulla particella può essere effettuato in vari modi: utilizzando il metodo della convenzione dell’immagine minima: si considerano tutte le molecole che giacciono in una pseudoscatola centrata sulla molecola in esame; per un potenziale a coppie si calcolano 12 N (N − 1) termini; oppure usando il raggio di cutoff: si considerano solo le molecole giacenti in una sfera di raggio rc < 12 L (es. rc = 2.5σ). Altre condizioni al contorno sono utilizzabili per studi MD specifici come le condizioni al contorno ipersferiche, in cui le molecole giacciono sulla superficie di un’ipersfera; e soprattutto l’impiego di cluster in cui si considerano veri cluster molecolari, con condizioni al contorno non-periodiche. 2.4.1 Metodi alle differenze finite Il metodo principale di soluzione delle equazioni di Newton in MD consiste nella discretizzazione delle traiettorie rispetto al tempo usando uno dei vari schemi in cui le derivate temporali sono approssimate da rapporti incrementali. Qualunque metodologia di calcolo dovrà ottimizzare i seguenti requisiti, imposti dalle limitate risorse computazionali 1. elevata velocità di calcolo; 2. minima richiesta di memoria su disco; 3. accuratezza nel calcolo delle traiettorie; 4. semplicità di implementazione; 5. conservazione dell’energia e della quantità di moto; 38 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI 6. reversibilità temporale Lo schema di discretizzazione più semplice delle equazioni del moto è basato sull’approssimazione di Eulero. Se indichiamo con ~a, ~v , ~r i vettori collettivi delle accelerazioni, velocità, vettori di posizione di tutte le particelle del sistema ( e consideriamo per semplicità un fluido atomico), l’equazioni di Netwon discretizzate secondo lo schema di Eulero sono: ~a(t + δt) ≈ ~a(t) (2.35) ~v (t + δt) ≈ ~v (t) + ~a(t)δt (2.36) 1 ~r(t + δt) ≈ ~r(t) + ~v (t)δt + ~a(t)δt2 2 (2.37) Il metodo di Eulero è molto semplice, e facilmente implementabile purtroppo, a meno di non usare un passo temporale δt estremamente piccolo non è nè stabile nè reversibile. Metodi di discretizzazione più sofisticati devono perciò essere utilizzati. Nella Sezione successiva dedicata allo studio di molecole lineari, lo schema di discretizzazione utilizzato in questo lavoro sarà descritto in dettaglio. Tra agli schemi di discretizzazione più utilizzati, soprattutto per fluidi atomici, possiamo ricordare il cosiddetto lgoritmo di Verlet che consiste in una ridefinizione dello schema di discretizzazione di Eulero nel modo seguente: 1 ~r(t + δt) = ~r(t) + ~v (t)δt + ~aδt2 2 1 2 ~r(t − δt) = ~r(t) − ~v (t)δt + ~aδt 2 (2.38) (2.39) sommando si elimina la velocità: ~r(t + δt) = 2~r(t) − ~r(t − δt) + ~aδt2 (2.40) Poichè al tempo t sono noti ~a(t), ~r(t) e ~r(t − δt), al tempo t + δt si ricava ~r(t + δt), mentre la velocità la tempo t è: ~v (t) = ~r(t + δt) − ~r(t − δt) 2δt (2.41) Il metodo di Verlet è stabile, permette di usare step fino a 0.01 ps, è reversibile e conserva energia e momento. 2.5 Molecole lineari Nel caso di una molecola lineare, la definizione dell’orientazione molecolare è specificabile da solo due coordinate, che indichino la direzione e il versore di un versore unitario ~e diretto lungo l’asse molecolare. È dunque possibile utilizzare una descrizione semplificata della geometria e delle equazioni del moto, anche se è possibile utilizzare descrizioni per esempio basate sulla geometria dei quaternioni, al prezzo comunque di una ridondanza nella definizione della geometria molecolare. Il momento di inerzia relativo alla rotazione intorno all’asse di simmetria è nullo, mentre i due rimanenti valori principali di I sono uguali, La velocità angolare e il momento della coppia ~τ sono sempre perpendicolari all’asse molecolare . Di conseguenza, possiamo scrivere ~τ = ~e × ~g (2.42) 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO 39 dove ~g è una funzione delle forze agenti sulla molecola. Per una molecola lineare formata da M siti puntiformi, per la quale cioè ciascun sito sia definito rispetto al centro di massa dall’identità vettoriale d~j = dj ~e j = 1, . . . , M (2.43) il vettore ~g è definito come ~g = j=M X dj f~j (2.44) j=1 dove f~j è la forza agente sul sito j. Il vettore ~g può essere sostituito con la componente perpendicolare all’asse molecolare ~g ⊥ = ~g − (~g · ~e)~e. Le equazioni del moto rotazionale di una molecola lineare si possono scrivere nella seguente forma: ~e˙ = ~u (2.45) ⊥ ~g ~u˙ = + λ~e (2.46) I La prima equazione definisce il momento generalizzato ~u come derivata prima temporale di ~e. La seconda descrive il moto rotazionale della molecola in presenza del momento di coppia generalizzato ~g , con il termine aggiuntivo λ~e che tiene conto del vincolo di lunghezza costante della molecola: λ è dunque un moltiplicatore indeterminato di Lagrange. Nel corso di una simulazione MD, λ viene determinato numericamente nell’ambito dello schema di discretizzazione impiegato. Tra gli schemi più comuni descriviamo nel dettaglio il metodo leap-frog che è anche stato impiegato nel corso delle simulazioni MD presentate in questo lavoro. Al tempo t siano noti i vettori ~e(t), ~u(t − δt/2) e ~g ⊥ (t). Il vettore ~u(t) è calcolato dallo schema discreto al primo ordine " # 1 ~g ⊥ (t) ~u(t) = ~u(t − δt/2) + δt + λ(t)~e(t) (2.47) 2 I se si prende il prodotto scalare con ~e(t) di entrambi i membri, si ottiene λ(t) = −2~u(t − δt/2) · ~e(t)/δt (2.48) tenendo conto del fatto che ~e · ~u = ~e · ~g ⊥ = 0. È ora possibile calcolare in modo diretto il vettore ~u˙ (t) dall’equazione (2.46) definita al tempo t. Noto ~u˙ si può ora valutare u(t + δt/2): ~u(t + δt/2) = ~u(t − δt/2) + δt~u˙ (t) (2.49) Infine il versore di orientazione al tempo t + δt è calcolato dall’equazione (discretizzata) (2.45) ~e(t + δt) = ~e(t) + δt~u(t + δt/2) 2.6 (2.50) Esempio: Studio di un fluido atomico Il Capitolo (2) aveva un carattere intenzionalmente introduttivo alle tecniche di base della Dinamica Molecolare applicata a fluidi costituiti da atomi o molecole rigide, trattati come corpi interagenti. In questo secondo Capitolo dedicato alla Dinamica Molecolare discuteremo in modo dettagliato un’applicazione. Partiremo dalla definizione del sistema di interesse; definiremo quindi le metodiche utilizzate per il calcolo; illustreremo un programma in linguaggio Fortran dedicato al calcolo stesso; ed infine commenteremo alcuni risultati. Il sistema considerato è un fluido atomico, formato cioè da particelle puntiformi interagenti mediante un potenziale a simmetria sferica. 40 2.6.1 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI Il sistema Il primo sistema da noi considerato è costituito da N particelle puntiformi - atomi - interagenti mediante un potenziale a coppie Lennard-Jones. La semplicità di questo sistema è utile per introdurre le metodologie fondamentalie della Dinamica Molecolare: le particelle costituenti sono dotate dei soli gradi di libertà traslazionali, e quindi non è necessaria un’implementazione complicata delle equazioni del moto che hanno la semplice forma descritta nelle prime sezioni del Capitolo (2). Il sistema considerato si può confrontare con un fluido costituito da atomi di gas rari, per esempio l’argon. In effetti, parametri ² e σ di un potenziale di Lennard-Jones per la riproduzione realistica di proprietà termodinamiche di fluidi atomici di Ar ed altri gas rari sono noti Per fissare le idee, considereremo il caso di un insieme di N atomi di Ar, cioè con ²/kB = 119.8 He Ne Ar Kr ²/kB (K) 10.2 47.0 119.8 164.0 σ (nm) 0.228 0.272 0.341 0.383 Tabella 2.2: Coefficienti LJ per i gas rari K e σ = 0.341 nm, contenuti in una scatola cubica, con condizioni al contorno periodiche, a densità e prefissata. Il sistema è isolato, cioè è trattato nell’ambito di una descrizione termodinamica microcanonica (NVE). Come definiamo la configurazione iniziale del sistema? Solitamente si assegna una configurazione ordinata, basata su un qualche reticolo cristallino di facile construzione. Assumeremo perciò nel seguito una configurazione iniziale basta su un reticolo cristallino cubico a facce centrate. (face centered cubic lattice, fcc). Costruiamo cioè il sistema iniziale come un insieme di Nc celle elementari fcc per lato. Una cella elementare fcc contiene 4 unità molecolari ed il numero di celle in un volume cubico è Nc3 , quindi il numero di particelle totali è N = 4Nc3 . In Fig. (2.4) è illustrata una cella elementare fcc (a) ed un sistema formato da 8 celle elementari (Nc = 2) per un totale di 32 atomi. Lo stato iniziale del sistema può essere definito in termini di una temperatura iniziale T0 , che vedremo non corrispondere esattamente alla temperatura di equilibrio, e di una densità ρ. La temperatura iniziale è il parametro che definisce l’energia cinetica totale iniziale del sistema. In pratica le velocità iniziali delle particelle del sistema ~vi (i = 1, . . . , N ) sono assegnate secondo una distribuzione gaussiana, secondo la legge di Maxwell, in modo tale che l’energia cinetica cinetica media di un atomo sia data da 3kB T0 /2. Nel corso della successiva evoluzione temporale dallo stato assegnato inizialmente, il sistema si porta in una stato di equilibrio, caratterizzato da una temperatura di equilibrio T . Le condizioni al contorno sono, solitamente, di tipo periodico: ogni particella risente perciò dell’interazione con le particelle entro il volume cubico, e di tutte le “repliche” o immagini negli infiniti volumi cubici circostanti. In pratica, dato che il potenziale di interazione decade rapidamente con la distanza, è sufficiente considerare una distanza massima o raggio di cut-off, rc , che tipicamente è dell’ordine di di 3, 4 volte σ. 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO 41 (a) (b) Figura 2.4: Un reticolo cristallino fcc (a) ed un sistema di 4 celle elementari fcc (b) 2.6.2 Metodo di calcolo Adottiamo come metodo di risoluzione numerica uno schema di discretizzazione di tipo leap-frog descritto in precedenza nel Capitolo (2), in una versione semplificata per sole coordinate traslazionali. Ad ogni nuovo passo il vettore delle velocità del sistema è aggiornato secondo lo schema ~v (t + δt/2) = ~v (t − δ/2) + δt~a(t) (2.51) dove il vettore delle accelerazioni è calcolato al tempo t usando la seconda legge di Newton e dunque calcolando le forze agenti sulle particelle. Il vettore delle posizioni è aggiornato al tempo t + δt secondo lo schema ~r(t + δt) = ~r(t) + δt~v (t + δt/2) (2.52) È necessario specificare dunque come ulteriore parametro di input il passo temporale dello schema di discretizzazione, δt. Una sessione di calcolo tipica è di solito completamente determinata specificando anche un lasso temporale teq , che specifichi il tempo assegnato al sistema per raggiungere lo stato di equilibrio termodinamico; ed un tempo di calcolo vero e proprio degli osservabili di interesse tcalc , che segue il tempo teq e che viene effettivamente considerato per il calcolo di funzioni di stato, funzioni di correlazione etc. Ricapitolando, il sistema è definito dai seguenti parametri: Nc , n. celle elementari del reticolo fcc che specifica la configurazione iniziale; ² e σ che definiscono il potenziale di interazione tra gli atomi; T0 , la temperatura iniziale, corrispondente ad uno stato di non equilibrio; ρ, la densità (intesa come numero di particelle su volume); rc , raggio di cut-off del potenziale; δt, passo dello schema di discretizzazione delle equazioni di Newton; teq , tempo di equilibrazione e tcalc , tempo di calcolo. In pratica, i codici esistenti implementano le equazioni del moto utilizzando, per motivi di convenienza numerica e per evitare calcoli ridondanti, coordinate riscalate. È sufficiente definire il sistema, se si usano grandezze scalate, con il seguente insieme di coordinate di input: Nc , T0∗ , ρ∗ , rc∗ , δt∗ , t∗eq e t∗calc . 42 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI Figura 2.5: Condizioni al contorno periodiche Esercizio 7. Si vuole simulare un sistema preparato inizialmente secondo un reticolo fcc, formato da circa 100 atomi di Ar, con una temperatura iniziale di 100 K, una densità (massa su volume) di ρm = 1.5 × 103 Kgm−3 , con un passo di integrazione di 10 fs; fissiamo il tempo di equilibrazione in 30 ps ed il tempo di calcolo in 10 ps. I parametri ² e σ sono rispettivamente 1.653 × 10−21 J e 3.41 × 10−10 m; assumiamo un raggio di cut-off pari a 3.5σ. Il sistema più vicino a quello desiderato corrisponde a Nc = 3, vale a dire 27 celle elementari, ovvero 108 atomi. La temperatura riscalata è T0∗ = kB T0 /² = 0.834. La densità riscalata è ρ∗ = ρσ 3 /mAr = 0.815; il raggio di cutoff è semplicemente 3.5; i parametri temporali sono δ ∗ = 0.0046, t∗eq = 13.8, t∗calc = 4.62. Per esercizio, calcolate la lunghezza riscalata del lato del volume cubico. 2.6.3 Codice Può essere utile commentare un programma per la simulazione di un sistema atomico in modo dettagliato dal testo di Allen e Tildesley [8]. Il programma principale è formato, come al solito da una sezione di dichiarazione delle variabili e di input dei parametri. Segue la definizione della configurazione iniziale (routines fcc e comvel). Il programma opera utilizzando un set di coordinate riferite ad una lunghezza unitaria del lato del volume cubico, quindi opera una conversione a partire dalle coordinate riscalate di input riferite a σ. ************************************************************************ ** LOW-STORAGE MD PROGRAMS USING THE LEAPFROG VERLET ALGORITHM ** ************************************************************************ C ******************************************************************* C ** TWO SEPARATE PARTS: FORTRAN AND BASIC VERSIONS. ** 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C ******************************************************************* ******************************************************************* ** FICHE F.3 - PART A ** ** FORTRAN PROGRAM USING THE LEAPFROG ALGORITHM. ** ******************************************************************* PROGRAM FROGGY include ’block.inc’ ******************************************************************* ** FORTRAN PROGRAM TO CONDUCT MOLECULAR DYNAMICS OF ATOMS. ** ** ** ** A SPECIAL LOW-STORAGE FORM OF THE LEAPFROG VERLET ALGORITHM ** ** IS USED AND WE TAKE THE LENNARD-JONES POTENTIAL AS AN EXAMPLE.** ** ** ** REFERENCE: ** ** ** ** FINCHAM AND HEYES, CCP5 QUARTERLY, 6, 4, 1982. ** ** ** ** ROUTINES REFERENCED: ** ** ** ** SUBROUTINE READCN ( CNFILE ) ** ** READS IN CONFIGURATION ** ** SUBROUTINE FORCE ( DT, SIGMA, RCUT, NEWV, NEWVC, NEWW ) ** ** CALCULATES THE ACCELERATIONS AND ADVANCES THE VELOCITIES ** ** FROM T - DT/2 TO T + DT/2. ALSO CALCULATES POTENTIAL ** ** ENERGY AND VIRIAL AT TIMESTEP T. ** ** SUBROUTINE MOVE ( DT ) ** ** ADVANCES POSITIONS FROM T TO T + DT. ** ** SUBROUTINE KINET ( NEWK ) ** ** CALCULATES KINETIC ENERGY. ** ** SUBROUTINE WRITCN ( CNFILE ) ** ** WRITES OUT CONFIGURATION ** ** ** ** PRINCIPAL VARIABLES: ** ** ** ** INTEGER N NUMBER OF ATOMS ** ** REAL DT TIMESTEP ** ** REAL RX(N),RY(N),RZ(N) ATOMIC POSITIONS ** ** REAL VX(N),VY(N),VZ(N) ATOMIC VELOCITIES ** ** REAL ACV,ACK ETC. AVERAGE VALUE ACCUMULATORS ** ** REAL AVV,AVK ETC. AVERAGE VALUES ** ** REAL ACVSQ, ACKSQ ETC. AVERAGE SQUARED VALUE ACCUMULATORS ** ** REAL FLV,FLK ETC. FLUCTUATION AVERAGES ** ** ** ** USAGE: ** ** ** ** THE LEAPFROG ALGORITHM IS OF THE FORM ** 43 44 C C C C C C C C C C C C C C C C C C C C C C C C C C C C C C CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI ** VX(T + DT/2) = VX(T - DT/2) + DT * AX(T) (SIMILARLY FOR Y,Z) ** ** RX(T + DT) = RX(T) + DT * VX(T + DT/2) (SIMILARLY FOR Y,Z) ** ** TO SAVE STORAGE IN THIS PROGRAM WE ACCUMULATE VALUES AX(T) ** ** DIRECTLY ONTO THE VELOCITIES VX(T - DT/2) IN THE FORCE LOOP. ** ** THIS MEANS THAT AN APPROXIMATION MUST BE USED FOR THE KINETIC ** ** ENERGY AT EACH TIME STEP: ** ** K = ( OLDK + NEWK ) / 2 + ( OLDV - 2 * V + NEWV ) / 8 ** ** WHERE K = K( T ), V = V( T ) ** ** OLDK = K( T - DT/2 ), OLDV = V( T - DT ) ** ** NEWK = K( T + DT/2 ), NEWV = V( T + DT ) ** ** AT THE START OF A STEP THE FOLLOWING VARIABLES ARE STORED: ** ** R : R(STEP) V : V(STEP+1/2) ** ** OLDV : V(STEP-2) V : V(STEP-1) NEWV : V(STEP) ** ** OLDK : K(STEP-1/2) NEWK : K(STEP+1/2) ** ** THIS PROGRAM USES UNIT 10 FOR CONFIGURATION INPUT AND OUTPUT ** ** ** ** UNITS: ** ** ** ** THE PROGRAM USES LENNARD-JONES REDUCED UNITS FOR USER INPUT ** ** AND OUTPUT BUT CONDUCTS SIMULATION IN A BOX OF UNIT LENGTH. ** ** SUMMARY FOR BOX LENGTH L, ATOMIC MASS M, AND LENNARD-JONES ** ** POTENTIAL PARAMETERS SIGMA AND EPSILON: ** ** OUR PROGRAM LENNARD-JONES SYSTEM ** ** LENGTH L SIGMA ** ** MASS M M ** ** ENERGY EPSILON EPSILON ** ** TIME SQRT(M*L**2/EPSILON) SQRT(M*SIGMA**2/EPSILON) ** ** VELOCITY SQRT(EPSILON/M) SQRT(EPSILON/M) ** ** PRESSURE EPSILON/L**3 EPSILON/SIGMA**3 ** ******************************************************************* INTEGER STEP, NSTEP, IPRINT REAL DENS, NORM, RCUT, DT, SIGMA, TEMP1 REAL V, K, E, W REAL OLDK, NEWK, OLDV, NEWV, NEWW REAL OLDVC, NEWVC, VC, KC, EC REAL VN, KN, EN, ECN, PRES, TEMP REAL ACV, ACK, ACE, ACEC, ACP, ACT REAL AVV, AVK, AVE, AVEC, AVP, AVT REAL ACVSQ, ACKSQ, ACESQ, ACECSQ, ACPSQ, ACTSQ REAL FLV, FLK, FLE, FLEC, FLP, FLT REAL SR3, SR9, VLRC, WLRC, PI, SIGCUB CHARACTER CNFILE*30, TITLE*80 REAL FREE PARAMETER ( FREE = 3.0 ) PARAMETER ( PI = 3.1415927 ) 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO 45 C ******************************************************************* C ** READ IN INITIAL PARAMETERS ** WRITE(*,’(1H1,’’ **** PROGRAM FROGGY **** WRITE(*,’(//, ’’ MOLECULAR DYNAMICS OF LENNARD-JONES ATOMS WRITE(*,’( ’’ LEAPFROG ALGORITHM WITH MINIMAL STORAGE WRITE(*,’(’’ ENTER RUN TITLE READ (*,’(A)’) TITLE WRITE(*,’(’’ ENTER NUMBER OF STEPS READ (*,*) NSTEP WRITE(*,’(’’ ENTER NUMBER OF STEPS BETWEEN OUTPUT LINES READ (*,*) IPRINT WRITE(*,’(’’ ENTER CONFIGURATION FILENAME READ (*,’(A)’) CNFILE WRITE(*,’(’’ ENTER THE FOLLOWING IN LENNARD-JONES UNITS WRITE(*,’(’’ ENTER DENSITY READ (*,*) DENS WRITE(*,’(’’ ENTER INIT. TEMPERATURE READ (*,*) TEMP1 WRITE(*,’(’’ ENTER POTENTIAL CUTOFF DISTANCE READ (*,*) RCUT WRITE(*,’(’’ ENTER TIME STEP READ (*,*) DT WRITE(*,’(//1X,A)’) TITLE WRITE(*,’(’’ NUMBER OF ATOMS = ’’,I10 )’) N WRITE(*,’(’’ NUMBER OF STEPS = ’’,I10 )’) NSTEP WRITE(*,’(’’ OUTPUT FREQUENCY = ’’,I10 )’) IPRINT WRITE(*,’(’’ POTENTIAL CUTOFF = ’’,F10.4)’) RCUT WRITE(*,’(’’ DENSITY = ’’,F10.4)’) DENS WRITE(*,’(’’ TIME STEP = ’’,F10.6)’) DT C C C C ** READ CONFIGURATION INTO COMMON / BLOCK1 / VARIABLES ** CALL FCC CALL COMVEL( TEMP1 ) ** CONVERT INPUT DATA TO PROGRAM UNITS ** SIGMA = ( DENS / REAL ( N ) ) ** ( 1.0 / 3.0 ) RCUT = RCUT * SIGMA DT = DT * SIGMA DENS = DENS / ( SIGMA ** 3 ) ** CALCULATE LONG-RANGE CORRECTIONS ** ** NOTE: SPECIFIC TO LENNARD-JONES ** SR3 SR9 = ( SIGMA / RCUT ) ** 3 = SR3 ** 3 ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) ’’)’) 46 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI : : SIGCUB = SIGMA ** 3 VLRC = ( 8.0 /9.0 ) * PI * DENS * SIGCUB * REAL ( N ) * ( SR9 - 3.0 * SR3 ) WLRC = ( 16.0 / 9.0 ) * PI * DENS * SIGCUB * REAL ( N ) * ( 2.0 * SR9 - 3.0 * SR3 ) Segue il calcolo vero e proprio, effettuato come un ciclo su numero di passi temporali totali nstep; per semplicità non sono inclusi in questo codice passi preliminari di equilibrazione. Ad ogni passo del ciclo vengono chiamate nell’ordine le routine move (che aggiorna le posizioni, date le velocità calcolate nel passo precedente), force che calcola le forze e aggiorna le velocità secondo l’algoritmo di leap-frog e kinet che calcola l’osservabile richiesto (in questo caso l’energia cinetica del sistema). C ** ZERO ACCUMULATORS ** ACV ACK ACE ACEC ACP ACT C 0.0 0.0 0.0 0.0 0.0 0.0 ACVSQ ACKSQ ACESQ ACECSQ ACPSQ ACTSQ = = = = = = FLV FLK FLE FLEC FLP FLT 0.0 0.0 0.0 0.0 0.0 0.0 = = = = = = 0.0 0.0 0.0 0.0 0.0 0.0 ** CALCULATE INITIAL VALUES ** CALL CALL CALL CALL CALL CALL CALL CALL C = = = = = = FORCE MOVE FORCE FORCE KINET MOVE FORCE KINET ( ( ( ( ( ( ( ( -DT, SIGMA, -DT ) -DT, SIGMA, DT, SIGMA, OLDK ) DT ) DT, SIGMA, NEWK ) RCUT, NEWV, NEWVC, NEWW ) RCUT, V, VC, W ) RCUT, V, VC, W ) RCUT, NEWV, NEWVC, NEWW ) ** INCLUDE LONG-RANGE CORRECTIONS ** 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO V W NEWV NEWW = = = = V + VLRC W + WLRC NEWV + VLRC NEWW + WLRC IF ( IPRINT .LE. 0 ) IPRINT = NSTEP + 1 WRITE(*,’(//1X,’’**** START OF DYNAMICS ****’’)’) WRITE(*,10001) C C C ******************************************************************* ** MAIN LOOP BEGINS ** ******************************************************************* DO 1000 STEP = 1, NSTEP C ** IMPLEMENT ALGORITHM ** CALL MOVE ( DT ) OLDV = V V = NEWV OLDVC = VC VC = NEWVC W = NEWW CALL FORCE ( DT, SIGMA, RCUT, NEWV, NEWVC, NEWW ) ** INCLUDE LONG-RANGE CORRECTIONS ** NEWV = NEWV + VLRC NEWW = NEWW + WLRC C C : : C C ** CALCULATE KINETIC ENERGY AT CURRENT STEP ** K = ( NEWK + OLDK ) / 2.0 + ( NEWV - 2.0 * V + OLDV ) / 8.0 KC = ( NEWK + OLDK ) / 2.0 + ( NEWVC - 2.0 * VC + OLDVC ) / 8.0 OLDK = NEWK CALL KINET ( NEWK ) ** CALCULATE INSTANTANEOUS VALUES ** E = K + V EC = KC + VC VN = V / REAL ( N ) KN = K / REAL ( N ) EN = E / REAL ( N ) ECN = EC / REAL ( N ) TEMP = 2.0 * KN / FREE PRES = DENS * TEMP + W ** CONVERT TO LENNARD-JONES UNITS ** PRES = PRES * SIGMA ** 3 47 48 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI C C : 1000 C C C ** INCREMENT ACCUMULATORS ** ACE = ACE + EN ACEC = ACEC + ECN ACK = ACK + KN ACV = ACV + VN ACP = ACP + PRES ACESQ = ACESQ + EN ** 2 ACECSQ = ACECSQ + ECN ** 2 ACKSQ = ACKSQ + KN ** 2 ACVSQ = ACVSQ + VN ** 2 ACPSQ = ACPSQ + PRES ** 2 ** OPTIONALLY PRINT INFORMATION ** IF ( MOD( STEP, IPRINT ) .EQ. 0 ) THEN WRITE(*,’(1X,I8,6(2X,F10.4))’) STEP, EN, ECN, KN, VN, PRES, TEMP ENDIF CONTINUE ******************************************************************* ** MAIN LOOP ENDS ** ******************************************************************* WRITE(*,’(/1X,’’**** END OF DYNAMICS **** ’’//)’) C ** OUTPUT RUN AVERAGES ** NORM = REAL ( NSTEP ) AVE = ACE / NORM AVEC = ACEC / NORM AVK = ACK / NORM AVV = ACV / NORM AVP = ACP / NORM ACESQ = ( ACESQ / NORM ) - AVE ** ACECSQ = ( ACECSQ / NORM ) - AVEC ** ACKSQ = ( ACKSQ / NORM ) - AVK ** ACVSQ = ( ACVSQ / NORM ) - AVV ** ACPSQ = ( ACPSQ / NORM ) - AVP ** IF ( ACESQ .GT. 0.0 ) FLE = SQRT ( IF ( ACECSQ .GT. 0.0 ) FLEC = SQRT ( IF ( ACKSQ .GT. 0.0 ) FLK = SQRT ( IF ( ACVSQ .GT. 0.0 ) FLV = SQRT ( IF ( ACPSQ .GT. 0.0 ) FLP = SQRT ( AVT = AVK * 2.0 / FREE FLT = FLK * 2.0 / FREE 2 2 2 2 2 ACESQ ACECSQ ACKSQ ACVSQ ACPSQ ) ) ) ) ) 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO : : C 49 WRITE(*,’(’’ AVERAGES’’,6(2X,F10.5))’) AVE, AVEC, AVK, AVV, AVP, AVT WRITE(*,’(’’ FLUCTS ’’,6(2X,F10.5))’) FLE, FLEC, FLK, FLV, FLP, FLT ** WRITE OUT FINAL CONFIGURATION ** CALL WRITCN ( CNFILE ) STOP 10001 : : FORMAT(//1X,’TIMESTEP ..ENERGY.. CUTENERGY.’ ’ ..KINETIC. ..POTENT..’, ’ .PRESSURE. ..TEMPER..’/) END Alcune routine sono riportate nel seguito. In particolare, si deve prestare atenzione al doppio ciclo presente nella routine force che costituisce la sezione del codice che utilizza la maggior parte del tempo di CPU richiesto dal programma (fino al 90%). SUBROUTINE FORCE ( DT, SIGMA, RCUT, V, VC, W ) include ’block.inc’ C C C C C C C C C C C C C C C C ******************************************************************* ** ROUTINE TO COMPUTE FORCES WITH CUTOFF & MINIMUM IMAGING. ** ** ** ** THE ROUTINE ACTUALLY RETURNS TWO DIFFERENT POTENTIAL ENERGIES.** ** V IS CALCULATED USING THE UNSHIFTED LENNARD-JONES POTENTIAL. ** ** WHEN LONG-RANGE TAIL CORRECTIONS ARE ADDED, THIS MAY BE USED ** ** TO CALCULATE THERMODYNAMIC INTERNAL ENERGY ETC. ** ** VC IS CALCULATED USING THE SHIFTED LENNARD-JONES POTENTIAL ** ** WITH NO DISCONTINUITY AT THE CUTOFF. THIS MAY BE USED TO ** ** CHECK ENERGY CONSERVATION. ** ** PROGRAM UNITS MAKE EPSILON = MASS = 1, BUT SIGMA IS NOT UNITY ** ** SINCE WE TAKE A BOX OF UNIT LENGTH. ** ** THE ROUTINE IS COMBINED WITH THE LEAPFROG ALGORITHM FOR ** ** ADVANCING VELOCITIES, I.E. FORCES ARE ACCUMULATED DIRECTLY ** ** ONTO VELOCITIES. ** ******************************************************************* REAL V, RCUT, DT, SIGMA, W, VC INTEGER REAL REAL REAL REAL REAL I, J, NCUT RCUTSQ, VCUT, SIGSQ RXI, RYI, RZI, VXI, VYI, VZI RXIJ, RYIJ, RZIJ, RIJSQ SR2, SR6, SR12 VIJ, WIJ, VELIJ, DVX, DVY, DVZ 50 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI C ******************************************************************* C ** CALCULATE SQUARED DISTANCES FOR INNER LOOP ** C SIGSQ = SIGMA ** 2 RCUTSQ = RCUT ** 2 ** CONDUCT OUTER LOOP OVER ATOMS ** V = 0.0 W = 0.0 NCUT = 0 DO 1000 I = 1, N - 1 RXI = RX(I) RYI = RY(I) RZI = RZ(I) VXI = VX(I) VYI = VY(I) VZI = VZ(I) C ** CONDUCT INNER LOOP OVER ATOMS ** DO 900 J = I + 1, N RXIJ = RXI - RX(J) RXIJ = RXIJ - ANINT ( RXIJ ) IF ( ABS ( RXIJ ) .LT. RCUT ) THEN RYIJ = RYI - RY(J) RYIJ = RYIJ - ANINT ( RYIJ ) RIJSQ = RXIJ ** 2 + RYIJ ** 2 IF ( RIJSQ .LT. RCUTSQ ) THEN RZIJ = RZI - RZ(J) RZIJ = RZIJ - ANINT ( RZIJ ) RIJSQ = RIJSQ + RZIJ ** 2 IF ( RIJSQ .LT. RCUTSQ ) THEN SR2 = SIGSQ / RIJSQ SR6 = SR2 ** 3 SR12 = SR6 ** 2 VIJ = 4.0 * ( SR12 - SR6 ) WIJ = 24.0 * ( 2.0 * SR12 - SR6 ) VELIJ = WIJ * DT / RIJSQ DVX = VELIJ * RXIJ DVY = VELIJ * RYIJ DVZ = VELIJ * RZIJ VXI = VXI + DVX VYI = VYI + DVY 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO VZI VX(J) VY(J) VZ(J) V W NCUT ENDIF ENDIF ENDIF 900 C = = = = = = = 51 VZI + DVZ VX(J) - DVX VY(J) - DVY VZ(J) - DVZ V + VIJ W + WIJ NCUT + 1 CONTINUE ** END OF INNER LOOP ** VX(I) = VXI VY(I) = VYI VZ(I) = VZI 1000 C C CONTINUE ** END OF OUTER LOOP ** ** CALCULATE POTENTIAL SHIFT ** SR2 SR6 SR12 VIJ VC = = = = = SIGSQ / RCUTSQ SR2 * SR2 * SR2 SR6 * SR6 4.0 * ( SR12 - SR6 ) V - REAL ( NCUT ) * VIJ W = W / 3.0 RETURN END la routine move, che aggiorna le posizioni ad ogni passo temporale (mentre le velocità sono aggiornate direttamente nella routine force). SUBROUTINE MOVE ( DT ) include ’block.inc’ C C C ******************************************************************* ** LEAPFROG VERLET ALGORITHM FOR ADVANCING POSITIONS ** ******************************************************************* REAL DT 52 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI INTEGER C I ******************************************************************* DO 1000 I = 1, N RX(I) = RX(I) + VX(I) * DT RY(I) = RY(I) + VY(I) * DT RZ(I) = RZ(I) + VZ(I) * DT 1000 CONTINUE RETURN END la routine fcc, che assegna la configurazione iniziale secondo un reticolo cubico a facce centrate SUBROUTINE FCC C C C C C C C C C C C C C C C C ******************************************************************* ** SETS UP THE ALPHA FCC LATTICE FOR N LINEAR MOLECULES. ** ** ** ** THE SIMULATION BOX IS A UNIT CUBE CENTRED AT THE ORIGIN. ** ** N SHOULD BE AN INTEGER OF THE FORM ( 4 * ( NC ** 3 ) ), ** ** WHERE NC IS THE NUMBER OF FCC UNIT CELLS IN EACH DIRECTION. ** ** SEE FIGURE 5.10 FOR A DIAGRAM OF THE LATTICE AND A ** ** DEFINITION OF THE FOUR ORIENTATIONAL SUBLATTICES. ** ** ** ** PRINCIPAL VARIABLES: ** ** ** ** INTEGER N NUMBER OF MOLECULES ** ** REAL RX(N),RY(N),RZ(N) MOLECULAR POSITIONS ** ** REAL EX(N),EY(N),EZ(N) UNIT VECTORS GIVING ORIENTATIONS ** ** REAL RROOT3 1.0 / SQRT ( 3.0 ) ** ******************************************************************* INCLUDE ’block.inc’ REAL RROOT3 PARAMETER ( RROOT3 = 0.5773503 ) REAL INTEGER C CELL, CELL2 I, IX, IY, IZ, IREF, M ******************************************************************* 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO C C C C C C C 96 97 98 99 C 100 ** CALCULATE THE SIDE OF THE UNIT CELL ** CELL = 1.0 / REAL ( NC ) CELL2 = 0.5 * CELL ** BUILD THE UNIT CELL ** ** SUBLATTICE A ** RX(1) = 0.0 RY(1) = 0.0 RZ(1) = 0.0 ** SUBLATTICE B ** RX(2) = CELL2 RY(2) = CELL2 RZ(2) = 0.0 ** SUBLATTICE C ** RX(3) = 0.0 RY(3) = CELL2 RZ(3) = CELL2 ** SUBLATTICE D ** RX(4) = CELL2 RY(4) = 0.0 RZ(4) = CELL2 ** CONSTRUCT THE LATTICE FROM THE UNIT CELL ** M = 0 DO 99 IZ = 1, NC DO 98 IY = 1, NC DO 97 IX = 1, NC DO 96 IREF = 1, RX(IREF+M) = RY(IREF+M) = RZ(IREF+M) = CONTINUE M = M + 4 CONTINUE CONTINUE CONTINUE 4 RX(IREF) + CELL * REAL ( IX - 1 ) RY(IREF) + CELL * REAL ( IY - 1 ) RZ(IREF) + CELL * REAL ( IZ - 1 ) ** SHIFT CENTRE OF BOX TO THE ORIGIN ** DO 100 I = 1, N RX(I) = RX(I) - 0.5 RY(I) = RY(I) - 0.5 RZ(I) = RZ(I) - 0.5 CONTINUE RETURN END 53 54 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI la routine comvel, che assegna le velocità iniziali, definite in modo casuale secondo una distribuzione gaussiana C c c c c c c c c c c c c c c c c c c c c c c c c c c c ******************************************************************* ** centre of mass and angular velocities for linear molecules ** ** ** ** principal variables: ** ** ** ** integer n the number of molecules ** ** real rx(n),ry(n),rz(n) positions ** ** real vx(n),vy(n),vz(n) velocities ** ** real temp reduced temperature ** ** ** ** supplied routines: ** ** ** ** subroutine comvel ( temp ) ** ** sets the centre of mass velocities for a configuration of ** ** real function ranf ( dummy ) ** ** returns a uniform random variate on the range zero to one ** ** real function gauss ( dummy ) ** ** returns a uniform random normal variate from a ** ** distribution with zero mean and unit variance. ** ** ** ** units: ** ** ** ** we assume unit molecular mass and employ lennard-jones units ** ** property units ** ** rx, ry, rz (epsilon/m)**(1.0/2.0) ** ** ox, oy, oz (epsilon/m*sigma**2)**(1.0/2.0) ** ** inert m*sigma**2 ** ******************************************************************* subroutine comvel ( temp ) include ’block.inc’ c c c c c c c c c c c ******************************************************************* ** translational velocities from maxwell-boltzmann distribution ** ** ** ** the distribution is determined by temperature and (unit) mass.** ** this routine is general, and can be used for atoms, linear ** ** molecules, and non-linear molecules. ** ** ** ** routine referenced: ** ** ** ** real function gauss ( dummy ) ** ** returns a uniform random normal variate from a ** 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO c c ** distribution with zero mean and unit variance. ** ******************************************************************* REAL REAL REAL REAL temp rtemp, sumx, sumy, sumz gauss, dummy ranf external gauss external ranf c 100 c ******************************************************************* rtemp = dsqrt ( temp ) do 100 i = 1, n vx(i) = rtemp * gauss ( dummy ) vy(i) = rtemp * gauss ( dummy ) vz(i) = rtemp * gauss ( dummy ) continue 200 ** remove net momentum ** sumx = zero sumy = zero sumz = zero do 200 i = 1, n sumx = sumx + vx(i) sumy = sumy + vy(i) sumz = sumz + vz(i) continue 300 sumx = sumx / real sumy = sumy / real sumz = sumz / real do 300 i = 1, n vx(i) = vx(i) vy(i) = vy(i) vz(i) = vz(i) continue ( n ) ( n ) ( n ) sumx sumy sumz return end c c function gauss ( dummy ) include ’block.inc’ ******************************************************************* ** random variate from the standard normal distribution. ** 55 56 c c c c c c c c c c c c c CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI ** ** ** the distribution is gaussian with zero mean and unit variance.** ** ** ** reference: ** ** ** ** knuth d, the art of computer programming, (2nd edition ** ** addison-wesley), 1978 ** ** ** ** routine referenced: ** ** ** ** real function ranf ( dummy ) ** ** returns a uniform random variate on the range zero to one ** ******************************************************************* REAL parameter parameter parameter REAL REAL REAL external c a1, a3, a5, a7, a9 ( a1 = 3.949846138e0, a3 = 0.252408784e0 ) ( a5 = 0.076542912e0, a7 = 0.008355968e0 ) ( a9 = 0.029899776e0 ) sum, r, r2 ranf, dummy gauss ranf ******************************************************************* 10 : sum = zero do 10 i = 1, sum = sum continue r = ( sum r2 = r * r gauss = (((( * r return end 12 + ranf ( dummy ) 6.e0 ) / 4.e0 a9 * r2 + a7 ) * r2 + a5 ) * r2 + a3 ) * r2 +a1 ) function ranf ( dummy ) c c c c c c c c ******************************************************************* ** returns a uniform random variate in the range 0 to 1. ** ** ** ** *************** ** ** ** warning ** ** ** *************** ** ** ** ** good random number generators are machine specific. ** 2.6. ESEMPIO: STUDIO DI UN FLUIDO ATOMICO c c 57 ** please use the one recommended for your machine. ** ******************************************************************* integer l, c, m parameter ( l = 1029, c = 221591, m = 1048576 ) integer REAL save data REAL ranf c seed dummy seed seed / 0 / ******************************************************************* seed = mod ( seed * l + c, m ) ranf = real ( seed ) / m return end c c c ******************************************************************* ** common block ** ******************************************************************* integer nc,n parameter (nc=3,n=4*nc**3) real rx(n), ry(n), rz(n), vx(n), vy(n), vz(n) common / par / rx, ry, rz, vx, vy, vz Ecco il risultato di una simulazione di dinamica molecolare effettuata sul sistema precedente. Il sistema è formato da 108 atomi (vedi, nel listato precedentemente descritto, la variabile nc). La simulazione corre su 5000 passi temporali, e ciascun passo corrisponde a 0.004 unità temporali riscalate. Nono sono effettuati passi iniziali di equilibrazione. Ogni 500 passi il programma stampa l’energia totale del sistema, l’energia cinetica, l’energia potenziale, la pressione, la temperatura ed il coefficiente di compressibilità. Alla fine il programma calcola i valori medi di queste grandezze su tutta l’estensione temporale della simulazione, insieme alla deviazione quadratica media che dà una misura delle fluttuazioni presenti nel sistema. 1 **** PROGRAM FROGGY **** MOLECULAR DYNAMICS OF LENNARD-JONES ATOMS LEAPFROG ALGORITHM WITH MINIMAL STORAGE ENTER RUN TITLE test n. 1 ENTER NUMBER OF STEPS 5000 ENTER NUMBER OF STEPS BETWEEN OUTPUT LINES 58 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI 500 ENTER save ENTER ENTER 0.81 ENTER 1.5 ENTER 3.5 ENTER 0.004 CONFIGURATION FILENAME THE FOLLOWING IN LENNARD-JONES UNITS DENSITY INIT. TEMPERATURE POTENTIAL CUTOFF DISTANCE TIME STEP test n. 1 NUMBER OF ATOMS NUMBER OF STEPS OUTPUT FREQUENCY POTENTIAL CUTOFF DENSITY TIME STEP = = = = = = 108 5000 500 3.5000 0.8100 0.004000 **** START OF DYNAMICS **** TIMESTEP ..ENERGY.. 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 -4.4422 ..KINETIC. ..POTENT.. .PRESSURE. ..TEMPER.. ..COMPRESS.. 1.2232 1.2445 1.2990 1.2282 1.2470 1.3362 1.1561 1.1903 1.1678 1.1185 -5.6656 -5.6865 -5.7413 -5.6708 -5.6891 -5.7786 -5.5984 -5.6324 -5.6101 -5.5607 0.4121 0.4484 -0.0802 0.3816 0.3459 -0.3143 0.6978 0.5920 0.6005 0.6746 0.8155 0.8297 0.8660 0.8188 0.8314 0.8908 0.7707 0.7935 0.7785 0.7457 -0.3761 -0.3327 -1.1143 -0.4246 -0.4863 -1.4356 0.1177 -0.0789 -0.0477 0.1169 0.82385 0.05419 -0.52308 0.53147 **** END OF DYNAMICS **** AVERAGES FLUCTS -4.44221 0.00000 1.23578 0.08129 -5.67808 0.08090 0.29658 0.40580 2.7. INTRODUZIONE AL METODO MONTE CARLO 2.7 59 Introduzione al metodo Monte Carlo Il metodo Monte Carlo è, essenzialmente, una tecnica di calcolo per la valutazione di integrali definiti. In particolare, nell’ambito della meccanica statistica, il metodo Monte Carlo consente di valutare in modo efficiente il valore medio di una proprietà osservabile in un sistema a molte coordinate, data, naturalmente la densità di probabilità degli stati del sistema. Consideriamo il seguente problema: è data una funzione osservabile F (q) definita rispetto ad un set di coordinate (classiche) q = (q1 , q2 , . . . qN )tr . Le coordinate q rappresentano uno stato del sistema, che supponiamo sia descritto nell’ambito del’insieme canonico. L’energia totale del sistema è 1 E = V (q) + T = V (q) + p · m−1 p 2 (2.53) dove p = (p1 , p2 , . . . pN )tr è il vettore dei momenti generalizzati; m è la matrice generalizzata delle masse (che può anche essere fuzione di q). Il valore medio dell’osservabile F è semplicemente R F = R dq dpF (q) exp[−E(q, p)/kB T ] R R dq dp exp[−E(q, p)/kB T ] (2.54) L’integrale configurazionale in dq è esteso al volume del sistema. Integrando rispetto ai momenti p, resta l’espressione, che coinvolge la sola energia potenziale del sistema: R F = dqF (q) exp[−V (q)/kB T ] R = dq exp[−V (q)/kB T ] R dqF (q) exp[−V (q)/kB T ] Q (2.55) dove Q è la funzione di partizione canonica configurazionale. Il metodo Monte Carlo, almeno nelle sue applicazioni standard, è appunto dedicato al calcolo numerico di espressioni analoghe a (2.55). L’idea che è alla base del metodo Monte Carlo è la seguente: si determini un insieme o campione rappresentativo di punti, generati casualmente all’interno dello spazio delle fasi del sistema; si sostituiscano gli integrali esatti a numeratore e denominatore di (2.55) con somme approssimate che dipendono dal campione di punti. Evidentemente sarà cruciale il criterio di campionamento adottato per scegliere il campione rappresentativo dei punti, che dovrà essere in grado di esplorare o rappresenare in modo efficiente lo spazio delle fasi complessivo del sistema. Esercizio 8. In Fig. (2.6) è riportato uno schema relativo ad un sistema di tre particelle monodimensionali che si muovono lungo una retta da 0 ad L. Lo spazio delle fasi è dunque costituito da una sfera di raggio L centrata nell’origine di una terna di assi x = (x1 , x2 , x3 ). Una collezione di punti x1 , x2 , . . . , xM è rappresentata in figura. La scelta di un campione rappresentativo dello spazio delle fasi del sistema potrebbe essere effettuata, in linea di principio semplicemente generando una sequenza o catena casuale1 di punti. È evidente però che in generale questa scelta non sarà molto efficiente nel caso di un potenziale generico V (q): è opportuno infatti generare punti dello spazio delle fasi o configurazioni che massimizzino l’integrando exp(−V /kB T ) cioè, sostanzialmente, configurazioni a bassa energia ed alta probabilità del sistema. Il campionamento deve dunque tener conto della distribuzione di Boltzmann delle energie del sistema: 1 La scelta casuale o stocastica dei punti dello spazio delle fasi, analoga ai numeri casuali ottenuti da una roulette di un Casinò, dà il nome al metodo: Monte Carlo 60 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI x3 x1 x2 x3 L L x2 x1 Figura 2.6: Spazio delle fasi e campione di punti rappresentativo per un sistema a tre coordinate questa procedura (detta anche importance sampling) è implementata in modo efficiente dal cosiddetto schema Metropolis2 , che è descritto nella sezione successiva. 2.8 Metodologia Lo schema Metropolis può essere descritto brevemente nel seguente modo: 1. è dato una qualche stato iniziale del sistema q1 : utilizzando un qualche criterio di scelta stocastico, cioè basato su una scelta almeno parzialmente casuale, una nuova configurazione qprova viene generata; 2. si calcola la differenza di energia ∆V = V (qprova ) − V (q1 ): se tale differenza è minore di zero, cioè se l’energia della configurazione di prova è minore di quella precedente, la configurazione di prova viene accettata, ed entra a fare parte del campione rappresentativo, q2 = qprova ; 3. se invece ∆V > 0, la configurazione è accettata, q2 = qprova , nel campione solo se exp(−∆V /kB T ) è maggiore di un numero casuale ² uniformemente distribuito nell’intervallo [0, 1]; altrimenti la configurazione di prova viene rifiutata e si mantiene la configurazione precedente, q2 = q1 - in pratica la nuova configurazione viene accettata con una probabilità data dal fattore di Boltzmann exp(−∆V /kB T ). 4. data la nuova configurazione q2 si genera una nuova configurazione del campione ripartendo dal punto 1. Lo schema Metropolis dunque non sceglie configurazioni in modo casuale, ma le “pesa” tenendo conto del fattore di Boltzmann exp(−V /kB T ). Una volta che un numero M sufficientemente elevato di config2 Il nome deriva da uno dei coautori del lavoro N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth,, A.H. Teller e E. Teller, J. Chem. Phys., 21, 1087 (1953) 2.8. METODOLOGIA 61 urazioni è stato generato, il valor medio di una proprietà F (q) è ottenuto come una media non pesata su tutte le configurazioni del campione F = M 1 X F (qj ) M j (2.56) È possibile una giustificazione formale del metodo Monte Carlo secondo lo schema Metropolis, basata sull’idea che il campionamento costituisce una pseudo-dinamica del sistema: cioè che la successione di configurazioni è ottenuta in base ad un’evoluzione temporale, o traiettoria, definita nello spazio configurazionale del sistema. L’evoluzione temporale non è naturalmente data dalla vera dinamica del sistema, ciò che equivarrebbe ad una simulazione di Dinamica Molecolare, ma ha la caratteristica di mantenere alcune proprietà fondamentali per il calcolo delle proprietà di equilibrio del sistema. 2.8.1 Catene di Markov Consideriamo una sequenza di punti qj associati ai tempi discreti nj . La probabilità condizionale che il sistema sia nel punto qj+1 al tempo nj+1 , dato il suo precedente passaggio per q1 a n1 , q2 a n2 , . . ., qj a nj si indica con P (qj+1 , nj+1 |qj , nj ; . . . ; q2 , n2 ; q1 , n1 ). Se il sistema non ha memoria degli eventi precedenti a nj , allora P (qj+1 , nj+1 |qj , nj ; . . . ; q2 , n2 ; q1 , n1 ) = (2.57) e la sequenza di configurazioni è detta catena di Markov. Consideriamo ora una catena di Markov per la quale le probabilità condizionali siano indipendenti dal tempo: P (qj , nj |qi , ni ) = Pij (2.58) cioè dipendono solo dagli stati iniziale e finale qi e qj . La matrice Pij è detta matrice di transizione stocastica. Sia ρi (n) la probabilità che il sistema sia nello stato qi dopo n passi; allora in notazione matriciale si può scrivere ρ(n) = Ptr ρ(0) (2.59) dove ρ(0) è una distribuzione iniziale arbitraria. Nel limite n → ∞, esiste una distribuzione limite di stato stazionario lim Ptr ρ(0) = P n→∞ (2.60) Si può dimostrare che esiste un’unica distribuzione di stato stazionario se ogni stato del sistema può essere raggiunto da ogni altro stato del sistema attraverso almeno un cammino a più step con probabilità non nulla. In questo caso il sistema (e/o la catena di Markov) si dice ergodico. La scelta di una catena di Markov, ovvero la determinazione di una sequenza di punti dello spazio configurazionale, deve avvenire in maniera tale che all’equilibrio il numero di configurazioni accettate in uscita da uno stato i siano uguali a quelle che portano ad i da tutti gli altri stati.Una condizione sufficiente è che la matrice P verifichi il principio del bilancio dettagliato Pi Pij = Pj Pji (2.61) 62 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI Lo schema Metropolis è una possibile soluzione alla scelta della matrice di transizione. Formalmente, si definisce una matrice simmetrica di transizione pij , che definisce il criterio per generare una nuova configurazione di prova, data una certa configurazione di partenza. La matrice di transizione è data come Pij = pij ρj Pij = pij ρi if ρi ≥ ρj con i 6= j (2.62) if ρi < ρj con i 6= j (2.63) La probabilità che il sistema rimanga nello stato i è data da Pii = 1 − X Pij (2.64) i6=j Se il campionamento viene effettuato rispetto ad una distribuzione canonica, cioè si utilizzano i pesi dati dalla distribuzione di Boltzmann, si può dimostrare che la distribuzione limite è data da Pi = exp[−V (qi )/kB T ] Q (2.65) ρ Si può notare che poichè in Eq. (2.63) compare solo il rapporto ρji , non è necessaria la conoscenza a priori della funzione di partizione Q. Possiamo concludere questa Sezione notando anche che lo schema di Metropolis non è l’unica soluzione possibile. Molti altri schemi alternativi possono essere scelti, che verificano l’Eq. (2.65), e che non richiedono la consocenza di Q, come per esempio lo schema: Pij = pij ρj ρi + ρj Pii = 1 − X i 6= j Pij (2.66) (2.67) i6=j Nella maggior parte delle applicazioni di letteratura, tuttavia, lo schema Metropolis è il più diffuso. 2.9 Applicazioni 2.9.1 Alcuni esempi Ogni proprietà che possa essere scritta sotto forma di una media rispetto ad una distribuzione canonica (e non solo, vedi la Sezione successiva) di equilibrio può essere determinata una volta che sia stato selezionato un campione rappresentativo del sistema. Tra i sistemi più adatti ad essere studiati con il metodo Monte Carlo sono naturalmente i fluidi. Consideriamo per esempio il sistema definito nel Capitolo precedente, un insieme di N particelle puntiformi interagenti via un potenziale di LennardJones, in un volume cubico con condizione periodiche. Per generare una catena di Markov del sistema, secondo lo schema di Metropolis, possiamo procedere definendo la matrice pij per la transizione da uno stato ad un altro del sistema seguendo per esempio il seguente schema di Metropolis 1. uno stato del sistema è rappresentato dalla collezione di vettori ~r1 , ~r2 , . . . , ~rN e inizialmente il sistema è preparato in una qualche struttura cristallina; una nuova configurazione si può generare scegliendo per esempio una particella i in modo casuale, e cambiando il vettore ~ri di un vettore δ~r di direzione e lunghezza casuale (entro per esempio un certo raggio di cut off prescelto). 2.9. APPLICAZIONI 63 2. si calcola la differenza di energia ∆V : se tale differenza è minore di zero, cioè se l’energia della configurazione di prova è minore di quella precedente, la configurazione di prova viene accettata, ed entra a fare parte del campione rappresentativo 3. se invece ∆V > 0, la configurazione è accettata nel campione solo se exp(−∆V /kB T ) è maggiore di un numero casuale ² uniformemente distribuito nell’intervallo [0, 1]; altrimenti la configurazione di prova viene rifiutata e si mantiene la configurazione precedente in pratica la nuova configurazione viene accettata con una probabilità data dal fattore di Boltzmann exp(−∆V /kB T ). 4. data la nuova configurazione o collezione di punti si genera una nuova configurazione del campione ripartendo dal punto 1. In pratica lo schema Metropolis è implementato specificando il criterio di scelta delle configurazioni di prova, che nel caso specifico è basato sulla determinazione di quattro numeri casuali: la particella che deve essere mossa, la lunghezza del vettore δ~r e i due angoli che ne specificano l’orientazione. Un altro esempio classico, che sarà descritto nel dettaglio nel Capitolo successivo, è dato dallo studio delle proprietà di equilibrio di un polimero. Consideriamo una catena formata da M elementi o monomeri. I gradi di libertà interni del sistema sono specificati da N grandezze: gli angoli di legame tra i legami che uniscono due monomeri successivi, le distanze o lunghezze di legame tra due monomeri successivi e gli angoli torsionali identificati da tre legami consecutivi valore costante le distanze di legame. Supponiamo di fissare ad un valore uguale e costante gli angoli di legame e le distanze di legame. Se fissiamo nello spazio le posizioni dei primi tre monomeri, dovremo definire N = M − 3 angoli torsionali per definire in modo univoco una conformazione della molecola, cfr. Fig. (2.7). Possiamo definire z M-3 5 3 2 φ φ 3 φ N-1 1 4 φ 2 6 φ 0 1 M-2 M-1 y 0 x Figura 2.7: Catena di M monomeri definita da N angoli l’energia del sistema come una somma di interazioni steriche, rappresentate da semplici potenziale sito- 64 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI sito Lennard-Jones, e termini torsionali, che specificano l’energia conformazionale V = 4²S M −1 M −1 X X i=0 à σ Rij j=i+1 !12 à − σ Rij !6 −1 ² NX + T (1 + cos 3φk ) 2 (2.68) k=0 Il metodo Monte Carlo prevede un campionamento sulle possibili conformazioni del sistema. I criteri di scelta possibili delle conformazioni sono molteplici. Per esempio • ad ogni nuova scelta di una conformazione, data la conformazione precedente, si sceglie in modo casuale un angolo torsionale, e lo si ruota di un valore casuale • si genera la nuova conformazione, data la conformazione precedente, spostando un segmento (alcuni monomeri consecutivi), scelto in modo casuale, dalla sua posizione originale ad un’altra posizione, definita anch’essa in modo casuale • si sceglie un segmento, si fissano le posizioni del primo ed ultimo monomero del segmento, e si generano nuove conformazioni interne del segmento stesso In questo modo si possono esplorare le conformazioni possibili, sino a raccogliere un campione rappresentativo sufficientemente esteso per il calcolo di proprietà di equilibrio del sistema. Sistemi formati da singole catene o collezioni di catene sono importanti per lo studio di molecole o aggregati di interesse biochimico, come le proteine, gli acidi nucleici, le membrane fosfolipidiche. 2.9.2 Altri insiemi termodinamici Anche se finora sono state discusse applicazioni del metodo Monte Carlo solo nell’ambito dell’insieme canonico (NVT), è possibile effettuare simulazioni Monte Carlo anche nell’ambito di altri insiemi termodinamici, come per esempio l’insieme grancanonico (µVT): il numero di particelle N diviene in questo caso una grandezza variabile, che viene campionata durante la scelta dei punti dello spazio delle configurazioni in modo analogo agli altri gradi di libertà del sistema. Il peso di ciascuna configurazione viene naturalmente dato dalla distribuzione configurazionale grandcanonica exp[µN/kB T − V (q)/kB T ] (2.69) Ξ dove Ξ è il corrispondente integrale di configurazione. Una simulazione Monte Carlo nell’insieme grandcanonico prevederà perciò l’inserzione o l’eliminazione casuale di particelle; il rifiuto o l’accettazione di queste mosse nella determinazione della catena di Markov è effettuato nel solito modo, ma la probabilità è ora dettata dalla distribuzione in Eq. (2.69). L’attrattiva del sistema grandcanonico è nella definizione iniziale del potenziale chimico, che permette perciò di definire in partenza l’energia libera del sistema. Tra gli altri insiemi utilizzati, possiamo ricordare l’insieme N P T , che permette di definire in partenza la pressione del sistema e riveste quindi una certa utilità per sistemi (e.g. fluidi di particelle rigide), per i quali il calcolo di P negli insiemi consueti sia difficile. In questo caso la densità di probabilità degli stati è proporzionale a ρ= exp[P V − V (q)/kB T ] (2.70) Π dove Π è l’integrale di configurazione. L’implementazione dell’insieme N P T richiede l’inclusione nei criteri di scelta della catena di Markov di mosse che modificano il volume del campione. ρ= 2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA 2.10 65 Esempio: studio conformazionale di una catena alchilica Concludiamo l’esposizione dedicata al metodo Monte Carlo con un esempio specifico. Consideriamo dunque il sistema precedentemente descritto di una singola catena formata da M monomeri, con N = M − 3 gradi di libertà interna costituiti da altrettanti angoli torsionali, cfr. Fig. (2.7). Vogliamo descrivere un semplice programma Fortran per il calcolo della distanza media tra il primo e l’ultimo atomo (nel seguito useremo i termini “atomo”, “monomero” o “sito” in modo equivalente). 2.10.1 Il sistema ~ i con La geometria del sistema è descritta in Fig. (2.7). Ogni atomo è identificato dal vettore R i = 0, . . . , M − 1; gli angoli torsionali sono φj con j = 0, . . . , N − 1. Per eliminare i gradi di libertà esterni (rotazionali e traslazionali) fissiamo i primi tre siti ponendo il sito i = 1 nell’origine: ~ 0 = (d sin θ, 0, d cos θ)tr R ~ 1 = (0, 0, 0)tr R ~ 0 = (0, 0, d)tr R (2.71) L’angolo θ definisce l’angolo di legame tra due legami; per esempio per un legame tetraedrico θ = 109◦ . La distanza di legame tra due siti adiacenti vale d. Noti gli N = M − 3 angoli torsionali φj , non è ~ i con i = 3, . . . , M − 1 usando la seguente relazione ricorsiva difficile ricavare i vettori R n ~i = R ~ i−1 + d cosθ[1 + cos φi−3 ](R ~ i−2 − R ~ i−1 ) + cos φi−3 (R ~ i−3 − R ~ i−2 ) R o − ~ i−2 − R ~ i−1 ) × (R ~ i−3 − R ~ i−2 ) sin φi−3 (R (2.72) L’energia di una configurazione, caratterizzata dal vettore φ avente elementi φj , è calcolabile come la somma di vari contributi: interazioni steriche, conformazionali, vibrazionali, etc., come è stato già accennato nel Capitolo precedente. Adotteremo nel resto del Capitolo la semplice Eq. (2.68): i parametri che specificano la forma funzionale dell’energia conformazionale sono σ, ²S e ²T - il diametro di un atomo, e due parametri energetici, relativamente al contributo sterico e conformazionale. In un calcolo Monte Carlo applicato al sistema in questione dovremo generare, in accordo con lo schema Metropolis, una catena di Markov di conformazioni. Genereremo ogni nuova conformazione adottando il semplice criterio di muovere a caso, di una quantità compresa tra zero e φc , uno degli angoli torsionali. Ogni conformazione della catena di Markov potrà poi essere utilizzata per il calcolo ~ M −1 − R ~ 0 | La conformazione iniziale cordell’osservabile, che nel nostro caso è semplicemente R = |R risponderà ad una catena completamente estesa. Possiamo finalmente riassumere i parametri necessari a specificare in modo completo una simulazione Monte Carlo: θ, d, σ, ²S , ²T , la temperatura T , l’angolo di cut-off φc e eventualmente il numero massimo di conformazioni che si vogliono includere nella catena di Markov, Nc . In pratica è conveniente ricorrere ad un set parametrico leggermente ridotto, che descrive il sistema in termini di coordinate riscalate. Fisseremo perciò come unità di lunghezza la grandezza d; inoltre poichè la temperatura compare solo come denominatore nel calcolo dei pesi di ciascuna configurazione possiamo semplicemente introdurre i parametri riscalati ²S /kB T e ²T /kB T . I parametri riscalati che definiscono il sistema sono perciò: θ, σ = σ/d, ²S = ²S /kB T , ²T = ²T /kB T , più naturalmente φc e Nc . 66 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI 2.10.2 Metodo di calcolo e codice Il programma, molto semplice, legge da file i parametri sigma, theta, eps, ept, m, angle (l’angolo di cut-off) e iseed. Quest’ultimo è un semplice parametro per inizializzare la routine che genera numeri casuali (vedi oltre). c............................................................... c c Testing Monte Carlo on a single chain c c M monomers c N = M-3 torsional angles c............................................................... implicit none include ’data.inc’ integer istep,nstep,iout,iseed double precision dist,average,sum c............................................................... c input open (unit=1,file=’file.in’,form=’formatted’,status=’unknown’) read (1,*) sigma,theta,eps,ept theta=theta*d2r read (1,*) m if (m.lt.5) m=5 n=m-3 read (1,*) nstep,iout if (nstep.le.1000) nstep=1000 read (1,*) angle,iseed angle=angle*d2r close (unit=1) c............................................................... c assign initial configuration call initial c............................................................... c Monte Carlo step open (unit=2,file=’file.out’,form=’formatted’,status=’unknown’) 2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA 67 sum=zero do istep=1,nstep+1 call observable(dist) sum=sum+dist average=sum/istep if (mod(istep,iout).eq.0) then write (2,*) istep,average write (6,*) istep,average end if call choise(iseed) end do close (unit=2) c............................................................... end La routine initial ha il semplice scopo di scegliere la configurazione iniziale. Segue il calcolo Monte Carlo vero e proprio: la routine observable calcola il valore medio aggiornato dell’osservabile in esame, mentre la routine choise è il nucleo del programma: sceglie una nuova configurazione, ne calcola l’energia e la confronta con l’energia della configurazione precedente, decidendo se rifiutarla o accettarla secondo lo schema di Metropolis. subroutine choise(iseed) implicit none include ’data.inc’ integer ibond,i,j,iseed double precision energy1,energy2,r1,r2,r3, _ rotate,oldq,oldr(3,0:mx-1),delta call potential(energy1) call random(iseed,r1) ibond=int(r1*n) call random(iseed,r2) rotate=r2*angle oldq=q(ibond) do i=0,m-1 do j=1,3 oldr(j,i)=r(j,i) end do 68 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI end do q(ibond)=q(ibond)+rotate call cartesian call potential(energy2) delta=energy2-energy1 if (delta.lt.zero) then return else call random(iseed,r3) delta=dexp(-delta) if (delta.gt.r3) then return else q(ibond)=oldq do i=0,m-1 do j=1,3 r(j,i)=oldr(j,i) end do end do return end if end if end All’interno della routine choise troviamo le routine potential (per il calcolo dell’energia di una conformazione) e random per generare numeri casuali compresi tra 0 e 1. La routine potential implementa la formula (2.68), che implica a sua volta la conoscenza delle coordinate cartesiane degli atomi, date le coordinate interne torsionali: la conversione è effettuata dalla routine cartesian subroutine potential(energy) implicit none include ’data.inc’ integer i,ii,j double precision energy,ratio energy=zero do i=0,m-1 do ii=i+1,m-1 ratio=sigma/dsqrt((r(1,ii)-r(1,i))**two _ +(r(2,ii)-r(2,i))**two+(r(3,ii)-r(3,i))**two) ratio=ratio**six 2.10. ESEMPIO: STUDIO CONFORMAZIONALE DI UNA CATENA ALCHILICA energy=energy+four*eps*(ratio**two-ratio) end do end do do j=0,n-1 energy=energy+half*ept*(one+dcos(3q(j))) end do return end c....................................................... subroutine cartesian implicit none include ’data.inc’ integer i,j double precision cq(0:nx-1),sq(0:nx-1),a(3),b(3),c(3) do i=0,n-1 cq(i)=dcos(q(i)) sq(i)=dsin(q(i)) end do do i=3,m-1 do j=1,3 a(j)=r(j,i-2)-r(j,i-1) b(j)=r(j,i-3)-r(j,i-2) end do c(1)=a(3)*b(2)-a(2)*b(3) c(2)=a(1)*b(3)-a(3)*b(1) c(3)=a(2)*b(1)-a(1)*b(2) do j=1,3 r(j,i)=r(j,i-1) _ +ct*(one+cq(i-3))*a(j)+cq(i-3)*b(j)+sq(i-3)*c(j) end do end do return end Un esempio di calcolo è riportato nel seguito. Il file di input file.in è semplicemente 1.2d0,109.d0,1.0d0,1.0d0 5 69 70 CAPITOLO 2. DINAMICA MOLECOLARE: METODOLOGIE ED APPLICAZIONI 100000,10000 5.d0,999 che definisce una catena di cinque atomi, con angoli di legame tetraedrici, σ = 1.2; i parametri di potenziale (non troppo realistici, per una catena alchilica) sono ²S = ²T = 1; si vogliono generare 106 configurazioni, con “mosse” di rotazione di 5◦ al massimo. L’andamento di R è riportato in Fig. (2.8). 2.48 R 2.47 2.46 2.45 2.44 0 2 4 6 8 10 Nc (x 100000) Figura 2.8: Distanza media R tra il primo e l’ultimo atomo in una catena di cinque monomeri, in funzione del numero di elementi della catena di Markov generata in una simulazione Monte Carlo Capitolo 3 Presentazione analitica della meccanica quantistica 3.1 Operatori Formuleremo nel seguito i postulati fondamentali della meccanica quantistica (non relativistica) mantenendo al minimo il formalismo matematico. In un capitolo successivo, di approfondimento, saranno rivisti alcuni dei principi basilari dell’algebra lineare e riformuleremo i contenuti di questo capitolo nel linguaggio più conciso degli spazi funzionali. Consideriamo come oggetto di studio (o sistema) un insieme di N punti materiali, descritto dall’insieme di coordinate cartesiane {~ri }; nel seguito useremo semplicemente il simbolo r per indicare l’insieme delle coordinate del sistema. Indicheremo anche con dr un elemento di volume nello spazio delle coordinate del sistema. L’integrale di volume di una funzione generica f (r) verrà indicato come Z hf i = drf (r) (3.1) Infine con i simboli O, P̂ etc. definiremo semplicemente un operatore, cioè un insieme di istruzioni che modificano una generica funzione f . Avendo definito queste poche nozioni matematiche di base, la descrizione quantistica del sistema è definita dai seguenti postulati Postulato I. Lo stato fisico di un sistema al tempo t è descritto da una funzione, detta funzione d’onda, a valori complessi, Ψ(r, t); la funzione d’onda deve essere continua, finita e monotona per tutti i punti r. Postulato II. Una grandezza fisica osservabile sperimentalmente è rappresentata da un operatore lineare hermitiano. Un operatore lineare gode della proprietà O(af + bg) = aOf + bOg (3.2) un operatore hermitiano soddisfa la condizione ·Z Z drf ∗ Og = drg ∗ Of ¸∗ (3.3) 71 72 CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA Postulato III. Siano x̂α e p̂α gli operatori che rappresentano gli osservabili posizione lungo l’asse α = x, y o z e momento lineare lungo i medesimi assi di una particella generica del sistema. Allora i sei operatori devono soddisfare le proprietà [x̂α , p̂α0 ] = ih̄δα,α0 (3.4) [x̂α , x̂α0 ] = 0 (3.5) [p̂α , p̂α0 ] = 0 (3.6) dove [A, B] = AB − BA si dice commutatore degli operatori A, B. Postulato IV. In una serie di misure ripetute di un’osservabile rappresentata dall’operatore generico O, il valore medio risultante è pari al valore d’attesa dell’operatore sulla funzione d’onda del sistema R drΨ∗ OΨ hOi = R ∗ drΨ Ψ (3.7) Postulato V. La probabilità che il sistema sia in un intorno r + dr del punto r, cioè che sia rinvenibile in un elemento di volume dr intorno al punto r è proporzionale a |Ψ(r)|2 dr Postulato VI. La variazione nel tempo della funzione d’onda Ψ(r, t) è descritta dall’equazione di Schrödinger ih̄ ∂Ψ ∂t = HΨ Ψ(r, 0) = Ψ0 (r) (3.8) (3.9) dove H è l’operatore hamiltoniano, che è l’operatore rappresentativo dell’osservabile energia totale del sistema (cioè della funzione hamiltoniana classica). La presentazione degli assiomi o postulati della meccanica quantistica può variare, anche in dipendenza del linguaggio e del formalismo matematico impiegato (cfr. Cap. (4)). Tuttavia, è chiaro che l’impostazione finora presentata è notevolmente diversa da quella della meccanica classica. Innanzitutto lo stato del sistema è definito da un funzione, non da un insieme di coordinate. In altri termini, la conoscenza di un sistema è data da una relazione funzionale tra le coordinate o spazio delle fasi classico del sistema stesso, e non da una serie di traiettorie nel tempo che specificano ad ogni istante la configurazione del sistema. Inoltre il concetto di “osservabile” diviene centrale in meccanica quantistica. Quello che in fisica classica è solo una funzione delle coordinate e dei momenti del sistema (per esempio, l’osservabile energia cinetica, l’osservabile momento lineare totale etc.) diviene in fisica quantistica un operatore che agisce sugli stati del sistema. Nasce perciò il problema di rappresentare gli operatori. Data la prescrizione fondamentale tra l’operatore posizione e il corrispondente operatore momento (Postulato III), [x̂, p̂] = ih̄ se si definisce l’uno, resta definito l’altro. Le due rappresentazioni sono perciò (3.10) 3.2. AUTOFUNZIONI ED AUTOVALORI 73 Rappresentazione della posizione: x̂ ≡ x, p̂ ≡ (h̄/i) Rappresentazione del momento: x̂ ≡ −(h̄/i) ∂ ∂p ∂ ∂x , p̂ ≡ p Nella prima, che sarà usata nel resto di questo testo, l’operatore posizione è semplicemente la moltiplicazione per x, mentre l’operatore momento è proporzionale alla derivata prima in x; l’opposto nel caso della rappresentazione del momento. Dati gli operatore momento e posizione, gli altri operatori rappresentativi delle varie osservabili classiche sono ottenuti usando il principio di corrispondenza, sostituendo cioè alle posizioni ed ai momenti i corrispondenti operatori. Per esempio, quali sono gli operatori rappresentativi dell’energia cinetica e dell’energia totale di un sistema di N particelle, in presenza di un potenziale V ? Per una singola particella, il momento lineare è semplicemente il vettore formato dai tre operatori momento lineare, lungo le tre coordinate, quindi −ih̄∇i , dove ∇i è il gradiente rispetto alle coordinate xi , yi , zi ∂ ∂x i ∂ ∇i = ∂yi ∂ (3.11) ∂zi L’operatore energia cinetica delle singole particelle è semplicemente T i = −(h̄2 /2mi )∇2i dove ∇2i è il laplaciano rispetto alle coordinate xi , yi , zi ∇2i = ∇i · ∇i = ∂2 ∂xi 2 + ∂2 ∂yi 2 + ∂2 ∂zi 2 (3.12) L’operatore energia potenziale è la stessa funzione V . Quindi l’hamiltoniano del sistema è H=T +V = X i 3.2 Ti+V =− h̄2 X 1 2 ∇ +V 2 i mi i (3.13) Autofunzioni ed autovalori In meccanica quantistica assume grande importanza il concetto di autofunzione od autostato di un operatore Oψ = on ψn (3.14) o è l’autovalore associato all’autofunzione ψ dell’operatore O. L’importanza del concetto di autofunzioneautovalore è particolarmente evidente quando si discuta la teoria della misura di un’osservabile. Consideriamo un operatore O avente autofunzioni ψn ; nel seguito supporremo che le autofunzioni siano normalizzate ed ortogonali Z drψn∗ ψn0 = δn,n0 (3.15) 74 CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA e che ogni stato del sistema sia esprimibile come combinazione lineare delle autofunzioni stesse, cioè che il set di autofunzioni sia completo Ψ= X cn ψn (3.16) n (vedremo in seguito che ciò equivale ad affermare che le autofunzioni di O costituiscono una base ortonormale dello spazio funzionale del sistema). Se lo stato di un sistema coincide con un autostato, Ψ = ψn , il valore di attesa di O coincide con on . Altrimenti, un rapido calcolo algebrico permette di dedurre che il valore di attesa è una combinazione lineare dei vari autovalori hOi = X |cn |2 on (3.17) n Quindi, solo se lo stato di un sistema è ’puro’, cioè coincide con un autostato, misure ripetute portano ad unico risultato, on ; altrimenti si ottiene una combinazione lineare di autovalori, pesati dai valori |cn |2 , cioè dai quadrati dei pesi delle autofunzioni che contribuiscono a definire lo stato del sistema. 3.3 Il principio di indeterminazione Dato un operatore O, parliamo di operatore aggiunto O† : ·Z Z ∗ ∗ drf Og = † ¸∗ drg O f (3.18) dato un operatore generico, possiamo sempre definire l’operatore aggiunto; gli operatori hermitiani sono quei particolari operatori che coincidono con i loro aggiunti vale a dire O = O† . La preminenza che è data agli operatori hermitiani in meccanica quantistica nasce dal fatto che essi devono rappresentare grandezze fisiche sperimentali, a valori reali ed univocamente definiti. Nel caso degli operatori hermitiani, e solo per essi, valgono infatti due importanti proprietà: 1) gli autovalori di un operatore hermitiano sono reali e 2) ad autovalori distinti di un operatore hermitiano corrispondono funzioni ortogonali. La prima relazione è molto semplice da dimostrare. Supponendo, come è sempre possibile, che le autofunzioni siano normalizzate Z Oψn = on ψn → drψn∗ Oψn = on (3.19) e quindi anche µZ drψn∗ Oψn ¶∗ = o∗n (3.20) ma per definizione di operatore hermitiano, il primo membro è reale, e dunque anche il secondo, cioè l’autovalore generico on , è reale. Quanto all’ortogonalità di autofunzioni relative ad autovalori diversi, scriviamo Oψn = on ψn Oψm = om ψm (3.21) ∗ , la complessa coniugata della seconda per ψ e sottraiamo moltiplichiamo la prima uguaglianza per ψm m membro a membro ∗ ∗ ∗ ψm Oψn − ψn Oψm = (on − om )ψn ψm (3.22) 3.3. IL PRINCIPIO DI INDETERMINAZIONE 75 integrando a primo e secondo membro, resta Z Z ∗ drψm Oψn − Z ∗ drψn Oψm = (on − om ) ∗ drψn ψm (3.23) ma l’espressione a primo membro è nulla, perchè l’operatore è hermitiano, dunque l’integrale del prodotto delle due autofunzioni deve essere nullo. Nel seguito considereremo solo operatori lineari hermitiani, se non altrimenti specificato. Gli autovalori più importanti di un sistema conservativo sono senz’altro relativi all’operatore hamiltoniano HΨE = EΨE (3.24) gli autostati ΨE sono stati del sistema ad energia definita E. L’equazione precedente è l’equazione di Schrödinger indipendente dal tempo. Esempio 5. L’esistenza di autovalori dell’operatore, cioè di valori definiti dell’energia di un sistema ha profonde conseguenze sulla descrizione fisica. Vedremo nei capitoli successivi come le proprietà di vari sistemi semplici siano completamente diversi se considerati quantisticamente. L’interpretazione di Planck della radiazione del corpo nero è basata proprio sull’assunzione, sostanzialmente fenomenologica, che un oscillatore armonico ammetta soli stati energetici discreti, e non continui. Ciò è sufficiente per modificare completamente un fenomeno ’macroscopico’ come l’emissione di un corpo nero. Ogni corpo a T > 0K costituisce una sorgente di radiazione elettromagnetica; se investito da una radiazione, ne assorbe una parte, e riflette la parte restante. A temperatura costante, il corpo è in uno stato di equilibrio. Un corpo nero ideale è un oggetto che assorbe tutta l’energia radiante incidente su di esso, senza rifletterne alcuna. A temperatura costante emette dunque radiazione su tutte le lunghezze d’onda. La migliore realizzione sperimentale di un corpo nero è un corpo cavo isolato mantenuto a temperatura costante: la radiazione termica viene osservata da una piccola fessura aperta nel corpo. Il problema è determinare la distribuzione spettrale della radiazione, cioè la frazione di energia irradiata E(ν)dν entro un intorno dν di una data frequenza ν. Secondo la fisica classica, all’equilibrio possiamo supporre che le varie frequenze della radiazione (oscillatori armonici monodimensionali) siano presenti nella cavità con un’energia media pari ²c = kT per il principio di equipartizione dell’energia: kT /2 per l’energia cinetica e kT /2 per l’energia potenziale. La distribuzione dell’energia tra le varie frequenze si riduce a determinare il numero di vibrazioni permesse in un intervallo di frequenze dν. Il risultato classico per il numero di onde stazionarie in un contenitore chiuso di volume V è 4πV 2 ν dν c3 Qundi l’energia della radiazione dovrebbe crescere indefinitamente con ν, visto che ogni oscillatore ha energia media pari a kT : è questa la cosiddetta catastrofe ultravioletta: la radiazione dovrebbe crescere indefinitamente in intensità. In realtà, per una data temperatura, l’energia di emissione ha un massimo, in corrispondenza di una frequenza νmax = 1.035 × 1011 T Hz, e decade esponenzialmente a frequenze maggiori. L’interpretazione di Planck è la seguente: ogni oscillatore ammette energie discrete nhν, con n ≥ 0, dove h è una costante da determinarsi. L’energia media per oscillatore si può calcolare con i metodi della meccanica statistica usando la distribuzione di Boltzmann e porta al risultato dn = ²q = hν exp(hν/kT ) − 1 76 CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA La densità di energia di radiazione è ora data dalla precdente espressione per il numero di oscillatori per unità di volume, eq. (3.3) per l’energia media quantistica ²q . Il risultato (moltiplicato per due, poichè in un campo elettromagnetico oscillano sia il campo elettrico che quello magnetico) è la legge di Planck: E(ν) = 1 8πhν 3 3 c exp(hν/kT ) − 1 che è in ottimo accordo con i dati sperimentali di Lummer e Pringsheim, sostituendo a h il valore di 6.6262 × 10−34 Js. Sperimentalmente, un sistema è descritto da un insieme di proprietà fisiche, rappresentate dagli operatori A, B e cosı̀ via. Possiamo misurare contemporaneamente due proprietà osservabili con precisione arbitraria? Possiamo cioè individuare gli autostati comuni ad un set di operatori ? Consideriamo una coppia di osservabili e sia ψ un autostato comune, tale cioè che Aψ = aψ e Bψ = bψ. Vale il seguente, importante teorema: se due o più operatori ammettono un insieme completo di autofunzioni comuni, commutano e viceversa, se commutano, ammettono un insieme completo di autofunzioni comuni. Cioè osservabili multiple sono conoscibili simultaneamente con precisione arbitraria se e solo i loro operatori commutano. È facile verificare la prima parte del teorema. Ammettiamo che A, B abbiano un set completo di autofunzioni in comune, ψn : si ricordi che dire che un set di funzioni è completo significa affermare che ogni funzione può essere espressa come combinazione lineare delle funzioni stesse. Per una funzione generica f si ha perciò ABf = AB X n cn ψn = X n cn ABψn = X cn an bn ψn (3.25) n e la stessa espressione si ottiene evidentemente applicando BA ad f ; quindi AB = BA, cioè [A, B]. Operatori non commutativi corrispondono a proprietà fisiche non conoscibili simultaneamente con precisione arbitraria in meccanica quantistica. Possiamo chiederci se sia possibile valutare qualitativamente il grado di precisione con cui due grandezze non commutative siano conoscibili. Nel caso di un operatore posizione e momento, vale il famoso principio di indeterminazione 1 ∆x∆px ≥ h̄ 2 (3.26) che limita la possibilità di conoscere con precisione arbitraria il momento e la posizione di una particella, simultanemamente. 3.4 Verifica del principio di indeterminazione Utilizziamo, come suggerisce Atkins, il metodo generale di Robertson, per il caso di due operatori hermitiani generici non commutativi, A e B, tali cioè che [A, B] = iC (3.27) dove C è non nullo (il fattore immaginario i è inserito per convenienza). Il sistema sia definito in uno stato arbitrario Ψ. Definiamo gli operatori differenza δA = A − hAi e δB = B − hBi; si dimostra subito che il loro commutatore è dato da iC: [δA, δB] = iC (3.28) 3.4. VERIFICA DEL PRINCIPIO DI INDETERMINAZIONE 77 Consideriamo il valore di attesa dell’operatore (sδA + iδB)(sδA − iδB) Z drΨ∗ (sδA + iδB)(sδA − iδB)Ψ = [(sδA − iδB)Ψ]∗ I = h(sδA + iδB)(sδA − iδB)i = (3.29) che si riduce facilmente a Z I = [(sδA − iδB)Ψ] = dr|(sδA − iδB)Ψ|2 (3.30) dove s è un numero arbitrario reale: I è evidentemente sempre non-negativo poichè è stato ridotto all’integrale di un integrando sempre non-negativo, e può essere riscritto come I = s2 h(δA)2 i + shCi + h(δB)2 i ≥ 0 (3.31) Perchè l’espressione precedente sia maggiore o uguale a zero basta che il discriminante sia minore o uguale o zero, da cui si ricava subito che 1 h(δA)2 ih(δB)2 i ≥ hCi2 4 (3.32) Si definisce lo scarto quadratico medio ∆A di A come la radice quadrata di hA2 i−hAi2 , ed analogamente per B; poichè si dimostra facilmente che (∆A)2 = h(δA)2 i risulta che 1 1 ∆A∆B ≥ |hCi| = |h[A, B]i| 2 2 (3.33) Nel caso di A = x e B = p̂x si ottiene esattamente la (3.26). Se la particella è nota in una posizione definita, il suo momento è arbitrario; se la velocità della particella è nota con precisione arbitraria, la sua posizione è sconosciuta. Un approccio alternativo al principio di indeterminazione può essere basato un’interpretazione qualitativa, considerando solo il caso degli operatori posizione e momento di una particella generica seguendo l’argomento di Landau e Lifšits. Supponiamo che la particella sia in un volume di spazio finito ∆V = ∆x∆y∆z, e che il valore medio del momento della particella sia p~0 ; ciè equivale ad affermare che Ψ ≈ u(~r) exp(i~ p0 · ~rh̄), dove u(~r) è una funzione che differisce da zero solo per valori di ~r nel volume ∆V . La funzione d’onda Ψ può essere sviluppata in funzione delle autofunzioni dell’operatore vettoriale momento, che ammette in generale autovalori continui p~, con autofunzioni ψp~ = exp(i~ p · ~rh̄)1 . In altri termini, possiamo scrivere Ψ sotto forma di integrale di Fourier 1 Ψ(r) = 3 h Z d~ pa(~ p) exp(i~ p · ~r/h̄) (3.34) dove le funzioni a(~ p) sono ottenibili come Z a(~ p) = Z d~rΨ(~r) exp(−i~ p · ~r/h̄) = d~ru(~r) exp [i(~ p0 − p~) · ~r/h̄] (3.35) Solo se i periodi delle funzioni oscillanti exp [i(~ p0 − p~) · ~r/h̄] sono non trascurabile rispetto a ∆x, ∆y e ∆z nella regione ∆V i coefficienti a(~ p) sono diversi da zero, cioè solo i coefficienti a(~ p) relativi ai valori 1 La normalizzazione di un set di autofunzioni con autovalori continui è analoga al caso di autovalori discreti, ma con la sostituzione di una funzione di Dirac al simbolo di Dirac; nel caso specifico le funzioni sono scelte in modo tale che Z ψp~∗0 ψp~ = h3 δ(~ p0 − p ~) 78 CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA di p~ tali che (px 0 − px )∆x/h̄ ≤ 1 etc. contribuiscono a determinare la funzione d’onda. Ma |(a(~ p)|2 non è altro che la probabilità che la particella abbia quantità di moto p~, quindi (px 0 − px ) = ∆px etc. indica gli intervalli ’possibili’ delle componenti delle quantità di moto, da cui segue che ∆pα ∆xα ∼ h̄ (3.36) Tanto maggiore è la precisione con cui è nota una delle coordinate, tanto minore è la conoscenza disponibile relativa al momento corrispondente. 3.5 Meccanica classica e meccanica quantistica Consideriamo la variazione nel tempo del valore di attesa di un operatore O, di per sè non dipendente dal tempo, per un sistema nello stato (normalizzato) Ψ(r, t) d Z Z drΨ∗ OΨ = dt dr ∂Ψ∗ ∂t Z OΨ + drΨ∗ O ∂Ψ ∂t =− 1 ih̄ Z drΨ∗ HOΨ + 1 ih̄ Z drΨ∗ OHΨ (3.37) da cui segue che dhOi dt = 1 h[H, O]i ih̄ (3.38) Se e solo se il valore d’attesa del commutatore di O e dell’hamiltoniano del sistema commutano il valore di attesa di O è costante. Nel caso di una particella in una dimensione sottoposta ad un potenziale V (x), cui corrisponde una forza F = −dV /dx, non è difficile riscrivere la relazione precedente per gli operatori O = x e O = p̂x nella forma d dt d dt hp̂x i = hF i (3.39) hp̂x i m (3.40) hx̂i = note anche come relazioni di Ehrenfest, molto simili alle equazioni del moto canoniche classiche; la descrizione classica emerge dalla descrizione quantistica come descrizione dei valori medi degli osservabili posizione e momento. 3.6 Moto semi-classico Ad ogni particella quantistica si può associare una lunghezza d’onda (principio di de Broglie) tale che se p è il valore di attesa del momento lineare, la lunghezza d’onda associata è h/p. È questo il principio di de Broglie, di natura assai profonda e che è alla base del problema del dualismo onda-particella, uno dei dibattiti scientifici più interessanti del XX secolo. In pratica, consideriamo l’onda di de Broglie come 3.6. MOTO SEMI-CLASSICO 79 una misura della natura quantomeccanica della particella: se λ è molto piccola rispetto alle dimensioni caratteristiche di una dato sistema, le proprietà del sistema stesso sono sostanzialmente classiche. Consideriamo l’equazione di Schrödinger indipendente dal tempo per un sistema monodimensionale " # h̄2 d2 − + V (x) − E Ψ = 0 2m dx2 (3.41) e cerchiamo una soluzione formale nella forma Ψ = exp(iσ/h̄) (3.42) Un metodo comune di soluzione di equazioni differenziali, anche complesse, prevede di impiegare uno sviluppo in serie di potenze in funzione di qualche parametro piccolo; nel caso usiamo h̄ come parametro σ = σ0 + h̄ σ1 + . . . i (3.43) Possiamo sostituire la precedente espressione nell’equazione di Schrödinger e scrivere separatamente i termini in h̄0 (ordine zero), h̄ (primo ordine) e cosı̀ via: dσ0 2 1 = E − V (x) 2m dx dσ0 dσ1 dx dx + (3.44) 1 d2 σ1 =0 2 dx2 (3.45) Risolvendo prima in σ0 e poi in σ1 troviamo la seguente soluzione, corretta al primo ordine in h̄ · C+ i Ψ= p exp h̄ p(x) Z ¸ · C− i dxp(x) + p exp − h̄ p(x) Z ¸ dxp(x) (3.46) p dove p(x) = 2m [E − v(x)] è la quantità di moto classica di una particella avente energia E e C ± sono costanti arbitrarie. Si può dimostrare che l’espansione in serie di potenze di h̄ è arrestabile al primo ordine sotto la condizione " mh̄|dV /dx| h̄2 =¿ 1 → λ ¿ p3 m|dV (x)/dx| #1/3 =L (3.47) cioè quando il momento non è troppo piccolo, ovvero quando la lunghezza d’onda di de Broglie è molto minore della lunghezza caratteristica L, che dipende dalla massa e dalla forza classica. La forma della funzione d’onda semiclassica corrisponde al moto nei due sensi di un pacchetto d’onda localizzato (possiamo porre per esempio C − = 0 per indicare il moto nella direzione positiva). Il significato del fattore pre-esponenziale 1/sqrtp è il seguente: la probabilità |Ψ|2 di trovare la particella tra x e x + dx √ assume nel caso semi-classico, grazie appunto al fattore 1/ p il valore 1/p: in analogia al caso di un particella classica, che percorre il segmento infinitesimo dx in un tempo 1/p. 80 CAPITOLO 3. PRESENTAZIONE ANALITICA DELLA MECCANICA QUANTISTICA Capitolo 4 Formalismo algebrico della meccanica quantistica 4.1 Spazi vettoriali Iniziamo con una breve presentazione degli spazi vettoriali. Le definizioni che seguono sono del tutto generali: vale a dire le proprietà definite per uno spazio vettoriale non dipendono dalla natura dei suoi componenti, o vettori, che possono essere i vettori di uno spazio tridimensionale noti dai corsi di analisi matematica, o un insieme di funzioni e cosı̀ via. La definizione di uno spazio vettoriale V è fondata sulla precedente definizione di un insieme K di quantità scalari, cioè un insieme di numeri. Il corpo K gode delle proprietà: • Se a e b appartengono a K, allora a + b e ab appartengono a K • 0 e 1 appartengono a K • Se a appartiene a K, −a appartiene a K; se a non è 0 allora a−1 appartiene a K Esempio 6. Sia N l’insieme dei numeri naturali; si vede subito che non è un corpo, poiché se n appartiene a N , −n non è un numero naturale; analogamente per l’insieme dei numeri interi Z, per un cui elemento generico z si ha che 1/z non appartiene a Z. In effetti si parla di spazio vettoriale V sul corpo K di scalari. Il corpo K è in genere dato dall’insieme dei numeri razionali Q, o reali R o complessi C, o loro sottoinsiemi. Uno spazio vettoriale V sul corpo K è dunque un insieme di oggetti che possono essere addizionati fra loro e moltiplicati per elementi di K (nel seguito semplicemente numeri), in modo che il risultato appartenga ancora a V , con le seguenti proprietà aggiuntive: Associativa. Se u, v, w sono elementi di V , allora: (u + v) + w = u + (v + w) (4.1) Neutro. Esiste un elemento 0 di V , tale che 0+u=u+0=u (4.2) 81 82 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA per ogni u di V Opposto. Per ogni u di V esiste −u di V tale che u + (−u) = (−u) + u = 0 (4.3) Commutativa. Per ogni coppia u, v vale che u+v=v+u (4.4) Proprietà in K. Se a, b, c sono numeri • c(u + v) = cu + cv • (a + b)u = au + bu • (ab)u = a(bu) • 1u = u Esempio 7. Alcuni esempi di spazi vettoriali: 1. lo spazio PN (x) di tutti i polinomi a coefficienti reali o complessi di grado N nella coordinata x; lo spazio F di tutte le funzioni di variabile complessa definite in un intervallo. 2. Dato l’insieme Rn di tutte le n-uple di numeri reali, dove la somma di due elementi è definita come la somma ordinata delle componenti, (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) e il prodotto per uno scalare come a(x1 , . . . , xn ) = (ax1 , . . . , axn ), allora Rn è uno spazio vettoriale. Lo studente provi a dimostrarlo verificando i vari punti della definizione di spazio vettoriale. 3. Dato l’insieme di numeri reali positivi R+ , definiamo le seguenti operazioni: ’addizione’, x ⊗ y = xy (cioè l’ordinaria moltiplicazione di due reali), ’moltiplicazione per un numero reale a’, a · x = xa (potenza); allora si dimostra che R+ è uno spazio vettoriale rispetto alle due operazioni appena definite. Lo studente provi a dimostrarlo verificando i vari punti della definizione di spazio vettoriale. Una somma generica di elementi di uno spazio vettoriale V , n X ai xi = a1 x1 + a2 x2 + . . . + an xn (4.5) i=1 è detta combinazione lineare del set di vettori {xi }; gli n vettori sono linearmente dipendenti se esistono n scalari ai non tutti nulli tali che la combinazione lineare sia zero, o linearmente indipendenti se non esistono. Se è possibile esprimere tutti gli elementi di V come combinazioni lineari del set {xi }, allora si dice che il set genera (in inglese, span) lo spazio vettoriale. Una base dello spazio vettoriale è definita come un’insieme di vettori {ei } che sia linearmente indipendente e generi lo spazio. Si può dimostrare che due basi qualunque di uno spazio, se esistono, hanno lo stesso numero di elementi. La dimensione n 4.2. PRODOTTI SCALARI 83 dello spazio V è il numero di elementi di una base, e può anche essere infinita. Per un vettore generico possiamo scrivere perciò: x= n X xi ei (4.6) i=1 il coefficiente xi è la proiezione o componente di x sull’elemento i-esimo della base. L’insieme dei coefficienti è anche detto coordinate. Esempio 8. Quali sono le coordinate della funzione f (θ) = 3 sin θ + 5 cos θ in un opportuno spazio di dimensione 2? Evidentemente, se si considerano come elementi di base sin θ e cos θ, le componenti sono 3 e 5. E quali sono le coordinate della funzione df /dθ? deriando si ottiene df /dθ − 5sinθ + 3 cos θ, di componenti -5 e 3. In generale se consideriamo lo spazio vettoriale delle funzioni f (θ) a valori reali e periodiche in [−π, π], l’insieme degli elementi sin θ, sin 2θ, sin 3θ etc. e cos θ, cos 2θ, cos 3θ etc. costituisce una base 4.2 Prodotti scalari Se V è uno spazio vettoriale definito su un corpo K, definiamo con un prodotto scalare un modo per associare ad ogni coppia di elementi u e v di V uno scalare di K, che indichiamo con u · v. Valgono le seguenti proprietà Commutativa. Per ogni coppia u, v vale che u · v = v · u Distributiva. Per ogni terna u, v, w vale che u · (v + w) = u · v + uw Scalare. Se a appartiene a K allora (au) · v = a(u · v) e u · (av) = a(u · v). Due vettori u, v si dicono ortogonali o perpendicolari se u · v = 0. Data una base e1 , . . . , en , questa si dice ortogonale, se per ogni coppia di indici ei · ej = 0. Esempio 9. Consideriamo lo spazio vettoriale delle coppie di numeri reali R2 . Si noti che tale spazio è in corrispondenza biunivoca con lo spazio dei vettori (in senso tradizionale, quantità con una intensità, direzione e verso) nel piano. Definiamo il prodotto scalare di due vettori u = (u1 , u2 ) e v = (v1 , v2 ) come: u · v = u1 v1 + u2 v2 Torniamo all’insieme di tutte le funzioni periodiche a valori reali in [−π, π]. Definiamo il prodotto f (θ) · g(θ) = Z π −π dθf (θ)g(θ) Lo studente può verificare facilemente che si tratta di un prodotto scalare. Consideriamo ora nel seguito di questo paragrafo uno spazio vettoriale sul corpo R dei numeri reali. Definiamo un prodotto scalare. Si dice che il prodotto è definito positivo se per ogni u di V si ha che u · u ≥ 0, e per ogni u non nullo, u · u > 0. Per una coppia di vettori u e v, se v non è nullo definiamo la proiezione di u lungo v come: a= u·v v·v (4.7) 84 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA detta anche coefficiente di Fourier. Data un base ortogonale, si può verificare che le coordinate di un elemento generico di V rispetto alla base stessa sono i coefficienti di Fourier rispetto agli elementi della base u= X ui ei , ui = i u · ei ei · ei Dato un vettore u, Si dice norma la grandezza scalare u = dice normalizzato, o vettore unità, o versore 1 . (4.8) √ u · u. Se la norma vale 1, il vettore u si Esempio 10. Consideriamo l’insieme dei polinomi P2 (x) di grado 2 in [0, 1] a valori reali. È uno spazio vettoriale (definendo l’addizione come somma dei coefficienti)? Di che dimensione? Possiamo definire una base? Ed un prodotto scalare? Ed una base ortonormale? Suggerimenti: la dimensione coincide con il numero massimo di coefficienti; una base è data semplicemente da 1, x e . . .; il prodotto scalare può essere definito come l’integrale da 0 ad 1 del prodotto di . . . Consideriamo nel seguito la generalizzazione del concetto di prodotto scalare che è valido per spazi vettoriali sul corpo dei numeri reali, al caso di spazi vettoriali sul corpo dei complessi. Parleremo in questo caso di prodotto hermitiano tra due vettori u e v, con le seguenti proprietà Commutativa. Per ogni coppia u, v vale che u · v = (v · u)∗ Distributiva. Per ogni terna u, v, w vale che u · (v + w) = u · v + uw Scalare. Se a è un numero complesso allora (au) · v = a(u · v) e u · (av) = a∗ (u · v). dove con a∗ indichiamo il complesso coniugato di a. Tutte le definizioni precedenti relative al prodotto scalare (definito positivo, ortogonalità, basi ortogonali, etc.) sono analoghe. Esempio 11. Ecco due esempi di prodotto hermitiano 1. Consideriamo lo spazio delle n-uple complesse, C n ; un elemento generico è u = (u1 , . . . , un ) dove ui appartiene a C. La dimensione dello spazio è evidentemente n; definiamo il prodotto hermitiano u·v= n X u∗i vi i=1 Il prodotto è definito positivo poiché se u 6= 0, allora almeno uno dei numeri ui è diverso da zero (complesso) e u∗i ui è sempre positivo. 2. Consideriamo lo spazio delle funzioni f (θ) a valori complessi definite in [−π, π]. È uno spazio vettoriale, di dimensione infinita, e possiamo introdurre il prodotto hermitiano definito positivo: f ·g = 1 Z π −π dθf (θ)∗ g(θ) Supponiamo che V abbia dimensione finita n. Una sua base e1 , . . . , en si dice ortonormale se essa è ortogonale e se ogni ogni suo elemento è un vettore unità; da una base ortogonale si può sempre ricavare una base ortonormale, dividendo ogni elemento della base per la sua norma. 4.3. VETTORI E MATRICI 85 Non è difficile verificare che l’insieme di funzioni {1, e±iθ , e±2iθ , . . .} costituisce una base ortogonale del problema; se indichiamo con fn = einθ dove n è un numero intero, la norma di ciascuna funzione di base è fn · fn = Z π −π dθe−inθ einθ = 2π Ogni elemento generico dello spazio può essere espresso come combinazione lineare delle funzioni di base; il coefficiente di Fourier n-esimo è il coefficiente che misura il contributo di ciascuna funzione di base: f (θ) = X cn fn = X cn einθ n f · fn 1 cn = = fn · fn 2π 4.3 Z π −π dθf (θ)∗ einθ Vettori e matrici Nel corso di questa Sezione riassumeremo alcune proprietà già note allo studente dei vettori tridimensionali reali. Quindi procederemo alla definizione e allo studio delle grandezze matriciali. Un vettore nello spazio tridimensionale ordinario è definito come una coppia ordinata di punti dello spazio. In Figura 4.1 è riportata la rappresentazione di due vettori ~u e ~v , definiti rispetto ad un punto comune di origine. Si deve notare che lo spazio vettoriale delle triple di numeri reali R3 è in corrispondenza biunivoca con lo spazio dei vettori ordinari, che possono perciò essere identificati da una terna di numeri reali (le componenti rispetto ad un sistema di riferimento, vedi Figura 4.1). Comunque la definizione dello spazio vettoriale dei vettori ordinari può essere data prescindendo dalla rappresentazione: il vettore si può identificare come una freccia orientata, con una direzione, un verso ed un’intensità. Nel seguito useremo sempre caratteri in grassetto per indicare n-ple di numeri o matrici (es. la tripla di numeri v1 , v2 , v3 sarà v); e caratteri tipografici per indicare il vettore o la matrice indipendentemente dalla sua rappresentazione (es. v). Dove non sia necessario specificare la differenza useremo caratteri in grassetto. La somma di due vettori è descritta come un vettore ottenibile con la regola del parallelogramma (vedi Figura 4.1). Il prodotto scalare è ottenuto in accordo con la definizione nota di prodotto scalare, ~u ·~v = uv cos θ, dove u e v sono il modulo dei due vettori e θ è l’angolo compreso. Alternativamente, se si considera l’equivalente spazio R3 , introducendo una base di tre versori ~e1 , ~e2 , ~e3 , ed ogni vettore viene rappresentato dalle sue componenti sulla base, la somma e il prodotto scalare sono definiti u+v= 3 X (ui + vi )ei (4.9) i=1 u·v= 3 X ui vi (4.10) i=1 Altri prodotti possono essere definiti con un chiaro significato geometrico. Il prodotto vettoriale di ~u e ~v è un vettore che ha per modulo la quantità uv sin θ, per direzione la perpendicolare al piano definito da 86 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA e 3 u+v v u u x v u 3 e1 u u e 2 1 2 Figura 4.1: Vettori nello spazio 3D ~u e ~v e per verso quello ottenuto avvitando una vite destrorsa lungo la direzione definita, in modo da portare ~u su ~v (regola della vite o della mano destra). Il prodotto vettoriale è un esempio di applicazione definita in uno spazio vettoriale: ovvero un’operazione che associa elementi dello spazio ad altri elementi dello spazio. Ecco alcune utili identità: ~a × ~b = −~b × ~a (4.11) ~a · (~b × ~c) = ~b · (~c × ~a) = ~c · (~a × ~b) (4.12) ~a × (~b × ~c) = ~b(~a · ~c) − ~c(~a · ~b) (4.13) ~ = (~a · ~c)(~b · d) ~ − (~a · d)( ~ ~b · ~c) (~a × ~b) · (~c × d) (4.14) La notazione vettoriale è di grande utilità perché permette di riassumere in modo compatto equivalenze ed equazioni in tre dimensioni, o in n dimensioni, la generalizzazione a Rn essendo molto semplice. In R3 cosı̀ l’equazione che definisce un piano nello spazio passante per un punto x0 è (x − x0 ) · n = 0 (4.15) dove n è un versore normale al piano. L’angolo diedro tra due piani è invece dato come cos Θ = |n1 · n2 | (4.16) Molte altre identità e definizioni della geometria analitica nello spazio tridimensionale sono note allo studente dai corsi di matematica. L’uso della notazione vettoriale è utile anche per definire funzioni 4.4. MATRICI 87 vettoriali. Possiamo distinguere funzioni scalari, o campi scalari, che associano elementi di R3 a R o funzioni vettoriali che associano elementi di R a R3 . Un campo vettoriale è infine una funzione che associa elementi di R3 a R3 . Esempio 12. Ecco alcuni esempi di campi scalari, funzioni vettoriali e campi vettoriali: Campi scalari: la temperatura di un laboratorio, intesa come funzione delle coordinate spaziali; la funzione f (x) = |x|; la funzione f (x) = x21 − x2 x3 ; la concentrazione di cloruro di terbutile in un reattore contenente alcol terbutilico, cloro e cloruro di terbutile. Funzioni vettoriali: la retta x(t) = x0 + nt; la funzione x(t) = r cos ωte1 + r sin ωte2 + vte3 , che rappresenta la traiettoria di una particella che si muova lungo un’elica destrorsa, con asse parallelo a e3 (vedi Figura 4.2). Campi di vettori: la forza di gravità tra due corpi; la funzione f(x) = x × n; l’orientazione delle molecole di cristallo liquido che formano il display di un orologio digitale. 4.4 Matrici Una matrice di mn elementi dove m ed n sono rispettivamente il numero di righe ed il numero di colonne, è definita come una tabella rettangolare di numeri, il cui elemento generico è aij (dove 1 ≤ i ≤ m e 1 ≤ j ≤ n), e si indica nel modo seguente a11 a21 A= a12 a22 am1 am2 a13 a23 ... am3 ... ... a1n a2n (4.17) ... amn o con notazioni equivalenti: p.es. doppie linee invece di parentesi. Consideriamo l’insieme delle matrici m×n. Possiamo definire la moltiplicazione per uno scalare α di una matrice A come la matrice ottenuta moltiplicando ciascun elemento di A per α (αA)ij = αaij (4.18) La somma di due matrici si ottiene sommando gli elementi delle matrici addende (A + B)ij = aij + bij (4.19) La matrice nulla è formata solo da zeri 0ij = 0 (4.20) ed infine la matrice opposta di una matrice generica è (−A)ij = −aij (4.21) Si verifica facilmente che l’insieme cosı̀ definito è uno spazio vettoriale di dimensione mn. Una base è costituita dalle mn matrici con elementi ovunque nulli, tranne che in una posizione à e11 = 1 ... 0 ... 0 0 ! à ,..., emn = 0 ... 0 0 ... 1 ! (4.22) 88 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA z 10 5 0 −1 y −1 0 0 1 1 Figura 4.2: Una spirale destrorsa. x 4.4. MATRICI 89 Esempio 13. Definiamo un prodotto tra due matrici m × n come la matrice ottenuta moltiplicando gli elementi nella stessa posizione (A ∗ B)ij = aij bij . L’operazione ∗ è un prodotto scalare? Il prodotto tra matrici è un’applicazione che associa a due matrici generiche A m × n e B n × p una matrice AB m × p (il numero di colonne della prima matrice deve essere uguale al numero di righe della seconda): (AB)ij = n X aik bkj (4.23) k=1 L’insieme delle n-uple di numeri, cioè gli elementi di Rn o C n si possono mettere in relazione biunivoca con le matrici 1 × n (matrici riga) oppure n × 1 (matrici colonna). Cosı̀ la moltiplicazione di una matrice m × n per un vettore n dimensionale significa in pratica la moltiplicazione per una matrice colonna n × 1 ed il risultato è una matrice colonna m × 1: a11 a21 a12 a22 am1 a13 a23 ... am3 am2 ... ... ... v1 u1 a1n u v a2n 2 = 2 ≡ Au = v ... ... vm un amn (4.24) Pn dove vi = j=1 aij uj . Esempio 14. Il prodotto tra matrici non è commutativo, ovvero AB 6= BA. Si definisce il commutatore come la matrice: [A, B] = AB − BA. Evidentemente perché il commutatore esista deve essere m = p; si dice che due matrici commutano se [A, B] = 0. Consideriamo nel seguito solo le matrici quadrate n × n (nel seguito, di dimensione n), e vettori (matrici riga o colonna). Alcune matrici quadrate speciali di dimensione n sono le seguenti: • la matrice identità 1 0 0 1 0 ... 0 0 ... 0 ... 0 0 ... 1 1= 0 (4.25) • le matrici scalari, A= a 1 • le matrici diagonali d1 0 D= 0 d2 0 0 0 ... 0 ... ... 0 ... 0 0 (4.26) dn • le matrici tridiagonali d1 e1 Td = e1 d2 0 0 0 0 ... 0 ... ... 0 0 ... dn (4.27) 90 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA • le matrici triangolari (superiori od inferiori) t11 0 T= t12 t22 0 0 t13 t23 ... 0 ... ... t1n t2n (4.28) ... tnn • la potenza di una matrice: Ap = A · . . . A (p volte) • le matrici idempotenti: P2 = P In associazione con una generica matrice A con elementi aij si possono definire alcune matrici strettamente collegate • la matrice trasposta a11 a12 AT = a21 a22 a1n a2n a31 a32 ... a3n ... ... an1 an2 ... (4.29) ann • la matrice complessa coniugata ∗ a11 ∗ a21 A∗ = a∗12 a∗22 a∗1n a∗2n a∗13 a∗23 ... a∗3n ... ... a∗1n a∗2n ... a∗nn ... ... a∗n1 a∗n2 (4.30) • la matrice aggiunta ∗ a11 ∗ a12 A† = a∗21 a∗22 a∗1n a∗2n a∗31 a∗32 ... a∗3n ... (4.31) a∗nn evidentemente (AT )∗ = (A∗ )T = A† . Prima di procedere oltre consideriamo il concetto di funzione scalare di una matrice, ovvero una corrispondenza tra una matrice e l’insieme dei reali o complessi. Le funzioni scalari più importanti sono la traccia Tr(A) = n X aii (4.32) i=1 che è la somma di tutti gli elementi diagonali di una matrice; ed il determinante det(A) = X (−1)P Πnj=1 ajP(j) (4.33) P di definizione un poco più complicata: si tratta della somma di n! addendi, ciascun dei quali è ottenuto moltiplicando n quantità che coincidono con un elemento per ciascuna riga; vi sono appunto n! possibili scelte, che coincidono con le permutazioni tra gli n indici 1, 2, . . . , n; ogni permutazione è caratterizzata 4.4. MATRICI 91 dal simbolo P ed è pari, (−1)P = 1 o dispari (−1)P = −1 a seconda che sia ottenuto con un numero pari o dispari di trasposizioni degli indici. In pratica il calcolo dei determinanti è effettuato applicando il seguente teorema det(A) = (−1)1+j a1j det(A1j ) + . . . + (−1)n+j anj det(Anj ) (4.34) cioè scegliendo una colonna della matrice (indice j) e sommando i determinanti delle sottomatrici di dimensione n − 1 ottenute cancellando la colonna e la riga corrispondente a ciascun elemento (e.g. A12 è la matrice ottenuta cancellando la prima riga e la seconda colonna). Un’analoga relazione sussiste per uno sviluppo lungo una riga. Varie proprietà elementari dei determinanti sono facilmente dimostrabili: • det(1) = 1 • det(D) = Πni=1 di • det(T) = Πni=1 tii • det(AT ) = det(A) • det(A∗ ) = det(A)∗ • det(A† ) = det(A)∗ • det(AB) = det(A) det(B) • det(αB) = αn det(A) Possiamo ora definire esplicitamente la matrice inversa di una matrice generica come la matrice A−1 tale che AA−1 = A−1 A = 1 (4.35) Gli elementi della matrice inversa sono calcolabili infatti come: (A−1 )ij = (−1)i+j det(Aji ) det(A) (4.36) quindi una matrice ammette inversa solo se il determinante non è nullo (altrimenti si dice singolare). Le matrici associate ad applicazioni fisiche od utilizzate nei calcoli quantomeccanici godono spesso di alcune proprietà speciali, tra le quali • matrice simmetrica: AT = A • matrice hermitiana: A† = A • matrice ortogonale: AT = A−1 • matrice unitaria: A† = A−1 92 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Una matrice reale simmetrica o ortogonale è anche hermitiana o unitaria. Esempio 15. Nel trattamento di Hückel dei polieni lineari è necessario calcolare il determinante della matrice tridiagonale x 1 AT = 1 x 0 0 0 1 ... 0 ... ... 0 0 ... x Come si può procedere per ridurlo ad un polinomio? In generale la moltiplicazione di un vettore per una matrice denota una trasformazione del vettore. Nello spazio tridimensionale possiamo usare analoghi geometrici per indicare una trasformazione (rotazione, traslazione etc.) del vettore stesso. In uno spazio n-dimensionale questo non è ovviamente possibile. Consideriamo per esempio il problema di descrivere la rotazione di un vettore nello spazio 3D: in generale una rotazione si può identificare mediante tre angoli, detti angoli di Eulero. Consideriamo Z z β O X α γ Y y N x Figura 4.3: Angoli di Eulero α, β, γ per specificare la rotazione di un sistema di riferimento molecolare rispetto ad un sistema di riferimento di laboratorio. un vettore generico ~u che abbia le coordinate (X, Y, Z) in un dato sistema di riferimento fisso (per ~ Y ~ , Z); ~ vogliamo sapere quali sono le sue esempio solidale con il laboratorio, e definito dai versori (X, coordinate in un sistema di riferimento ruotato (per esempio solidale con una molecola, e definito dai versori ~x, ~y , ~z). Il sistema di riferimento ruotato è definito in modo complicato ma rigoroso, tramite tre rotazioni elementari successive (vedi Figura 4.3): ~ questa rotazione porta Y ~ nella linea dei nodi • una rotazione antioraria di un angolo α intorno a Z; ~; N ~ ; questa rotazione porta Z ~ in ~z; • una rotazione antioraria di un angolo β intorno a N 4.4. MATRICI 93 ~ in ~y ; • una rotazione antioraria di un angolo γ intorno a ~z; questa rotazione porta N Dopo la prima rotazione, le coordinate del vettore siano (x0 , y 0 , z 0 ); dopo la seconda rotazione (x00 , y 00 , z 00 ); dopo la terza, nel sistema di riferimento molecolare (x, y, z). Applicando la trigonometria, si vede che: 0 x cos α 0 y = − sin α z0 0 00 x cos β 00 y = 0 z 00 sin β x cos γ y = − sin γ z 0 sin α cos α 0 0 1 cos β sin γ cos γ 0 0 X 0 Y 1 Z − sin β 0 x 0 y (4.38) z0 0 (4.37) 0 x00 0 y 00 1 z 00 (4.39) Moltiplicando le tre matrici di rotazione elementari si ottiene: x cos α cos β cos γ − sin α sin γ y = − cos α cos β sin γ − sin α cos γ z cos α sin β sin α cos β cos γ + cos α sin γ − sin α cos β sin γ + cos α cos γ sin α sin β − sin β cos γ X sin β sin γ Y (4.40) cos β Z La matrice di trasformazione è detta matrice di Eulero, E. Esempio 16. Qual è la trasformazione lineare che moltiplica le componenti di un vettore n-dimensionale per uno scalare a? Scrivere la matrice che rappresenta la trasformazione. E qual è la trasformazione che scambia la componente i-esima con la componente j-esima? Matrici e vettori sono molto utili per la rappresentazione matematica di proprietà fisiche che dipendano dalla direzione di misura. Consideriamo per esempio il momento di dipolo indotto µ in una molecola da un campo elettrico E: in generale si dovrà scrivere ~ m ~ = aE (4.41) ~ sono vettori tridimensionali, mentre a è un tensore cartesiano del secondo ordine, cioè una dove m ~ eE proprietà rappresentabile da una matrice 3 × 3 (Figura 4.4). Se la nostra molecola ha una simmetria cilindrica, e si esprimono tutte le grandezze vettoriali in un sistema di riferimento solidale con la molecola ed avente l’asse z diretto lungo l’asse principale della molecola, allora la matrice di polarizzabilità assume una forma particolarmente semplice: a⊥ a= 0 0 0 a⊥ 0 0 0 ak (4.42) In generale, le proprietà fisiche rappresentabili da matrici 3 × 3 sono dette proprietà tensoriali, e si può sempre identificare un sistema di riferimento (di solito solidale con la molecola), tale che siano rappresentate da matrici diagonali (i valori diagonali si chiamano allora valori principali). Le grandezze tensoriali in Tabella (4.1) sono sempre rappresentabili come matrici reali simmetriche. Se i tre valori principali sono uguali, la rappresentazione della proprietà tensoriale è la stessa in qualunque sistema di riferimento, e si parla di proprietà scalare. 94 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA z O m E a II C aI O Figura 4.4: Schema del momento dipolare indotto in una molecola di CO2 da un campo elettrico esterno. Relazione tensoriale Momento angolare = tensore di inerzia × velocità angolare Momento di dipolo = polarizzabilità × campo elettrico Induzione elettrica = tensore dielettrico × campo elettrico Magnetizzazione = suscettibilità magnetica × campo magnetico Velocità della luce = indice di rifrazione × velocità nel vuoto y ~ L m ~ ~ D ~ M ~v A x I a ² χ n ω ~ ~ E ~ E ~ H ~v0 Tabella 4.1: Relazioni tensoriali nella forma generica ~y = A~x Esempio 17. Consideriamo il seguente problema; è data una molecola del complesso Cu(NH3 )2+ 6 . Calcoliamo il tensore di inerzia nel sistema di riferimento indicato in Figura 4.5 dai versori ~x, ~y , ~z. Dal corso di Fisica I è noto che per un sistema di punti materiali con masse mi e coordinate ri = (xi , yi , zi ), P P il momento di inerzia ha componenti I11 = i mi (ri2 − x2i ), I12 = − i mi xi yi e cosı̀ via. Nel sistema di riferimento indicato in Figura 4.5 si ha perciò: 1 2 I = 4mNH3 l 0 0 0 1 0 0 0 1 Quindi il sistema di riferimento ~x, ~y , ~z è tale che il tensore di inerzia è già in forma diagonale. Lo studente può verificare facilmente che anche il sistema ruotato ~x0 , ~y 0 , ~z0 gode di questa proprietà). 4.5 Sistemi lineari Dopo aver discusso le proprietà principali delle matrici e dei vettori, riassumiamo brevemente alcune applicazioni a problemi matematici che ricorrono sistematicamente nello studio della chimica (e non solo della chimica quantistica). 4.6. TRASFORMAZIONI 95 z’ NH 3 l NH 3 NH 3 Cu y 2+ x NH 3 NH 3 y ’ x’ NH 3 Figura 4.5: Calcolo del momento di inerzia del complesso Cu(NH3 )2+ 6 . La soluzione dei sistemi lineari di equazioni si presta molto bene ad una implementazione in termini di matrici e vettori. Consideriamo solo il caso di n equazioni lineari in n incognite. Possiamo scrivere un sistema lineare in forma estesa a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 (4.43) .. . an1 x1 + an2 x2 + . . . + ann xn = bn o in forma compatta Ax = b; la soluzione si ottiene semplicemente nella forma x = A−1 b. Naturalmente la soluzione esiste solo se la matrice A è invertibile, cioè se il suo determinante non è nullo. Esempio 18. 100 ml di una soluzione di iodio I− e Cl− titola 100 ml 0.1 N di AgNO3 . 100 ml della stessa soluzione, trattati con un eccesso di AgNO3 , danno 1.5 g di precipitato. Calcolare la concentrazione di iodio e cloro nella soluzione. Di interesse sono anche i sistemi omogenei: Ax = 0 (4.44) in cui b = 0; se A non è singolare, l’unica soluzione possibile è A−1 0 = 0, cioè l’n-upla nulla. Se A è singolare, det(A) =, l’equazione ammette infinite soluzioni, multiple della soluzione generica: xi = (−1)i+j det(Aji ) (4.45) dove j è un indice di riga qualunque. 4.6 Trasformazioni Come un vettore tridimensionale ha diverse componenti in un diverso sistema di riferimento (o, nel linguaggio degli spazi vettoriali, in una diversa base), cosı̀ una matrice ha diverse componenti in un 96 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA diverso sistema di riferimento. Nella Sezione precedente era stato discusso brevemente il concetto di rotazione di un sistema di riferimento; inoltre nell’esempio riferito alla polarizzabilità, il momento di dipolo, il campo elettrico e la polarizzabilità erano stati espressi implicitamente in un sistema di riferimento ‘conveniente’, che permetteva di esprimere la polarizzabilità in una forma semplice. In generale, qual è la relazione tra la trasformazione di un sistema di riferimento e le componenti di un vettore o di una matrice? Ancora una volta si tratta di un problema facilmente descrivibile nel linguaggio degli spazi vettoriali. di n-uple di numeri. Consideriamo in generale una base ei (per esempio, nel caso della rotazione tridimensionale, la base di versori che identifica gli assi del laboratorio). Un vettore generico v ha componenti v1 , . . . , vn nella base, cioè l’n-upla v. Introduciamo un secondo sistema di riferimento, cioè una seconda base e0i , in cui il vettore v ha componenti v10 , . . . , vn0 , o v0 . La relazione tra le componenti del vettore nei due sistemi di riferimento è in generale esprimibile come una trasformazione lineare v = Tv0 (4.46) Nell’esempio della rotazione del sistema di riferimento T era l’inversa della matrice di Eulero, che coincide con la trasposta della matrice di Eulero (che è ortogonale), T = ET . Consideriamo ora una relazione tra due vettori generici, u e v, nella forma u = Av (4.47) Nelle due basi ei e e0i (o nei due sistemi di riferimento, se si preferisce), si possono scrivere due distinte relazioni matriciali: u = Av (4.48) u0 = A0 v0 (4.49) Sostituendo nella prima equazione le espressioni u = Tu0 e v = Tv0 si ottiene Tu0 = ATv0 → u0 = T−1 ATv0 (4.50) da cui si vede che la matrice trasformata è A0 = T−1 AT (4.51) La precedente equazione è detta anche trasformazione di similitudine; se T è unitaria o ortogonale, parleremo di trasformazione unitaria o ortogonale. 4.7 Problemi agli autovalori Un problema molto comune che ricorre nelle applicazioni fisiche è il calcolo degli autovettori e degli autovettori di una matrice, o della risoluzione del problema agli autovalori relativo ad una matrice. Un’autovettore x di una matrice A è un vettore tale che: Ax = λx (4.52) 4.7. PROBLEMI AGLI AUTOVALORI 97 cioè tale che la moltiplicazione per A non ne modifica altro che la lunghezza, di un coefficiente scalare λ, detto autovalore. L’insieme degli autovalori è detto spettro della matrice. La n-upla nulla, 0 è sempre una soluzione, triviale; dato un autovettore x, ogni vettore ax è pure un autovettore. E‘ possibile avere più di un autovettore linearmente indipendente corrispondente ad uno stesso autovalore. Il numero di autovettori linearmente indipendenti che condividono lo stesso autovalore è detto molteplicità dell’autovalore; se la molteplicità è diversa da uno, l’autovalore è degenere. La soluzione del problema agli autovalori è impostabile come il calcolo degli zeri di un polinomio di grado n. Infatti l’equazione agli autovalori si può scrivere come un sistema omogeneo (A − λ1)x = 0 (4.53) che ammette soluzioni non triviali solo se la matrice è singolare: det(A − λ1) = 0 (4.54) L’equazione precedente è detta equazione secolare. Se si è in grado di trovare gli autovalori e i corrispondenti autovettori, i quali possono essere eventualmente normalizzati per evitare l’arbitrarietà di un fattore scalare, possiamo costruire un matrice diagonale Λ con gli autovalori in diagonale ed una matrice X la cui colonna i-esima è l’autovettore i-esimo. L’insieme delle n equazioni lineari diviene dunque AX = XΛ (4.55) od anche Λ = X−1 AX (4.56) La matrice degli autovettori è dunque una matrice che trasforma A secondo una trasformazione di similitudine che la rende diagonale: se due matrici generiche A, B commutano, [A, B] = 0, allora si possono scegliere combinazioni lineari di autovettori di A che sono anche anche autovettori di B o viceversa. In altre parole, due matrici con commutatore nullo si possono diagonalizzare simultaneamente con la stessa trasformazione; questa affermazione si generalizza anche ad un numero generico di matrici: se A1 , A2 , . . . , An commutano fra loro, possono essere diagonalizzate simultaneamente. Esempio 19. Nella teoria MO, basata sull’approssimazione di Huckel, per calcolare gli orbitali molecolari π dell’alchene 1,4-butadiene è necessario diagonalizzare la seguente matrice 0 1 A= 0 0 1 0 1 0 0 1 0 1 0 0 1 0 Il determinante secolare è dato da λ4 − 3λ2 + 1 = 0 Lo studente verifichi che è un’equazione biquadratica con le seguenti soluzioni s s s s √ √ √ √ 3+ 5 3− 5 3− 5 3+ 5 λ2 = − λ3 = λ4 = λ1 = − 2 2 2 2 Nelle applicazioni quantomeccaniche, i problemi agli autovalori coinvolgono sempre matrici hermitiane. Le matrici hermitiane H godono delle seguenti importanti proprietà 98 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA • gli autovalori di H sono reali • gli autovettori corrispondenti ad autovalori distinti sono ortogonali Poiché gli autovettori corrispondenti ad un autovalore degenere costituiscono comunque un set linearmente indipendente, si può trovare una trasformazione lineare che li trasforma in un set ortogonale. Di conseguenza, il set complessivo di autovettori normalizzati di una matrice hermitiana costituisce una base ortonormale, tale che per una coppia qualunque x†i xj = δij (4.57) dove δij è il simbolo di Kronecker (0 se i 6= j, 1 se i = j). In definitiva, se X è la matrice degli autovettori di H, e Λ è la matrice diagonale degli autovalori, si ha che: X† HX = Λ (4.58) dove X è unitaria e Λ e reale. 4.8 Funzioni di matrici Concludiamo questo capitolo introducendo il concetto di funzione di matrice. Data una funzione continua f (x) nella variabile x definita dalla serie convergente ∞ X f (x) = cn xn (4.59) n=0 si definisce la funzione della matrice A come la matrice ottenuta dalla serie f (A) = ∞ X cn An (4.60) n=0 Esempio 20. Alcune funzioni di matrici: • Polinomio in A: f (A) = PN n n=0 cn A • Esponenziale in A: f (A) = exp(A) = • Coseno in A: f (A) = cos(A) = • Seno in A: f (A) = sin(A) = P∞ n=0 A n /n! P∞ n 2n n=0 (−1) A /(2n)! P∞ n=0 (−1) • Inversa di 1 + A: f (A) = (1 + A)−1 = n A2n+1 /(2n + 1)! P∞ n n n=0 (−1) A ; • Inversa della radice di 1+A: f (A) = (1+A)−1/2 = limn→∞ (2n)!An /22n n!2 = 0 P∞ con la condizione limn→∞ An = 0 n=0 (−1) n (2n)!An /22n n!2 ; con la condizione Dato lo sviluppo in serie di una funzione, la valutazione della funzione di matrice si persegue utilizzando il concetto di diagonalizzazione. Sia data la funzione generica (4.60) in A. Siano note la matrice degli autovalori Λ e la matrice degli autovettori X di A, allora f (A) = ∞ X n=0 cn An = ∞ X n=0 cn (XΛX−1 )n (4.61) 4.9. ESERCIZI 99 e lo studente può verificare per ispezione che (XΛX−1 )n = XΛn X−1 da cui segue f (A) = X Ã∞ X ! cn Λn X−1 = Xf (Λ)X−1 (4.62) n=0 e f (Λ) è immediatamente valutabile come una matrice diagonale il cui i-esimo elemento diagonale è f (λi ). Esempio 21. È data la matrice 2 × 2: ! Ã√ 2 1 √ A= 1 2 Valutare exp(A). Le matrici Λ e X (gli autovettori non sono normalizzati) sono: Ã√ ! ! à 2+1 0 1 1 √ λ= X= 0 1 −1 2−1 Quindi exp(A) è data da: à exp(A) = 1 1 1 −1 !à √ exp( 2 + 1) 0 0 √ exp( 2 − 1) !à 1/2 1/2 1/2 −1/2 ! ed infine à A= √ √ exp( 2 + 1) + exp( 2 − 1) √ √ exp( 2 + 1) − exp( 2 − 1) ! √ √ exp( 2 + 1) − exp( 2 − 1) √ √ /2 exp( 2 + 1) + exp( 2 − 1) La soluzione di un sistema di equazioni lineari differenziali ordinarie può essere espressa formalmente usando la funzione esponenziale della matrice dei coefficienti. Esempio 22. La soluzione di un sistema di equazioni lineari differenziali ordinarie per n specie chimiche aventi concentrazioni al tempo t date da c1 (t), c2 (t), . . . , cn (t) si presta molto bene ad evidenziare l’utilità delle funzioni di matrici. Il sistema si può scrivere in forma compatta come: dc(t) dt = −Kc(t) dove K è una matrice di coefficienti costanti. Le condizioni iniziali, che specificano la concentrazione al tempo iniziale, sono c(0) = c0 . La soluzione del sistema è semplicemente c(t) = exp(−Kt)c0 che si può scrivere anche come: c(t) = X exp(−Λt)X−1 c0 . Quindi il problema è equivalente alla diagonalizzazione della matrice K. 4.9 Esercizi 1. Siano x ⊗1 y e x ⊗2 y due prodotti scalari definiti nello stesso spazio vettoriale. Dimostrare che anche le seguenti operazioni: x ¯1 y = x ⊗1 y + x ⊗2 y e x ¯2 y = λx ⊗1 y + µx ⊗2 y, sono prodotti scalari dove λ e µ sono numeri arbitrari non negativi e non simultaneamente nulli. 100 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA 2. Definire il prodotto scalare dello spazio dei polinomi di grado ≤ n in modo che la base 1, t, t2 /2!, . . . , tn /n! sia ortonormale. 3. Valutare il determinante di una matrice triangolare superiore di dimensione n. 4. Valutare il determinante di una matrice triangolare inferiore di dimensione n. 5. Porre in forma di polinomio di t il determinante della matrice −t a 2 A= 0 0 0 0 −t a3 0 0 0 0 −t 0 0 ... 0 ... 0 ... 0 . . . −t . . . an a1 0 0 0 −t 6. Per quali valori di λ il seguente sistema ammette soluzione? x1 + x2 + λx3 = 1 x1 + λx2 + x3 = 1 λx1 + x2 + x3 = 1 7. Trovare l’inversa della matrice 0 0 A= an 0 ... 0 0 . . . a2 ... 0 ... 0 a1 0 0 8. Trovare l’inversa della matrice 1 0 ... 0 a 1 ... 0 A= 0 a ... 0 ... 0 0 ... a 0 0 0 1 9. Esprimere l’equazione secolare della seguente matrice in forma polinomiale: 0 0 0 0 A= 0 c1 0 c2 ... 0 ... 0 ... ... 0 . . . cn b1 b2 bn a 10. Trovare gli autovalori di una matrice triangolare superiore di dimensione n. 4.10. SPAZI DI HILBERT 4.10 101 Spazi di Hilbert L’estensione dei concetti introdotti nelle Sezioni del precedente Capitolo per spazi vettoriali di dimensioni finite è abbastanza ovvia. Un concetto completamente nuovo che deve però essere introdotto è quello di completezza, essenziale per il calcolo di autovalori ed autovettori e per il trattamento computazionale di matrici di dimensioni formalmente infinite. Gli spazi vettoriali di dimensioni infinite per i quali si possa definire la proprietà addizionale di completezza sono anche detti spazi di Hilbert e sono di importanza fondamentale per lo studio della meccanica quantistica. Per questo motivo cambieremo la simbologia generica del Capitolo precedente utilizzando la notazione di Dirac o notazione bracket tipica delle applicazioni quanto-meccaniche. Un vettore di uno spazio Hilbertiano è rappresentato da un ket |φi. Consideriamo uno spazio vettoriale di dimensione infinita, con un prodotto hermitiano. Per due vettori generici, |φi e |ψi, il prodotto è hφ|ψi (dove il primo vettore appare in forma bra). L’opposto di |φi è −|φi, l’elemento nullo è |0i e cosı̀ via. Il modulo di un vettore è hφ|φi. Sia ora data una successione di vettori |φ1 i, . . . , |φn i, . . . ed un vettore limite |φi. La successione converge2 al vettore limite se per ogni numero ² positivo piccolo a piacere esiste un intero N (²) tale che per n > N (²) vale che hδφn |δφn i < ² (4.63) dove |δφn i = |φn i − |φi. Si dice che lo spazio vettoriale è uno spazio di Hilbert, di cui la successione φn è una base, se la successione converge a |φi per ogni |φi. Nel seguito considereremo solo spazi hilbertiani. Esempio 23. Lo spazio delle funzioni periodiche a valori complessi è uno spazio Hilbertiano. Qual è una sua base completa? Una volta definita una base, possiamo rappresentare ogni vettore nella base definendone le componenti. Se pensiamo agli elementi dello spazio hilbertiano come a delle funzioni generiche, queste possono essere rappresentate da vettori colonna di dimensioni infinite. Un’applicazione ovvero una corrispondenza che mette in relazione un vettore con un altro vettore può essere espressa tramite il concetto, fondamentale, di operatore O|φi = |ψi (4.64) Nell’equazione precedente l’operatore O agisce sul vettore |φi trasformandolo nel vettore |ψi. Sia ora data una base ortonormale {|ii}; stando alle definizioni del Capitolo 4, si ha che hi|ii = δij . Un vettore generico è |φi = X φj |ji (4.65) j sostituendo nell’equazione (4.64) e premoltiplicando per un generico |ii: X hi|O|jiφj = ψj (4.66) j che si può scrivere in termini matriciali come Oφ = ψ La rappresentazione di un operatore è una matrice di dimensioni infinite. 2 In senso forte: esiste anche una definizione di convergenza debole, più generale. (4.67) 102 4.11 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Operatori lineari Nella meccanica quantistica sono impiegati solo gli operatori lineari che godono della proprietà O(a|φi + b|ψi) = aO|φi + bO|ψi (4.68) dove O è un operatore lineare, a e b due scalari generici. Tutti i concetti definiti in precedenza per le matrici possono essere generalizzati per gli operatori • operatore unità: 1̂ = P i |iihi| ∗ • operatore aggiunto di un operatore O: hψ|O† |φi = hφ|O|ψi • commutatore di due operatori: [O1 , O2 ] = O1 O2 − O2 O1 e cosı̀ via: per esempio, un’operatore O si dice hermitiano se O† = O. Esempio 24. Si dimostri, usando le proprietà degli operatori lineari, dei prodotti hermitiani e le definizioni precedenti, che (a1 O1 + a2 O2 )† = a∗1 O1† + a∗2 O2† (O1 O2 )† = O2† O1† Il problema agli autovalori per un operatore si pone analogamente a quello di una matrice di dimensioni finite: O|φi = λ|φi (4.69) anzi, coincide con un problema matriciale a dimensioni infinite una volta che si sia introdotto una base: Oφ = λφ (4.70) Valgono per gli operatori hermitiani le medesime proprietà introdotte per le matrici hermitiane: gli autovalori sono reali, autovettori (o autofunzioni) corrispondenti ad autovalori distinti sono ortogonali; l’operatore di trasformazione è unitario. Nella notazione di Dirac un autovettore con autovalore λ si indica con |λi, ovvero O|λi = λ|λi. 4.12 Postulati della quantomeccanica Formuliamo i principi generali della meccanica quantistica pena introdotta. 3 utilizzando la simbologia matematica ap- Principio I: lo stato fisico di un sistema isolato è descritto da un vettore |φi di un appropriato spazio hilbertiano. 3 Ricordiamo ancora una volat: non si tratta di postulati rigorosi che costituiscano assiomi matematici da cui dedurre una struttura matematica coerente; piuttosto sono principi fisici, esposti in modo semplificato per comprendere le applicazioni della meccanica quantistica nella sua formulazione non-relativistica. 4.12. POSTULATI DELLA QUANTOMECCANICA 103 Principio II: una grandezza fisica osservabile è rappresentato da un operatore lineare hermitiano F̂ . Principio III: i risultati possibili della misura di un’osservabile F sono gli autovalori fi di F: F|fi i = fi |fi i (4.71) se |φi = |fi i, il sistema è in un autostato di F e la misura dà con certezza fi . Principio IV: il valore d’attesa di un’osservabile F è definito come F̄ = hφ|F|φi hφ|φi (4.72) dove F̄ è il risultato medio di una serie di misure di F Principio V: l’operatore relativo ad un’osservabile si può esprimere in funzione di operatori spostamento x̂ e momento p̂ (in una dimensione), che obbediscono al principio [x̂, p̂] = ih̄ (4.73) dove h̄ = h/2π = 1.054 × 10−34 Js. Principio VI: lo stato al tempo t di un sistema è ottenibile come la soluzione dell’equazione di Schrödinger ih̄ ∂ ∂t |φ(t)i = H|φ(t)i (4.74) dove H è l’operatore hamiltoniano del sistema isolato. Gli autovalori dell’hamiltoniano sono le autoenergie del sistema: H|Ei = E|Ei (4.75) |Ei è un autostato del sistema con energia E. Cosa significa ‘spazio appropriato’ ? Dipende dalla natura fisica del sistema. Consideriamo il caso di una particella che si muova lungo una retta: la coordinata (nel senso della meccanica classica) è x, il momento associato è p. Gli operatori quantomeccanici corrispondenti sono x̂ e p̂. Definiamo la base continua |xi come gli autostati di x̂ con autovalori x: x̂|xi = x|xi (4.76) Nella base continua |xi, un vettore |φi è rappresentato come una funzione φ(x), l’operatore spostamento x̂ è rappresentato dalla moltiplicazione per la funzione x, cioè x̂|φi = xφ(x) l’operatore p̂ è rappresentato ∂ da h̄/ i . L’hamiltoniano è invece dato dall’espressione ∂x h̄2 ∂ 2 + U (x) (4.77) 2m ∂x2 dove il primo termine rappresenta l’energia cinetica (m è la massa), il secondo l’energia potenziale. H=− 104 4.13 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Il metodo variazionale Dato l’operatore hamiltoniano del sistema, uno dei problemi fondamentali in meccanica quantistica è il calcolo degli autovalori, ovvero delle autoenergie del sistema, e dei corrispondenti autostati. Per esempio, un chimico che conosca, con vari gradi di approssimazione, l’espressione per l’energia totale classica di una molecola, e dunque sia in grado di costruire l’hamiltoniano quantomeccanico (applicando il principio di corrispondenza e sostituendo alle funzioni classiche posizione e momento le corrispondenti rappresentazioni nella base continua) vuole conoscere prima di ogni altra cosa l’energia dello stato fondamentale della molecola cioè il più basso autovalore dell’hamiltoniano. Ha cosı̀ informazioni sull’energia ‘di riposo’ della molecola, nel suo stato fondamentale, e può confrontare questo dato con misure di tipo calorimetrico e termodinamico. Il calcolo degli autovalori di un sistema richiede 1) la conoscenza dell’hamiltoniano del sistema; 2) una rappresentazione matriciale dell’hamiltoniano. In generale comunque si tratta di un problema non-triviale. I sistemi (gli hamiltoniani) di cui sia possibile calcolare in modo esatto (analitico) lo spettro di autoenergie sono pochi, e saranno discussi nel Capitolo seguente. Tecniche di risoluzione approssimata per lo studio di hamiltoniani elettronici atomici e molecolari sono disponibili e molto diffuse. Nei Capitoli successivi sarà presentata una loro discussione sistematica. In questo Capitolo considereremo i principi di base dei metodi di risoluzione approssimata: il metodo variazionale e la teoria delle perturbazioni. Consideriamo in questa Sezione il calcolo approssimato dell’autostato fondamentale di un sistema. In generale si potrà esprimere lo stato (il vettore) come una combinazione (non necessariamente lineare) di vettori di base noti; i coefficienti dell’espansione possono essere determinati sulla base del principio variazionale, che sostanzialmente sfrutta le proprietà di hermiticità dell’operatore hamiltoniano. È dato un sistema descritto dall’hamiltoniano H, con autofunzioni ψ, Hψ = Eψ. Ci poniamo il seguente problema: sotto quali condizioni il funzionale di una generica funzione d’onda ξ J[ξ] = hξ|H|ξi (4.78) è stazionario, cioè massimo o minimo? Assumiamo inoltre che ξ debba essere normalizzata hξ|ξi = 1 (4.79) Dal punto di vista del calcolo variazionale il problema può essere posto sotto forma della ricerca di un punto stazionario vincolato, ed è dunque equivalente ad individuare le condizioni di stazionarietà del funzionale non vincolato J 0 [ξ] = hξ|H|ξi − λ(hξ|ξi − 1) (4.80) Al primo ordine, la variazione di J 0 è data da δJ 0 = hδ²|H|²i + h²|H|δ²i − δλ(hξ|ξi − 1) − λhδξ|ξi − λhξ|δξi (4.81) che si può riscrivere come δJ 0 = (hδξ|H|ξi − λhδξ|ξi) + (hδξ|H|ξi − λhδξ|ξi)∗ − δλ(hξ|ξi − 1) (4.82) La soluzione si ottiene i) se hξ|ξi = 1, dato che solo cosı̀ il termine in δλ si annulla e poi ii) se hδξ|H|ξi = λhδξ|H|ξi (4.83) 4.13. IL METODO VARIAZIONALE 105 o in altri termini, dato che δξ è arbitraria, se Hξ = λξ (4.84) cioè se ξ è un’autofunzione normalizzata di H con autovalore λ. In pratica, definiamo il rapporto di Rayleigh per un generica funzione d’onda ξ hHi = ²[ξ] = hξ|H|ξi hξ|ξi (4.85) ²[|ξi è un funzionale della funzione generica ξ. Se J 0 [ξ] è reso stazionario da ξ anche ² è stazionario. Il principio variazionale può essere applicato utilmente al calcolo degli autovalori di un sistema. Il teorema di Eckart afferma che se E0 è il più basso autovalore del sistema, il rapporto di Rayleigh è sempre maggiore o uguale a E0 . ²[ξ] ≥ E0 (4.86) La dimostrazione è la seguente: espandiamo |ξi (usiamo la notazione di Dirac per convenienza) sulla base degli autostati esatti dell’hamiltoniano H H|ψn i = En |ψn i E0 ≤ E1 ≤ . . . (4.87) hψn |ψn0 i = δnn0 |ξi = X (4.88) cn |ψn i (4.89) n consideriamo la quantità hξ|H − E0 |ξi: hψn |H − E0 |ψn0 i = X c∗n cn0 (En − E0 )hψn |ψn0 i = X |cn |2 (En − E0 ) ≥ 0 (4.90) n nn0 infatti |cn |2 ≥ 0, En ≥ E0 ; segue che: hξ|H|ξi − E0 hξ|ξi ≥ 0 ⇒ ²[ξ] ≥ E0 QED (4.91) Data dunque una funzione generica normalizzabile, il rapporto di rayleigh costituisce sempre un limite superiore dell’auovalore più basso dell’hamiltoniano del sistema. Nella sua versione piú comune, il teorema variazionale è implementato sotto forma di metodo variazionale lineare. Il vettore d’onda di prova |ξi è cioè dato come una combinazione lineare di N vettori noti, che indichiamo semplicemente come |1i, |2i etc. |ξi = N X cn |ni (4.92) n=1 Il rapporto di Rayleigh può essere scritto come ²= c† Hc cSc (4.93) dove c è il vettore dei coefficienti cn , mentre H e S sono le matrici rappresentative di H e dell’unità sui vettori |ni, cioè le matrici N × N aventi elementi Hnn0 = hn|H|n0 i Snn0 = hn|n0 i (4.94) 106 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA La variazione infinitesimale della funzione di prova diviene ora una variazione infinitesimale dei coefficienti cn ; dal principio variazionale segue perciò δ² = δc† Hc − ²δc† Sc + complesso coniugato = 0 c† Sc (4.95) che è verificata solo se δc† (Hc − ²Sc) = 0 ovvero Hc = ²Sc (4.96) cioè la forma generalizzata di un problema agli autovalori, che si può risolvere calcolando le radici dell’equazione secolare det(H − ²S) = 0 (4.97) Il problema agli autovalori diviene più semplice se si assumono delle funzioni di base ortonormali S = 1: Hc = Ec (4.98) che è ora un problema agli autovalori in forma standard, con matrici e vettori di dimensioni finite, poiché la rappresentazione (4.92) è di solito arrestata ad un numero finito di termini. Esempio 25. È dato l’hamiltoniano H=− h̄2 ∂ 2 + V (x) 2m ∂x2 per un sistema monodimensionale. il potenziale V (x) è V0 V (x) = 0 ∞ 0 < x < L/2 L/2 < x < L altrove Consideriamo le due funzioni di base r |1i = r |2i = µ 2 πx sin L L µ ¶ 2 2πx sin L L ¶ Calcolare un valore approssimante all’energia dello stato fondamentale mediante il metodo variazionale. Si deve procedere 1) calcolando gli elementi di matrice hi|H|ji con i, j pari a 1,2 (il prodotto hermitiano è l’integrale su x); diagonalizzando la matrice H 2 × 2 e scegliendo l’autovalore più piccolo. 4.14 Perturbazioni indipendenti dal tempo per sistemi non-degeneri Di solito è possibile conoscere in modo esatto, o quantomeno accurato, la soluzione esatta di un problema agli autovalori relativo ad un sistema fisico semplificato rispetto al sistema di cui si vogliono effettivamente calcolare le proprietà. Se il sistema semplificato differisce dal sistema reale solo per un termine piccolo dell’hamiltoniano (perturbazione) è possibile cercare sistematicamente la correzione alle autoenergie ed autostati del sistema semplificato mediante la teoria delle perturbazioni indipendenti dal tempo. 4.14. PERTURBAZIONI INDIPENDENTI DAL TEMPO PER SISTEMI NON-DEGENERI 107 Supponiamo perciò che l’hamiltoniano del sistema reale sia H = H0 + ²V (4.99) dove H0 è l’hamiltoniano del sistema semplificato (imperturbato) e V è la perturbazione; ² è un parametro che definisce l’ordine di grandezza della perturbazione. Sia nota la soluzione al problema imperturbato (PI) H0 |ni = En(0) |ni (4.100) Gli autovettori |ni costituiscono una base ortonormale e completa dello spazio hilbertiano. Cerchiamo la soluzione al problema perturbato (PP) H|Φi = E|Φi (4.101) Nel seguito, per semplicità considereremo inizialmente solo sistemi con spettri di autovalori discreti e non degeneri. Possiamo rappresentare le autofunzioni del PP nella base costituita dalle autofunzioni del PI: |Φi = X cn |ni (4.102) n Sostituendo la precedente eguaglianza nell’espressione del PP si ottiene X h i cn En(0) + ²V |ni = E n X cn |ni (4.103) n ed integrando per un generico hm| h i (0) E − Em cm = ² X Vmn cn (4.104) n dove Vmn = hm|V|ni. Si vuole calcolare la correzione all’ m-esimo autostato, cioè si vuole che per ² → 0 (perturbazione nulla) il sistema perturbato tenda all’autostato m-esimo del sistema perturbato. Espandiamo ora i coefficienti cn e l’energia E in serie di ²: (0) E = Em + ²E (1) + ²2 E (2) + . . . (4.105) 2 (2) cn = δmn + ²c(1) n + ² cn + . . . (4.106) (0) come si vede, per ² → 0 l’energia diventa Em , mentre i coefficienti cn diventano δmn , e quindi 1 se m = n, e zero in caso contrario. Per calcolare le correzioni alle energie e ai coefficienti si procede sostituendo le espansioni in serie nelle equazioni (4.104), raccogliendo i termini nella stessa potenza di ² a primo e secondo membro, ed eguagliando. Cosı̀ per esempio la correzione al primo ordine per le energie si ottiene conservando solo i termini di primo ordine nell’equazione (4.104) con n = m: E (1) = Vmm (4.107) mentre le correzioni al primo ordine per i coefficienti si ottengono con n 6= m: Vmn c(1) n 6= m n = (0) (0) Em − En (1) (4.108) il coefficiente cm resta indeterminato. Si può specificare imponendo che l’autostato del PP al primo (1) ordine sia normalizzato, a meno di termini al primo ordine: si può verificare che ciò avviene per cm = 0. Le approssimazioni successive si calcolano in modo analogo. 108 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA 4.15 Sistemi in ordine zero con autostati degeneri Supponiamo che l’hamiltoniano del problema imperturbato ammetta un set di autofunzioni degeneri k (0) volte |m1 i, |m2 i, . . ., |mk i con autoenergia Em . Possiamo definire un set di combinazioni lineari delle k autofunzioni, che sono ancora autofunzioni dell’operatore H0 |φi = k X |mj iaj (4.109) j=1 Gli autovalori del sistema perturbato sono ancora scritte nella forma E= (0) Em + ∞ X ²l E (l) (4.110) l=1 mentre per la generica autofunzione perturbata possiamo scrivere |Φi = |φi + X cn |ni (4.111) n6=m Per i coefficienti aji e cn vale lo sviluppo perturbativo aj = ∞ X (l) aj cn = l=0 ∞ X c(l) n (4.112) l=0 (l) (l) Si tratta ora di trovare i termini correttivi E (l) , e i coefficienti aj e cn ; possiamo limitarci a calcolare le correzioni degli autovalori al primo ordine, cioè calcolare solo E (1) e i coefficienti aj , cn in ordine zero. Sostituendo le varie espressioni precedenti nel PP e considerando i termini in ²1 : ³ (0) H 0 − Em k ´X (0) (1) aj |mj i = (Em − V) j=1 k X (0) aj |mj i (4.113) j=1 che può essere moltiplicata per il generico elemento hmi |. Il termine relativo al sistema imperturbato si annulla, e resta l’espressione k X (0) (1) hmi |V|mj i = Em ai (4.114) j=1 dove naturalmente le autofunzioni imperturbate sono ritenute ortonormali; in forma matriciale la precedente espressione è semplicemente Va = Ea, chiamando per semplicità V, a ed E la matrice rappre(0) sentativa di V, il vettore dei coefficienti aj e la correzione al primo ordine all’autovalore degenere del (0) PI. Si noti che se il sistema non è degenere, al posto di aj nella relazione abbiamo 1, e la somma è semplicemente hm|V|mi, e dunque si ritrova l’espressione della correzione al primo ordine per stati non-degeneri. Esempio 26. Consideriamo ancora l’hamiltoniano dell’esempio precedente, che descrive una particella di massa m in un scatola di lato L. L’hamiltoniano del problema imperturbato è naturalmente h̄2 ∂ 2 2m ∂x2 che, come vedremo nel capitolo successivo, ammette il set completo di autofunzioni H=− r |ki = µ 2 kπx sin L L ¶ 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 109 (0) con autovalori non-degeneri Ek = k 2 h̄2 /2m e k > 1. Qual è la correzione al primo ordine dell’autovalore (0) più basso del sistema, che definisce l’energia di punto zero del sistema imperturbato, E1 = h̄2 /2m ? Sostituendo troviamo (1) E1 = h1|V|1i = 4.16 2V0 L Z L/2 0 µ dx sin2 πx L ¶ = V0 (π − 1) 2π Sistemi risolvibili analiticamente Concludiamo questo capitolo con una raccolta di problemi risolti relativi a sistemi quantomeccanici risolvibili analiticamente. Tra i vari casi trattati sono compresi gli esempi che si trovano in tutti i libri di testo: particella nella scatola monodimensionale e bidimensionale, rotatore monodimensionale, oscillatore armonico, particella su una sfera, atomo idrogenoide. In più sono presentate “variazioni sul tema”, come particelle in scatole monodimensionali di forme svariate, scatole tridimensionali, scatole cilindriche e set di oscillatori interagenti. Esempi/esercizi non risolti (con suggerimenti e schemi di soluzione in alcuni casi) sono distribuiti nel corso del testo.Consideriamo lo schema in Fig. (4.6), che rappresenta il potenziale confinante per una particella (in una dimensione) imprigionata in una scatola dalle pareti infinite. Qual è l’andamento nel tempo della funzione d’onda della particella, data una determinata configurazione iniziale? Vedremo che per rispondere a questo quesito sarà necessario definire le autofunzioni e gli autovalori dell’operatore hamiltoniano. Anzi, poichè il problema è di natura generale, consideriamo per cominciare un sistema generico definito nello spazio delle funzioni f (x) dove x è l’insieme delle coordinate del sistema. Al tempo t il sistema è definito dalla funzione d’onda |ψ(x, t)i la cui evoluzione temporale è dettata dall’equazione di Schrödinger ih̄ ∂ ∂t |ψ(x, t)i = H|ψ(x, t)i (4.115) al tempo t = 0 la funzione è definita da una configurazione generica (che ci dice come il sistema è stato preparato inizialmente): |ψ(x, 0)i = |ψ0 (x)i (4.116) Sappiamo che l’hamiltoniano ammette autostati |Ei con autoenergie E: H|Ei = E|Ei (4.117) che sono ortonormali hE|E 0 i = δE,E 0 e costituiscono una base completa dello spazio. Quindi possiamo espandere |ψ(x, t)i |ψ(x, t)i = X cE (t)|Ei (4.118) E i coefficienti CE (t) sono ottenute come proiezioni della funzione d’onda sulle autofunzioni cE (t) = hψ(x, t)|Ei (4.119) e al tempo t = 0 vale che cE (0) = hψ0 (x)|Ei (4.120) 110 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Sostituendo nell’Eq. (4.115) si ottiene, moltiplicando per un generico hE| ed integrando ih̄ċE (t) = EcE (t) (4.121) Infine, con le condizioni iniziali (4.120) si trova cE (t) = hψ0 (x)|Ei exp(Et/ih̄) (4.122) e la funzione d’onda si può scrivere al tempo t come: |ψ(x, t)i = X |Eihψ0 (x)|Ei exp(Et/ih̄) (4.123) E Dunque la funzione d’onda è una sovrapposizione degli autostati del sistema con ‘pesi’ che dipendono dal tempo in modo esponenziale, dove le ‘costanti di decadimento’ di ciascun esponenziale sono proporzionali agli autovalori, e dalle condizioni iniziali. L x Figura 4.6: Potenziale per una particella in una scatola 1D. In linea di principio possiamo distinguere lo spettro di autoenergie di un sistema in due parti: lo spettro discreto, ovvero l’insieme delle autoenergie separate da intervalli non accessibili, e lo spettro continuo. Consideriamo un sistema monodimensionale con un potenziale U (x) che tenda a U0 per x → +∞ e a U1 > U0 per x → −∞, vedi Fig. (4.7). Lo spettro discreto si ha per autostati con energie E < U0 : la particella è chiusa nella scatola. Se E > U0 lo spettro diviene continuo, e la partcella è libera. Il numero di autostati discreti può esser finito (se U0 e U1 sono quantità finite) od infinito. Nel seguito consideremo solo stati con autovalori discreti, cioè sistemi in stati confinati. Torniamo ora al caso della particella in una scatola monodimensionale con pareti infinite. Assumiamo che l’energia potenziale sia nulla all’interno della scatola ed infinita all’esterno. La funzione d’onda è dunque definita solo per 0 ≤ x ≤ L, vedi Fig. (4.6). L’equazione di Schrödinger indipendente dal tempo 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 111 U(x) U 1 U 0 x Figura 4.7: Un potenziale generico in una dimensione. assume la forma 4 : h̄2 d2 − ψE (x) = EψE (x) 2m dx2 (4.124) dove m è la massa della particella. Valgono le condizioni al contorno ψE (0) = 0, ψE (L) = 0 (4.125) L’Eq. (4.124) è un’equazione differenziale ordinaria a coefficienti costanti del secondo ordine. La sua soluzione generica ha la forma ψE (x, t) = A1 exp(α1 x) + A2 exp(α2 x) (4.126) dove α1,2 sono le radici dell’equazione − h̄2 2 α =E 2m (4.127) q vale a dire α1,2 = ±i 2mE . h̄2 Sostituendo nelle condizioni al contorno si ottiene A1 + A2 = 0 4 Ci poniamo nella rappresentazione continua, in modo da lavorare direttamente con funzioni della variabile x (4.128) 112 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA s A1 exp iL s 2mE + A2 exp −iL h̄2 2mE =0 h̄2 (4.129) che è un sistema lineare omogeneo in A1 e A2 , risolvibile solo se il determinante dei coefficienti è nullo. Si trova cosı̀ la condizione in E: s 2mE =1 h̄2 exp 2iL (4.130) le cui soluzioni sono E= h̄2 π 2 k 2 , 2mL2 k∈N (4.131) Gli autostati di una particella chiusa in un pozzo infinitamente profondo sono quantizzati come i quadrati dei numeri interi; sono anche inversamente proporzionali alla massa della particella e alla larghezza del pozzo. Vale a dire: per una massa molto grande, od un pozzo molto largo, gli autovalori sono molto vicini tra loro (lo spettro diviene quasi continuo), e il comportamento della particella si avvicina al comportamento previsto dalla meccanica classica. Le autofunzioni si trovano subito tenendo conto A1 = −A2 ; imponendo la condizione che siano normalizzate in [0, L] si trova: r ψk (x) = µ ¶ 2 kπ sin x L L (4.132) Supponiamo ora che la particella sia inizialmente al centro del pozzo: ψ(x, 0) = δ(x − L/2) (4.133) Da cui segue che al tempo t la funzione d’onda è " # µ ¶ µ 2 X k 2 h̄π 2 kπ kπ ψ(x, t) = exp x sin t sin L k≥1 2mL2 L 2 ¶ (4.134) ma il seno di kπ/2 vale è zero per k pari; per k = 2n + 1 dispari, con n ≥ 0, vale (−1)n ; perciò " # µ ¶ 2 X (2n + 1)2 h̄π 2 kπ ψ(x, t) = (−1)n exp x t sin L n≥0 2mL2 L (4.135) Naturalmente per una scatola con pareti infinite tutte le autoenergie sono discrete (non esistono stati “liberi” della particella). Esempio 27. Calcolare e rappresentare in un grafico ai tempi t: 1 ps, 10 ps, 1 ns e 1 µs la densità di probabilità |ψ 2 (x, t)| per un neutrone in un pozzo largo 1 Å, che sia posto al centro del pozzo a t = 0. 4.16.1 Fuga dal pozzo E se una le pareti del pozzo avessero un’altezza finita? Il potenziale è rappresentato in Fig. (4.8): V V (x) = 0 V x≤0 0<x<L L≤x (4.136) 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 113 Consideriamo solo lo spettro discreto, vale a dire gli stati confinati della particella, E < V . La soluzione generica per l’autofunzione ψE (x) con autoenergia E è definita nei singoli intervalli come B1 exp(bx) x≤0 ψ(x) = A1 exp(iax) + A2 exp(−iax) 0 ≤ x < L B2 exp(−bx) L≤x q (4.137) q dove a = 2mE/h̄2 e b = 2m(V − E)/h̄2 ; si noti che che per x < 0 si pone a zero il coefficiente dell’esponenziale exp(−bx) che altrimenti divergerebbe per x → −∞ (ed analogamente per x ≥ L). Valgono poi quattro condizioni relative alla continuità e derivabilità dell’autofunzione in x = 0 e x = L: A1 + A2 = B1 (4.138) iaA1 − iaA2 = bB1 (4.139) A1 exp(iaL) + A2 exp(−iaL) = B2 exp(−bL) (4.140) iaA1 exp(iaL) − iaA2 exp(−iaL) = −bB2 exp(−bL) (4.141) Risolvendo il determinante 4 × 4 (scrivetelo), si ottiene una condizione in E. Saltando vari passaggi algebrici il risultato è: nπ − kL h̄a = arcsin √ 2 2mV (4.142) con n ∈ N , che si risolve in a. Si verifica subito che il numero degli autostati discreti è finito. 4.16.2 Una scatola con una barriera interna L’esempio successivo è relativo al caso di un pozzo con un barriera interna finita, Fig. (4.8). Lo schema di soluzione è analogo ai casi precedenti: i) definizione delle forme generali delle autofunzioni; ii) imposizione di condizioni al contorno; iii) determinazione degli autostati dalla soluzione di un sistema lineare omogeneo. L’algebra è un più complicata, ma per geometrie elementari si semplifica considerevolmente. Il potenziale che descrive il nostro pozzo è dato in [0, L3 ]: V1 V (x) = 0 ≤ x < L1 L1 ≤ x < L2 L2 < x ≤ L3 V2 V3 (4.143) La soluzione generica per l’autofunzione ψE (x) con autoenergia E è definita nei singoli intervalli come (1) (1) (1) (1) A1 exp(α1 x) + A2 exp(α2 x) ψ(x) = (i) (2) (2) A1 exp(α1 x) (3) (3) A1 exp(α1 x) q + + (2) (2) A2 exp(α2 x) (3) (3) A2 exp(α2 x) 0 ≤ x < L1 L1 ≤ x < L2 L2 < x ≤ L3 (4.144) i) . Le condizioni al contorno sono analoghe al primo caso: ai confini del pozzo dove α1,2 = ±i 2m(E−V h̄2 l’autofunzione deve annullarsi, poichè la particella non può penetrare una barriera infinita. I coefficienti ignoti dell’autofunzione sono sei, e disponiamo di due condizioni al contorno piú altre quattro condizioni: 114 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA V2 V x L 1 L 2 V3 L3 L x (b) (a) Figura 4.8: Potenziali per una particella in una scatola 1D con una barriera interna. per ciascun dei punti interni, in L1 ed L2 la funzione deve essere continua e derivabile. In definitiva, valgono le sei relazioni lineari: (1) (1) A1 + A2 (1) (1) (1) (1) A1 exp(α1 L1 ) + A2 exp(α2 L1 ) (1) (1) (1) (1) (1) (1) α1 A1 exp(α1 L1 ) + α2 A2 exp(α2 L1 ) (2) (2) (2) (2) A1 exp(α1 L2 ) + A2 exp(α2 L2 ) (2) (2) (2) (2) (2) (2) α1 A1 exp(α1 L2 ) + α2 A2 exp(α2 L2 ) (3) (3) (3) (3) A1 exp(α1 L3 ) + A2 exp(α2 L3 ) = 0 (2) (2) (2) (2) = A1 exp(α1 L1 ) + A2 exp(α2 L1 ) (2) (2) (2) (2) (2) (2) = α1 A1 exp(α1 L1 ) + α2 A2 exp(α2 L1 ) (4.145) (3) (3) (3) (3) = A1 exp(α1 L2 ) + A2 exp(α2 L2 ) (3) (3) (3) (3) (3) (3) = α1 A1 exp(α1 L2 ) + α2 A2 exp(α2 L2 ) = 0 da cui si ricava il determinante 6 × 6 che permette di determinare E. Esempio 2. Scrivete il determinante relativo al sistema precedente. Consideriamo il caso della buca simmetrica, Fig. (4.8). Il sistema precedente assume la forma, un poco più maneggevole: (1) (1) = 0 exp(−iaL) = A1 exp[(ia − v)L] + A2 exp[−(ia − v)L] iaA1 exp(iaL) − iaA2 exp(−iaL) = (ia − v)A1 exp[(ia − v)L] − (ia − v)A2 exp[−(ia − v)L] = A1 exp(2iaL) + A2 exp(−2iaL) = (3) iaA1 = 0 A1 + A2 (1) A1 exp(iaL) + (1) (1) A2 (1) (2) (2) A1 exp[2(ia − v)L] + A2 exp[−2(ia − v)L] (ia − (2) v)A1 exp[2(ia − v)L] − (ia − (3) A1 (2) v)A2 exp[−2(ia − v)L] exp(3iaL) + (3) A2 exp(−3iaL) (2) (2) (2) (3) (2) (3) exp(2iaL) − (3) iaA2 exp(−2iaL) (4.146) 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE q dove a = 2mE/h̄2 e v = 115 q 2mV /h̄2 Esempio 3. Scrivete il determinante. Dal calcolo del determinante si ottiene un’equazione trascendente (non polinomiale) in a (cioè in E), che si può risolvere per via numerica. A questo punto lo schema di soluzione per un potenziale generico monodimensionale che sia rapresentabile da una serie di segmenti orizzontali e verticali, con pareti infinite, vale a dire un pozzo monodimensionale infinitamente profonda con un “fondo” qualunque, dovrebbe risultare chiaro: 1) si imposta la soluzione generica in ciascun intervallo; 2) si impongono condizioni di continuità e derivabilità in ogni punto interno; 3) si annulla la soluzione alle due pareti. Il risultato è un sistema omogeneo di equazioni per i coefficienti dell’autofunzione in ciascun intervallo, V V1 l L V2 (a) (b) V3 L V2 V n-1 V1 Vn V1 V2 V4 V3 L V3 (c) (d) Figura 4.9: Varie scatole 1D. il cui determinante si deve annullare e fornisce un’equazione per calcolare le energie. Esempio 28. 1. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (a) di Fig. (4.9). Cosa succede se V → 0, o l → 0? 2. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (b) di Fig. (4.9). Cosa succede se il numero di gradini diviene infinito, mentre la loro larghezza tende a zero (ovvero N → ∞ con N L → cost.)? 3. Impostare e risolvere numericamente il problema agli autostati relativo al pozzo (c) di Fig. (4.9). 116 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Cosa succede se il numero di gradini diviene infinito, mentre la loro larghezza tende a zero (ovvero N → ∞ con N L → cost.)? 4. Impostare e risolvere numericamente il problema agli autostati relativo ad un pozzo generico, come in (d) di Fig. (4.9). 4.16.3 Scatola tridimensionale Una particella di massa m in tre dimensioni è descritto dall’hamiltoniano generico H=− h̄2 ˆ 2 ∇ + U (x) 2m (4.147) ˆ è l’operatore laplaciano, che in coordinate cartesiane ha la forma dove ∇ 2 2 2 ˆ2 = ∂ + ∂ + ∂ ∇ ∂x1 2 ∂x2 2 ∂x3 2 (4.148) Nel caso di una particella racchiusa in una scatola in tre dimensioni, con pareti di lato a1 , a2 e a3 , il potenziale è nullo all’interno della scatola, ed infinito all’esterno. Il problema è ridotto allo studio di tre e 3 a 3 e 1 a2 a e 1 2 Figura 4.10: Scatola tridimensionale. problemi separati lungo i tre assi; cioè l’autofunzione del sistema si può scrivere come: (1) (2) (3) ψE (x) = ψE (x1 )ψE (x2 )ψE (x3 ) (4.149) (1) dove ψE (x1 ) è definita per 0 < x < a1 e cosı̀ via. Le autoenergie sono date dall’espressione: h̄2 π 2 E= 2m à k12 k22 k32 + 2+ 2 a21 a2 a3 ! (4.150) 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 117 dove k1 , k2 e k3 sono interi. I corrispondenti autostati sono dati dall’equazione inserendo le forme (1) esplicite di ψE (x1 ) etc. nella (4.149): s ψE (x) = µ ¶ µ ¶ µ 8 πk1 πk2 πk3 sin sin sin a1 a2 a3 a1 a2 a3 ¶ (4.151) È importante notare che nel caso tridimensionale le autoenergie possono essere degeneri: per una scatola cubica (a1 = a2 = a3 ) una coppia di autostati identificate da terne k1 , k2 e k3 che differiscano solo per una permutazione hanno lo stesso energia. Esempio 29. Consideriamo il caso di una scatola bidimensionale quadrata: i) scrivere le espressioni generali per le autoenergie e gli autostati; ii) porre in grafico le autofunzioni corrispondenti ai primi cinque autovalori distinti. 4.16.4 Particella in e su un anello Considereremo in questa Sezione e nelle Sezioni successive problemi agli autovalori relativi a sistemi che si possono risolvere analiticamente introducendo coordinate curvilinee, non cartesiane, che sono dettate naturalmente dalla geometria del potenziale. Come primo caso prendiamo in analisi una particella che sia racchiusa in una zona dello spazio bidimensionale in una circonferenza: V = 0 se |x| < a, V = ∞ se |x| > a, vedi Fig. (4.11) (a); a è il raggio della circonferenza; oppure che sia costretta a muoversi sulla circonferenza stessa (rotatore planare). L’hamiltoniano per il sistema nel piano è: e 2 P r θ e 1 R e1 P(x 1 , x 2 ) (a) (b) e2 Figura 4.11: Un pozzo cilindrico ed un anello. ∂2 h̄2 ∂ 2 H=− + 2m ∂x1 2 ∂x2 2 (4.152) Introduciamo le coordinate polari: r, φ, dove r è il modulo del vettore x = (x1 , x2 ) e φ è l’angolo formato con l’asse delle ascisse. È facile dimostrare che l’hamiltoniano, proporzionale all’operatore laplaciano in 118 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA due dimensioni, assume la forma: h̄2 ∂ 2 1 ∂ 1 ∂2 H=− + + 2m ∂r2 r ∂r r2 ∂φ2 (4.153) Consideriamo prima il caso del rotatore planare. La particella si muove su una circonferenza a r = a, di consequenza le derivate in r si annullano. L’hamiltoniano si riduce al solo termine dipendente da φ. L’equazione di Schrödinger assume la forma: − h̄2 d2 ΨE (θ) = EΨE (φ) 2I dφ2 (4.154) dove I = ma2 è il momento di inerzia. Risolvendo, si trova come nel caso della particella nella scatola monodimensionale: ΨE (θ) = A1 exp(iml φ) + A2 exp(−iml φ) (4.155) q dove ml = 2IE/h̄2 . Le condizioni al contorno sono da ricercarsi nelle proprietà fondamentali delle funzioni d’onda di un sistema quantomeccanico, che devono sempre dar luogo ad una densità di probabilità univoca: cioè dato x, un punto dello spazio delle coordinate del sistema, la funzione |φ(x)| deve essere univocamente determinata. Nel caso in questione questo implica che la funzione calcolata in φ o in φ + 2π (quindi nello stesso punto), deve essere uguale: ΨE (φ + 2π) = ΨE (φ) (4.156) quindi ml deve essere un numero intero. Gli autovalori sono dunque: E= m2l h̄2 , 2I ml ∈ N (4.157) Lo stato di una particella con autoenergia E è dunque descritto da una somma di due esponenziali complessi, che rappresentano in realtà due moti sovrapposti, in un senso (ml ) e nel senso opposto (−ml ). Supponiamo di aver preparato la particella con un unico senso di rotazione, A2 = 0; la costante di normalizzazione dell’autofunzione rimanente si ottiene integrando |ΨE (φ)|. Si ottiene infine: r Ψml (φ) = 1 exp(iml φ) 2π (4.158) Ed ora consideriamo il caso di una particella racchiusa in un anello, che cioè sia costretta a muoversi all’interno della circonferenza. L’hamiltoniano è dato dalla (4.153). L’autofunzione generica si può scrivere in una forma fattorizzata, poichè le coordinate r e φ sono separabili: ΨE (r, φ) = R(r)Ψ(φ) (4.159) Sostituendo nell’equazione di Schrödinger, HΨE = EΨE , dividendo per ΨE e moltiplicando per r2 , si ottiene: h̄2 2 d2 R h̄2 d2 Ψ dR 2 − r − Er = + r 2mR dr 2mΨ dφ2 dr2 (4.160) 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 119 che è un’equazione separabile; il primo e il secondo membro devono sempre essere uguali, indipendentemente dal valore di r e φ; scriviamo perciò d2 Ψ = −m2l Ψ 2 dφ (4.161) dove m2l è una costante; poichè la funzione deve essere univocamente definita e dunque Ψ periodica, ml è un numero intero. Resta però da risolvere un’equazione in R: 2d 2 R dR r +r + 2 dr dr µ ¶ 2mE 2 r − ml 2 R = 0 h̄2 (4.162) le condizioni al contorno sono: i) la funzione d’onda deve essere continua ovunque, anche all’origine r = 0; e ii) deve annullarsi sul bordo r = a. Le funzioni che verificano l’equazione radiale con queste condizioni sono dette funzioni di Bessel di ordine intero: s Rml (r) = Jml con il vincolo: s Jml 2mE r h̄2 (4.163) 2mEml ,n a =0 h̄2 (4.164) risolvendo l’equazione precedente si trova un set di valori di Eml ,n per ogni valore di ml , con n = 1, 2, . . .. In definitiva la soluzione generica è: s Ψml ,n (r, φ) = exp(iml φ)Jml 2mEml ,n r h̄2 (4.165) con la condizione (4.164) sulle autoenergie. Esempio 30. Fate una ricerca bibliografica sulle proprietà delle funzioni di Bessel e valutate con l’ausilio di tabelle i valori di E0,l con l =≤ 3, se la massa della particella è quella di un protone e il raggio della circonferenza è pari a 2 Å. 4.16.5 Particella in e su una sfera Da due a tre dimensioni il passo è breve, almeno in questo caso. Generalizziamo le precedenti considerazioni al caso di una sfera: studiamo dunque il problema del moto di una particella di massa m su una sfera di raggio a e poi dentro la medesima sfera. L’hamiltoniano del sistema è in coordinate cartesiane, in analogia con il caso dell’anello: h̄2 ˆ 2 ∇ (4.166) 2m dove si è fatto uso dell’operatore laplaciano. Introduciamo ora le coordinate polari sferiche r, φ, θ, vedi Fig. (4.12): H=− x1 x2 x3 = r sin θ cos φ = r sin θ sin φ = r cos θ (4.167) 120 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA e3 θ φ r e 2 e 1 Figura 4.12: Coordinate polari sferiche. Il laplaciano assume una forma particolarmente semplice nelle coordinate sferiche: ˆ 2 = 1 ∂ r2 ∂ + 1 M2 ∇ r2 ∂r ∂r r2 M2 = ∂ 1 ∂ 1 ∂2 + sin θ 2 2 sin θ ∂θ sin θ ∂φ ∂θ (4.168) (4.169) dove M2 è anche detto operatore legendriano. Procediamo ora come abbiamo fatto per il caso del rotatore planare. Se la particella è costretta a muoversi sulla superficie della sfera, trascuriamo le derivate in r, e poniamo r = R. Dall’equazione di di Schrödinger si ottiene un’equazione in ΨE (φ, θ): − h̄2 2 M ΨE = EΨE 2I (4.170) dove I = ma2 . La funzione ΨE dovrà essere periodica in φ e in θ. Inoltre deve essere finita a θ = π. La soluzione generale si può scrivere in termini di funzioni speciali, note come funzioni armoniche sferiche, che altro non sono, da un certo punto di vista, che l’equivalente tridimensionale degli esponenziali complessi che sono stati usati nel caso bidimensionale. Varie loro proprietà sono note (e si rimanda lo studente ad opportuni testi specializzati). Tra le altre proprietà, fondamentale è il fatto che sono autofunzioni del legendriano: M2 Ylml (θ, φ) = −l(l + 1)Ylml (θ, φ) (4.171) 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 121 dove l = 0, 1, . . . e ml = −l, −l + 1, . . . , l − 1, l. Segue dunque che le autoenergie di una particella che si muova su una sfera sono caratterizzate da: h̄2 l(l + 1) (4.172) 2I Si noti che per ogni autostato, caratterizzato dai numeri quantici l e ml , esistono 2(l + 1) autovalori degeneri, dato che Elml non dipende da ml . Procediamo ora con il caso della particella confinata nella sfera. Ora dobbiamo considerare il laplaciano nella sua forma completa. Analogamente al caso precedente, si può assumere che la parte angolare debba essere quella determinata dal moto sulla sfera: Elml = ΨE (r, θ, φ) = R(r)Ylml (θ, φ) (4.173) Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale: 1 d 2 dR l(l + 1) 2m r − R + 2 ER = 0 (4.174) 2 2 r dr dr r h̄ con le condizioni al contorno che R = 0 per r = a ed R finita a r = 0. In generale avremo dunque delle funzioni Rnl (r) che si ottengono risolvendo la precedente equazione differenziale ordinaria. Consideriamo nel seguito il solo caso l = 0, cioè le soluzioni del problema che siano indipendenti dagli angoli polari (Y0,0 è una costante). L’equazione in R si può porre nella forma ridotta 1 d2 rR − κ2 R = 0 r dr2 (4.175) q 2mE/h̄2 . La soluzione finita a r = 0 è dove κ = sin(κr) r e la condizione al contorno impone che ka = 0, vale a dire ancora una volta R(r) = A (4.176) h̄2 n2 π 2 (4.177) 2I Esempio 31. Normalizzate l’autofunzione radiale. Ricordate che nel passaggio da coordinate cartesiane a coordinate sferiche si ha che: E= Z Z dx1 4.16.6 Z dx2 Z dx2 f (x1 , x2 , x3 ) = Z drr 2 Z dθ sin θ dφf (r, θ, φ) Oscillatore armonico L’oscillatore lineare o armonico è un altro esempio di sistema risolvibile analiticamente, ovvero tale che le sue autofunzioni sono esprimibili in termini di funzioni note. Il potenziale è definito come una parabola, con una curvatura mω 2 : mω 2 2 x 2 ω è la frequenza dell’oscillatore. Consideriamo l’hamiltoniano del sistema: V (x) = (4.178) h̄2 d2 mω 2 2 − x ψE (x) = EψE (x) + 2m dx2 2 (4.179) 122 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Introduciamo per comodità di calcolo la coordinata adimensionale ξ = diviene: µ d2 dξ ψ + 2 E q mω h̄ x. L’equazione in ψ(ξ) ¶ 2E − ξ 2 ψE = 0 h̄ω (4.180) La funzione ψ deve essere finita per ξ → ∞; per x molto grandi si può trascurare il termine in E rispetto a ξ 2 , quindi la funzione si deve comportare asintoticamente come exp(−ξ 2 /2): ψE (ξ) = exp(−ξ 2 /2)χ(ξ) (4.181) dove χ(ξ) può anche divergere con ξ → ∞, ma non più velocemente di exp(−ξ 2 /2); possiamo perciò ottenere l’equazione in χ(ξ): d2 χ dξ 2 − 2ξ dχ + dξ µ ¶ 2E −1 χ=0 h̄ω (4.182) La soluzione generica all’equazione differenziale precedente, con la condizione al contorno che per ξ → ∞ la funzione χ non cresca più rapidamente di una potenza finita di ξ (in modo che comunque ψE vada a zero per ξ → ∞, è data dai polinomi di Hermite, con il vincolo che 2E − 1 = 2n (4.183) h̄ω ed n deve essere naturale. Le autofunzioni di un oscillatore armonico monodimensionale sono dunque proporzionali ai polinomi di Hermite, con autovalori quantizzati dall’indice n. La costante di proporzionalità è determinabile, come sempre, dalla condizione di normalizzazione della funzione d’onda. Sostituendo di nuovo x al posto di ξ infine si trova: µ ψn (x) = mω πh̄ ¶1/4 µ ¶ 1 mω 2 x Hn exp − 1/2 n 2h̄ (2 n!) "µ mω h̄ ¶1/2 # x (4.184) cui corrisponde l’autovalore µ ¶ 1 En = n + h̄ω (4.185) 2 Esempio 32. Porre in grafico le prime tre autofunzioni di un oscillatore lineare con la massa di un elettrone e ω = 10−14 s−1 . La generalizzazione ad un oscillatore armonico in tre dimensioni è semplice. L’equazione di Schrödinger è data da: # " ´ h̄2 ˆ 2 1 ³ 2 2 2 2 2 2 ∇ + (4.186) − ω x + ω2 x2 + ω3 x3 ΨE (x1 , x2 , x3 ) = EΨE (x1 , x2 , x3 ) 2m 2 1 1 analogamente al caso della particella in tre dimensioni (e in generale in tutti i casi in cui il potenziale sia scritto come una somma di potenziali separati agenti ciascuno su una coordinata), possiamo scrivere gli autostati come il prodotto degli autostati lungo ciascuna coordinata µ ψn1 ,n2 ,n3 (x) = Π3i=1 mωi πh̄ ¶1/4 e le autoenergie come somme: ¶ Xµ 1 ni + E= h̄ωi 2 i µ ¶ 1 mωi 2 x Hni exp − 1/2 n 2h̄ i (2 i ni !) "µ mωi h̄ # ¶1/2 xi (4.187) (4.188) Esempio 33. Qual è la degenerazione in funzione di n = n1 + n2 + n3 dell’autostato E = (n1 + n2 + n3 + 3/2)h̄ω per un oscillatore armonico tridimensionale con ω1 = ω2 = ω3 = ω? 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 4.16.7 123 Potenziale di Morse Consideriamo il potenziale V (x) = D(1 − e−αx )2 (4.189) detto potenziale di Morse ed è mostrato in Fig. (4.13). Per x → ∞ il potenziale va a D; per x → −∞ il V(x) D x Figura 4.13: Potenziale di Morse. potenziale va a +∞. Evidentemente esisteranno autovalori discreti e positivi per E < D, ed uno spettro continuo per E > D. L’equazione di Schrödinger è data come al solito da − h̄2 ∂ 2 ψE (x) + D(1 − e−αx )2 ψE (x) = EψE (x) 2m ∂x2 Introduciamo la variabile ausiliaria ξ che va da 0 a ∞ √ 2 2mD ξ= exp(−αx) αh̄ (4.190) (4.191) L’equazione di Schrödinger assume la forma ridotta: ∂ 2 ψE à ! 1 ∂ψE 1 n + s + 1/2 s2 + + − + − 2 ψE = 0 (4.192) ξ ∂ξ 4 ξ ξ ∂ξ 2 √ √ 2m(D−E) 1 dove s = e n = 2mD αh̄ αh̄ − s − 2 . Per ξ → ∞ la funzione deve evolvere come exp(−ξ/2) e per ξ → 0 come ξ s . La soluzione generica si può scrivere perciò come ψE (ξ) = exp(−ξ/2)ξ s χ(ξ) (4.193) 124 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Sostituendo, si trova un’equazione differenziale in χ(ξ) (come si vede la procedura è sostanzialmente analoga al caso dell’oscillatore armonico): ξ ∂2χ ∂ξ 2 + (2s + 1 − ξ) ∂χ ∂ξ + nχ = 0 (4.194) La soluzione generica è detta funzione ipergeometrica confluente e si scrive in generale χ = F (−n, 2s + 1, ξ); sappiamo che χ deve essere finita per ξ → 0; per ξ → ∞ χ non può tendere all’infinito più rapidamente di una potenza finita di ξ. Queste condizioni si ottengono dallo studio delle proprietà delle funzioni ipergeometriche confluenti, solo nel caso n intero non negativo. Da ciò segue che le autoenergie discrete sono: ( · ¶¸ ) µ αh̄ 1 2 En = D 1 − 1 − √ n+ (4.195) 2 2mD √ Si noti che se αh̄/ 2mD > 2 non esistono autovalori discreti. Il potenziale di interazione tra gli atomi di una molecola biatomica può essere rappresentato in modo qualitativo da una curva di Morse. In realtà possiamo interpretare un sistema rappresentato dalla curva di Morse come un esempio di oscillatore anarmonico. 4.16.8 Atomo idrogenoide Concludiamo questa Sezione con un sistema ‘chimico’ semplice, risolvibile analiticamente: il calcolo dello spettro di autoenergie e delle relative autofunzioni per l’elettrone di un atomo di idrogeno con un nucleo a riposo. In generale, se il nucleo non è a riposo dobbiamo semplicemente sostituire alla massa dell’elettrone la massa ridotta del sistema protone/elettrone. L’hamiltoniano del sistema è perciò: H=− h̄2 ˆ 2 e2 1 ∇ − 2µ 4π²0 r (4.196) dove µ è la massa ridotta e il secondo termine è il potenziale coulombiano attrattivo tra il nucleo con carica +e e l’elettrone con carica −e a distanza r. Il potenziale è a simmetria radiale. Possiamo perciò procedere senza perdere tempo come nel caso della particella racchiusa in una sfera: i) introduzione di coordinate sferiche; ii) fattorizzazione della funzione d’onda in una parte angolare dipendente da θ e φ e in una parte radiale dipendente da r; iii) imposizione di condizioni al contorno per il calcolo delle autoenergie. La parte angolare dell’autofunzione non cambia, ed è data ancora dalle funzioni armoniche sferiche: in realtà ciò è vero per qualunque potenziale a simmetria sferica, cioè dipendente solo dal modulo r: ΨE (r, θ, φ) = R(r)Ylml (θ, φ) (4.197) Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale: à ! 1 d 2 dR l(l + 1) 2m e2 1 r − R + E + R=0 r2 dr dr r2 4π²0 r h̄2 (4.198) Lo spettro degli autovalori sarà discreto per E < 0, e continuo per E > 0 (il potenziale coulombiano tende a zero per r → ∞ e a −∞ per r → 0). A questo punto possiamo procedere come in tutti i casi 4.16. SISTEMI RISOLVIBILI ANALITICAMENTE 125 precedenti: l’equazione differenziale in R, con le condizioni al contorno R finita a r → 0 e R → ∞ è riconoscibile com l’equazione che ha per soluzione delle funzioni note: le funzioni associate di Laguerre (moltiplicate per l’esponenziale di −r). In definitiva gli autostati e le autoenergie dell’atomo di idrogeno a riposo sono: Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ) (4.199) dove le funzioni radiali Rnl sono Rnl = − 2 (n − l − 1)! l 2l+1 ρ Ln+l (ρ) exp(−ρ/2) na 2n [(n + l)!]3 (4.200) e gli autovalori corrispondenti sono En,l,ml = − µe4 1 2 n2 2 2 32π ²0 h̄ (4.201) dove ρ = 2r/na ed a = 4π²0 h̄2 /µe2 . Gli autostati discreti sono negativi e dipendono solo da 1/n2 . Esempio 34. Qual è la degenerazione di ciascun livello energetico dell’atomo di idrogeno a riposo? E quanto vale il valore di attesa di r rispetto per l’autofunzione con n = l = ml = 0. 126 CAPITOLO 4. FORMALISMO ALGEBRICO DELLA MECCANICA QUANTISTICA Capitolo 5 Metodi di base della chimica quantistica 5.1 Momenti angolari Nel Capitolo (1), dedicato ad un breve ripasso dei principi fondamentali della meccanica classica, ab~ = ~r × p~. Esprimendo le componenti di L ~ biamo definito il momento angolare di una particella come L abbiamo Lx = ypz − zpy Ly = zpx − xpz Lz = xpy − ypx (5.1) Possiamo costruire l’equivalente operatore quantomeccanico per il momento angolare di una particella usando il principio di corrispondenza ∂ ∂ h̄ −z Lx = y i ∂z ∂y ∂ ∂ h̄ Ly = z −x i ∂x ∂z ∂ ∂ h̄ Lz = x −y i ∂y ∂x (5.2) di particolare importanza è l’operatore modulo quadrato del momento angolare L2 = L2x + L2y + L2z (5.3) Le proprietà generali dell’operatore momento angolare di un punto materiale (o momento angolare orbitale) sono comuni ad una vasta classe di operatori, caratterizzati in un ultima analisi non dalla loro forma esplicita, ma, formalmente, solo dalle loro proprietà di commutazione. Ricaviamo perciò ora esplicitamente le proprietà di commutazione del momento angolare orbitale. È utile considerare le sue componenti in unità h̄ (che ha le dimensioni di un momento angolare, joule per secondo in unità SI). Dalle proprietà di commutazione degli operatori posizione e momento, si ricava facilmente [Lx , x] = 0 [Ly , y] = 0 [Lz , z] = 0 [Lx , y] = iz [Lx , z] = −iy [Ly , z] = ix [Ly , x] = −iz [Lz , x] = iy [Lz , y] = −ix (5.4) regole analoghe valgono per le proprietà di commutazione con il momento lineare [Lx , p̂x ] = 0 [Ly , p̂y ] = 0 [Lz , p̂z ] = 0 [Lx , p̂y ] = ip̂z [Ly , p̂z ] = ip̂x [Lz , p̂x ] = ip̂y [Lx , p̂z ] = −ip̂y [Ly , p̂x ] = −ip̂z [Lz , p̂y ] = −ip̂x (5.5) 127 128 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA In forma compatta, possiamo scrivere [Li , xj ] = i²ijk xk [Li , p̂j ] = i²ijk p̂k (5.6) dove ²ijk è il tensore di Levi-Civita o tensore di unità assiale: le sue 27 componenti sono pari a +1 se gli indici i, j, k sono una permutazione pari di 1,2,3, −1 se sono una permutazione dispari, zero altrimenti. Dalle precedenti espressioni possiamo ricavare finalmente le operazioni di commutazione del momento angolare con se stesso [Lx , Lx ] = 0 [Lx , Ly ] = iLz [Ly , Ly ] = 0 [Ly , Lz ] = iLx [Lz , Lz ] = 0 [Lz , Lx ] = iLy [Lx , Lz ] = −iLy [Ly , Lx ] = −iLz [Lz , Ly ] = −iLx (5.7) o in forma compatta [Li , Lj ] = i²ijk Lk (5.8) Rispetto all’operatore L2 , le regole di commutazione sono ricavabili dalla (5.3) [L2 , Lx ] = [L2 , Ly ] = [L2 , Lz ] = 0 (5.9) Relazioni analoghe valgono per il momento angolare di un sistema di particelle o di un corpo rigido (vedi Capitolo (1)), le cui componenti indichiamo nel seguito con il simbolo Jˆi [Jˆi , Jˆj ] = i²ijk Jˆk (5.10) 2 2 2 [Jˆ , Jˆx ] = [Jˆ , Jˆy ] = [Jˆ , Jˆz ] = 0 (5.11) e come vedremo in seguito, per le componenti del momento angolare di spin di una particella o di un sistema di particelle. In generale possiamo definire un operatore vettore come un operatore momento angolare se valgono relazioni di commutazione analoghe alle (5.8) e (5.9). 5.2 Autovalori ed autovettori dei momenti angolari 2 Consideriamo un generico momento angolare (adimensionale), che indichiamo con ˆl , ˆli , per cui valgono le proprietà di commutazione [ˆli , ˆlj ] = i²ijk ˆlk 2 [ˆl , ˆli ] = 0 (5.12) Le proprietà di commutazione degli operatori momento angolare hanno un’importante conseguenza: poichè le singole componenti non commutano tra loro, non è possibile misurare con una precisione arbitraria il momento angolare di un sistema: solo il modulo quadro e una delle componenti sono 2 conoscibili in modo completo, cioè possiamo definire un set completo di autostati comuni a ˆl e ˆlz (o una qualunque delle componenti). In meccanica quantistica possiamo misurare con precisione arbitraria il modulo del momento angolare di un sistema e la sua proiezione lungo uno degli assi del sistema di riferimento (che nel seguito sarà sempre l’asse z). 5.2. AUTOVALORI ED AUTOVETTORI DEI MOMENTI ANGOLARI 129 2 È possibile ricavare gli autovalori della coppia ˆl e ˆlz nonchè le proprietà generali degli autostati dalle sole proprietà di commutazione. L’operatore modulo quadro può essere scritto nella forma ˆl2 = ˆl+ ˆl− + ˆlz (5.13) dove definiamo con ˆl± = ˆlx ± ˆly gli ’operatori scaletta’ che, vedremo, hanno molte interessanti caratteristiche. Il termine ’operatori scaletta’ od ’operatori di spostamento’ dipende dalla loro azione sugli autostati. Per cominciare, diamo le relazioni, facilmente dimostrabili [ˆlz , ˆl± ] = ±ˆl± 2 [ˆl± , ˆl ] = 0 (5.14) † dunque ˆl+ e ˆl− , che sono aggiunti l’uno dell’altro (ˆl+ = ˆl− ), non commutano fra loro, ma commutano 2 2 con ˆl . e chiamiamo |a, mi gli autostati (normalizzati) di ˆl e ˆlz : ˆl2 |a, mi = a|a, mi ˆlz |a, mi = m|a, mi (5.15) dove a e m numeri per ora arbitrari. Grazie alle relazioni (5.14), si verifica che ˆlz ˆl± |a, mi = (m + ±)|a, mi (5.16) quindi ˆl+ ed ˆl− aumentano o diminuiscono di un’unità gli autovalori di ˆlz . Poichè invece commutano 2 con ˆl non hanno effetto sui valori di a. Dalle relazioni precedenti segue che ˆl± |a, mi = c± |a, m ± 1i (5.17) dove c± sono costanti da definirsi. I due operatori di spostamento sono aggiunti l’uno dell’altro; dunque 2 ha, m|ˆl+ ˆl− |a, mi ≥ 0 (dimostratelo) è hermitiano, perciò ha, m|ˆl − ˆlz (ˆlz + 1)|a, mi = a − m(m + 1) ≥ 0. Partendo dal valore di attesa di ˆl− ˆl+ otteniamo un’espressione analoga; in definitiva valgono le seguenti disequazioni a − m(m ± 1) ≥ 0 → a ≥ m2 (5.18) Per ogni a abbiamo perciò una valore minimo e massimo di m, che chiamiamo m e m. Poichè per definizione ˆl+ |a, mi = ˆl− |a, mi = 0 e quindi a − m(m + 1) = a − m(m − 1). Segue che il valore massimo e minimo sono legati dalla relazione m2 + m − m(m − 1) = 0, ovvero m = m − 1 (da scartare perchè m ≥ m e m = −m. Chiamiamo l il valore di m, e rinominiamo il genrico ket come |l, mi: ˆl2 |l, mi = l(l + 1)|l, mi ˆlz |l, mi = m|l, mi (5.19) e combinando le relazioni precedenti si ottengono anche i valori espliciti di c± : ˆl± |l, mi = q l(l + 1) − m(m ± 1)|l, m ± 1i (5.20) Applicando ˆl+ ad una generica |l, −li si generano autostati di ˆlz con autovalori −l + 1, −l + 2, . . ., l. Quindi l − (−l) = 2l deve essere un numero intero, cioè l può essere un intero o un multiplo di 1/2. Tutte queste conclusioni sono state tratte partendo dalle sole relazioni di commutazione, senza invocare alcuna forma particolare degli operatori momento angolare. Sono dunque applicabili ad ogni operatore angolare, e proprietà analoghe alle (5.19) e (5.20) valgono anche per gli autostati comuni 2 anche ad operatori che commutino con ˆlz e ˆl . 130 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA 5.3 Forma esplicita del momento angolare orbitale Il momento angolare orbitale può essere posto in forma esplicita in coordinate sferiche x = r cos φ sin θ, y = r sin φ sin θ, z = r cos θ. Dopo aver trasformato le derivate rispetto alle coordinate cartesiane in derivate rispetto alle coordinate sferiche si ottiene Lz = −i L2 = − ∂ (5.21) ∂φ ∂ 1 ∂ 1 ∂2 sin θ 2 ∂φ2 − sin θ sin θ ∂θ ∂θ (5.22) 2 si noti che L2 = −M̂ , operatore legendriano, già incontrato durante lo studio del moto di una particella su una sfera. Le autofunzioni di L2 e ˆlz sono dunque le armoniche sferiche, giv̀iste nella medesima occasione L2 Ylm (θ, φ) = l(l + 1)Ylm (θ, φ) (5.23) Lz Ylm (θ, φ) = mYlm (θ, φ) (5.24) con l ≥ 0 intero, e −l ≤ m ≤ l. Le funzioni armoniche sferiche possono essere scritte nella forma (−1)l Ylm (θ, φ) = l 2 l! s (2l + 1)(l − |m|)! |m| Pl (cos θ)eimφ 4π(l + |m|)! (5.25) |m| le funzioni Pl (x) sono dette funzioni associate di legendre di grado l e ordine |m| e sono definibili in funzione dei polinomi di Legendre (vedi Appendice (A)) |m| Pl 5.4 (x)(1 − x2 )|m|/2 d|m| Pl (x) dx|m| (5.26) Il rotatore rigido Il formalismo degli operatori momento angolare trova un’applicazione immediata allo studio degli autostati di un rotatore rigido. Consideriamo due masse m1 e m2 a distanza fissa R. Il sistema ruota intorno al centro di massa, fisso nell’origine del sistema di riferimento. L’energia cinetica classica del sistema é T = ω2 Iω 2 L2 (m1 r12 + m2 r22 ) = = 2 2 2I (5.27) dove ri è la distanza dal centro di massa della massa mi , ed omega è la velocità angolare di rotazione. L’energia cinetica può anche essre scritta in funzione del momento angolare classico, che per questo sistema è semplicemente L = Iω e del momento di inerzia I = m1 r12 + m2 r22 , od anche I = µR2 dove µ = m1 m2 /(m − 1 + m2 ) è la massa ridotta del sistema. L’hamiltoniano del sistema è perciò (usando la forma adimensionale dell’operatore momento angolare) H=− h̄2 2 L 2I (5.28) 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 131 Le auofunzioni del rotatore sono dunque le armoniche sferiche Ylm (θ, φ) con autovalori h̄2 l(l + 1) 2I ogni livello energetico è degenere 2l + 1 perchè corrisponde ai possibili autostati di Lz . El = 5.5 (5.29) Approfondimento: momenti angolari 5.5.1 Accoppiamento di due momenti angolari Consideriamo due generici momenti angolari ̂1 e ̂2 . I due operatori vettori agiscono su spazi diversi, e quindi le loro componenti commutano fra loro [̂1i ,̂2,j ] = 0 (i, j = x, y, z). L’operatore somma ̂ = ̂1 +̂2 è ancora un momento angolare, infatti [̂i ,̂j ] = [̂1i ,̂1j ] + [̂2i ,̂2j ] = i²ijk (̂1k + ̂2k ) = i²ijk ̂k (5.30) Possiamo ora selezionare due quaterne di operatori con un set di autostati comuni, cioè che commutano reciprocamente: la prima e quasi ovvia è data da ̂21 , ̂1z , ̂22 , ̂2z , che ammetteranno come autostati comuni gli stati ottenuti come il prodotto diretto degli autostati dei due momenti angolari di partenza, |j1 m1 , j2 m2 i = |j1 m1 i|j2 m2 i; lo spazio complessivo ha dimensione (2j1 + 1)(2j2 + 1)) e gli autovalori sono rispettivamente j1 , m1 , j2 , m2 . La seconda quaterna è data da ̂21 , ̂22 , ̂2 , ̂z ; gli autostati comuni sono indicati come |j1 j2 jmi e lo spazio complessivo ha naturalmente la stessa dimensione, come verrà discusso fra breve, e gli autovalori sono j1 , j2 , j, m. In pratica, nel passaggio dalla prima alla secopnda quaterna di operatori si sta semplicemnte operando una trsformazione unitari della base originaria (disaccoppiata) nella base finale (accoppiata). Possiamo usare la comoda notazione di Dirac |j1 j2 j, mi = X |j1 m1 , j2 m2 ihj1 m1 , j2 m2 |j1 j2 j, mi (5.31) m1 ,m2 per indicare la trasformazione che porta dalla base disaccoppiata alla base accoppiata, e viceversa |j1 m1 , j2 m2 i|j1 j2 jmi = X |j1 j2 jmihj1 j2 jm|j1 m1 , j2 m2 i (5.32) j,m I coefficienti (reali per convenzione) hj1 m1 , j2 m2 |j1 j2 jmi = hj1 j2 jm|j1 m1 , j2 m2 i = C(j1 j2 j; m1 m2 m) della trasformazione sono detti coefficienti di Clebsch-Gordan (CG) o coefficienti di Wigner. Si noti che per l’unitarietà della matrice dei coefficienti CG (o per l’ortonormalità dlle basi accoppiata e disaccoppiata) il prodotto di due righe o due colonne è zero (righe/colonne diverse) o uno (righe/colonne uguali), vale a dire X hj1 j2 jm|j1 m1 , j2 , m2 ihj1 m1 , j2 , m2 |j1 j2 j 0 m0 i = δj,j 0 δm,m0 (5.33) m1 ,m2 X j,m hj1 m1 , j2 , m2 |j1 j2 jmihj1 j2 jm|j1 m01 , j2 , m02 i = δm1 ,m01 δm2 ,m02 (5.34) Quali sono le condizioni imposte a j ed m? Un coeffciente CG vale zero a meno che m = m1 + m2 e |j1 − j2 | ≤ j ≤ j1 + j2 . Infatti applicando jz alla (5.31) si ottiene X m1 ,m2 (m1 + m2 )|j1 m1 , j2 m2 ihj1 m1 , j2 m2 |j1 j2 j, mi = X m01 m02 m|j1 m01 , j2 m02 ihj1 m01 , j2 m02 |j1 j2 j, mi(5.35) 132 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA che può essere verificata solo se m − m1 − m2 = 0. Segue da ciò che il massimo valore possibile di m è dato dalla somma dei valori amssimi di m1 e m2 , quindi mmax = j1 + j2 = jmax , dove l’ultima uguaglianza discende dal fatto che −j ≤ m ≤ j per ogni valore di j. Possiamo ora raggruppare gli stati accoppiati e disaccoppiati caratterizzati dallo stesso valore di m, partendo dal valore massimo mmax . Per m = mmax esiste solo uno stato; per m = mmax esistono due stati ( in tabella si può vedere la loro m mmax mmax − 1 accoppiata |(j1 j2 )jmi |j1 + j2 , j1 + j2 i |j1 + j2 , j1 + j2 − 1i,|j1 + j2 − 1, j1 + j2 − 1i .. . disaccoppiata |j1 m1 , j2 m2 i |j1 j1 , j2 j2 i |j1 j1 , j2 j2 − 1i, |j1 j1 − 1, j2 j2 i Tabella 5.1: Base accoppiata vs. base disaccoppiata rappresentazione accoppiata o disaccoppiata) e cosı̀ via. Ad ogni nuovo valore di m è incluso uno stato accoppiato con un j ridotto di un’unità rispetto agli stati associati al valore di m precedente. In totale si dovrà pervenire ad un valore minimo di j, tale che jX max (2j + 1) = (2j1 + 1)(2j2 + 1) ≡ [jmax (jmax + 1) − jmin (jmin − 1)]/2 (5.36) jmin l’ultima identità si verifica da proprietà elementari di somme fra interi (o seminteri), da cui discende che se jmax = j1 + j2 , l’unico valore non-negativo possibile di jmin è jmin = |j1 − j2 . I coefficienti hj1 m1 j2 m2 |j3 m3 i CG possono essere ricavati in forma esplicita in funzione degli interi (seminteri) j1 , m1 , j2 , m2 , j3 , m3 (formule di Racah), e godono di numerose proprietà di simmetria, che possono essere più facilmente riassunte se si scrivono i coefficienti CG in funzione dei simboli 3-j: à j1 j2 j3 m1 m2 m3 ! = (−1)j1 −j2 −m3 (2j3 + 1)−1/2 hj1 m1 j2 m2 |j3 − m3 i (5.37) Ogni permutazione pari di colonne di un simbolo 3-j lascia il suo valore invariato; ogni permutazione dispari moltiplica il valore del simbolo risultante per (−1)j1 +j2 +j3 . Analogo effetto ha il cambio di segno di tutti gli indici della seconda riga. 5.5.2 Accoppiamento di tre o più momenti angolari Consideriamo brevemente in questa sezione l’accoppiamneto fra più di due momenti angolari. Se partiamo da tre momenti angolari, ̂1 , ̂2 e ̂3 possiamo immaginare di combinare per esempio ̂1 con ̂2 per dare ̂12 che poi, combinato con ̂3 , dà il momento angolare totale ̂. I set di operatori che commutano fra loro sono ̂21 , ̂1z , ̂22 , ̂2z ,̂23 , ̂3z e ̂21 , ̂22 , ̂23 , ̂212 , ̂2 ,̂z . La relazione tra base accoppiata |j1 j2 j3 j12 jmi e disaccoppiata è |j1 j2 j3 j12 jmi = X |j1 m1 , j2 m2 , j3 m3 ihj1 m1 , j2 m2 |j1 j2 j12 m12 ihj12 m12 , j3 m3 |j12 j3 jmi (5.38) m1 ,m2 ,m3 ,m12 Ma uno schema di accoppiamento equivalente può essere di sommare prima ĵ2 e ĵ3 e di aggiungere poi al risultante ĵ23 il vettore rimanente bhj1 . Il nuovo set di operatori con autostati comuni è ̂21 , ̂22 , ̂23 , ̂223 , 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 133 e vale la relazione tra base accoppiata e base disaccoppiata X |j1 j2 j3 j23 jmi = |j1 m1 , j2 m2 , j3 m3 ihj2 m2 , j3 m4 |j2 j3 j23 m23 ihj23 m23 , j1 m1 |j23 j1 jmi (5.39) m1 ,m2 ,m3 ,m23 Le due nuove basi rappresentano comunque lo stesso spazio di dimensione (2j1 + 1)(2j2 + 1)(2j3 + 1) e sono dunque ottenibili l’una dall’altra mediante una trasformazione unitaria. Possiamo scrivere |j1 j2 j3 j23 jmi = X |j1 j2 j3 j12 jmihj1 j2 j3 j12 jm|j1 j2 j3 j23 jmi (5.40) j1 2 I coefficienti hj1 j2 j3 j12 jm|j1 j2 j3 j23 jmi ≡ hj12 j3 j|j1 j23 ji sono indipendenti da m è possono, con un po’ di pazienza, espressi sotto forma di somme di coefficienti CG. I coefficienti oggi noti come coefficienti di Racah 1 furono definiti da Racah come W (j1 j2 jj3 ; j12 j23 ) = [(2j12 + 1)(2j23 + 1)]−12 hj12 j3 j|j1 j23 ji (5.41) Una rappresentazione più conveniente è fornita dai simboli 6-j, introdotti da Wigner ( j1 j2 j12 j3 j j23 ) = (−1)j1 +j2 +j3 +j W (j1 j2 jj3 ; j12 j23 ) (5.42) che esibiscono numerose proprietà (per esempio: sono invarianti rispetto allo scambio di due colonne o degli elementi superiore ed inferiore di una colonna). La relazione (o meglio una possibile relazione) tra simboli 3-j e 6-j è la seguente: ( j1 j2 j3 j4 j5 j6 ) = X (−1)j1 −m1 +j2 −m2+j3 −m3 +j4 −m4 +j5 −m5 +j6 −m6 m Ã × Ã × j1 j2 j3 −m1 −m2 −m3 j2 j6 j4 m2 −m6 m4 !à !à j1 j5 j6 m1 −m5 m6 j3 j4 j5 m3 −m4 m5 ! (5.43) ! L’accoppiamento di quattro momenti angolari porta alla definizione di una nuova serie di coefficienti, detti 9-j. Ancora una volta, sono possibili vari schemi di accoppiamento, e le varie basi accoppiate sono legate da traformazioni unitarie. Per esempio, possiamo accoppiare ̂1 e ̂4 per dare ̂14 e ̂2 e ̂3 per dare ̂23 ; infine possiamo accoppiare ̂14 e ̂23 per dare ̂. Oppure possiamo accoppiare prima ̂1 e ̂2 per dare ̂12 e ̂3 e ̂4 per dare ̂34 . Le due basi sono ottenute l’una dall’altra come |(j1 j4 )j14 (j2 j3 )j23 jmi = X |(j1 j2 )j12 (j3 j4 )j34 jmih(j1 j2 )j12 (j3 j4 )j34 j|j1 j4 )j14 (j2 j3 )j23 ji (5.44) j12 j34 e i coefficienti non dipendono da m. I simboli 9-j sono definiti come j1 1/2 h(j1 j2 )j12 (j3 j4 )j34 j|j1 j4 )j14 (j2 j3 )j23 ji = [(2j12 + 1)(2j34 + 1)(2j14 + 1)(2j23 + 1)] j3 j14 1 j2 j4 j23 j12 j34 j (5.45) Giulio Racah è un fisico e matematico italiano, di origine israelita; noto anche come Joel Racah e Yoel Racah. Nel 1939, a causa delle leggi razziali italiane, Racah emigrò in Palestina e da allora svolse la sua attività alla Hebrew University di Gerusalemme; Racah derivò per primouna procedura generale per classificare i livelli energetici di atomi con configurazione ”open shell” 134 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA Ancora una volta, varie proprietà di simmetria sono identificabili: il simbolo 9-j non cambia per una permutazione pari di righe o colonne, e viene moltiplicato per (−1)j1 +j2 +j12 +j3 +j4 +j34 +j14 +j23 +j a causa di una permutazione dispari; inoltre può essere scritto in funzione dei simboli 6-j come j1 ( )( )( ) j2 j3 X j1 j4 j7 j2 j5 j6 j3 j6 j9 0 2j 0 = (−1) (2j + 1) j5 j6 j8 j9 j 0 j4 j 0 j6 j 0 j1 j2 j0 j8 j9 j4 j 7 5.5.3 (5.46) Rotazioni Consideriamo un sistema descritto da due basi |ui i e |vi i. Le due basi sono legate da una trasformazione lineare Û |vi i = Û |ui i (5.47) se vogliamo che le due basi abbiano la medesima lunghezza dei singoli vettori e che due generici vettori † formino i medesimi angoli cioè che hvi |vj i = hui |Û Û |uj i = hui |uj i, l’operatore Û deve essere unitario: † Û Û = 1̂ (5.48) Un generico stato |φi può essere rappresentato come |φi = X |ui ihui |φi (5.49) i e lo stato ’ruotato’ Û |φi = |ψi è semplicemente |ψi = X † |vi ihui |Û Û |φi = i X |vi ihvi |ψi (5.50) i Il valore medio di un’osservabile generico, rappresentato da un operatore Ô su uno stato generico ketφ, † † è dato da O = hφ|Ô|φi = hψ|Û ÔÛ |ψi. Quindi l’operatore ruotato è dato da Û ÔÛ . Un generico operatore della forma 1̂+i²Ŝ dove ² è un infinitesimo, è unitario al primo ordine in ² solo † se Ŝ = Ŝ, cioè se Ŝ è hermitiano; 1̂ + i²Ŝ è una trasformazione infinitesima (unitaria). Consideriamo ora un’operatore ottenuto applicando n volte la trasformazione infinitesima con ² = τ /n µ τ Û n = 1̂ + i Ŝ n ¶n (5.51) nel limite n → ∞ possiamo scrivere µ Û = lim Û n = lim n→∞ n→∞ τ 1̂ + i Ŝ n ¶n Û = exp(iτ Ŝ) (5.52) che è ancora un operatore unitario. L’operatore hermitiano Ŝ si dice generatore della trasformazione infinitesima, mentre Û rappresenta una trasformazione finita. Si noti che Û e Ŝ commutano (Û è funzione di Ŝ) e quindi ammettono autostati comuni. Un classico esempio di trasformazione finita, convenientemente espressa a partire dalla relativa trasformazione infinitesima, è dato dalla rotazione. Consideriamo un asse orientato rispetto al quale si vuole ruotare un sistema: una rotazione positiva è data da quella trasformazione che fa girare di un angolo dato α una vita destrogira che avanza nella direzione positiva dell’asse. Una rotazione generica R̂n (α) di un sistema è quindi identificata da tre 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 135 parametri: un versore n̂ e l’angolo α. Se per esempio fissiamo il nostro asse lungo l’asse z del sistema di riferimento (SDR), la trasformazione R̂z (φ) è quella trasformazione attiva che ruota il sistema di un angolo φ a partire da un valore iniziale Φ0 (quindi l’orientazione del sistema passa nello stesso SDR da Φ0 a Φ0 + φ), e quindi è equivalente ad una trasformazione passiva che ruota il sistema di riferimento di un angolo −φ (quindi l’orientazione del sistema passa da Φ0 nel SDR iniziale a Φ1 = Φ0 − φ nel SDR ruotato). Nel seguito consideriamo la rotazione come passiva, cioè teniamo fisso il sistema e cambiamo il SDR. Per un angolo generico φ lo stato del sistema è ottenibile come |Φ1 i = |Φ0 i + (−φ) = exp −φ ∂ ∂φ |Φ0 i + ∂ ∂φ ∂2 1 (−φ)2 |Φ0 i + . . . 2! ∂phi2 ³ ´ |Φ0 i = exp −iφJˆz |Φ0 i = R̂z (φ)|Φ0 i (5.53) ∂ dove abbiamo definito Jˆz = i come l’operatore di rotazione infinitesimale attorno all’asse z del SDR. ∂φ Analogamente possiamo definire Jˆx e Jˆy , che formano un set di tre operatori con le proprietà di un momento angolare; per una rotazione generica abbiamo invece che ³ ´ R̂n (α) = exp −iαĴn̂ (5.54) dove Ĵ è l’operatore momento angolare del sistema, definito nel SDR (supposto fisso) iniziale e dove ∂ vale che Ĵn̂ ≡ −i . ∂α 5.5.4 Matrici di Wigner Come abbiamo già visto in una delle sezioni precedenti, l’orientazione relativa di due sistemi di riferimento può essere indicata da un set di angoli, detti angoli di Eulero Ω = (α, β, γ). La propriet` principale che rende gli angoli di Eulero particolarmente utili è il fatto che la rotazione complessiva che porta il sistema di riferimento iniziale (laboratorio, SL) a quello finale (molecolare, SM), può essere scritta come il prodotto di tre rotazioni consecutive successive, definite nel SL. Si può dimostrare infatti che: R̂(Ω) = exp(−iαJˆZ ) exp(−iβ JˆY ) exp(−iγ JˆZ ) (5.55) Partendo dalla definizione degli angoli di Eulero, possiamo definire la forma esplicita dell’operatore momento angolare, definito nel SL. Un generico versore n̂ avrà infatti componenti cartesiane nel SL X̂,Ŷ ,Ẑ, che possono essere impiegate per scrivere le componenti associate ai tre angoli di Eulero n̂α = n̂Z n̂β = −n̂X sin α + n̂Y cos α n̂γ = n̂X sin β cos α + n̂Y sin β cos α + n̂Z cos α (5.56) 136 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA dopo qualche passaggio trigonometrico. Tenendo conto che le tre componenti angolari di Ĵ sono semplicemente le derivate rispetto agli angoli di Eulero (a meno di una fattore −i), otteniamo JˆX ∂ 1 ∂ = −i cos α − cot β + + i sin α ∂α sin β ∂γ ∂β ∂ ∂ JˆY ∂ 1 ∂ = −i sin α − cot β + − i cos α ∂α sin β ∂γ ∂β JˆZ = −i (5.57) ∂ ∂α Si noti che possiamo esprimere le componenti dell’operatore Ĵ in un qualunque sistema di riferimento, anche in quello molecolare. In questo caso abbiamo che le componenti del versore espresse nel SM sono legate quelle relative agli angoli di Eulero come n̂α = −n̂x sin β cos γ + n̂y sin β cos γ + n̂z cos γ n̂β = n̂x sin γ + n̂y cos γ n̂γ (5.58) = n̂z e che le componenti del momento angolare sono Jˆx ∂ 1 ∂ = −i cos α cot β − − i sin γ ∂γ sin β ∂α ∂β ∂ Jˆy ∂ ∂ 1 ∂ = i sin γ cot β − − i cos γ ∂γ sin β ∂α ∂β (5.59) ∂ Jˆz = −i ∂γ Si noti che le componenti di Ĵ presentano proprietà di commutazione anomale: [Jˆi , Jˆj ] = −i²ijk Jˆj (5.60) Consideriamo ora l’effetto di una rotazione generica su uno autostato generico ³ ´|JM i dell’operatore 2 Ĵ . Poichè la rotazione generica è funzione di Ĵ, dato che R̂n (α) = exp −iαĴn̂ , commuta con Ĵ . Quindi: 2 R̂(Ω)|JM i = X J 0 DM 0 M (Ω) |JM i (5.61) M0 0 J I coefficienti DM 0 M (Ω) = hJM |R̂(Ω)|JM i|JM i sono gli elementi di una matrice di dimensione 2J + 1 detta matrice di rotazione o matrice di Wigner. Nel seguito vengono elencate alcune importanti proprietà della matrice di Wigner. Definizione: una matrice di Wigner dipende da un set di angoli di Eulero Ω ed ha la forma generale: L −iM α L DM dM, K (β) e− i K γ K (Ω) = e (5.62) 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 137 dove dL M, K (β) è una matrice ridotta di Wigner calcolabile secondo la formula: dL M K (β) = X (−)h h [(L + M )! (L − M )! (L + K)! (L − K)! ]1/2 × (L + M − h)! (L − K − h)! h! (h + K − M )! (5.63) × (cos β/2)2L+M −K−2h (sin β/2)2h+K−M dove la sommatoria corre su tutti quei valori di h per i quali i fattoriali rimangono non negativi. Simmetria: esiste una semplice relazione tra una matrice di Wigner e la complessa coniugata ∗ L M −K L L DM D− M − K (Ω) = DK K (Ω) = (−) M (−Ω) (5.64) Prodotto: il prodotto di due matrici di Wigner si scrive come L1 DM 1 K1 (Ω) L2 DM 2 K2 (Ω) = X à [L3 ] L3 L1 L2 L3 M1 M2 M3 !à L1 L2 L3 K1 K2 K3 ! ∗ L3 DM (Ω) 3 K3 (5.65) dove L3 = |L1 − L2 |, . . . , (L1 + L2 ), M3 = − (M1 + M2 ), K3 = − (K1 + K2 ) e [L3 ] = 2 L3 + 1. Prodotto interno: tra due matrici di Wigner (omettendo la dipendenza da Ω): Z L1 ∗ L2 dΩ DM DM = 1 K1 2 K2 8 π2 δL , L δM , M δK , K [L1 ] 1 2 1 2 1 2 (5.66) fra tre matrici di Wigner: à Z L1 L2 L3 dΩ DM DM DM = 8 π2 1 K1 2 K2 3 K3 L1 L2 L3 M1 M2 M3 !à L1 L2 L3 K1 K2 K3 ! (5.67) Trasformazione per rotazione: dato un tensore sferico irriducibile T (l, m)a (vedi oltre) espresso nel sistema di riferimento a, la sua espressione in un sistema di riferimento b si ottiene dalla trasformazione: T (l, m)a = X l Dm k (Ωa→b ) T (l, k)b (5.68) k dove Ωa→b indica il set di angoli di Eulero che trasforma da a a b. La trasformazione inversa si ottiene semplicemente: T (l, k)b = X l∗ Dm k (Ωb→a ) T (l, m)a m (5.69) 138 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA Operatori momento angolare: una matrice di Wigner dipendente da un set di angoli di Eulero Ω che mettono in relazione due sistemi di riferimento a e b è autofunzione degli operatori momento angolare e proiezione lungo l’asse z del momento angolare, definiti nei due sistemi di riferimento. Per il sistema di riferimento a: a 2 L L Ĵ , DM K (Ω) = L (L + 1) DM K (Ω) a Jˆ DL (Ω) = − M DL (Ω) Z MK MK aˆ ∓ L L J± DM K (Ω) = − cL, M DM ∓ 1 K (Ω) (5.70) Per il sistema di riferimento b: L b 2 L Ĵ DM K (Ω) = L (L + 1) DM K (Ω) b Jˆ DL (Ω) = − K DL (Ω) Z MK MK bˆ ± L L (Ω) = − c J± DM K L, M DM K ± 1 (Ω) in cui c± L, M = 5.5.5 p (5.71) L (L + 1) − M (M ± 1). Tensori sferici Concludiamo questa sezione di approfondimento con una presentazione delle proprietà dei tensori sferici irriducibili. Si dice tensore sferico irriducibile di rango k un insieme di 2k+1 oggetti (funzioni, operatori) ciascuno caratterizzato dal valore q = −k, −k + 1, . . . , k − 1, k che trasforma sotto rotazione del sistema di riferimento come R̂T (k, q)R̂ −1 = X Dqk0 q T (k, q 0 ) (5.72) q0 sottoposto ad una rotazione del sistema di riferimento (trasformazione unitaria), l’operatore T (k, q) si trasforma in una combinazione lineare di 2k + 1 operatori e i coefficienti della combinazione lineare sono dati dalla matrice di Wigner per la rotazione. Esempio ovvi ma importanti di operatore scalare: l’hamiltoniano di una molecola isolata o l’orbitale 1s dell’atomo di idrogeno. Qual è il significato fisico-geometrico dei tensori sferici irriducibili? Se consideriamo per esempio i −1 tensori di rango zero, abbiamo che R̂T (0, 0)R̂ = D00 0 T (0, 0) = T (0, 0): un tensore sferico irriducibile di rango zero è invariante rispetto alla rotazione, vale a dire è un operatore scalare. Per k = 1 abbiamo tre possibili componenti T (1, q) con q = 0, ±1. Le tre componenti constituiscono una base irriducibile del gruppo di rotazione tridimensionale (vedi oltre), e trasformano quindi come un operatore vettore (o dipolo). Un esempio di operatore di rango uno è dato dall’operatore dipolare o dai tre orbitali 2p di un atomo di idrogeno. In particolare lo stesso operatore posizione r = (x, y, z) può essere immediatamente scritto come un tensore sferico di rango uno q T (1, 1) = −(x + iy)/ (2) T (1, 0) = z q T (1, −1) = (x − iy)/ (2) (5.73) 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 139 Analogamente un tensore sferico irriducibile di rango due può essere associato ad un momento di quadrupolo, o agli orbitali 3d di un atomo di idrogeno. Più in generale, un esempio di tensore di rango l è dato dalle armoniche sferiche Ylm (θ, φ). In generale si ha che: R̂Ylm (θ, φ)R̂ −1 = X l Dm 0 m Ylm0 (θ, φ) (5.74) m0 quindi un generico tensore trasforma sotto rotazione come le armoniche sferiche. In effetti possiamo dire che un generico tensore di rango k trasforma sotto rotazione secondo la rappresentazione irriducibile Dk del gruppo di simmetria delle rotazioni SO(3). Una definizione alternativa delle proprietà dei tensori sferici irriducibili può anche essere data nei termini delle relazioni di commutazione con le componenti del momento angolare Ĵ: [Jˆz , T (k, q)] = qT (k, q) e [Jˆ± , T (k, q)] = p k(k + 1) − q(q ± 1)T (k, q ± 1). Infine le relazioni generali tra le componenti di un tensore sferico irriducibile nel SL e nel SM sono ottenibili tenendo conto delle relazioni di commutazione normale ed anomala tra le componenti dell’operatore momento angolare nei due sistemi di riferimento. In generale abbiamo: M X T (k, q) = Dpk q L T (k, p) (5.75) p L X T (k, p) = ∗ Dpk q L T (k, q) (5.76) q Relazioni tra tensori sferici e cartesiani In modo compatto, nel seguito indichiamo un tensore di rango k come T(k) , ed una generica componente come T (k, q). Un qualsiasi tensore cartesiano di rango T(1) uno può essere scritto in una base sferica secondo la relazione: T (1, 1) T X = U TY T (1, 0) T (1, −1) U = 1 −√ 2 con TZ i −√ 2 0 0 1 √ 2 i −√ 2 0 1 (5.77) 0 oppure: T (1, µ) = X µ = −1, 0, 1 Uµ A TA A con A = X, Y, Z (5.78) Analogamente, le componenti di un tensore cartesiano di rango due possono essere espresse nella base sferica come segue: TA B = X µ, ν Uµ† A Uν† B T (1, µ) T (1, ν) (5.79) Da cui si vede che il tensore di rango due è esprimibile come: T(2) = T (0) ⊕ T (1) ⊕ T (2) (5.80) 140 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA dove ogni componente è data da: T (j, m) = X X j = 0, 1, 2 −j ≤ m ≤ j Uµ A Uν B h1 µ, 1 ν | j mi TA B A, B µ, ν −1 ≤ µ, ν ≤ 1 A, B = X, Y, Z (5.81) Le componenti sferiche sono: 1 T (0, 0) = − √ (TX X + TY 3 Y + TZ Z ) i T (1, 0) = √ (TX Y − TY X ) 2 1 T (1, ±1) = [(TZ X − TX Z ) ± i (TZ Y − TY Z )] 2 (5.82) 1 T (2, 0) = √ (2TZ Z − TX X − TY Y ) 6 1 T (2, ±1) = ∓ [(T +T ) ± i (T +T )] ZX XZ ZY Y Z 2 1 T (2, ±2) = [(TX X − TY Y ) ± i (TX Y + TY X )] 2 Per un tensore simmetrico: 1 T (0, 0) = − √ (TX X + TY 3 Y + TZ Z ) T (1, 0) = 0 T (1, ±1) = 0 (5.83) 1 T (2, 0) = √ (2TZ Z − TX X − TY Y ) 6 T (2, ±1) = ∓ (TX Z ± i TY Z ) T (2, ±2) = TX X − TY Y ± i TX Y 2 5.5.6 Teorema di Wigner-Eckart I tensori sferici irriducibili si rivelano di grande utilità per semplificare i ccomplessi elementi di matrice che sono comuni nel calcolo di proprietà chimico-fisiche di stati a momento angolare definito. In pratica, 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 141 le caratteristiche di simmetria rotazionale (geometria) possono essere ’estratte’ in modo generale e ricondotte a pochi fattori fondamentali, lasciando la sola necessità di valutare degli elementi di matrice ’ridotti’, non dipendenti dalle proprietà rotazionali. In effetti possiamo in genrale dimostrare che il generico elemento di matrice haJM |T (k, q)|a0 J 0 M 0 i, dove lo stato generale |aJM i dipende da un set di numeri quantici generale a più quelli rotazionali J e M può essere scritto nella forma haJM |T (k, q)|a0 J 0 M 0 i = hkq, J 0 M 0 |JM ihaJkT k ka0 J 0 i (5.84) questa relazione è nota come teorema di Wigner-Eckart e separa la dipendenza geometrica, concentrata nel fattore hkq, J 0 M 0 |JM i e quella ’fisica’, descritta dall’elemento di matrice ridotto haJkT k ka0 J 0 i. La dimostrazione del teorema di Wigner-Eckart può essere svolta in molti modi, anche se il linguaggio più opportuno per definire la materia in esame proviene in ultima analisi dalla teoria dei gruppi. Consideriamo per semplicità un approccio basato sulle proprietà di commutazione dei tensori sferici con le componenti dei momenti angolari. Possiamo cominciare scrivendo haJM |Jˆz T (k, q)|a0 J 0 M 0 i − haJM |T (k, q)Jˆz |a0 J 0 M 0 i = qhaJM |T (k, q)|a0 J 0 M 0 i (5.85) e quindi (M − M 0 − q)haJM |T (k, q)|a0 J 0 M 0 i = 0 (5.86) Quindi l’elemento di matrice va a zero a meno che M = M 0 + q. Analogamente possiamo scrivere haJM |Jˆ± T (k, q)|a0 J 0 M 0 i − haJM |T (k, q)Jˆ± |a0 J 0 M 0 i = q (k ± q)(k ± q + 1)haJM |T (k, q ± 1)|a0 J 0 M 0 i che si può riscrivere come p (J ± M )(J ∓ M + 1)haJM ∓ 1|T (k, q)|a0 J 0 M 0 i − = p (J 0 ∓ M 0 )(J 0 ± M 0 + 1)haJM |T (k, q)|a0 J 0 M 0 ± 1i = p (k ∓ q)(k ± q + 1)haJM |T (k, q ± 1)|a0 J 0 M 0 i (5.87) dove nella (5.87) ogni termine va a zero a meno che M = M 0 + q pm1 data la (5.86). Teniamo da parte questa conclusione e consideriamo ora gli stati T (k, q)|aJ 0 M 0 i: questi in generale costituiscono un insieme di dimensione (2k + 1)(2J 0 + 1): nel linguaggio della teoria dei gruppi, generano un rappre0 sentazione riducibile prodotto diretto Dk ⊗ DJ del gruppo SO(3). Possiamo costruire stati a momento angolare definito J, grazie alle proprietà dei coefficienti di Clebsch-Gordan: |a0 JM i = X hkq, J 0 M 0 |JM iT (k, q)|a0 J 0 M 0 i (5.88) q,M 0 Applichiamo Jˆ∓ ai due lati della precedente equazione; con un po’ di pazienza otteniamo p (J ± M )(J ∓ M + 1)|a0 JM ∓ 1i = Xp (J 0 ± M 0 )(J 0 ∓ M 0 + 1)hkq, J 0 M 0 |JM iT (k, q)|a0 J 0 M 0 ∓ 1i q,M 0 + Xp (k ∓ q)(k ± q + 1)hkq, J 0 M 0 |JM iT (k, q ∓ 1)|a0 J 0 M 0 i (5.89) q,M 0 Ora usiamo la (5.88) per eliminare |a0 JM ∓ 1i a sinistra della precedente equazione; a destra poniamo poi µ = M 0 ∓ 1, λ = q nel primo termine e µ = M 0 , λ = q ∓ 1 nel secondo termine Xp (J ± M )(J ∓ M + 1)hkλ, J 0 µ|JM ∓ 1iT (k, λ)|a0 J 0 µi = µ,λ Xp (J 0 ∓ µ)(J 0 ± µ + 1)hkλ, J 0 µ ± 1|JM iT (k, λ)|a0 J 0 µi µ,λ + Xp (k ∓ q)(k ± q + 1)hkλ ± 1, J 0 µ|JM iT (k, λ)|a0 J 0 µi (5.90) µ,λ 142 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA possiamo ora mettere in relazione i termini delle tre sommatorie con µ = M 0 e λ = q, e portare il primo termine del lato destro a sinistra; otteniamo p p (J ± M )(J ∓ M + 1)hkq, J 0 M 0 |JM ∓ 1i − (J 0 ∓ M 0 )(J 0 ± M 0 + 1)hkq, J 0 M 0 ± 1|JM i = p (k ∓ q)(k ± q + 1)hkq ± 1, J 0 M |JM i = (5.91) La (5.5.6) è una relazione ricorsiva per i coefficienti CG del tutto identica formalmente alla (5.87). Ne segue che la dipendenza dai numeri quantici secondari degli elementi di matrice deve essere la medesima,e tutta contenuta nella dipendenza dei coefficienti CG da questi numeri quantici: ne deriva perció che il teorema enunciato dalla (5.84) è vero. In letteratura il teorema di Wigner -Eckart può √ essere trovato in varie forme; per convenzione nel seguito includiamo un fattore 2J + 1 nell’elemento di matrice ridotto e scriviamo à haJM |T (k, q)|a0 J 0 M 0 i 5.5.7 J−M = (−1) k J0 q M0 J −M ! haJkT k ka0 J 0 i (5.92) Prodotti di tensori sferici Un’operazione di moltiplicazione o contrazione tra due tensori sferici permette di generare nuovi tensori sferici. In pratica possiamo definire il tensore T( l) come risultante dalla contrazione dei tensori A(l1 ) , B(l2 ) : T (l, q) = X hl1 q1 l2 q2 |lqiA(l1 , q1 )B(l2 , q2 ) ≡ [A(l1 ) ⊗ B(l2 ) ](l) q (5.93) q1 Possiamo verificare facilmente che le componenti T (l, q) formano un tensore sferico di rango l applicando una trasformazione rotazionale: R̂T (l, q)R̂ −1 = X hl1 q1 l2 q2 |lqiR̂A(l1 , q1 )R̂ −1 R̂B(l2 , q2 )R̂ −1 q1 = X q1 ,q10 ,q20 hl1 q1 l2 q2 |lqiDql10 q1 Dql20 q2 A(l1 , q10 )B(l2 , q20 ) 1 X = 0 l0 ,q1 ,q10 ,q20 = X q10 ,q20 = X 2 hl1 q1 l2 q2 |lqihl1 q1 l2 q2 |l0 qihl1 q10 l20 q2 |l0 q 0 iDql 0 +q0 q1 +q2 A(l1 , q10 )B(l2 , q20 ) 1 2 Dql 0 +q0 q1 +q2 hl1 q10 l2 q20 |lq 0 iA(l1 , q10 )B(l2 , q20 ) 1 (5.94) 2 Dql 0 q hl1 q10 l2 q20 |lq 0 iA(l1 , q10 )B(l2 , q20 ) = q0 X Dql 0 q T (l, q 0 ) q0 dove sono state risommate le matrici di Wigner con la serie di Clebsch-Gordan. Molte relazioni di uso comune nel trattamento teorico di termini spettrali, valutazione di elementi di matrice di hamiltoniani magnetici etc. trovano il loro fondamento nell’operazione di contrazione. Di particolare interesse è la contrazione di due tesnori di ugual rango per dare uno scalare, come si può verificare da una semplice proprietà dei coefficienti CG 0 (0) [A(k) ⊗B(k ) ]0 = X hkq, k 0 q 0 |00iA(k, q)B(k 0 , q 0 ) = (2k+1)−1/2 (−1)k−q A(k, q)B(k 0 , −q 0 )δk,k0 (5.95) q q L’operatore scalare generico X (0) [A(k) ⊗B(k) ]0 è proporzionale al prodotto interno A(k) ·B(k) , per definizione: (0) A(k) · B(k) = (01)k (2k + 1)1/2 [A(k) ⊗ B(k) ]0 (5.96) 5.5. APPROFONDIMENTO: MOMENTI ANGOLARI 5.5.8 143 Elementi di matrice di prodotti Infine, possiamo mettere insieme tutte i formalismi finora definiti e ricavare espressioni generali per il calcolo di elementi di matrice di operatori tensoriali che siano a loro volta prodotti di tensori. Consideriamo due spazi 1 e 2 rispetto ai quali siano definibili gli stati |j1 m1 i e |j2 m2 i, da cui è possibile come sempre costruire sia la base disaccoppiata |j1 m1 , j2 m2 i che quella accoppiata |j1 j2 jmi; definiamo poi due operatori tensoriali A(k1 ) e B(k2 ) agenti sullo spazio 1 e sullo 2 rispettivamente, insieme all’operatore contratto T(k) = [A(k1 ) ⊗ B(k2 ) ](k) . In pratica: |j1 j2 jmi = X à (−1) j1 −j2 +m 1/2 (2j + 1) m1 ,m2 T (k, q) = X (−1) à k1 −k2 +q (2k + 1) 1/2 q1 ,q2 j1 j2 j m1 m2 −m k1 k2 k q1 q2 −q ! |j1 m1 , j2 m2 i (5.97) ! A(k1 , q1 )B(k2 , q2 ) (5.98) Vogliamo ora valutare l’elemento di matrice haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i. Iniziamo applicando direttamente il teorema di Wigner-Eckart à haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i j−m = (−1) j k j0 −m q m0 ! haj1 j2 jkT k ka0 j10 j20 j 0 i (5.99) Possiamo anche procedere combinando (5.97) e (5.98), applicando il teorema di Wigner-Eckart separatamente negli spazi 1 e 2; un po’ laboriosamente otteniamo X haj1 j2 jm|T (k, q)|a0 j10 j20 j 0 m0 i = 0 0 0 (−1)k1 −k2 +q+j1 −j2 +m+j1 −j2 +m a00 ,m1 ,m2 ,m01 ,m02 ,q1 ,q2 × [(2j + 1)(2j 0 + 1)(2k + 1)]1/2 Ã × j1 j2 j m1 m2 −m !à à j1 −m1 +j2 −m2 × (−1) j10 j20 j0 m01 m02 −m0 j1 k1 j10 −m1 q1 m01 !à !à k1 k2 k q1 q2 −q j2 k2 j20 −m2 q2 m02 ! ! (5.100) × haj1 kAk1 ka00 j10 iha00 j2 kB k1 ka0 j20 i A questo punto possiamo uguagliare i due lati Ãdestri delle equazioni (5.99) e (5.100), moltiplicare ! 0 j k j l’equazione risultante per il simbolo 3-j (−1)j−m e sommare rispetto a m, m0 e q. Si −m q m0 ottiene in questo modo un’espressione esplicita per l’elemento di matrice ridotto haj1 j2 jkT k ka0 j10 j20 j 0 i, che non trascriviamo, come una somma pesata di prodotti di sei simboli 3-j, che può essere ricondotta ad un simbolo 9-j: j1 0 1/2 k 0 0 0 0 haj1 j2 jkT ka j1 j2 j i = [(2j +1)(2j +1)(2k+1)] j2 j j10 j20 j0 k1 X haj1 kAk1 ka00 j10 iha00 j2 kB k1 ka0 j20 i(5.101) k2 a00 k Di uso molto comune è l’espressione completa dell’elemento di matrice del prodotto interno A(k) · B(k) : ( haj1 j2 jm|A (k) ·B (k) |a0 j10 j20 j 0 m0 i = δjj 0 δmm0 (−1) j10 +j2 +j j1 j20 j2 j10 j k ) X a00 haj1 kAk ka00 j10 iha00 j2 kB k ka0 j20 i(5.102) 144 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA dove il simbolo 9-j è stato declassato ad un simbolo 6-j grazie alla forma scalare dell’operatore. Infine, si può notare come sia possibile, in modo sostanzialmente analogo, ricavare un’espressione analoga alla (5.101) per l’elemento di matrice ridotto di un operatore T(k) = [A(k1 ) ⊗ B(k2 ) ](k) , formato da due operatore che agiscano sullo stesso spazio, rispetto al quale sono definiti gli stati |ajmi senza poterli decomporre in sottospazi separati, à 0 0 0 hajm|T (k, q)|a j m i = hajkT k ka0 j 0 i = j−m (−1) 0 j −m k q j0 m0 (−1)k+j+j (2k + 1)1/2 ! X a00 j 00 5.6 hajkT k ka0 j 0 i ( k1 j0 k2 j k j 00 (5.103) ) haj1 kAk1 ka00 j 00 iha00 j 00 kB k1 ka0 j 0 i(5.104) L’equazione di Schrödinger: insieme di punti materiali Nel seguito sarà data un’introduzione schematica alle metodiche di calcolo più comuni per la determinazione di funzioni d’onda elettroniche. Le tecniche di calcolo quanto-meccanico permettono la previsione ed ottimizzazione di geometrie molecolari e lo studio di proprietà molecolari (momento di dipolo, polarizzabilità, densità elettronica etc.) a partire dalla definizione dell’operatore hamiltoniano di una data specie chimica, e dalla soluzione numerica dell’equazione di Schrödinger corrispondente. Tradizionalmente, le tecniche di calcolo vengono classificate in • metodi ab initio: calcoli autoconsistenti di Hartree-Fock (HF), interazione di configurazione (CI); l’equazione di Schrödinger viene risolta in modo ‘esatto’ (mediante un’espansione della funzione d’onda su una base di funzioni note, o mediante l’applicazione di tecniche perturbative); • metodi semiempirici: metodi di Hückel, Hückel esteso, PPP, i vari metodi NDO (neglect of differential overlap); varie approssimazioni e parametrizzazioni sono introdotte per semplificare gli integrale numerici a uno, due o più elettroni che sono definiti nell’approccio esatto. I metodi ab initio consentono una buona definizione del problema quantomeccanico, essendo basati fondamentalmente sull’hamiltoniano esatto del sistema molecolare, e dunque in principio definito solo da informazioni sulla struttura della molecola e di costanti fondamentali. La dimensione del problema di algebra lineare (diagonalizzazione di matrice) correlato ad un calcolo ab initio per un sistema molecolare di N elettroni cresce almeno come N 2 : molecole di media complessità possono già costituire un serio problema computazionale. D’altra parte, i metodi semiempirici sono in grado di trattare in modo veloce ed efficiente anche il calcolo delle strutture di equilibrio di molecole organiche di notevole complessità. Non sempre però l’hamiltoniano approssimato è definito in modo chiaro, nè la parametrizzazione degli integrali elettronici scelta per un determinato metodo semiempirico, in modo da ottimizzarne i risultati per determinate classi di molecole, consente di ottenere buoni risultati in diverse condizioni o per altre classi di sistemi molecolari. cui siano associate le masse inerziali mi (i = 1, . . . , N ). La descrizione del comportamento nello spazio e nel tempo dell’insieme di punti è data in meccanica quantistica tramite la funzione d’onda Ψ({~ri }, t), definita mediante l’equazione di Schrödinger dipendente dal tempo: − h̄ ∂ Ψ({~ri }, t) = HΨ({~ri }, t) i ∂t (5.105) 5.6. L’EQUAZIONE DI SCHRÖDINGER: INSIEME DI PUNTI MATERIALI 145 HOMO del pirrolo calcolato con il metodo Extended Hückel (isosuperficie a 0.06 unità atomiche). dove H è l’operatore di Hamilton o hamiltoniano, definito come la somma dell’operatore di energia cinetica T e dell’energia potenziale H = T + V ({~ri }) dove T = N X p~2i i=1 2mi (5.106) L’operatore momento lineare p~i per la particella i-esima è definito come p~i = h̄ ∂ i ∂~ri (5.107) e dunque l’operatore energia cinetica può essere scritto anche nella forma T =− 2 N h̄2 X 1 ˆ2 ∇ 2 i=1 mi i (5.108) ˆ i è l’operatore di Laplace relativo alla particella i-esima. La funzione d’onda è definita quando dove ∇ siano stabilite delle condizioni iniziali, ovvero lo stato del sistema al tempo t = 0 e le condizioni al contorno, ovvero l’integrabilità della funzione d’onda. La soluzione formale dell’equazione di Schrödinger é data nella forma: µ ¶ iHt Ψ({~ri }, t) = exp − Ψ({~ri }, 0) (5.109) h̄ 146 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA con la condizione di integrabilità Z hΨ|Ψi = d~rΨ({~ri }, t)∗ Ψ({~ri }, t) = 1 (5.110) dove d~r = d~r1 d~r2 . . . d~rN . La funzione d’onda generica è ottenibile come un’espansione rispetto alle autofunzioni dell’hamiltoniano Ψ({~ri }, t) = X exp(−iEn t/h̄)Ψn ({~ri })hΨn ({~ri })|Ψ({~ri }, , 0)i (5.111) n HΨn ({~ri }) = En Ψn ({~ri }) (5.112) L’equazione (5.112) è l’equazione di Schrödinger indipendente dal tempo. Esempio 35. Consideriamo, per fissare le idee, il caso di un sistema di 2 particelle ~r1 e ~r2 , accoppiate da un potenziale V (|~r1 − ~r2 |) L’hamiltoniano è dato nella forma: H=− h̄2 ˆ 2 h̄2 ˆ 2 ∇1 − ∇ + V (|~r1 − ~r2 |) 2m1 2m2 2 L’hamiltoniano è separabile, ovvero è riducibile alla somma di due hamiltoniani non interagenti, introducendo un nuovo set di variabili, date dalla distanza relativa tra le due particelle ~r = ~r1 − ~r2 e dalla r2 2~ posizione del baricentro del sistema ~rc = m1m~r11 +m +m2 : 1 ˆ2 1 ˆ2 1 ˆ2 1 ˆ2 ∇1 + ∇2 = ∇ + ∇ m1 m2 µ M c m2 ˆ 2, ∇ ˆ 2c sono i laplaciani dove µ è la massa ridotta µ = mm11+m , M è la massa totale M = m1 + m2 e ∇ 2 rispetto a ~r e ~rc . L’hamiltoniano risulta separabile poichè si può scrivere come: H=− 5.7 h̄2 ˆ 2 h̄2 ˆ 2 ∇ + V (r) − ∇ 2µ 2M c Hamiltoniani atomici e molecolari La definizione dell’hamiltoniano completo di un sistema atomico o molecolare non è affatto un problema semplice. Trascurando termini di interazione con campi elettrici e magnetici, che sono peraltro di grande importanza per l’interpretazione di osservabili spettroscopici, ed ignorando correzioni di natura relativistica, restano da considerare in dettaglio i vari termini di interazione elettrostatiche e magnetiche dei nuclei e degli elettroni. Consideriamo prima di tutto alcuni hamiltoniani relativi a sistemi atomici e molecolari semplici: l’atomo H, l’atomo He e la molecola H+ 2 , limitandoci ad includere nell’energia potenziale i soli termini di interazione elettrostatica. ~ di massa L’atomo di idrogeno, H, è un sistema descritto da due particelle tridimensionali: il nucleo R mH e l’elettrone ~re di massa me L’hamiltoniano dell’atomo di idrogeno è dato come: H=− h̄2 ˆ 2 2e2 1 h̄2 ˆ 2 ∇e − ∇R − ~ − ~re | 2mH 2me 4π²0 |R (5.113) ~ I gradi di libertà complessivi del ˆ 2 indichiamo il laplaciano rispetto ai vettori ~re e R. ˆ2 e ∇ dove con ∇ e R sistema sono dunque 6. L’atomo di elio, He, è un sistema descritto da tre particelle tridimensionali (il 5.7. HAMILTONIANI ATOMICI E MOLECOLARI 147 e 1 |R - r | 1 He |r - r | 1 2 |R - r | 2 r 1 R e2 r 2 Figura 5.1: Sistema di riferimento e coordinate He nucleo e due elettroni). L’hamiltoniano dell’atomo di elio è dato come: h̄2 ˆ 2 h̄2 ˆ 2 ˆ 2 2e2 H=− ∇R − (∇1 + ∇2 ) − 2mHe 2me 4π²0 à 1 ~ − ~r1 | |R + ! 1 ~ − ~r2 | |R + e2 1 4π²0 |~r1 − ~r2 | (5.114) ˆ 2 indichiamo i laplaciani rispetto a ~r1 e ~r2 . I gradi di libertà complessivi del sistema sono dove con ∇ 1,2 dunque 9. In Fig. 1 viene riportato uno schema delle coordinate nell’ambito di un sistema di riferimento inerziale (di laboratorio). La molecola di idrogeno ionizzata, H+ 2 , è ancora un sistema descritto da tre particelle tridimensionali (due nuclei e un elettrone). L’hamiltoniano è dato come: 2 2 ´ h̄2 ³ ˆ 2 ˆ 2e − e ˆ 2B − h̄ ∇ H=− ∇A + ∇ 2mH 2me 4π²0 à 1 ~ A − ~re | |R + 1 ~ B − ~re | |R ! + 1 e2 ~B − R ~ A| 4π²0 |R (5.115) ~ A ed R ~ B indichiamo la posizione dei nuclei, con ~re quella dell’elettrone. I gradi di libertà dove con R complessivi del sistema sono sempre 9. Definiamo ora con un certo grado di generalità l’hamiltoniano, limitato ai soli termini di inter~ p (p = 1, . . . , M ) i vettori azione elettrostatica, per una molecola di M nuclei ed N elettroni. Siano R posizione dei nuclei e ~ri (i = 1, . . . , N ) i vettori posizione degli elettroni. L’hamiltoniano molecolare non-relativistico con i soli termini elettrostatici è allora scritto come: M,M N,N M,N M N h̄2 X e2 X 1 e2 X Zp 1 ˆ 2 h̄2 X e2 X Zp Zq 2 ˆ H=− ∇p − + − (5.116) ∇i + ~ ~ ~ 2 p=1 mp 2me i=1 4π²0 p<q |Rp − Rq | 4π²0 i<j |~ri − ~rj | 4π²0 p,i |Rp − ~ri | 148 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA È conveniente nel seguito introdurre un insieme di unità di misura ad hoc, dette unità atomiche, che permettano di definire grandezze fisiche riscalate in modo semplice. Nella Tabella 1 sono definite le principali unità atomiche: di particolare importanza sono l’unità di lunghezza, detta Bohr, e l’unità di energia, chiamata Hartree. Nel seguito si useranno sempre unità atomiche, se non verrà espressamente massa lunghezza mu lu momento angolare energia carica Lu Eu e me = 9.1091 × 10−31 Kg 2 0 h̄ a0 = 4π² = 0.52917 × 10−10 m me e2 h̄ = 4.16336 × 10−33 J s−1 e2 −18 J 4π²0 a0 = 4.359 × 10 e = 1.602 × 10−19 C Tabella 5.2: Unità atomiche indicato altrimenti. L’hamiltoniano molecolare elettrostatico in unità atomiche diventa: H=− M,N N M N X X X Zr 1 Zp Zq 1 ˆ2 1 X ˆ2 − ∇p − ∇ + + . i ~ ~p − R ~ q| 2mp 2 i=1 ri | i<j |~ri − ~rj | p<q |R p=1 p,i |Rp − ~ M X (5.117) Indichiamo per semplicità con gli indici i, j coordinate elettroniche, con gli indici p, q coordinate nucleari. Esempio 36. Vogliamo scrivere l’hamiltoniano molecolare per un sistema con nuclei a spin nullo, non-relativistico ed in assenza di interazioni con campi esterni. L’hamiltoniano molecolare si può descrivere in prima approssimazione come dato da tre termini principali H = H0 + HSO + HSS Il primo contributo è dato dall’operatore relativo all’energia cinetica + elettrostatica (5.117). Il secondo contributo corrisponde al termine di interazione spin-orbitale, vale a dire tra il momento di spin di ciascun elettrone e il moto spaziale dell’elettrone stesso HSO = −gβe2 X 1 i6=j 3 rij ˆ j + sj · rij × ∇ ˆ j) (2si · rij × ∇ Il terzo termine è riferito all’energia di interazione spin-spin X 1 1 2 HSS = − gβe2 5 [3(si · rij )(sj · rij ) − rij si · sj ] 2 r i,j ij Parecchi termini di interazione al secondo ordine sono stati trascurati nella definizione (5.7). I nuclei sono considerati come aventi momento di spin nullo. Nei calcoli di strutture elettroniche si considera di solito solo il primo termine. 5.8 Approssimazione di Born-Oppenheimer Il primo problema che ci poniamo è la possibilità di separazione tra le coordinate nucleari ed elettroniche. Fisicamente, la massa dei nuclei, molto maggiore rispetto a quella degli elettroni, ci consente di affermare che il moto dei primi avviene su una scala dei tempi molto più lenta rispetto al moto dei secondi. Ciò 5.8. APPROSSIMAZIONE DI BORN-OPPENHEIMER 149 equivale al fatto che, con buona approssimazione, le proprietà degli elettroni possono essere definite assumendo che lo ‘scheletro’ della molecola, formato dai nuclei, sia immobile. Fondamentalmente, questa è l’approssimazione di Born-Oppenheimer (BO). Consideriamo prima di tutto il problema della separazione del moto del centro di massa, che è conseguibile in modo esatto. È dato un sistema di N elettroni ed M nuclei. L’hamiltoniano molecolare è dato in (5.117). Definiamo il vettore baricentro N M X X ~ c = 1 me~ri + ~ p R mp R M i=1 p=1 (5.118) dove M è la massa totale del sistema; definiamo inoltre N coordinate vettoriali ~xi che specificano la posizione degli elettroni rispetto al baricentro dei soli nuclei ed infine 3M − 3 coordinate ’interne’ QI (con I = 1, . . . , 3M − 3) per i nuclei, che descrivono il moto rotazionale e vibrazionale della molecola e che si possono esprimere, per esempio [cfr. Appendice (C)] come combinazioni lineari delle coordinate vettoriali dei nuclei. In pratica siamo esattamente nelle condizioni descritte in Appendice (C) dove gli elettroni sono le particelle leggere e i nuclei le particelle pesanti. Usiamo le conclusioni che sono tratte in Appendice (C) per scrivere l’hamiltoniano nelle forma H = Hc + Hel + Hnu (5.119) dove l’hamiltoniano relativo al centro di massa è Hc = − 1 ˆ2 ∇ 2M c (5.120) l’hamiltoniano elettronico è Hel = − M,N N N M X X X X Zp 1X 1 Zp Zq ˆ 2i − 1 ˆi · ∇ ˆj + ∇ ∇ − + ~ ~p − R ~ q| 2 i 2M ij |~r − ~rj | ri | p<q |R p,i |Rp − ~ i<j i (5.121) ed infine il termine nucleare è Hnu = T nu (5.122) dove le coordinate vettoriali elettroniche sono definite relativamente al baricentro; la forma esatta dell’energia cinetica nucleare T nu dipende dalla scelta delle coordinate interne QI nucleari; le com~ p − ~ri etc. sono funzioni di dette coordinate interne e dei vettori ~xi . Indichiamo ponenti dei vettori R ˆ i il gradiente relativo a ~xi e cosı́ via. Il primo contributo Hc è relativo al moto traslazionale con ∇ del baricentro. Il secondo termine è dato dalla somma dell’energia cinetica elettronica, corretta con un termine dipendente dall’inverso della massa totale del sistema detto di polarizzazione di massa, e dell’energia potenziale elettroni-elettroni ed elettroni-nuclei. Il terzo termine descrive il moto nucleare roto-vibrazionale. Si noti che l’energia potenziale nucleare è stata inclusa nell’hamiltoniano elettronico, per convenzione. 150 5.9 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA Separazione delle coordinate elettroniche Nel seguito indichiamo con Q l’insieme di coordinate nucleari interne e con x l’insieme delle coordinate elettroniche. L’equazione di Schrödinger indipendente dal tempo per l’hamiltoniano elettroniconucleare, in cui d’ora in poi non includiamo il termine, separato, relativo al moto del baricentro, è scritta nella forma: HΞ(Q, x) = EΞ(Q, x) (5.123) dove Ξ(Q, x) è l’autofunzione roto-vibro-elettronica della molecola con energia E. Definiamo l’insieme di autofunzioni del solo hamiltoniano elettronico Hel Ψ(Q|x) = ²n (Q)Ψ(Q|x) (5.124) che dipendono parametricamente dalle coordinate nucleari Q, con autovalori ²n (Q). Le autofunzioni Ψn costituiscono una base ortonormale per lo spazio di Hilbert in x. Il seguente sviluppo è perciò del tutto generale: Ξ(Q, x) = X Φn (Q)Ψn (Q|x) (5.125) n Sostituendo le equazioni (5.124) e (5.125) nella (5.123), si ottiene: X [Enel (Q) + T nu − E]Φn (Q)Ψn (Q|x) = 0 (5.126) n pre-moltiplicando per il bra hΨm (Q|r)| si trova l’espressione el [Em (Q) − E]Φm (Q) + X hΨm |T nu |Ψn iΦn (Q) = 0 (5.127) n che fornisce un sistema di equazioni per determinare le funzioni incognite Φn (Q). Si noti che l’integrazione hldotsi è rispetto a x. Sinora non è stata fatta alcuna approssimazione, e l’equazione (5.127) è equivalente all’equazione di Schrödinger di partenza. Si danno ora varie possibilità. Dal punto di vista fisico è lecito attendersi che ad ogni significativo cambiamento della configurazione nucleare gli elettroni vadano incontro ad un rapido riaggiustamento, in una scala dei tempi molto più veloce di quella tipica dei moti nucleari a causa della grande differenza di massa. È quindi ragionevole attendersi che la dipendenza parametrica delle funzioni d’onda elettroniche Ψn (Q|x) sia ’debole’, ed addirittura trascurabile in prima approssimazione. L’approssimazione di Born-Oppenheimer consiste nel trascurare completamente questa dipendenza, cosicchè il valor medio (in generale un’operatore agente sulle coordinate nucleari) che compare nel secondo termine della (5.127) diventa: B.O. hΨm |T nu |Ψn i = hΨm |Ψn iT nu = T nu δm,n (5.128) La funzione d’onda per la parte nucleare nell’approssimazione BO è data quindi come: el [Em (Q) + T nu ]Φm (Q) = EΦm (Q) (5.129) • L’equazione (5.124) è alla base dell’interpretazione delle osservazioni sperimentali basate sulla spettroscopia elettronica (UV, visibile); 5.10. LA MOLECOLA DI IDROGENO IONIZZATA: HAMILTONIANO ELETTRONICO 151 • l’equazione (5.129) è utilizzata per la comprensione delle osservazioni sperimentali basate sulla spettroscopia vibrazionale (IR); • l’approssimazione di Born-Oppenheimer non può essere impiegata per interpretare quei fenomeni chimico-fisici in cui vi siano interazioni forti fra elettroni e nuclei (es. scattering elettronico), o quando in generale non sia lecito considerare la funzione d’onda elettronica come debolmente dipendente dalle coordinate nucleari. 5.10 La molecola di idrogeno ionizzata: Hamiltoniano elettronico Considereremo in questa sezione il sistema molecolare H+ 2 . Seguiamo le considerazioni generali svolte nella sezione precedente, separando il baricentro, applicando l’approssimazione di Born-Oppenheimer, trascurando i termini di polarizzazione di massa nell’hamiltoniano elettronico, definendo appropriate coordinate interne nucleari - che possiamo scegliere in modo conveniente come R, θ and φ dove R è ~A − R ~ B |, θ e φ le coordinate polari del vettore R ~A − R ~ B . L’hamiltoniano la distanza internucleare |R elettronico è perciò 1 1 1 1 ˆ2 − − + Hel = − ∇ 2 rA rB R dove rA = p r2 + (z + R/2)2 e rB = (5.130) p r2 + (z − R/2)2 [cfr. Fig. (5.2)]. Gli autostati e i livelli e2 A rA +R/2 rB z y e1 -R/2 x B e3 Figura 5.2: Sistema di riferimento e coordinate H+ 2 energetici della molecola di idrogeno ionizzata saranno in generale funzioni parametriche di R. Per R → 0 la molecola diviene l’atomo di elio ionizzato, ed i suoi orbitali e stati energetici sono quelli di 152 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA un atomo idrogenoide con Z = 2. Per R → ∞ la molecola diviene equivalente alla coppia H + + H. Scriviamo l’equazione di Schrödinger nella forma µ 1 ˆ2 1 1 − ∇ − − 2 rA rB ¶ Ψ = EΨ (5.131) L’energia di un autostato elettronico è data in funzione dell’autovalore E come E el = E + 1 R (5.132) Introduciamo le coordinate ellissoidali µ, ν e l’angolo azimutale φ relativo alla rotazione intorno all’asse internucleare; valgono le relazioni dirette ed inverse: µ ν x y z = rA + rB /R = rA − rB /R p 2 = (µ − 1)(1 − ν 2 )/R cos φ p = (µ2 − 1)(1 − ν 2 )/R sin φ = µνR/2 (5.133) con µ ≥ 1, −1 ≤ ν ≤ 1; µ descrive gli ellissoidi di rivoluzione aventi come fuochi i nuclei, mentre ν descrive gli iperboloidi confocali di rivoluzione [cfr. Fig. (5.3)]. Il laplaciano può essere espresso in ν µ 00 11 00 11 00111111111111111111 11 111 000 000000000000000000 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 000 111 000000000000000000 111111111111111111 A111 000 0000000000000000001 111111111111111111 11111111111111111111 00000000000000000000 0 1 0 0 1 0 1 B Figura 5.3: Coordinate ellissoidali H+ 2 queste coordinate nella forma: ∂ 2 ∂ ∂ ∂ ∂ 4 (µ2 − ν 2 ) 2 ∂ ˆ = ∇ (µ − 1) + (1 − ν ) + 2 2 2 2 2 R (µ − ν ) ∂µ ∂µ ∂ν ∂ν ∂φ (µ − 1)(1 − ν ) ∂φ 2 (5.134) 5.10. LA MOLECOLA DI IDROGENO IONIZZATA: HAMILTONIANO ELETTRONICO 153 Sostituendo nell’equazione di Schrödinger, si ottiene un’equazione differenziale separabile, cioè ponendo Ψ(µ, ν, φ) = M (µ)N (ν)F (φ) (5.135) si trovano le tre equazioni separate: λ2 (µ2 − 1) − ²µ2 + 2Rµ − 2 + κ M (µ) = 0 ν −1 dµ dµ d d λ2 (1 − ν 2 ) − κ N (ν) = 0 + ²ν 2 + 1 − ν2 dν dν d (5.136) d2 dφ2 d (5.137) + λ2 F (φ) = 0 (5.138) λ e κ sono costanti di separazione, mentre ² = −R2 E/2. In particolare, λ è il numero quantico associato con la componente del momento angolare elettronico lungo l’asse internucleare, ed assume i valori 0, ±1, ±2, . . .. L’autovalore E dipende da λ2 , ovvero è presente una doppia degenerazione Figura 5.4: I primi due livelli energetici della molecola di H+ 2 [E. Teller, Z. Physik, 61, 474 (1930)] dovuta all’equivalenza delle due direzioni di rotazione attorno all’asse. I valori permessi di κ e ² sono determinabili numericamente. In generale i vari stati, doppiamente degeneri, di H+ 2 sono simboleggiati da una notazione del tipo nlαu,g dove: n ed l sono riferiti ai numeri quantici dell’orbitale atomico idrogenoide, cfr. Appendice (B), cui l’orbitale molecolare tende per R → 0; α è un una lettera greca σ, π, δ, φ, . . . corrispondente a |λ| = 0, 1, 2, 3, . . .; u o g corrispondono alla simmetria dell’orbitale molecolare rispetto all’operazione di inversione rispetto al punto centrale tra i nuclei - si può dimostrare che l’orbitale molecolare cambia di segno (u) o resta invariato (g) rispetto questa operazione di simmetria. 154 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA MMMMOOOOLLLLDDDDEEEENNNN MMMOOOLLLDDDEEENNN defaults used Edge = 2.40 Contour 3D Psi = 1 CONTOUR VALUE 1 2 3 4 5 6 7 8 9 10 11 12 13 0.12500 0.15000 0.17500 0.20000 0.22500 0.25000 0.27500 0.30000 0.32500 0.35000 0.37500 0.40000 0.42500 Figura 5.5: Superficie che rappresenta l’orbitale 1sσg in un piano molecolare 5.11 Hamiltoniano nucleare Possiamo scrivere l’hamiltoniano risultante dall’approssimazione di Born-Oppenheimer nella seguente forma, in cui il laplaciano è espresso in coordinate rotazionali: − ∂ ∂ 1 R2 − L2 + E el (R) Φ(R, θ, φ) = EΦ(R, θ, φ) mH R2 ∂R ∂R (5.139) dove L è l’operatore di momento angolare del sistema nucleare. Le coordinate angolari sono separabili e dunque la funzione d’onda è fattorizzata in una parte radiale (vibrazionale), ed in una parte rotazionale: Φ(R, θ, φ) = S(R)YJK (θ, φ) (5.140) dove YJK è la generica armonica sferica L2 YJK (θ, φ) = J(J + 1)YJK (θ, φ) (5.141) 5.11. HAMILTONIANO NUCLEARE 155 MMMMOOOOLLLLDDDDEEEENNNN MMMOOOLLLDDDEEENNN defaults used Edge = 2.40 Contour 3D Psi = 2 CONTOUR VALUE 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 ............ 0.00000 0.02500 0.05000 0.07500 0.10000 0.12500 0.15000 0.17500 0.20000 0.22500 0.25000 0.27500 0.30000 0.32500 0.35000 -0.02500 -0.05000 -0.07500 -0.10000 -0.12500 -0.15000 -0.17500 -0.20000 -0.22500 -0.25000 Figura 5.6: Superficie che rappresenta l’orbitale 2pσu in un piano molecolare dove L2 = −M2 in unità atomiche e la parte radiale è data dall’equazione d d R2 + mR2 [E − E el (R)] − J(J + 1) S(R) = 0 dR dR (5.142) che può essere risolta per via numerica od anche analitica, se si assume una particolare forma funzionale per E el (R) che ne approssimi l’andamento. Consideriamo per esempio lo stato elettronico 1sσg ed approssimiamolo con un potenziale di Morse E el (R) = D{1 − exp[−β(R − Re )]} (5.143) dove D, β ed Re sono costanti opportune. I livelli energetici rotovibrazionali sono calcolabili in modo esatto e risultano essere: µ E = a0 n + 1 2 ¶ µ − a1 n + 1 2 ¶2 µ + b0 J(J + 1) − b1 J 2 (J + 1)2 − c n + ¶ 1 J(J + 1) 2 (5.144) 156 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA dove Il primo termine ha la forma di un oscillatore armonico, il secondo è una correzione anarmonica, il terzo un contributo di tipo rotatore rigido, il quarto la correzione di moto centrifugo, il quinto l’accoppiamento tra moto vibrazionale (numero quantico n) e rotazionale (numero quantico J). 5.12 Soluzione approssimata della struttura elettronica Come vedremo nelle sezioni successive, lo studio di sistemi a molti elettroni dovrà tenere presente gli stati di spin e sarà necessario rispettare il principio di esclusione di Pauli per descrivere la natura fermionica degli elettroni. Nel caso della molecola di idrogeno ionizzata possiamo però adottare un approccio semplice dato che un solo elettrone è presente nel sistema. Seguiamo la metodogia illustrata nell’Appendice (D) ed introduciamo una base di sole due funzioni, 1sA (~r) e 1sB (~r), rispettivamente il primo orbitale idrogenoide centrato sul nucleo A ed il primo orbitale idrogenoide centrato sul nucleo B. Il calcolo della matrice rappresentativa dell’hamiltoniano (5.130) e della matrice di overlap portano alla semplice equazione secolare ¯ ¯ a + 1/R − E ¯ ¯ ¯ b + s/R − ES b + s/R − Es a + 1/R − E ¯ ¯ ¯ ¯=0 ¯ (5.145) dove a è l’elemento di matrice dell’hamiltoniano elettronico a meno del termine 1/R rispetto a 1sA (~r), b è l’elemento di matrice dell’hamiltoniano elettronico a meno del termine 1/R rispetto a 1sB (~r), s è l’elemento di matrice di overlap tra le due funzioni, che sono normalizzate ma non ortogonali: −2R a = − 12 + e−2R + e R −1 < 0 −R b = − 2s + ´< 0 ³ e (1 + R) 2 R s = e−R 1 + R + 3 > 0 (5.146) Risolvendo si trovano le seguenti espressioni for i due autovalori E1 < E2 e relativi autostati Stato fondamentale E1 = 1 a+b + 1+s R 1 (1sA + 1sB ) 2(1 + s) (5.147) 1 (1sA − 1sB ) 2(1 + s) (5.148) Ψ1 = p Stato eccitato E2 = a−b 1 + 1−s R Ψ1 = p La scelta della base utilizzata per il calcolo approssimato dei primi due stati elettronici della molecola di idrogeno ionizzata è stata effettuata in base al comportamento al limite di R → ∞ della molecola, cioè assumendo che sostanzialmente gli orbitali molecolari siano ottenibili come combinazioni lineari degli orbitali atomici idrogenoidi centrati sui nuclei (metodo LCAO, Linear Combination of Atomic Orbitals). 5.13 Stati di spin Ad ogni particella è associato un momento di spin. La definizione completa dello coordinate di una particella deve includere dunque anche la descrizione del suo stato di spin. La giustificazione formale 5.14. PRINCIPIO DI INDISTINGUIBILITÀ 157 delle proprietà di spin richiede una formulazione della meccanica quantistica in modo che sia consistente con la teoria della relatività ristretta. Il problema, affrontato da P.A.M. Dirac, conduce alla definizione in modo non arbitrario di una proprietà assimilabile ad un momento angolare, che è descritta dall’operatore ~ Le componenti dell’operatore di spin (Sx , Sy , Sz ) obbediscono alle consuete regole (vettoriale) di spin S. di commutazione delle componenti di un operatore momento angolare generico: [Sx , Sy ] [Sz , Sx ] [Sy , Sz ] [S 2 , Sx ] = iSz = iSy = iSx 2 = [S , Sy ] = [S 2 , Sz ] = 0 (5.149) Le autofunzioni dell’operatore di momento di spin sono ottenibili come: S 2 |S, MS i = S(S + 1)|S, MS i Sz |S, MS i = MS |S, MS i (5.150) con −S ≤ MS ≤ S Le autofunzioni dell’operatore di spin sono ortonormali. Per esempio, Per S = 1/2 sono permessi i valori MS = ±1/2 : MS = +1/2 MS = −1/2 |αi = |1/2, +1/2i |βi = |1/2, −1/2i (5.151) Le pseudo-coordinate di una particella avente spin S = 1/2 saranno quindi completamente definite solo dopo aver specificato le coordinate spaziali (x, y, z) e il numero quantico di spin MS che può essere 1/2 (stato α) o −1/2 (stato β). 5.14 Principio di indistinguibilità Se una proprietà misurabile dipende dalle coordinate di un’insieme di particelle indistinguibili, ogni misura di detta proprietà deve essere indifferente al tipo di classificazione delle particelle. Consideriamo per semplicità il caso di due sole particelle indistinguibili il cui stato sia descritto da una determinata funzione d’onda Ψ. Se definiamo: • la probabilità di trovare 1 in q1 e 2 in q2 : |Ψ[q1 (1), q2 (2)]|2 dq1 dq2 ; • la probabilità di trovare 1 in q2 e 2 in q1 : |Ψ[q2 (1), q1 (2)]|2 dq1 dq2 ; ne consegue che le due probabilità devono essere uguali: |Ψ[q1 (1), q2 (2)]|2 = |Ψ[q2 (1), q1 (2)]|2 (5.152) Quindi, poiche’ si puo’ sempre scegliere una funzione d’onda in modo che sia reale (almeno in assenza di campi vettoriali, come un campo magnetico esterno), la funzione d’onda può solo cambiare di segno quando le coordinate delle due particelle siano scambiate fra loro: Ψ[q1 (1), q2 (2)] = ±Ψ[q2 (1), q1 (2)] In generale, vale la seguente classificazione: (5.153) 158 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA • Tutte le particelle con momenti di spin multipli dispari di 1/2 sono descritti da funzioni d’onda antisimmetriche; p. es.: elettrone, protone, neutrone, 32 He2+ (e i nuclei a numero di massa dispari). Tali particelle sono dette FERMIONI e seguono la statistica di Fermi-Dirac. • Tutte le particelle con momenti di spin multipli pari di 1/2 sono descritti da funzioni d’onda simmetriche; p. es.: fotone (S = 1), deuterone (S = 1), 42 He2+ (e i nuclei a numero di massa pari). Tali particelle sono dette BOSONI e seguono la statistica di Bose-Einstein. Gli elettroni sono fermioni con S = 1/2 e di conseguenza la funzione d’onda elettronica di una molecola deve essere una funzione antisimmetrica rispetto allo scambio di coordinate tra due elettroni qualunque (principio di Pauli). In generale data una collezione di bosoni indistinguibili rappresentata dalla funzione d’onda Ψbosoni , se si definisce con P un generico operatore di permutazione (che opera un certo numero di scambi tra le coordinate delle particelle, argomenti della funzione d’onda), vale che PΨbosoni = Ψbosoni (5.154) cioè la funzione d’onda non cambia. Se è data invece una collezione di fermioni indistinguibili, con funzione d’onda Ψfermioni , gli scambi di coordinate portano ad un possibile cambio di segno della funzione d’onda: PΨfermioni = (−)P Ψfermioni (5.155) dove (−1)P indica la parità della permutazione P. 5.15 Determinanti di Slater È data una base completa ortonormale di funzioni delle coordinate spaziali di un elettrone φj (~r), detti anche orbitali. Le proprietà di spin dell’elettrone sono descritte dalla base |mi, con m = ±1/2. Il prodotto diretto della base di orbitali e di stati spin costituisce una base completa per l’elettrone, che definiamo spin-orbitali. Un generico spin-orbitale è Sk (q) = φj (~r)|mi dove k indica la coppia j, m e q indica le pseudo-coordinate (spaziali e di spin) dell’elettrone. La base di spinorbitali è ortonormale: Z [Sk |Sk0 ] = dqSk (q)∗ Sk0 (q) = hφj |φj 0 ihm|m0 i = δj,j 0 δm,m0 = δk,k0 (5.156) dove indichiamo con [. . .] l’integrazione in q. Una funzione d’onda elettronica è perciò sempre rappresentabile come una combinazione lineare di spin-orbitali: Ψ= X ck Sk (q) (5.157) k In un sistema multi-elettronico, sia Sk (n) un generico spin orbitale relativo all’elettrone n, cioè avente come argomento le pseudo-coordinate qn . Una funzione di N elettroni può essere scritta come il prodotto delle N funzioni spin-orbitaliche: ΨHartree = N Y k=1 Sk (k) (5.158) 5.15. DETERMINANTI DI SLATER 159 La funzione precedente è chiamata prodotto di Hartree e non può rappresentare un insieme di fermioni, poichè non verifica la (5.155). La costruzione di una funzione d’onda a N elettroni, simmetrizzata, si può ottenere sotto forma di determinante di una matrice di funzioni N × N : ¯ ¯ ¯ S1 (1) S2 (1) . . . SN (1) ¯ 1 ¯¯ S1 (2) S2 (2) . . . SN (2) Ψ= √ ¯ ... ... ... N ! ¯¯ . . . ¯ ¯ S1 (N ) S2 (N ) . . . SN (N ) ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ (5.159) La funzione d’onda è detta determinante di Slater. La proprietà (5.155) è infatti verificata osservando che dalla definizione di determinante risulta: 1 X Ψ= √ (−1)P PΨHartree (5.160) N! P Esempio 37. Verifichiamo che la funzione d’onda soddisfi la (5.155). Le permutazioni costituiscono un gruppo, quindi date due permutazioni P0 e P, P0 P è un’altra permutazione e la sua parità è (−1)P0 +P = (−1)P0 (−1)P . Quindi: X 1 X 0 P0 Ψ = √ (−1)P P0 PΨHartree = (−1)P0 (−1)P P 0 ΨHartree = (−1)P0 Ψ N! P P0 Il principio di esclusione di Pauli è implicito nella definizione della funzione d’onda multielettronica det Ψ, poichè questa vale zero se 2 elettroni sono rappresentati dallo stesso spin-orbitale (infatti un determinante con due colonne uguali è zero) e cambia di segno se due elettroni scambiano la loro posizione (infatti un determinante cambia di segno se si scambiano due righe). In letteratura sono utilizzate di frequente le notazioni alternative: • Ψ ≡ |S1 S2 . . . SN | • φi (j) ≡ φi (j)α(j) • φi (j) ≡ φi (j)β(j). Una configurazione in cui gli elettroni hanno tutti gli spin accoppiati deve essere necessariamente una autofunzione di S 2 con spin 0 (singoletto) S 2Ψ = 0 (5.161) e può essere scritta a partire da N funzioni d’onda monoelettronica sotto forma del seguente determinante di Slater: Ψ = |φ1 φ1 φ2 φ2 . . . φN −1 φN −1 φN φN | (5.162) Il determinante di Slater è ottenuto dal prodotto di Hartree applicando l’operatore di anti-simmetria: Ψ = AΨHartree (5.163) dove 1 X (−1)P P A= √ N! P (5.164) Nel seguito di questa sezione, consideriamo alcune proprietà degli operatori permutazione, dell’operatore A e dei determinanti di Slater, che ci saranno utili nel seguito. 160 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA P è unitario. Ovvero P † = P −1 . Rappresentiamo con q l’insieme delle coordinate elettroniche. Applicando P ad una generica funzione multielettronica Ψ(q), sostituiamo a q un set di coordinate scambiate: PΨ(q) = Ψ(q0 ) (5.165) Vale anche, per definizione, che Ψ(q) = P −1 Ψ(q0 ) (5.166) Se consideriamo ora la definizione di aggiunto di P, si ha che hPΨq (q)|Ψ2 (q)i = hΨ1 (q)|P † |Ψ2 (q)i (5.167) ed applicando (5.165) al ket e (5.166) al bra del primo membro si ha hPΨq (q)|Ψ2 (q)i = hΨq (q)|P −1 |Ψ2 (q)i (5.168) quindi P † = P −1 . A è hermitiano. Infatti: 1 X 1 X 1 X A† = √ (−1)P P † = √ (−1)P P −1 = √ (−1)−P P −1 = A N! P N! P N ! −P (5.169) A2 è proporzionale a A. Sviluppando il quadrato si ottiene: A2 = i = X 1 X 1 XX (−1)Pi Pi (−1)Pj Pj = (−1)Pi +Pj Pi Pj N! P N ! P P P j i j √ 1 X (−1)pk Pk = N !A N! P (5.170) k Commutazione. Dato un’operatore O simmetrico rispetto ad uno scambio di coordinate, vale naturalmente che [O, P] = 0 → [O, A] = 0 (5.171) Ortonormalità. I determinanti di Slater sono ortonormali. infatti: hΨ|Ψ0 i = hAΨHartree |AΨ0Hartree i = hΨHartree |A2 |Ψ0Hartree i = √ N !hΨHartree |A|Ψ0Hartree i (5.172) da cui segue che hΨ|Ψ0 i = hΨHartree | P P 0 P (−1) P|ΨHartree i = hΨHartree |Ψ0Hartree i = δΨ,Ψ0 (5.173) 5.16. METODO DI HARTREE-FOCK 161 Invarianza. I determinanti di Slater sono invarianti rispetto ad una trasformazione unitaria degli spinorbitali. Sia U una matrice N ×N unitaria, tale cioè che U† = U−1 , il che implica | det U|2 = 1. Una trasformazione unitaria degli spinorbitali conserva l’ortonormalità Si0 = X Sj Uji → [Si0 |Si00 ] = X ∗ Uji Uj 0 i0 [Sj |Sj 0 ] = (U† U)ii0 = δi,i0 (5.174) j,j 0 j Se indichiamo con Ψ0 il determinante di Slater costruito con gli spinorbitali Si0 , abbiamo che ¯ ¯ 0 0 (1) ¯ S1 (1) S20 (1) . . . SN ¯ 0 (2) 1 ¯¯ S 0 (2) S20 (2) . . . SN Ψ0 = √ ¯ 1 ... ... ... N ! ¯¯ . . . ¯ 0 0 0 ¯ S1 (N ) S2 (N ) . . . SN (N ) ¯ ¯ ¯ ¯ ¯ ¯ S1 (1) S2 (1) . . . SN (1) ¯ ¯ ¯ 1 ¯¯ S1 (2) S2 (2) . . . SN (2) ¯ ¯= √ ¯ ¯ ... ... ... N ! ¯¯ . . . ¯ ¯ ¯ ¯ ¯ S1 (N ) S2 (N ) . . . SN (N ) ¯ ¯ ¯ ¯ ¯ ¯ ¯ det U(5.175) ¯ ¯ ¯ ¯ vale a dire Ψ0 = Ψ det U = Ψ exp(iφ), cioè il nuovo determinante di Slater differisce dal vecchio solo per un fattore di fase, che è ininfluente nel calcolo dei valori di attesa. 5.16 Metodo di Hartree-Fock L’approssimazione di Hartree-Fock è alla base del più usato metodo di calcolo ab initio per strutture elettroniche molecolari. Deve perciò essere chiaro che si tratta di una approssimazione appunto, e non di un metodo esatto di risoluzione dell’equazione di Schrödinger elettronica, ed ha per fine la determinazione dello stato fondamentale di un sistema di elettroni. Considereremo dunque una molecola di N elettroni. L’hamiltoniano elettronico in unità atomiche è: N X X 1 |~rn − ~rn0 | (5.176) X Zk 1 ĥ(n) = − ∇2n − ~ k| 2 rn − R k |~ (5.177) H= n=1 ĥ(n) + n6=n0 dove l’hamiltoniano monoelettronico di “core” di ciascun elettrone è relativo all’energia cinetica e di interazione con i nuclei. L’approssimazione di Hartree consiste nell’identificare la funzione d’onda multielettronica (autofunzione dell’hamiltoniano elettronico) come il prodotto di Hartree di N funzioni d’onda monoelettroniche. Evidentemente, l’approssimazione di Hartree agisce a due livelli 1. si assume una forma di funzione d’onda compatibile solo con un hamiltoniano separabile dei N elettroni; 2. si trascura il principio di indistinguibilità e dunque non si applica il principio di Pauli. L’approssimazione di Hartree-Fock (HF) consiste nell’obbligare la funzione d’onda ad obbedire al principio di Pauli, assumendo che la sua forma non sia un prodotto di Hartree, bensı̀ un determinante di Slater: cioè che sia data dall’equazione (5.15). Resta l’approssimazione fondamentale: una funzione 162 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA d’onda multielettronica è approssimata da una somma finita di prodotti di funzioni monoelettroniche. Il problema è a questo punto formulabile nel modo seguente: nell’ambito dell’approssimazione HF, quali sono le funzioni monoelettroniche spaziali e di spin (spinorbitali) S1 , . . . , SN che assicurino che l’energia totale della molecola sia più vicina a quella esatta? Allo scopo di determinare i migliori2 spinorbitali Si si impiega il principio variazionale: il valore di attesa dell’hamiltoniano rispetto ad una funzione d’onda arbitraria è sempre maggiore del primo autovalore del sistema. Vale a dire che se si calcola il valore di attesa (la media) dell’hamiltoniano elettronico rispetto al determinante di Slater, si ottiene una valore numerico che è sempre maggiore dell’energia esatta del sistema multi-elettronico. È chiaro perciò che i migliori orbitali si possono ottenere cercandone la forma che rende minimo, e perciò più vicino al valore esatto, il valore di attesa. 5.16.1 Ottimizzazione degli spinorbitali 3 Definiamo un algoritmo di calcolo degli spinorbitali che descrivono lo stato fondamentale Ψ0 = Ψ, dove Ψ è il determinante di Slater (5.15) per una molecola di N elettroni secondo l’approssimazione HF. È dato il valore di attesa dell’hamiltoniano rispetto al determinante di Slater: E = hΨ|H|Ψi (5.178) Assumiamo che gli N spinorbitali S1 , . . . , SN siano ortonormali; diciamo VHF il sottospazio generato dalla base S1 , . . . , SN ; per una variazione infinitesimale di ciascun spinorbitale Si0 = Si + δSi (5.179) possiamo costruire lo spinorbitale 0 Ψ0 = |S10 S20 . . . SN | (5.180) P e limitando lo sviluppo ai soli termini al primo ordine si ottiene Ψ0 = Ψ + i δΨi dove δΨi = |S1 . . . δSi SN |. Se le variazioni δSi sono ortogonali allo spazio VHF risulta che la variazione al primo ordine del valore di attesa dell’hamiltoniano rispetto al determinante di Slater è data da δE = X hδΨi |H|Ψi + hΨ|H|δΨi i (5.181) i Possiamo perciò affermare che la variazione infinitesimale δE è nulla al primo ordine (cioè E è minimo) se sono indipendentemente nulli i seguenti integrali hδΨi |H|Ψi = 0 (5.182) cioè se una variazione infinitesimale di un generico spinorbitale, ortogonale a VHF , dà un contributo nullo alla variazione del valore di attesa. 2 Nel senso appena definito: tali che ottimizzano il calcolo dell’energia elettronica dello stato fondamentale della molecola nell’approssimazione di Hartree-Fock, cioè rappresentando lo stato fondamentale stesso mediante un unico determinante di Slater 3 Questa sezione e la successiva sono in parte basate su appunti di lezione del prof. Giorgio J. Moro 5.16. METODO DI HARTREE-FOCK 163 La condizione (5.182) può essere ridotta al calcolo di un integrale monoelettronico: hδΨi |H|Ψi = 1 X N ! P 0 ,P 00 Z 0 00 dq(−1)P (−1)P δΨi ∗Hartree P 0 −1 HP 00 ΨHartree (5.183) dove si ricordi che q rappresenta l’insieme delle pseudocoordinate del sistema e ΨHartree è il prodotto di Hartree costruito con gli N spinorbitali; nell’equazione precedente siè fatto uso della proprietà P † = P −1 . La sommatoria su P 00 può essere sostituita con la sommatoria su P = P 0−1 P 00 , tenendo conto del fatto che H commuta con una generica permutazione, [H, P] = 0. Si ottiene perciò che hδΨi |H|Ψi = X Z (−1) P dqδΨi ∗Hartree HPΨHartree (5.184) P e quindi si può scrivere X (−1)P Z dqδΨi ∗Hartree ĥ(i) + P X 1 r n6=i ni PΨHartree (5.185) che può essere scritto come hδΨi |H|Ψi = [δSi |ĥ|Si ] + X ([δSi Si |Sn Sn ] − [δSi Sn |Sn Si ]) (5.186) n6=i dove sono definiti i seguenti integrali mono e bi-elettronici: Z [Sa |ĥ|Sb ] = dq1 Sa (1)∗ ĥ(1)Sb (1) (5.187) Z [Sa Sb |Sc Sd ] = dq1 dq2 Sa (1)∗ Sb (1) 1 Sc (2)∗ Sd (2) = [Sb Sa |Sd Sc ]∗ = [Sc Sd |Sa Sb ] r12 (5.188) Possiamo definire l’operatore di Coulomb associato all’n-esimo spinorbitale ·Z ¸ dq2 Sn (2)∗ Jn (1)Sm (1) = 1 Sn (2) Sm (1) r12 (5.189) e l’operatore di scambio associato all’n-esimo spinorbitale ·Z ¸ dq2 Sn (2)∗ Kn (1)Sm (1) = 1 Sm (2)Sn (1) r12 (5.190) In questo modo gli integrali bi-elettronici si possono scrivere come elementi di matrice monoelettronici degli operatori di Coulomb [Sa Sb |Sn Sn ] = [Sa |Jn |Sb ] (5.191) e di scambio: [Sa Sn |Sn Sb ] = [Sa |Kn |Sb ] (5.192) ed in definitiva possiamo scrivere la variazione hδΨi |H|Ψi nella forma: hδΨi |H|Ψi = [δSi |F|Si ] (5.193) dove F è l’operatore (monoelettronico) di Fock: F(1) = ĥ(1) + Xh n i Jˆn (1) − Kn (1) (5.194) 164 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA L’operatore di Fock dipende, tramite gli operatori di Coulonb e di scambio, dal set di spinorbitali che definisce VHF . La condizione di stazionarietà variazionale è espressa dall’equazione [δSi |F|Si ] = 0 (5.195) per tutti gli spinorbitali Si e qualsiasi variazione δSi ortogonale a VHF , che deve perciò essere uno spazio chiuso rispetto a F: FSi ∈ VHF . 5.16.2 (5.196) Proprietà dell’operatore di Fock L’operatore di Fock F è definito in relazione agli spinorbitali che generano lo spazio hilbertiano VHF , ma non dipende da una scelta specifica di questi spinorbitali. In altre parole, vale il seguente teorema Teorema l’operatore F è invariante rispetto ad una trasformazione unitaria della base che genera lo spazio VHF Se infatti trasformiamo gli N spinorbitali secondo la trasformazione unitaria Si0 = X Sj Uji (5.197) j dove U−1 = U† , si trova che sia la somma degli operatori di Coulomb Z X 0 X X 1 ∗ ˆ ˆ J (n) (UU )jj 0 dq2 Sj (2)∗ Sj 0 (2) = J(n) r 12 0 n n jj che di quelli di scambio X 0 K (n)Sa (1) n X Z ∗ dq2 Sj (2)∗ (UU ) jj 0 jj 0 X 1 Sa (2)Sj 0 (2) = K(n)Sa (1) r12 n (5.198) (5.199) risulta invariata, e dunque l’operatore di Fock stesso risulta invariato. Un’altra importante proprietà dell’operatore di Fock è la seguente Teorema l’operatore F è autoaggiunto F † = F. Infatti ĥ(1) è autoaggiunto per definizione; per gli operatori coulombiani e di scambio vale che: ¸ h ·Z · ¸ Z i∗ h i 1 † Sa |Jˆn |Sb = Sb |Jˆn |Sa = dq1 Sa (1)∗ dq2 Sn (2)∗ Sn (2) Sb (1) = Sa |Jˆn |Sb (5.200) r12 h i Sa |K†n |Sb = [Sb |Kn |Sa ]∗ = ·Z Z dq2 Sa (2)∗ ¸ dq1 Sn (1)∗ 1 Sb (1) Sn (2) = [Sa |Kn |Sb ] r12 (5.201) Poichè F non genera spinorbitali che appartengono allo spazio complementare a VHF , una volta nota una base ortonormale completa di spinorbitali in cui i primi N elementi siano base per lo spazio VHF stesso, l’operatore di Fock è rappresentabile come una matrice diagonale a blocchi, ovvero (F)ij = [Si |F|Sj ] vale 0 se 1 ≤ i ≤ N e j ≥ N + 1 o i ≥ N + 1 e 1 ≤ j ≤ N . Per mezzo di una trasformazione unitaria della base ortonormale iniziale possiamo sempre rendere diagonale la matrice F, vale a dire possiamo sceglere come base ortonormale l’insieme di autofunzioni di F: FSi = ²i Si i = 1, . . . , N, N + 1, . . . (5.202) La procedura per il calcolo di un insieme completo di spinorbitali ortonormali che verifichino l’approssimazione HF è dunque 5.16. METODO DI HARTREE-FOCK 165 1. scelta di una base di spinorbitali e selezione di una sottobase, cioè dello spazio VHF 2. calcolo di F per il dato VHF 3. diagonalizzazione di F 4. confronto delle prime N autofunzioni di F e della base; iterazione della procedura dal punto 2. fino al raggiungimento della condizione di autoconsistenza, ovvero della indistinguibilità (a meno di qualche opportuno criterio di precisione numerica) tra le prime N autofunzioni di F e della base. L’algoritmo cosı̀ definito permette la determinazione di un insieme di spinorbitali che è completo, cioè include anche gli spinorbitali SN +1 , SN +2 , . . ., detti orbitali virtuali, che non compaiono nella definizione dello stato fondamentale e possono essere usati per rapresentare gli stati eccitati della molecola. Una volta noti gli spinorbitali che verifichino le condizioni precedenti, l’energia dello stato fondamentale della molecola si può calcolare direttamente del valore di attesa dell’hamiltoniano elettronico rispetto al determinante di Slater: E = hΨ|H|Ψi = X i 1X ([Si Si |Sn Sn ] − [Si Sn |Sn Si ]) [Si |ĥ|Si ] + 2 n6=i (5.203) vale a dire E= X [Si |ĥ + i 1X ˆ (J n − Kn )|Si ] 2 n L’energia totale non è la somma dei primi N autovalori di F, poichè la somma premoltiplicata per il fattore 1/2; se si scrive l’operatore di Fock come F = ĥ + G (5.204) P ˆ − Kn ) compare n (J n (5.205) allora l’energia totale è E= X i [Si |F − G/2|Si ] = X [Si |ĥ + G/2|Si ] (5.206) i dove G descrive l’interazione tra un elettrone e tutti gli altri elettroni (da cui segue il fattore 1/2 per non contare l’interazione due volte). Il significato fisico degli autovalori ²i dell’operatore di Fock può essere ricavato dal teorema di Koopmans Teorema a meno di correzioni di ordine superiore al primo, gli spinorbitali ottenuti secondo la procedura HF per un sistema di N elettroni e equlli relativi ai sistemi con un’elettrone in più o in meno sono gli stessi Di conseguenza l’energia Ek del sistema dopo aver estratto un elettrone si può ottenere, secondo il teorema di Koopmans, come E − Ek = [Sk |ĥ + G|Sk ] = [Sk |F|Sk ] = ²k (5.207) 166 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA Se quindi Sk è l’autostato dell’operatore di Fock con autovalore ²k più elevato occupato (Highest Occupied Molecular Orbital, HOMO, a cui segue il Lowest Unoccupied Molecular Orbital, LUMO), −²k è l’energia di prima ionizzazione del sistema, cioè la minima energia richiesta per la reazione + X(g) → X(g) + e− (5.208) dove X rappresenta il sistema molecolare di N elettroni. Per He e Li i potenziali di ionizzazione misurati sono rispettivamente -24.5 eV e -5.39 eV contro valori calcolati secondo HF pari a -24.98 eV e -5.34 eV. 5.16.3 Sistemi a guscio chiuso La procedura descritta nella sezione precedente è riferita ad uns sistema elettronico generico, ed è perciò detta UHF, cioè “unrestricted” HF. Se S~ è l’operatore di spin elettronico totale S~ = X ~ S(n) (5.209) n deve valere che [H, S 2 ] = [H, Sz ] = 0, poichè come abbiamo visto non includiamo termini espliciti di spin nell’hamiltoniano elettronico. Di conseguenza la funzione multielettronica deve essere autofunzione di S 2 e di Sz : il metodo UHF non assicura questa proprietà. In pratica buona parte delle applicazioni sono per molecole stabili in stato di singoletto di spin, con un numero N pari di elettroni. Si può quindi definire fin dal principio un determinante di Slater scelto in maniera tale da verificare la condizione di essere uno stato di singoletto, cfr. Eq. (5.161). Come abbiamo visto nel capitolo precedente, se si definiscono N/2 orbitali φ1 , φ2 , . . . , φN/2 , il determinante di Slater si può costruire alternando stati di spin α e β Ψ = |φ1 φ1 φ2 φ2 . . . φN/2 φN/2 | (5.210) In questo caso di parla di metodo RHF, cioè “restricted” HF. La procedura RHF si può facilmente ricavare dal caso più generale UHF, verificando che l’operatore di Fock conserva la componente di spin F(1)φi (1)|m(1)i = |m(1)iF̂ φi (1) (5.211) dove F̂ è un’operatore di Fock che agisce sulla sola parte orbitalica N/2 h F̂ (1) = ĥ(1) + X i 2Jˆn (1) − K̂ n (1) (5.212) i=n dove si impiega l’operatore di Coulomb associato all’n-esimo orbitale ·Z ¸ Jˆn (1)φm (1) = dr2 φn (2)∗ 1 φn (2) φm (1) r12 (5.213) e l’operatore di scambio associato all’n-esimo orbitale ·Z ¸ 1 dr2 φn (2) φm (2)φn (1) r12 ∗ K̂ n (1)φm (1) = (5.214) L’energia totale di un sistema a guscio chiuso si può scrivere nella forma N/2 E=2 X i N/2 hi + X i,j (2Jij − Kij ) (5.215) 5.16. METODO DI HARTREE-FOCK 167 dove sono definire i seguenti integrali mono e bi-elettronici Z hi = hφi (1)|ĥi (1)|φi (1)i = Z d~r1 d~r2 |φi (1)|2 Jij = (5.216) 1 |φj (2)|2 r12 Z Kij = d~r1 φi (1)∗ ĥi (1)φi (1) d~r1 d~r2 φi (1)∗ φj (1) (5.217) 1 φi (2)∗ φj (2) r12 (5.218) dove Jij e Kij sono detti gli integrali coulombiani e di scambio. In Appendice (E) il valore di attesa dell’hamiltoniano monoelettronico viene riderivato in modo esplicito e semplificato per il solo caso di un sistema a guscio chiuso. 5.16.4 Soluzione numerica delle equazioni HF La natura delle equazioni di Hartree-Fock è intrinsecamente non-lineare: gli operatori agenti sugli orbitali φi dipendono a loro volta dagli orbitali φi stessi. Di conseguenza uno schema di soluzione numerica naturale è di tipo auto-consistente, come è stato già evidenziato nella sezione precedente (0) (0) 1. si definiscono delle funzioni in ordine 0, φ1 , . . . , φN/2 ; (0) (0) (0) 2. si calcolano le forme esplicite degli operatori Jˆj , K̂ j in funzione delle funzioni φi ; (1) (1) 3. si calcolano nuove funzioni φ1 , . . . , φN/2 , risolvendo il problema agli autovalori lineare con gli (0) (0) operatori Jˆj , K̂ j ; (1) (1) (1) 4. si calcolano nuovi operatori Jˆj , K̂ j in funzione delle funzioni φi ; (n+1) 5. il ciclo si ripete finchè le funzioni φ1 errore prefissato. (n+1) , . . . , φN/2 (n) (n) differiscono dalle φ1 , . . . , φN/2 a meno di un Il modo migliore di procedere è, oggigiorno, quello di espandere linearmente le funzioni incognite φi su un set di funzioni di base note. I coefficienti numerici dell’espansione divengono poi le vere incognite del problema: in questo modo si riduce un sistema di equazioni differenziali ad un sistema di equazioni ordinarie, che deve poi comunque essere risolto in modo auto-consistente. Un set di funzioni di base permette di esprimere qualunque funzione come combinazione lineare delle funzioni componenti: φ = Ctr χ (5.219) dove χm = χm e C è una matrice il cui vettore colonna m sarà indicato con cm φ1 φ2 ... φM = c11 c12 c21 c22 ... ... cM 1 cM 2 . . . c1M . . . c2M ... ... . . . cM M tr χ1 χ2 ... χM = (c1 , c2 , . . . , cM )tr χ (5.220) 168 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA Si possono definire varie grandezze matriciali e vettoriali in termini dei coefficienti cm e di altri integrali che coinvolgono gli orbitali (noti) χm : ∆pq = hχp |χq i (5.221) hi = hφi |ĥ(1)|φi i = c†i χ† ĥ(1)χci = c†i hci (5.222) Ji pq = hχp |Jˆi |χq i (5.223) Jij = c†i Jj ci = c†j Ji cj (5.224) Ki pq = hχp |K̂i |χq i (5.225) Kij = c†i Kj ci = c†j Ki cj (5.226) L’energia HF assume la forma: hHiav = 2 X † ci hci + i X † ci (2Jj − Kj )ci (5.227) ij Le equazioni di Hartree-Fock diventano le equazioni di Roothaan: FC = ∆C² (5.228) dove Fpq = hχp |F̂ |χq i. La scelta delle funzioni orbitaliche di base è di importanza fondamentale per l’acccuratezza del calcolo HF. Sostanzialmente è necessario bilanciare due fattori i) all’aumentare del numero di funzioni di base il calcolo sarà più accurato, ma il costo in termini computazionali (CPU, spazio di memoria per immagazzinare gli integrali mono e bielettronici) crescerà in modo superlineare con il numero di funzioni di base stesso; ii) funzioni di base accurate, costituite per esempio dagli orbitali dell’atomo idrogenoide, per quanto siano più efficienti in termini di numero di funzioni di base, possono comportare un aumento nel costo computazionale dovuto all’aumentata complessità nel calcolo degli integrali. Per un sistema molecolare si può in generale scegliere un set di funzioni di base tale da riprodurre lo stato fondamentale degli atomi componenti: è questa la cosiddetta base minima. Per esempio, nel caso della molecola CO si possono usare come base minima gli orbitali atomici (AO) 1s, 2s, 2px,y,z per il carbonio e gli stessi orbitali per l’ossigeno; per la molecola di ammoniaca NH3 si possono usare ancora i medesimi orbitali centrati sull’azoto gli orbitali 1s per i tre atomi di idrogeno e cosı̀ via. Si parla di basi estese quando si includono AO relativi a stati non occupati dei singoli atomi. Tra le funzioni più utilizzate per definire gli AO di partenza, ricordiamo orbitali idrogenoidi ottenuti dalla soluzione del problema agli autostati per un atomo idorgeonoide, della forma generica Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ) (5.229) già discussi in precedenza, costituiti dal prodotto delle armoniche sferiche per le funzioni di Laguerre: s Rnl = (n − l − 1)!Z l+1 2l+1 ρ Ln+l (ρ) exp(−ρ/2) n2 [(n + l)!]3 (5.230) 5.16. METODO DI HARTREE-FOCK 169 Queste funzioni sono ortogonali, non-complete ed in generale computazionalmente ‘costose’, data la loro forma particolarmente complicata. Slater-type orbitals, STO aventi la forma generale 1 (2α)n+1/2 rn−1 exp(−αr)Ylml (θ, φ) (2n)! uα,n,l,ml (r, θ, φ) = p (5.231) dove n ed α sono parametri variazionali; costituiscono un set completo relativamente poco costoso computazionalmente benchè non siano ortogonali. Gaussian-type orbitals, GTO espressi come gα,n,l,ml (r, θ, φ) = N rn−1 exp(−αr2 )Ylml (θ, φ) (5.232) Solitamente si impiegano combinazioni lineari di GTO per rappresentare in modo approssimato gli orbitali di tipo STO: si parla cosı̀ di basi STO-2G, STO-3G, . . . , STO-6G per descrivere basi costituite da funzioni STO approssimate come combinazioni lineari di 2, 3, . . . , 6 GTO. Riassumendo: un calcolo RHF secondo il metodo di Roothaan della struttura elettronica dell’acqua H2 O con una base minima STO-4G prevede l’applicazione del metodo RHF con la base di 7 AO nonortogonali 1sO , 2sO , 2px,y,zO e 1sH1 , 1sH2 descritti come STO approssimati da 4 GTO ciascuno. Altre basi molto usate sono caaratterizzate da un trattamento più accurato di alcuni elettroni rispetto ad altri, come le funzioni 3-21G, funzioni STO approssimate da 3 GTO per gli elettroni interni e 2 per ogni elettrone di valenza e le funzioni 6-21 o 6-31G, con 6 gaussiane per gli elettroni interni; ricordiamo anche le funzioni 6-31G∗ considerano anche AO di tipo d e 6-31G∗∗ che includono AO di tipo p centrati sugli idrogeni. 5.16.5 Interazione di configurazione A differenza del metodo di Hartree-Fock, il metodo dell’interazione di configurazione (CI), è almeno in principio in grado di fornire un risultato esatto (o arbitrariamente vicino al risultato esatto) del calcolo della funzione d’onda elettronica. L’idea alla base del metodo CI è molto semplice: la funzione d’onda è data da una combinazione (non necessariamente lineare) di funzioni di base note multielettroniche; i coefficienti dell’espansione sono determinati sulla base del principio variazionale. Riassumiamo brevemente il principio variazionale per il calcolo di una generica funzione d’onda multielettronica partendo dal rapporto di Rayleigh per una generica funzione d’onda Ψ ²[Ψ] = hΨ|H|Ψi hΨ|Ψi (5.233) Il principio variazionale afferma che se E0 è il più basso autovalore del sistema, il rapporto di Rayleigh è sempre maggiore o uguale di E0 ²[Ψ] ≥ E0 (5.234) La dimostrazione è la seguente: espandiamo Ψ sulla base delle autofunzioni esatte dell’hamiltoniano H HΦ = En Φ E0 ≤ E1 ≤ . . . (5.235) 170 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA hΦn |Φ0n i = δnn0 Ψ= X (5.236) cn Φn (5.237) n consideriamo la quantità hΨ|H − E0 |Ψi: hΨ|H − E0 |Ψi = X c∗n cn0 (5.238) nn0 hΦn |H − E0 |Φn0 i = X c∗n cn0 (En − E0 )hΦn |Φn0 i = X |cn |2 (En − E0 ) ≥ 0 (5.239) n nn0 infatti |cn |2 ≥ 0, En ≥ E0 ; segue che: hΨ|H|Ψi − E0 hΨ|Ψi ≥ 0 ⇒ ²[Ψ] ≥ E0 QED (5.240) Nella sua versione piú comune, il metodo CI è implementato sotto forma di metodo variazionale lineare. La funzione d’onda di prova Ψ è cioè data come una combinazione lineare di funzioni note: Ψ= N X cn0 Ψn0 (5.241) n0 =1 sostituendo in HΨ = EΨ: X cn0 HΨn0 = E n0 X cn0 Ψn0 (5.242) n0 premoltiplicando per Ψn ed integrando: X cn Hnn0 = E n0 X cn Snn0 (5.243) n0 dove Hnn0 = hΨn |H|Ψn0 i, Snn0 = hΨn |Ψn0 i; in forma matriciale: Hc = ESc (5.244) Il problema agli autovalori diviene più semplice se si assumono delle funzioni di base ortonormali S = 1: Hc = Ec (5.245) In linea di principio, un calcolo CI dovrebbe includere un numero infinito di funzioni multielettroniche. Se ci limitiamo a rappresentare ogni possibile configurazione multielettronica come un determinante di Slater costruito a partire dagli spinorbitali (reali e virtuali) definiti nel corso di un calcolo UHF o RHF, dobbiamo comunque considerare un numero molto elevato di possibili configurazioni accoppiate con lo stato fondamentale rappresentato dalla funzione Ψ0 . Possiamo però considerare in ordine di importanza le correzioni apportate dalle varie configurazioni. Sia M lo spazio degli stati del sistema multielettronico, che si può ripartire come M = M0 ⊗ M1 ⊗ M2 ⊗ M3 ⊗ . . . (5.246) dove M0 è lo spazio monodimensionale costituito da Ψ0 ; M1 è lo spazio costituito dai determinanti di Slater ottenuti sostituendo in Ψ0 uno spinorbitale virtuale ad uno reale (configurazioni eccitate singolarmente); M1 è lo spazio costituito dai determinanti di Slater ottenuti sostituendo in Ψ0 due spinorbitali virtuali a due reali (configurazioni eccitate doppiamente); e cosı̀ via. Vale ora il seguente teorema 5.16. METODO DI HARTREE-FOCK 171 Teorema di Brillouin. Gli elementi di matrice tra spinorbitali appartenenti a M1 e Ψ0 sono nulli. dal cui si può concludere che le configurazioni singolarmente eccitate non hanno un effetto diretto sulla correzione CI. In molti casi il metodo Ci viene applicato includendo solo le configurazioni di stato fondamentale e quelle doppiamente eccitate (M2 ). Si noti che un’effetto indiretto delle configurazioni singolarmente eccitate è naturalmente presente, dato che sono comunque accoppiate con gli elementi di M2 , M3 etc. M 0 M0 M 1 M2 M 1 M 2 11111 00000 00000 11111 00000 11111 00000 11111 00000 11111 0000000000000 1111111111111 00000 11111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 000000000000000000000 111111111111111111111 Figura 5.7: Schema degli elementi di matrice H nel metodo CI. Sono indicati in nero i blocchi diagonali non nulli, in grigio i blocchi non-diagonali non nulli, in bianco i blocchi non-diagonali nulli La differenza tra l’energia esatta dello stato fondamentale e quella calcolata nell’approssimazione HF è detta energia di correlazione elettronica Ecorr = Eesatta − EHF (5.247) Una metologia sostanzialmente equivalente per il calcolo di Ecorr è basata su un trattamento perturbativo e va sotto il nome di correzione di Mœller-Plesset (o metodo MPPT, Mœller-Plesset perturbation theory). È basato su una separazione dell’hamiltoniano elettronico in due contributi: uno considerato di ordine zero secondo la teoria delle perturbazioni indipendenti dal tempo e coincidente con l’operatore di Fock, l’altro equivalente alla differenza tra F e H: H = H(0) + H(1) ≡ F + (H − F) (5.248) L’energia dello stato fondamentale nel limite HF è data dai contributi perturbativi di ordine zero e di ordine uno: EHF = hΨ0 |H(0) + H(1) |Ψ0 i (5.249) assumendo come funzione d’onda dello stato fondamentale in ordine zero la solita funzione Ψ0 risultante dal calcolo HF. Correzioni non banali di ordine successivo si calcolano a partire dal secondo ordine in poi, 172 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA che coinvolgono elementi di matrice tra Ψ0 e configurazioni doppiamente eccitate (metodo MPPT2). Ordini successivi di correzioni perturbative coinvolgono configurazioni una, due e tre volte eccitate (metodo MPPT3) e cosı̀ via. 5.16.6 Alcuni esempi di calcolo ab initio In questa sezione sono illustrati molto brevemente alcuni esempi di calcolo ab initio RHF. I calcoli sono stati effettuati impiegando il software Gaussian 94, un pacchetto per determinare strutture elettroniche, ottimizzazione di geometrie etc. La descrizione dei risultati è stata fatta impiegando Molden, un pacchetto per la visualizzazione di vari programmi di calcolo (oltre a Gaussian 94 sono disponibili come freeware, shareware od in commercio molti altri pacchetti software: ricordiamo tra gli altri Gamess, Spartan, Mopac). L’hamiltoniano elettronico della molecola di idrogeno è H = h(1) + h(2) + 1 r12 (5.250) La molecola è descritta nello stesso sistema di riferimento già utilizzato per la molecola di idrogeno ionizzata, H+ r1 e ~r2 . Lo stato fondamentale 2 , salvo la presenza di due elettroni definiti dalle coordinate ~ è descritto dal determinante di Slater Ψ = |φφ| (5.251) e l’operatore di Fock (RHF, guscio chiuso, spin e parte orbitalica fattorizzate) può essere scritto come: F̂ = −∇2 − 1 1 − + 2Jˆ − K̂ rA rB (5.252) dove Jˆ e K̂ sono definiti come ˆ r)φ(~r) = K̂(~r)φ(vr) = J(~ ÃZ ! |φ(~r)|2 φ(~r) d~r |~r − ~r0 | 0 (5.253) Adottando il metodo di Roothaan con una base minima assumiamo che un generico orbitale sia φi = c1i 1sA + c2i 1sB (5.254) poichè usiamo una base di 2 funzioni per un sistema a guscio chiuso con 2 elettroni, otteremo due orbitali, uno reale (HOMO) e l’altro virtuale (LUMO). La diagonalizzazione dell’operatore di Fock sulla base scelta porta alla seguente equazione secolare ¯ ¯ a + J 0 − ² b + J 00 − ²s ¯ ¯ ¯ b + J 00 − ²s a + J 0 − ² ¯ ¯ ¯ ¯=0 ¯ (5.255) dove a, b ed s sono state definte in precedenza per lo studio approssimato della molecola di idrogeno ionizzata, mentre gli integrali J 0 e J 00 sono definiti come J 0 = h1sA |2Jˆ − K̂|1sA i = h1sB |2Jˆ − K̂|1sB i (5.256) J 00 = h1sA |2Jˆ − K̂|1sB i = h1sB |2Jˆ − K̂|1sA i (5.257) 5.16. METODO DI HARTREE-FOCK 173 Gli autovalori ²i e i coefficienti di espansione cij si possono trovare immediatamente, senza cioè applicare alcun metodo iterativo, poichè il sistema è definito completamente dalle sue proprietà di simmetria. Gli autovalori sono ottenuti come a ± +J 0 ∓ J 00 ²1,2 = (5.258) 1±s mentre gli orbitali sono dati da φ1,2 = p 1 (1sA ± 1sB ) 2(1 ± s) (5.259) Considerazioni di simmetria conducono al risultato corretto se si tiene conto che è possibile costruire una base orbitalica ortonormale simmetrica rispetto all’inversione delle coordinate ~r → −~r. Data la geometria della molecola si vede subito che un orbitale simmetrico è φg = φ1 , mentre un orbitale antisimmetrico è φu = φ2 . Costruendo l’operatore di Fock direttamente rispetto a φg si ottiene che F̂ (~r) ≡ F̂ (−~r) da cui segue che hφu |F̂ |φg i = 0 cioè F̂ è diagonale sulla base costruita per simmetria con autovalori ²g = ²1 e ²u = ²2 . Una volta nota la configurazione dello stato fondamentale, avendo a disposizione un’orbitale virtuale, possiamo costruire vari stati eccitati, come i tre stati degeneri di tripletto eccitato ΨT1 = |φg φu | = ΨT0 = φ1 (1)φ2 (2) − φ1 (2)φ2 (1) √ α(1)α(2) 2 |φg φu | + |φg φu | φ1 (1)φ2 (2) − φ1 (2)φ2 (1) α(1)β(2) + α(2)β(2) √ √ √ = 2 2 2 ΨT−1 = |φg φu | = φ1 (1)φ2 (2) − φ1 (2)φ2 (1) √ β(1)β(2) 2 (5.260) (5.261) (5.262) che ha un’energia calcolata come valore di attesa pari a ET = hΨTi |H|ΨTi i = hg + hu + Jg,u − Kg,u (5.263) e lo stato di singoletto eccitato ΨS1 = |φg φu | − |φg φu | φ1 (1)φ2 (2) + φ1 (2)φ2 (1) α(1)β(2) − α(2)β(2) √ √ √ = 2 2 2 (5.264) avente l’energia ES1 = hΨS1 |H|ΨS1 i = hg + hu + Jg,u + Kg,u . (5.265) Calcoli RHF effettuati su H2 con una base estesa 6-31G permettono di determinare una distanza di equilibrio R tra i due nuclei (ottenuta ripetendo il calcolo RHF a diverse distanze R fino ad individuare un minimo dell’energia dello stato fondamentale - un esempio di ottimizzazione di geometria molecolare) pari a 1.38 Å, contro 1.40 Å determinato sperimentalmente; il potenziale di ionizzazione calcolato è invece 3.49 eV contro 4.75 eV sperimentale. La funzione calcolata secondo la procedura RHF per la molecola di idrogeno nel suo stato fondamentale non rappresenta in modo adeguato il sistema, soprattutto per R → ∞. Se infatti calcoliamo la forma limite per R → ∞ si ottiene lim |φg φg | = [1sA (1)1sB (2) + 1sB (1)1sA (2)] + [1sA (1)1sA (2) + 1sB (1)1sB (2)] R→∞ (5.266) 174 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA il primo termine indica due atomi H·, mentre il secondo indica la coppia ionica H+ , H− . Ciò implica il 50 % di probabilità che una molecola di idrogeno dissoci sotto forma di coppia biradicalica o ionica, che è del tutto irrealistico. Un calcolo realistico terrà conto di configurazioni aggiuntive che vanno oltre l’approssimazione HF. Si tratta perciò sostanzialmente di uan correzione CI al risultato RHF, ottenuta includendo configurazioni di tipo covalente e ionico scritte in modo opportuno per tener conto della indistinguilibilità degli elettroni: ¡ ¢ 1 Ψcov = √ |1sA 1sB | − |1sA 1sB | 2 1 + s2 (5.267) ¢ ¡ 1 Ψion = √ |1sA 1sA | + |1sB 1sB | 2 1 + s2 (5.268) La generalizzazione del metodo CI per la molecola di idrogeno, basata sull’impiego di un set di funzioni bi-elettroniche completo, permette di ottenere un accordo con i dati sperimentali decisamente buono: il potenziale di ionizzazione calcolato con 50 configurazioni di base è 4.74 eV, mentre la distanza di equilibrio è 1.4 Å. Nel caso di molecule lineari l’applicazione di vincoli di simmetria alla scelta delle funzioni di base semplifica grandemente il calcolo ab initio. L’uso di basi adattate per simmetria sarà descritto nel capitolo successivo. Qui ci limitiamo a commentare brevemente il risultato di altri due calcoli RHF effettuati per una molecola lineare, HCl, e per l’acqua, H2 O. Nel seguito, mostriamo l’esempio di un tabulato di calcolo risultante da una ottimizzazione di geometria per la molecola di aqcua eseguita con Gaussian 94: ********************************************************************** Population analysis using the SCF density. ********************************************************************** Orbital Symmetries: Occupied (A’) (A’) (A’) (A’) (A") Virtual (A’) (A’) (A’) (A’) (A") (A’) (A’) (A’) (A’) (A’) (A") (A’) (A’) (A’) The electronic state is 1-A’. Alpha occ. eigenvalues -- -20.54532 -1.35692 -0.73115 -0.55177 -0.50132 Alpha virt. eigenvalues -0.14513 0.21389 0.58263 0.58295 1.00216 Alpha virt. eigenvalues -1.02050 1.15363 1.43225 2.45181 2.51888 Alpha virt. eigenvalues -5.30956 5.41111 5.58159 51.43742 Molecular Orbital Coefficients 1 2 3 4 5 (A’)--O (A’)--O (A’)--O (A’)--O (A")--O EIGENVALUES --20.54532 -1.35692 -0.73115 -0.55177 -0.50132 1 1 O 1S 0.55143 -0.11348 0.00000 -0.03853 0.00000 2 2S 0.47167 -0.19044 -0.00001 -0.06523 0.00000 3 2PX 0.00000 -0.00001 0.22078 0.00001 0.00000 4 2PY -0.00246 -0.04002 0.00000 0.25682 0.00000 5 2PZ 0.00000 0.00000 0.00000 0.00000 0.29245 5.16. METODO DI HARTREE-FOCK 175 M O L D E N M O L D E N M O L D E N M O LL D EE N M M O D N M O L D E N M O L D E N M O L D E N MO OL LD DE EN N defaults used Edge = 5.60 Contour 3D Psi = 9 CONTOUR VALUE 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 ............ 0.00000 0.05000 0.10000 0.15000 0.20000 0.25000 0.30000 0.35000 0.40000 0.45000 0.50000 0.55000 0.60000 0.65000 0.70000 0.75000 -0.05000 -0.10000 -0.15000 -0.20000 -0.25000 -0.30000 -0.35000 -0.40000 -0.45000 M O L D E N M O L D E N M O L D E N M O LL D EE N M M O D N M O L D E N M O L D E N M O L D E N MO OL LD DE EN N defaults used Edge = 5.60 Contour 3D Psi = 10 CONTOUR VALUE 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0.00000 0.05000 0.10000 0.15000 0.20000 0.25000 0.30000 0.35000 0.40000 0.45000 0.50000 0.55000 0.60000 -0.05000 -0.10000 -0.15000 -0.20000 -0.25000 -0.30000 -0.35000 -0.40000 -0.45000 -0.50000 -0.55000 -0.60000 Figura 5.8: Orbitali HOMO e LUMO di HCl, rappresentati come superficie 6 7 8 9 10 11 12 13 14 2 15 16 17 3 18 19 H H 3S 3PX 3PY 3PZ 4S 4PX 4PY 4PZ 1S 2S 3S 1S 2S 3S 0.00558 0.00000 0.00090 0.00000 -0.00020 0.00000 -0.00033 0.00000 0.00020 -0.00011 0.00011 0.00020 -0.00011 0.00011 6 0.54438 -0.00001 -0.08843 0.00000 0.43887 0.00000 -0.05127 0.00000 0.09982 0.03908 -0.00396 0.09983 0.03908 -0.00396 7 0.00001 0.36854 0.00000 0.00000 0.00003 0.21489 0.00000 0.00000 0.16213 0.19580 0.04616 -0.16214 -0.19580 -0.04616 8 0.19936 0.00001 0.38806 0.00000 0.26427 0.00001 0.40111 0.00000 -0.08409 -0.09301 -0.03139 -0.08409 -0.09299 -0.03138 9 0.00000 0.00000 0.00000 0.43983 0.00000 0.00000 0.00000 0.48851 0.00000 0.00000 0.00000 0.00000 0.00000 0.00000 10 176 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 EIGENVALUES -1 O 1S 2S 2PX 2PY 2PZ 3S 3PX 3PY 3PZ 4S 4PX 4PY 4PZ 2 H 1S 2S 3S 3 H 1S 2S 3S 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 EIGENVALUES -1 O 1S 2S 2PX 2PY 2PZ 3S 3PX 3PY 3PZ 4S 4PX 4PY 4PZ 2 H 1S 2S 3S 3 H 1S 2S 3S EIGENVALUES -- (A’)--V 0.14513 -0.03453 -0.05645 0.00001 -0.07330 0.00000 0.10790 0.00001 -0.12323 0.00000 0.88554 0.00003 -0.20430 0.00000 -0.03829 0.03062 -0.83695 -0.03828 0.03062 -0.83685 11 (A’)--V 1.02050 0.01558 0.02682 -0.00002 -0.23105 0.00000 -0.08512 -0.00006 -0.84364 0.00000 -0.35054 0.00011 1.34290 0.00000 0.04545 0.24804 0.09448 0.04546 0.24802 0.09456 16 (A")--V 5.30956 (A’)--V 0.21389 0.00000 0.00000 0.12046 0.00000 0.00000 0.00000 0.13921 0.00000 0.00000 -0.00006 0.51385 -0.00003 0.00000 -0.02042 0.10816 -1.52605 0.02041 -0.10819 1.52615 12 (A’)--V 1.15363 0.00000 0.00000 -0.23607 0.00002 0.00000 0.00001 -0.90999 0.00007 0.00000 -0.00001 1.76898 -0.00012 0.00000 -0.03403 -0.21412 -0.74736 0.03405 0.21403 0.74740 17 (A’)--V 5.41111 (A’)--V 0.58263 0.00154 0.00269 -0.13119 0.00447 0.00000 -0.00669 -0.19665 0.00722 0.00000 -0.05599 -1.21714 0.04192 0.00000 0.08034 1.59978 -0.76977 -0.07289 -1.44387 0.71209 13 (A’)--V 1.43225 0.11902 0.25119 0.00000 0.03803 0.00000 -1.81879 0.00000 0.10786 0.00000 2.82235 -0.00004 -0.63696 0.00000 -0.00505 -0.59360 -0.36175 -0.00508 -0.59358 -0.36184 18 (A’)--V 5.58159 (A’)--V 0.58295 0.03296 0.05733 0.00615 0.09530 0.00000 -0.14264 0.00922 0.15371 0.00000 -1.19721 0.05718 0.89445 0.00000 0.07574 1.59260 -0.57995 0.08292 1.73540 -0.64934 14 (A’)--V 2.45181 -0.01185 -0.01343 0.00000 -0.14705 0.00000 -0.08442 -0.00004 -0.03304 0.00000 -0.48794 0.00004 0.36023 0.00000 -1.09309 1.59577 -0.48824 -1.09291 1.59555 -0.48808 19 (A’)--V 51.43742 (A")--V 1.00216 0.00000 0.00000 0.00000 0.00000 -0.24082 0.00000 0.00000 0.00000 -0.83803 0.00000 0.00000 0.00000 1.13618 0.00000 0.00000 0.00000 0.00000 0.00000 0.00000 15 (A’)--V 2.51888 -0.00001 -0.00001 -0.19470 -0.00001 0.00000 0.00004 0.01704 -0.00003 0.00000 -0.00013 0.33600 0.00005 0.00000 1.10715 -1.63769 0.76446 -1.10733 1.63799 -0.76451 5.16. METODO DI HARTREE-FOCK 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 2 15 16 17 3 18 19 O 1S 0.00000 0.00427 0.00000 -2.24644 2S 0.00000 0.01050 0.00000 2.32902 2PX 0.00000 0.00006 -1.28379 0.00000 2PY 0.00000 -1.27272 -0.00006 -0.00424 2PZ -1.27030 0.00000 0.00000 0.00000 3S 0.00000 -0.07359 -0.00001 -0.24329 3PX 0.00000 -0.00007 1.49245 0.00000 3PY 0.00000 1.40721 0.00007 0.01308 3PZ 1.36970 0.00000 0.00000 0.00000 4S 0.00000 0.30033 0.00005 0.24052 4PX 0.00000 0.00004 -0.83840 -0.00001 4PY 0.00000 -0.65361 -0.00003 -0.04421 4PZ -0.52370 0.00000 0.00000 0.00000 H 1S 0.00000 0.21235 -0.28655 0.00635 2S 0.00000 -0.31639 0.35306 -0.03858 3S 0.00000 0.01468 0.15005 -0.03243 H 1S 0.00000 0.21233 0.28663 0.00635 2S 0.00000 -0.31637 -0.35316 -0.03859 3S 0.00000 0.01471 -0.15005 -0.03244 Condensed to atoms (all electrons): 1 2 3 1 O 8.292901 0.261664 0.261662 2 H 0.261664 0.364534 -0.034311 3 H 0.261662 -0.034311 0.364535 Total atomic charges: 1 1 O -0.816227 2 H 0.408113 3 H 0.408114 Sum of Mulliken charges= 0.00000 Atomic charges with hydrogens summed into heavy atoms: 1 1 O 0.000000 2 H 0.000000 3 H 0.000000 Sum of Mulliken charges= 0.00000 Electronic spatial extent (au): <R**2>= 19.0015 Charge= 0.0000 electrons Dipole moment (Debye): X= -0.0001 Y= -2.4886 Z= 0.0000 Tot= 2.4886 Quadrupole moment (Debye-Ang): XX= -3.8663 YY= -6.3645 ZZ= -7.2759 XY= -0.0002 XZ= 0.0000 YZ= 0.0000 Octapole moment (Debye-Ang**2): XXX= -0.0001 YYY= -1.4797 ZZZ= 0.0000 XYY= 0.0001 XXY= -1.3015 XXZ= 0.0000 XZZ= 0.0000 YZZ= -0.4291 177 178 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA YYZ= 0.0000 XYZ= 0.0000 Hexadecapole moment (Debye-Ang**3): XXXX= -5.3157 YYYY= -6.1828 ZZZZ= -5.3837 XXXY= 0.0000 XXXZ= 0.0000 YYYX= 0.0000 YYYZ= 0.0000 ZZZX= 0.0000 ZZZY= 0.0000 XXYY= -1.7032 XXZZ= -2.0640 YYZZ= -1.9605 XXYZ= 0.0000 YYXZ= 0.0000 ZZXY= 0.0000 N-N= 9.291362481815D+00 E-N=-1.993505611185D+02 KE= 7.611888714322D+01 Symmetry A’ KE= 7.153312626549D+01 Symmetry A" KE= 4.585760877728D+00 Leave Link 601 at Mon Mar 15 08:37:32 1999, MaxMem= 4000000 cpu: (Enter /usr/local/g94/l9999.exe) Final structure in terms of initial Z-matrix: O H,1,r2 H,2,r3,1,a3 Variables: r2=0.94565985 r3=1.56665299 a3=34.06847266 0.3 Test job not archived. 1\1\GINC-CFGAMMA\FOpt\RHF\6-311G\H2O1\NINOP\15-Mar-1999\0\\#P TEST OPT HF/6-311G GFINPUT IOP(6/7=3)\\This Gaussian input file generated by B abel 1.06e\\0,1\O,-0.0199352024,0.,-0.1040561682\H,-0.6895863854,0.,0. 5636562348\H,0.8490680049,0.,0.2687931105\\Version=SGI-G94RevE.2\State =1-A’\HF=-76.0109546\RMSD=7.476e-09\RMSF=1.284e-04\Dipole=0.184244,0., 0.9615714\PG=CS [SG(H2O1)]\\@ AND ALL THIS SCIENCE I DON’T UNDERSTAND IT’S JUST MY JOB FIVE DAYS A WEEK -- ELTON JOHN, "ROCKET MAN" Job cpu time: 0 days 0 hours 1 minutes 18.3 seconds. File lengths (MBytes): RWF= 5 Int= 0 D2E= 0 Chk= Normal termination of Gaussian 94 2 Scr= 1 In entrambi i casi è stata impiegata una base 6-31G; nel caso dell’acido cloridrico il problema è dunque a 3 (H) + 21 (Cl) funzioni di base (1s, 2s, 3s per l’idrogeno e tutto gli AO di tipo s con n da 1 a 6 e tutti gli AO di tipo p da 1 a 5 per il Cl). In Fig. (5.8) sono mostrati gli orbitali HOMO e LUMO per l’acido cloridrico, in corrispondenza della geometria di equilibrio. Le Figg. (5.9) e (5.10) mostrano gli stessi orbitali, rappresentati sotto forma di superficie aventi uguale valore di densità di carica. Infine in Figg. (5.11) e (5.12) sono raffigurati gli orbitali HOMO e LUMO ottenuti da un calcolo RHF per l’acqua, ancora usando una base 6-31G (19 funzioni di base). 5.16. METODO DI HARTREE-FOCK 179 M O LLLLDDDDEEEENNNN M O M OO M M M O MO OLLLDDDEEENNN defaults used Edge = 5.60 Space = 0.1000 Psi = 9 Figura 5.9: Orbitale HOMO di HCl, rappresentato come una superficie ad uguale densità di carica M O LLLLDDDDEEEENNNN M O M OO M M M O MO OLLLDDDEEENNN defaults used Edge = 5.60 Space = 0.1000 Psi = 10 Figura 5.10: Orbitale LUMO di HCl, rappresentato come una superficie ad uguale densità di carica 180 CAPITOLO 5. METODI DI BASE DELLA CHIMICA QUANTISTICA M O LLLLDDDDEEEENNNN M O M OO M M M O MO OLLLDDDEEENNN defaults used Edge = 4.04 Space = 0.3000 Psi = 5 Figura 5.11: Orbitale HOMO di H2 O, rappresentato come una superficie ad uguale densità di carica M O LLLLDDDDEEEENNNN M O M OO M M M O MO OLLLDDDEEENNN defaults used Edge = 4.04 Space = 0.1000 Psi = 6 Figura 5.12: Orbitale LUMO di H2 O, rappresentato come una superficie ad uguale densità di carica Capitolo 6 Teoria dei gruppi di simmetria ed orbitali molecolari 6.1 Gruppi di simmetria puntuale Un gruppo G è un insieme di elementi in cui è assegnata una operazione - detta legge di composizione, e che denotiamo per ora con ◦ - che permette di associare ad ogni coppia di elementi x, y ∈ G un elemento x ◦ y ∈ G, e che gode delle seguenti proprietà: Associativa Per ogni terna x, y, z ∈ G vale che (x ◦ y) ◦ z = x ◦ (y ◦ z) (6.1) Elemento neutro Esiste un elemento e ∈ G tale che e◦x=x◦e=x (6.2) Inverso Per ogni x ∈ G esiste un elemento y ∈ G tale che x◦y =y◦x=e (6.3) indichiamo l’inverso di x con x−1 . Se il gruppo G gode della proprietà aggiuntiva Commutativa Per ogni coppia x, y ∈ G vale che x◦y =y◦x (6.4) allora si dice abeliano o commutativo. Esempio 38. Alcuni esempi di gruppi: l’insieme delle permutazioni dei nuclei di una molecola P rispetto all’operazione di composizione (moltiplicazione delle permutazioni); l’insieme di tutte le matrici m × n sul corpo di numeri K rispetto all’addizione; l’insieme dei numeri pari rispetto all’operazione di addizione. 181 182 CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI Alcune definizioni utili relative all’algebra dei gruppi saranno impiegate in seguito. I gruppi sono infiniti o finiti, se il numero dei loro elementi è finito o infinito. L’ordine h di un gruppo finito è il numero di elementi costituenti il gruppo. Definiamo tavola di moltiplicazione o tabella di un gruppo finito la matrice che riassume il risultato dell’operazione del gruppo tra ogni coppia di elementi del gruppo. Definiamo un sottogruppo come un sottoinsieme del gruppo che gode delle proprietà di gruppo. Diciamo gruppo ciclico quel gruppo costituito da e, un elemento a e da tutte le potenze con esponente 0 ≤ n ≤ h dell’elementoa, vale a dire a ◦ a ◦ . . . ◦ a (n volte). Definiamo infine il concetto di classe: • due elementi a e b di un gruppo G si dicono coniugati quando esiste un terzo elemento del gruppo x tale che b = x−1 ◦ a ◦ x; si noti che ogni elemento è coniugato di se stesso e che se a è coniugato a b e b è coniugato a c, allora a è coniugato a c. • il sottoinsieme di G che contiene tutti gli elementi coniugati fra loro è una classe di G. Nel seguito ci occuperemo dei gruppi formati dalle operazioni di simmetria di un corpo rigido: gruppo di simmetria: l’insieme di operazioni di simmetria relative ad un corpo rigido, considerato come un insieme di punti materiali verifica le condizioni di gruppo, rispetto all’operazione di composizione (applicazione successiva) di due operazioni di simmetria. In generale si definisce operazione di simmetria una trasformazione delle coordinate dell’insieme di punti materiali che porta ogni punto in un punto equivalente. Nel caso di un sistema molecolare l’insieme dei punti materiali coincide con i nuclei. Un’operazione di simmetria è definita rispetto ad elemento di simmetria, che è un ente geometrico (punto, retta o piano) rispetto al quale possono essere eseguite una o più operazioni di simmetria. La composizione, cioè l’applicazione successiva di due operazioni A1 e A2 (prima A1 e dopo A2 ) si indica con A2 A1 . Nel seguito considereremo i soli gruppi di simmetria puntuali, vale a dire quei gruppi di operazioni di simmetria che conservano la posizione di un punto, comune a tutte le operazioni del gruppo, e non tratteremo dei gruppi spaziali, che includono operazioni di traslazione e non conservano perciò alcun punto fermo. I gruppi spaziali sono necessari per la comprensione delle simmetrie presenti nei reticoli cristallini. 6.2 Elementi ed operazioni di simmetria Nella trattazione della simmetria molecolare è necessario considerare solo quattro tipi di elementi di simmetria e le relative operazioni di simmetria. Nel seguito useremo per chiarezza il carattere tipografico per indicare un elemento di simmetria, distinguendolo dalle operazioni di simmetria da esso generate. Assumiamo per semplicità che un sistema di riferimento xyz sia definito in modo solidale con la molecola (sistema di riferimento molecolare). identità: è l’operazione E che lascia invariata la configurazione del sistema molecolare rotazione propria: un asse proprio di simmetria Cn è associato ad un’operazione di rotazione propria, ovvero ad una rotazione in senso orario di un angolo 2π/n attorno all’asse dove n è il maggior intero che genera una configurazione equivalente. Un asse di simmetria C3 permetterà di definire 6.2. ELEMENTI ED OPERAZIONI DI SIMMETRIA 183 le operazioni C3 (rotazione di 2π/3), C32 (rotazione di 4π/3) e C33 = E (rotazione di 2π, cioè l’identità). Facendo coincidere l’asse di simmetria con l’asse z molecolare, le componenti di un ~ saranno ruotate dall’operazione Cn secondo la trasformazione generico vettore R x0 cos 2π/n − sin 2π/n 0 x y 0 = sin 2π/n cos 2π/n 0 y z0 0 0 1 z (6.5) riflessione: un piano di simmetria molecolare σ permette di definire una operazione di riflessione σ. Si noti che σ 2 = E. Parliamo di operazioni di simmetria σv se sono associate a piani di simmetria che contengono l’asse principale di rotazione del sistema molecolare. Se l’asse del piano di simmetria forma un angolo φ con l’asse x del sistema molecolare le componenti di un vettore generico sono trasformate come cos 2φ sin 2φ 0 x x0 y 0 = sin 2φ − cos 2φ 0 y z0 0 0 1 z (6.6) Parliamo di operazioni di simmetria σh se sono associate al piano di simmetria xy perpendicolare all’asse principale di rotazione del sistema molecolare; le componenti di un vettore generico sono trasformate come x0 1 0 0 x y0 = 0 1 0 y z0 0 0 −1 z (6.7) inversione: un centro di inversione i permette di definire l’operazione di inversione i. Iterando i per n volte con n pari si ottiene l’identità, con n dispari si riottiene i. Se poniamo i nell’origine del sistema del sistema molecolare le componenti di un vettore generico sono trasformate come x0 −1 0 0 x y 0 = 0 −1 0 y 0 z 0 0 −1 z (6.8) rotazione impropria una rotazione impropria Sn di ordine n è costituita da una rotazione propria e da una riflessione rispetto ad un piano perpendicolare all’asse di rotazione (indipendentemente dall’ordine di esecuzione). L’asse di rotazione impropria si indica con Sn . Se esistono un asse di rotazione propria e un piano di riflessione perpendicolare esiste anche l’asse di rotazione impropria, ma può anche darsi l’esistenza di Sn senza Cn e σh . Per un vettore generico, la rotazione impropria si può scrivere come cos 2π/n − sin 2π/n 0 x x0 y 0 = sin 2π/n cos 2π/n 0 y 0 0 −1 z z0 (6.9) 184 CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI Casi particolari sono dati dalla rotazione impropria di ordine 1, che coincide con σh , S2 = σh e dalla rotazione impropria di ordine 2, che coincide con l’inversione, S2 = i. Un asse improprio di ordine n genera le operazioni Sn , Sn2 , . . . , Snn ; per n pari Snm = Cnm se m è pari, quindi per esempio per n pari Snn = Cnn = E. Viceversa, per n dispari Snn = σh . Si noti che per n dispari l’esistenza di Sn implica l’esistenza di σh e Cn . Un sistema molecolare che non possiede nessun asse di simmetria improprio è dissimetrica, cioè non può essere sovrapposta alla sua immagine speculare (vale a dire, o ha solo assi di rotazione propria o non ha alcun elemento di simmetria). 6.3 Gruppi puntuali Possiamo classificare i vari gruppi puntuali di simmetria considerando i vari possibili insiemi completi di operazioni di simmetria. I gruppi di simmetria sono denominati secondo due nomenclature fondamentali, basate sulla notazione di Schœnflies ed internazionale. Nel seguito adotteremo sempre la notazione di Schœnflies1 . gruppo C1 È costituito dall’identità E. La molecola non ha elementi di simmetria. gruppi Cs e Ci È presente solo un piano di riflessione σ o solo un centro di inversione i. Sono entrambi gruppi ciclici di ordine 2. gruppi Cn È presente un asse proprio Cn , che genera le operazioni Cn , Cn2 , . . . , Cnn = E. Sono gruppi ciclici di ordine n. gruppi Sn È presente un asse improprio di ordine n pari. Sono gruppi ciclici di ordine n. S2 è equivalente a i. gruppi Dn È presente un asse proprio Cn ed n assi di rotazione binaria perpendicolari. L’ordine è 2n. gruppi Cnh Sono presenti un asse proprio Cn ed il piano di riflessione σh . L’ordine è 2n. Corrispondono ai gruppi Sn con n dispari. gruppi Cnv Sono presenti un asse proprio Cn ed n piani verticali di riflessione σv . L’ordine è 2n. gruppi Dnh Sono presenti un asse proprio Cn , n assi di rotazione binaria perpendicolari ed il piano di riflessione σh . L’ordine è 4n. gruppi Dnd Sono presenti un asse proprio Cn , n assi di rotazione binaria perpendicolari ed n piani diedri σd , ovvero piani di riflessione che bisecano gli angoli tra coppie adiacenti di assi binari. L’ordine è 4n. gruppi C∞v e D∞h Sono gruppi infiniti relativi a molecole lineari eteronucleari, C∞v , con un asse C∞ ed infiniti assi binari perpendicolari; e molecole lineari omonucleari, D∞h , con un asse C∞ , infiniti assi binari perpendicolari ed un piano di riflessione orizzontale. 1 La notazione di Schœnflies usa nomi simili alle operazioni di simmetria principali del gruppi considerati, che iniziano per C, da “cyclic”, D, da “dyhedral”, S, da “spiegel” con l’aggiunta di apici quali h , v e d rispettivamente da “horizontal”, “vertical” e “diagonal”. 6.4. RAPPRESENTAZIONI 185 gruppi dei solidi platonici Sono i gruppi ad elevata simmetria dei cinque solidi platonici: tetraedro (Td , ordine 24), cubo ed ottaedro (Oh , ordine 48), dodecaedro e icosaedro (Ih , ordine 120). 6.4 Rappresentazioni Consideriamo un gruppo di simmetria puntuale G ed un insieme di funzioni fi tali che applicando una qualunque delle operazioni di simmetria R ad una di esse si ottiene una combinazione lineare delle funzioni stesse: Rfi = g X Rki fk (6.10) k=1 Se non è possibile trovare un insieme di combinazioni lineari di m tra le funzioni fi , con m < g, diciamo che le funzioni fi formano una rappresentazione irriducibile di dimensione g del gruppo G. Altrimenti si parla di rappresentazione riducibile. Data una rappresentazione di dimensione g, ad ogni operazione R è associabile la matrice R con elementi Rki . Il carattere χ(R) di una operazione R rispetto ad una data rappresentazione è la traccia della matrice associata. Nel caso di una rappresentazione (irriducibile, naturalmente) monodimensionale i caratteri sono tutti pari a +1 o −1. In generale una rappresentazione è descritta da una tabella dei caratteri che elenca i caratteri associati ad ogni operazione di simmetria. Le rappresentazioni irriducibili monodimensionali, bidimensionali, tridimensionali sono denominate con lettere e numeri in considerazione del carattere di alcune operazioni di simmetria secondo la seguente nomenclatura • A e B indicano rappresentazioni monodimensionali); E bidimensionali; T tridimensionali • gli indici 1 e 2 si aggiungono ad A o B per indicare che il carattere di ua rotazione relativa ad un asse C2 perpendicolare all’asse principale è +1 o −1. • gli indici 0 e 00 si aggiungono ad tutti simboli per indicare che il carattere di una riflessione relativa ad un piano σh è +1 o −1. • gli indici g (da “gerade”) e u da (“ungerade”) si aggiungono a tutti i simboli per indicare che il carattere di un’inversione relativa ad un centro σh è +1 o −1. Classificazioni più complesse con indici numerici, sono definite per rappresentazioni E, T e cosı̀ via. Il numero ed il tipo di rappresentazioni irriducibili distinte di un dato gruppo puntuale è una proprietà univocamente definita del gruppo stesso. Data una qualunque rappresentazione, o è irriducibile, o è possibile ridurla ad una somma di rappresentazioni irriducibili, tra quelle ammesse dal gruppo. La rappresentazione monodimensionale con caratteri tutti uguali a 1 è detta rappresentazione totalsimmetrica del gruppo. Consideriamo nel seguito due rappresentazioni, di dimensione gi e gj . Vale il seguente teorema generale: Teorema di ortogonalità Se h è l’ordine del gruppo, e gi , gj le dimensioni di due rappresentazioni, allora X R h (i) ∗ (j) Rmn Rm0 n0 = √ δij δmm0 δnn0 gi gj (6.11) 186 CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI (i) dove con Rmn indichiamo l’elemento mn della matrice rappresentativa dell’operazione R relativo alla rappresentazione i-esima. Da questo teorema generale discendono varie conseguenze, di importanza applicativa, che si possono riassumere nei seguenti tre vincoli 1. La somma dei quadrati delle dimensioni delle rappresentazioni irriducibili di un gruppo è uguale all’ordine del gruppo 2. In una data rappresentazione, i caratteri di tutte le operazioni appartenenti alla stessa classe hanno lo stesso carattere. 3. Il numero delle rappresentazioni irriducibili di un gruppo è uguale al numero di classi del gruppo. Date due rappresentazioni irriducibili, vale il seguente teorema di ortogonalità derivato direttamente dal precedente teorema generale sommando i termini diagonali delle matrici rappresentativi delle operazioni: Teorema di ortogonalità delle rappresentazioni Se gi , gj sono le dimensioni di due rappresentazioni irriducibili, allora X ∗ χ(i) (R) χ(j) (R) = gi gj δij (6.12) R per i = j ritroviamo il primo vincolo. Data una rappresentazione riducibile, possiamo scrivere per ogni operazione χ(r) (R) = X ai χ(i) (R) (6.13) i ed utilizzando il precedente teorema di ortogonalità possiamo ricavare i coefficienti ai che permettono di sviluppare la r-esima rappresentazione riducibile come una combinazione lineare delle rappresentazioni ∗ irriducibili; moltiplicando per χ(j) (R) entrambi i membri e sommando su tutte le operazioni R si ottiene 1 X (j) ∗ χ (R) χ(r) (R) (6.14) aj = h R Noti i caratteri di una rappresentazione riducibile, e la tabella dei caratteri del gruppo di simmetria puntuale, è dunque possibile calcolare il coefficiente della rappresentazione irriducibile in analogia al calcolo della componente di Fourier di un elemento generico di uno spazio vettoriale (la rappresentazione riducibile) rispetto ad un elemento della base ortogonale (la rappresentazione irriducibile). Un utile concetto per la costruzione di rappresentazioni di gruppi di simmetria è dato dal prodotto diretto di due rappresentazioni. Siano αi le funzioni che definiscono una data rappresentazione e βi quelle che definiscono un’altra rappresentazione. Allora si può costruire la rappresentazione prodotto (α) (β) diretto come l’insieme di tutti i prodotti αi βj . Se Rmn e Rm0 n0 sono le matrici rappresentative di una generica operazione R del gruppo, allora la matrice rappresentativa nella rappresentazione prodotto diretto è data come (αβ) (β) (α) Rmm0 ,nn0 = Rmn Rm0 n0 (6.15) che è il prodotto di Kronecker delle due matrici Rα e Rβ ; formalmente si scrive anche R(αβ) = Rα ⊗Rβ . Si noti che χ(αβ) (R) = χ(α) (R)χ(β) (R), e che in generale la rappresentazione prodotto diretto, anche di due rappresentazioni irriducibili, è riducibile. 6.5. OPERATORI DI PROIEZIONE 6.5 187 Operatori di proiezione Data un determinato insieme di funzioni che costituisca una rappresentazione di un gruppo, è utile disporre di un metodo sistematico per costruire le rappresentazioni irriducibili contenute. Uno strumento formale molto utile è l’operatore di proiezione P (i) che proietta la base per la i-esima rappresentazione irriducibile del gruppo, e che ha la forma P (i) = gi X (i) ∗ χ (R) R h R (6.16) L’utilità dell’operatore di proiezione è costituita dal fatto che si possono costruire basi per rappresentazioni irriducibili in modo semplice una volta nota basi per rappresentazioni irriducibili. Consideriamo per esempio il caso del gruppo C3v , che ammette le rappresentazioni irriducibili A1 , A2 ed E. Costruiamo i tre operatori di proiezione PA1 = ´ 1³ E + C3 + C32 + σ1 + σ2 + σ3 6 (6.17) PA2 = ´ 1³ E + C3 + C32 − σ1 − σ2 − σ3 6 (6.18) PE = ´ 2³ 2E − C3 − C32 3 (6.19) Prendiamo in esame la funzione x2 . Applicando gli operatori precedenti otteniamo: PA1 x2 ∝ x2 + y 2 (6.20) PA2 x2 ∝ 0 (6.21) PE x2 ∝ x2 − y 2 (6.22) dalla tabella del gruppo C3v troviamo infatti che x2 + y 2 è base per la rappresentazione irriducibile A1 , mentre x2 − y 2 è una delle funzioni di base per la rappresentazione irriducibile bidimensionale E. La funzione x2 non ha componenti appartenenti alla rappresentazione irriducibile A2 . 6.6 Applicazioni al calcolo di orbitali molecolari L’applicabilità della teoria dei gruppi puntuali al calcolo di orbitali molecolari è evidente nel caso del calcolo di elementi di matrice di operatori che condividono la simmetria del gruppo di punti di un sistema molecolare. Consideriamo un operatore F che sia invariante rispetto alle operazioni di simmetria di un gruppo puntuale e calcoliamo l’elemento di matrice Z hφ1 |F|φ2 i = dqφ∗1 Fφ2 (6.23) Il valore dell’integrale è zero a meno che la funzione integranda sia invariante rispetto a tutte le operazioni di simmetria del gruppo, o se almeno una sua parte sia invariante, cioè se costituisce o contiene una base per la rappresentazione totalsimmetrica del gruppo. Poichè l’operatore F è invariante rispetto a tutte le 188 CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI operazioni del gruppo, l’integrale è diverso da zero se la funzione φ∗1 φ2 appartiene alla rappresentazione totalsimmetrica. Possiamo considerare la funzione prodotto come un elemento della rappresentazione prodotto diretto α di due rappresentazioni α1 e α2 , cui appartengono rispettivamente φ∗1 e φ2 . Dalle proprietà delle rappresentazioni prodotto diretto, discende che α contiene la rappresentazione totalsimmetrica solo α1 = α2 . Infatti la componente aA della rappresentazione totalsimmetrica contenuta in α è aA = 1 X (α) 1 X (α1 ) ∗ χ (R) = χ (R) χ(α2 ) (R) = δα1 α2 h R h R (6.24) Il calcolo degli elementi di matrice dell’operatore hamiltoniano o dell’operatore di Fock può perciò essere notevolmente semplificati se si scelgono funzioni di base raggruppate secondo la loro appartenenza alle rappresentazioni irriducibili del gruppo di simmetria molecolare. Combinazioni lineari di orbitali determinate secondo questo criterio si dicono orbitali adattati per simmetria. La simmetria è infine conservata nella definizione degli autostati degeneri di un hamiltoniano. Nel caso infatti un hamiltoniano ammetta autostati degeneri è possibile dimostrare che Teorema Ogni autofunzione di un hamiltoniano di un sistema quantomeccanico corrisponde ad una rappresentazione irriducibile del gruppo di simmetria cui appartiene il sistema, vale a dire ogni insieme di autofunzioni relative ad un autovalore degenere g volte è base per una rappresentazione irriducibile di dimensione g. 6.7 Alcuni esempi Consideriamo un sistema costituito da un solo nucleo. Il gruppo di simmetria di appartenenza è il gruppo infinito delle rotazioni nello spazio R3 , in cui la rotazione di un angolo qualunque attorno ad un asse passante per il nucleo lascia il sistema invariato. Consideriamo ora le funzioni armoniche sferiche Ylml (θ, φ) per un dato valore di l: poichè per definizione una rotazione applicata ad una di queste 2l + 1 funzioni genera una loro combinazione lineare, costituiscono una base - che si può verificare essere irriducibile - del gruppo R3 . Gli autostati dell’hamiltoniano atomico saranno perciò almeno 2l + 1 degeneri e le autofunzioni avranno la forma generica φ(r, θ, φ) = R(r)Ylml (θ, φ) (6.25) dove R(r) è invariante per simmetria rotazione, quindi funzione del modulo r. I vari livelli energetici s, p, d sono dunque coincidenti con rappresentazioni irriducibili monodimensionali, tridimensionali, pentadimensionali del gruppo R3 . Nel caso di molecole lineari omonucleari il gruppo di simmetria di appartenenza è, come abbiamo visto, D∞h . Lo stato fondamentale di una molecola lineare omonucleare apparterrà alla rappresen+ proviene dal fatto tazione irriducibile monodimensionale totalsimmetrica di D∞h , detta Σ+ g (l’apice che χ(σv ) = 1, mentre il pedice g è dovuto aχ(i) = 1). Lo stato successivo, primo singoletto eccitato, appartiene ancora ad un rappresentazione irriducibile monodimensionale, Σ+ u , antisimmetrica all’inversione. Continuando in questo modo possiamo classificare gli autostati degeneri appartenenti ad altre rappresentazioni, e.g. Πu , bidimensionale. Nella costruzione degli orbitali di simmetria adattati 6.8. UN ESEMPIO NON TRIVIALE: IL BENZENE 189 per il calcolo HF della molecola di idrogeno la scelta intuitiva di φg ∝ 1sA + 1sB e φu ∝ 1sA − 1sB si + può quindi razionalizzare come la definizione di due funzioni di base rispettivamente per Σ+ g e Σu . Consideriamo la base minimale per una calcolo HF relativo alla molecola di acqua, che appartiene al gruppo C2v : 1s per ciascun H e 1s,2s,2px,y,z per O. Gli AO si possono classificare facilmente secondo le rappresentazioni irriducibili di C2v √ A1 : 1s, 2s, 2pz , (1sH1 + 1sH2 )/ 2 B1 : 2px √ B2 : 2py , (1sH1 − 1sH2 )/ 2 Il calcolo HF è dunque fattorizzato in un blocco 4 × 4, in uno monodimensionale ed in uno 2 × 2. Lo stato fondamentale della molecola, che appartiene alla rappresentazione totalsimmetrica A1 di C2v ha la seguente configurazione: (1a1 )2 (2a1 )2 (1b2 )2 (3a1 )2 )(1b1 )2 dove 1a1 , 2a1 etc. sono orbitali atomici calcolati appartenenti ad A1 e cosı̀ via: la procedura HF genera perciò tre orbitali reali ed uno virtuale appartenenti alla A1 , un orbitale reale appartenente alla B1 , un orbitale reale ed uno virtuale appartenente alla B2 . 6.8 Un esempio non triviale: il benzene Discutiamo la scelta di un insieme di orbitali atomici SALC (Symmetry Adapted Linear Combination) per il benzene C6 H6 . La base minima per una calcolo HF è data da 36 orbitali atomici: sei di tipo 1s per ciascun idrogeno e sei insiemi 1s, 2s, 2p per ciascun carbonio. Nel caso degli orbitali 2p giacenti nel piano dell’anello, definiamo per ogni carbonio un sistema di riferimento locale, orientati in maniera tale da essere equivalenti per rotazione intorno all’asse di simmetria C6 del benzene, che appartiene al gruppo di simmetria D6h : per ogni carbonio scegliamo poi due opportune combinazioni lineari degli orbitali 2px e 2py che sono equivalenti per rotazione. Gli AO cosı̀ definiti si possono raggruppare secondo la tabella 6.1. Cosı̀ per esempio si possono costruire quattro orbitali molecolari appartenenti rappresentazione irriducibile tipo di funzioni di base numero di MO A1g B1u E1u E2g A2u B2g E1g E2u B2u 1sH , 1s, 2s, 2px,y 1sH , 1s, 2s, 2px,y 1sH , 1s, 2s, 2px,y 1sH , 1s, 2s, 2px,y 2pz 2pz 2pz 2pz 2px,y 4 4 10 10 1 1 2 2 2 Tabella 6.1: Rappresentazioni irriducibili e AO di base del benzene alla rappresentazione irriducibile A1g che coinvolgono gli orbitali degli idrogeni, gli orbitali 1s, 2s e 2p 190 CAPITOLO 6. TEORIA DEI GRUPPI DI SIMMETRIA ED ORBITALI MOLECOLARI nel piano dei carboni, quattro orbitali molecolari appartenenti alla rappresentazione irriducibile B1u che coinvolgono gli orbitali degli idrogeni, gli orbitali 1s, 2s e 2p nel piano dei carboni etc. La matrice y 1 6 2 x z 5 3 4 Figura 6.1: Set di orbitali 2p nel piano per il benzene rappresentativa dell’operatore di Fock è perciò fattorizzabile in due blocchi 4 × 4, due 10 × 10 ed uno 2× che si riferiscono ad orbitali molecolari coinvolgenti legami nel piano dell’anello (A1g , B1u , E1u , E2u e B2u ) e due blocchi 1 × 1 e due blocchi 2 × 2 che si riferiscono ad orbitali molecolari coinvolgenti legami perpendicolari al piano dell’anello (A2u , B2g , E1g , E2u ). Capitolo 7 Cenni a metodi semiempirici e tecniche avanzate 7.1 Metodi semiempirici Come è stato già accennato nell’introduzione, i vari metodi semiempirici comportano l’introduzione di approssimazioni e semplificazioni nella forma degli hamiltoniani elettronici e nella definizione degli integrali mono e multi-centro che devono essere valutati nel corso di un calcolo esatto. È abbastanza difficile dare delle classificazioni generali dei vari metodi semiempirici. Di conseguenza discuteremo il piú semplice (e forse, malgrado tutto, ancora piú usato) schema semiempirico, l’approssimazione di Hückel, come un esempio particolare degli schemi generali di approssimazione tipici di molti metodi semiempirici. Questa Sezione si concluderà poi con un richiamo alla classe di metodi semiempirici del tipo NDO. 7.1.1 Metodo di Hückel Il metodo di Huc̈kel è applicabile a molecole organiche, nelle quali sia possibile separare una classe di elettroni relativamente localizzati ed inattivi, tipicamente impegnati in legami σ, e un’insieme di elettroni delocalizzati e reattivi, impegnati in legami π. La natura di questa identificazione può non essere affatto chiara, anche se nei casi più comuni (p. es. l’insieme di legami coniugati nei sistemi aromatici) risulta essere abbastanza ovvia. Le classi piú comuni di molecole coinvolte sono: • Polieni lineari: es. 1,3-butadiene; • idrocarburi aromatici: benzene, naftalene; • etero-molecole aromatiche: piridina, furano, acroleina; Il sistema più semplice è il radicale planare CH3 · ( (1s)2 (Ω1 )2 (Ω2 )2 (Ω3 )2 (2pz ) Ωi = 1sH + λsp2 (1s)2 : inner shell (Ωi )2 : elettroni σ (2pz ) : elettrone π 191 192 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE 2p z H H C H Figura 7.1: Radicale CH3 · Un tentativo di sistematizzazione dell’approssimazione di Hückel è stato dato da Likos e Parr nell’ambito di un formalismo di partenza di tipo Hartree-Fock. Sotto le condizioni di separabilità σ − π si può separare il calcolo della parte della funzione d’onda riferita ai soli orbitali π. Le equazioni di Roothaan per l’hamiltoniano π−HF: Fπ C = ∆C² (7.1) generano il seguente problema agli autovalori per la determinazione dei livelli energetici: |Fπ − ²∆| = 0 (7.2) Come è tipico di quasi tutte le metodologie di calcolo semiempiriche, il passo successivo è dato dalla parametrizzazione degli elementi di matrice: ∆rs = δrs (7.3) Frr = αr (7.4) ( Frs = βr atomi primi vicini 0 altrimenti (7.5) αr è l’integrale di Coulomb, βr è l’integrale di risonanza. In assenza di eteroatomi: αr = α (7.6) βr = β (7.7) Ponendo x = (α − ²)/β, il calcolo è ricondotto alla diagonalizzazione della matrice topologica A: |A − x1| = 0 dove Ars è 1 per atomi primi vicini, 0 altrimenti. (7.8) 7.1. METODI SEMIEMPIRICI 2p 193 2p z z 2p C C 2p z z 2 1 C C 4 3 Figura 7.2: Esempio: 1,3-butadiene. Consideriamo p. es. il caso dell’1,3-butadiene. La matrice topologica è data da: A= 0 1 0 0 1 0 1 0 0 1 0 1 0 0 1 0 (7.9) Il gruppo di simmetria a cui appartiene il trans-1,3-butadiene è il C2h . C2h E C2 i σh Ag Au Bg Bu 1 1 1 1 1 1 -1 -1 1 -1 1 -1 1 -1 -1 1 Rz , x2 , y 2 , z 2 , xy z Rx , Ry , xz, yz x, y Tabella 7.1: Tabella dei caratteri del gruppo C2h R̂ R̂φ1 R̂φ2 R̂φ3 R̂φ4 E C2 i σh φ1 φ4 −φ4 −φ1 φ2 φ3 −φ3 −φ2 φ3 φ2 −φ2 −φ3 φ4 φ1 −φ1 −φ4 Tabella 7.2: Funzioni φi in C2h Possiamo perciò utilizzare la simmetria delle funzioni di base nel gruppo C2h per semplificare il calcolo. La rappresentazione riducibile è 2Au ⊕ 2Bg . I livelli energetici calcolati corrispondono a due 194 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE funzioni d’onda au e 2 funzioni d’onda bg : ²(2bg ) = α − 1.618β ²(2au ) = α − 0.618β ²(1bg ) = α + 0.618β ²(1au ) = α + 0.618β la configurazione dello stato fondamentale è (1au )2 (1bg )2 =1 Ag Se si fosse partiti dall’isomero cis i risultati finali non sarebbero stati diversi (poichè la matrice topologica dipende solo dalla struttura topologica, cioè dalle connessioni tra atomi, e non dalla loro disposizione nello spazio), anche se si sarebbe dovuto impiegare, per sfruttare proprietà di simmetria, il gruppo C2v . 7.1.2 Neglect-of-differential-overlap (NDO) Concludiamo questa Sezione con un cenno alla classe di metodi semiempirici del tipo NDO. Il differential overlap tra due funzioni atomiche φk e φl è definito come la probabilità di trovare l’elettrone i-esimo in un elemento di volume comune: dkl = φk (i)φl (i) (7.10) L’approssimazione zero-differential-overlap (ZDO) consiste nel porre: dkl = dkk δkl (7.11) L’approssimazione ZDO comporta varie conseguenze nella valutazione dei gli integrali di overlap, di Coulomb etc.: Skl = hφk |φl i ∝ δkl Nn = Zn hφk | r1ni |φl i ∝ δkl overlap (7.12) interazione elettrone-nucleo J, K = hφk (i)φm (j)| r1ij |φl (i)φn (j)i ∝ δkl δmn scambio e repulsione (7.13) (7.14) Lascia però inalterati gli integrali che coinvolgono operatori differenziali: ˆ 2 |φl i Ii = hφk |∇ i energia cinetica (7.15) I vari metodi semiempirici implicano sia regole di eliminazione o semplificazione degli integrali multicentro che di parametrizzazione di alcuni o tutti gli integrali rimanenti. I parametri ottimizzabili del calcolo sono di solito gli integrali a 1 elettrone e parti degli integrali a 2 elettroni (nel caso precedente dell’approssimazione di Hückel i numeri α e β). I vari schemi NDO corrispondono a diverse parametrizzazioni, fatta salva la comune applicazione a diversi livelli di sofisticazione, dell’approssimazione NDO. • Complete NDO; Pople et al.; adotta l’approssimazione ZDO – CNDO/1 – CNDO/2 • Intermediate NDO; adotta l’approssimazione ZDO solo per gli integrali a 2 centri 7.2. IL METODO DEL FUNZIONALE DENSITÀ 195 • Modified NDO; Pople et al.; INDO con una parametrizzazione più complessa – MNDO/1 – MNDO/2 – MNDO/3 • Partial Neglect of Diatomic DO; MNDO solo per orbitali su centri diversi. Il metodo MNDO è stato utilizzato per calcolare calori di formazione, ottimizzare geometrie molecolari, calcolare potenziali di ionizzazione e momenti di dipolo, rivelandosi utile soprattutto per idrocarburi ciclici, ma dimostrando per esempio di non essere in grado di descrivere quantitativamente interazioni dovute a legami idrogeno. Metodi semiempirici più sofisticati sono ormai disponibili da molti anni in letteratura: ricordiamo tra gli altri i metodi PM3 e AM1. 7.2 Il metodo del funzionale densità Il metodo del funzionale densità (density functional, DF) è divenuto, a partire dai primi anni ’80, una delle tecniche computazionali più versatili per il calcolo di strutture elettroniche molecolari. Il metodo DF è al giorno d’oggi applicato con successo al calcolo di dati termochimici, strutture molecolari, frequenze e campi di forza, interpretazione di segnali NMR, ESR ed UV, studio di stati di transizione, calcolo di momenti dipolari etc. La popolarità del metodo DF è basata su • la sua applicabilità a sistemi molecolari relativamente grandi (50-100 atomi): a differenza di altri metodi post-HF) il metodo DF non riscala in modo proibitivo con il numero di elettroni del sistema • l’accordo dimostrato con dati sperimentali di vario tipo, grazie alla descrizione relativamente accurata dell’energia di correlazione del sistema. Consideriamo un sistema di N elettroni. Sia H l’hamiltoniano elettronico, (privo di termini d’interazione con i nuclei) del sistema e sia Ψ la funzione d’onda dello stato fondamentale, che supponiamo non degenere. Sia infine ρ(~r) la densità elettronica nel punto ~r, che è in generale una funzione soggetta al vincolo Z d~rρ(~r) = N (7.16) Alla base del metodo DF è la possibilità, formalmenta dimostrata da Hohenberg e Kohn nel 1964, ed in seguito ulteriormente elaborata da Levy, di scrivere l’energia dello stato fondamentale del sistema come un funzionale della densità elettronica. Si può infatti affermare che 1. esiste un funzionale universale F hΨ|H|Ψi = F [ρ] (7.17) 2. in presenza di un potenziale ’esterno’ V (~r), e nel nostro caso il potenziale esterno sarà sempre identificato con l’interazione con M nuclei fissi V (~r) = − M X Zp ~ r| p=1 |Rp − ~ (7.18) 196 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE l’energia dello stato fondamentale E del sistema è legata ad F dalla relazione Z E[ρ] = d~rV (~r)ρ(~r) + F [ρ] (7.19) Il funzionale f avrà un minimo in corrispondenza della esatta densità ρ corrispondente alla esatta funzione d’onda Ψ. Nota la forma del funzionale è perciò possibile in linea di principio risolvere il problema variazionale di minimizzare il funzionale E[ρ] rispetto alla funzione ρ, con il vincolo (7.16). Il metodo DF prevede la definizione di una forma approssimata del funzionale F , o di alcune sue parti, in una forma conveniente per il calcolo del minimo di E. 7.2.1 Equazioni di Kohn-Sham L’implementazione usuale del metodo del funzionale densità è basata sulle equazioni di Kohn-Sham, che riconducono il calcolo di una struttura multielettronica alla determinazione di un insieme di orbitali monoelettronici, in analogia con il trattamento tradizionale HF. È dato un sistema di N elettroni interagenti, e sottoposti al potenziale esterno V (~r). Secondo il modello monoelettronico KS, è possibile associare al sistema cosı̀ definito un insieme di orbitali monoatomici φi (~r) (i = 1, . . . , N ) che consentono di scrivere senza alcuna approssimazione l’energia totale del sistema nella forma Z E = T [ρ] + 1 ρ(~r1 )V (~r1 )d~r1 + 2 Z ρ(~r1 )ρ(~r2 ) d~r1 d~r2 + Exc |~r1 − ~r2 | (7.20) dove il primo termine T [ρ] è un funzionale che rappresenta l’energia cinetica di un sistema di N elettroni non interagenti T [ρ] = − 1X 2 i Z ˆ 2 φi (~r) φ∗i (~r)∇ (7.21) che abbiano la medesima densità del sistema originario, definita in funzione degli orbitali come ρ(~r) = N X |φi (~r)|2 (7.22) i=1 Il secondo termine tiene conto dell’interazione elettronico-nucleare, mentre il terzo esplicita l’interazione coulombiana tra le due distribuzioni di carica ρ(~r1 ) e ρ(~r2 ). L’equazione (7.20) è determinata a meno della quantità Exc , detta energia di scambio-correlazione (exchange-correlation), e che riveste un ruolo fondamentale nella metodologia DF. La scelta di una forma funzionale per Exc determina in ultima analisi l’accuratezza del calcolo, e costituisce il nucleo centrale di qualunque applicazione del metodo DF. Gli orbitali elettronici sono determinati mediante le equazioni di Kohn-Sham, che ricordano molto da vicino le corrispondenti equazioni HF ĥKS φi = ²i φi (7.23) dove l’operatore monoelettronico ĥKS è definito come 1 ˆ2 + VKS (~r) ĥKS = − ∇ 2 (7.24) 7.3. INTRODUZIONE AI METODI IBRIDI QM/MM 197 Il potenziale efficace di Kohn-Sham è definito come la somma del potenziale esterno, di un termine che dipende dall’interazione coulombiana e della derivata funzionale dell’energia di scambio-correlazione: Z VKS (~r) = V (~r) + Vxc (~r) = ρ(~r0 ) d~r0 + Vxc (~r) |~r − ~r0 | δExc δρ (7.25) (7.26) Le equazioni KS possono essere risolte con la procedura di Roothaan, vale a dire espandendo gli orbitali φi in funzione delle funzioni di base note, e risolvendo il sistema non lineare nei coefficienti dell’espansione in modo iterativo. 7.2.2 Funzionali densità Evidentemente, poichè la determinazione dell’energia di scambio-correlazione non è possibile in modo esatto, è necessario ricorrere ad approssimazioni. Il modello più semplice per definire in modo approssimato il funzionale Exc è detto modello del gas omogeneo di elettroni, e separa il contributo di scambio dal contributo di correlazione: Exc = Ex + Ec (7.27) il primo termine, l’energia di scambio, si ottiene integrando l’energia di un gas uniforme di elettroni di densità ρ su tutto lo spazio delle fasi. Si ottiene l’espressione 3 Ex = − 2 sµ ¶ Z 3 X ρσ (~r)4/3 d~r 4π σ (7.28) dove l’indice σ è riferito agli stati di spin α e β. Il secondo termine Ec è detto energia di correlazione, ed è descrivibile nei termini dell’energia di correlazione per elettrone, ²c [ρα , ρβ ] in un gas con densità ρα e ρβ Z Ec = ρ(~r)²c [ρα (~r), ρβ (~r)]d~r (7.29) varie forme funzionali sono state proposte per l’energia specifica di correlazione ²c . 7.3 Introduzione ai metodi ibridi QM/MM Gli effetti solvente influenzano significativamente la struttura e la reattività delle specie in soluzione ed è per questo che la chimica teorica cerca da decenni di sviluppare metodi computazionali che riescano a descrivere ed a prevedere in maniera quantitativa il comportamento di specie chimiche in soluzione. Questi problemi possono essere trattati a livello molecolare utilizzando metodi di dinamica molecolare e il metodo Monte Carlo nei quali le molecole di soluto sono posizionate in celle unitarie periodiche che contengono anche centinaia o migliaia di molecole di solvente. Le proprietà termodinamiche sono ottenute con un effetto medio sulle configurazioni. La chiave del successo delle simulazioni computazionali di sistemi in fasi condensate è la disponibilità di funzioni che descrivano in modo accurato l’energia potenziale considerando opportunamente le interazione intermolecolari. Teoricamente i metodi quantomeccanici ab-initio (QM) potrebbero essere utilizzati per calcolare sistematicamente le interazioni intermolecolari 198 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE in soluzione e generare i dati energetici e strutturali necessari. In pratica è impossibile trattare un intero sistema in fase condensata mediante calcoli quantistici perchè il tempo di calcolo necessario, anche con il computer piú veloce attualmente disponibile, sarebbe proibitivo anche per sistemi di piccole dimensioni. Devo quindi essere fatte delle approssimazioni. In genere vengono utilizzate delle funzioni empiriche per il potenziale ma sono difficili da associare al molecular mechanics (MM) force field. La difficoltà è dovuta al fatto che la struttura elettronica non viene esplicitamente rappresentata, i campi di forza MM non sono adeguati e le funzioni empiriche che descrivono il potenziale (e di conseguenza i semplici metodi di dinamica molecolare) non sono in grado di descrivere neppure approssimativamente reazioni chimiche evolvono con rottura o formazione di un legame. I sistemi di interesse chimico in biologia computazionale e nella catalisi, per fare un esempio dei campi di maggiore applicazione, sono sistemi in fasi condensate composti da molte migliaia di atomi gli studi ed è per questo che negli ultimi anni sono aumentati rapidamente gli studi e di conseguenza le pubblicazioni e le reviews [22] sui metodi QM/MM con conseguente sviluppo di adeguati software per la loro implementazione (CHARMM). L’approccio alternativo dei metodi ibridi QM/MM consiste nel suddividere il sistema in due parti trattando una parte mediante metodi QM e una parte mediante una metodologia classica MM. 7.4 I metodi ibridi QM/MM Lo sviluppo dei metodi ibridi QM/MM che inizia con gli studi pionieristici di Warshel e Levitt [23] e di Singh e Kollman [24] segue come linea generale l’idea che un sistema chimico composto da centinaia o migliaia di atomi possa essere partizionato (7.3) in una regione elettronicamente importante che richiede un trattamento quantomeccanico e la rimanente regione che agisce in modo perturbativo e ammette una descrizione classica. La perturbazione potrebbe essere principalmente meccanica, ad esempio se le forze della regione classica costringono la regione quantistica in una particolare geometria, ma possono includere anche effetti elettronici come l’elettrostatica e la polarizzazione. In questo modo il sistema di reazione (o il sito attivo di un enzima) è trattato esplicitamente mediante una metodologia QM mentre le molecole di solvente che rappresentano l’ambiente di reazione (o gli amminoacidi adiacenti) e costituiscono la parte computazionalmente più pesante nel calcolo delle superfici di potenziale sono trattate mediante MM force field standard. I metodi ibridi hanno il merito di combinare gli approcci classici e quantistici. La parte quantistica permette il calcolo delle proprietà dello stato fondamentale ed elettronico o dei potenziali di ionizzazione nelle reazioni chimiche e richiede una limitata (semiempirici) o addirittura assente (ab-initio) parametrizzazione mentre il successo del campo di forza classico MM è fortemente dipendente dalla calibrazione di un elevato numero di parametri rispetto ai dati sperimentali. La parte classica porta una notevole efficienza computazionali. Dal momento che la struttura elettronica coinvolta nella reazione e le interazioni soluto-solvente sono determinate mediante calcoli quantistici queste procedure si dimostrano di notevole interesse per lo studio di reazioni chimiche. Inoltre gli effetti di polarizzazione del solvente sul soluto sono inclusi nei calcoli QM mediante un modello che descrive il solvente come un dielettrico continuo e calcola l’energia di solvatazione usando il campo di reazione di Onsager. I modelli di questo tipo hanno il vantaggio di essere efficienti per i contributi elettrostatici a lungo raggio nella solvatazione ma non considerano le specifiche interazioni soluto-solvente. In molti casi è invece necessario includere esplicitamente queste interazioni. Conseguentemente è stato sviluppato 7.4. I METODI IBRIDI QM/MM 199 Figura 7.3: Rappresentazione schematica della partizione di un sistema in fase condensata. un modello che tratta il soluto insieme a poche molecole di solvente nei calcoli QM ed incorpora poi esplicitamente modelli classici per il solvente come descritto da Warshel [25] nella teoria del legame empirico di valenza (EVB). Rimane quindi il problema di come includere esplicitamente gli effetti solvente nei calcoli QM, cioè di come trattare la regione tra i sottoinsiemi QM e MM. In teoria la divisione tra le due regioni potrebbe sembrare piuttosto semplice e netta ma raramente è possibile scrivere l’energia totale del sistema in termini di due sottosistemi non interagenti. Molto spesso invece le interazioni tra i due sottosistemi sono piuttosto forti (il caso piú ovvio è quello della presenza di un legame chimico di qualsiasi natura) tanto da rendere necessari dei trattamenti particolari nella zona tra la regione QM e la regione MM. Questi approcci per lo studio delle terminazioni dei metodi QM possono essere grossolanamente divisi in due gruppi principali: 1. approcci basati sui link atoms nei quali vengono aggiunti dei centri addizionali solo nei calcoli QM ma che non sono presenti nell’intero sistema 2. approcci che presentano una boundary region tra la regione QM e MM; i centri che si trovano in tale regione sono soggetti sia a calcoli QM che MM L’ultimo aspetto da considerare per descrivere nella sua interezza il sistema in esame riguarda le condizioni al contorno, cioè l’energia dovuta ai vincoli applicati nella parte più esterna della regione MM e che permette di mantenere la struttura. L’energia totale di un sistema cosı̀ definito può essere espressa in modo semplificato come: E = E(QM ) + E(M M ) + E(QM/M M ) + E(contorno) (7.30) dove E(QM) rappresenta l’energia della regione QM come se fosse isolata, il termine E(MM) fornisce l’energia del sistema MM, E(QM/MM) è l’energia di interazione tra le regioni QM e MM che dipende da come viene definito il sistema in questa delicata regione. Questo termine energetico, che include 200 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE tutti i termini di accoppiamento tra le due regioni, deve tener conto delle interazioni di van der Waals e delle modificazioni dell’Hamiltoniano QM che possono influenzare la regione MM come ad esempio perturbazioni elettrostatiche (non trascurabili in presenza di link atoms). Infine E(contorno) è il termine energetico dovuto ai vincoli imposti nella parte più esterna della regione MM. Nelle sottosezioni successive si andranno a descrivere le metodologie applicabili in ogni regione nella quale è stato diviso il sistema e si tenterà di riportare alcuni buoni criteri di scelta per riuscire a districarsi tra le varie metodologie particolari che sono state sviluppate. 7.4.1 I metodi QM La scelta del metodo QM da utilizzare nei metodi ibridi QM/MM segue fondamentalmente gli stessi criteri da applicare ai puri calcoli QM e cioè si tratta di accettare un ragionevole compromesso tra l’efficienza computazionale e l’accuratezza chimica desiderata. I metodi quantomeccanici per lo studio di molecole possono essere divisi in due categorie: metodi ab-initio e metodi semiempirici. I metodi ab-initio assicurano un’elevata accuratezza ma questa comporta tempi di calcolo proibitivi anche per sistemi di ridotte dimensioni. Tra questi metodi si include l’Hartree-Fock (HF) o teoria dell’orbitale molecolare (MO), la teoria dell’interazione di configurazione (CI), la teoria perturbativa (PT) e la teoria del funzionale densità (DFT). I metodi semiempirici si trovano a metà strada tra un metodo ab-initio e un metodo MM perchè come i secondo utilizzano parametri derivati sperimentalmente per migliorare l’accuratezza ma restano comunque una metodologia di natura quantomeccanica. I metodi semiempirici sono molto più veloci computazionalmente perch eliminano il calcolo di alcuni integrali particolarmente complicati e l’errore introdotto con questa drastica operazione viene compensato attraverso l’uso di parametri: i risultati sono considerati comparabili con calcoli ab-initio che utilizzano uno split valence basis sets 3-21G. Tra queste metodologie possono essere citate l’Austin model 1 (AM1), il PM3, l’EVB, lo ZINDO. La maggior parte delle implementazioni nella regione quantistica sono trattate mediante il metodo empirico del legame di valenza (EVB) di Warshel [25] che include un Hamiltoniano parametrizzato o con metodi semiempirici come AM1 [26] che hanno il vantaggio di essere computazionalmente poco pesanti ma presentano altre notevoli limitazioni. Le maggiori limitazioni sono l’accuratezza e l’affidabilità oltre al fatto che devono essere opportunamente parametrizzate per riprodurre le proprietà delle molecole nello stato fondamentale, parametri che sono disponibili per un limitato range di elementi. Per sopperire a questi limitazioni ultimamente sono stati sviluppati [27] metodi HF [28],[29] e DFT [30],[31],[32] per i calcoli nella regione QM. Entrambi questi metodi assicurano un’elevata accuratezza quantitativa e il DFT è computazionalmente poco costoso pur includendo la correlazione elettronica. Recentemente sono stati implementati programmi basati sul Car-Parrinello DFT [33]. In generale non è quindi possibile determinare i sistemi da studiare con una metodologia rispetto ad un’altra. Fino a poco tempo fa la miglior scelta per problemi inerenti ad applicazioni organiche e biologiche erano sicuramente i metodi semiempirici tanto che la maggior parte dei calcoli riportati in letteratura utilizzano questi metodi; ora però si sono dimostrati competitivi anche i metodi HF e DFT in particolare per lo studio delle reazioni chimiche in sistemi enzimatici e per gli studi sulla complessazione [27]. 7.4. I METODI IBRIDI QM/MM 7.4.2 201 I metodi MM La seconda importante componente della metodologia QM/MM è il campo di forza MM, cioè un set di equazioni matematiche che descrivono l’energia in termini di una distorsione dai valori ideali. Anche se lo scopo della trattazione è la scelta del metodo MM può essere utile una breve descrizione su campi di forza empirici che vengono utilizzati nello studio di liquidi e proteine. Il maggior merito delle simulazioni computazionali di sistemi molecolari è la predizione di strutture di equilibrio e la riproduzione della dinamica dei moti molecolari entrambe definite in termini di forze intra e intermolecolari. Per ottenere questi risultati è necessario conoscere l’energia potenziale del sistema in funzione della struttura molecolare o delle coordinate interne. L’intuizione chimica e l’esperienza dimostrano che atomi e legami mostrano una certa regolarità e valori caratteristici che si riflettono sulla geometria di equilibrio, sulle frequenze vibrazionali e sulle energie di dissociazione. La MM assume che l’energia potenziale di una molecola vicino alla configurazione di equilibrio sia semplicemente una funzione della distanza atomica, degli angoli di legame, etc P bonds E(bonds) P P + angles E(angles) + dihed. E(dihed.)+ E(M M ) = P P P + non−bonds E(non − bonds) + i6=j E(vdW ) + i6=j E(elect.) (7.31) dove l’energia è funzione rispettivamente dello stretching dei legami, del bending degli angoli, degli angoli torsionali, delle interazioni di non-legame e dei vari termini di accoppiamento. un problema pratico in MM è la scelta delle coordinate interne per specificare e definire l’energia molecolare. Tutti i termini descritti nell’equazione sono ricavati attraverso una parametrizzazione del campo di forza ma la determinazione delle costanti di forza non è un procedimento semplice. Innanzitutto si parte definendo un set di molecole e le si associa a determinate proprietà sperimentali che andranno interpolate mediante opportuni campi di forza. I parametri risultanti saranno utilizzati per predire le proprietà di altre molecole. Le proprietà sperimentali includono la struttura molecolare in fase gas, le frequenza vibrazionali, le barriere torsionali, l’energia dei legami idrogeno, l’energia libera di solvatazione, etc In generale la scelta del modello MM [34] da utilizzare dipende può essere significativamente influenzata dal trattamento utilizzato per descrivere la regione di confine tra QM e MM i cui approcci rispetto alle interazioni di legame e di non-legame possono essere notevolmente diversi. La più importante distinzione si ha tra (a) campi di forza di valenza esemplificati da campi di forza biomolecolari (CHARMM e AMBER) e costruiti da termini energetici come lo stretch di legame, il bend degli angoli, etc (b) campi di forza ionici i cui termini principali sono le forze elettrostatiche e a corto raggio (van der Waals). Per la scelta del modello MM si devono quindi precedentemente stimare due aspetti: (a) la scelta del campo di forza influenza la carica parziale atomica che a sua volta ifluisce sulle interazioni QM/MM a lungo raggio, nell’implementazione si utilizza la stessa carica per le interazioni MMMM e MMQM. Il campo di forza ionico tende a generare una carica più grande di quella generata dall’interpolazione del potenziale elettrostatico. In molti casi si sviluppano cariche ioniche formali. (b) Il trattamento dei legami e i contatti interionici tra le regioni QM e MM seguono generalmente lo stesso approccio utilizzato per le interazioni nella regione MM. Nel caso del campo di forza di valenza si identificano facilmente i termini derivati dallo stretch dei legami e dal bend degli angoli e possono quindi essere eliminati i termini che derivano dall’interazione QM. Nei campi di forza ionici i termini di interazione attrattiva a corto-raggio QMMM derivano dalla presenza di cariche MM nell’Hamiltoniano QM e di conseguenza non possono 202 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE essere separate dalle interazioni a lungo-raggio. Per queste ragioni è più semplice utilizzare un campo di forza di valenza. La classe di forze di tipo ionico può essere utilizzata nella regione di confine tra QM e MM ma solamente se le cariche riescono a generare un corretto potenziale elettrostatico nella regione QM. I metodi MM quindi considerano gli elettroni in maniera esplicita ma non trattano la polarizzazione o il trasferimento elettronico. Non considerano neppure la rottura o la formazione di legami e non possono di conseguenza essere usati per simulare reazioni chimiche. Sono invece ampiamente utilizzati per simulare sistemi di notevoli dimensioni come ad esempio le proteine transmembrana. 7.4.3 Trattamento dei termini di accoppiamento di non-legame QM/MM Nella maggior parte dei modelli classici le interazioni di non-legame comprendono le forze elettrostatiche e le forze a corto-raggio o di van del Waals. Nel contesto delle metodologie QM/MM è applicata la stessa nomenclatura per le interazioni di non-legame tra i centri QM e MM. I termini di interazione a corto raggio o di Lennard-Jones Il trattamento delle interazioni QM/MM a corto-raggio segue generalmente lo stesso modello utilizzato per i calcoli MM. Spesso è necessario un nuovo fitting rispetto ai parametri di non-legame ed in particolare nel caso degli studi sulla solvatazione [35] o dove sono particolarmente importanti i contatti dettagliati di non-legame. I termini di interazione elettrostatica Il trattamento delle interazioni elettrostatiche nella regione di confine QM/MM è descritto mediante tre vie da Bakowies e Thiel [36]. I tre metodi sono etichettati come modello A, modello B e modello C: A. modello meccanico nel quale i calcoli QM sono essenzialmente ottenuti in fase gas senza accoppiamento elettronico con l’ambiente. L’energia QM e MM è calcolata separatamente, viene separato il rilassamento MM. Le interazioni elettrostatiche tra le regioni QM e MM sono omesse o incluse nei calcoli MM utilizzando un modello classico di carica puntuale per la distribuzione di carica QM. Esempi di questo modello sono dati da Morokuma (IMOMM) e Bakowies e Thiel (MNDO/MM) B. modello elettrostatico nel quale la partizione classica appare come una distribuzione di cariche esterna nell’Hamiltoniano QM. La polarizzazione della regione QM da parte della distribuzione di carica della regione MM avviene nei calcoli della struttura elettronica QM. Le cariche parziali utilizzate per descrivere la distribuzione in MM sono le stesse che si ricavano dai campi di forza. Nello schema ab-initio il modello B è implementato aggiungendo il contributo delle cariche puntuali MM nell’Hamiltoniano monoelettronico C. modello di polarizzazione nel quale viene inclusa la polarizzazione della regione MM dovuta alla distribuzione di carica in QM. 7.4.4 Regione di interazione QM/MM che presenta legami tra gli atomi Nel paragrafo precedenti si sono considerati i termini di accoppiamento di non-legame e cioè si sono esplicitate le interazioni che intercorrono tra atomi che non sono legati. Ma che cosa avviene quando esiste un legame ad esempio di tipo covalente tra gli atomi delle regione QM e quelli nella regione MM? 7.4. I METODI IBRIDI QM/MM 203 La (7.4) presenta schematicamente la situazione in esame. In generale si può anticipare che deve essere mantenuta sia la valenza della regione QM che la geometria del sistema MM. Solitamente si assume Figura 7.4: Schema delle regioni QM e MM divise da un legame covalente. che non ci sia trasferimento di carica tra la regione QM e MM, un’ipotesi abbastanza ragionevole per soluzioni diluite nelle quali le molecole di soluto sono trattate mediante la meccanica quantistica mentre il solvente è affrontato classicamente. La regione di confine può essere sistemata in modo che non ci siano legami covalenti tra i due sottosistemi ma è facile immaginare che la maggior parte dei sistemi organici non cadano in questa categoria. Nei casi in cui ci sono legami o forti interazioni ioniche tra i sottosistemi è necessario introdurre particolari terminazioni per i calcoli QM come ad esempio attraverso link atom o approcci per la boundary region. Oltre a queste metodologie più comunemente utilizzate sono stati sviluppati altri metodi come il metodo EVB [37], il metodo EFP [38] e il metodo GHO [39]. La prima descrizione della rappresentazione di un legame covalente che connette atomi della regione QM e delle regione MM venne effettuata da Warshel e Levitt che utilizzarono degli orbitali ibridi sull’atomo MM [40]. Durante quello studio venne sviluppato il metodo semiempirico QCFF/ALL che include tutti gli elettroni di valenza con gli orbitali atomici ibridi. Ma l’approccio più comunemente utilizzato per trattare la terminazione di siti che presentano legami covalenti è il metodo dei link atoms [23] introdotto da Singh e Kollman [24] e schematizzato in (7.5). In questo metodo vengono introdotti degli atomi addizionali che formano un legame covalente con la regione QM che dovrebbe mimare il legame con la regione MM. Questi atomi legati soddisfano la valenza degli atomi QM. Il più semplice ed ancora più utilizzato atomo legato è l’atomo di idrogeno che viene posizionato lungo il legame QM/MM che è stato rotto. Possono essere utilizzati anche altri atomi o gruppi funzionali come gli alogeni o i gruppi metile. Ci sono delle evidenti differenze chimiche tra gli atomi di idrogeno ed i gruppi che vanno a replicare e per questo Antes e Thiel [41]. I link atoms sono trattati in maniera esatta nei calcoli QM ma non è permesso loro di interagire con gli atomi MM (è come se risultassero invisibili agli atomi MM), l’energia e le forze 204 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.5: Rappresentazione del metodo link-atoms. risultano dai termini energetici di legame. I termini elettrostatici e di van der Waals che si considerano di non-legame sono trattati separatamente: (a) le interazioni di van der Waals attraverso la regione QM e MM sono determinati in modo esatto come se l’intero sistema fosse classico mentre (b) l’energia di interazione elettrostatica è ottenuta da calcoli quantomeccanici sugli atomi QM insieme ai link atoms in presenza di tutte le cariche parziali MM escluse quelle prodotte dai link atoms. Chiaramente il metodo non rappresenta un approccio ideale perch dovrebbe essere introdotta una perturbazione del sistema, ma si dimostra particolarmente utile quando i link atoms sono relativamente lontani rispetto agli atomi che partecipano alle reazioni chimiche. Molteplici sono gli autori [42],[43] che in questi anni hanno studiato questo problema proponendo ad esempio nuovi metodi del modello [43] degli atomi legati che soddisfa la valenza del sistema quantico ma la posizione degli atomi legati dipende dalla posizione degli atomi reali agli estremi del legame covalente che è stato troncato; non vengono introdotti nuovi gradi di libertà al sistema dovuti ai link atoms. Un altro tipo di approccio molto utilizzato sviluppa il trattamento dei legami costringendo la soluzione a riflettere l’influenza dei legami che precedentemente sono stati omessi. Un primo metodo è lo schema local self-consistent field (LSCF) sviluppato da Rivail e co. [44] che utilizza dei frozen orbital (o orbitali di legame localizzati) parametrizzati degli orbitali lungo il legame QM/MM che nei modelli precedenti non venivano preliminarmente ottimizzati (7.6). Il metodo LSCF è un modo piuttosto elegante per terminare la distribuzione di carica nella regione QM senza introdurre atomi aggiuntivi nel sistema, ma i calcoli [45] sull’energia dimostrano che questo metodo è meno robusto rispetto a quello degli atomi legati. L’energia con LSCF è più sensibile a fattori come le dimensioni della parte QM, il valore delle cariche MM sull’atomo di frontiera MM e la scelta della popolazione elettronica sugli orbitali di legame localizzati. Nonostante tutto il metodo permette la delocalizzazione elettronica su un numero più piccolo di orbitali molecolari. Se il frammento quantico è piccolo o se la densità di carica sull’atomo di frontiera è alta conviene utilizzare il metodo degli atomi legati, se il legame di frontiera è lontano dal sito che subisce modificazioni chimiche i due metodi sono equivalenti, ma l’LSCF è più semplice perchè non è necessario introdurre vincoli negli orbitali di frontiera per mantenere le proprietà geometriche. Nel metodo generalised hybrid orbital (GHO) sviluppato da 7.4. I METODI IBRIDI QM/MM 205 Figura 7.6: Rappresentazione degli orbitali utilizzati nel metodo LSCF. Gao e co. [39] gli orbitali ibridi sugli atomi tra le regione QM e la regione MM vengono divisi in orbitali attivi e orbitali ausiliari (7.7). Gli orbitali ibridi attivi sono ottimizzati con calcoli quantomeccanici mentre la densità di carica degli orbitali ausiliari è definita dal potenziale MM. Rispetto al metodo LSCF non è necessario riparametrizzare ogni volta il sistema. Per completezza espositiva si citano altre due metodologie per il trattamento della zona di confine tra la regione QM e MM anche se queste metodologie sono meno utilizzate rispetto alle precedenti. Il metodo empirical valence bond (EVB) sviluppato da Warshel [37] tratta ogni punto della superficie di reazione come la combinazione di una o più strutture del legame valenza. La parametrizzazione viene eseguita o dai calcoli quantistici QM o dai dati sperimentali. Può rivelarsi un metodo utile ma deve essere accuratamente impostato con opportuni parametri per ogni sistema. Il metodo effective fragment potential (EFP) proposto da Webb e Gordon [38] e ripreso da Jensen [46] aggiunge dei ”frammenti” al trattamento standard QM che sono totalmente polarizzabile e sono parametrizzati da calcoli ab-initio eseguiti separatamente. Risulta attualmente ancora problematico il trattamento dei legami tra la ”vera” regione QM e i frammenti introdotti. 7.4.5 Le condizioni al contorno In tutte le simulazione computazionali di liquidi o proteine si presenta il problema di come approssimare un sistema virtualmente infinito [34] mediante una costruzione finita. Spesso vengono utilizzate delle condizioni periodiche al contorno che mimano le condizioni del bulk. In questo approccio la cella unitaria centrale è replicata periodicamente mediante traslazioni nello spazio tridimensionale rimuovendo qualsiasi effetto al contorno. Gli atomi nella cella primaria interagiscono con le vicine immagini di atomi nelle celle adiacenti. Tipicamente viene utilizzato un cut-off per troncare le interazioni a lungo-raggio 206 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.7: Rappresentazione schematica della divisione del legame QM/MM e partizione degli orbitali ibridi sull’atomo di contorno. e vengono scelte smoothing-function per permettere all’energia potenziale di annullarsi. Un approccio alternativo è lo sviluppo di condizioni stocastiche al contorno dove si sviluppa nella simulazione un sistema molecolare finito; non viene replicata una singola cella ma vengono applicate delle forze al contorno che interagiscono con gli atomi del sistema [47]. La difficoltà nell’uso di questo metodo è dovuta all’ambiguità associata con la definizione e la parametrizzazione delle forze al contorno. Infine metodi utilizzati nelle simulazione MC o MD potrebbero essere mutuati negli approcci QM/MM [48]. In generale è utile sottolineare che l’utilizzo di un sistema finito per le simulazioni in fasi condensate è sempre una grande approssimazione sia che siano sviluppate condizioni periodiche o forza al contorno. 7.5 Implementazione dei metodi QM/MM Per molti aspetti i software che permettono di implementare i metodi QM/MM sono simili a quelli associati con i singoli metodi QM e MM. La maggior parte dei termini di accoppiamento sono già presenti nei singoli pacchetti MM e QM. Quindi stabilito che il punto di partenza sono i singoli package i vari tipi di implementazione per i metodi QM/MM possono essere divisi in tre gruppi [34]: 1. uno che utilizza un pacchetto di modelling classico nel quale la parte quantistica QM è integrata come un estensione del campo di forza classico 2. uno basato sul pacchetto quantistico QM nel quale l’ambiente classico MM è incorporato come una perturbazione 3. uno schema modulare in cui è presente un programma centrale di controllo che permette la scelta sia di un metodo QM che di un metodo MM 7.5. IMPLEMENTAZIONE DEI METODI QM/MM 207 La prima implementazione di un potenziale ibrido QM/MM mediante l’utilizzo di un calcolatore venne fatta da Warshel e Levitt [23] utilizzando un Hamiltoniano QCFF/ALL trattando gli elettroni π con il metodo PPP. Successivamente Singh e Kollman [24] svilupparono il programma QUEST che combina Gaussian 80 e AMBER. Merz e collaboratori [30] svilupparono un DFT combinato con AMBER. Il metodo semiempirico MNDO/AM1 fu combinato per la prima volta con un campo di forza MM nel programma CHARMM da Field e Karplus [49]. Andiamo ora, dopo la breve digressione storica, a riprendere la divisione in gruppi descritta in precedenza. Oggi l’approccio più utilizzato è sicuramente il primo perchè sono già presenti programmi per il modelling in pacchetto MM/MD che vengono largamente utilizzati per lo studio di grandi e complessi sistemi chimici. Un buon esempio di questo gruppo è il CHARMM [27],[28] package che contiene anche l’implementazione QM. Questo programma funziona tradizionalmente bene per sistemi macromolecolari ma dovrebbe essere potenziato per la ricerca degli stati di transizione. La capacità di CHARMM può essere estesa con l’inclusione del pacchetto GRACE. L’approccio considerato nel secondo gruppo è particolarmente utilizzato quando si ha a che fare con piccole molecole e per la ricerca degli stati di transizione. Prendendo però un ambiente stazionario o completamente rilassato ad ogni step viene perduta la complessità conformazionale e rimane il problema dell’ottimizzazione QM. Morokuma [50] ha sviluppato su questa via l’accoppiamentro tra GAMESSUK e AMBER mentre Breuer [51] utilizzò il pacchetto MSI Cerius-2 che introduce un modello MM per l’ambiente in un implementazione RI-DFT con ottimizzazione delle coordinate interne per mezzo di TURBOMOLE. Il terzo gruppo deve essere considerato in modo un po’ più dettagliato. I benefici di una costruzione modulare sono molteplici: (i) tale costruzione offre una maggiore flessibilità ed in particolare è in grado di analizzare sistemi chimici che richiedano differenti classi di campi di forza e (ii) i vari pacchetti posso essere opportunamente sostituiti nel momento in cui siano disponibili versioni più aggiornate. Tra gli svantaggi devono essere inclusi: (i) i vari pacchetti devono essere messi in relazione, è quindi necessario realizzare un programma che adempia a questo compito, (ii) deve essere considerata l’efficienza di trasferimento dei dati tra i vari pacchetti che hanno eseguito indipendentemente i calcoli QM e MM. Un esempio di sistema modulare include l’accoppiamento di AMBER con CADPAC e MNDO. Altri esempi sviluppati da vari gruppi prevedono: QCPE con MOPAC, il MCQUB che combina il MOPAC con il programma BOSS, ARGUS e HyperChem che supportano una grande varietà di modelli semiempirici. 7.5.1 Implementazione dei metodi ibridi QM/MM mediante Gaussian98 e Gaussian03 Negli ultimi anni è stato sviluppato un nuovo approccio per implementare i metodi QM/MM mediante il pacchetto Gaussian. In questa metodologia si parte dal problema generale del trattamento teorico di sistemi di grandi dimensioni. Un sistema molecolare si divide quindi in due o tre differenti strati (layers) connessi tra loro ed ogni strato può essere trattato con un livello differente di accuratezza. Queste sono le basi del metodo ONIOM [52],[53],[54] che viene implementato nel pacchetto di Gaussian98 e Gaussian03. La (7.8) può essere utile per esplicitare lo schema utilizzato nel metodo ONIOM. Il sistema che si andrà a studiare deve essere diviso in due o tre strati; la parte in rosso rappresenta il livello più accurato di calcoli quantistici e viene trattata in genere con MP2, CCSD(T) o CISDT, la parte in blu è ad un livello intermedio di complessità e la si può trattare con HF, AM1 o PM3 ed infine la parte in nero 208 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE è la porzione di sistema affrontato con un approccio classico come MM2 o MMFF. Le applicazioni di Figura 7.8: Rappresentazione del metodo ONIOM utilizzando la triade catalitica della carbossipepdidasi. ONIOM sono molteplici: (i) calcolo delle energie di legame perch il metodo permette l’inclusione della correlazione elettronica nella ristretta parte della molecola nella quale avviene la rottura del legame e (ii) ottimizzazione della geometria e calcolo delle frequenze vibrazionali. Può essere utile citare il lavoro di Torrent e co. [55] che si propone come una buona applicazione del metodo ONIOM in quanto studia il complesso di un metallo di transizione in un sistema biologico. Si sviluppano quindi ONIOM2(QM:MM) e ONIOM3(QM:QM:MM) per le prima applicazione su modelli di metalloenzimi nei quali la maggior parte dei residui proteici sono inclusi nei calcoli. La geometria è ottimizzata includendo ai calcoli QM anche atomi MM e le interazioni QM/MM. Il metodo ONIOM implementato in Gaussian permette di trattare le differenti parti del sistema con differenti gradi di accuratezza in base all’arbitraria definizione degli starti. Tutti i metodi disponibili nel pacchetto Gaussian possono quindi essere separatamente modificati ed eventualmente parametrizzati rispetto a dati empirici. 7.6 Applicazioni dei metodi QM/MM Le applicazioni ai metodi ibridi QM/MM sono molteplici: la maggior parte sono concentrate nell’area del modeling proteico [56],[57],[58],[59],[60] come ed esempio la predizione della pKa di piccole molecole [59] o il profilo dell’energia libera per l’associazione di metalli alcalini [60] mentre sono ancora limitati gli impieghi per la catalisi basata sui metalli di transizione. Solo recentemente Morokuma [61] ha dimostrato che queste metodologie possono essere applicate anche alle reazioni metallorganiche come l’addizione ossidativi di idrogeno molecolare ad un complesso di platino e Woo [62] ha esaminato il ruolo dei sostituenti nel bulk nei processi di catalisi che avvengono nella polimerizzazione delle olefine. Ma 7.6. APPLICAZIONI DEI METODI QM/MM 209 gli esempi sono molteplici e possono essere estesi a studi di solvatazione [63], a spettroscopia in fase condensata [64], a studi di flessibilità conformazionale [65], allo studio delle reazioni chimiche in fasi condensate, agli enzimi [66] e al DNA [58]. Attualmente la driving-force per lo sviluppo dei metodi QM/MM è la necessità di studiare la reattività enzimatica. I benefici ottenuti dalla comprensione dei dettagli dei meccanismi delle reazioni enzimatiche giustificano pienamente gli sforzi sempre maggiori indirizzati nello sviluppare opportune metodologie QM/MM. La maggior parte dei lavori pubblicati negli ultimi decenni mostra come questo tipo di approccio si presti bene allo studio di molecole biologiche e di sistemi di dimensioni nanometriche. La maggior parte degli enzimi sono metalloproteine e quindi si studia come lo ione metallico interagisca con il campo elettrostatico e come questo effetto possa essere modellato utilizzando i campi di forza MM o i potenziali semiempirici QM. 7.6.1 Applicazioni biochimiche dei metodi ibridi QM/MM Modellizzazione dello step di idrosilazione nel p-Idrossibenzoato Idrogenasi Attualmente c’è un grande interesse attorno alle reazioni di ossidazione biologica ed in particolare sui meccanismi di reazione di enzimi coinvolti nell’attivazione del”ossigeno. Un’importante famiglia di enzimi ossigenasi è quella delle flavin-dependent monoossigenasi e il p-Idrossibenzoato Idrogenasi (PHBH) è stato lungamente studiato perchè come rappresentante di questa famiglia. Questo enzima catalizza l’idrossilazione del p-idrossibenzoato nella posizione orto rispetto al gruppo idrossile, uno step cruciale nella biodegenerazione di una grande varietà di composti aromatici inclusa la lignina (il maggior componente del legno) che è uno dei biopolimeri più abbondanti in natura. La reazione ciclica del PHBH Figura 7.9: Rappresentazione dello stato intermedio del PHBH ottenuto mediante calcoli QM/MM. si evolve legando il substrato, riducendo il cofattore flavina per mezzo del NADPH e incorporando una molecola di ossigeno per formare la specie reattiva C4a-perossiflavina. Il preciso meccanismo di 210 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE idrossilazione è rimasto incerto per molto tempo. Il meccanismo di idrossilazione aromatica può essere studiato attraverso metodi QM/MM [67]. Nella maggior parte delle applicazioni su enzimi dei metodi QM/MM si utilizza un trattamento semiempirico per la regione QM ma nel caso descritto sono stati necessari calcoli ab-initio HF per investigare lo step descritto ed in particolare l’ipotesi di una sostituzione aromatica elettrofila e l’importanza delle interazioni nel sito attivo. Il modello QM/MM per l’intermedio (7.9) del C4a-idrossiflavina-substato del PHBH è stato inizialmente costruito partendo dalla struttura cristallina. La regione QM include 49 atomi con una carica totale di −2e. La rimanente regione MM è descritta utilizzando campi di forza del programma CHARMM e comprende 4841 atomi che includono tutti i residui amminacidici e 330 molecole di acqua. Durante i calcoli di ottimizzazioni si sono condiderati mobili i 1187 atomi che corrispondono all’intorno di una sfera di raggio 16Å centrata sull’ossigeno distale del residuo perossidico. Tutti gli altri atomi all’esterno della sfera si sono tenuti fissi. Lo step di idrossilazione nel PHBH si presta ad essere studiato con metodi QM/MM grazie alla disponibilità della struttura cristallina ad alta risoluzione dell’enzima legato al substrato che è un ottimo punto di partenza per i calcoli. I profili energetici calcolati confermano che la sostituzione elettrofila aromatica è lo step che limita la velocità di reazione nella reazione ciclica catalizzata dal PHBH. Modellizzazione del centro di reazione fotosintetico del Rhodopseudomonas viridis Gli studi ab-initio su cofattori dei centri di reazione batterici devono necessariamente essere approssimati e le geometrie risultanti ne sono cosı̀ drasticamente influenzate. Questi problemi possono essere risolti utilizzando una metodologia ibrida QM/MM ed in particolare all’ottimizzazione della struttura dei cofattori nei centri di reazione fotosintetici del Rhodopseudomonas viridis (7.10) e del Rhodobacter sphaeroides mentre un modello puramente MM è utilizzato per rifinire la struttura del rimanente ambiente proteico [68]. Il calcolo si divide in due aspetti principali: la generazione di strutture proteiche e l’ottimizzazione delle geometrie del cofattore all’interno di queste strutture proteiche. La geometria di partenza è quella ottenuta dai raggi X che presentano però una bassa risoluzione. All’interno del formalismo PCM (point charge model) il sistema molecolare è diviso in una parte quantistica e in una parte classica che sono completamente separate le une dalle altre. I cofattori sono tratatti interamente con metodi quantistici. L’energia totale del sistema cosı̀ descritto è data dalla somma della parte quantistica, la somma della parte classica e da un termine di interazione. I risultati ottenuti motrano che l’ottimizzazione dei cofattori dei centri di reazione fotosintetici dei due batteri prermettono di ottenere dei gruppi prostetici molto vicini ai dati cristallografici. In più è possibile però il calcolo della distanza dei legami idrogeno tra i vari residui amminoacidici coinvolti nelle reazioni, inoltre le forti deformazioni dei sistemi ad anelli non derivano da interazione inter-batteri ma dalla forte interazione tra il cofattore e la proteina. 7.6.2 Applicazioni allo studio di superfici dei metodi ibridi QM/MM Gli stessi metodi utilizzati per lo studio di sistemi in fasi condensate nell’ultimo decennio sono stati applicati con notevole successo anche allo studio di ricostruzione di superfici di silice [69], diamante [70] o vari semiconduttori [71], per lo studio di adsorbimento superficiale [72] o per studi di reazioni che avvengono in superficie [73]. L’approccio alternativo dei metodi ibridi QM/MM consiste nel suddividere 7.6. APPLICAZIONI DEI METODI QM/MM 211 Figura 7.10: Centro di reazione fotosintetico del Rh. viridis. il sistema in due parti trattando una parte mediante metodi QM e una parte mediante una metodologia classica MM. Ricostruzione di superfici di diamante(100) Dopo aver esposto in maniera generale le caratteristiche dei metodi ibridi QM/MM si vuole ora evidenziare come queste metodologie nate per lo studio di sistemi in soluzione possano essere applicate con ottimi risultati allo studio delle superfici. Le prime applicazioni sono sulla ricostruzione di superfici risalgono solo ad un decennio fa e riguardano la ricostruzione di superfici di diamante(100)[70]. In seguito si sono evolute le varie parti che compongono i metodi ibridi ma l’idea generale non è variata. Per questo si è deciso di trattare in maniera approfondita questo caso che rappresenta un importante pietra miliare nell’esplorazione delle superfici con i metodi QM/MM. La scelta del diamante non è stata casuale dato che questa forma allotropica del carbonio è un materiale interessante per le utili proprietà fisiche che vanno dall’alta conduttività termica all’inerzia chimica, dal basso coefficiente di frizione alla durezza e ad un possibile uso come semiconduttore ad alte temperature. Quando vennero applicati i metodi QM/MM alle superfici la maggior parte degli studi teorici erano in accordo nel sostenere che 212 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.11: Modello di una superficie di diamante(100). le superfici più stabili fossero quelle in cui ogni atomo di carbonio fosse saturato da un singolo atomo di idrogeno e tali superfici furono chiamate monoidrate. Questa modellizzazione era però in disaccordo con gli ordini e le lunghezze di legame e con le energie ricavate sperimentalmente. Si investigò cosı̀ la superficie di diamante(100) (7.11) utilizzando simulazioni di dinamica molecolare combinando metodi quantistici e forze empiriche. La superficie si è modellata partendo da un cluster interno descritto da un potenziale quantistico semiempirico a cui è stato aggiunto un cluster di dimensioni maggiori descritto da un potenziale empirico. La simulazione è stata sviluppata combinando meccanica quantistica QM e funzioni di energia potenziale classica MM. Il modello utilizzato (7.6.2) contiene 360 atomi di carbonio arraggiati secondo una struttura cristallina di 10 strati con 36 atomi ciascuno. I 40 atomi centrali sono decritti mediante un potenziale quantistico QM mentre i rimanenti sono descritti da potenziali empirici. Le condizioni periodiche al contorno sono assicurate utilizzando delle immagini del sistema base riprodotte nelle tre dimensioni. Per mantenere l’ibridizzazione sp3 gli angoli del cluster descritto con metodi quantistici sono stati saturati con degli atomi di idrogeno ”fantasma”. Le forze dovute a questi atomi ”fantasma” non influenzano la dinamica mentre le forze tra gli atomi empirici e gli atomi quantistici sono determinate attraverso un potenziale empirico. Una parte fondamentale del lavoro è quindi stata la scelta di un adeguato potenziale che tenga conto di tutti i legami che intercorrono tra le due regioni nonch delle proprietà energetiche del bulk di diamante e della superficie. L’opportuna parametrizzazione rispetto agli spettri vibrazionali del diamante a 300 K si è effettuata utilizzando un cluster C33 H48 (7.13)che date le dimensioni e la struttura scelta è in grado di mimare le proprietà del diamante. La parametizzazione effettuata su cluster di dimensioni minori non è in grado di riprodurre le frequenze vibrazionali e gli altri dati sperimentali disponibili per il diamante. La ricostruzione della superficie deidrogenata ha messo in evidenza la presenza di due principali configurazioni : in una conformazione i dimeri superficiali sono disposti ”a righe” mentre nell’altra sono disposti ”a zig-zag”. Il 7.6. APPLICAZIONI DEI METODI QM/MM 213 Figura 7.12: Modello di una superficie di diamante(100) utilizzato per le simulazioni. Le sfere grigie rappresentano gli atomi della regione quantistica, le sfere bianche gli atomi della regione descritta empiricamente mentre le sfere nere gli atomi mantenuti fissi durante la simulazione. confronto tra le energie delle due conformazioni con gli spettri vibrazionali indica che la prima conformazione è nettamente più stabile della seconda. Test successivi con l’addizione nei siti dimeri di molecole di CH2 in entrambe le conformazioni permettono importanti considerazioni. In questo modo si è potuta inserire nel modello teorico un’imperfezione, in genere trascurata, che riproduce gli steps a livello atomico solitamente contenuti nei campioni sperimentali. Questi steps creano dei siti openshell attorno ad essi generando di conseguenza un significativo aumento della reattività chimica sulla superficie del diamante. Le metodologie QM/MM sono state poi applicate anche allo studio di superfici di diamante idrogenate considerando che entrambe le conformazioni possono assumere due differenti tipologie di idrogenazione. La superficie è pienamente idrogenata quando ogni atomo di carbonio dei dimeri superficiali lega due atomi di idrogeno mentre è monoidrogenata quando un atomi di idrogeno si lega ad un atomo di carbonio del dimero. I risultati mettono in luce che una superficie pienamente idrogenata è poco stabile a causa della notevole repulsione che esiste tra gli atomi di idrogeno mentre una superficie monoidrata è più stabile ma non è in grado di riprodurre risultati sperimentali come le lunghezze e gli ordini di legame. Gli studi energetici e vibrazionali hanno infine messo in evidenza che in presenza di idrogeno la condizione energeticamente più favorevole è data da una regolare alternanza tra siti pienamente idrogenati e siti monoidrogenati con rapporto H/C pari a 1.33. Studio di interazioni di atomi, ioni e cluster di rame su una superficie di ZnO Sherwood et all. [74] nel 2003 realizzarono uno studio dettagliato sull’interazioni degli atomi di rame nei vari stati di ossidazione di importanza catalitica (Cu, Cu+ e Cu2+ ) e di cluster di rame su superfici polari 214 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.13: Cluster C33 H48 utilizzato per lo sviluppo del potenziale empirico. Le sfere nere rappresentano gli atomi di carbonio centrali, le sfere grigie la prima sfera degli atomi di carbonio mentre le sfere bianche sono la seconda sfera degli atomi di carbonio. (in particolare ZnO) applicando un metodo ibrido QM/MM. Utilizzando questo metodo vennero studiati i siti superficiali specifici dell’interazione Cu/ZnO mediante metodologie ab-initio di alto livello come il DFT mentre con l’ausilio di metodologie classiche MM si sono mantenuti gli effetti dovuti ai vincoli sterici del bulk, le influenze a lungo raggio del calcolo elettrostatico e la polarizzazione del supporto di ZnO. Il modello è stato applicato in dettaglio a atomi di rame, a ioni e a clusters (Cun , n=1,4) su superfici ZnO zinco terminali. La modellizzazione della superficie di Zn (7.14) è stata effettuata considerando (i) che nel bulk sia gli ioni ossigeno che gli ioni Zn sono coordinati tetraedricamente e (ii) che un recente lavoro sulla diffrazione a raggi X ha dimostrato che la miglior interpolazione con i dati sperimentali si ottiene considerando un’occupanza di 0.74 dello Zn sui siti superficiali. La superficie di Zn è stata stabilizzata dalla rimozione di ioni Zn su di una supercella 5×5 in modo da avere un’occupanza di 0.76. I siti di vacanza sono posizionati alla massima distanza gli uni dagli altri. Risultano quindi alla fine due tipi diversi di siti superficiali derivanti dalla ricostruzione: le vacanze e le isole di terminazione del bulk. I siti vacanti presentano un’elevata capacità di intrappolare specie ioniche e atomiche sia a causa della loro morfologia che della bassa coordinazione e per questo sono stati identificati come i siti primari di adsorbimento (7.15) per il rame. Il lavoro esposto è il primo studio dettagliato di interazione di clusters di metalli di transizione con superfici realistiche polari contenenti ossigeno. In particolare è stato sviluppato uno schema per un metodo QM/MM che permette la polarizzazione autoconsistente dei clusters e del supporto polare e lo studio di tre differenti stati di ossidazione del rame sull’ZnO. I risultati mostrano che lo stato di ossidazione più alto del rame lega fortemente la superficie e l’energia di legame aumenta con le dimensioni del clusters; si è notata anche la tendenza dello ione Cu2+ ad adsorbire in modo relativamente profondo nel bulk dato il piccolo raggio ionico e questo è in accordo 7.6. APPLICAZIONI DEI METODI QM/MM 215 Figura 7.14: Modello della struttura della superficie di Zn. Gli atomi di ossigeno sono evidenziati in rosso mentre gli atomi di Zn in grigio. con la solubilità del Cu2+ in un bulk di ZnO. Studi di reazione di cicloaddizione di acrilonitrile su una superficie di Si(100) Le metodologie QM/MM permettono anche lo studio di reazioni di cicloaddizione [73],[75] su superfici di silicio permettendo di evidenziare la variazione di energia potenziale superficiale dei vari meccanismi che possono avvenire in superfici. Lo studio sulle reazioni di cicloaddizione dell’acrilonitrile su una superficie Si(100) prevede la presenza di tre differenti meccanismi di reazioni sulla superficie con diverse energie di attivazione. Il problema è stato affrontato dividendo il sistema in una regione quantistica e in una regione classica. Tutti i calcoli quantistici (HF e DFT) effettuati su un modello di cluster di silicio Si9 H12 rappresentato in (7.16). Se lo studio della parte di superficie sulla quale avviene la reazione di cicloaddizione può essere affrontata con metodi quantistici lo studio dell’intera superficie che tiene conto di effetti classici legati alle forze elettrostatiche, ai vincoli imposti dalla geometria dell’intero sistema (superficie+bulk), alle forze di van der Waals, etc deve essere affrontato con una metodologia ibrida QM/MM. Si accoppia (7.17)quindi il cluster trattato con metodi quantistici con un altro cluster di dimensioni notevolmente maggiori trattato con metodi classici. La parametrizzazione del potenziale applicato al cluster di dimensioni maggiori è stata effettuata rispetto a dati sperimentali. L’accurata riproduzione della superficie e del sito di reazione superficiale permette una scansione dell’energia superficiale lungo i possibili cammini di reazione fino ai prodotti finali. Le grandi barriere di attivazione trovate permettono anche di concludere che le reazioni superficiali dell’acrilonitrile su Si sono sotto controllo cinetico piuttosto che termodinamico. 216 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.15: Adsorbimento di un dimero di rame in stato di ossidazione 2+:(a) vista dall’alto;(b) vista di lato. Studio dell’adsorbimento dell’HCl sui siti diffettuali di una superficie di ghiaccio In questo studio i metodi QM/MM vengono applicati allo studio dell’adsorbimento molecolare e dissociativo dell’HCl sui siti difettuali di una superficie di ghiaccio [76]. La chimica dell’HCl su superfici di ghiaccio gioca un ruolo importante nella riduzione dello strato di ozono e quindi le superfici di ghiaccio puro si candidano ad essere un buon punto di partenza per lo studio della chimica delle superfici di ghiaccio nella stratosfera. Evidenze sperimentali sottolineano come l’HCl esiste nella sua forma dissociata sulle superfici di ghiaccio anche alle temperature presenti nella stratosfera. Lo studio presentato permette di comprendere il ruolo delle difettualità del ghiaccio sulla dissociazioni dell’HCl. Il sistema viene ancora una volta diviso in una regione quantistica che include la molecola di HCl e 21 molecole di acqua superficiali la cui geometria è ottimizzata secondo calcoli ab-initio e DFT e in una regione MM che comprende una lastra periodica di ghiaccio. Le interazioni tra le molecole nella regione QM e nella regione MM sono ottenute sommando i contributi elettrostatici e di van der Waals. I contributi elettrostatici sorgono dalle interazioni coulombiane e di polarizzazione. Il sistema totale (regione QM+MM) in studio è quindi composto da 768 molecole di acqua disposte in otto doppi strati con condizioni peri- 7.6. APPLICAZIONI DEI METODI QM/MM 217 Figura 7.16: Modello di cluster C3 N Si9 H15 trattato con metodi quantistici. Le sfere verdi rappresentano gli atomi di silicio, le sfere bianche gli atomi di idrogeno mentre nella parte in alto della figura compare l’acrilonitrile addizionato. odiche al contorno per le molecole MM sulla superficie. Le difettualità sono state riprodotte utilizzando una regione QM di 21 atomi e sono evidenziate (7.18). Per studiare l’adsorbimento dissociativo o non dissociativo sulla superficie le molecole di HCl sono state inizializzate in varie posizioni sopra i siti difettuali della superficie di ghiaccio. Durante il processo di simulazione l’HCl e le molecole superficiali si sono mosse liberamente mentre la struttura del bulk è mantenuta fissa. Il trasporto di energia tra la superficie e il bulk è stato modellato applicando una frizione locale. Gli studi QM/MM evidenziano che quando sono presenti sulla superficie due atomi di H ”dangling” sufficientemente vicini questi possono adsorbire l’HCl ed è possibile una dissociazione senza barriera di attivazione. In tutti gli altri casi studiati ( presenza di un solo atomo di idrogeno ”dangling” o due troppo lontani) avviene solo adsorbimento dell’HCl senza dissociazione. I risultati ottenuti dai calcoli QM/MM sono in accordo con altri risultati sperimentali [77] ed entrambi indicano che avviene la dissociazione dell’HCl senza barriere in presenza di due atomi vicini di H. Sotto le condizioni presenti nella stratosfera l’importanza di questo meccanismo di dissociazione, se confrontata con gli altri possibili meccanismi, è fortemente dipendente dalla struttura della superficie di ghiaccio e dalla densità degli H superficiali. Se la struttura cristallina presenta infatti una bassa densità di atomi di idrogeno ”dangling” allora il lento meccanismo di incapsulamento dell’HCl potrebbe essere il processo dominante mentre ad alte densità il rapido meccanismo di dissociazione senza barriera. Infine si può anche evidenziare che i siti difettali non hanno significativi 218 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Figura 7.17: Cluster modello ottenuto componendo il cluster trattato con metodi quantistici (atomi viola) con il cluster trattato con metodi classici (in verde). effetti catalitici nei processi che avvengono sulle superfici dato che l’energia di adsorbimento tra siti con difettualità e siti senza difettualità sono molto simili. 7.7 Conclusioni Il breve riepilogo eseguito sugli approcci QM/MM ha certamente enfatizzato l’enorme varietà di strade mediante le quali i calcoli QM e MM possono essere combinati. Se da una parte risultano abbastanza consolidate le metodologie quantistiche molto lavoro c’è ancora da fare per sviluppare la parte MM. Si sono quindi incrementati gli studi per definire adeguate condizioni al confine tra le regioni QM e MM che tengano conto delle reali interazioni in gioco. Altro problema è la definizione dei campi di forza che potrebbero arrivare a dipendere da dati ab-initio e non più empirici. Sarebbe particolarmente interessante anche l’incorporazione di effetti quantici sul solvente all’interno di simulazioni di fasi condensate. La trattazione della regione al contorno potrebbe fare un forte balzo in avanti si riuscisse a trattare il mezzo come un continum trattando il solvente non più a livello molecolare ma a livello mesoscopico; verrebbero eliminate le condizioni periodiche al contorno che sono una fonte di errore spesso difficilmente stimabile. Quello che emerge chiaramente dagli esempi portati è la grande potenzialità di queste metodologie che possono trovare applicazioni sia nel campo della ricerca di base per la comprensione di intermedi di reazioni e di stati di transizioni sia al livello di ricerca applicata per la comprensione dei meccanismi di reazione e interazione degli enzimi o del DNA. 7.7. CONCLUSIONI 219 Figura 7.18: (a) Siti esagonali senza difettualità ,(b) siti esagonali che invece presentano difettualità. Sono evidenziati solo gli atomi di ossigeno. Le sfere nere sono atomi di O trattati con metodi QM mentre le sfere grigie sono atomi di O trattati con metodi MM. 220 CAPITOLO 7. CENNI A METODI SEMIEMPIRICI E TECNICHE AVANZATE Capitolo 8 Proprietà dipendenti dal tempo in fasi condensate 8.1 Teoria dei responsi lineari Consideriamo un insieme di N particelle, ciascuna associata alla coordinata vettoriale ~ri , i = 1, . . . , N . In assenza di interazioni con campi esterni, la funzione d’onda del sistema sarà descritta da un hamiltoniano H0 (vedi II parte). In presenza di interazioni con un campo esterno F (~r, t), possiamo scrivere l’hamiltoniano del sistema come H = H0 + H0 (t) (8.1) dove H0 (t) è l’operatore quantomeccanico corrispondente all’interazione tra il campo esterno F ed il sistema. Nell’ipotesi che l’intensità dell’interazione sia debole (|H0 | ¿ |H0 |, dove con |H0 | si deve intendere come una qualche misura dell’energia media del sistema dovuta ad H0 , per esempio ottenuta calcolando il valore di attesa di H0 rispetto alla funzione d’onda del sistema), l’interazione può essere scritta come un’espressione integrale lineare in F : Z 0 H (t) = − d~rB(~r)F (~r, t) (8.2) dove B(~r) è un operatore dinamico dipendente da una proprietà del sistema. Se si definisce l’operatore B come la somma di operatori relativi alle singole particelle, dipendenti dalla posizione delle medesime, si ottiene B(~r) = N 1X [Bi , δ(~r − ~ri )]+ 2 i=1 (8.3) e l’hamiltoniano di interazione assume la forma H0 (t) = − N 1X [B i , F (~ri , t)]+ 2 i=1 (8.4) Esercizio 1. La scrittura precedente è formalmente corretta per una gran numero di interazioni lineari, e può essere facilmente riportata a forme standard nei vari casi specifici. Se per esempio ogni 221 222 CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE L m1 m2 m3 m n m n+1 m x1 x3 x n x n+1 x x2 N N Figura 8.1: Fluido monodimensionale formato da N particelle puntiformi nell’intervallo [0, L]. ~ r, t) particella è portatrice di un momento elettrico di dipolo µ ~ i , l’interazione con un campo elettrico E(~ è, come è noto dalla fisica classica H0 (t) = − N X ~ r, t) µ ~ i · E(~ (8.5) i=1 Da un punto di vista macroscopico, possiamo scrivere l’energia di interazione sotto forma integrale Z ~ (~r) · E(~ ~ r, t) d~rM H0 (t) = − (8.6) ~ (~r) è la polarizzazione macroscopica del sistema nel punto ~r che può essere scritta come dove M N X ~ (~r) = 1 [~ µi , δ(~r − ~ri )]+ M 2 i=1 (8.7) Per fissare le idee, possiamo considerare un sistema modello. In Fig. (8.1) è mostrato un disegno schematico del nostro sistema modello, costituito da un ‘fluido’ monodimensionale. Le particelle costituenti sono caratterizzate dalle coordinate xi , definite nell’intervallo [0, L]. Definiamo come responso al tempo t e nel punto ~r la grandezza hB(~r, t)i. Il responso è dipendente dalla storia precedente al tempo t del sistema e della campo applicato F . In generale si potrà scrivere hB(~r, t)i = Z t ∞ Z 0 dt d~r0 ΦBB (~r, ~r0 ; t, t0 )F (~r0 , t0 ) (8.8) La funzione ΦBB (~r, ~r0 ; t, t0 ) mette in relazione il comportamento del sistema descritto dall’osservabile B nel punto (~r, t), con la perturbazione dovuta a F nel punto (~r0 , t0 ). La funzione ΦBB (~r, ~r0 ; t, t0 ) è in generale una funzione reale: per un sistema omogeneo in equilibrio termodinamico potremo assumere che i) ΦBB è traslazionalmente invariante, cioè dipende solo da |~r − ~r0 |; ii) ΦBB è stazionaria, cioè dipende solo da t − t0 . Le precedenti definizioni sono immediatamente traducibili nel dominio delle frequenze. Un campo generico può essere visto in generale come un insieme di onde piane F (~r, t) = X ~k,ω = F~kω exp[−i(~k · ~r − ωt)] (8.9) 8.1. TEORIA DEI RESPONSI LINEARI 223 Sostituendo la precedente espressione in (8.8), si ottiene facilmente che il responso hB(~r, t)i è dato da: hB(~r, t)i = χBB (~k, ω) = X χBB (~k, ω)F~kω exp[−i(~k · ~r − ωt)] ~k,ω Z ∞ 0 Z dt d~rΦBB (~r, t) exp[i(~k · ~r − ωt)] (8.10) (8.11) dove χBB (~k, ω) è la suscettibilità complessa associata al responso lineare hB(~r, t)i, definita come la trasformata di Fourier-Laplace della funzione ΦBB . Dalle proprietà fondamentali delle trasformate di Fourier-Laplace discende che la suscettibilità complessa χBB = χ0BB +iχ00BB gode delle seguenti proprietà χ0BB (−~k, −ω) = χ0BB (~k, ω) (8.12) χ00BB (−~k, −ω) (8.13) −χ00BB (~k, ω) = χBB (−~k, −ω) = χ∗BB (~k, ω) 8.1.1 (8.14) Assorbimento ed emissione di energia Un sistema esposto ad un campo esterno esibisce un responso accompagnato da assorbimento ed emissione di energia. La differenza tra energia assorbita ed emessa è l’energia dissipata. Supponiamo che il sistema sia sottoposto ad una radiazione monocromatica reale, formata cioè da due onde piane: F = o 1n ∗ F~kω exp[−i(~k · ~r − ωt)] + F~kω exp[i(~k · ~r − ωt) 2 (8.15) Sia Q(~k, ω) l’energia dissipata per unità di tempo, ottenibile come la media rispetto ad un periodo di oscillazione del campo della variazione temporale dell’energia del sistema: Q(~k, ω) = ω 2πV Z 2π ω 0 Z dt d~rhB(~r, t)i ∂F (~r, t) ∂t (8.16) dove V è il volume del sistema. Sostituendo l’eq. (8.15) otteniamo: ω Q(~k, ω) = χ00BB (~k, ω)|F~kω |2 2 (8.17) La parte immaginaria della suscettibilità complessa è dunque proporzionale all’energia dissipata. 8.1.2 Principio del bilancio dettagliato Nell’ipotesi di una campo monocromatico, eq. (8.15), possiamo riscrivere l’energia di interazione del sistema nella forma ∗ H0 (t) = −B −~k F~kω exp(iωt) − B~k F~kω exp(−iωt) (8.18) dove l’operatore B~k è N 1X B~k = [B i , exp(i~k · ~ri )]+ 2 i=1 Definiamo ora due stati del sistema di particelle, uno stato iniziale |ii ed uno stato finale |f i. (8.19) 224 CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE Esercizio 2. Gli stati |ii sono autostati dell’hamiltoniano del sistema isolato H0 . La perturbazione debole H0 (t) in ordine zero lascia invariati gli autostati del sistema Chiamiamo Ei(f ) l’energia del sistema di particelle nello stato iniziale (finale), qi(f ) la probabilità che il sistema sia nello stato iniziale (finale), secondo la distribuzione di Boltzmann qi(f ) = exp(−Ei(f ) /kB T ) Q (8.20) dove Q è la funzione di partizione del sistema di particelle nell’insieme statistico canonico. Dalla teoria delle perturbazioni dipendenti dal tempo la probabilità che il campo esterno induca una transizione da i a f e la probabilità che avvenga il processo opposto, da f ad i, sono (nell’unità di tempo): Wi→f (~k, ω) = Wf →i (−~k, −ω) = 2π |F~ |2 |hi|B~k |f i|2 δ(ω − ωf i ) 4h̄2 kω 2π |F~ |2 |hf |B −~k |ii|2 δ(ω − ωf i ) 4h̄2 kω (8.21) (8.22) dove ω = (Ef − Ei )/h̄. La probabilità per unità di tempo che il sistema acquisisca un momento h̄~k e un’energia h̄ω, indipendentemente dagli stati iniziale e finale, e la probabilità opposta che il sistema acquisisca un momento −h̄~k e un’energia −h̄ω, indipendentemente dagli stati iniziale e finale, sono: X P (~k, ω) = if X P (−~k, −ω) = if X 2π qi |hi|B~k |f i|2 δ(ω − ωf i ) qi Wi→f (~k, ω) = 2 |F~kω |2 4h̄ if (8.23) X 2π qf Wf →i (~k, ω) = 2 |F~kω |2 qf |hf |B −~k |ii|2 δ(ω − ωf i ) 4h̄ if (8.24) Dalle proprietà della funzione delta di Dirac, e dal fatto che B−~k è l’operatore aggiunto di B~k , si ottiene l’equazione del bilancio dettagliato, che collega le probabilità di transizione a e da uno stato del sistema: P (−~k, −ω) = exp(−h̄ω/kB T )P (~k, ω) (8.25) Segue che |P (−~k, −ω)| < |P (~k, ω)| cioè che il sistema assorbe più energia per unità di tempo di quanta non ne emetta, con una conseguente dissipazione di energia prelevata dal campo esterno. 8.1.3 Funzioni di correlazione temporale La suscettibilità complessa χ00BB può essere messa in relazione diretta con medie dell’osservabile B a tempi diversi, dette funzioni di (auto)correlazione temporali. Definiamo la densità spettrale o fattore dinamico di forma come la funzione SB (~k, ω) = 2π X qi |hi|B~k |f i|2 δ(ω − ωf i ) (8.26) if che è direttamente proporzionale a P (~k, ω). Se si esprime la funzione delta di Dirac in forma integrale δ(ω − ωf i ) = 1 2π Z +∞ −∞ dt exp[i(ω − ωf i )t] (8.27) 8.1. TEORIA DEI RESPONSI LINEARI 225 la densità spettrale può essere riscritta come trasformata di Fourier di una funzione del vettore d’onda e del tempo: SB (~k, ω) = cBB (~k, t) = Z +∞ dt exp(iωt)cBB (t) (8.28) qi |hi|B~k |f i|2 exp(iωf i t) (8.29) −∞ X if Poichè |ii e |f i sono autostati dell’hamiltoniano del sistema isolato, possiamo scrivere cBB (~k, t) = X qi hi| exp(iH0 t/h̄)B~k exp(−iH0 t/h̄)|f ihf | − B −~k |ii = if X qi hi|B~k (t)|f ihf | − B −~k (0)|ii(8.30) if dove B~k (t) e B−~k (0) sono gli operatori B ±~k rispettivamente al tempo t e al tempo 0, nella rappresentazione di Heisenberg Esercizio 3. Ricavate l’eq. (8.30). Si può procedere usando i) la proprietà di B~k e B −~k di essere operatori coniugati, ii) la definizione di ωf i e iii) la definizione di un operatore generico A(t) al tempo t nella rappresentazione di Heisenberg, data la sua forma A(t0 ) al tempo t0 A(t) = exp[iH0 (t − t0 )/h̄)]A(t0 ) exp[−iH0 (t − t0 )/h̄)] (8.31) L’equazione (8.30) permette il calcolo della funzione cBB (~k, t) come una traccia rispetto alla matrice densità di equilibrio del sistema, q̂, i cui elementi di matrice sono hm|q̂|ni = qm δm,n : cBB (~k, t) = Tr[q̂B~k (t)B−~k (0)] ≡ B~k (t)B(−~k)(0) (8.32) Possiamo valutare direttamente l’energia dissipata per unità di tempo e di volume dalle probabilità P (~k, ω) (assorbimento) e P (−~k, −ω) (emissione), come: Q(~k, ω) = h̄ω[P (~k, ω) − P (−~k, −ω)] (8.33) che può anche essere riscritta come la differenza dei fattori dinamici di forma SB (~k, ω) e SB (−~k, −ω). La somma e la differenza dei fattori dinamici possono ora essere scritti in termini di medie temporali degli operatori B±~k e tenendo conto della relazione esistente tra Q(~k, ω) e la parte immaginaria della suscettibilità complessa, eq. (8.17), otteniamo infine le seguenti importanti relazione: µ ¶ Z +∞ 1 h̄ω 00 ~ χBB (k, ω) = tanh exp(iωt)CBB (~k, t) (8.34) h̄ 2kB T −∞ 1 (8.35) CBB (~k, t) = [B~ (t), B−~k (0)]+ 2 k dove CBB (~k, t) è la funzione di autocorrelazione del processo B al tempo t e numero d’onda ~k. La trasformata di Fourier della funzione di autocorrelazione è direttamente proporzionale alla parte immaginaria della suscettibilità e dunque all’energia dissipata Z 1 +∞ ~ dt exp(iωt)CBB (~k, t) (8.36) JBB (k, ω) = 2π −∞ µ ¶ ωπ h̄ω Q(~k, ω) = tanh |F~kω |2 JBB (~k, ω) (8.37) h̄ 2kB T L’equazione (8.37) è un esempio di relazione tra dissipazione e fluttuazione poichè collega la risposta di un sistema, o meglio l’energia dissipata dal sistema in seguito ad una risposta lineare ad una perturbazione debole esterna, ai moti molecolari. 226 CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE 8.1.4 Limite classico Fino ad ora si è considerato un sistema quantistico. Tuttavia, tutte le considerazioni sinora esposte possono essere traslate nell’mabito della meccanica classica. Consideriamo un sistema meccanico caratterizzato da M coordinate generalizzate q = (q1 , . . . , qM ) e dagli M momenti coniugati p = (p1 , . . . , pM ). Possiamo per esempio considerare il sistema come una collezione di N punti materiali descritti da 3N = M coordinate cartesiane ~ri , per quanto la descrizione possa essere facilmente generalizzata ad un sistema meccanico generico, formato sia da punti materiali che corpi rigidi (con le corrispondenti coordinate rotazionali e momenti angolari coniugati). Le coordinate cartesiane e i momenti lineari possono anche essere sostituite da altrettante coordinate generalizzate e dai loro momenti coniugati. Lo stato del sistema ad un certo istante t è descritto da un punto Γt dello spazio M -dimensionale, detto spazio delle fasi del sistema. Le equazioni canoniche del moto del sistema sono ~r˙ i = ∂H (8.38) ∂~ pi ∂H p~˙ i = − ∂~ri (8.39) per i = 1, . . . , M . Indichiamo con H = H({~ri }, {~ pi }. Lo stato al tempo t + τ del sistema Γt+τ è univocamente determinato dallo stato al tempo t - le equazioni della meccanica classica sono deterministiche. Per ogni stato Γt possiamo perciò individuare una traiettoria del sisteam come l’insieme dei punti dello spazio delle fasi ottenuti risolvendo le equazioni del moto con la condizione che al tempo t il sistema sia nel punto Γt . Consideriamo ora una proprietà del sistema B~k (Γ) = M X Bm (~rm , p~m ) exp(i~k · ~rm ) (8.40) m=1 La misura della correlazione tra il valore della proprietà B~k al tempo 0 ed al tempo t sarà in generale ottenibile come una media avente la forma 1 T →∞ T hB−~k (0)B~k (t)i = lim Z T 0 dt0 B−~k (Γt0 )B~k (Γt+t0 ) (8.41) Se ora utilizziamo le metodologie della meccanica statistica classica, assumendo che valgano le condizioni per descrivere il sistema, a partire dal tempo t = 0, nell’ambito di un insieme statistico canonico, possiamo sostituire, in forza dell’ipotesi ergodica, alla media temporale dell’equazione precedente una media rispetto alla distribuzione canonica ρ(Γ0 ) del prodotto B−~k (Γ0 )B~k (Γt ). Discende perciò che la funzione di auto-correlazione può essere scritta come cl ~ hB−~k (0)B~k (t)i ≡ CBB (k, t) = Z dΓ0 ρ(Γ0 )B−~k (Γ0 )B~k (Γt ) (8.42) alla meccanica classica elementare è noto che la variazione temporale di una proprietà di un sistema meccanica è data dall’equazione (classica) di Liouville che esprime la derivata totale temporale di una generica proprietà f = f ({~ri }, {~ pi }) 1 df = iLcl f dt 1 Nell’ipotesi che f non dipenda esplicitamente da t ma solo dalle coordinate e dai momenti del sistema (8.43) 8.1. TEORIA DEI RESPONSI LINEARI 227 L’operatore classico di Liouville iLcl è definito in termini delle parentesi di Poisson iLcl f = {f, H} ≡ N X i=1 ∂f ∂~ri · ∂H ∂~ pi − ∂f ∂~ pi · ∂H ∂~qi (8.44) La soluzione formale dell’equazione di Liuoville è scritta immediatamente come f (t) = exp(iLcl t)f (0) (8.45) L’operatore exp(iLcl t) è detto propagatore temporale; è possibile ora esprimere B~k (Γt ) utilizzando il propagatore temporale e riscrivere la funzione di autocorrelazione come cl ~ CBB (k, t) = Z dΓ0 ρ(Γ0 )B−~k (Γ0 ) exp(iLcl t)B~k (Γ0 ) (8.46) Tecnica di misura Osservabile Funzione di correlazione Diffusione traslazionale Diffusione rotazionale Assorbimento infrarosso Scattering Raman Forma di riga NMR Velocità del centro di massa di una molecola sonda Velocità angolare una molecola sonda Vettore momento di dipolo di transizione Vettore momento di dipolo di transizione Componente x della magnetizzazione h~v (0) · ~v (t)i hω(0) · ω(t)i hµ(0) · µ(t)i hP2 [µ(0) · µ(t)]i hMx (0)Mx (t))i Tabella 8.1: Osservabili e funzioni di correlazione temporale 228 CAPITOLO 8. PROPRIETÀ DIPENDENTI DAL TEMPO IN FASI CONDENSATE Capitolo 9 Variabili e processi stocastici 9.1 Introduzione Lo studio dei fenomeni dinamici in fasi condensate presuppone l’esistenza di determinate equazioni del moto dalle proprietà formali chiaramente definite, ed atte a descrivere osservabili fisici e la loro variazione nel tempo. Per inciso, la descrizione di in un sistema fisico può essere, in modo grossolano, caratterizzata come la definizione di un insieme di variabili caratteristiche del sistema (cinematica), delle caratteristiche statiche o di equilibrio e di una teoria dinamica. Cosı̀ a fondamento della teoria della meccanica classica elementare sono le equazioni di Lagrange e/o di Hamilton-Jacobi; la meccanica quantistica non-relativistica è basata sulle descrizioni di Schrödinger o di Heisenberg, mentre nella sua formulazione relativistica è definita nell’mabito del formalismo di Dirac. Nel seguito, più o meno in modo esaustivo, ci occuperemo dello studio di sistemi chimico-fisici definiti come gradi di libertà classici traslazionali e/o rotazionali di singole molecole, gradi di libertà conformazionali, variabili collettive formate dalla combinazione di varie coordinate molecolari (e.g. coordinate di reazione in reazioni chimiche intermolecolari, gradi di libertà conformazionali in catene alchiliche o molecole generalmente flessibili, coordinate di rottura di simmetria in fasi liquido-cristalline etc.), interagenti con l’ambiente circostante o mezzo mediante l’influenza di forze stocastiche o casuali (d’ora innanzi, senza inutili sofismi, considereremo i due termini come sinonimi). Parleremo tout-court, un poco impropriamente, di meccanica stocastica per descrivere l’insieme dei formalismi e dei metodi che descrivono le variabili e le equazioni della dinamica di processi stocastici. La prima parte del Corso è perciò dedicata all’introduzione dei rudimenti della teoria della probabilità e alla definizione dei processi stocastici, cioè alla definizione degli strumenti di base. In particolare, il Capitolo 9 contiene un breve riassunto dei concetti principali utili alla comprensione della natura delle variabili casuali. Nel Capitolo ?? saranno descritte le caratteristiche principali delle variabili stocastiche. I processi stocastici saranno descritti nel Capitolo ??. 9.2 Definizioni Una variabile stocastica X è definita da un insieme di valori e da una distribuzione di probabilità (Van Kampen) 229 230 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI Insieme di valori: è l’insieme dei possibili valori assunti (detti anche eventi mutualmente esclusivi) dalla variabile o spazio delle fasi. Lo spazio delle fasi S può essere discreto o continuo, mono o multidimensionale. Per esempio: testa o croce, i possibili valori assunti dalla variabile “lancio di una moneta” (escludendo la possibilità che al moneta cada di taglio e resti in equilibrio . . .); le tre componenti del vettore posizione del baricentro di una particella di polline soggetta a moto browniano, in una goccia d’acqua giacente sul piattino di un microscopio; il numero di molecole di glucosio in un volume di un micrometro cubo situato al centro di un centimetro cubico di una soluzione zuccherina 1 m. Come esercizio, definite quantitativamente lo spazio delle fasi in quest’ultimo caso. Distribuzione di probabilità: è la probabilità associata ai valori assunti dalla variabile. La distribuzione o densità di probabilità di una variabile stocastica X, di cui indichiamo un valore assunto con x (intendendo nel seguito una variabile stocastica generica; per semplicità si può considerare una variabile continua mono-dimensionale) è una funzione P (x) non-negativa, P (x) ≥ 0 e normalizzata ad uno nello spazio delle fasi Z S P (x)dx = 1 (9.1) La densità di probabilità non deve essere confusa con la funzione di distribuzione cumulativa, che è appunto la probabilità cumulativa di un insieme di valori assunti da x (o eventi). Per una variabile continua mono-dimensionale possiamo definire la probabilità cumulativa come Prob(x) = Z x −∞ P (x0 )dx0 (9.2) ovvero la probabilità che X assuma un qualunque valore inferiore a x. Consideriamo una variabile il cui spazio S sia in parte continuo ed in parte discreto. Potremo in genere distinguere una parte continua ed una discreta di P : P (x) = X pn δ(x − xn ) + P̃ (x) (9.3) n δ(x) è la funzione delta di Dirac; la distribuzione è normalizzata secondo l’equivalente della (9.1) X Z pn + P̃ (x)dx = 1 (9.4) n 9.2.1 Definizione assiomatica della teoria della probabilità Un trattamento più completo ed astratto è basato sulla teoria assiomatica della probabilità, dovuta ad A. Kolmogorov. Consideriamo lo spazio delle fasi S dei valori assunti da X come un insieme, che può essere ripartito in vari sottoinsiemi, ciascuno costituito dall’unione di varie eventi elementari x1 , x2 etc. L’intepretazione usuale della probabilità associa ad un evento X un’operazione di campionatura, vale a dire una misura ripetuta della variabile per un numero molto grande N di volte. Per un certo numero di volte, NX , l’evento X sarà verificato; allora la probabilità dell’evento X è Prob(X) → NX N (9.5) 9.3. DISTRIBUZIONI 231 per un numero teoricamente infinito di misure, in pratica per un numero grande a sufficienza per poter trascurare fluttuazioni nella frequenza di realizzazione dell’evento. Secondo l’approccio assiomatico, la funzione Prob(X) di un evento generico soddisfa le seguenti condizioni 1. Per ogni evento X, Prob(X) ≥ 0 2. L’insieme di tutti i possibili eventi elementari è certo, cioè se E = x1 S x2 +. . ., allora Prob(E) = 1 T 3. Se X1 ed X2 sono incompatibili, cioè non si possono realizzare contemporaneamente, X1 X2 = ∅, S allora Prob(X1 X2 ) = Prob(X1 ) + Prob(X2 ), vale a dire eventi indipendenti hanno probabilità additive. Sulla base di tali assiomi, tutte le varie definizioni statistiche e di probabilità sono deducibili: Densità di probabilità P (Xi ) = Prob(Xi ), cioè è la probabilità di un singolo evento elementare T Probabilità condizionale P (X|Y ) = Prob(X Y )/Prob(X), ovvero la probabilità di Y condizionata da X (purchè X sia realizzabile, Prob(X) 6= 0), è data dalla probabilità di realizzazione dell’evento congiunto divisa per la probabilità dell’evento X. Se Prob(X|Y ) = Prob(Y ), cioè Y ha la stessa probabilità di realizzarsi indipendentemente da X, si parla di eventi statisticamente indipendenti, T Prob(X Y ) = Prob(X)Prob(Y ). Per esempio, consideriamo il processo “lancio di un dado”. Gli eventi esclusivi, che formano lo spazio delle fasi sono x1 , x2 , x3 , x4 , x5 , x6 , corrispondenti all’uscita delle varie faccie. Poichè il gioco si svolge in una bisca onesta, i singoli eventi sono equiprobabili, Prob(xi ) = 1/6. Un evento generico E è per esempio S S S S E = x2 x4 x6 (uscita di una faccia con numero pari); un altro evento è F = x1 x3 x5 (uscita S di faccia dispari). E ed F sono eventi indipendenti, quindi Prob(E F ) = 3 × (1/6) + 3 × (1/6) = 1 (cosa che comunque sarebbe vera anche per un dado truccato, perchè esprime solo la probabilità che esca una faccia pari oppure dispari). Un altro esempio: il gioco del poker. Consideriamo come variabile stocastica la scelta di una carta; ogni figura del poker può essere definita come l’intersezione di varie eventi elementari. Qual è per esempio la probabilità di un poker d’assi? Per un mazzo standard di 52 carte la probabilità di pescare il primo asso è 4/52. La probabilità di pescare due assi è data da 4/52 (probabilità di pescare il primo asso) per la probabilità condizionata di pescare un asso da un mazzo che cui sia già stato estratto un asso, cioè 3/51; e cosı́ la la probabilità di pescare quattro assi di seguito da un mazzo è 4!48!/52!, circa 3.7 × 10−6 . Piuttosto poco. 9.3 Distribuzioni Data la probabilità P (x) possiamo definire numerose quantità di interesse come per esempio la media di una funzione Z hf (x)i = S f (x)P (x)dx (9.6) con le sue varie grandezze accessorie, come la varianza o dispersione σ 2 = h(x − hxi)2 i (9.7) 232 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI I momenti sono definiti come le medie mn = hxn i. Una grandezza importante è la funzione caratteristica G(k) = hexp(ikx)i (9.8) i momenti sono proporzionali alle derivate della funzione caratteristica ¯ ¯ 1 dn G ¯¯ mn = n i dxn ¯¯ (9.9) k=0 mentre i cumulanti sono proporzionali alle derivate del logaritmo della funzione caratteristica ¯ ¯ 1 dn ln G ¯¯ cn = n ¯ i dxn ¯ (9.10) k=0 esistono relazioni ricorsive tra momenti e cumulanti (e.g. c1 = m1 , c2 = m2 − m21 = σ 2 etc.). Noti i momenti (o i cumulanti), è nota la distribuzione, e viceversa. Una distribuzione gaussiana è definita per esempio come " (x − m1 )2 P (x) = √ exp − 2σ 2 2πσ 2 1 # (9.11) con momenti m1 e m2 = σ 2 + m21 ; qualunque distribuzione con i primi due momenti non nulli, e tutti gli altri nulli, è gaussiana. 9.4 Diffusione e processi stocastici Consideriamo1 una molecula di un soluto disciolto in un liquido contenuto in un tubicino molto sottile, che per semplicità descriviamo come un segmento privo di spessore avente lunghezza L. Vogliamo studiare il processo di diffusione traslazionale responsabile del processo di dissoluzione del soluto nel solvente (in assenza di altri effetti macroscopici come i moti convettivi risultanti da agitazioni meccaniche, accoppiamento con gradienti termici etc.). La variabile stocastica di interesse è la posizione al tempo t della molecola, X(t). Lo spazio delle fasi del sistema è −L/2 ≤ X(t) ≤ L/2, ovvero S = [−L/2, L/2], ponendo l’origine nel centro del segmento. La probabilità cumulativa che la molecola sia in un intervallo [a, b] è Prob(a ≤ X(t) ≤ b). La densità di probabilità è perciò Prob(x ≤ X(t) ≤ x + ∆x) p(x, t) = lim (9.12) ∆x ∆x→0+ da cui consegue la relazione integrale inversa Prob(a ≤ X(t) ≤ b) = Z b a p(x, t)dx (9.13) La probabilità di trovare la molecola in qualche punto del tubicino deve essere unitaria (la molecola esiste!): Z L/2 −L/2 p(x, t)dx = 1 (9.14) mentre il valore medio di una funzione f (x) della posizione della molecola è data da hf (t)i = 1 Z L/2 −L/2 f (x)p(x, t)dx Questa sezione è basata in parte su appunti di lezione del Prof. Giorgio Moro. (9.15) 9.4. DIFFUSIONE E PROCESSI STOCASTICI 9.4.1 233 Probabilità e concentrazione Qual è la relazione tra densità di probabilità per la posizione di una singola molecola e la concentrazione c(x, t) (per esempio in numero di molecole per unità di volume di soluzione) di tutte le molecole del soluto in un punto x? Il numero di molecole contenute nel segmento [a, b] generico è N =A Z b a c(x, t)dx (9.16) dove A è l’area di un sezione del tubo; il numero di molecole totali sia noto e dato da Ntot . Si noti che volendo esprimere le concentrazioni in moli/volume dovremmo solo dividere c per LA , numero di Avogadro. La probabilità cumulativa è il rapporto tra N ed Ntot A Prob(a ≤ X(t) ≤ b) = Ntot Z b a c(x, t)dx (9.17) da cui segue che la densità di probabilità è p(x, t) = A c(x, t) Ntot (9.18) quindi per tubi sottili, in assenza di effetti convettivi, possiamo affermare che la probabilità è proporzionale alla concentrazione. La legge che descrive la variazione nel tempo e nello spazio di c(x, t) e dunque della densità di probabilità p(x, t) è ottenibile in base alla prima e seconda legge di Fick. La prima legge di Fick afferma che la variazione di concentrazione nel tempo è uguale ed opposta alla variazione nello spazio del flusso per unità di superficie J(x, t) ∂c(x, t) ∂t =− ∂J(x, t) (9.19) ∂x La prima legge di Fick esprime la condizione di conservazione della quantità di soluto. Infatti consideriamo per esempio il numero di molecole comprese nel tratto a e b N (a, b, t) = A Z b a "Z c(x, t)dx = A L/2 a c(x, t)dx − Z L/2 b # c(x, t)dx = N (a, L/2, t) − N (b, L/2, t) (9.20) dove con N (x, L/2, t) si indica il numero di molecole comprese tra x e l’estremità superiore; N (x, L/2, t) = A Z L/2 x c(x, t)dx (9.21) definiamo come flusso J(x, t) per unità di superficie la variazione nel tempo del numero di molecole N (x, L/2, t) J(x, t) = 1 ∂N (x, L/2, t) A ∂t (9.22) La derivata temporale della relazione (9.20) è perciò ∂ ∂t N (a, b, t) = A Z b ∂c(x, t) a ∂t = A [J(a, t) − J(b, t)] = −A Z b ∂J(x, t) a ∂x (9.23) 234 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI da cui discende la prima legge di Fick. La seconda legge di Fick è in realtà un principio fenomenologico (od empirico), che assume come ragionevole il fatto che il flusso sia proporzionale al gradiente locale della concentrazione, con il segno negativo (il flusso avviene in direzione opposto al gradiente di concentrazione) J(x, t) = −D ∂c(x, t) (9.24) ∂x dove D ≥ 0 è il coefficiente di diffusione traslazionale. La seconda legge di Fick perde di validità nel caso siano presenti forti gradienti di concentrazione, moti convettivi e turbolenti, gradienti termici elevati etc. Dalla combinazione delle due leggi discende l’equazione di diffusione ∂c(x, t) ∂t =D ∂ 2 c(x, t) (9.25) ∂x2 con condizioni al contorno (ed iniziali) da determinarsi. Se per esempio imponiamo che non vi sia perdita di soluto agli estremi, deve valere J(±L/2, t) = 0 (9.26) ovvero la derivate di c rispetto ad x deve essere nulla agli estremi, ad ogni t. L’equazione corrispondente per la densità di probabilità p(x, t) è del tutto analoga, data la proporzionalità tra le due grandezze ∂p(x, t) ∂t ∂p(±L/2, t) ∂x 9.4.2 = D ∂ 2 p(x, t) (9.27) ∂x2 = 0 (9.28) Alcuni esempi numerici In tre dimensioni possiamo generalizzare l’equazione di diffusione nella forma ∂p(~r, t) ∂t = D∇2 p(~r, t) = D ∂2 ∂x1 2 + ∂2 ∂x2 2 + ∂2 ∂x3 2 p(~ r, t) (9.29) con condizioni al contorno ed iniziali da definirsi. Più in generale il coefficiente di diffusione i) può avere forma tensoriale ed ii) può dipendere dalla posizione ∂p(~r, t) ∂t = ∇ · D(~r) · ∇p(~r, t) (9.30) dove Dij (~r) sono gli elementi del tensore, soggetti alla condizione di simmetria Dij = Dji ed avente autovalori positivi. 9.4. DIFFUSIONE E PROCESSI STOCASTICI 9.4.3 235 Tubo illimitato Consideriamo la soluzione dell’equazione di diffusione (9.27) per la probabilità p(x, t), per un tubo illimitato, L → ∞. Supponiamo che al tempo t = 0 il sistema sia descritto da una distribuzione iniziale p0 (x), vale a dire p(x, 0) = p0 (x) (9.31) Una soluzione particolare si ottiene con il metodo di separazione delle variabili, o metodo di Fourier; la soluzione particolare si cerca perciò nella forma p(x, t) = T (t)X(x) (9.32) sostituendo otteniamo l’equazione separabile T 0 (t) X 00 (x) = = −λ2 DT (t) X(x) (9.33) dove λ è un parametro arbitrario; segue che T (t) = exp(−λ2 Dt) (9.34) X(x) = A cos λx + B sin λx (9.35) dove A e B sono costanti per ora indeterminate. La soluzione generale si può trovare sotto forma di integrale rispetto al parametro arbitrario λ, considerando A e B come funzioni di λ p(x, t) = Z ∞ −∞ exp(−λ2 Dt)[A(λ) cos λx + B(λ) sin λx]dλ (9.36) Possiamo ora determinare le funzioni A(λ) e B(λ) nota la funzione iniziale p0 (x); sostituendo la soluzione generica nell’equazione differenziale, e verificando la condizione iniziale troviamo infatti Z A(λ) = B(λ) = 1 ∞ p0 (ξ) cos λξdξ 2π −∞ Z ∞ 1 p0 (ξ) sin λξdξ 2π −∞ (9.37) (9.38) sostituendo nell’espressione per p(x, t) giungiamo ad una notevole semplificazione Z ∞ " # 1 (ξ − x)2 p0 (ξ) √ exp − p(x, t) = dξ = 4Dt 2 πDt −∞ Z ∞ −∞ p0 (ξ)G(ξ − x, t)dξ (9.39) si noti che la soluzione è interpretabile come la convoluzione di una funzione gaussiana, G(x, t), con la distribuzione iniziale p0 (x). La funzione G(x, t) è la distribuzione al tempo t e nel punto x di una sorgente iniziale centrata in un punto ξ al tempo t = 0. Se la soluzione iniziale è una delta di Dirac, ovvero inizialmente il sistema esiste solo in un punto, per esempio nell’origine, p0 (x) = δ(x). p(x, t) = G(x, t) (9.40) 236 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI 9.4.4 Tubo finito Consideriamo ora un tubo finito, con le condizioni di riflessione al contorno, Eq. (9.28). Ancora una volta la soluzione particolare si ottiene nella forma precedente, salvo che ora imponiamo le condizioni al contorno ¯ ¯ ¯ ¯ ¯ ∂p(x, t) ¯ ∂x =0 (9.41) x=±L/2 o flusso nullo agli estremi. Applichiamo queste condizioni alla soluzione generica X(x); si ottiene λL λL + B cos 2 2 λL λL A sin + B cos 2 2 −A sin = 0 (9.42) = 0 (9.43) un sistema omogeneo lineare in A e B, con soluzione non triviale solo se il determinante dei coefficienti è nullo. Si trova subito che sin λL = 0 (9.44) ovvero λ = nπ/L, con n intero ≥ 0; per n = 2m pari la soluzione non triviale del sistema lineare è A 6= 0, B = 0; per n = 2m + 1 dispari, la soluzione è A = 0, B 6= 0 La soluzione dell’equazione differenziale è perciò data sotto forma di serie di Fourier p(x, t) = X " m≥0 + à ! 4m2 π 2 D 2mπx Am exp − t cos 2 L L à ! (2m + 1)2 π 2 D (2m + 1)πx Bm exp − t sin 2 L L # (9.45) dove i coefficienti An e Bn sono ottenuti dalla condizione iniziale p(x, 0) = p0 (x) Am = 2 L Bm = 2 L 9.4.5 Z L/2 −L/2 Z L/2 −L/2 p0 (x) cos 2mπx L (9.46) p0 (x) sin (2m + 1)πx L (9.47) Equazione di diffusione ed equazione di Schrödinger L’equazione di diffusione per la probabilità di una particella rappresentata dal vettore posizione ~r , e l’equazione di Schrödinger della meccanica quantistica per la funzione d’onda di un punto materiale sono isomorfe, cioè hanno una struttura matematica analoga. La forma più generale di equazione di diffusione per una particella ~r è: ∂p(~r, t) ∂t = ∇ · D(~r) · peq (~r)∇p−1 r)p(~r, t) = −Γ̂p(~r, t) eq (~ (9.48) dove D(~r) è il tensore di diffusione con dipendenza spaziale, mentre peq (~r) è la soluzione all’equilibrio, ottenibile come il limite a t → ∞ della probabilità p(~r, t) peq (~r) = lim p(~r, t) t→∞ (9.49) 9.4. DIFFUSIONE E PROCESSI STOCASTICI 237 L’operatore Γ̂ dell’equazione (9.48) è detto operatore di diffusione. Possiamo definire in generale un potenziale di equilibrio ovvero riscrivere la distribuzione di equilibrio nella forma di una distribuzione di Boltzmann 1 (9.50) peq (~r) = exp[−U (~r)/kB T ] Z e Z è una costante di normalizzazione. Una particella diffusiva è perciò caratterizzata da un tensore di diffusione D(~r) e da un potenziale U (~r). Consideriamo lo spazio funzionale F delle funzioni (reali) in ~r che soddisfino le condizioni al contorno richieste, con un prodotto hermitiano (scalare) definito come Z hf |gi = S d~rf (~r)g(~r) (9.51) dove S è il volume di integrazione. L’operatore di diffusione Γ̂ non è hermitiano nello spazio F; se però consideriamo l’operatore simmetrizzato Γ̃ Γ̃ = p−1/2 r)Γ̂p1/2 r) eq (~ eq (~ (9.52) possiamo verificare che Γ̃ è hermitiano. L’equazione di diffusione simmetrizzata altro non è che la legge −1/2 del moto per la funzione p̃(~r, t) = peq (~r)p(~r, t), che verifica l’equazione di diffusione simmetrizzata ∂ p̃(~r, t) ∂t −1/2 = p−1/2 r)∇ · D(~r) · peq (~r)∇peq (~r)p̃(~r, t) = −Γ̃p̃(~r, t) eq (~ (9.53) Una forma alternativa della (9.53) è ottenibile esplicitando le derivate e scrivendo ∂ p̃(~r, t) ∂t = ∇ · D(~r)∇p̃(~r, t) + F (~r)p̃(~r, t) (9.54) dove F (~r) è una funzione complicata avente la forma F (~r) = X ij 2 ∂ U ∂U ∂U 1 ∂Dij ∂U 1 − + Dij 2 T 2 Dij 2kB T 4k ∂ri ∂rj ∂ri ∂rj ∂ri ∂rj B (9.55) Se D = D1 (cioè è uno scalare) si ha semplicemente F (~r) = D 2kB T X ∂2U i ∂ri 2 − ∂U 2 1 2kB T ∂ri (9.56) Consideriamo ora il caso di una particella o punto materiale quantistico di massa m, in un campo di potenziale V (~r). L’equazione di Schrödinger per la funzione d’onda ψ(~r, t) della particella è ih̄ ∂ψ(~r, t) ∂t = Ĥψ(~r, t) = − h̄2 2 ∇ ψ(~r, t) + V (~r)ψ(~r, t) 2m (9.57) possiamo dunque evidenziare l’isomorfismo dell’equazione di Schrödinger e dell’equazione di diffusione identificando ih̄ Dij → δij (9.58) 2m 2 ih̄ X ∂ 2 U 1 ∂U F (~r) = − 2 4kB T m i ∂ri 2kB T ∂ri i → − V (~r) h̄ l’equazione (9.59) può essere risolta per trovare il potenziale U . (9.59) 238 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI 9.5 Equazioni stocastiche L’applicazione più nota ed immediata delle metodologie stocastiche è data dall’interpretazione del moto browniano. Il fenomeno, osservato per primo dal biologo Robert Brown nel 1828 durante lo studio del comportamento di polline in soluzione acquosa, consiste nel moto caotico di particelle macroscopiche in sospensioni colloidali. La prima interpretazione quantitativa del fenomeno è dovuta ad Einstein che nel 1905 pubblicò un articolo dal titolo “Il moto delle particelle in sospensione nei fluidi in quiete, come previsto dalla teoria cinetico-molecolare del calore”. L’articolo recita all’inizio: “In questo lavoro faremo vedere come, secondo la teoria cinetico-molecolare del calore, particelle in sospensione in una soluzione compiano, in consequenza del moto termico delle molecole, movimenti di ampiezza tale che li si può agevolmente osservare al microscopio, purchè, beninteso, la dimensione delle particelle stesse sia accessibile allo strumento. Può darsi che i moti che qui saranno considerati coincidano con il cosiddetto moto molecolare browniano; tuttavia i dati che ho potuto ottenere su quest’ultimo sono cosı̀ imprecisi che non mi stato possibile formulare alcun giudizio in merito. Se il moto in questione si potrà effettivamente osservare, con tutte le regolarità che per esso si possono attendere, la termodinamica classica non sarà più da considerare esattamente valida già per spazi microscopicamente distinguibili, e quindi una determinazione esatta della vera grandezza degli atomi sarà possibile. Se viceversa la nostra previsione si dimostrasse inesatta, ciò fornirebbe un serio argomento contro la concezione cinetico-molecolare del calore”. Il moto browniano viene quindi interpretato come una conseguenza del moto disordinato delle particelle a seguito degli urti che ricevono dalle molecole sottoposte ad agitazione termica. 9.6 Equazione di Langevin e moto browniano La descrizione del moto browniano di una particella macroscopica è basata sull’equazione di Langevin, che scriviamo per una particella monodimensionale sospesa in un fluido in assenza di gravità m dv dt = −ξv + f (t) (9.60) dove v = dz/dt e z è la coordinata posizionale della particella di massa m; il termine ξv è la forza di attrito, ovverosia l’effetto di “rallentamento” sistematico dovuto al mezzo, l’attrito essendo proporzionale alla viscosità η del mezzo. Per una particella sferica di raggio R calcoli puramente idrodinamici forniscono la legge di Stokes ξ = CπRη (9.61) la costante C vale 4 per un fluido che scivoli sulla superficie della particella, e 6 per un fluido che aderisca alla superficie. Il termine f (t) è una forza casuale dovuta agli urti delle molecole del soluto, la cui conoscenza precisa è impossibile. La descrizione dettagliata della variabile stocastica f (t) viene 9.6. EQUAZIONE DI LANGEVIN E MOTO BROWNIANO 239 perciò sostituita nella teoria del moto browniano da alcune semplici proprietà relative alle medie della variabile f (t): hf (t)i = 0 (9.62) hv(t)f (t0 )i = hv(tihf (t0 )i = 0 (9.63) L’equazione (9.62) definisce la variabile stocastica come avente media nulla (l’effetto medio sul moto della particella degli urti molecolari deve essere zero); l’equazione (9.63) afferma che la forza fluttuante e la velocità della particella sono staticamente indipendenti. Si noti che la media h. . .i è intesa come una media su un numero molto grande di particelle identiche immerse in un fluido. In pratica ciò equivale ad una media su un numero elevato di particelle in un unico campione di fluido (se la sospensione è abbastanza diluita) od anche ad una media su un numero di di osservazioni ripetute della stessa particella, purchè siano abbastanza distanziate da essere considerate indipendenti. L’equazione (9.63) contiene il primo esempio in questo testo di funzione di correlazione temporale. La soluzione dell’equazione di Langevin è data da v(t) = v(0) exp(−t/τv ) + Z t 0 dτ exp[(τ − t)/τv ]f (τ )/m (9.64) dove τv = ξ/m. Consideriamo l’andamento nel tempo dei valori medi hv(t)i ed G(t) = hv(0)v(t)i, ovvero la funzione di autocorrelazione della velocità. Si noti che il sistema deve essere invariante rispetto a variazioni dell’origine dell’asse temporale, ovvero hv(t)v(t0 )i = hv(0)v(t0 − t)i, ed anche hf (t)f (t0 )i = hf (0)f (t0 − t)i. Troviamo facilmente, usando la prima proprietà delle forze hv(t)i = hv(0)i exp(−t/τv ) (9.65) La funzione di autocorrelazione è invece data da dG(t) dt = hv(0) dv(t) dt i = hv(0)[f (t) − ξv(t)]i/m = −G(t)/τv (9.66) Qual è il valor medio all’equilibrio di v(t) e G(t)? La risposta è data da una media di Maxwell sulle velocità iniziali della particella, da cui segue che G(t) = kB T exp(−t/τv )/m (9.67) Ritorniamo all’equazione (9.64), e moltiplichiamo per f (0) effettuando la media sia sull’insieme di repliche che sulla distribuzione di equilibrio delle velocità iniziali; otteniamo hf (0)v(t)i = hf (0)v(0)i exp(−t/τv ) + Z t 0 dτ exp[(τ − t)/τv ]hf (0)f (τ )i/m (9.68) poichè le variabili stocastiche f (t) e v(t) sono scorrelate, segue che anche la funzione di autocorrelazione della forza deve essere nulla a tempi diversi, o in altri termini hf (0)f (t)i = hf (0)2 iδ(t) (9.69) La costante hf (0)2 )i si può trovare calcolando hv(t)2 i: hv(t)2 i = hv(0)2 i exp(−2t/τv ) + Z t 0 dτ Z t 0 dτ 0 exp[(τ + τ 0 − 2t)/τv ]hf (τ )f (τ 0 )i/m2 = hv(0)2 i exp(−2t/τv ) + hf (0)2 i[1 − exp(−2t/τv )]/(2m2 ξ) (9.70) (9.71) 240 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI ma a tempi t ¿ τv devono essere scomparse le conseguenze della velocità iniziale (sistema all’equilibrio) e quindi deve essere hv(∞)2 i = hf (0)2 i/(2m2 ξ) = kB T /m (9.72) da cui discende una relazione tra i coefficiente ξ (dissipazione) e hf (0)2 i (fluttuazione) hf (0)2 i = 2ξkB T (9.73) cioè il teorema di fluttuazione-dissipazione, originariamente formulato da Einstein. 9.6.1 Equazione di Langevin generalizzata Possiamo generalizzare l’equazione di Langevin relativa ad un insieme di coordinata stocastica q(t) = (q1 (t), q2 (t), . . . , qN (t) dqi (t) dt = ai (q) + X bij (q)ςj (t) (9.74) j dove i termini ai (t) e bij sono funzioni delle coordinate qi e determinano il contributo rispettivamente al moto di tipo deterministico e stocastico. Le funzioni ςi (t) sono fonti di rumore bianco hςi (t)i = 0 (9.75) hςi (t)ςj (t0 )i = δij δ(t − t0 ) 9.7 (9.76) Probabilità e processi stocastici In questo capitolo riprenderemo molti dei concetti esposti nei capitoli precedenti, cercando però di discuterli all’interno di una teoria coerente dei processi stocastici. Consideriamo un insieme di variabili stocastiche dipendenti dal tempo q(t) = [q1 (t), q2 (t), . . . , qn (t)]: n, il numero totale di variabili considerate, sarà considerato nel seguito un numero finito, benchè questa non sia una seria limitazione alla generalità della nostra trattazione. Di solito ci riferiremo alla coordinata vettoriale stocastica funzione continua del tempo q(t) (che definiamo d’ora innanzi un processo stocastico), senza specificare le componenti, a meno che non sia necessario. Per semplicità, assumiamo che ogni qi possa variare da −∞ a +∞. Poichè q(t) è una coordinata vettoriale funzione continua di t, costituisce a tutti gli effetti un insieme infinito di variabili stocastiche, una per ogni istante temporale t. La probabilità totale che al tempo t sia qi (t) ≤ qi0 , o più brevemente q(t) ≤ q0 è data in funzione della densità di probabilità ad un singolo tempo W1 (q, t) Prob(q(t) ≤ q0 ) = Πni=1 Z q0 i −∞ Z dqi W1 (q, t) ≡ q≤q0 dqW1 (q, t) (9.77) o in forma differenziale W1 (q, t)dq = Prob(q ≤ q(t) ≤ q + dq) (9.78) 9.7. PROBABILITÀ E PROCESSI STOCASTICI 241 Possiamo definire la probabilità congiunta per m tempi Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm ) Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm )dq1 dq2 . . . dqm = = Prob(q1 ≤ q(t1 ) ≤ q1 + dq1 , q2 ≤ q(t2 ) ≤ q2 + dq2 , . . . , qm ≤ q(tm ) ≤ qm + dqm ) (9.79) (9.80) Evidentemente dalla probabilità congiunta ad m tempi si ricava la probabilità congiunta ad m − 1 tempi Z Wm (q1 , t1 ; q2 , t2 ; . . . ; qm − 1, tm − 1) = dqm Wm (q1 , t1 ; q2 , t2 ; . . . ; qm , tm ) (9.81) La probabilità congiunta ad un tempo è naturalmente normalizzata ad uno Z dqW1 (q, t) = 1 (9.82) da cui discende, grazie alla (9.81), che tutte le probabilità congiunte sono normalizzate ad uno. La conoscenza di tutte le probabilità congiunte equivale ad una completa conoscenza statistica del processo. Il valore medio di una qualunque funzione osservabile f (q) è calcolabile come Z hf (t)i = dqf (q)W1 (q, t) (9.83) analogamente, medie multitemporali ad m tempi di funzioni, dette funzioni di correlazione, sono ottenibili dalla probabilità congiunta corrispondente, per esempio date due funzioni f (q) e g(q) Z hf (t1 )g(t2 )i dq1 dq2 f (q1 )g(q2 )W2 (q1 , t1 ; bq2 , t2 ) (9.84) Alcune definizioni speciali che derivano dalle precedenti, piuttosto usate nella letteratura corrente, sono 1. valori medi, hqi (t)i = R dqqi W1 (q, t) 2. fluttuazioni, δqi (t) = qi (t) − hqi (t)i 3. matrice di covarianza a due tempi, σ(t, t0 ) = hδq(t)δq(t0 )tr i 4. funzione di correlazione a due tempi, C(t, t0 ) = hq(t)q(t0 )tr i e vale evidentemente che σ(t, t0 ) = C(t, t0 ) − hq(t)ihq(t0 )itr . 9.7.1 Probabilità condizionali La caratterizzazione del processo stocastico è basata su altri tipi di probabilità. Un processo stocastico si può considerare come un insieme di repliche (insieme statistico) di un sistema fisico; per ogni replica l’osservatore considera (misura) le variabili q. La probabilità congiunta ad un tempo è la probabilità di misurare un valore di q al tempo t tra q e q + dq, cioè è la frazione di repliche (numero di repliche divise per il numero totale) aventi quel valore; analoghe definizioni valgono per le probabilità congiunte superiori. Cosı̀ la probabilità congiunta a due tempi W2 (q1 , t1 ; q2 , t) è il prodotto delle frazioni di repliche che hanno il valore2 q1 a t1 e q2 a t2 . Consideriamo ora il sottoinsieme di repliche che hanno valore q1 a t1 e misuriamone la frazione (numero di repliche diviso per il numero di repliche totale 2 Scriviamo che x(t) assume il valore x intendendo che x(t) è compreso tra x e x + dx 242 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI del sottoinsieme) che assume il valore q2 a t2 ; questa probabilità, P2 (q1 , t1 |q2 , t2 ), si dice densità di probabilità condizionale a due tempi e vale evidentemente che W2 (q1 , t1 ; q2 , t2 ) = W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 ) (9.85) si noti che l’evoluzione temporale e spaziale della probabilità congiunta ad un tempo è determinata dalla probabilità condizionale a due tempi Z W1 (q2 , t2 ) = dq1 W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 ) (9.86) La generalizzazione delle precedenti definizioni è facile; la probabilità condizionale ad m tempi è la probabilità P (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm )dqm pari alla frazione del numero totale di repliche che hanno assunto valori q1 a t1 , . . ., qm−1 a tm−1 , che assumono il valore qm a tm ; vale che Wm (q1 , t1 ; . . . ; qm , tm ) = Wm−1 (q1 , t1 ; . . . ; qm−1 , tm−1 )Pm (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm ) (9.87) È interessante notare che W2 (q1 , t; q2 , t) = W1 (q2 , t)δ(q1 − q2 ) → P2 (q1 , t|q2 , t) = δ(q1 − q2 ) 9.7.2 (9.88) Processi stazionari, markoviani, gaussiani I processi stocastici stazionari sono processi invarianti rispetto ad una traslazione dell’origine dell’asse temporale; la variabile q(t + τ ) è cioè indistinguibile dalla variabile q(t); ciò implica che tutte le medie a singolo tempo siano costanti, ovvero che la probabilità congiunta ad un tempo sia costante: W1 (q, t) processo stazionario → Weq (q) (9.89) Inoltre le probabilità congiunte e condizionali a più tempi dipendono solo da differenze di tempi W2 (q1 , t1 ; q2 , t2 ) P2 (q1 , t1 |q2 , t2 ) processo processo stazionario → stazionario → W2 (q1 , 0; q2 , t2 − t1 ) (9.90) P2 (q1 , 0; q2 , t2 − t1 ) ≡ P2 (q1 ; q2 , t) (9.91) I processi stocastici markoviani sono processi le cui proprietà sono completamente definite dalla probabilità condizionale a due tempi e dalla probabilità congiunta ad un tempo; quindi per ogni m Pm (q1 , t1 ; . . . ; qm−1 , tm−1 |qm , tm ) processo markoviano → P2 (qm−1 , tm−1 |qm , tm ) (9.92) da cui discende che Wm (q1 , t1 ; . . . ; qm−1 , tm−1 ; qm , tm ) processo markoviano → W1 (q1 , t1 )Πm i=2 P2 (qi−1 , ti−1 |qi , ti ) (9.93) I processi stocastici gaussiani sono infine processi le cui densità di probabilità, congiunte o condizionali, hanno forma gaussiana G(q) = [(2π) det σ(t)]−1/2 exp[−(q − q(t))tr σ(t)−1 (q − q(t))/2] dove naturalmente (9.94) Z dqG(q) = 1 (9.95) Z dqqG(q) = q(t) (9.96) dq(q − q(t))tr G(q)(q − q(t)) = σ(t) (9.97) Z I processi che siano contemporaneamente stazionari, gaussiani e markoviani si dicono processi di OrnsteinUhlenbeck. 9.7. PROBABILITÀ E PROCESSI STOCASTICI 9.7.3 243 Equazione di Chapman-Kolmogorov Consideriamo un processo generico. Valgono le seguenti identità Z W2 (q1 , t1 ; q3 , t3 ) = dq2 W3 (q1 , t1 ; q2 , t2 ; q3 , t3 ) (9.98) W2 (q1 , t1 ; q3 , t3 ) = W1 (q1 , t1 )P2 (q1 , t1 |q3 , t3 ) (9.99) supponiamo ora che il processo sia markoviano; vale l’identità aggiuntiva W3 (q1 , t1 ; q2 , t2 ; q3 , t3 ) = W1 (q1 , t1 )P2 (q1 , t1 |q2 , t2 )P2 (q2 , t2 |q3 , t3 ) (9.100) sostituendo (9.99) e (9.100) in (9.98) si ottiene Z P2 (q1 , t1 |q3 , t3 ) = dq2 P2 (q1 , t1 |q2 , t2 )P2 (q2 , t2 |q3 , t3 ) (9.101) detta equazione di Chapman-Kolmogorov che fornisce una legge del moto (sotto forma di equazione integrale) per la probabilità condizionale di un processo markoviano. L’equazione di Chapman-Kolmogorov è ottenibile per altri tipi di probabilità. In una forma generale possiamo scrivere Z P (q, t + ∆t) = q0 P (q0 , t)P2 (q0 , t|q, t + ∆t) (9.102) dove con P (q, t) indichiamo W1 (q, t), W2 (q0 , t0 ; q, t), oppure P2 (q0 , t0 |q, t). 9.7.4 Equazione di Fokker-Planck Le equazioni in forma integrale hanno una antica e nobile tradizione (per esempio sono state studiate dal matematico italiano Vito Volterra, che le applicò a problemi biologici). Tuttavia, il loro trattamento formale e la loro soluzione numerica è di grande difficoltà; è perciò utile ricavare una forma approssimata di evoluzione temporale della probabilità, di tipo differenziale. Consideriamo l’integrale 1 τ →0 τ lim Z Z dqf (q)[P2 (q1 , t1 |q, t + τ ) − P2 (q1 , t1 |q, t)] ≡ I = dqf (q) ∂P2 (q1 , t1 |q, t) ∂t (9.103) dove f (q) è una funzione generica, analitica, che va a zero, con le sue derivate, per q → ∞. Grazie all’equazione di Chapman-Kolmogorov, possiamo riscrivere il primo membro della precedente espressione nella forma 1 I = lim τ →0 τ Z Z dqf (q) Z dq2 P2 (q1 , t1 |q2 , t2 )P2 (q2 , t|q, t + τ ) − dqf (q)P2 (q1 , t1 |q, t) (9.104) Definiamo ora una proprietà aggiuntiva del nostro processo markoviano: il processo è diffusivo. Diciamo che un processo è diffusivo se è markoviano e se esistono i seguenti limiti 1 τ →t τ − t 1 τ →t τ − t lim Z P2 (q, t|q0 , τ )(q0 − q)dq0 = A(q, t) (9.105) P2 (q, t|q0 , τ )(q0 − q)(q0 − q)tr dq0 = B(q, t) (9.106) lim Z dove A e B sono rispettivamente un vettore differenziabile almeno una volta rispetto a q ed una matrice differenziabile almeno due volte rispetto a q: sono detti rispettivamente termini di drift (’deriva’) e di 244 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI diffusione, e sono i primi due momenti di transizione che misurano il cambiamento infinitesimale di primo e secondo ordine di q rispetto al valore posseduto a t. In più, per un processo diffusivo si assumono nulli i momenti di transizione superiori 1 lim τ →t τ − t Z P2 (q, t|q0 , τ )Πnl=1 (qi0l − qil )dq0 = 0 (9.107) Tornando ora alla (9.104), possiamo espandere f (q) in serie di Taylor attorno a q2 ed integrare rispetto a q; grazie alle espressioni che definiscono le proprietà di un processo diffusivo, l’espansione può essere arrestata al secondo ordine, e otteniamo n X ∂2f X ∂f 1 dqP2 (q1 , t1 |q, t) Ai (q, t) + Bij (q, t) Z I= i=1 ∂qi 2 ij ∂qi ∂qj (9.108) integrando per parti la precedente espressione (una volta il termine in derivata prima, due volte quello in derivata seconda), e tenendo conto della (9.103) Z dqf (q) ∂P2 ∂t + n X ∂Ai P2 i=1 ∂qi 1 X ∂ 2 Bij P2 − =0 2 ij ∂qi ∂qj (9.109) poichè però f è una funzione arbitraria, si ottiene un’equazione differenziale, detta equazione di FokkerPlanck: ∂P2 ∂t =− n X ∂Ai P2 i=1 ∂qi + 1 X ∂ 2 Bij P2 2 ij ∂qi ∂qj (9.110) Nel seguito considereremo solo casi in cui sia i coefficienti di deriva che quelli di diffusione sono indipendenti dal tempo. L’equazione di Fokker-Planck con coefficienti indipendenti dal tempo è un’equazione locale alle derivate parziali di secondo ordine, analogaamente all’equazione di Schrödinger, e può essere scritta introducendo l’operatore di Fokker-Planck ∂P ∂t = −Γ̂P Γ̂ = n X ∂ i=1 ∂qi (9.111) Ai − 1 X ∂2 Bij 2 ij ∂qi ∂qj P (q, 0) = δ(q − q0 ) (9.112) (9.113) dove tralasciamo qui nel seguito l’indice al piede della probabilità condizionale, che scriviamo semplicemente come P (q, t). 9.7.5 Relazione con l’equazione di Langevin L’equazione di Fokker-Planck descrive l’andamento della probabilità condizionale di un processo stocastico markoviano diffusivo, ovvero un processo stocastico per il quale sono state introdotte ben precise ipotesi relativamente alla dipendendenza temporale (markoviano) e spaziale (diffusivo). Possiamo descrivere il processo stocastico utilizzando il formalismo delle equazioni di Langevin, che permette di definire le traiettorie temporali mediante equazioni di Newton contenenti forze stocastiche. In effetti 9.7. PROBABILITÀ E PROCESSI STOCASTICI 245 possiamo affermare che l’equazione di Fokker-Planck (9.110) è equivalente all’equazione di Langevin multidimensionale introdotta nel capitolo precedente, (9.74), che qui riportiamo per convenienza dqi (t) dt = ai (q) + X bij (q)ςj (t) (9.114) j dove i termini ai (t) e bij sono funzioni delle coordinate qi e determinano il contributo rispettivamente al moto di tipo deterministico e stocastico. Le funzioni ςi (t) sono fonti di rumore bianco hςi (t)i = 0 (9.115) 0 hςi (t)ςj (t0 )i = δij δ(t − t ) (9.116) Per verificare l’equivalenza delle (9.74) (9.110), riscriviamo esplicitamente i termini di drift e diffusione Z 1 ∆t→0 ∆t Z 1 = lim ∆t→0 ∆t Z 1 = lim ∆t→0 ∆t Z 1 = lim ∆t→0 ∆t Ai = Bij lim P (q, t|q0 , t + ∆t)(qi0 − qi )dq0 1 h∆qi i ∆t→0 ∆t P (q, t|q + ∆q, t + ∆t)∆qi d∆q = lim (9.117) P (q, t|q0 , t + ∆t)(qi0 − qi )(qj0 − qj )dq0 P (q, t|q + ∆q, t + ∆t)∆qi ∆qj d∆q = lim ∆t→0 1 h∆qi ∆qj i ∆t (9.118) dove ∆q(t) = q(t + ∆t) − q(t) è la variazione del processo stocastico rispetto al valore q(t). L’equazione di Langevin d’altro canto fornisce l’espressione, corretta nel limite ∆ → 0 ∆qi = ai (q)∆t + X bij (q)ςj (t)∆t (9.119) j Se sostituiamo la precedente espressione in (9.117) otteniamo Ai = ai + X bij hςj (t)i = ai (9.120) j mentre sostituendo in (9.118) troviamo Bij = lim ai aj ∆t + ∆t→0 X ai bjl hςk (t)i∆t + l X bik bjl hςk (t)ςl (t)i∆t = X kl bik bjk (9.121) k dove l’ultima uguaglianza discende dalla proprietà del rumore bianco hςi (t)ςj (t0 )i = δij δ(t − t0 ) e dalle proprietà della funzione generalizzata delta di Dirac. Nei casi in cui il sistema raggiunge una distribuzione d’equilibrio Peq (q) = lim P (q, t) = t→∞ 1 exp[−V (q)/kB T ] Z (9.122) possiamo scrivere l’operatore di Fokker-Planck in forma tale da verificare automaticamente la soluzione stazionaria, Γ̂Peq = 0. In effetti possiamo scrivere l’operatore di Fokker-Planck come Γ̂ = − X ∂ ij ∂qi Ξij (q)Peq (q) ∂ ∂qj Peq (q)−1 (9.123) 246 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI dove Ξij (q) è una matrice che può essere messa in relazione con i coefficienti della forma canonica dell’operatore di Fokker-Planck X ∂Ξij ∂V 1 Ξij kB T ∂qj (9.124) = 2(Ξij )simm = Ξij + Ξji (9.125) Ai = j Bij + ∂qj Si noti che la forma (9.123) è meno generale della (9.110), e che solo sotto alcune ipotesi aggiuntive relative alle proprietà dei coefficienti di drift e diffusione possiamo ridurre la forma canonica alla (9.123), che quindi costituisce una classe speciale, anche se molto estesa, di operatori di Fokker-Planck. 9.7.6 Alcuni esempi Consideriamo alcuni esempi di processi stocastici, in parte riprendendo alcuni casi già esposti in precedenza. Moto browniano libero Una particella che si muova di moto browniano lungo una direzione, in assenza di forze esterne (e.g. gravità) è definita dalla velocità v(t), che segue, come abbiamo visto nel capitolo precedente, l’equazione di Langevin m dv(t) dt = −ξv + p 2kB T ξς(t) (9.126) L’equazione di Fokker-Planck corrispondente è definita dai coefficienti di drift e diffusione ξv m 2ξkB T m A = − (9.127) B = (9.128) e l’operatore di Fokker-Planck si scrive nella forma ξkB T ∂ ∂ mv Γ̂ = − + 2 m ∂v ∂v kB T (9.129) Sappiamo dalla meccanica statistica che la particella, per t → ∞, è descritta da una distribuzione di equilibrio r Peq (v) = à m mv 2 exp − 2πkB T 2kB T ! (9.130) Possiamo scrivere l’operatore di Fokker-Planck in forma tale da verificare automaticamente la soluzione stazionaria, Γ̂Peq = 0: Γ̂ = − ∂ −1 ξkB T ∂ Peq Peq 2 m ∂v ∂v (9.131) 9.7. PROBABILITÀ E PROCESSI STOCASTICI 247 La soluzione dell’equazione di Fokker-Planck in questo caso è analitica. La probabilità condizionale è ottenibile come una gaussiana ( 1 [v − v(t)]2 P (v, t) = p exp − 2σ(t)2 2πσ(t)2 ) (9.132) dove v(t) e σ(t) sono semplicemente v(t) = v0 e−t/tauv ´ kB T ³ 1 − e−2t/τv σ(t)2 = m (9.133) (9.134) e τv = m/ξ (vedi capitolo II). Si può notare che v(t) è un processo di Ornstein-Uhlenbeck. Diffusione traslazionale Consideriamo una particella aventi coordinate vettoriali ~r(t); l’equazione di Fokker-Planck può essere scritta direttamente utilizzando la forma (9.123). In un mezzo anisotropo, ed in presenza di un potenziale V (~r), l’equazione di Fokker-Planck è governata dall’operatore Γ̂ = − X ∂ ij ∂ri Dij (r)Peq (r) ∂ ∂rj −1 Peq (r)−1 = −∇ · D(~r) · Peq (~r)∇Peq (~r) (9.135) cioè l’operatore di diffusione, o di Smoluchowski, introdotto nel capitolo I, che si riduce nel caso di assenza di potenziale ed in mezzi isotropi all’operatore di diffusione Γ̂ = −D∇2 (9.136) Nella (9.135), Peq è la distribuzione di Boltzmann rispetto a V (~r). Moto browniano In presenza di una forza esterna agente su una particella browniana, non è possibile limitare le componenti del processo stocastico alla sola velocità. Considerando, per semplicità, il caso di una particella browniana monodimensionale soggetta ad un campo di forze conservativo, possiamo scrivere l’equazione di Langevin in funzione della posizione x(t) e della velocità v(t) dx dt m dv dt = v (9.137) = −ξv − dV (x) dx + p 2ξkB T ς(t) (9.138) La probabilità condizionale del processo markovoviano diffusivo x(t), v(t) si può trovare quindi nella forma ∂P (x, v, t) ∂t = −Γ̂P (x, v, t) (9.139) ∂ 1 dV (x) ∂ ξ ∂ kB T ∂ Γ̂ = v − − v+ m ∂v ∂x m dx ∂v m ∂v (9.140) 248 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI detta anche equazione di Kramers-Klein. La soluzione stazionaria è la distribuzione di Boltzmann " 1 mv 2 V (x) Peq (x, v) = exp − − Z 2kB T kB T # (9.141) e l’equazione Kramers-Klein può essere scritta nella forma (9.123) µ Γ̂ = − ∂ ∂ ∂x ∂v ¶tr à 0 1 −m 1 ξ m ! ∂ ∂x Peq (x, v)−1 Peq (x, v) ∂ (9.142) ∂v 9.8 Densità spettrale Consideriamo un processo stocastico (monodimensionale per semplicità) q(t). Supponiamo di determinare N traiettorie qn (t) che costituiscono un campione statistico del processo. Il peso della componente di frequenza ω della traiettoria n−esima è ottenuto dalla trasformata di Fourier definita come q̃n (ω) = X 1 +∞ dte−iωt qn (t) 2π −∞ (9.143) Dati i pesi relativi alle varie frequenze, una traiettoria temporale può essere ricostruita come antitrasformata di Fourier qn (t) = +∞ X dωeiωt q̃n (ω) (9.144) −∞ La correlazione tra i pesi a due frequenze diverse è il risultato della media su tutte le traiettorie del prodotto dei due pesi hq̃(ω)q̃(ω 0 )∗ i = = 1 X q̃n (ω)q̃n (ω 0 ) = N n Z Z 1 0 0 dt dt0 eiω t −iωt hq(t)q(t0 )i 2 4π (9.145) Per un processo stazionario la funzione di correlazione temporale dipende solo dalla differenza tra i tempi t e t0 , nonchè assumere che sia invariante rispetto alla direzione di propagazione temporale hq(t)q(t0 )i = G(|t − t0 |) (9.146) dalle proprietà delle trasformate di Fourier discende allora che hq̃(ω)q̃(ω 0 )∗ i = δ(ω − ω 0 ) <J(ω) π (9.147) dove J(ω) è la trasformata di Fourier-Laplace della funzione di correlazione J(ω) = Z +∞ 0 eiωt G(t) (9.148) L’equazione (9.147) è il cosidetto teorema di Wiener-Khinchin, che afferma come non vi sia correlazione tra componenti (pesi) a frequenze diverse. 9.9. FUNZIONI DI CORRELAZIONE ED OPERATORE FOKKER-PLANCK 249 Per una funzione di correlazione esponenziale (e normalizzata ad uno per semplicità) G(t) = e−t/τ G(0) (9.149) La densità spettrale è una lorentziana complessa J(ω) 1 = G(0) iω + 1/τ (9.150) cui corrisponde la parte reale < J(ω) 1/τ = 2 G(0) ω + 1/τ 2 (9.151) Per un processo stocastico con le proprietà di un rumore bianco unitario la densità spettrale è costante hq(t)q(t0 )i = δ(t − t0 ) 1 J(ω) = 2 da cui deriva la definizione di “bianco”: tutte le frequenze hanno uguale peso. 9.9 (9.152) (9.153) Funzioni di correlazione ed operatore Fokker-Planck Ricaviamo la funzione di autocorrelazione di un osservabile f (q) (in generale complesso) per un sistema descritto dall’operatore di Fokker-Planck Γ̂. Per definizione di funzione di correlazione Z G(t) = hf (0)f (t)∗ i = Z dqf (q0 )f (q)∗ W (q0 , 0; q, t) dq0 (9.154) La probabilità congiunta W (tralasciamo di includere gli indici che specificano se le varie probabilità sono ad un tempo, due tempi etc.) si trova dalla probabilità condizionale Z G(t) = Z dqf (q0 )f (q)∗ Peq (q0 )P (q0 , 0|q, t) dq0 (9.155) e la probabilità condizionale si trova dall’equazione di Fokker-Planck; sostituendo l’espressione della soluzione formale si ottiene Z G(t) = Z dq0 dqf (q0 )f (q)∗ Peq (q0 )e−Γ̂t δ(q − q0 ) (9.156) ch può essere riscritta come Z G(t) = ∗ −Γ̂t Z dqf (q) e dqf (q0 )Peq (q0 )δ(q − q0 ) (9.157) perchè l’operatore Γ̂ agisce su q; integrando in q0 si trova subito Z G(t) = dqf (q)∗ e−Γ̂t f (q)Peq (q) = hf ∗ |e−Γ̂t |f Peq i (9.158) −1/2 Si noti che in termini dell’operatore simmetrizzato Γ̃ = Peq 1/2 Γ̂Peq troviamo 1/2 −1/2 G(t) = hf ∗ |e−Γ̂t |f Peq i = hf ∗ |e−Peq Γ̃Peq t |f Peq i = = = ∞ X k=0 ∞ X k tk hf ∗ | (−1) k! 1/2 1/2 −1/2 k ) |f P (Peq Γ̃Peq k tk hf ∗ Peq | (−1) k! k eq i = Γ̃ |f Peq i = hf ∗ Peq |e−Γ̃t |f Peq i 1/2 1/2 1/2 k=0 dove si è fatto uso dell’espansione in serie di Mc Laurin dell’operatore esponenziale. (9.159) 250 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI 9.10 Equazioni di Fokker-Planck lineari Consideriamo nel seguito la soluzione (esatta) dell’equazione di Fokker-Planck per il moto di una particella browniana sottoposta ad un potenziale armonico. È utile descrivere prima brevemente le caratteristiche principali dei regimi di moti previsti per una particella non-browniana (cioè deterministica) soggetta a potenziale armonico e dissipiazione. 9.10.1 Oscillatore con dissipazione Un sistema di equazioni differenziali lineari ha semplicemente la forma q̇(t) = −Mq (9.160) e si risolve formalmente come q(t) = e−Mt q(0) (9.161) noti gli autovalori e la matrice T formata dagli autovettori di M possiamo scrivere MT = TΛ (9.162) q(t) = Te−Λt T−1 q(0) (9.163) per una particella sopposta ad un potenziale armonico U = kx2 /2 ed in presenza di attrito ξ le equazioni del moto sono ẋ = v (9.164) mv̇ = −kx − ξv (9.165) od in forma matriciale come nella (9.160), posto che à q= x v ! à M= definendo ω = λ± = 0 −1 ω 2 1/τ ! (9.166) p k/m e τ = m/ξ. Gli autovalori o frequenze caratteristiche del moto sono 1 1q ± (1 − 4ω 2 τ 2 ) 2τ 2τ (9.167) Possiamo distinguere due regimi dinamici limite: basso attrito Nel regime di basso di attrito vale la diseguaglianza s τω = mk 1 À 2 ξ 2 (9.168) e quindi gli autovalori sono stimabili come λ± ≈ 1 ± iω 2τ (9.169) le traiettorie calcolate per la posizione e la velocità delle particelle sono oscillazioni smorzate con frequenza ω e tempo di decadimento 2τ . Se l’attrito è nullo, lo smorzamento cessa di esistere e le 9.10. EQUAZIONI DI FOKKER-PLANCK LINEARI 251 Figura 9.1: Traiettorie (caso a basso attrito): ω = 1 s−1 , τ = 10 s. oscillazioni permangono indefinitamente nel tempo, dando luogo ad orbite (curve nel piano x, v) chiuse. Per un attrito piccolo, le orbite sono spirali molto ravvicinate che tendono al punto (0, 0). Possiamo valutare in questo caso la variazione della energia totale della particella, E = p2 /2m+U ; infatti Ė = mv dv dt + kx dx dt ≡ −ξv 2 (9.170) se l’attrito è piccolo, possiamo approssimare un ciclo dell’orbita a spirale ad un’orbita chiusa e valutare mediante il principio di equipartizione dell’energia il valore medio dell’energia per un ciclo hEic ≈ mhv 2 ic ≈ khx2 ic (9.171) da cui si ottiene ˙ ≈ − hEic hEi c τ (9.172) l’energia totale della particella media decade perciò con un tempo di decadimento τ . alto attrito Nel regime di alto attrito vale la diseguaglianza s τω = mk 1 ¿ 2 ξ 2 (9.173) segue che gli autovalori sono reali λ− ≈ τ ω 2 ¿ λ+ ≈ 1 τ (9.174) le orbite presentano prima un rapido decadimento di v a valori vicini a zero, con tempi dell’ordine di τ e poi un lento approssimarsi al punto (0, 0) con tempi dell’ordine di 1/λ− . 252 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI Figura 9.2: Orbite (caso a basso attrito): ω = 1 s−1 , τ = 10 s. 9.10.2 Oscillatore browniano Passiamo ora allo studio delle equazioni di Fokker-Planck lineari, che sono caratterizzate da coefficienti di deriva lineari nelle coordinate e coefficienti di diffusione costanti; per un processo stocastico q n−dimensionale: ∂P = −Γ̂P ∂t Γ̂ = X (9.175) ai − i ai = X 1 X ∂2 bij 2 ij ∂qi ∂qj (9.176) Aij (t)qj (9.177) j bij = Bij (t) (9.178) con la solita condizione iniziale P (0) = δ(q − q0 ); le grandezze Aij (t), Bij (t) possono essere funzioni del tempo. Seguendo il metodo di Van Kampen, la distribuzione di probabilità si trova in funzione dei valori medi e della matrice di covarianza · P n −1/2 = [(2π) det C] ¸ 1 exp − (q − m)tr C−1 (q − m) 2 (9.179) mi (t) = hqi i (9.180) Cij (t) = hqi qj i − hqi ihqj i (9.181) il vettore m e la matrice C verificano le seguenti equazioni ṁ = Am (9.182) tr Ċ = AC + CA + B (9.183) 9.10. EQUAZIONI DI FOKKER-PLANCK LINEARI 253 Figura 9.3: Traiettorie (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s. con le condizioni iniziali m(0) = q0 e C(0) = 0. le equazioni precedenti si ottengono semplicemente moltiplicando l’equazione di Fokker-Planck per qi e qi qj ed integrando. La soluzione generale del problema è fornita da Van Kampen. Per A e B costanti, la soluzione è m = eAt q0 C = Z t 0 (9.184) tr dτ eA(t−τ ) BeA (t−τ ) (9.185) Possiamo ora specializzare la precedente soluzione al caso di una particella browniana sottoposta ad un potenziale armonico kx2 /2, cioè l’equivalente modello stocastico del modello deterministico analizzato nella precedente sezione. Se scegliamo q come la posizione ed il momento della particella, i tensori A e B sono à A = −M, B= 0 0 0 ! 2ξkT m (9.186) da cui si può trovare immediatamente la distribuzione di probabilità che è una gaussiana in x e v, tendente alla soluzione di equilibrio (distribuzione di Boltzmann rispetto all’energia totale). In pratica, è più istruttivo valutare direttamente le funzioni di correlazione normalizzate gx (t) = hx(0)x(t)i/hx2 i (9.187) gv (t) = hv(0)x(t)i/hv 2 i (9.188) Ricordiamo che in generale, per un’osservabile reale f (q) hf (0)f (t)i = hf |e−Γ̂t |f Peq i (9.189) Integrando per parti possiamo dimostrare come la precedente espressione sia esprimibile rispetto all’operatore aggiunto di Γ̂ † hf |e−Γ̂t |f Peq i = hf Peq |e−Γ̂ t |f i (9.190) 254 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI Figura 9.4: Orbite (caso ad attrito elevato): ω = 1 s−1 , τ = 0.5 s. † Nel caso in questione è particolarmente facile valutare e−Γ̂ t f per un’osservabile f lineare, avente cioè la forma f = ctr q: † e−Γ̂ t ctr q = ctr e−Mt q (9.191) Il calcolo delle funzioni di correlazione di osservabili lineari in x e v porge perciò semplicemente hf (0)f (t)i = X ³ ´ ci e−Mt c hqi i2 (9.192) i Possiamo ora calcolare facilmente gx e gv . Ancora una volta è conveniente discutere i nostri risultati distinguendo il caso di basso ed alto attrito. basso attrito Nel regime di basso attrito entrambe le funzioni di correlazione hanno un tipico comportamento oscillante smorzato, analogo al comportamento delle traiettorie nel caso deterministico, ed in pratica gx (t) ≈ gv (t) ≈ e−t/2τ cos ωt (9.193) alto attrito Nel regime di alto attrito entrambe le funzioni di correlazione decadono a zero in modo monotono; quella della velocità decade rapidamente a zero, mentre la funzione di correlazione della coordinata decade molto più lentamente gx (t) ≈ eω 2τ t , gv (t) ≈ e−t/τ (9.194) 9.11. METODI DI SOLUZIONE NUMERICA DELL’EQUAZIONE DI SMOLUCHOWSKI 9.11 255 Metodi di soluzione numerica dell’equazione di Smoluchowski In generale, le equazioni di Fokker-Planck relative a potenziali non armonici o con tensori di attrito/diffusione non costanti non sono risolvibili analiticamente. È necessario perciò ricorrere a metodi numerici, di natura variazionale, analoghi ai metodi impiegati per la soluzione numerica delle equazioni di Schrödinger. Consideriamo i due problemi i) calcolo della probabilità condizionale e ii) determinazione di funzione di correlazione generica, per un sistema definito da un modello di Fokker-Planck. Consideriamo per semplicità un sistema diffusivo, cioè caratterizzato da un operatore di Smoluchowski. La probabilità condizionale è ottenuta dall’equazione ∂P (q, t) ∂t = −Γ̂P (q, t) (9.195) con la condizione iniziale P (q, 0) = δ(q − q0 ). È utile introdurre il problema simmetrizzato, che come abbiamo visto coinvolge l’operatore hermitiano Γ̃ ∂ P̃ (q, t) ∂t = −Γ̃P̃ (q, t) (9.196) −1/2 dove P̃ = P Peq e Peq è la distribuzione di Boltzmann del sistema. Introduciamo gli autovalori e le autofunzioni di Γ̃ Γ̃P̃n (q) = ωn P̃n (q) (9.197) gli autovalori di Γ̃ coincidono con gli autovalori di Γ̂, mentre le autofunzioni di Γ̂ e Γ̃ sono in relazione −1/2 P̃n = Pn Peq . Gli autovalori sono reali (l’operatore Γ̃ è hermitiano) e non-negativi, poichè descrivono il decadimento di un sistema che ammette una distribuzione di equilibrio; possiamo ordinarli come ω0 = 0 < ω1 < ω2 ..., dove il primo autovalore deve valere zero, perchè corrisponde alla distribuzione di equilibrio. Le autofunzioni possono essere sempre definite in modo che siano ortonormali | hPn Pn0 i = δn,n0 (9.198) La probabilità condizionale può essere scritta in termini delle autofunzioni come P̃ (q, t) = X cn (t)Pn (q) (9.199) n dove i coefficienti c(n) si trovano dalle condizioni iniziali e dall’equazione agli autovalori cn (t) = cn (0)e−ωn t (9.200) Z cn (0) = hP̃n |P̃ (q, 0)i = dqP̃n (q)∗ δ(q − q0 )Peq (q)−1/2 = Pn (q0 ) Peq (q0 ) (9.201) 1/2 per t → ∞ la probabilità condizionale simmetrizzata si riduce correttamente a Peq . Una generica funzione di autocorrelazione si può ottenere dall’espressione dimostrata in precedenza Z G(t) = hf (0)f (t)∗ i = 1/2 −Γ̃t 1/2 dqf (q)∗ Peq e f (q)Peq = hf ∗ Peq |e−Γ̃t |f (q)Peq i 1/2 1/2 (9.202) 256 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI 1/2 Posto che f Peq può essere proiettato sulla base di funzioni Pn 1/2 f Peq = X fn Pn (9.203) n 1/2 fn = hP̃n |f Peq i (9.204) si ottiene la semplice espressione X G(t) = |fn |2 e−ωn t (9.205) n La funzione di autocorrelazione è una somma di decadimenti esponenziali; la densità spettrale corrispondente è una somma di lorentziane complesse J(ω) = X |fn |2 ωn n (9.206) iω + ωn In generale il problema della determinazione degli autovalori ed autofunzioni di un operatore può essere ricondotto ad un problema di diagonalizzazione di matrici. Introduciamo la base di funzioni generica completa ed ortonormale |li per lo spazio di funzioni in q hl|l0 i = δl,l0 (9.207) L’equazioni agli autovalori (9.197) può essere ricondotta ad un’equazione secolare tenendo conto che P̃n = X |lihl|P̃n i = X l xl |li xl = hl|P̃n i (9.208) l e sostituendo nella (9.197) si ottiene X xl Γ̃|li = ωn X l xl |li (9.209) l premoltiplicando per una generico hl0 | si ottiene X hl0 |Γ̃|lixl = ωn xl0 → Γx = ωn x (9.210) l dove l’autovettore della matrice Γ ha autovalore ωn . 9.11.1 Un modello monodimensionale Si consideri a livello esemplificativo lo studio del comportamento di un sistema monodimensionale oscillante sottoposto ad un potenziale del tipo: V /kT = ∆ cos 2θ. L’evoluzione temporale della distribuzione di probabilità simmetrizzata di questo sistema è data dall’equazione di Fokker-Plank: ∂ P̃ (θ, t) ∂t = Γ̃P̃ (θ, t) (9.211) dove l’operatore di Smoluchowsky (Fokker-Planck diffusivo) simmetrizzato Γ̃ è dato da −1/2 Γ̃ = −DPeq ∂ ∂θ Peq ∂ ∂θ −1/2 Peq (9.212) 9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI 257 D è un coefficiente di diffusione e Peq è la distribuzione di Boltzmann relativa al potenziale scelto. Introduciamo le autofunzioni e gli autovalori dell’operatore Γ̃P̃n (θ) = ωn P̃n (θ) (9.213) Una base opportuna problema è data da esponenziali complessi del tipo: |ni = exp(inθ)(2π)−1/2 , con n ∈ I. L’operatore simmetrizzato ha la forma esplicita: ³ Γ̃ = D −∂ 2 /∂θ2 + ∆2 sin2 2θ + 2∆ cos 2θ ´ (9.214) Gli elementi generici della matrice che rappresenta l’operatore sulla base prescelta sono ³ ´ hn|Γ̃|mi = n2 + ∆2 /2 δnm + ∆δ|m−n|,2 − (∆2 /4)δ|m−n|,4 (9.215) Le autofunzioni P̃n (θ) sono calcolate come combinazioni lineari delle funzioni di base; la somma è troncata ad un numero finito di termini (nel caso in questione, le autofunzioni e gli autovalori si determinano con una accuratezza accettabile per ∆ = 2 con non più di 40 funzioni esponenziali). La prima autofunzione calcolata, con autovalore λ0 = 0 è la (radice quadrata della) probabilità di equilibrio ed è disegnata in Fig. 9.5 La seconda funzione, disegnata in Fig.9.6, con un autovalore molto vicino a zero, F0(θ) 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 0 50 100 150 200 250 300 350 θ Figura 9.5: Autofunzione di equilibrio descrive il processo di transizione da un minimo di potenziale all’altro. 9.12 Equazioni diffusive rotazionali L’orientazione di un corpo rigido è definita come l’orientazione relativa di un sistema di riferimento solidale con il corpo stesso (nel seguito parleremo, considerando una molecola come un corpo rigido di sistema di riferimento molecolare, SM rispetto ad un sistema di riferimento fisso nello spazio (e parleremo di sistema di riferimento di laboratorio, SL). Per ciascuno dei due sistemi di riferimento possiamo definire una terna di assi (ortonormali) 258 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI F1(θ) ∆ =2 1.0 ∆ =5 ∆ = 10 0.5 0.0 -0.5 -1.0 0 50 100 150 200 250 300 350 θ Figura 9.6: Autofunzione di salto al variare della barriera ∆. SM: ~eM eM eM 1 ,~ 2 ,~ 3 SL: ~eL eL eL 1 ,~ 2 ,~ 3 Consideriamo un vettore generico nello spazio ~r: possiamo scriverlo come riferito al SM o al SL, esprimendo le componenti M M L L L L ~r = r1M ~eM e2 + r3M ~eM e1 + r2L~eL e3 1 + r2 ~ 3 = r1 ~ 2 + r3 ~ (9.216) Premoltiplicando per un generico ~eL i si ottiene riL = X M ~eL eM i ·~ j rj = X Eij rjM (9.217) j La matrice E si dice matrice di Eulero ed è definita come la matrice dei coseni direttori (coseni degli angoli compresi) tra i versori dei sistemi di riferimento cartesiani SM e SL. Le componenti di un vettore generico nello spazio rispetto a SL si trovano moltiplicando le componenti nel SM tramite la matrice di Eulero; le componenti in SM si trovano dalle componenti in SL tramite la matrice di Eulero trasposta, Etr . 9.12.1 Coordinate rotazionali La definizione delle componenti della matrice di Eulero è specificata da tre parametri liberi che descrivono l’orientazione del SM rispetto al SL. L’insieme di coordinate rotazionali più comune è dato dagli angoli di Eulero, Ω = (α, β, γ), definiti secondo una sequenza di tre rotazioni del sistema di laboratorio che lo portano a coincidere nel sistema molecolare (ammettendo che l’origine sia la stessa) 0 0 0 1. SL (~eL eL eL eL 1 ,~ 2 ,~ 3 ) si trasforma in SL’ (e1 , e2 , e3 ) mediante una rotazione antioraria attorno a ~ 3 di L 0 una angolo 0 ≤ α ≤ 2π (gli assi ~e3 e e3 coincidono); 9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI 259 2. SL’ (e01 , e02 , e03 ) si trasforma in SL” (e001 , e002 , e003 ) mediante una rotazione antioraria attorno a e02 di una angolo 0 ≤ β ≤ π (gli assi e02 e e002 coincidono); 00 3. SL” (e001 , e002 , e003 ) si trasforma in SM (~eM eM eM 1 ,~ 2 ,~ 3 ) mediante una rotazione antioraria attorno a e3 di una angolo 0 ≤ γ ≤ 2π (gli assi e003 e ~eM 3 coincidono) la matrice di Eulero espressa rispetto ai seni ed ai coseni degli angoli di Eulero è ottenuta come il prodotto delle tre matrici di rotazione elementare in α, β e γ cos α cos β cos γ − sin α sin γ − cos α cos β sin γ − sin α cos γ cos α cos β E= sin α cos β cos γ + cos α sin γ − sin α cos β sin γ + cos α cos γ sin α sin β − sin β cos γ sin β sin γ cos β (9.218) Alternativamente agli angoli di Eulero sono usati per esempio i quaternioni, un insieme di quattro numeri q0 , q1 , q2 , q3 , vincolati secondo la legge q02 + q12 + q22 + q32 = 1; la matrice di Eulero ha elementi espressi secondo potenze di secondo grado dei quaternioni (Goldstein, 1980). Infine, possiamo definire l’orientazione di un sistema di riferimento rispetto ad un altro come il risultato di una rotazione di un angolo φ attorno ad un asse definito da un versore n: ancora una volta tre parametri (l’angolo e due componenti del versore) specificano completamente l’orientazione: ~ pari ad ~n moltiplicato per φ. Consideriamo in particolare un corpo possiamo parlare di un vettore φ Figura 9.7: Definizione degli angoli di Eulero. rigido (o il suo sistema di riferimento solidale) che ruoti di un angolo φ attorno ad un asse; in questo modo SM è passato a SM’; l’orientazione tra SM’ e SL sia indicato dai nuovi angoli di Eulero Ω0 . Possiamo determinare la forma specifica che assume l’operatore di rotazione infinitesima, che corrisponde ad una ~ tale che Ω0 = Ω+dΩ? Per trasformazioni infinitesime le rotazioni sono additive, rotazione infinitesima dφ ~ come il risultato di una rotazione di SL e qundi possiamo scrivere il vettore di rotazione infintesima dφ a SM’ definite dai tre angoli di Eulero infinitesimi dΩ = (dα, dβ, dγ) ~ = ~eL dα + ~e0 dβ + ~eM dγ dφ 3 2 3 (9.219) 260 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI ~ nel SL sono calcolabili facilmente Le componenti di dφ ~ dφiL = ~eL i dφ = X L Rij dΩj (9.220) j dove intendiamo (Ω1 , Ω2 , Ω3 ) = (α, β, γ). La matrice RL è 0 − sin α cos α sin β L R = 0 cos α sin α sin β 1 0 cos β (9.221) Una qualunque funzione dell’orientazione del corpo, che indichiamo con f (Ω), viene perciò trasformata da una rotazione infinitesima come df = f (Ω + dΩ) − f (Ω) = X dΩi i ∂f ∂Ωi = X L −1 dφL j [(R ) ]ij ij ∂f ∂Ωi = X L dφL j M̂ j f (9.222) j L dove abbiamo introdotto l’operatore vettore differenziale di rotazione M̂ , con componenti espresse nel sistema di riferimento di laboratorio MjL = X [(RL )−1 ]ij i L M̂ ∂f (9.223) ∂Ωi ∂ − cos α cos β sin β ∂α α cos β ∂ = − sinsin β ∂α ∂ − sin α cos α ∂ cos α sin β sin β ∂γ 0 ∂β ∂ ∂γ sin α ∂ ∂β 0 ∂α ∂ (9.224) Analogamente possiamo introdurre le componenti dell’operatore vettore differenziale di rotazione con M componenti nel SM, M̂ : df = f (Ω + dΩ) − f (Ω) = X dΩi i dove la matrice RM è RM ∂f ∂Ωi = X M −1 dφM j [(R ) ]ij ij ∂f ∂Ωi = X M dφM j M̂ j f (9.225) j − sin β cos γ sin γ 0 = sin β sin γ cos γ 0 cos β 0 1 (9.226) dove le componenti esplicitamente definite sono MjM = X ∂f i ∂Ωi [(RM )−1 ]ij M M̂ = ∂ − cos γ sin β ∂α sin γ ∂ sin β ∂α 0 sin γ cos γ 0 (9.227) ∂ ∂β ∂ ∂β cos β cos γ sin β − ∂ ∂γ ∂γ cos β sin γ ∂ sin β ∂ ∂γ (9.228) 9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI 261 L’operatore di rotazione finita si ottiene come espansione in serie rispetto al vettore di rotazione finito φ. In generale per una funzione f (x) f (x + ∆x) = ∞ X (∆x)n ∂ n f (x) ∂xn n! n=0 = exp ∆x ∂ ∂x f (x) (9.229) e dunque per una rotazione finita da Ω ad Ω0 possiamo scrivere ~ M̂)f (Ω) f (Ω0 ) = exp(φ (9.230) con M̂ espresso in SL o SM. Gli operatori di rotazione infinitesima sono equivalenti agli operatori momento angolare di un corpo rigido a meno di un fattore costante i (e posto h̄ = 1) L,M Ĵ L,M = iM̂ (9.231) 2 L L M Poichè gli operatori Jˆ3 , Jˆ3 e Ĵ (che ha una forma evidentemente uguale se calcolata a partire Ĵ o M Ĵ ) commutano si ottiene che devono esistere autofunzioni con numeri quantici J, −J ≤ M ≤ J e −J ≤ K ≤ J. le autofunzioni sono tradizionalmente note con il nome di matrici (funzioni) di Wigner 2 J J Ĵ DM K (Ω) = J(J + 1)DM K (Ω) L J Jˆ3 DM K (Ω) M J Jˆ3 DM K (Ω) (9.232) J = M DM K (Ω) (9.233) J KDM K (Ω) (9.234) = Le matrici di Wigner sono ortogonali (ma non normalizzate) Z hJM K|J 0 M 0 K 0 i ≡ ∗ J J dΩDM K (Ω)DM K (Ω) = 8π 2 δJ,J 0 δM,M 0 δK,K 0 2J + 1 (9.235) dove dΩ = dαdβ sin βdγ. 9.12.2 Rotazione diffusiva di un corpo rigido L’equazione di Langevin che descrive la rotazione soggetta a momenti delle forze stocastiche di un corpo rigido (molecola) si ottiene a partire dalle equazioni del moto classico per la rotazione, in cui la variazione del momento angolare è legata al momento delle forze ~ = I~ L ω ~ dL dt ~ = N ~ ≡ −ξ~ +ω ~ ×L ω + ~n(t) (9.236) (9.237) dove I è il tensore di inerzia, ω ~ è la velocità angolare (esprimibile in funzione delle variazioni nel tempo ~ è distinto in una parte dissipativa, dove compare il degli angoli di Eulero); il momento delle forze N tensore di attrito rotazionale ξ ed un termine puramente stocastico ~n(t). Per il caso di rumore bianco, vale il teorema di fluttuazione-dissipazione hni (t)nj (t0 )i = 2kT ξij δ(t − t0 ) (9.238) 262 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI le componenti del tensore di attrito nel sistema di riferimento molecolare per un corpo di simmetria assiale può essere ottenuto da considerazioni idrodinamiche in funzione della viscosità η del mezzo; in particolare per un ellissoide di rotazione aventi semiassi Rk e R⊥ (Perrin, 1934): ξ⊥ 0 0 ξ = 0 ξ⊥ 0 0 0 ξk (9.239) dove ξk e ξ⊥ sono ξk = ξ⊥ = S = 2 )R2 32π(Rk2 − R⊥ ⊥ 2 S) 3(2Rk − R⊥ η 4) 32π(Rk4 − R⊥ 2 )S − 2R ] 3[(2Rk2 − R⊥ k Z ∞ 0 (9.240) η ds 2 (R⊥ q + s) Rk2 + s (9.241) (9.242) con il limite ξk = ξ⊥ = 8π 2 R3 η, dove R = R⊥ = Rk per una sfera. La descrizione stocastica precedente è basata sulle coordinate rotazionali Ω e sulle componenti della velocità angolare (o del momento angolare). Nel limite diffusivo, la velocità angolare raggiunge rapidamente una distribuzione di equilibrio ed il sistema può essere descritto sulla base delle sole coordinate rotazionali. In modo sostanzialmente analogo al caso traslazionale, possiamo ricavare un equazione di Langevin in Ω o più direttamente scrivere l’equazione di Smoluchwski rotazionale ∂ ∂t P (Ω, t) = −Γ̂P (Ω, t) (9.243) per la probabilità condizionale P (Ω, t). L’operatore di Smoluchowski Γ̂ è definito come tr Γ̂ = Ĵ DĴ (9.244) dove D è il tensore di diffusione D = kT ξ −1 (9.245) Per una molecole assiale, esprimendo l’operatore Ĵ nel sistema di riferimento solidale con la molecola, SM, si trova 2 M Γ̂ = D⊥ Jˆ + (Dk − D⊥ )Jˆ3 2 (9.246) −1 , con autofunzioni proporzionali alle funzioni di Wigner dove D⊥,k = kT ξ⊥,k J 2 J Γ̂DM K = [J(J + 1)D⊥ + K (Dk − D⊥ )]DM K (9.247) 0 =1 in particolare la distribuzione di equilibrio (autofunzione con autovalore nullo) corrisponde alla D00 a meno della costante di normalizzazione 8π 2 Peq (Ω) = 1 8π 2 (9.248) 9.12. EQUAZIONI DIFFUSIVE ROTAZIONALI 9.12.3 263 Depolarizzazione di fluorescenza In un esperimento di depolarizzazione di fluorescenza un campione in soluzione viene eccitato con luce ~ polarizzata lungo un asse di laboratorio, per esempio ~eL 3 . Se indichiamo con E il vettore del campo elettrico associato alla radiazione, possiamo scrivere E~ = E~eL 3 (9.249) La probabilità di transizione per una data molecola di soluto a partire da una orientazione Ω dipende dall’elemento di matrice dell’hamiltoniano di interazione tra la funzione d’onda nello stato fondamentale e nello stato eccitato ~µ|Ψe i|2 = E 2 |~eL · h~ Wassorbimento = |hΨ0 |E~ µi|2 3 (9.250) µ ~ è il momento di dipolo elettrico di transizione; per una molecola assiale, assumendo che h~ µi = M hΨ0 |~ µ|Ψe i abbia solo componenti lungo l’asse principale della molecola assunto lungo ~e3 otteniamo 2 2 Wassorbimento ∝ |~eL eM 3 ·~ 3 | = cos β (9.251) All’istante t = 0 in seguito ad eccitazione di un campione di molecole con distribuzione orientazionale all’equilibrio, si crea quindi una popolazione con distribuzion e 3 1 2 1 0 P (ω, 0) = 2 cos2 β = 2 D00 + 2 D00 (9.252) 8π 4π 8π che in seguito alla diffusione rotazionale evolve nel tempo come e−6D⊥ t 2 1 0 D00 + 2 D00 (9.253) 2 4π 8π L’intensità della luce emessa lungo una certa direzione ~n dalle molecole eccitate sarà proporzionale al numero di molecole totale nello stato eccitato, N (t), che può essere valutato come dipendente dal tempo di vita τf dello stato eccitato, N (t) ∝ exp(−t/τf ); ed alla frequenza di emissione che dipende dall’orientazione del dipolo di transizione (di emissione, che supponiamo avere la stessa direzione di quello di assorbimento) rispetto a ~n P (ω, t) = 2 Wemissione ∝ |~n · ~eM 3 | (9.254) L’intensià di emissione lungo lo l’asse della luce di assorbimento si indica con IV V (t) e vale perciò Z 2 d(Ω)P (ω, t)|~eL eM 3 ·~ 3 | IV V (t) ∝ N (t) (9.255) mentre l’emissione lungo un asse perpendicolare, per esempio ~eL 2 , si indica con IV H (t) ed è Z IV H (t) ∝ N (t) 2 d(Ω)P (ω, t)|~eL eM 2 ·~ 3 | (9.256) Sosituendo gli opportuni elementi della matrice di Eulero e usando le proprietà di ortogonalità delle funzioni di Wigner si ottiene una valutazione del rapporto di depolarizzazione al tempo t, dalla cui misura si può determinare D⊥ : µ ¶ 1 4 −6D⊥ t IV V (t) ∝ N (t) 1+ e (9.257) 3 5 µ ¶ 1 2 IV H (t) ∝ N (t) 1 − e−6D⊥ t (9.258) 3 5 2 IV V (t) − IV H (t) = e−6D⊥ t (9.259) r(t) = IV V (t) + 2IV H (t) 5 264 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI 9.13 Interpretazione statistica La teoria microscopica dei modelli stocastici si pone l’obiettivo di trovare i fondamenti statisticomolecolari delle equazioni stocastiche, in particolare ricavando delle relazioni formali tra i parametri macroscopici dissipativi (attrito) e le proprietà molecolari. Il problema della caratterizzazione microscopica dei modelli macroscopici statici e dinamici di fase condensate è oggetto di intensa attività esplorativa da parte di numerosi ricercatori, e non è certo possibile in un contesto limitato presentare l’argomento in modo esaustivo. Qui ci limitiamo a tratteggiare brevemente un esempio classico di interpretazione del più noto modello tra quelli considerati finora, il moto browniano di una particella, secondo l’approccio di Mazur e Oppenheimer (1970), nella presentazione di Hynes e Deutch. Consideriamo una particella puntiforme di massa M (soluto), immersa in un bagno di N particelle identiche (solvente) di massa m ¿ M . L’energia totale del sistema è H= 1 2 1 2 1 2 P + p + U (r) + Uint (r, R) = P + H0 2M 2m 2M (9.260) dove indichiamo con R e P la posizione ed il momento della particella soluto, con r = (r1 , r2 , . . . , rN ) e p = (p1 , p2 , . . . , pN ) le posizioni e momenti delle particelle solvente. I potenziali U e Uint indicano rispettivamente il potenziale di interazione soluto-solvente e solvente-solvente, che supponiamo per semplicità il risultato di sole interazioni a coppia a corto raggio: U = Uint = 1X u(|ri − rj |) 2 i<j (9.261) v(|ri − R|) (9.262) X i definite rispetto alle funzioni potenziali per coppie di molecole u e v. Con H0 indichiamo l’hamiltoniana del solvente che dipende parametricamente da una particella soluto immobile in R. Per proseguire, dobbiamo riassumere alcuni concetti fondamentali di meccanica (classica). Secondo la formulazione della meccanica classica basata sulle equazioni di Hamilton, un insieme di punti descritto dalle iper-coordinate r, p materiali può essere descritto sotto forma di una distribuzione di probabilità ρ(r, p, t) che descrive la densità dei punti materiali al tempo t in un intorno del punto r, p nello spazio delle fasi. La legge del moto che specifica la variazione nel tempo di ρ è l’equazione o teorema di Liouville ∂ρ ∂t = −{ρ, H} = −iLρ (9.263) il simbolo {a, b} indica le parentesi di Poisson {a, b} = ∂a ∂b ∂r ∂p − ∂a ∂b ∂p ∂r = X ∂a ∂b i ∂ri ∂pi − ∂a ∂b ∂pi ∂ri (9.264) e il simbolo iL indica l’operatore di Liouville relativo alla funzione hamiltoniana H. Il teorema di Liouville ha molteplici conseguenze ed un profondo significato per le applicazioni di meccanica statistica, in quanto permette di riformulare le equazioni del moto classico di un sistema di punti materiali in termini di grandezze probabilistiche. 9.13. INTERPRETAZIONE STATISTICA 265 Tornando al nostro sistema soluto+solvente, l’operatore di Liouville si può scrivere come iL = ∂ P ∂ +F + iL0 M ∂R ∂P dove F = − (9.265) ∂Uint è la forza esercitata dal solvente sul soluto e iL0 è l’operatore che regola la variazione ∂R nel tempo del moto del solvente quando la particella soluto sia fissa nello spazio. L’equazione di Liouville è definita per una densità ρ(R, P, r, p, t), in modo tale che possiamo scrivere ∂ρ ∂ P ∂ = −{ρ, H} = − +F + iL0 ρ M ∂R ∂t ∂P (9.266) Il nostro scopo è ricavare una descrizione relativa alla sola particella browniana, in cui l’effetto del solvente sia stato “mediato”. Definiamo la relazione tra la distribuzione di probabilità del solo soluto e P come la media di ρ su tutte le coordinate di solvente: Z P (R, P, t) = drdpρ(R, P, r, p, t) (9.267) Una forma alternativa della precedente equazione è data introducendo l’operatore di proiezione Z P = ρ0 drdp . . . (9.268) dove ρ0 è la distribuzione di Boltzmann delle coordinate del solvente a soluto fisso, cioè rispetto all’energia H0 . La (9.267) si può scrivere come ρ0 P = Pρ (9.269) Possiamo ora trovare una equazione del moto per P ? Dobbiamo ricorrere ad un pò di algebra degli operatori. Ricordiamo che l’operatore P ha le proprietà P† = P (9.270) P2 = P (9.271) ossia è hermitiano e idempotente: la sua caratteristica è di proiettare la parte “rilevante” da una funzione generica, dove per rilevante intendiamo la dipendenza dal soluto. Per la distribuzione ρ(t) possiamo scrivere le seguenti identità Pρ(t) = f (t) (9.272) (1 − P)ρ(t) = g(t) (9.273) ∂f (t) ∂t ∂g(t) ∂t = −PiL[f (t) + g(t)] (9.274) = −(1 − P)iL[f (t) + g(t)] (9.275) risolvendo formalmente l’ultima identità g(t) = exp[−(1 − P)iLt]g(0) − i Z t 0 dτ exp[−(1 − P)iLτ ](1 − P)Lf (t − τ ) (9.276) 266 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI e sostituendo nella penultima identità il risultato precedente si ottiene ∂f (t) = −PLf (t) − iPL exp[−(1 − P)iLt]g(0) + ∂t + i Z t 0 dτ iPL exp[−(1 − P)iLτ ](1 − P)Lf (t − τ ) (9.277) che ha la forma di un’equazione chiusa in f . Tenendo ora conto delle identità (la prima ovvia, le altre due di verifica un poco più complicata) f = ρ0 P (9.278) PiL = iL0 (9.279) PiL0 (1 − P) = PF ∂ ∂P (1 − P) (9.280) possiamo giungere al risultato, esatto cioè ottenuto direttamente dalle equazioni complete del moto classico ∂P (t) = − ∂t + ∂ P ∂P (t) − M ∂R ∂P ∂ Z t ∂P 0 Z dτ Z drdpF exp[−(1 − P)iLt](1 − P)f (0) ∂ kT P P (t − τ ) + drdpF exp[−(1 − P)iLτ ]Fρ0 M ∂P (9.281) dove si è fatto uso dell’ipotesi che la media delle forze agenti sulla particella browniana, dovuta alle particelle solvente, sia nulla. Questa formidabile espressione può essere ricondotta ad una forma simile ad una equazione di Kramers-Klein per una particella browniana ∂P (t) ∂t P ∂P (t) =− + M ∂R Z t 0 ∂ ∂ ˆ kT ξ(τ ) + P P (t − τ ) + I(t) + R(t) dτ M ∂P ∂P (9.282) ˆ dove sono stati definiti il tensore di attrito generalizzato ξ(t), il termine di correlazione iniziale I e la correzione R ξ(t) = hF exp[−(1 − P)iLt]Ftr i0 I(t) = − R(t) = ∂ (9.283) Z drdpF exp[−(1 − P)iLt]ρ0 ∆χ ∂P ∂ Z t ∂P 0 (9.284) Z dτ drdpFtr × ∂ kT × {exp[−(1 − P)iLτ ] − exp[−iL0 τ ]} Fρ0 P P (t − τ ) + M ∂P (9.285) dove con h. . .i0 indichiamo la media di Boltzmann sulle coordinate di solvente Z h. . .i0 = drdpρ0 . . . (9.286) e ∆χ = χ − hχi0 , dove χ è riferita alla preparazione iniziale del sistema f (0) = ρ0 χ (9.287) 9.13. INTERPRETAZIONE STATISTICA 267 A t = 0 possiamo supporre che il sistema sia costituito da un bagno in equilibrio con una qualche distribuzione delle coordinate del soluto, cioè χ è funzione solo di R e P. Il termine di correlazione iniziale va dunque a zero (perchè χ = hχi0 ). Restano da considerare il termine correttivo ed il tensore di attrito generalizzato. L’ipotesi primaria che possiamo utilizzare per semplificare l’equazione in P (t) è che la particella browniana abbia una massa molto maggiore della massa delle particelle di solvente. Con un trattamento non triviale, Mazur ed Oppenheimer furono sostanzialmente in grado di dimostrare che nel limite di m/M → 0 ed N → ∞, a tempi sufficientemente lunghi (in pratica superiori ai tempi caratteristici dei moti delle particelle di solvente) ξ(t) → ξ1 (9.288) R(t) → 0 (9.289) il parametro di attrito ξ è calcolabile in questo limite in termini di grandezze molecolari, almeno formalmente. Come risultato, si ottiene l’equazione di Kramers-Klein per una particella Browniana ∂P (t) ∂t ∂ P ∂P (t) kT P P (t) =− +ξ + M ∂R M ∂P (9.290) 268 CAPITOLO 9. VARIABILI E PROCESSI STOCASTICI Appendice A Funzioni speciali Questo capitolo è dedicato al riassunto delle proprietà di alcune classi di funzioni che ritornano spesso nelle soluzioni di problemi della meccanica quantistica. Si tratta di un compendio molto breve, e senza pretese di completezza, che ha il solo scopo di fornire un ‘formulario’ allo studente. A.1 Integrali ellittici Consideriamo gli integrali indefiniti1 · Z I= ¸ q dxR x, P (x) (A.1) dove R è una funzione razionale e P (x) è un polinomio di terzo o quarto grado. Si dimostra che I è sempre riducibile ad una funzione elementare di Z I1 = 1 dx p (1 − Z I2 = x2 )(1 √ 1 − k 2 x2 dx √ 1 − x2 (A.3) Z I3 = (A.2) − k 2 x2 ) dx (1 + n2 x2 ) 1 (1 − x2 )(1 − k 2 x2 ) (A.4) p che sono rispettivamente integrali ellittici di prima, seconda e terza specie nella forma di Legendre. La quantità k è detta modulo degli integrali. Altre espressioni utili sono le seguenti F (ψ, k) = E(ψ, k) = Rψ 0 Rψ 0 D(ψ, k) = R Π(ψ, n, k) = 0ψ dα 1 (1−k2 sin2 α) dα √ q dα (1 − k 2 sin2 α) (A.5) F (ψ,k)−E(ψ,k) k2 1 √ (1+n2 sin2 α) (1−k2 sin2 α) Gli integrali per ψ = π/2 si dicono integrali ellittici completi. 1 Nel seguito, se non altrimenti specificato si usa x per una variabile reale e z per una variabile complessa. 269 270 APPENDICE A. FUNZIONI SPECIALI A.2 Funzione gamma Definiamo la funzione gamma sotto forma di integrale di Eulero: Γ(z) = Z ∞ 0 dttz−1 e−t (A.6) Per z = n + 1 (n intero) la funzione gamma coincide con il fattoriale di n: Γ(n + 1) = n! (A.7) Vale la seguente espansione: 1 = zeγz Π∞ n=1 Γ(z) ·µ ¶ z 1+ e−z/n n ¸ (A.8) dove γ è la costante di Eulero: µ ¶ γ = limm→∞ 1 + 1 1 1 1 + + + ... + − ln m = 0.5772156649 . . . 2 3 4 m (A.9) Di interesse è l’espansione per |z| → ∞ (formula di Stirling): ¶ √ µ 1 1 139 571 Γ(z) ∼ e−z z z−1/2 2π 1 + + − − + . . . 12z 288z 2 51840z 3 2488320z 4 A.3 (A.10) Funzione dell’errore La funzione dell’errore è definita come: 2 erf(z) = √ π Z z 0 2 dte−t (A.11) La funzione complementare erfc(z) è 1 − erf(z). Alcune relazioni utili sono le seguenti: dn+1 2 2 erf(z) = (−1)n √ Hn (z)e−z dz n+1 z (A.12) 2 X (−1)n z 2n+1 erf(z) = √ z n=0 n!(2n + 1) (A.13) X √ 1 · 3 · . . . (2n − 1) 2 πzez erfc(z) ∼ 1 + (−1)n (2z 2 )n n=1 Z −(ax2 +2bx+c) dxe |z| → ∞ √ ¶ µ √ 1 π b2 −ac b = e a erf ax + √ + costante 2 a a (A.14) (A.15) A.4. FUNZIONI DI BESSEL A.4 271 Funzioni di Bessel Sia ν un numero reale non-negativo. Le funzioni di Bessel del primo tipo J±ν (z) e del secondo tipo Y±ν (z) verificano la seguente equazione differenziale: z2 d2 w dw +z + (z 2 − ν 2 )w = 0 2 dz dz (A.16) Sono funzioni regolari, finite a z = 0; J±ν (z) ha un estremo superiore finito per <z → ∞. Le funzioni di Bessel modificate I±ν (z) e Kν (z) sono soluzioni dell’equazione differenziale z2 d2 w dw +z − (z 2 + ν 2 )w = 0 dz 2 dz (A.17) II±ν (z) tende ad un valore finito per z → 0. Le funzioni di Bessel sono utili p.es. per la soluzione di equazioni differenziali in problemi con una simmetria cilindrica (vedi II Dispensa). Valgono le seguenti relazioni: Jn (z) = 1 in π In (z) = 1 π A.5 Z π Z π 0 0 dθeiz cos θ cos(nθ) (A.18) dθez cos θ cos(nθ) (A.19) Polinomi ortogonali È data una funzione reale non negativa w(x) ed un intervallo [a, b]. Supponiamo che Z b a dxxn w(x) esista per n naturale (0,1,2, . . .), e che sia positivo per n = 0. Allora esiste una successione di polinomi p0 (x), p1 (x), p2 (x) etc. determinata univocamente dalle condizioni: 1. pn (x) è un polinomio di grado n; il coefficiente qn di xn in pn (x) è positivo 2. i polinomi pn (x) sono ortogonali rispetto al prodotto scalare hf |gi = hpm |pn i = δmn km Z b a dxw(x)f (x)g(x): (A.20) dove km è la norma km = hpm |pm i. La successione costituisce un set di polinomi ortogonali su [a, b] rispetto alla funzione peso w(x). Valgono le seguenti relazioni generali 1. Relazione di Christoffel-Darboux X n pk (x)pk (y) = k=0 qn pn+1 (x)pn (y) − px (x)pn+1 (y) qn+1 x−y (A.21) 2. Relazione ricorsiva pn+1 (x) = (an x + bn )pn (x) − cn pn−1 (x) n ≥ 1 (A.22) 272 APPENDICE A. FUNZIONI SPECIALI A.6 Polinomi di Legendre I polinomi di Legendre Pn (x) sono definiti in [−1, 1]. Verificano l’equazione differenziale: (1 − x2 ) d2 Pn (x) dPn (x) − 2x + n(n + 1)Pn (x) = 0 2 dx dx (A.23) La funzione peso è w = 1, la norma è kn = 2/2n + 1. La relazione ricorsiva è: (n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x) (A.24) dove P0 (x) = 1, P1 (x) = x. A.7 Polinomi di Hermite I polinomi di Hermite Hn (x) sono definiti in [−∞, ∞]. Verificano l’equazione differenziale: dHn (x) d2 Hn (x) − 2x + 2nHn (x) = 0 dx2 dx 2 La funzione peso è w = e−x , la norma è kn = (A.25) √ n π2 n!. La relazione ricorsiva è: Hn+1 (x) = 2nxHn (x) − 2nHn−1 (x) (A.26) dove H0 (x) = 1, H1 (x) = 2x. A.8 Polinomi di Laguerre I polinomi di Laguerre Ln (x) sono definiti in [0, ∞]. Verificano l’equazione differenziale: x d2 Ln (x) dLn (x) + nLn (x) = 0 + (1 − x) dx2 dx (A.27) La funzione peso è w = e−x , la norma è 1. La relazione ricorsiva è: (n + 1)Ln+1 (x) = (2n + 1 − x)Ln (x) − nLn−1 (x) dove L0 (x) = 1, L1 (x) = 1 − x. (A.28) Appendice B L’atomo idrogenoide L’hamiltoniano in unità atomiche è: H=− 1 ˆ2 1 ˆ2 Z ∇R − ∇ e − ~ 2mZ 2 |R − ~re | (B.1) ~ e ~re la posizione del nucleo e dell’elettrone, e con ∇ ˆ 2R e ∇ ˆ e i relativi gradidove indichiamo con R enti. Possiamo procedere come nell’Esercizio 1 ed introdurre le variabili di spostamento relativo ~ e ~rc = ~re +mZ R~ , dove M = 1 + mZ è la massa totale del dell’elettrone e di centro di massa: ~r = ~re − R M sistema. Rispetto alle nuove coordinate l’hamiltoniano risulta definito come la somma dell’hamiltoniano relativo al moto libero del baricentro con massa M e dell’hamiltoniano relativo al moto dell’elettrone rispetto ad un nucleo a riposo, ed avente massa ridotta µ = mZ /M in unità atomiche. In unità atomiche l’hamiltoniano separato risulta essere: H=− 1 ˆ2 1 ˆ2 Z ∇ − ∇ − 2µ 2M c r (B.2) dove ora r è la distanza tra il baricentro e l’elettrone. La parte relativa al baricentro determina il moto traslazionale libero dell’atomo, e non sarà considerata oltre. La parte elettronica può essere scritta come l’hamiltoniano di una particella di carica -1 che si muova nel campo di potenziale elettrostatico generato da un nucleo immobile di carica Z, e avente massa µ: H=− 1 ˆ2 Z − ∇ r 2µ (B.3) Nel seguito considereremo µ ≈ 1: per Z = 1, assumendo per mZ la massa di un protone avremmo µ = 0.9994. Il potenziale è a simmetria radiale. Possiamo perciò procedere risolvendo il sistema nel seguente modo i) introduzione di coordinate sferiche (r, θ, φ); ii) fattorizzazione della funzione d’onda in una parte angolare dipendente da θ e φ e in una parte radiale dipendente da r; iii) imposizione di condizioni al contorno per il calcolo delle autoenergie. La parte angolare dell’autofunzione è data dalle funzioni armoniche sferiche (ciò è vero per qualunque potenziale a simmetria sferica) ΨE (r, θ, φ) = R(r)Ylml (θ, φ) (B.4) Sostituendo nell’Eq. di Schrödinger si trova l’equazione per la parte radiale: · ¸ 1 d 2 dR Z l(l + 1) r +2 E+ − R=0 2 r dr dr r 2r2 (B.5) 273 274 APPENDICE B. L’ATOMO IDROGENOIDE Lo spettro degli autovalori sarà discreto per E < 0, e continuo per E > 0 (il potenziale coulombiano tende a zero per r → ∞ e a −∞ per r → 0). L’equazione differenziale in R, con le condizioni al contorno R finita per r → 0 e r → ∞ è riconoscibile come l’equazione che ha per soluzione delle funzioni note: le funzioni associate di Laguerre (moltiplicate per l’esponenziale di −r). In definitiva gli autostati e le autoenergie (in Hartree) dell’atomo di idrogeno sono: Ψn,l,ml (r, θ, φ) = Rnl (r)Ylml (θ, φ) s Rnl = (n − l − 1)!Z l+1 2l+1 ρ Ln+l (ρ) exp(−ρ/2) n2 [(n + l)!]3 En,l,ml = − Z2 2n2 (B.6) (B.7) (B.8) dove ρ = 2Zr/na; Lαn (ρ) è un polinomio di Laguerre di grado n ed ordine α. Gli autostati discreti sono negativi e dipendono solo da 1/n2 . Appendice C Separazione del baricentro È data una collezione di punti materiali, che per convenienza dividiamo in due sottoinsiemi ~ri , i = ~ i , p = 1, . . . , M , con masse Mi (nel seguito 1, . . . , N , con masse mi (nel seguito particelle ’leggere’) e R particelle ’pesanti’). Definiamo l’hamiltoniano del sistema in unità atomiche H=T +V T =− M N X 1 ˆ2 X ∇ − i=1 V = (C.1) X 2mi i 1 ˆ2 ∇p 2M p p=1 V (~ri − ~rj ) + i<j X (C.2) ~ p) + V (~ri − R X ~p − R ~ q) V (R (C.3) p<q i,p dove l’unica assunzione è che l’energia potenziale sia data da sole interazioni a coppie dipendenti dalle distanze vettoriali relative. Vogliamo dimostrare che il baricentro del sistema è una coordinata separabile. A questo scopo, introduciamo il nuovo set di coordinate: ´ ³P P N 1 ~p ~c = mi~ri + M Mp R R ~xi ~ Qp = = MT 1 ~ri − M i=1 p=1 PM ~ i = 1, . . . , N p=1 Mp Rp ~ ~ Rp − Rp+1 p = 1, . . . , M (C.4) dove M è la massa totale delle particelle pesanti, MT è la massa totale del sistema; abbiamo definito cioè il vettore del centro di massa del sistema, le N coordinate delle particelle leggere relative al baricentro delle particelle pesanti, ed M − 1 coordinate vettoriali ottenute come le prime m − 1 differenze tra i ~ p : complessivamente i gradi di libertà del sistema sono 3 + 3N + 3(M − 1) = 3(N + M ). vettori R ~ c . Possiamo facilmente esprimere le vecchie Dimostriamo che l’energia potenziale non dipende da R ~ 2, . . . , R ~ M e ~r1 , . . . , ~rN in funzione delle nuove coordinate e di R ~ 1: coordinate R P ~ ~p = ~ 1 − p−1 Q p>1 R R q=1 q (C.5) P P p−1 ~ M 1 ~ 1 + ~xi − Qq ~ri = R M p=2 q=1 ~ 1 è funzione di tutte le nuove coordinate, compreso R ~ c ; ma nell’energia potenziale compaiono solo R ~ c . Calcoliamo ora l’operatore differenze tra le posizioni delle particelle, e quindi V è indipendente da R di energia cinetica nelle nuove coordinate vettoriali. Il gradiente relativo alla i-esima particella leggera è ˆ i = mi ∇ ˆc + ∇ ˆx ∇ (C.6) i MT 275 276 APPENDICE C. SEPARAZIONE DEL BARICENTRO ˆ c rispetto a R ~ c . Segue che ˆ x indichiamo il gradiente rispetto ~xi , con ∇ dove con ∇ i 1 ˆ2 mi ˆ 2 1 ˆ2 2 ˆ ˆ ∇i = 2 ∇ ∇xi + ∇c · ∇xi c + mi mi MT MT (C.7) Il gradiente relativo alla p-esima particella pesante è n X ˆ p = MP ∇ ˆ c − MP ˆx + ∇ ˆ Qp − ∇ ˆQ ∇ ∇ p−1 MT M i=1 i (C.8) ˆ Qp indichiamo il gradiente rispetto Q ~ p . Segue che dove con ∇ 1 ˆ2 ∇ = MP p − ³ ´2 MP ˆ 2 MP X ˆ ˆ Qp − ∇ ˆQ ˆx + 1 ∇ ∇ + ∇ · ∇ x c p−1 i j M i,j MP MT2 n N ´ ´ X ³ 2MP X 2 ³ˆ ˆc · ∇ ˆx + 2 ∇ ˆc · ∇ ˆ Qp − ∇ ˆQ ˆ ˆx − · ∇ ∇ ∇ − ∇ Q Q p p−1 p−1 i i MT M i=1 MT M i=1 (C.9) Si può verificare che sostituendo le precedenti equazioni nell’espressione per l’energia cinetica otteniamo: M N ´2 X 1 ³ˆ 1 Xˆ 1 ˆ2 X 1 ˆ2 ˆ ˆQ T =− ∇c − ∇xi − ∇xi · ∇xj − ∇Qp − ∇ p−1 2MT 2mi 2M i,j 2MP p=1 i=1 (C.10) il primo termine è relativo al moto traslazionale libero del baricentro; il secondo all’energia cinetica delle particelle leggere corretto dal terzo termine detto di polarizzazione di massa; il quarto è l’energia ~ p. cinetica delle particelle pesanti espressa nelle coordinate interne Q Appendice D Problema generalizzato agli autovalori Consideriamo l’equazione di Schrödinger indipendente dal tempo per le autofunzioni dell’operatore di Hamilton relativo ad un sistema definito rispetto alle coordinate q. Una (auto)-funzione Ψ(q) è un elemento dello spazio di Hilbert delle funzioni in q, e sarà indicata nel seguito con il ket |Ψi H|Ψi = E|Ψi (D.1) Introduciamo ora un insieme di funzioni linearmente indipendenti che costituiscano una base, non necessariamente ortonormale, nello spazio di Hilbert |v1 i, |v2 i, . . .; possiamo perciò esprimere |Ψi come una combinazione lineare degli elementi della base: |Ψi = X cj |vj i (D.2) j Sostituendo nella (D.1) e premoltiplicando per il generico bra hvi |: X hvi |H|vj icj = E j X hvi |vj icj (D.3) j che in notazione matriciale si può scrivere come Hc = ESc (D.4) dove Hij = hvi |H|vj i, Sij = hvi |vj i. Se la base è ortonormale, la matrice di overlap S coincide con la matrice unità, Sij = δij , e dunque Hc = Ec (D.5) In pratica, se la dimensione dello spazio hilbertiano considerato è infinita, il set di funzioni di base utilizzato viene troncato ad un numero finito N , introducendo un’approssimazione che dipende da N . Soluzioni non-triviali del sistema N -dimensionale (D.4) si ottengono dalle radici dell’equazione secolare: det(H − ES) = 0 (D.6) Si ottengono N autovalori Ei , i = 1, . . . , N cui corrispondono N autovettori ci . Se si definisce la matrice C le cui colonne sono autovettori, Cij = (cj )i la matrice diagonale i cui elementi sono diagonali sono gli autovalori, Eij = δij Ej , risulta che: HC = SCE (D.7) 277 278 APPENDICE D. PROBLEMA GENERALIZZATO AGLI AUTOVALORI Appendice E Valore di attesa per un guscio chiuso Assumiamo che le funzioni orbitali (spaziali) siano ortonormali: Z dqµ φ∗i (µ)φj (µ) = hφi |φj i = δi,j (E.1) Il valore di attesa dell’hamiltoniano H si può dividere in un contributo monoelettronico e in un termine bi-elettronico. Indicando con Si il generico spinorbitale E= X (−)P hS1 (1)S2 (2) . . . SN (N )| PN n=1 ĥ(n) + P P 1 n<n0 rn,n0 |P̂ S1 (1)S2 (2) . . . SN (N )i (E.2) Il contributo monoelettronico si può calcolare distinguendo i vari casi: Permutazione identica. Somma di N/2 termini in ordine zero: N X N/2 hSn (n)|ĥ(n)|Sn (n)i = 2 n X N/2 hφi (n)|ĥ(n)|φi (n)i = 2 i=1 X hi (E.3) i=1 Altre permutazioni. Contributo nullo, a causa dell’ortogonalità di spin. Si procede in modo analogo per il contributo bi-elettronico: Permutazione identica, n dispari, n0 = n + 1. Somma di integrali a due centri: X n disp. hSn (n)Sn (n)| r 1 0 |Sn (n)Sn (n)i = nn ,n0 =n+1 N X i=1 N/2 hφi (n)φi (n0 )| r 1 0 |φi (n)φi (n0 )i = nn X Jii (E.4) i=1 Permutazione identica, altri valori di n e n0 . Somma di integrali a due centri: X n,n0 N/2 hSn (n)Sn0 (n0 )| r 1 0 |Sn (n)Sn0 (n0 )i nn =4 X i<j N/2 hφi (n)φj (n0 )| r 1 0 |φi (n)φj (n0 )i nn =4 X Jij (E.5) i<j Permutazioni di due elettroni. Somma di integrali a due centri: − X n<n0 N/2 hSn (n)Sn0 (n0 )| r 1 |Sn0 (n)Sn 0 nn (n0 )i = −2 X i<j 279 N/2 hφi (n)φj (n0 )| r 1 0 |φj (n)φi (n0 )i nn = −2 X i<j Kij (E.6) 280 APPENDICE E. VALORE DI ATTESA PER UN GUSCIO CHIUSO Altre permutazioni. Contributo nullo, a causa dell’ortogonalità della parte spaziale. Poichè Jij = Jji , Kij = Kji , Jii = Kii , resta l’espressione: N/2 E=2 X i N/2 hi + X (2Jij − Kij ) i,j dove Jij e Kij sono gli integrali di Coulomb e di scambio. (E.7) Appendice F Separabilità σ − π (Likos-Parr) Le condizioni di separabilità σ − π per una funzione d’onda multielettronica si possono scrivere nella forma: 1. è dato un sistema di N elettroni, nσ di tipo σ, nπ di tipo π: nσ + nπ = N (F.1) 2. la funzione d’onda è approssimata da un prodotto (simmetrizzato) di una funzione σ ed una funzione π: Ψ(1, 2, . . . , N ) = RΨσ (1, 2, . . . , nσ )Ψπ (nσ + 1, nσ+1 , . . . , nπ ) (F.2) R è l’operatore somma di tutte i possibili scambi tra elettroni σ e π; 3. le funzioni σ e π sono combinazioni lineari di determinanti di Slater, costruiti a partire da opportuni spin-orbitali P Ψσ = k ak Dk {Dk } ←- {SσI } P Ψπ = l bl Dl {Dl } ←- {SπJ } (F.3) 4. le due funzioni d’onda sono normalizzate: hΨσ |Ψσ i = hΨπ |Ψπ i = hΨ|Ψi (F.4) Le condizioni 1.-4. costituiscono l’approssimazione di separabilità σ − π. La funzione d’onda complessiva (nel caso Ψσ e Ψπ siano date ciascuna da un solo determinante di Slater) è data da: ¯ ¯ Sσ1 (1) ¯ ¯ .. ¯ ¯ . ¯ ¯ S (n ) ¯ ¶ µ σ1 σ 1 1/2 ¯¯ Ψ(1, 2, . . . , N ) = ¯ N! ¯ ¯ Sσ1 (nσ + 1) ¯ ¯ .. ¯ . ¯ ¯ ¯ Sσ1 (N ) ... Sσnσ (1) .. . Sπnσ +1 (1) .. . ... ... Sσnσ (nσ ) Sπnσ +1 (nσ ) ... . . . Sσnσ (nσ + 1) .. . ... Sσnσ (N ) 281 Sπnσ +1 (nσ + 1) . . . .. . Sπnσ +1 (N ) ... ¯ ¯ ¯ ¯ ¯ ¯ ¯ SπN (nσ ) ¯¯ ¯ ¯(F.5) ¯ ¯ SπN (nσ + 1) ¯¯ ¯ .. ¯ . ¯ ¯ SπnN (N ) ¯ SπN (1) .. . 282 APPENDICE F. SEPARABILITÀ σ − π (LIKOS-PARR) L’hamiltoniano molecolare elettronico si può scrivere nel modo consueto, evidenziando i due gruppi di elettroni: (0) H = H(0) σ + Hπ + Hσπ (0) Hi (F.6) n =− n i i X Zk X 1 1X ˆ 2µ − ∇ + 2 µ r r µ,ν µν µ,k µk nπ nσ X X 1 Hσπ = µ ν nπ X core ĥµ µ core (F.7) (F.8) rµν Hπ = H(0) π + Hσπ = ĥµ i = σ, π + nπ X 1 µ<ν (F.9) rµν nσ X 1 ˆ 2 X Zk 1 =− ∇ + µ− 2 rµk ν rµν k (F.10) Se si trascura lo scambio σ − π, il valore di attesa è dato dalla somma di valori di attesa: (0) (0) hHiav = hHπ + Hσ iav = hΨπ |Hπ |Ψπ i + hΨσ |Hσ |Ψσ i = Eπ + Eσ(0) (F.11) (0) Si può considerare Eσ costante; resta definito l’operatore π−HF, rispetto ai soli elettroni π: core F̂π = ĥ + X j (2Jˆj − K̂j ) (F.12) Appendice G Alcune proprietà della funzione delta di Dirac Per ogni funzione continua F (x) vale che Z b a dxF (x)δ(x) = F (0) (G.1) se e solo se 0 è compreso nell intervallo [a, b]. Valgono le seguenti rappresentazioni analitiche della funzione delta(x): sin xL πx Z 1 ∞ δ(x) = dk exp(ikx) 2π −∞ 1 a δ(x) = lim 2 a→0 π a + x2 δ(x) = lim (G.2) L→∞ (G.3) (G.4) La derivata della funzione δ(x) è definibile. Il calcolo degli integrali contenenti δ 0 (x) si effettua per parti, e ponendo δ(x) = 0 per x 6= 0: Z b a δ 0 (x)F (x) = −F 0 (0) (G.5) Altre uguaglianze valide sono µ 1 L cos Lx sin Lx δ (x) = lim − π L→∞ x x2 0 xδ (x) = −δ(x) ¶ 0 (G.6) (G.7) 283 284 APPENDICE G. ALCUNE PROPRIETÀ DELLA FUNZIONE DELTA DI DIRAC Appendice H Teoria delle perturbazioni dipendenti dal tempo Supponiamo di aver definito un sistema mediante un’hamiltoniano H0 . Al tempo t = 0 accendiamo in modo istantaneo un campo perturbativo dipendente dal tempo, H0 (t), avente la forma 0 t<0 H (t) = V (t) 0 ≤ t ≤ τ 0 t>τ 0 (H.1) Siano |ni le autofunzioni dell’hamiltoniano del sistema imperturbato H0 , con autovalori En . Per semplicità consideriamo solo il caso di uno spettro discreto. Vogliamo determinare la funzione d’onda del sistema perturbato ih̄ ∂Ψ = [H0 + H0 (t)]Ψ ∂t (H.2) Poichè le funzioni |ni costituiscono un set completo o base ortonormale dello spazio hilbertiano delle funzioni d’onda del sistema, possiamo scrivere Ψ come Ψ= X an (t)|ni exp(−iEn t/h̄) (H.3) n Assumiamo che in assenza di perturbazione il sistema sia preparato nell’autostato |ii Ψin = ai |ii exp(−iEi t/h̄) t<0 (H.4) cioè an (t) = δni per t < 0. Durante la perturbazione, 0 ≤ t ≤ τ , i coefficienti cambiano fino a raggiungere i valori ani (τ ). Al cessare della perturbazione, la funzione d’onda è perciò Ψfin = X ani (τ )|ni exp(−iEn t/h̄) (H.5) n La probabilità che il sistema sia in uno stato stazionario |f i di energia Ef è perciò data dal coefficiente af l (τ ): wi→f = |af i (τ )|2 (H.6) 285 286 APPENDICE H. TEORIA DELLE PERTURBAZIONI DIPENDENTI DAL TEMPO Il calcolo dei coefficienti dipendenti dal tempo si può effetturare con un metodo perturbativo. Permoltiplicando l’equazione (H.2) per il bra hf | ed integrando, otteniamo X ih̄ȧf (t) = Vf i (t) exp(iωf i t)ai (t) (H.7) i dove Vf i (t) = hf |V (t)|ii e h̄ωf i = Ef − Ei . Integriamo con la condizione iniziale af (0) = δf i (H.8) Il sistema di equazioni (H.7) si può integrare numericamente noti i coefficienti Vf i (t). In pratica, se τ non è grande, si può supporre che la variazione dei coefficienti sia piccola. Applicando il metodo delle approssimazioni successive 1 si ottiene al primo ordine per f 6= i (1) af i Z t 1 = ih̄ 0 dt0 Vf i (t0 ) exp(iωf i t0 ) (H.9) da cui segue che ¯ wi→f = H.1 ¯ Z ¯2 1 ¯¯ τ dtVf i (t) exp(iωf i t)¯¯ 2 ¯ h̄ 0 (H.10) Probabilità di transizione nell’unità di tempo La probabilità di transizione si semplifica se V (t) ≡ V , cioè se la perturbazione non cambia nel tempo nell’intervallo τ . Allora, se Vf i = hf |V |ii, si può esprimere l’eq. (H.10) nella forma wi→f = 2 |Vf i |2 f (Ef − Ei ) h̄2 (H.11) dove la funzione f (E) ha la forma f (E) = h̄2 1 − cos(Eτ /h̄) E2 (H.12) per τ >> h̄En , cioè se la durata della perturbazione è molto maggiore dei tempi caratteristici del sistema imperturbato, la funzione f (E) degenera in un delta di Dirac f (E) → τ πh̄δ(E), e quindi la probabilità di transizione è data da: wi→f = 2π |Vf i |2 τ δ(Ef − Ei ) h̄ (H.13) la probabilità di transizione nell’unità di tempo è perciò pi→f = wi→f 2π = |Vf i |2 δ(Ef − Ei ) τ h̄ 1 (H.14) È dato un sistema di equazioni differenziali al primo ordine, non autonomo ȧ(t) = f [a(t), t] con le condizioni iniziali a(0) = 0. Allora l’approssimazione di ordine k, a(k) (t), si ottiene dall’approssimazione di ordine k − 1 come Z a(k) (t) = t dt0 f[a(k−1) (t0 ), t0 ] 0 nella tacita ipotesi che la successione cosı̀ definita converga e converga alla soluzione del sistema per k → ∞. Appendice I Matrice densità Consideriamo un sistema rappresentato in assenza di interazioni con il resto dell’universo, dall’hamiltoniano H0 , avente autofunzioni |ketn ed uno spettro discreto di livelli energetici corrispondenti En . La funzione d’onda generica del sistema è Ψ= X an |ni (I.1) n Una proprietà osservabile rappresentata dall’operatore B avrà il seguente valor medio: B= X a∗n am Bnm (I.2) mn dove Bnm = hn|B|mi. Supponiamo ora che il sistema non sia descritto in modo completo, da una funzione d’onda completamente nota: il sistema può essere per esempio una parte, o sottosistema caratterizzato dalle coordinate generiche r, di un sistema più grande, in cui le coordinate restanti q non sono descritte se non in termini di determinate proprietà medie. Il valor medio di una proprietà osservabile B, in generale agente sulle sole coordinate r del sottosistema di interesse, sarà in generale descritto da un’espressione analoga all’eq. (I.2) B= X ρmn Bnm (I.3) mn la matrice ρmn è detta matrice statistica o matrice densità, e può essere considerata come formata dagli elementi di un operatore ρ̂ rispetto alla base |ni. Formalmente, il valor medio di B si può scrivere come la traccia del prodotto degli operatori ρ̂ e B: B= X (ρ̂B)nn = Tr(ρ̂B) (I.4) n Si noti come: 1. la matrice statistica può essere determinata rispetto a qualunque sistema completo di funzioni d’onda, non solo relativamente agli autostati del sottosistema di interesse 2. in particolare, sia Ψ(r, q) la funzione d’onda del super-sistema r + q che in generale non è nota. Il valor medio di un osservabile B è calcolabile come Z Z B= drdqΨ∗ (r, q)BΨ(r, q) (I.5) 287 288 APPENDICE I. MATRICE DENSITÀ che può essere riscritto in termini di un operatore secondo le espressioni Z ρ(r, r0 ) = dqΨ(r, q)Ψ∗ (r0 , q) (I.6) dr[Bρ(r, r0 )]r=r0 (I.7) Z B = La relazione tra la matrice ρnm e la funzione ρ(r, r0 ) è ottenuta come ρ(r, r0 ) = X mn ρmn |ni∗r0 |mir (I.8) L’operatore ρ̂ gode delle seguenti proprietà: i) è hermitiano, ii) gli elementi diagonali ρnn sono positivi e iii) soddisfano alla condizione di normalizzazione Trρ̂ = 1. L’equazione di evoluzione temporale per la matrice densità si può determinare nel caso di un sistema isolato. Utilizzando l’operatore di commutazione, l’equazione di evoluzione temporale richiesta è ∂ ρ̂ ∂t = i [ρ̂, H0 ] = iLhatρ h̄ (I.9) detta equazione (quantistica) di Liouville per la matrice densità. L’operatore iL = [. . . , H] è detto operatore (quantistico) di Liouville: si confronti con l’eq. (8.44) che esprime l’analogo classico. La condizione di stazionarietà implica che ρ̂ commuti con H0 Nella rappresentazione dell’energia, ciò equivale alla condizione che ρmn sia diagonale. Nella meccanica statistica quantistica, un sistema isolato in equilibrio è perciò descritto dagli elementi diagonali positivi e indipendenti dal tempo della matrice densità. Bibliografia Meccanica classica [1] L.D. Landau, E.M. Lifŝits, Meccanica (Editori Riuniti, Roma, 1976) [2] H. Goldstein, Classical mechanics (Addison-Wesley, Reading MA, 1980) [3] R.C. Tolman, The principles of statistic mechanics (Dover, New York, 1979) [4] R.N. Zare, Angular momentum (Wiley, New York, 1988) [5] F.R. Gantmacher, Lezioni di meccanica analitica (Editori Riuniti, Roma, 1980) [6] G.M. Ewing, Calculus of variations with applications (Dover, New York, 1985) Testi di interesse generale [7] B.B. Berne, in Physical Chemistry: an Advanced Treatise, Vol. VIII B, H. Eyring, D. Henderson e W. Jost Eds. (Academic press, New York, 1971), Cap. 9. [8] M.P. Allen e D.J. Tildesley, Computational Simulation of Liquids, Clarendon, 1987. [9] R.J. Jacob, in Physical Chemistry: an Advanced Treatise, Vol. XI A, Cap. 1. [10] S. Lang, Algebra Lineare, (Boringhieri, Torino, 1984). [11] D. Henderson, in Physical Chemistry: an Advanced Treatise, Vol. XI A, Cap. 4. [12] I.S. Gradshtein e I.M. Ryzhik, Table of Integrals, Series and Products (Academic Press, New York, 1972). Probabilità e variabili stocastiche [13] N.G. Van Kampen, Stochastich Processes in Physics and Chemistry (North-Holland, Amsterdam, 1980). [14] H. Haken, Rev. Mod. Phys., 47, 67 (1975). [15] D.A. McQuarrie, in Physical Chemistry: an Advanced Treatise, Vol. XI B. 289 290 BIBLIOGRAFIA [16] J.T. Hynes e J.M. Deutch, in Physical Chemistry: an Advanced Treatise, Vol. XI B. [17] A. Kolmogorov, Grundberiffe der Wahrscheinlichkeitsrechnung, Ergebn. Mathem. Grenzgeb., 2, n. 3 (springer, Berlin 1933); o nella traduzione inglese Foundations of the Theory of Probability (Chelsea Press, New York 1950). Complementi matematici [18] C.L. Perrin, Mathematics for Chemists, (Wiley, New York, 1970). [19] M. Abramowitz e I. Stegun, Handbook of Mathematical Functions, (Dover, New York, 1972). [20] H.D. Ikramov, Linear Algebra: Problems Book, (Mir Publishers, Mosca, 1983). [21] V.I. Smirnov, Corso di Matematica Superiore II, (Editori Riuniti, Roma, 1981). Metodi quantistici avanzati [22] J. Gao, Methods and applications of combined quantum mechanical and molecular mechanical potentials, p.119-185 in Reviews in Computational Chemistry, vol. 7, 1996. [23] A. Warshel e M. Levitt, J. Mol. Biol.,100 , 13213 (1976). [24] U.C. Singh e P.A. Kollman, J. Comput. Chem.,7 ,718 (1986). [25] J. Aqvist e A. Warshel, Chem. Rev., 93, 2523 (1993). [26] M.J.S. Dewar, E.G. Zoebisch, E.A. Healy e J.J.P. Stewart, J. Am. Chem. Soc.,107, 3902 (1985). [27] P.D. Lyne, M. Hodoscek e M. Karplus, J Phys. Chem. A, 103, 3462 (1999). [28] Y.S. Lee, M. Hodoscek e M. Karplus, Biophys. Chem., 70(3), 203 (1998). [29] Z. Barandiaran e L. Seijo, J. Chem. Phys., 89(9), 5739 (1988). [30] R. V. Stanton, D. S. Hartsough e K. M. Merz, J. Phys. Chem., 97, 11868 (1993). [31] D. Wei e D.R. Salahub, Chem. Phys. Lett., 224, 291 (1994). [32] X.P. Long, J.B. Nicholas, M.F. Guest e R.L. Ornstein, J. Mol. Struct., 412(1-2), 121 (1997). [33] M. Eichinger, P. Tavan, J. Hutter e M. Parrinello, J. Chem. Phys., 110(21), 10452 (1999). [34] P. Sherwood, Modern Methods and Algorithms of Quantum Chemistry, vol. 1,257 (2000). [35] Y.Q. Tu e A. Laaksonen, J. Chem. Phys., 1999, 111(16) , 7519 (1999). [36] D. Bakowies e W. Thiel, J. Phys. Chem., 100, 10580 (1996). [37] A. Warshel e R. M. Weiss, J. Am. Chem. Soc., 102, 6218 (1980). BIBLIOGRAFIA 291 [38] S.P. Webb e M. S. Gordon, J. Phys. Chem. A, 103, 1265 (1999). [39] J. Gao, P. Amara, C. Alhambra e M.J. Field, J. Phys. Chem. A, 102, 4714 (1998). [40] A. Warshel e M. Levitt, J. Mol. Biol., 103, 227 (1976). [41] I. Antes e W. Thiel, J. Phys. Chem. A, 103(46), 9290 (1999). [42] D. Das, K.P. Eurenius, E. Billings, P. Sherwood, D.C. Chatfield, M. Hodoscek e B.R. Brooks, J. Chem. Phys., vol. 117, N. 23, 10534 (2002). [43] M. Swart, Int. J. of Quant. Chem., vol. 91, 177 (2003). [44] V. Thery, D. Rinaldi, J.L. Rivail, B. Maigret e G.G. Ferenczy, J. Comput. Chem., 15(3), 269 (1994). [45] N. Reuter, A. Dejaegere, B. Maigret e M. Karplus, J. Chem. Phys. A, 104, 1720 (2000). [46] V. Kairys e J. H. Jesen, J. Chem. Phys. A, 104, 6656 (2000). [47] M.P. Allen e D.J. Tildesley, Computer Simulations of Liquids, Oxford University Press, London, 1987 [48] D. Beglov e B. Roux, J. Chem. Phys, 100, 9050 (1994). [49] M.J. Field, P.A. Bash e M. Karplus, J. Comput. Chem., 11, 700 (1990). [50] F. Maseras e K. Morokuma, J. Comp. Chem., 16(9),1170 (1995). [51] K. Breuer, J. H. Teles, D. Demuth, H. Hibst, A. Schafer, S. Brode e H. Domgorgen, Angew. Chem. Int. Ed. Engl., 38(1), 1401 (1999). [52] S. Dapprich, I. Komaromi, K.S. Byun, K. Morokuma e M.J. Frisch, J. Mol. Struct. (THEOCHEM), 1-21, 461 (1999). [53] J.A. Gascon e V.S. Batista, Biophys. J., 87, 2931 (2004). [54] M. Svensson, S. Humbel, R.D.J. Froese, T. Matsubara, S. Sieber e K. Morokuma, J. Phys. Chem., 100, 19357 (1996). [55] M. Torrent, T. Vrenen, D.G. Musaev, K. Morokuma, O. Farkas e H.B. Schlegel, J. Am. Chem. Soc., vol. 124, N.2 (2002). [56] L.L. Ho e A.D. MacKerel Jr., J. Phys. Chem., 100, 4466 (1996). [57] D.S. Hartsough e K.M. Merz Jr., J. Phys. Chem., 99, 11266 (1995). [58] P.D. Lyne, A.J. Mulholland e W.G. Richards, J. Am. Chem. Soc., 117, 11345 (1995). [59] H. Li, A.W. Hains, J.E. Everts, A.D. Robertson e J.H. Jensen, J. Phys. Chem. B, 106, 3486 (2002). [60] M.A. Thompson, J. Am. Chem. Soc., 117, 11341 (1995). 292 BIBLIOGRAFIA [61] T. Matsubara, F. Maseras, N. Koga e K. Morokuma, J. Phys. Chem., 100, 2573 (1996). [62] L. Deng, T.K. Woo, L. Cavallo , P.M. Margl e T. Ziegler, J. Am. Chem. Soc., 119, 6177 (1997). [63] J. Gao, J. Phys. Chem., 96, 537 (1992). [64] J. Gao, J. Am. Chem. Soc., 116, 9324 (1994). [65] H. Liu, F. Muller-Plathe e W.F. van Gunsteren, J. Chem. Phys., 102, 1722 (1995). [66] P.A. Bash, M.J. Field, R.C. Davenport, G.A. Petsko, D. Ringe e M. Karplus, Biochem., 30, 5826 (1991). [67] L. Ridder, J.N. Harvey, I.M.C.M. Rietjens, J. Vervoort e A.J. Mulholland, J. Phys. Chem. B, 107, 2118 (2003). [68] M.C. Hutter, J.M. Hughes, J.R. Reimers e N.S. Hush, J. Phys. Chem. B, 103, 4906 (1999). [69] C.S. Carmer, B. Weiner e M. Frenklach, J. Chem. Phys., 99, 1356 (1993). [70] S. Skokov, C.S. Carmer, B. Weiner e M. Frenklach, Phys. Rev. B., 49, 5662 (1994). [71] K. Raghavachari e M. D. Halls, Mol. Phys., 102, 381 (2004). [72] Y. Joung, C. H. Choi e M. S. Gordon, J. Phys. Chem. B, 105, 4039 (2001). [73] H.S. Lee, C.H. Choi e M.S. Gordon, J. Phys. Chem. B, 109, 5067 (2005). [74] S.T. Bromley, S.A. French, A.A. Sokol, C.R.A. Catlow e P. Sherwood, J. Phys. Chem. B, 107, 7045 (2003). [75] C.H. Choi e M. S. Gordon, J. Am. Chem. Soc., 124, 6162 (2002). [76] K. Bolton, J. Mol. Struct. (Theochem), 632, 145 (2003). [77] Y.A. Mantz, F.M. Geiger, L.T. Molina e B.L. Trout, Chem. Phys. Lett., 348, 285 (2001).