Appunti per il corso di Meccanica quantistica Corso di Laurea in Fisica Computazionale Università di Udine Anno accademico 2009/2010 Paolo Giannozzi1 sulla base del software e delle note scritte da Furio Ercolessi1 e Stefano de Gironcoli2 1 Università di Udine - Dipartimento di Fisica 2 SISSA - Trieste Versione del: October 28, 2010 Contents Prefazione 1 1 Meccanica classica 1.1 Formulazione Lagrangiana e Hamiltoniana della meccanica 1.2 Un’applicazione classica: moto di un punto materiale . . . . 1.2.1 L’algoritmo di Størmer-Verlet . . . . . . . . . . . . . 1.3 Programma: newton . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Struttura del programma . . . . . . . . . . . . . . . 1.3.2 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 5 6 6 7 8 2 Introduzione all’equazione di Schrödinger 2.1 Verso la Meccanica Quantistica . . . . . . . . 2.1.1 Dualismo onda-particella: fotoni . . . 2.1.2 Quantizzazione dei livelli di energia . . 2.1.3 Dualismo onda-particella: elettroni . . 2.1.4 Principio di indeterminazione . . . . . 2.2 L’equazione di Schrödinger per una particella 2.2.1 L’equazione di Schrödinger dipendente 2.3 La particella libera . . . . . . . . . . . . . . . 2.4 Pacchetti d’onda . . . . . . . . . . . . . . . . 2.5 Potenziali modello . . . . . . . . . . . . . . . 2.5.1 Gradino di potentiale . . . . . . . . . 2.5.2 Barriera di potenziale . . . . . . . . . 2.5.3 Buca di potenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 10 11 11 12 12 13 15 16 18 18 19 20 . . . . . . . . . . . . dal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 L’equazione di Schrödinger unidimensionale: soluzione analitica e numerica 3.1 L’oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Unità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Soluzione e livelli energetici . . . . . . . . . . . . . . . . . 3.1.3 Energia di punto zero . . . . . . . . . . . . . . . . . . . . 3.1.4 Simmetria e parità . . . . . . . . . . . . . . . . . . . . . . 3.1.5 Confronto con la densità di probabilità classica . . . . . . 3.2 Meccanica quantistica e codici numerici: alcune considerazioni . 3.2.1 Energie cinetiche negative . . . . . . . . . . . . . . . . . . 3.2.2 Effetti della quantizzazione . . . . . . . . . . . . . . . . . i 23 23 24 24 26 26 27 28 28 28 3.3 Il metodo di Numerov . . . . . 3.3.1 Programma: harmonic0 3.3.2 Programma: harmonic1 3.3.3 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 31 32 33 4 Proprietà dell’equazione di Schrödinger 4.1 Ortonormalità delle funzioni d’onda . . 4.2 Sviluppo di una soluzione generica . . . 4.3 Valori medi . . . . . . . . . . . . . . . . 4.4 La formulazione matriciale . . . . . . . . 4.5 Regole di commutazione . . . . . . . . . 4.6 Quantità conservate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 35 37 38 39 41 42 5 Atomi con un elettrone 5.1 Equazione di Schrödinger in un campo centrale . 5.2 Il momento angolare . . . . . . . . . . . . . . . . 5.3 Autofunzioni del momento angolare . . . . . . . . 5.4 Separazione in parte radiale e angolare . . . . . . 5.4.1 Funzioni d’onda angolari . . . . . . . . . . 5.5 Il potenziale coulombiano . . . . . . . . . . . . . 5.6 La funzione d’onda radiale per atomi idrogenoidi 5.6.1 Densità radiale . . . . . . . . . . . . . . . 5.6.2 Stato fondamentale . . . . . . . . . . . . . 5.6.3 Comportamento vicino al nucleo . . . . . 5.6.4 Comportamento lontano dal nucleo . . . . 5.6.5 Numero di nodi . . . . . . . . . . . . . . . 5.7 Degenerazione accidentale e simmetria dinamica 5.8 Programma: hydrogen . . . . . . . . . . . . . . . 5.8.1 Griglia logaritmica . . . . . . . . . . . . . 5.8.2 Applicazione della teoria perturbativa . . 5.8.3 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 46 47 49 51 51 52 54 54 54 55 55 55 56 56 57 59 6 Metodi approssimati 6.1 Metodo perturbativo . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Perturbazioni con autovalori degeneri . . . . . . . . . . . 6.2 Perturbazioni dipendenti dal tempo: transizioni elettromagnetiche 6.2.1 Transizioni di dipolo . . . . . . . . . . . . . . . . . . . . . 6.3 Metodo variazionale . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Dimostrazione del principio variazionale (I) . . . . . . . . 6.3.2 Dimostrazione del principio variazionale (II) . . . . . . . . 6.3.3 Energia dello stato fondamentale . . . . . . . . . . . . . . 6.3.4 Il metodo variazionale in pratica . . . . . . . . . . . . . . 6.4 Problema secolare . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Sviluppo in funzioni ortonormali . . . . . . . . . . . . . . 6.4.2 Sviluppo in funzioni non ortonormali . . . . . . . . . . . . 6.5 Programma: hydrogen gauss . . . . . . . . . . . . . . . . . . . . 6.5.1 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . ii 60 60 62 62 64 65 66 67 67 68 68 69 71 73 74 6.6 6.7 Base di onde piane . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Programma: pwell . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.7.1 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . 76 7 Atomi a più elettroni 7.1 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Composizione di momenti angolari: la rappresentazione accoppiata 7.2.1 Esempio: singoletti e tripletti . . . . . . . . . . . . . . . . 7.2.2 Presenza di accoppiamento . . . . . . . . . . . . . . . . . 7.3 Particelle identiche: principio di indistinguibilità . . . . . . . . . 7.4 Operatori di permutazione . . . . . . . . . . . . . . . . . . . . . . 7.5 Caso di più particelle e sistemi composti . . . . . . . . . . . . . . 7.6 Determinanti di Slater . . . . . . . . . . . . . . . . . . . . . . . . 7.7 Atomi a due elettroni . . . . . . . . . . . . . . . . . . . . . . . . 7.8 Trattamento perturbativo dell’atomo di elio . . . . . . . . . . . . 7.9 Trattamento variazionale dell’atomo di elio . . . . . . . . . . . . 7.10 Programma: helium gauss . . . . . . . . . . . . . . . . . . . . . . 7.10.1 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Metodo di Hartree-Fock 8.1 Il metodo di Hartree . . . . . . . . . . . . . 8.1.1 Definizioni . . . . . . . . . . . . . . . 8.1.2 Equazioni di Hartree . . . . . . . . . 8.1.3 Significato del potenziale di Hartree 8.1.4 Campo autoconsistente . . . . . . . 8.1.5 Autovalori ed Energia di Hartree . . 8.2 Il metodo di Hartree-Fock . . . . . . . . . . 8.2.1 Potenziale colombiano e di scambio . 8.2.2 La densità di scambio . . . . . . . . 8.2.3 L’atomo di elio . . . . . . . . . . . . 8.3 L’energia di correlazione . . . . . . . . . . . 8.4 Programma: helium hf radial . . . . . . . . 8.4.1 Laboratorio . . . . . . . . . . . . . . 8.5 Programma: helium hf gauss . . . . . . . . 8.5.1 Laboratorio . . . . . . . . . . . . . . 9 Interazioni tra atomi 9.1 Approssimazione di Born-Oppenheimer . . 9.2 Superficie di Energia Potenziale . . . . . . . 9.3 Molecole biatomiche . . . . . . . . . . . . . 9.4 Solidi cristallini . . . . . . . . . . . . . . . . 9.4.1 Condizioni al Bordo Periodiche . . . 9.4.2 Teorema di Bloch . . . . . . . . . . . 9.4.3 Il potenziale vuoto . . . . . . . . . . 9.4.4 Soluzione per ll potenziale cristallino 9.4.5 Base di onde piane . . . . . . . . . . 9.5 Programma: periodicwell . . . . . . . . . . iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 78 79 80 80 80 82 82 83 84 85 86 88 90 91 91 91 92 94 94 95 95 97 98 99 100 101 102 102 103 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 . 104 . 105 . 106 . 107 . 108 . 108 . 109 . 110 . 111 . 111 9.5.1 Laboratorio . . . . . . . . . . . . . . . . . . . . . . . . . . 112 A Postulati e formalismo della meccanica quantistica A.1 Stato del sistema . . . . . . . . . . . . . . . . . . . . A.2 Osservabili e misura . . . . . . . . . . . . . . . . . . A.3 Osservabili compatibili e non . . . . . . . . . . . . . A.4 Rappresentazioni . . . . . . . . . . . . . . . . . . . . A.5 Rappresentazione di Schrödinger . . . . . . . . . . . A.6 Evoluzione temporale . . . . . . . . . . . . . . . . . A.7 Definizione generale di momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 . 113 . 113 . 115 . 115 . 116 . 118 . 119 B Formule utili 121 B.1 Trasformate di Legendre . . . . . . . . . . . . . . . . . . . . . . . 121 B.2 Gaussiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 B.3 Esponenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 C Algoritmi utili C.1 Ricerca degli zeri . . . . . . . . . . C.1.1 Metodo di bisezione . . . . C.1.2 Metodo di Newton-Raphson C.1.3 Metodo della secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 123 123 124 124 D Software utile 125 D.1 Compilatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 D.2 Gnuplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 D.3 BLAS e LAPACK . . . . . . . . . . . . . . . . . . . . . . . . . . 126 iv Prefazione Lo scopo del corso di Meccanica Quantistica nell’ambito del Corso di Laurea in Fisica Computazionale è quello di trasmettere gli elementi di base necessari alla risoluzione numerica di semplici problemi di meccanica quantistica (non relativistica). E’ in pratica una sorta di laboratorio computazionale della fisica della materia, in cui vengono delineati gli ingredienti di base utilizzati nei grossi calcoli delle proprietà di materiali, sia statici che dinamici (ossia con nuclei in movimento), che costituiscono una delle branche più importanti della fisica computazionale di oggi, e con notevole rilevanza per applicazioni di interesse tecnologico e industriale. I programmi forniti nell’ambito del corso sono degli spunti. Ci si aspetta che lo studente li analizzi, li faccia girare sotto varie condizioni, studi il loro comportamento al variare dell’input, e soprattutto cerchi sempre di interpretare il loro output dal punto di vista fisico. Molti homeworks chiederanno di modificare questi programmi, aggiungendo o modificando determinate funzionalità. Il software fornito è scritto in Fortran 90. Questo linguaggio sofisticato e complesso offre gestione dinamica della memoria, operazioni su array (vettori e matrici), possibilità di modularizzazione dei codici, pur mantenendo una larga compatibilità con il Fortran 77 e senza comprometterne l’efficienza. E’ bene ricordare che la fisica computazionale è nata ben prima che fossero inventati C, Pascal e altri linguaggi, per cui esiste una enorme mole di codici e librerie scritte in Fortran 77. Dato che il Fortran 90 non è molto noto, non ci sono obiezioni all’uso da parte dello studente di un altro linguaggio come il C se vi si sente più a suo agio. Una versione C di tutti i programmi è disponibile. Per eventuali approfondimenti sulla teoria della Meccanica Quantistica, esistono molti buoni libri di testo: per esempio il Griffith, lo Schiff, o i grandi classici Landau e Dirac. Per approfondimenti sull’aspetto più prettamente computazionale, si rimanda a testi quali il Thijssen, il Vesely, il Koonin. 1 Bibliografia D. J. Griffiths, Introduction to Quantum Mechanics, Cummings, 2004. L. I. Schiff, Quantum mechanics, McGraw-Hill, 1968. L. D. Landau e L. Lifšic, Fisica Teorica, vol.3: Meccanica Quantistica non Relativistica, Editori Riuniti, 1974. J. M. Thijssen, Computational Physics, Cambridge University Press, Cambridge, 1999. Vedere anche la pagina web dell’autore: http://www.tn.tudelft.nl/tn/People/Staff/Thijssen/comphy.html. F. J. Vesely, Computational Physics - An Introduction: Second Edition, Kluwer, 2001. Vedere anche le pagine dell’autore: http://www.ap.univie.ac.at/users/Franz.Vesely/cp0102/serious.html, contenenti parti del materiale del libro. S. E. Koonin e D. C. Meredith, Computational physics - Fortran Version, Addison-Wesley, 1990. Vedere anche la pagina web di Dawn Meredith: http://pubpages.unh.edu/˜dawnm/. 2 Chapter 1 Meccanica classica Questo capitolo contiene un breve richiamo della formulazione Lagrangiana e Hamiltoniana della meccanica, seguita da una semplice applicazione numerica della meccanica classica. La prima parte ha lo scopo di richiamare dei concetti di meccanica analitica che risultano assai utili in meccanica quantistica. La seconda parte vuole mostrare come si risolvono in pratica le equazioni del moto della meccanica classica con un algoritmo di integrazione numerica. Per approfondire l’argomento, in particolare la prima parte, si consiglia: H. Goldstein, Meccanica Classica, Zanichelli, 1980 L. D. Landau e L. Lifšic, Fisica Teorica, vol.1: Meccanica, Editori Riuniti, 1974. 1.1 Formulazione Lagrangiana e Hamiltoniana della meccanica La meccanica classica può essere riformulata in modi alternativi, perfettamente equivalenti alla formulazione ”tradizionale” basata sull’equazione di Newton, ma più comodi, eleganti e potenti. In particolare, la formulazione Hamiltoniana della meccanica introduce metodi e concetti che hanno un corrispettivo ed un’estensione naturale in meccanica quantistica. Il principio di Hamilton afferma che il moto del sistema, fra gli istanti t1 e t2 è tale per cui l’integrale di linea Z t2 I= Ldt (1.1) t1 assume un valore estremo (minimo o massimo) in corrispondenza della traiettoria del moto. La funzione L ≡ L(qi , q̇i ) è detta Lagrangiana ed è funzione delle coordinate generalizzate qi e delle rispettive derivate rispetto al tempo q̇i . Le coordinate generalizzate descrivono il sistema e sono legate alle normali coordinate spaziali da una legge di trasformazione: ri ≡ ri (q1 , .., qn , t), ṙi ≡ X ∂ri j ∂qj q̇j + ∂ri . ∂t (1.2) La Lagrangiana può in generale dipendere esplicitamente dal tempo ma nel seguito assumiamo che non lo faccia. 3 Per un sistema conservativo (in cui cioè le forze derivano da un potenziale) vale L = T − V , dove T e V sono l’energia cinetica e potenziale rispettivamente. Le qi e q̇i insieme determinano lo spazio delle fasi, ovvero tutti i possibili stati del sistema. Le coordinate generalizzate in molti casi coincidono con le coordinate usuali, e le loro derivate con le velocità usuali. Dal principio di Hamilton derivano le equazioni di Lagrange (e viceversa): d dt ∂L ∂ q̇i − ∂L = 0, ∂qi (1.3) che determinano il moto del sistema. Ovviamente queste sono equivalenti alle equazioni di Newton. Nella formulazione Hamiltoniana si preferisce esprimere il moto del sistema in termini delle qi e dei corrispondenti momenti generalizzati, pi , definiti come ∂L . ∂ q̇i pi = (1.4) Tramite una trasformazione matematica nota come trasformazione di Legendre (vedi appendice) si introduce l’Hamiltoniana del sistema H ≡ H(pi , qi ): H(pi , qi ) = X q̇i pi − L(qi , q̇i ), (1.5) i che determina il moto tramite le equazioni di Hamilton: ṗi = − ∂H(pi , qi ) . ∂qi q̇i = ∂H(pi , qi ) ∂pi (1.6) L’Hamiltoniana altri non è che l’energia del sistema: H = T +V . In particolare, per un sistema unidimensionale, l’Hamiltoniana è H(p, x) = p2 + V (x) ≡ T + V, 2m (1.7) il momento p altri non è che la quantità di moto (spesso chiamata anche impulso): p = mq̇. E’ facile verificare che le equazioni di Hamilton coincidono con quelle di Lagrange e di Newton. Da notare come coordinate e momenti (collettivamente indicate come variabili canoniche) siano considerate come variabili indipendenti, legate fra di loro solo tramite le equazioni di Hamilton. Meno usata della formulazione Lagrangiana in meccanica classica, la formulazione Hamiltoniana ha preso la sua rivincita in meccanica quantistica. In quest’ultima, l’Hamiltoniana da funzione che era diventa un onnipresente operatore e di conseguenza cambia sesso e perde la maiuscola, diventando semplicemente ”l’hamiltoniano”. Inoltre, il formalismo hamiltoniano introduce in meccanica classica una quantità, le parentesi di Poisson, il cui corrispettivo quanto-meccanico (il commutatore) è di importanza fondamentale. Le parentesi di Poisson [f, g] fra due funzioni f (qi , pi ) e g(qi , pi ) delle variabili canoniche sono definite come X ∂f ∂g ∂g ∂f − (1.8) [f, g] ≡ ∂qi ∂pi ∂qi ∂pi i 4 (la notazione è ovviamente mirata a mettere in evidenza la parentela con i commutatori) e godono delle seguenti proprietà: [f, f ] = 0, [g, f ] = −[f, g] [f, c] = 0, (1.9) (dove c è un numero che non dipende dalle qi e pi ) [qi , qj ] = [pi , pj ] = 0, [f, qi ] = − ∂f , ∂pi [qi , pj ] = δij [f, pi ] = ∂f . ∂qi (1.10) (1.11) Le equazioni di Hamilton possono essere espresse tramite le parentesi di Poisson: q̇i = [qi , H] , ṗi = − [pi , H] , (1.12) come pure la derivata temporale di una funzione delle variabili canoniche: df = [f, H] dt (1.13) Notare che questa esprime la dipendenza temporale tramite le equazioni del moto, da non confondersi con la dipendenza esplicita dal tempo (assente in questo caso nella funzione f ). 1.2 Un’applicazione classica: moto di un punto materiale Prima di iniziare a discutere applicazioni di meccanica quantistica, vogliamo presentare un esempio di risoluzione per via numerica di un semplice problema di meccanica classica. Lo scopo di questo esercizio è iniziare a familiarizzarci fin da subito con le tecniche per tradurre equazioni differenziali in codici di calcolo, appoggiandoci su di un esempio la cui teoria senz’altro conosciamo bene. Vogliamo ottenere la legge del moto di un punto materiale di massa m in una dimensione, soggetto ad un potenziale V (x). L’equazione differenziale che governa il moto del punto (ossia fornisce x(t)) date la posizione e la velocità iniziali, è la seconda legge di Newton − d2 x dV =m 2 dx dt (1.14) La soluzione di questa equazione è facile da ottenere analiticamente per speciali forme di V (x), come ad esempio nel caso dell’oscillatore armonico; ma in generale ottenere una soluzione analitica potrebbe risultare assai laborioso, o impossibile. Ad esempio, V (x) stesso potrebbe non essere dato in forma analitica, ma solo in forma di una tabella numerica. Ma, soprattutto, una volta che siamo in grado di sviluppare un metodo numerico, potremo estenderlo senza troppa difficoltà a casi più complessi e di interesse pratico molto maggiore, come ad esempio un sistema di molti punti materiali interagenti in tre dimensioni attraverso interazioni di coppia, o interazioni più complicate. 5 1.2.1 L’algoritmo di Størmer-Verlet La strategia generale per integrare la (1.14) è quella di suddividere l’intervallo temporale di interesse [0, T ] in N intervallini di ampiezza ∆t, sufficientemente piccoli da non commettere grossi errori approssimando la soluzione x(t) con il suo sviluppo in serie di Taylor fino ad un ordine relativamente basso, e integrare una equazione alle differenze finite per ottenere xn = x(tn ), dove tn = n∆t, n = 0 . . . N. Sviluppando in serie di Taylor attorno a xn in entrambe le direzioni: xn−1 = xn − ẋn ∆t + (1/2)ẍn (∆t)2 − (1/6)ẍ˙ n (∆t)3 + O[(∆t)4 ] xn+1 = xn + ẋn ∆t + (1/2)ẍn (∆t)2 + (1/6)ẍ˙ n (∆t)3 + O[(∆t)4 ] (1.15) (la notazione ẋ indica la derivazione rispetto al tempo) e sommandole fra loro si ottiene (1.16) xn+1 = 2xn − xn−1 + ẍn (∆t)2 + O[(∆t)4 ] Ora utilizziamo la legge di Newton (1.14), o 1 dV ẍn = − ≡ fn m dx x=xn (1.17) xn+1 = 2xn − xn−1 + fn (∆t)2 + O[(∆t)4 ]. (1.18) ottenendo Questa equazione ci permette, nota la posizione ai tempi n − 1 e n e la forza al tempo n, di ottenere una stima della posizione al tempo n + 1, e quindi fornisce un algoritmo (detto algoritmo di Størmer-Verlet) per ottenere iterativamente la traiettoria x(t) del punto sotto forma di una tabella numerica. 1.3 Programma: newton Il programma newton.f901 (oppure la sua versione C, newton.c2 ) implementa l’algoritmo di Størmer-Verlet per un punto materiale soggetto ad un potenziale V (x). Nel programma è definito in particolare 2π (1.19) 5 il cui andamento nella regione |x| ≤ 6 è indicato in fig. 1.1. Si tratta di un potenziale parabolico (come se fosse quello di un oscillatore armonico), ma ”modulato” attraverso un termine oscillante con una periodicità pari a 5 unità di lunghezza. Non è un potenziale famoso! È solo un esempio, scelto in modo assolutamente arbitrario, di un potenziale con più posizioni di equilibrio, per rendere le simulazioni più interessanti. Il potenziale è definito in una subroutine separata nel programma, e può essere variato facilmente senza dover modificare il corpo principale contenente l’algoritmo di integrazione. Per semplicità si assume inoltre una massa unitaria. E’ facile vedere che definire una massa diversa è equivalente a moltiplicare il time step ∆t per un √ fattore m, e quindi tale assunzione non comporta alcuna perdita di generalità. V (x) = x2 [2 − cos(kx)] 1 2 , k= http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/newton.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/newton.c 6 70 V(x) 60 50 40 30 20 10 0 -6 -4 -2 0 2 4 6 Figure 1.1: Potenziale V(x) definito in newton. 1.3.1 Struttura del programma Come indicato sopra, il potenziale V (x) è definito dalla subroutine potential separata, e quindi è in un certo senso esterno al programma principale. Per un dato x, potential ritorna il potenziale V (x) e la corrispondente forza F (x) = −dV /dx. Solo quest’ultima è, strettamente parlando, necessaria per portare avanti l’integrazione; ma conoscere anche il potenziale permette di verificare la legge di conservazione dell’energia passo per passo. Il programma chiede i seguenti dati di input: time step ∆t, posizione iniziale x1 , energia totale E1 , numero di time steps (verrà seguita l’evoluzione temporale per un tempo totale N ∆t), e nome del file di uscita (è anche possibile convogliare l’output sullo standard output). L’energia totale serve a calcolare la velocità iniziale v1 , secondo 1 E1 = mv12 + V (x1 ) 2 (1.20) Naturalmente è necessario che sia E1 ≥ V (x1 ) (se cosı̀ non è il programma si arresta). È stato scelto di usare l’energia, piuttosto che direttamente la velocità iniziale, perchè cosı̀ è immediatamente chiaro quale regione del potenziale verrà esplorata nel corso della simulazione: quella in cui V (x) ≤ E1 . I punti in cui V = E1 sono i punti di inversione, in cui la velocità è nulla e la particella inverte la sua direzione di moto. Inoltre, come ben noto l’energia totale 1 E = mv 2 + V (x) 2 (1.21) è supposta essere una costante del moto. La conservazione dell’energia costituisce per questi problemi un eccellente strumento di verifica che non vi siano errori grossolani o siano stati dati input errati, come un ∆t troppo grande. Assegnare la velocità iniziale significa, nell’ottica dell’algoritmo di StørmerVerlet, assegnare la posizione al ”tempo precedente”. Tale algoritmo però opera su posizioni ed accelerazioni. La velocità alla posizione n può essere in generale 7 ottenuta come vn = xn+1 − xn−1 2∆t (1.22) con un errore dell’ordine di (∆t)2 (come subito si vede dalle (1.15), sottraendo un’equazione dall’altra). Tuttavia, questa formula coinvolge tre punti e come condizioni iniziali noi abbiamo a disposizione la sola posizione e velocità iniziali al medesimo punto x1 . Si è allora scelto di utilizzare l’espressione v1 ' x1 − x0 ∆t (1.23) per definire la ”posizione precedente” x0 a partire da x1 e v1 . Se x0 e x1 fossero dati, ad una tale formula sarebbe associato un errore dell’ordine di ∆t nella velocità, quindi non si tratta di una buona stima. Tuttavia, quello che al più succede è che una volta che la simulazione è partita, l’energia totale si assesterà ad un valore lievemente diverso da quello da noi richiesto. In uno schema più raffinato, si potrebbe pensare di effettuare una correzione al secondo passo di integrazione per ottenere una migliore corrispondenza fra energia richiesta e energia effettiva. La velocità iniziale è sempre definita positiva dal programma, ossia il punto inizia a muoversi verso gli x positivi. Data la simmetria del potenziale, questa non è una limitazione (invertire la velocità è equivalente a lasciarla invariata e cambiare il segno della coordinata di posizione iniziale). Il loop sul numero di time steps è la parte centrale del programma. Il punto su cui va posta particolare attenzione è il trasferimento dell’informazione della ”posizione precedente” da una iterazione alla successiva, effettuato usando tre variabili x, xprev, xprevsav. A fini di controllo sulla conservazione dell’energia, viene calcolata anche la velocità e l’energia cinetica. Per ottenere una precisione accettabile, le velocità vengono definite utilizzando la (1.22). Questo però comporta che per definire vn è necessario conoscere xn+1 , e quindi che alla conclusione di ogni iterazione le velocità calcolate sono riferite all’iterazione precedente, ossia alla posizione che aveva la particella all’inizio dell’iterazione, prima di essere spostata. I dati emessi sul file di output sono, nell’ordine, il numero dell’iterazione, la posizione, la velocità, la forza, l’energia cinetica, l’energia potenziale e l’energia totale: tutte riferite alla posizione che aveva la particella all’inizio dell’iterazione. 1.3.2 Laboratorio Ecco alcuni spunti per esperimenti numerici che si possono fare con questo codice. Un valore ”sicuro” per il time step è attorno a 0.01. • Graficare le varie quantità in funzione del tempo ed interpretarle. • Graficare le quantità tra loro (molto semplice con gnuplot) (vedere Appendice D.2), ad esempio la velocità in funzione della posizione (è una vista nello spazio delle fasi). 8 • Confrontare il risultato di un input 0.005/0/28.36/3000 con un input 0.005/0/28.35/3000 (un’ispezione del potenziale può anticipare il risultato...) • Provare ad aumentare il ∆t. Tenere sotto controllo la conservazione dell’energia e le traiettorie nello spazio delle fasi. Discutere i risultati con l’input 0.2/0/27/10000. Ed ecco inoltre spunti per modifiche del codice: • Definire altri potenziali. • Immagazzinare il potenziale in una tabella numerica, e effettuare interpolazione in questa tabella durante l’integrazione (molto utile nel caso in cui il calcolo del potenziale sia dispendioso: in questo modo basta farlo una volta per tutte). • Introdurre una forza di attrito (F = −γ ẋ). • Introdurre una seconda massa identica alla prima, ed assumere che le due masse siano accoppiate tra loro, ad esempio in modo armonico: V (x2 − x1 ) = (1/2)k(x2 − x1 )2 , e che possano ”incrociarsi”. • Introdurre una seconda massa identica alla prima, e lasciare che si muovano indipendentemente, facendole tuttavia collidere elasticamente quando entrano in contatto. 9 Chapter 2 Introduzione all’equazione di Schrödinger Questo capitolo ci darà una prima presa di contatto con la meccanica quantistica ”vera”, e in particolare introdurrà l’oggetto matematico che il più delle volte finiremo con il calcolare per ottenere le proprietà di un sistema microscopico: la funzione d’onda, soluzione dell’equazione di Schrödinger. 2.1 Verso la Meccanica Quantistica Ricapitoliamo qui, senza nessuna pretesa di accuratezza storica, i principali risultati che portarono fra il 1900 e il 1930 all’introduzione della Meccanica Quantistica nella forma che conosciamo adesso. 2.1.1 Dualismo onda-particella: fotoni L’effetto fotoelettrico, lo spettro di radiazione del corpo nero e l’effetto Compton dimostrano che la radiazione elettromagnetica di frequenza ν si comporta come se fosse costituita da fotoni, particelle di massa nulla, energia E = hν e quantità di moto p = E/c; la costante h ha le dimensioni di un’azione (energia per tempo, o quantità di moto per posizione) ed è detta costante di Planck. Tuttavia queste particelle continuano a comportarsi sotto certi aspetti come onde, da cui il cosidetto dualismo onda-particella. Entrambe gli aspetti, corpuscolare e ondulatorio, sembrano presenti allo stesso tempo ed entrambe necessari per spiegare il comportamento della radiazione. Esperimenti di interferenza con fenditure sono particolarmente istruttivi e sorprendenti a questo riguardo. In un tipico setup sperimentale, una sorgente luminosa monocromatica emette un fascio di luce che colpisce uno schermo con due fenditure; la luce attraversa le fenditure e colpisce un altro schermo piazzato ad una certa distanza dietro al primo. Su questo si osservano le cosidette frange di interferenza. La spiegazione del fenomeno in termini di onde è banale: a seconda della differenza di cammino ottico, le onde provenienti dalle due fenditure si sommano in fase o in controfase, dando origine a zone chiare e scure alternate. La spiegazione in termini di fotoni è quantomeno problematica, 10 tanto più che si possono mostrare (sperimentalmente!) due aspetti notevoli del problema: • l’interferenza si realizza anche se l’intensità della luce è cosı̀ debole da avere (in media) un solo fotone presente sul percorso fra la sorgente e lo schermo su cui si osservano le frange di interferenza; • l’interferenza sparisce se si tappa una delle due fenditure, o anche se si cerca in qualunque modo di misurare ”da quali delle due fenditure è passato il fotone”. E’ quindi necessario assumere che un fotone ”interferisca con se stesso”, ma solo se non lo costringiamo a rivelare la sua natura corpuscolare con una ”misura” che ci dica ”da dove è passato”. Ovvero: natura ondulatoria e corpuscolare del fotone sembrano inestricabilmente legate. 2.1.2 Quantizzazione dei livelli di energia Il problema della stabilità dell’atomo e della forma degli spettri atomici ricevettero una prima soluzione con la cosiddetta ”vecchia meccanica quantistica” di Niels Bohr. Bohr postulò che l’atomo fosse stabile solo per certi valori discreti dell’energia; l’assorbimento o l’emissione di un fotone di frequenza ν potevano avvenire solo in seguito ad una transizione fra tali valori discreti (livelli di energia) in cui la differenza di energia fosse pari ad hν. Nel modello di Bohr, le orbite permesse nell’atomo sono quelle per cui vale la relazione Z l= pdq = nh (2.1) orbita ovvero il momento angolare ha solo valori discreti, multiplo della costante di Planck. Tale idea può essere estesa ad altri problemi semplici: l’oscillatore armonico, la buca di potenziale, etc. Il concetto di quantizzazione dei livelli di energia e la presenza di livelli discreti risolve inoltre anche molti enigmi sui calori specifici (un altro vecchio problema della meccanica classica). La vecchia meccanica quantistica si dimostrò quindi un’intuizione vincente, ma rimaneva una teoria basata su assunzioni ad hoc e di difficile estensione a sistemi un minimo complicati. 2.1.3 Dualismo onda-particella: elettroni La presenza della costante di Planck sia nella relazione energia-frequenza dei fotoni che nella condizione di Bohr suggerisce che h sia una costante universale e fondamentale non solo per i fotoni ma anche per le particelle. Inoltre la condizione di Bohr può essere riscritta sotto una forma che è molto suggestiva della presenza di un carattere ondulatorio anche nelle particelle: per orbite circolari di circonferenza L, pL = nh, ovvero L = nh/p = nλ. La lunghezza λ ha la stessa definizione della lunghezza d’onda di un fotone di quantità di moto p. La condizione di Bohr diventa quindi come la condizione di risonanza per le onde: il numero di ”lunghezze d’onda” che stanno su di una circonferenza è 11 intero. De Broglie suggerı̀ che in generale si può associare un’onda di lunghezza d’onda λ = h/p ad una particella di quantità di moto p. Il significato preciso di tale ”associazione” sarà chiarito in seguito. Il dualismo onda-particella prende cosı̀ un aspetto ”simmetrico”: non solo le onde hanno un carattere di particella, ma anche le particelle hanno un carattere di onda. La prova finale del carattere ondulatorio associato alle particelle è data dall’osservazione di un fenomeno tipicamente ondulatorio quale la diffrazione di Bragg in fasci di particelle. Questo fu realizzato nel 1927 da Davisson e Gerner con fasci di elettroni. Adesso sappiamo che la diffrazione di Bragg di particelle è osservabile persino con fasci di atomi di Elio. 2.1.4 Principio di indeterminazione Una conseguenza del dualismo onda-particella è una limitazione intrinseca alla precisione delle misure, in particolare alla possibilità di misurare contemporaneamente quantità di moto e posizione di una particella con precisione arbitraria. Per determinare la seconda serve osservare la particella con luce di lunghezza d’onda sempre più piccola; ma questa avrà un’energia associata sempre più grande e perturberà la quantità di moto della particella. Visto in un altro modo: se le particelle hanno anche un carattere ondulatorio, le si possono pensare come dei ”pacchetti d’onda”, sovrapposizione di onde monocromatiche; ma un pacchetto d’onda tanto più è localizzato nello spazio, tanto più ampio è nello spazio reciproco (che è poi quello delle quantità di moto, come vedremo). Heisenberg formalizzò questo aspetto nel principio, o pi`‘u esattamente, relazione di indeterminazione: per il prodotto fra l’incertezza, sulla posizione ∆x e sulla quantità di moto ∆px , vale la diseguaglianza ∆x∆px ≥ h̄/2, dove h̄ = h/2π. 2.2 L’equazione di Schrödinger per una particella Abbiamo visto nella sezione precedente quale fenomenologia la Meccanica Quantistica debba poter spiegare. Un passo avanti decisivo fu compiuto da Schrödinger, che estese e formalizzò l’idea di ”onda associata ad una particella” con l’introduzione della funzione d’onda. La funzione d’onda è determinata come soluzione di un’equazione differenziale, l’equazione di Schrödinger, che ammette soluzione solo per determinati valori dell’energia, corrispondenti ai livelli energetici della particella. Il quadrato della funzione d’onda determina la probabilità di trovare la particella in una determinata posizione, in seguito ad una misura. La posizione della particella è quindi descritta in modo probabilistico: data una funzione d’onda, sappiamo qual è la probabilità che la particella sia in un certo punto, ma non ”dove sta esattamente”. Consideriamo per prima l’equazione di Schrödinger indipendente dal tempo per un sistema particolarmente semplice: una particella in un potenziale unidimensionale V (x). L’equazione ha la forma seguente: − h̄2 d2 ψ + V (x)ψ(x) = Eψ(x), 2m dx2 12 (2.2) dove ψ(x) è la funzione d’onda (in generale complessa). Da dove scappa fuori? Uno dei postulati della meccanica quantistica è che la quantità di moto lungo la direzione x è rappresentata dall’operatore differenziale: p = −ih̄ d dx (2.3) Possiamo quindi riscrivere la (2.2) come " # p2 + V (x) ψ(x) = Eψ(x). 2m (2.4) L’operatore fra parentesi quadre a sinistra rappresenta quindi una vecchia conoscenza: è l’Hamiltoniano del sistema, H = p2 /2m + V . Ciò ci permette di identificare E come l’energia totale (cinetica+potenziale) del sistema. L’equazione non ha necessariamente soluzioni fisicamente accettabili (ovvero non divergenti) per qualunque valore di E: i valori di di E per i quali una soluzione esiste rappresentano quindi i livelli di energia ammessi. Notiamo come nella (2.4) l’operatore H applicato alla soluzione ψ(x) produce la ψ(x) medesima, moltiplicata per una costante. Questo si riflette nella seguente terminologia: la soluzione dell’Eq.(2.2) è detta autofunzione dell’Hamiltoniano, il corrispondente valore di E è detto autovalore. Nei prossimi capitoli vedremo in modo più chiaro il perché di questa terminologia proveniente dall’algebra lineare. La funzione d’onda è definita a meno di una costante arbitraria. Si usano di solito funzioni d’onda normalizzate: Z |ψ(x)|2 dx = 1. (2.5) L’energia E è il valore di aspettazione dell’operatore H sullo stato definito da ψ, cioè: Z E= " # p2 ψ (x) + V (x) ψ(x)dx = 2m ∗ Z ψ ∗ (x)Hψ(x)dx. (2.6) Per funzioni d’onda non normalizzate: R E= ψ ∗ (x)Hψ(x)dx R . |ψ(x)|2 dx (2.7) In generale, quanto sopra si applica a qualunque operatore f (x, p), in cui p è sostituito dall’operatore differenziale (refqdm). Si noti che H è un operatore: un oggetto che agisce su di una funzione e ha come risultato un’altra funzione, in questo caso. Non è lecito spostare la ψ da destra a sinistra di H o viceversa !! 2.2.1 L’equazione di Schrödinger dipendente dal tempo In generale, l’equazione di Schrödinger deve tenere conto anche della dipendenza temporale. L’equazione dipendente dal tempo ha la forma: − h̄2 ∂ 2 Ψ(x, t) ∂Ψ(x, t) + V (x, t)Ψ(x, t) = ih̄ 2 2m ∂x ∂t 13 (2.8) dove Ψ(x, t) è la funzione d’onda. Nel caso importante in cui il potenziale non dipenda esplicitamente dal tempo: V (x, t) = V (x), ci si può ricondurre alle soluzioni dell’equazione indipendente dal tempo, Eq.(2.2): vediamo come. Scriviamo la Ψ(x, t) come prodotto di una funzione di solo x e una di solo t: Ψ(x, t) = ψ(x)f (t) (2.9) Sostituendo la (2.9) nella (2.8) e dividendo per ψ(x)f (t) si trova − 1 h̄2 d2 ψ(x) ih̄ df + V (x) = 2 ψ(x) 2m dx f (t) dt (2.10) In questa equazione il membro sinistro dipende solo da x, e quello destro solo da t. Entrambi i membri devono allora essere uguali ad una costante, che chiamiamo E. Otteniamo cosı̀ due equazioni: quella spaziale è appunto la (2.2), mentre quella temporale è iE df = − f (t) dt h̄ (2.11) f (t) = Ce−iEt/h̄ (2.12) la cui soluzione è banalmente dove C è una costante (determinata dalla normalizzazione). Si tratta di un punto nello spazio complesso in rotazione attorno all’origine con frequenza angolare E/h̄. Abbiamo quindi trovato che ad ogni soluzione ψn (x) della (2.2), corrispondente a un certo valore di En , corrisponde anche una soluzione della (2.8) Ψn (x, t) = ψn (x)e−iEn t/h̄ (2.13) Questa soluzione è uno stato stazionario, perchè |Ψn (x, t)|2 = |ψn (x)|2 non dipende dal tempo. Ψn (x, t) data dalla (2.13) non è una soluzione generale dell’equazione di Schrödinger dipendente dal tempo (2.8). Tuttavia, si può dimostrare che l’insieme di tutte le soluzioni possibili è costituito dalle combinazioni lineari delle autofunzioni dell’energia, ossia qualsiasi soluzione Ψ(x, t) è sempre esprimibile come una sovrapposizione di stati stazionari: Ψ(x, t) = X cn Ψn (x, t). (2.14) n Questo è un risultato importante: data una funzione d’onda Ψ(x, t0 ) che si sa essere una soluzione valida ad un certo istante t0 , la sua evoluzione temporale può essere ottenuta facilmente se si riesce a svilupparla in stati stazionari al tempo t0 secondo la (2.14). La soluzione numerica diretta [ossia operando nello spazio (x, t)] dell’equazione (2.8) è in generale un problema difficile, che porta spesso a instabilità numeriche. Quasi sempre l’evoluzione temporale di una funzione d’onda non corrispondente ad uno stato stazionario viene perciò studiata decomponendola in autofunzioni dell’energia—la cui evoluzione temporale è data dalla (2.13)—secondo la (2.14). Tuttavia, nel caso generale in cui il potenziale dipende dal tempo la separazione delle variabili non è possibile, e il problema va quindi affrontato risolvendo direttamente la (2.8). 14 2.3 La particella libera Consideriamo una particella libera in una dimensione, la cui equazione di Schrödinger dipendente dal tempo è (dalla (2.8) per V (x) = 0): ∂Ψ(x, t) h̄2 ∂ 2 Ψ(x, t) = ih̄ (2.15) 2m ∂x2 ∂t La soluzione di questa equazione, come facilmente si vede, sono le onde piane: − Ψ(x, t) = Cei(±kx−ωt) (2.16) dove C è una costante (scelta in modo da normalizzare la funzione correttamente), e k e ω sono fra loro legati dalla relazione h̄2 k 2 = h̄ω (2.17) 2m E può assumere qualsiasi valore reale positivo. Non vi è quantizzazione: l’energia di una particella libera può avere qualsiasi valore. Notare come esistano due diverse funzioni d’onda per ogni valore di E: nel gergo della Meccanica Quantistica, si dice che ogni autovalore è due volte degenere. Come sappiamo, potevamo anche considerare l’equazione di Schrödinger indipendente dal tempo per lo stesso problema E= − h̄2 d2 ψ = Eψ(x) 2m dx2 (2.18) ψ(x) = Ce±ikx (2.19) e ottenere una soluzione dove E = h̄2 k 2 /2m, e poi dire, applicando la (2.13), che Ψ(x, t) = ψ(x)e−iEt/h̄ (2.20) Il risultato è chiaramente identico. La (2.16) e la (2.20) rappresentano un’onda che si propaga con velocità v = ω/k = h̄k/2m. La loro forma può lasciare perplessi. In primo luogo, la funzione è delocalizzata in modo uniforme su tutto lo spazio: |Ψ(x, t)| = 1. Osserviamo però che la (2.16), di cui scegliamo la soluzione con segno positvo. è un’autofunzione dell’operatore quantità di moto, definito in (2.3), con autovalore h̄k: d (2.21) pΨ(x, t) ≡ −ih̄ Ψ(x, t) = h̄kΨ(x, t). dx Per analogia con l’equazione di Schrödinger, ciò implica che con questa funzione d’onda la quantità di moto ha un valore ben definito h̄k, e che quindi la sua indeterminazione è nulla: ∆p = 0. Torneremo nel Cap.A su questo aspetto. La relazione di indeterminazione ci dice allora che la posizione è completamente indeterminata: ∆x = ∞. Non è quindi preoccupante che la nostra funzione d’onda Rsia uniformemente delocalizzata; tuttavia ciò la rende non normalizzabile: |Ψ(x, t)|dx → ∞. Dovremo abituarci a convivere con oggetti la cui corretta definizione matematica passa per una procedura di limite. In questo caso, potremmo considerare la particella libera come limite per L → ∞ di una particella in una scatola di dimensioni L, con la condizione ψ(x + L) = ψ(x) (condizioni periodiche ai bordi). 15 2.4 Pacchetti d’onda Come abbiamo visto, la soluzione (2.16) per la particella libera non somiglia molto al moto di una particella libera classica, in quanto: 1. l’ampiezza della (2.16) è costante; 2. se la quantità di moto classica p deve corrispondere a h̄k, la velocità dell’onda sembra essere la metà di ciò che ci si aspetterebbe. Per poter ottenere un limite classico sensato, dobbiamo introdurre il concetto di pacchetto d’onde, e assumere che il moto classico si ottenga sommando fra loro molte onde piane del tipo (2.16), anzichè considerando un’onda sola. Proviamo a considerare per un momento la sola parte spaziale (non è una limitazione: è la soluzione della corrispondente equazione di Schrödinger indipendente dal tempo, e conosciamo il suo legame (2.13) con la soluzione completa), e ipotizziamo una soluzione oscillante come un’onda piana con un certo vettore d’onda k0 , ma localizzata nello spazio in una regione di lunghezza L: ψ(x) = eik0 x se |x| ≤ L/2 = 0 se |x| > L/2 (2.22) Ci chiediamo se la (2.22) è una soluzione dell’equazione (2.18). Per fare questo, appoggiamoci sulla teoria delle trasformate di Fourier, secondo cui qualunque ψ(x) può essere espressa in termini di uno sviluppo in onde: Z +∞ ψ(x) = F (k)eikx dk (2.23) −∞ dove le ampiezze F (k) si possono ottenere da una ψ(x) mediante una trasformata inversa, Z 1 +∞ F (k) = ψ(x)e−ikx dx (2.24) 2π −∞ Nel nostro caso, la forma particolare (2.22) che abbiamo ipotizzato dà F (k) = 1 2π Z L/2 e−i(k−k0 )x dx = −L/2 L sin[(k − k0 )L/2] 2π (k − k0 )L/2 (2.25) Come noto, la funzione sin y/y ha un picco di ampiezza 1 a y = 0, si annulla per y = ±π, e presenta altre oscillazioni di ampiezza molto inferiore al picco principale, che decadono come 1/y al crescere di y. Pertanto F (k) ha un picco di altezza massima L/2π e larghezza a metà altezza approssimativamente ∆k ∼ 2π/L. Abbiamo quindi trovato che è possibile costruire una soluzione localizzata e oscillante con numero d’onda k0 , ma per fare questo dobbiamo sovrapporre un insieme di onde piane con numero d’onda centrato attorno a k0 ma con una dispersione ∆k. La (2.22) descrive pertanto una particella quantistica la cui posizione è determinata con una incertezza ∆x ∼ L, e la cui quantità di moto è determinata con una incertezza ∆p = h̄∆k ∼ h/L. Abbiamo quindi ∆x∆p ∼ h, che è l’espressione del principio di indeterminazione. Il problema di una singola onda 16 piana è che la sua quantità di moto è determinata esattamente, e questo rende la posizione totalmente indefinita. Analoghe considerazioni possono essere effettuate per quanto riguarda la variabile temporale. In questo caso si effettuano trasformate di Fourier tra la variabile temporale e lo spazio delle frequenze. Se un treno d’onde ha una durata finita complessiva T (che sarà quindi il ∆t) ed effettua N oscillazioni, la precisione nella determinazione della sua frequenza è circa pari a 1 oscillazione, ossia 1 2π/ω0 ∆ω ∼ (2.26) = ω0 N T da cui ∆t∆ω ∼ 2π (2.27) ovvero l’indeterminazione nel tempo e quella nell’energia sono legate da ∆t∆E ∼ h. Il limite classico della meccanica quantistica passa quindi necessariamente attraverso i pacchetti d’onda per poter confinare la particella in una regione finita. Va notato che alla dispersione in k corrisponderà anche una dispersione in energia. Ogni componente k soddisfa all’equazione di Schrödinger indipendente dal tempo per l’energia E = h̄2 k 2 /2m. Le componenti si sommano solo dopo aver moltiplicato ciascuna di esse per il fattore di fase dipendente dal tempo, secondo la (2.20). Questo fa sı̀ che l’aspetto del pacchetto possa in generale variare nel tempo. Occupiamoci allora della seconda questione relativa alla velocità. Immaginiamo di costruire un semplice pacchetto costituito da due sole onde, una di numero d’onda k0 − δk e una di numero d’onda k0 + δk, dove δk è piccolo. Le frequenze angolari corrispondenti (attraverso la 2.17) saranno ω0 −δω e ω0 +δω. Ψ(x, t) = ei(k0 −δk)x e−i(ω0 −δω)t + ei(k0 +δk)x e−i(ω0 +δω)t = ei(k0 x−ω0 t) [2 cos(δkx − δωt)] (2.28) ossia un’onda piana di numero d’onda k0 modulata da un fattore oscillante con un numero d’onda assai più piccolo, ossia con una lunghezza d’onda molto più grande. Questo è un inviluppo analogo a quello che dà luogo ai battimenti in acustica. L’inviluppo si muove con una velocità diversa da quella dell’onda che contiene. Possiamo trovare la sua velocità seguendo ad esempio lo spostamento nel tempo del massimo corrispondente a un argomento nullo del coseno: δkx − δωt = 0 ossia (2.29) dω (2.30) dk La quantità vg è detta velocità di gruppo. Dato un pacchetto d’onde qualsiasi, per ogni coppia di componenti vicine si può pensare che valga la (2.30), che quindi rappresenta la velocità del pacchetto stesso. Nel limite classico, è la velocità di gruppo che diventa la velocità della particella classica. Dalla (2.17) si ha subito infatti h̄k vg = (2.31) m x = vg t , 17 vg = che è quanto ci si aspetta. Nel caso di una particella libera, la velocità del pacchetto è quindi doppia rispetto a quella dell’onda, e corrisponde al limite classico. Da notare infine che il pacchetto si delocalizza nel tempo perchè ciascuna delle sue componenti k si propaga con una velocità ω/k diversa da quella delle altre componenti. Affinchè il pacchetto non si degradi, occorrerebbe che ω/k fosse una costante. Questo è in effetti il caso delle onde elettromagnetiche nel vuoto, ma non delle onde associate a particelle con massa finita. 2.5 Potenziali modello Consideriamo qualche caso di potenziale semplice. I casi seguenti potranno sembrare artificiosi e di dubbio interesse, ma in realtà molti sistemi fisici sono descrivibili in modo approssimato con potenziali molto semplici. 2.5.1 Gradino di potentiale Consideriamo il seguente potenziale a gradino: V (x) = 0 per x < 0, V (x) = W per x > 0 (W > 0). Si presenta subito una difficoltà: cosa succede alla funzione d’onda nel punto di discontinuità, x = 0, del potenziale? La risposta è nota dalla teoria matematica, ma possiamo darne una ”fisica” considerando il potenziale discontinuo come limite di potenziali continui che passano da V (0) = 0 a V () = W per → 0. Riscriviamo l’equazione di Schrödinger come: ψ 00 (x) = 2m (V (x) − E) ψ(x) h̄2 (2.32) da cui si ricava l’ovvio risultato che la derivata seconda della funzione d’onda è discontinua in x = 0. Integriamo fra x = 0 e x = : ψ 0 () − ψ 0 (0) = 2m h̄2 Z (V (x) − E) ψ(x)dx. (2.33) 0 Siccome sia V (x) che ψ(x) sono finiti nell’intervallo (0, ), il secondo membro tende a 0 per → 0. Quindi ψ 0 () → ψ 0 (0). Analogamente si dimostra la continuità di ψ(x) intorno a x = 0. Queste sono le condizioni da imporre ovunque sia presente un gradino (finito) di potenziale. Per risolvere il problema, si devono distinguere tre intervalli di energia: 0) E < 0: non esistono soluzioni, o più esattamente, le sole soluzioni sono esponenziali reali, che divergono e quindi non sono fisiche. 1) E > W : le soluzioni sono onde piane, ψ(x) = Aeikl x + Be−ikl x , √ x < 0, kl = ψ(x) = Ceikr x + De−ikr x , x > 0, kr = 2mE/h̄; (2.34) q 2m(E − W )/h̄.(2.35) Le condizioni di continuità a x = 0 ci danno A+B = C +D (2.36) kr (A − B) = kl (C − D). (2.37) 18 Abbiamo quindi quattro incognite e due condizioni, più la normalizzazione (nel nostro caso, arbitraria). Rimane quindi una costante indeterminata. In effetti, ci sono due soluzioni per ogni valore di energia e quindi ogni combinazione lineare delle due è una soluzione accettabile. Possiamo per esempio selezionale la soluzione corrispondente ad un’onda incidente da sinistra e trasmessa a destra (D = 0). In questo caso, si trova √ √ B E− E−W C B √ =√ =1+ . , (2.38) A A A E+ E−W 2) 0 < E < W : le soluzioni sono onde piane per x < 0, onde evanescenti per x > 0: √ ψ(x) = Aeikl x + Be−ikl x , x < 0, kl = 2mE/h̄; (2.39) ψ(x) = Ce−kr x , x > 0, kr = q 2m(W − E)/h̄. (2.40) L’esponenziale con il segno opposto per x > 0 è ovviamente non accettabile! Le condizioni di continuità a x = 0 ci danno kr (A − B) = −kl C A + B = C, da cui √ √ B E−i W −E √ = √ , A E+i W −e B C =1+ . A A (2.41) (2.42) In questo caso c’è una sola soluzione per ogni valore di E: l’autovalore è non degenere (cosa prevista dal teorema di non degenerazione, valido in sistemi unidimensionali). Da notare come nell’intervallo 2 la funzione d’onda nella regione x > 0, classicamente inaccessibile, è evanescente e rapidamente tendente a zero, ma comunque non nulla: esiste una probabilità piccola ma finita di trovare la particella in una zona dove ”non dovrebbe stare”. E’ un fenomeno intrinsecamente quantomeccanico, di grande rilevanza. 2.5.2 Barriera di potenziale Consideriamo ora una barriera di potenziale: V (x) = W per |x| < a/2, V (x) = 0 per x < −a/2 e x > a/2. In questo caso si richiedono due operazioni di ”matching” della funzione d’onda, a x = −a/2 e x = a/2. Per gli intervalli di energie 0 e 1 sopra introdotti, i risultati sono del tutto analoghi al caso del gradino: nessuna soluzione e due soluzioni degeneri per ogni E, rispettivamente. Più interessante il caso dell’intervallo 2. Consideriamo una soluzione che si propaga verso destra nella regione x < −a/2. Tale soluzione diventerà un’onda evanescente nella regione classicamente proibita |x| < a/2. Tuttavia in x = a/2 sopravviverà una componente piccola di onda evanescente che avrà come corrispettivo un’onda propagantesi nella regione x > a/2. Esistono quindi soluzioni che ”scavalcano” la barriera: è il cosiddetto effetto tunnel. 19 Scriviamo la funzione d’onda per il caso come quello descritto sopra, assumendo per semplicità il coefficiente dell’onda incidente uguale a 1: √ (2.43) ψ(x) = eikx + Ae−ikx , x < −a/2, k = 2mE/h̄; 0 0 ψ(x) = Be−k x + B 0 e−k x , ikx ψ(x) = Ce , |x| < a/2, k0 = q 2m(W − E)/h̄; (2.44) x > a/2. (2.45) Notare la presenza di una componente di onda crescente nella funzione d’onda per |x| < a/2: in effetti, non abbiamo il diritto di escluderlo a priori! Il calcolo, relativamente semplice ma un po’ laborioso, dà il seguente risultato: 4E(W − E) 4E(W − E) + W 2 sinh2 (k 0 a) W 2 sinh(k 0 a) = 1 − |C|2 = . 4E(W − E) + W 2 sinh2 (k 0 a) |C|2 = (2.46) |A|2 (2.47) Il caso E > W si può ottenere con la sostituzione 0 p k −→ ik1 = i 2m(E − W ) h̄ (2.48) e dà il seguente risultato: 4E(E − W ) 4E(E − W ) + W 2 sin2 (k1 a) W 2 sin(k1 a) = 1 − |C|2 = . 4E(E − W ) + W 2 sin2 (k1 a) |C|2 = (2.49) |A|2 (2.50) |C|2 è detto coefficiente di trasmissione, mentre |A|2 è il coefficiente di riflessione. In generale, essi dipendono dall’energia e dalla forma del potenziale. 2.5.3 Buca di potenziale La buca di potenziale è una schematizzazione molto semplice di un potenziale attrattivo o vincolante: V (x) = −W per |x| < a/2, V (x) = 0 per x < −a/2 e x > a/2. Consideriamo l’intervallo di energia interessante: −W < E < 0. Scriviamo la soluzione sotto la forma 0 k0 = ψ(x) = Aek x , ψ(x) = B cos(kx − α), −k0 x ψ(x) = Ce , k= q 2m|E|/h̄, q 2m(W + E)/h̄, x ≥ a/2, x ≤ a/2 |x| ≤ a/2 (2.51) (2.52) (2.53) più conveniente per i calcoli (scrivere la soluzione come coseno + fase è del tutto equivalente a scrivere come somma di esponenziali complessi: possiamo sempre ricondurci a soluzioni reali). Le condizioni di continuità a x = −a/2 e x = a/2 sono: 0 Ae−k a/2 = B cos(−ka/2 − α), 0 k 0 Ae−k a/2 = −kB sin(−ka/2 − α), (2.54) 20 0 0 Ce−k a/2 = B cos(ka/2 − α), −k 0 Ce−k a/2 = −kB sin(ka/2 − α), (2.55) ovvero, dividendo membro a membro, k tan(ka/2 + α) = k 0 , k tan(ka/2 − α) = k 0 . (2.56) Queste due condizioni possono essere soddisfatte contemporaneamente solo se α = 0 o se α = π/2. Distinguiamo i due casi: • Soluzioni pari (α = 0): esistono solo a energie per cui k tan(ka/2) = k 0 . Introduciamo le variabili ausiliarie ζ = ka/2 e η = k 0 a/2. Le soluzioni si possono trovare graficamente dall’intersezione delle due curve: η2 + ζ 2 = 2m W a2 , h̄2 4 η = ζ tan ζ (2.57) • Soluzioni dispari (α = π/2), per le quali k/ tan(ka/2) = −k 0 . Si procede come sopra, cercando le intersezioni delle curve η2 + ζ 2 = 2m W a2 , h̄2 4 10 η = −ζ/ tan ζ (2.58) x tan x -x/tan x sqrt(1-x^2) sqrt(9-x^2) sqrt(36-x^2) 8 6 4 2 0 0 1.5708 3.1416 4.7124 6.2832 Si trova uno spettro (ovverosia l’insieme delle soluzioni) discreto, ovvero formato da valori isolati di E. C’e’ sempre almeno una soluzione (è una caratteristica del potenziale considerato che non vale per altre forme di potenziale). Lo spettro discreto è una caratteristica degli stati legati, ovvero confinati in una zona di spazio. Notiamo anche che: • Le soluzioni sono non degeneri; Questa è una caratteristica dello spettro discreto nei sistemi unidimensionali (teorema di non degenerazione). • Le soluzioni sono o pari: ψ(x) = ψ(−x), o dispari: ψ(x) = −ψ(−x), rispetto all’operazione di inversione, x → −x. Questa è una conseguenza della simmetria del potenziale, V (x) = V (−x). • La soluzione di più bassa energia (lo stato fondamentale) è pari, quella di energia subito sopra è dispari, e cosı̀ via. Questa è una proprietà generale dei potenziali unidimensionali simmetrici per inversione. 21 • Lo stato fondamentale non ha nodi (ovverosia non passa mai per lo zero: per nessun x, ψ(x) = 0); le soluzioni di energia crescente hanno un numero crescente di nodi (1,2,3,...). Anche questa è una proprietà generale dei potenziali unidimensionali. Ovviamente non dobbiamo dimenticare che esiste anche uno spettro continuo di soluzioni non legate e due volte degeneri per E > 0. E‘ utile il confronto con il caso della buca infinita, le cui soluzioni si ottengono banalmente imponendo che la funzione d’onda sia nulla cove il potenziale diventa infinito. Si tratta di condizioni diverse da quelle imposte per discontinuità finite del potenziale; ci se ne può convincere con una procedura di limite. Conviene traslare l’origine rispetto al caso precedente e consideraro un potenziale V (x) = 0 fra x = 0 e x = a, V (x) = ∞ al di fuori di tale intervallo. Imponiamo la condizione ψ(0) = ψ(a) = 0 sulle soluzioni per la particella libera. Si ottiene ψn (x) = sin(kn x), kn = nπ a En = h̄2 k 2 n 2 h2 = , 2m 8ma2 n = 1, ..., ∞ (2.59) Si ritrovano tutte le caratteristiche del caso della barriera finita, salvo il numero di soluzioni (infinito per la barriera infinita) e lo spettro continuo (qui assente). Si notano inoltre due aspetti molto importanti: • le funzioni d’onda sono ortogonali fra di loro: Z ψn∗ (x)ψm (x) = 0 se n 6= m, (2.60) • le funzioni d’onda formano un insieme completo, ovvero qualunque funzione d’onda può essere espressa come somma, in generale infinita, delle soluzioni dell’equazione di Schrödinger. Tali aspetti sono presenti anche nel caso della buca finita, in quanto derivano da proprietà generali dell’equazioni di Schrödinger, ma sono in questo caso particolarmente visibili. 22 Chapter 3 L’equazione di Schrödinger unidimensionale: soluzione analitica e numerica In questo capitolo verrà descritta una metodologia per risolvere sia analiticamente che numericamente l’equazione di Schrödinger indipendente dal tempo in una dimensione per un oscillatore armonico; l’estensione dei metodi numerici ad altri tipi di potenziali non comporta particolari difficoltà. 3.1 L’oscillatore armonico L’oscillatore armonico è uno dei problemi fondamentali della dinamica classica, e anche della meccanica quantistica. Rappresenta il più semplice sistema modello in cui sono presenti delle forze attrattive, quindi è un importante riferimento per tutti i fenomeni vibrazionali. Ad esempio, le vibrazioni di un sistema di particelle fra loro interagenti può essere descritto, con una opportuna trasformazione di coordinate, in termini di modi normali di vibrazione, ciascuno dei quali è in pratica un oscillatore armonico indipendente dagli altri. Lo stesso vale in meccanica quantistica, dove per un sistema con stati legati le frequenze vibrazionali non sono altro (a meno della costante di Planck) le energie associate ai livelli energetici permessi. Attraverso lo studio quantistico dell’oscillatore armonico si possono quindi capire diverse cose relative alla quantizzazione, e alle funzioni d’onda degli stati legati. In questo capitolo esporremo i risultati principali della teoria dell’oscillatore armonico, e cercheremo di mostrare come impostare un codice di calcolo che permetta di risolvere numericamente la relativa equazione di Schrödinger. Il programma risultante potrà poi facilmente essere modificato per inserire un potenziale di interazione diverso da quello quadratico, e permettere cosı̀ lo studio di problemi che invece possono essere molto difficili da attaccare dal punto di vista analitico. 23 3.1.1 Unità L’equazione di Schrödinger di un oscillatore armonico unidimensionale è [utilizzando una notazione simile alla (2.4)] 1 d2 ψ 2m = − 2 E − Kx2 ψ(x) 2 dx 2 h̄ (3.1) dove m è la massa e K la costante di forza (la forza a cui è soggetta la massa è cioè F = −Kx, proporzionale allo spostamento e diretta verso l’origine). Classicamente a un tale oscillatore corrisponde una frequenza (angolare) s ω= K m (3.2) È conveniente passare ad unità adimensionali (in cui lavorano i due programmi presentati in seguito): poniamo ξ= mK h̄2 1/4 x , ε= E h̄ω (3.3) [usando la definizione (3.2) per ω] ottenendo l’equazione equivalente d2 ψ ξ2 = −2 ε − dξ 2 2 ! ψ(ξ) (3.4) che è espressa in unità adimensionali. 3.1.2 Soluzione e livelli energetici Come si può facilmente verificare, per grandi ξ (tali da poter trascurare ε) le soluzioni della (3.4) devono avere l’andamento asintotico ψ(ξ) ∼ ξ n e±ξ 2 /2 (3.5) dove n ha un qualsiasi valore finito. Il segno + nell’esponente deve però essere scartato a priori perchè darebbe luogo a soluzioni divergenti e quindi non normalizzabili (inoltre, l’intuizione stessa ci dice che la particella non dovrebbe tendere ad allontanarsi da ξ = 0, punto verso cui è diretta la forza). Sembra quindi conveniente provare a scorporare l’andamento asintotico desiderato ponendo 2 (3.6) ψ(ξ) = H(ξ)e−ξ /2 dove H(ξ) è una funzione che a grandi ξ si deve comportare in modo che 2 l’andamento sia determinato dal secondo fattore e−ξ /2 . H(ξ) non deve, in 2 particolare, crescere come eξ , altrimenti saremmo in presenza di una delle soluzioni che non desideriamo. Con la posizione (3.6) la (3.4) diventa, per la nuova funzione incognita H(ξ), H 00 (ξ) − 2ξH 0 (ξ) + (2ε − 1)H(ξ) = 0 24 (3.7) Vediamo subito che ε0 = 1/2, H0 (ξ) = 1 è la soluzione più semplice. Come tra poco si vedrà, questa è la soluzione che rappresenta lo stato fondamentale, cioè quello ad energia più bassa. Per ottenere le soluzioni generali sviluppiamo H(ξ) in una serie (in principio infinita): H(ξ) = ∞ X An ξ n , (3.8) n=0 deriviamo la serie per ottenere le derivate e riscriviamo la (3.7) combinando i termini con la stessa potenza di ξ: ∞ X [(n + 2)(n + 1)An+2 + (2ε − 2n − 1)An ] ξ n = 0 (3.9) n=0 Affinchè ciò sia soddisfatto per qualsiasi valore di ξ è necessario che tutti i coefficienti siano nulli: (n + 2)(n + 1)An+2 + (2ε − 2n − 1)An = 0 (3.10) Cosı̀, una volta dati A0 e A1 , la (3.10) permette di determinare per ricursione l’intera soluzione in forma di serie di potenze. Supponiamo che la serie sia veramente una serie infinita. A grandi n i termini si comportano quindi come An+2 2 → An n (3.11) 2n Ma, ricordando che exp(ξ 2 ) = n ξ /n!, i cui coefficienti soddisfano pure alla (3.11), vediamo che questa relazione tra i coefficienti fa crescere H(ξ) come exp(ξ 2 ), ossia ci fornisce delle soluzioni divergenti indesiderate. L’unica maniera per evitare che questo accada è fare in modo che, nella (3.10), tutti i coefficienti da un certo punto in poi siano nulli, in modo che la serie si riduca in realtà ad un polinomio di grado finito. Questo avviene se e solo se P ε=n+ 1 2 (3.12) dove n è un intero positivo o nullo. Corrispondentemente, le energie possibili per l’oscillatore armonico sono quantizzate: 1 En = n + h̄ω n = 0, 1, 2, . . . (3.13) 2 I corrispondenti polinomi Hn (ξ) sono detti polinomi di Hermite. Hn (ξ) è di grado n in ξ, ha n nodi, ed è pari [Hn (−ξ) = Hn (ξ)] o dispari [Hn (−ξ) = 2 −Hn (ξ)] a seconda che n sia pari o dispari. Poichè e−ξ /2 non ha nodi ed è pari, anche l’intera autofunzione corrispondente all’autovalore dell’energia En ψn (ξ) = Hn (ξ)e−ξ 2 /2 (3.14) ha n nodi e la parità di n. Più sotto si mostra come una parità definita è una conseguenza della simmetria del problema rispetto all’inversione dell’asse x. 25 Figure 3.1: Funzioni d’onda e densità di probabilità dell’oscillatore armonico quantistico. I polinomi di Hermite di ordine più basso sono H0 (ξ) = 1 , H1 (ξ) = 2ξ , H2 (ξ) = 4ξ 2 − 2 , H3 (ξ) = 8ξ 3 − 12ξ (3.15) Un grafico delle corrispondenti funzioni d’onda e densità di probabilità è riportato in fig. 3.1. 3.1.3 Energia di punto zero Una nota conseguenza della soluzione (3.13) è che il livello energetico più basso—lo stato fondamentale—ha una energia finita h̄ω/2, chiamata energia di punto zero e tipica dei sistemi quantistici. La sua esistenza è legata al principio di indeterminazione di Heisenberg. Assumiamo infatti—in un’ottica semiclassica—che l’energia totale sia dell’ordine di (∆p)2 /2m+K(∆x)2 /2, dove ∆p e ∆x sono misure della dispersione tipica della quantità di moto e della posizione della particella. Il principio di indeterminazione ci dice che ∆x∆p ≥ h̄/2, da cui possiamo estrarre √ ∆x ' h̄/2∆p e minimizzare l’energia rispetto a ∆p. Si ottiene (∆p)2 ' h̄ Km/2, da cui E ' h̄ω/2. Dunque vediamo che l’energia minima non può essere nulla. Se lo fosse, avremmo determinato esattamente sia la posizione che la quantità di moto, in contraddizione col principio di indeterminazione. Le conseguenze dell’energia di punto zero possono essere importanti: ad esempio, He4 (a pressione atmosferica) resta allo stato liquido fino a temperature arbitrariamente piccole a causa dell’energia di punto zero. 3.1.4 Simmetria e parità Tutte le autofunzioni dell’oscillatore armonico con n pari sono funzioni pari, e quelle con n dispari sono funzioni dispari. È facile dimostrare che in casi come questo in cui il potenziale è simmetrico, ossia V (−x) = V (x), una soluzione dell’equazione di Schrödinger è necessariamente pari o dispari per motivi di simmetria. 26 Si immagini infatti di invertire l’asse x: x → −x. Nessuna osservabile fisica può cambiare per effetto di questa trasformazione, perchè il potenziale non varia. Poichè la densità di probabilità è un’osservabile, dovrà quindi essere |ψn (−x)|2 = |ψn (x)| (3.16) Ciò è possibile solo se le due funzioni differiscono per un fattore di fase complesso: ψn (−x) = eiα ψn (x) (3.17) con α reale. Effettuando due volte questa operazione di inversione dell’asse si ritorna però alla situazione di partenza. Quindi, applicando due volte in sequenza l’equazione qui sopra, si scopre che deve essere e2iα = 1 (3.18) ossia α = mπ con m intero. La ψn è dunque pari se m è pari, e dispari se m è dispari. Si può quindi a priori dire che, a causa della simmetria del potenziale, i polinomi di Hermite di grado pari devono avere tutti i coefficienti dispari nulli, e viceversa. 3.1.5 Confronto con la densità di probabilità classica Le densità di probabilità delle funzioni d’onda ψn (x) dell’oscillatore armonico hanno, in generale, n + 1 picchi, la cui altezza aumenta mentre ci si avvicina ai corrispondenti punti di inversione classici. Queste densità di probabilità possono essere confrontate con quella dell’oscillatore armonico classico, in cui la massa si muove secondo x(t) = x0 sin(ωt). La probabilità ρ(x)dx di trovare la massa fra x e x + dx è proporzionale al tempo impiegato per attraversare quella regione, ossia inversamente proporzionale alla velocità, espressa in funzione di x: ρ(x)dx ∝ dx v(x) (3.19) q Poichè v(t) = x0 ω cos(ωt) = ω x20 − x20 sin2 (ωt), sarà ρ(x) ∝ q 1 x20 (3.20) − x2 Questa densità di probabilità ha un minimo a x = 0, e diverge ai punti di inversione. È ovviamente nulla oltre il punto di inversione. La densità di probabilità quantistica nello stato fondamentale è completamente diversa: presenta un massimo a x = 0, e decresce aumentando x. Al punto di inversione classico il suo valore è circa il 60% del valore massimo. La particella ha una elevata probabilità di trovarsi nella regione classicamente proibita. Nel limite di grandi numeri quantici, la densità quantistica tende tuttavia ad assomigliare a quella classica, ma esibisce il comportamento oscillatorio nella regione permessa tipico dei sistemi quantistici. 27 3.2 3.2.1 Meccanica quantistica e codici numerici: alcune considerazioni Energie cinetiche negative Uno dei fatti nuovi importanti della meccanica quantistica rispetto a quella classica è la presenza di “energie cinetiche negative”, ossia la funzione d’onda può non essere nulla (e quindi la probabilità di trovare una particella essere finita) nelle “regioni proibite” dal punto di vista classico, V (x) > E. Basandoci sulla (2.4) e immaginando di essere in un caso semplice in cui V si può considerare costante, questo significa d2 ψ = k 2 ψ(x) (3.21) dx2 dove k 2 è un numero positivo, e questo a sua volta implica un comportamento esponenziale: sia ψ(x) ' exp(kx) che ψ(x) ' exp(−kx) soddisfano alla (3.21). Come sappiamo dagli studi delle buche di potenziale, generalmente solo una di queste due possibilità ha significato fisico: quella che dà luogo a una funzione d’onda che decresce esponenzialmente man mano che ci si addentra nella regione classicamente proibita. Queste regioni si traducono però spesso in serie difficoltà per i codici numerici, che per la loro natura generale contemplano entrambi i tipi di soluzioni. Tutti sappiamo che crescite esponenziali portano inevitabilmente a catastrofi, e cosı̀ anche un algoritmo di integrazione tende a far esplodere la funzione d’onda in modo catastrofico nel momento in cui è presente, anche se in piccolissima quantità, una componente crescente nella soluzione; ed è inevitabile che questo accada. È comune quindi che una funzione d’onda ottenuta numericamente, e perfettamente valida nella regione classicamente permessa, diverga improvvisamente se ci si addentra oltre un certo limite all’interno della regione classicamente proibita. In questo senso, trattare numericamente sistemi quantistici richiede più attenzione che trattare sistemi classici, che sono intrinsecamente più stabili. 3.2.2 Effetti della quantizzazione Un importante punto da tener presente ai fini della risoluzione numerica di problemi quantistici, strettamente connesso al punto precedente, è la presenza di quantizzazione dei livelli energetici possibili per gli stati legati, espressa dall’espressione (3.13) nel caso dell’oscillatore armonico, ma fatto generale della meccanica quantistica. I livelli energetici possibili En non sono in generale noti a priori. Pertanto, in un’equazione di Schrödinger (2.4) l’incognita non è solo ψ(x), ma anche E. Per ogni livello energetico, o autovalore En ci sarà una corrispondente funzione d’onda, o autofunzione ψn (x). Cosa succede se si cerca di risolvere un’equazione di Schrödinger utilizzando un’energia E non corrispondente ad un autovalore? La risposta che ci viene dallo studio delle autofunzioni dell’oscillatore armonico è che la quantizzazione delle energie nasce proprio imponendo le opportune condizioni al contorno, al 28 fine di impedire divergenze non fisiche della funzione d’onda nelle regioni proibite. Pertanto, se E non corrisponde ad un autovalore possiamo sicuramente aspettarci di osservare divergenze di ψ(x). I codici numerici che ricercano le energie permesse dovranno pertanto essere in grado di ”riconoscere” i problemi causati da energie sbagliate e saper aggiustare il tiro, modificando l’energia fino a portarla in coincidenza di un autovalore. Il programma presentato alla fine di questo capitolo implementa una strategia di questo genere. 3.3 Il metodo di Numerov Vogliamo ora considerare il problema della risoluzione dell’equazione di Schrödinger indipendente dal tempo e unidimensionale in maniera numerica. Questo ci permetterà di apprendere la metodologia generale da applicare per casi specifici (ad esempio quello dell’oscillatore armonico), e di comprendere la potenza e le limitazioni del metodo numerico. Il metodo di Numerov è utile per integrare equazioni differenziali del secondo ordine della forma generale d2 y = −g(x)y(x) + s(x) dx2 dove g(x) e s(x) sono funzioni date, e condizioni iniziali della forma y(x0 ) = y0 , y 0 (x0 ) = y00 (3.22) (3.23) L’equazione di Schrödinger (2.4) ha questa forma, con g(x) ≡ 2m [E − V (x)] h̄2 e s(x) = 0. Si vedrà in seguito che anche le parti radiali di equazioni di Schrödinger in tre dimensioni a simmetria sferica appartengono a questa classe. Un’altra importante equazione che ricade in questa categoria è l’equazione di Poisson dell’elettromagnetismo, d2 φ = −4πρ(x) (3.24) dx2 dove ρ(x) è una densità di carica. In questo caso g(x) = 0 e s(x) = −4πρ(x). La metodologia è simile a quella dell’algoritmo di Størmer-Verlet per seguire l’evoluzione temporale di un punto materiale, sostituendo la coordinata spaziale a quella temporale. Dividiamo dunque l’intervallo spaziale di interesse in N intervallini di ampiezza ∆x, siano xi i nodi della griglia cosı̀ ottenuta e yi = y(xi ) i valori della funzione incognita y(x) in corrispondenza di tali punti. Analogamente indichiamo con gi e si i valori delle funzioni (date) g(x) e s(x) negli stessi punti. Al fine di ottenere una equazione alle differenze finite sviluppiamo in serie di Taylor attorno ad un punto xn , spingendoci fino al quinto ordine: yn−1 = yn − yn0 ∆x + 12 yn00 (∆x)2 − 61 yn000 (∆x)3 + +O[(∆x)6 ] yn+1 = yn + yn0 ∆x + 12 yn00 (∆x)2 + 61 yn000 (∆x)3 + +O[(∆x)6 ] 1 0000 4 24 yn (∆x) − 1 00000 5 120 yn (∆x) 1 0000 4 24 yn (∆x) + 1 00000 5 120 yn (∆x) (3.25) 29 Sommiamo le due equazioni: yn+1 + yn−1 = 2yn + yn00 (∆x)2 + 1 0000 y (∆x)4 + O[(∆x)6 ] 12 n (3.26) La (3.22) ci dice che yn00 = −gn yn + sn (3.27) Inoltre, indicando temporaneamente con zn questa quantità, sarà anche vero zn+1 + zn−1 = 2zn + zn00 (∆x)2 + O[(∆x)4 ] (3.28) zn+1 + zn−1 − 2zn + O[(∆x)2 ] (∆x)2 (3.29) e quindi yn0000 ≡ zn00 = Inserendo questi risultati nella (3.26) yn+1 = 2yn − yn−1 + (−gn yn + sn )(∆x)2 1 (−gn+1 yn+1 + sn+1 − gn−1 yn−1 + sn−1 + 2gn yn − 2sn )(∆x)2 + 12 +O[(∆x)6 ] (3.30) da cui la formula di Numerov h yn+1 1 + gn+1 (∆x) 12 2 i h = 2yn 1 − 5gn (∆x) 12 2 i h − yn−1 1 + gn−1 (∆x) 12 2 6 +(sn+1 + 10sn + sn−1 ) (∆x) 12 + O[(∆x) ] 2 i (3.31) che permette di ottenere yn+1 a partire da yn e yn−1 e quindi ricorsivamente— dalle condizioni iniziali date—tutta la funzione sull’intervallo di interesse. Dalle condizioni iniziali (3.23) è ovviamente possibile integrare muovendosi sia nella direzione degli x positivi che in quella degli x negativi, e in presenza di simmetria rispetto ad un punto di inversione basterà integrare in una direzione sola. Nel caso di nostro interesse—l’equazione di Schrödinger—tutti i termini sn sono assenti, e in pratica è conveniente porre fn ≡ 1 + gn (∆x)2 12 (3.32) dove 2m [E − V (xn )] h̄2 Con questa posizione la formula di Numerov si riduce a gn = yn+1 = (12 − 10fn )yn − fn−1 yn−1 fn+1 30 (3.33) (3.34) 3.3.1 Programma: harmonic0 Il programma harmonic0.f901 (oppure harmonic0.c2 ) risolve l’equazione di Schrödinger per l’oscillatore armonico quantistico, integrando mediante l’algoritmo di Numerov descritto sopra, e ricercando gli autovalori mediante il metodo di ”shooting”. Si tratta di una procedura del tutto analoga a quella della ricerca dello zero di una funzione mediante il metodo di bisezione (descritto in C.1.1). Il programma va alla ricerca della soluzione ψn (x) con un numero di nodi assegnato n, e considera inizialmente l’energia E corrispondente al punto medio dell’intervallo [Emin , Emax ] (che siamo certi contenere l’autovalore desiderato En ). La funzione d’onda viene integrata partendo da x = 0 e muovendosi verso gli x positivi, e allo stesso tempo viene contato il numero di nodi, ossia di cambiamenti di segno della funzione. Se tale numero risulta essere superiore a n, significa che E è troppo alta; se invece il numero di nodi è minore o uguale a n, significa che E è troppo bassa. Viene allora scelto il semiintervallo opportuno—rispettivamente quello inferiore [Emin , E] o quello superiore [E, Emax ]—e la procedura iterata sul semiintervallo. Si considera di essere arrivati a convergenza quando l’ampiezza dell’intervallo di energia è scesa al di sotto di una soglia prefissata. Per x negativi la funzione viene costruita per simmetria, essendo ψn (−x) = (−1)n ψn (x). Questo è ovviamente possibile in quanto V (−x) = V (x), altrimenti sarebbe stato necessario integrare su tutto l’intervallo. Il programma chiede, nell’ordine, il valore massimo xmax a cui estendere l’integrazione (un valore tipico è compreso fra 5 e 10), il numero N di punti sulla griglia (da cui ∆x = xmax /N ), il nome del file di output e il numero di nodi richiesto. Ad un’ultima domanda sull’energia da provare si risponderà in generale con 0 per avviare il meccanismo di ricerca dell’autovalore descritto sopra; è tuttavia possibile anche inserire una specifica energia, in generale non corrispondente ad un autovalore, per forzare il programma ad effettuare una singola integrazione su quell’energia ed esaminare la funzione d’onda risultante. Questo permette di effettuare dei test per capire meglio il funzionamento del metodo di ricerca dell’autovalore. Il file di output contiene la soluzione finale ed è organizzato su cinque colonne contenenti rispettivamente x, ψ(x), |ψ(x)|2 , ρcl (x) e V (x). ρcl (x) è la densità di probabilità dell’oscillatore armonico classico data dalla (3.20) (normalizzata a 1). Oltre a questo file, il programma emette sullo standard output ad ogni iterazione il numero dell’iterazione, il numero di nodi trovati (sul solo semiasse degli x positivi) e la stima corrente dell’autovalore dell’energia. Come si vedrà, è impossibile evitare che la soluzione diverga al di sopra di un certo x. Questo è il risultato dell’inevitabile presenza di una componente ∼ exp(+x2 /2) che, anche se piccola, porta ad una divergenza quando x sufficientemente grande. Tale divergenza comporta anche una difficoltà nel normalizzare la ψ(x). A causa di questa difficoltà, questo programma deve chiaramente essere migliorato. 1 2 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/harmonic0.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/harmonic0.c 31 3.3.2 Programma: harmonic1 Il programma harmonic1.f903 (oppure harmonic1.c4 ) costituisce una versione migliorata di harmonic0, che evita il problema della divergenza a grandi x. Il trucco utilizzato per evitare la divergenza è quello di effettuare due integrazioni: una in avanti partendo da x = 0, e una all’indietro partendo da xmax . L’autovalore viene fissato dalla condizione che il raccordo fra le due parti sia continuo con derivata prima continua. Il punto di raccordo scelto coincide col punto di inversione classica xcl , tale che V (xcl ) = E. Tale punto dunque varia man mano che diversi E vengono provati, ed è ovviamente determinato entro la precisione che può fornire la griglia. In pratica viene identificato l’indice icl del primo punto della griglia xc = icl∆x tale che V (xc ) > E. Possiamo quindi solo dire che il punto di inversione classico è situato fra xc − ∆x e xc . L’integrazione verso destra viene portata avanti fino a icl, ottenendo cosı̀ una funzione ψL (x) definita in [0, xc ], contando ancora il numero di cambiamenti di segno n come in harmonic0. Se n non è quello corretto l’energia è abbastanza distante dal valore richiesto, e si procede ad un aggiustamento per bisezione come descritto in precedenza (senza che sia necessario integrare al di là di xc , regione in cui si sa a priori che non vi possono essere nodi). Se invece il numero di nodi è quello giusto, il programma procede con l’integrazione da destra verso sinistra5 , fermandosi allo stesso indice icl corrispondente a xc e ottenendo cosı̀ una funzione ψR (x) definita in [xc , xmax ]. A quel punto vi sono due valori della funzione d’onda in xc : ψL (xc ) e ψR (xc ). La prima operazione effettuata è quella di riscalare ψR (x) di un fattore ψL (xc )/ψR (xc ), in modo che via sia un raccordo continuo fra le due funzioni in xc . Fatto questo, l’intera ψ(x) viene rinormalizzata in modo che sia R |ψ(x)|2 dx = 1. Ora inizia la parte nuova e cruciale: il calcolo della discontinuità della 0 (x ) − ψ 0 (x ). Questa differenza dovrebbe derivata prima alla giunzione, ψR c L c pure essere nulla per una buona soluzione, ma questo non sarà vero se non (all’interno di una precisione specificata) quando E = En . Il segno della differenza ci permette di capire se E è troppo alta o troppo bassa, e quindi di applicare nuovamente il metodo di bisezione per migliorarne la stima. Per calcolare la discontinuità, utilizziamo (indicando per brevità con i l’indice corrispondente al punto di griglia icl): L = y L − y 0L ∆x + 1 y 00L (∆x)2 + O[(∆x)3 ] yi−1 i i 2 i R = y R + y 0R ∆x + 1 y 00R (∆x)2 + O[(∆x)3 ] yi+1 i i 2 i (3.35) Notiamo che yiL = yiR = yi , e anche yi00L = yi00R = yi00 = −gi yi , come garantisce 3 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/harmonic1.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/harmonic1.c 5 Si noti lo statement y(mesh) = dx: ha il solo scopo di forzare il segno della soluzione ad essere positivo, in quanto la parte ottenuta a sinistra del punto di raccordo è pure positiva. Il valore dx non ha particolare importanza, dal momento che in seguito la soluzione viene riscalata per raccordarsi con l’altra in modo continuo alla giunzione. 4 32 il metodo di Numerov. Sommando fra loro le due equazioni abbiamo allora L R yi−1 + yi+1 = 2yi + (yi0R − yi0L )∆x − gi yi (∆x)2 + O[(∆x)3 ] (3.36) da cui L + y R − [2 − g (∆x)2 ]y yi−1 i i i+1 + O[(∆x)2 ] ∆x o anche, utilizzando la notazione (3.32), yi0R − yi0L = yi0R − yi0L = L + y R − (14 − 12f )y yi−1 i i i+1 + O[(∆x)2 ] ∆x (3.37) (3.38) Il programma calcola in questo modo la discontinuità nella derivata prima. Se il suo segno è positivo, l’energia è troppo alta e viene quindi scelto il semiintervallo inferiore; se negativo, l’energia è troppo bassa e viene scelto il semiintervallo superiore. Al solito, si ritiene di essere giunti a convergenza quando l’ampiezza dell’intervallo di energie è diventata minore di una certa piccola tolleranza. Oltre alla funzione d’onda finale scritta sul file di output in modo analogo ad harmonic0 (ma ora è normalizzata!), il programma emette una linea sullo standard output per ogni iterazione, contenente quattro numeri: il numero dell’iterazione, il numero di nodi trovati (sul solo semiasse degli x positivi), la discontinuità nella derivata yi0R − yi0L (solo quando è stata calcolata, ossia se il numero di nodi era quello giusto—negli altri casi viene riportato zero) e la stima corrente dell’autovalore dell’energia. 3.3.3 Laboratorio Ecco alcuni spunti per esperimenti numerici da effettuare in laboratorio, utilizzando entrambi i programmi: • Costruire e osservare6 le autofunzioni per diversi valori di n. • Esaminare le funzioni d’onda ottenute specificando una ben precisa energia non corrispondente ad un autovalore. Vedere la differenza di comportamento tra harmonic0 e harmonic1 in questi casi. • Osservare cosa succede quando l’energia è prossima ma non coincidente con un autovalore. Nuovamente, confrontare harmonic0 con harmonic1. • Esaminare gli effetti del ∆x (a quanti nodi si può arrivare?) e delle tolleranze. Alcuni spunti per modifiche del codice: • Modificare il potenziale, mantenendo la simmetria per inversione. 6 Un suggerimento: è utile graficare assieme alle autofunzioni o alle densità di probabilità anche la densità di probabilità classica nella quarta colonna, che indica la posizione dei punti di inversione classici. Con gnuplot questo si ottiene aggiungendo in coda al comando plot: ,"filename" using 1:4 with lines 33 • Modificare il potenziale, rompendo la simmetria per inversione. Si può per esempio considerare il potenziale seguente: h i V (x) = D e−2ax − 2e−ax + 1 . (3.39) E’ il potenziale di Morse, tuttora usato per modellizzare l’energia potenziale di una molecola biatomica. Che tipo di modifiche occorre apportare all’algoritmo per coprire questo caso? Esaminare lo spettro degli autovalori dell’energia e la forma delle funzioni d’onda. Confrontare con i risultati per l’oscillatore armonico con costante K scelta in modo tale da dare la stessa curvatura al minimo del potenziale di Morse: V (r) ' Da2 x2 ≡ k 2 x , 2 k = 2Da2 . (3.40) Verificare gli autovalori rispetto alla soluzione analitica esatta: p 1 1 1 h̄ω − h̄ω n + 2 4D 2 E(n) = n + 2 (3.41) p dove ω = k/m = a 2D/m, o, in termini dei livelli Eh (n) dell’oscillatore armonico: E(n) = Eh (n) 1 − Eh (n) , 4D Eh (n) = n + 1 h̄ω. 2 (3.42) Potete per esempio considerare il caso D = 12.5, a = 0.2, in unità nelle quali 2m/h̄2 = 1. 34 Chapter 4 Proprietà dell’equazione di Schrödinger Questo capitolo descrive proprietà fondamentali dell’equazione di Schrödingere degli operatori associati a grandezze fisiche. Molti risultati sono ottenuti in modo più formale nell’appendice A. Qui si usa invece il formalismo della funzione d’onda, più diffuso e probabilmente più semplice da capire. 4.1 Ortonormalità delle funzioni d’onda Si dice che un insieme di funzioni d’onda complesse ψn (x) sono fra loro ortonormali se Z ψn∗ (x)ψm (x)dx = δnm (4.1) Nel caso n = m questo esprime semplicemente la normalizzazione a 1 di una funzione d’onda, mentre nel caso m 6= n esprime una condizione di ortogonalità1 fra le due funzioni. Dato l’operatore hamiltoniano H=− h̄2 ∂ 2 + V (x), 2m ∂x2 (4.2) le cui autofunzioni (funzioni d’onda soluzione dell’equazione di Schrödinger) hanno un valore determinato (autovalore) En dell’energia: Hψn (x) = En ψn (x), (4.3) vogliamo far vedere che le ψn (x) sono fra loro ortonormali, ossia soddisfano alla (4.1). Per dimostrarlo, si considerino le due equazioni Hψm = Em ψm H ∗ ψn∗ = En∗ ψn∗ (4.4) La condizione di ortogonalità fra due vettori ordinari, ~a · ~b = i ai bi = 0 è analoga alla (4.1) qualora si consideri l’integrale come una “somma su tutti gli x”, e che la coniugazione complessa del primo termine è necessaria per far sı̀ che il prodotto scalare di un oggetto con se stesso sia una misura della sua “norma”. 1 P 35 Si moltiplichi a sinistra la prima per ψn∗ e la seconda per ψm e si integri: ψn∗ Hψm dx = EmR ψn∗ ψm dx ψm H ∗ ψn∗ dx = En∗ ψm ψn∗ dx R R R (4.5) Gli integrali nei membri a destra sono identici. Facciamo ora vedere che i membri a sinistra devono essere uguali fra loro. Ciò corrisponde a dimostrare l’hermiticità dell’operatore H, ovvero la seguente proprietà: Z ψn∗ Hψm dx = Z ∗ ψm Hψn dx ∗ . (4.6) L’identità è palese per quanto riguarda la parte di H relativa al potenziale, perchè V (x) è un semplice fattore moltiplicativo reale. Concentriamoci allora sul termine cinetico ed effettuiamo una integrazione per parti: Z x2 d2 ψm ∗ dψm dx = ψ − n dx2 dx x1 Z d2 ψn∗ dψn∗ x2 dx = ψ − ψm m dx2 dx x1 Z ψn∗ dψn∗ dψm dx dx dx (4.7) dψm dψn∗ dx dx dx (4.8) e analogamente Z Assumiamo che agli estremi di integrazione x1 e x2 la funzione d’onda e le sue derivate sia nulla (se cosı̀ non fosse, si immagini di racchiudere l’intero sistema, per quanto grande sia, in una scatola limitata da barriere infinite, e di far corrispondere gli estremi di integrazione con queste barriere). Se i termini integrati sono nulli, abbiamo trovato che Z d2 ψm dx = dx2 Z ψn∗ Hψm dx = Z ψn∗ d2 ψn∗ dx dx2 (4.9) ψm H ∗ ψn∗ dx (4.10) ψm e quindi che Z La (4.5) ci dà allora (Em − En∗ ) Z ψn∗ ψm dx = 0 (4.11) Quando m = n, l’integrale è 1, e quindi deve essere En∗ = En (4.12) ossia gli autovalori dell’energia sono senz’altro reali (da notare che tutte le grandezze fisiche misurabili, in quanto reali, sono rappresentate da operatori hermitiani). Supponiamo che sia m 6= n. Se anche Em 6= En , allora deve essere Z ψn∗ ψm dx = 0 (4.13) ossia autofunzioni corrispondenti ad autovalori diversi sono sicuramente ortogonali fra loro. Può però anche accadere che sia m 6= n ma Em = En : è il caso della degenerazione. 36 In questo caso la (4.13) potrebbe non essere soddisfatta, ma si possono sempre scegliere le autofunzioni in modo che lo sia. Supponiamo ad esempio che le prime p autofunzioni ψ1 , . . . , ψp appartengano allo stesso autovalore E e siano linearmente indipendenti (ossia nessuna di esse può essere espressa come combinazione lineare delle altre), ma non siano fra loro ortogonali. Ogni loro combinazione lineare è quindi anch’essa una soluzione appartenente allo stesso autovalore E. A partire dalle ψ1 , . . . , ψp possiamo allora costruire un nuovo insieme di autofunzioni del tutto equivalente ψ̂1 , . . . , ψ̂p , in cui le autofunzioni sono ortogonali fra loro. Si può ad esempio procedere in questo modo: ψ̂1 (x) = ψ1 (x) ψ̂2 (x) = a1 ψ̂1 (x) + a2 ψ2 (x) ψ̂3 (x) = b1 ψ̂1 (x) + b2 ψ̂2 (x) + b3 ψ3 (x) ... (4.14) dove a1 e a2 sono determinati da Z 0= ψ̂1∗ ψ̂2 dx Z = a1 2 |ψ̂1 | dx + a2 Z ψ̂1∗ ψ2 (x)dx (4.15) e dalla condizione di normalizzazione, e cosı̀ via (si tratta del metodo di ortonormalizzazione di Gram-Schmidt). Possiamo perciò interpretare la (4.13) nel senso che se gli autovalori delle due autofunzioni sono diversi esse devono essere ortogonali, mentre se sono uguali esse possono essere scelte in modo da essere ortogonali. 4.2 Sviluppo di una soluzione generica La linearità dell’equazione di Schrödinger ci assicura che, se ψn (x) sono le autofunzioni dell’equazione indipendente dal tempo, tutte le loro combinazioni lineari X Ψ(x, t) = cn ψn (x)e−iEn t/h̄ (4.16) n sono anche una soluzione. La (4.1) ci permette di dimostrare l’inverso, ossia che una generica soluzione Ψ(x, t) della (2.8) può sempre essere sviluppata secondo la (4.16) (proprietà di completezza). Per dimostrare ciò, consideriamo l’istante t = 0 e poniamo Z cm = ∗ ψm (x)Ψ(x, 0)dx (4.17) e quindi consideriamo la funzione X cn ψn (x) (4.18) n Questa funzione è una soluzione (in quanto combinazione lineare di soluzioni), e all’istante t = 0 deve coincidere con Ψ(x, t). Infatti vale per ogni m l’identità cm = X n cn δmn = X Z cn ∗ ψm (x)ψn (x)dx Z = " ∗ ψm (x) # X n n 37 cn ψn (x) dx (4.19) P [si noti che abbiamo usato la (4.1)]. Questo è possibile solo se n cn ψn (x) coincide con Ψ(x, 0). Ma dato il valore di una funzione d’onda ad un certo istante, la sua evoluzione è completamente determinata dall’equazione di Schrödinger P temporale, e quindi l’evoluzione di Ψ(x, 0) dovrà essere la stessa di n cn ψn (x), cioè quella indicata dalla (4.16). 4.3 Valori medi Uno dei postulati della meccanica quantistica è che il valore medio di una qualsiasi grandezza fisica funzione delle coordinate generalizzate qi e dei corrispondenti momenti generalizzati (quantità di moto) pi , F (q, p), si ottiene costruendo un operatore differenziale dove ad ogni pi nell’espressione classica si sostituisce −ih̄∂/∂qi . Il valore medio di questa grandezza su uno stato descritto dalla funzione d’onda Ψ(q, t) sarà allora dato da hF i = Z Ψ∗ F Ψdq (4.20) dove F (un operatore hermitiano) agisce sulla funzione che sta alla sua destra, e l’integrazione è effettuata su tutte le coordinate del sistema. Se F è solo funzione delle coordinate, questa regola non è sorprendente: ci R dice che il valore medio è F (q)|Ψ|2 dq, ossia una normale media pesata sulla densità di probabilità. La situazione più interessante riguarda le dipendenze dalle quantità di moto. Consideriamo ad esempio l’energia cinetica T per una particella in tre dimensioni: T (p) = p2 /2m. Applicando la regola, otteniamo hT i = − h̄2 2m dove ∇2 = Z Ψ∗ ∇2 Ψ dx dy dz ∂2 ∂2 ∂2 + 2+ 2 2 ∂x ∂y ∂z (4.21) (4.22) Nel caso di una particella libera, l’energia cinetica è l’intero hamiltoniano e quindi l’equazione di Schrödinger è − h̄2 2 ∂Ψ ∇ Ψ(r, t) = ih̄ 2m ∂t (4.23) con soluzione (a meno di un fattore di normalizzazione) Ψ(r, t) = ei(k·r−Et/h̄) (4.24) dove E è una costante, e k un vettore costante legato ad E da h̄2 k 2 =E 2m (4.25) La (4.24) rappresenta un’onda piana che si propaga lungo la direzione del vettore d’onda k, con lunghezza d’onda λ = 2π/k e frequenza ω = E/h̄. 38 Applichiamo a questo caso il metodo per trovare la quantità di moto dell’onda, ad esempio lungo la direzione x: hpx i = −ih̄ Z Ψ∗ (r, t) ∂ Ψ(r, t) dx dy dz = h̄kx ∂x (4.26) In realtà una soluzione del genere ha un valore ben definito, ossia è una autofunzione, dell’operatore quantità di moto. Il punto fondamentale è che mentre l’informazione relativa alle coordinate si trova nelle ampiezze delle funzioni d’onda, l’informazione relativa alla quantità di moto si trova nelle fasi. Gli operatori differenziali in pratica accedono alla fase. 4.4 La formulazione matriciale Abbiamo visto che ogni soluzione dell’equazione di Schrödinger può essere espressa nella forma (4.16). Note le autofunzioni dell’hamiltoniano, una funzione d’onda è pertanto caratterizzata dai coefficienti (complessi) c0 , c1 , c2 , . . . (4.27) Possiamo pensare a questi numeri come alle componenti di un vettore in uno spazio dove ogni asse rappresenta una autofunzione dell’energia. Poichè la Ψ deve essere normalizzata, occorre che sia X |cn |2 = 1 (4.28) n Qual è l’energia media di Ψ? Utilizzando la (4.20) per l’operatore H, tenendo conto di (4.3) e (4.1), si trova hEi = X |cn |2 En (4.29) n Questo va interpretato nel senso che una misura dell’energia della funzione darà sempre come risultato uno degli autovalori En , e a ciascuno di essi è associata una probabilità |cn |2 . Supponiamo ora invece di voler calcolare il valor medio associato ad un generico operatore F : hF i = = = Z Ψ∗ (x, t)F Ψ(x, t)dx Z X c∗n ψn∗ (x)eiEn t/h̄ F (4.30) X cm ψm (x)e−iEm t/h̄ dx n m X ∗ i(En −Em )t/h̄ cn cm Fnm e nm dove si è definito Fnm ≡ Z ψn∗ (x)F ψm (x)dx (4.31) (4.32) (4.33) Questa quantità è detta elemento di matrice dell’operatore F fra le autofunzioni ψn e ψm . Cosı̀, in questa formulazione (sviluppata da Heisenberg prima della 39 scoperta della meccanica ondulatoria) gli stati sono rappresentati da vettori, e gli operatori da matrici. In un’altra notazione—sviluppata da Dirac—questo elemento di matrice è indicato con < n|F |m > (4.34) dove |m > rappresenta un autostato (generalizzazione del concetto di autofunzione) dell’hamiltoniano. La (4.32) ci dice che un valor medio, in generale, dipende dal tempo. Vediamo anche che se Fnm fosse una matrice diagonale il valor medio sarebbe una costante, in quanto non vi sarebbe più alcun fattore di fase oscillante con coefficiente non nullo. I fattori di fase oscillanti con frequenza (En − Em )/h̄ danno dei termini che sono legati a transizioni del sistema da uno stato ad un altro. Termini di questo tipo si trovano ad esempio quando si studiano i processi di emissione o assorbimento di radiazione elettromagnetica (fotoni) È da notare che—grazie alla doppia sommatoria su m e su n—tutti i termini sono in realtà reali in quanto per ogni termine viene sommato anche il suo complesso coniugato, corrispondente allo scambio di indici. Questo consente di continuare a interpretare i coefficienti che moltiplicano gli Fnm come delle probabilità. Un operatore F può essere applicato ad una funzione. In questa rappresentazione matriciale, questa operazione corrisponde ad applicare una matrice a P un vettore, ottenendo un altro vettore. Infatti, se ψ = n cn ψn (e ricordando la regola (4.17) per ottenere le “componenti del vettore”): Z (F ψ)m = Z = ∗ ψm F ψdx (4.35) ∗ ψm F cn ψn dx (4.36) ∗ ψm F ψn dx (4.37) X n = X Z cn n = X Fmn cn (4.38) n che è la consueta regola dell’algebra lineare. Notiamo anche che si può sviluppare F ψm = X a` ψ` (4.39) ` dove i coefficienti sono ottenuti con la consueta regola: Z a` = ψ`∗ (F ψm )dx = F`m (4.40) e quindi F ψm = X ` 40 F`m ψ` (4.41) Possiamo infine applicare due operatori F e G in sequenza, e mostrare come nella rappresentazione matriciale questa operazione corrisponda ad effettuare un prodotto tra le due matrici corrispondenti secondo le consuete regole dell’algebra lineare. Infatti, usando la (4.41) due volte: Z ψn∗ (x)F Gψm (x)dx (F G)nm = = XZ ψn∗ (x)F G`m ψ` (x)dx (4.42) (4.43) ` = X = X Z G`m ψn∗ (x)F ψ` (x)dx (4.44) ψn∗ (x)Fk` ψk (x)dx (4.45) ` Z G`m k` = X Fk` G`m δkn (4.46) Fn` G`m (4.47) k` = X ` che è appunto l’ordinaria regola per il prodotto di matrici. 4.5 Regole di commutazione Il valore medio del prodotto di operatori dipende dall’ordine in cui gli operatori vengono applicati. Prendiamo ad esempio una coordinata x e la quantità di moto ad essa coniugata p, e calcoliamo il valor medio del prodotto px nella rappresentazione delle coordinate: ∂ hpxi = Ψ −ih̄ (xΨ) dx ∂x Z ∂Ψ ∗ = −ih̄ Ψ Ψ + x dx ∂x = −ih̄ + hxpi Z ∗ (4.48) (4.49) (4.50) ovvero hxp − pxi = h[x, p]i = ih̄ (4.51) dove con la notazione [A, B] indichiamo l’operatore AB − BA che chiameremo commutatore tra A e B. Diremo che A e B commutano quando il loro commutatore è nullo, ossia quando è indifferente l’ordine con cui sono applicati su uno stato. Come abbiamo appena visto questo non è sempre vero. Il risultato (4.51) non dipende dallo stato, ed è quindi una identità a livello di operatore: [x, px ] = ih̄ (4.52) (dove si è aggiunto l’indice x in px per sottolineare che si tratta della quantità di moto coniugata a x). Si può far vedere che le variabili come x e px che non commutano sono quelle non misurabili simultaneamente. Invece, [x, y] = 0 41 (4.53) (non vi sono vincoli alla determinazione simultanea di diverse coordinate di posizione), [px , py ] = 0 (4.54) (lo stesso per le quantità di moto), e [x, py ] = 0 (4.55) (lo stesso per la coordinata in una direzione e la quantità di moto in un’altra). In generale, date due quantità osservabili A e B rappresentate in meccanica quantistica da operatori, |h[A, B]i|/2 rappresenta il limite inferiore al prodotto ∆A∆B, dove ∆A e ∆B sono gli scarti quadratici medi di misure effettuate simultaneamente su queste due variabili. Si tratta di una versione più generale del principio di indeterminazione. Se A e B non commutano, è impossibile determinarle entrambe simultaneamente con precisione assoluta. D’altra parte, si può vedere che se Φ è un’autofunzione comune di A e B: AΦ = aΦ , BΦ = bΦ (4.56) (dove a e b sono gli autovalori, ossia dei semplici numeri) allora ABΦ = AbΦ = bAΦ = baΦ (4.57) BAΦ = BaΦ = aBΦ = abΦ (4.58) e sono uguali, ossia [A, B]Φ = 0. Se questo è vero per un insieme completo di autofunzioni (ad esempio, per tutte le autofunzioni dell’energia ψn ), allora ne segue necessariamente [A, B] = 0. Si può dimostrare che è vero anche l’inverso: se A e B commutano, allora hanno un insieme completo di autofunzioni in comune. 4.6 Quantità conservate Vogliamo ora dimostrare che dato un operatore F , e definito l’operatore dF/dt in modo tale che per ogni stato dipendente dal tempo Ψ si abbia dF dt = d hF i dt (4.59) ossia il valor medio di dF/dt sullo stato sia pari alla derivata temporale del valor medio di F sullo stesso stato, allora vale la importante relazione dF = [F, H] (4.60) dt Questa relazione ci permette di identificare facilmente le quantità conservate, che cioè non variano nel tempo: sono quelle che commutano con l’hamiltoniano. Per dimostrarlo, consideriamo la (4.32) per il valor medio di F su uno stato Ψ sviluppato come somma di autofunzioni dell’energia, e deriviamola rispetto al tempo, ottenendo cosı̀ ih̄ dF dt = X d i hF i = c∗n cm (En − Em )Fnm ei(En −Em )t/h̄ dt h̄ nm 42 (4.61) Questo ci consente di identificare gli elementi di matrice dell’operatore dF/dt: dF dt = nm i (En − Em )Fnm h̄ (4.62) (questo fa sı̀ che la (4.32) valga anche per questo operatore, come deve essere!). Costruiamo ora invece l’elemento di matrice dell’operatore [F, H]: [F, H]nm = (F H − HF )nm Z = Z = ψn∗ F Hψm dx − (4.63) Z ψn∗ F Em ψm dx − ψn∗ HF ψm dx (4.64) ! Z ψn∗ H X F`m ψ` dx (4.65) ` Z = Em ψn∗ F ψm dx − X Z F`m ψn∗ E` ψ` dx (4.66) ` = Em Fnm − X F`m E` δn` (4.67) ` = (Em − En )Fnm (4.68) Confrontando la (4.62) con la (4.68) vediamo che ih̄ dF dt = [F, H]nm (4.69) nm Ma se questo vale per tutti gli elementi di matrice, l’uguaglianza deve avvenire a livello di operatore, ossia la (4.60) deve essere vera. Siamo ora in posizione di comprendere cosa dobbiamo fare per classificare in un modo utile gli stati di un sistema quantistico. • La prima cosa da fare è cercare gli autovalori En dell’hamiltoniana H. Questo ci fornisce dei numeri quantici n utili ai fini della classificazione. Sappiamo che le autofunzioni di H corrispondono a sono stazionari [vedere (2.13)], quindi questi numeri quantici non variano nel tempo: sono buoni numeri quantici. • Possono però esserci delle degenerazioni: ad un certo En possono corrispondere diversi stati. Questi stati differiranno per altri numeri quantici, che vorrei saper determinare. • Devo allora cercare un altro operatore A che commuti con H: [A, H] = 0. Questo garantisce che i suoi autovalori siano costanti nel tempo; e anche che siano determinabili con esattezza e simultaneamente agli autovalori di H. • Un solo operatore addizionale potrebbe non bastare a classificare gli stati. Cercherò allora un altro operatore B, che deve soddisfare anch’esso a [B, H] = 0. Ma non basta! Occorre anche che sia [A, B] = 0. Se cosı̀ non fosse, non potrei determinare simultaneamente gli autovalori di A e di B, e quindi un tale schema sarebbe inutile ai fini della classificazione. 43 • Ripeto il procedimento finchè sono riuscito a classificare tutti gli stati, e non esistono altri operatori che commutino con H e tutti gli altri. • Ho allora costruito un insieme di osservabili che determina univocamente lo stato del sistema. Nel caso dell’atomo di idrogeno, come si vedrà, si utilizzano quattro operatori: H, L2 , Lz e Sz , discussi in seguito. 44 Chapter 5 Atomi con un elettrone 5.1 Equazione di Schrödinger in un campo centrale Consideriamo un sistema quantistico costituito da due particelle di masse m1 e m2 interagenti tra loro, e in assenza di campi esterni. Supponiamo per il momento che il potenziale di interazione V (r) sia arbitrario, anche se sappiamo che nel caso dell’atomo di idrogeno l’interazione è coulombiana. Vogliamo trovare prima i risultati generali del problema che non dipendono dalla natura specifica del potenziale. Il potenziale V non può comunque dipendere che dalla sola distanza |r2 −r1 | tra le due particelle, e l’hamiltoniano sarà H= p2 p21 + 2 + V (|r2 − r1 |) 2m1 2m2 (5.1) Come in meccanica classica, si può effettuare un cambiamento di variabili e passare alle due nuove variabili m1 r1 + m2 r2 m1 + m2 r = r2 − r1 R = (5.2) (5.3) corrispondenti alla posizione del centro di massa e alla posizione relativa. È conveniente anche definire M = m1 + m2 m1 m2 m = m1 + m2 (5.4) (5.5) dove m è detta massa ridotta. Si può facilmente vedere che, definendo anche i nuovi operatori corrispondenti P = −ih̄∇R e p = −ih̄∇r , l’hamiltoniano diventa H= P2 p2 + + V (r) 2M 2m (5.6) da cui si vede immediatamente che le variabili si separano. Il moto del centro di massa è quello di una particella libera di massa M ; la soluzione è un’onda piana. 45 La parte interessante è ovviamente quella relativa. L’equazione di Schrödinger corrispondente è la stessa che avrebbe una massa m immersa in un campo di forze centrali V (r), con simmetria sferica rispetto all’origine. Nel caso degli atomi con un elettrone, l’interazione è fra il protone (o un nucleo più pesante) e l’elettrone, e quindi il rapporto fra le masse è pari ad almeno 1836. La massa ridotta sarà quindi appena più piccola di quella dell’elettrone. L’equazione di Schrödinger che studieremo in questo capitolo è allora: # " h̄2 2 ∇ + V (r) ψ(r) = Eψ(r) Hψ(r) ≡ − 2m 5.2 (5.7) Il momento angolare La soluzione classica del problema di una particella in un campo centrale (ossia soggetta ad un potenziale V (r) dipendente solo dalla distanza rispetto a un punto fisso) passa attraverso l’introduzione di una quantità, il momento angolare (o momento della quantità di moto), definita come L=r×p (5.8) dove r è il vettore posizione e p il vettore quantità di moto. In meccanica classica si trova che L è una quantità conservata, con importanti conseguenze tra cui la planarità dell’orbita. Ci aspettiamo che anche il corrispondente operatore quantistico giochi un ruolo importante, ed infatti cosı̀ è. Possiamo immediatamente dire qualcosa sulle sue proprietà di commutazione, facendo uso delle (4.52)—(4.55) e utilizzando la proprietà generale (immediatamente dimostrata) [AB, C] = A[B, C] + [A, C]B (5.9) Si trova [Lx , x] = 0 , [Lx , y] = ih̄z , [Lx , z] = −ih̄y (5.10) [Lx , py ] = ih̄pz , [Lx , pz ] = −ih̄py (5.11) e [Lx , px ] = 0 , e proprietà analoghe ottenute ciclando gli indici per Ly e Lz . Si può far vedere che analoghe proprietà valgono per i commutatori fra componenti di L: [Lx , Lx ] = 0 , [Lx , Ly ] = ih̄Lz , [Lx , Lz ] = −ih̄Ly (5.12) e in realtà è vero per qualsiasi grandezza vettoriale A, funzione arbitraria di coordinate e quantità di moto: [Lx , Ax ] = 0 , [Lx , Ay ] = ih̄Az , [Lx , Az ] = −ih̄Ay (5.13) Inoltre, dati due vettori A e B (sempre corrispondenti ad operatori quantistici), si può costruire l’operatore “prodotto scalare” A · B = Ax Bx + Ay By + Az Bz 46 (5.14) e risulta [Lx , A · B] = [Ly , A · B] = [Lz , A · B] = 0 (5.15) come si dimostra subito usando le (5.13). In particolare, facendo coincidere A e B con L stesso, abbiamo anche [Lx , L2 ] = [Ly , L2 ] = [Lz , L2 ] = 0 (5.16) Come si vedrà nella sezione 5.4, e come intuibile dal risultato classico, per una particella in un campo centrale L2 commuta con H, ed è quindi una quantità conservata che dà origine a un buon numero quantico. Anche ogni singola componente di L commuta con H. Però, le (5.12) mostrano che due diverse componenti di L non commutano fra loro, e non sono pertanto misurabili simultaneamente. 5.3 Autofunzioni del momento angolare Esprimiamo il momento angolare nella rappresentazione delle coordinate: L = −ih̄r × ∇ (5.17) Consideriamo un sistema di riferimento polare (r, θ, φ), dove l’asse polare coincide con l’asse cartesiano z, θ è l’angolo polare e φ quello azimutale. Siano ur , uθ e uφ i versori (che costituiscono una terna ortonormale destrorsa) associati a spostamenti in cui varia solo r, θ o φ rispettivamente. Si ha ∇ = ur ∂ 1 ∂ 1 ∂ + uθ + uφ ∂r r ∂θ r sin θ ∂φ (5.18) Applicando la (5.17), 1 ∂ ∂ L = −ih̄ uφ − uθ ∂θ sin θ ∂φ (5.19) Esprimendo i versori della terna polare in funzione di quelli della terna cartesiana ur = sin θ cos φ ux + sin θ sin φ uy + cos θ uz (5.20) uθ = cos θ cos φ ux + cos θ sin φ uy − sin θ uz (5.21) uφ = − sin φ ux + cos φ uy (5.22) possiamo calcolare le componenti cartesiane di L nello spazio polare. In particolare risulta ∂ Lz = −ih̄ (5.23) ∂φ e " # 1 ∂ ∂ 1 ∂2 2 2 L = −h̄ sin θ + (5.24) sin θ ∂θ ∂θ sin2 θ ∂φ2 47 Cerchiamo ora le autofunzioni dell’operatore L2 , che torneranno utili in seguito risolvendo l’equazione di Schrödinger per una particella in un campo centrale: (5.25) L2 Y (θ, φ) = h̄2 `(` + 1)Y (θ, φ) dove abbiamo espresso in questo modo (per futura convenienza) l’autovalore. Notiamo che, moltiplicando i due membri per − sin2 θ/h̄2 , l’equazione agli autovalori diventa ∂Y (θ, φ) ∂ sin θ sin θ ∂θ ∂θ + ∂ 2 Y (θ, φ) = −`(` + 1) sin2 θ Y (θ, φ) ∂φ2 (5.26) Supponiamo che la soluzione sia separabile in una funzione di solo θ e una di solo φ: Y (θ, φ) = Θ(θ)Φ(φ) (5.27) e dividiamo il risultato per ΘΦ: 1 ∂ ∂Θ sin θ sin θ Θ ∂θ ∂θ + `(` + 1) sin2 θ = − 1 ∂2Φ Φ ∂φ2 (5.28) Il primo membro è funzione solo di θ, e il secondo solo di φ. Entrambi devono allora essere uguali a una costante positiva1 , che indichiamo con m2 . Abbiamo allora ottenuto due equazioni: 1 d dΘ sin θ sin θ dθ dθ # " m2 Θ=0 + `(` + 1) − sin2 θ d2 Φ + m2 Φ = 0 dφ2 (5.29) (5.30) La seconda ci dice che deve essere Φ(φ) = Ce±imφ (5.31) Poichè φ è un angolo azimutale, è necessario che m sia intero affinchè la funzione sia ad un solo valore. La (5.29), usando cos θ come variabile, è nota in fisica matematica come equazione di Legendre. Si può risolvere in modo analogo a quanto fatto per l’oscillatore armonico: esprimendo cioè la soluzione in forma di una serie di potenze di cos θ, e richiedendo che non diverga per alcun valore di cos θ. Risulta che una divergenza a cos θ = 1 può essere evitata solo se si assume che la serie sia in realtà un polinomio di grado finito, ossia che tutti i coefficienti da un certo grado in poi siano nulli. Si può vedere che questo implica ` intero, e ` ≥ |m|. Le funzioni risultanti sono indicate con P`m (cos θ) e si chiamano funzioni associate ai polinomi di Legendre. I polinomi di Legendre P` (cos θ) sono le soluzioni dell’equazione di Legendre per m = 0, e le funzioni associate sono ad essi connesse da P`m (w) = 1 − w2 1 m/2 dm dwm P` (w). (5.32) Si può verificare che un valore negativo porterebbe a soluzioni esponenziali non accettabili 48 Le autofunzioni dell’operatore L2 hanno dunque la forma Y`m (θ, φ) = C`m P`m (cos θ)eimφ (5.33) dove C`m è una costante di normalizzazione, e sono dette armoniche sferiche. Poiche Lz , dato dalla (5.23), opera solo su φ, queste sono anche autofunzioni di questo operatore: (5.34) Lz Y`m (θ, φ) = h̄mY`m (θ, φ) In sostanza, h̄2 `(` + 1) rappresenta il modulo quadrato del momento angolare, e h̄m la sua proiezione lungo l’asse z. ` dev’essere un intero positivo o nullo, e m un intero compreso fra −` e `. Per un dato ` ci sono dunque 2` + 1 valori permessi per m. 5.4 Separazione in parte radiale e angolare Torniamo al nostro problema di una particella in un campo centrale. Introduciamo, analogamente a quanto fatto nella sezione 5.2, un sistema di riferimento polare (r, θ, φ), dove l’operatore gradiente è dato dalla (5.18), e l’operatore laplaciano (come si può far vedere con un po’ di pazienza) da ∂ 1 ∂ r2 ∇ = 2 r ∂r ∂r 2 1 ∂ ∂ + 2 sin θ r sin θ ∂θ ∂θ + 1 ∂2 r2 sin2 θ ∂φ2 (5.35) Confrontando con la (5.24), si vede che questo si può scrivere 1 ∂ ∂ ∇ = 2 r2 r ∂r ∂r 2 − L2 r2 h̄2 (5.36) dove L2 dato dalla (5.24) contiene esclusivamente termini dipendenti dagli angoli. Possiamo allora scrivere l’hamiltoniano come h̄2 1 ∂ ∂ r2 H=− 2m r2 ∂r ∂r + L2 + V (r) 2mr2 (5.37) Un termine L2 /2mr2 appare anche nell’analogo problema classico: altri non è che il “potenziale centrifugo”, ossia un potenziale fittizio che genera una “forza” che tende ad allontanare la massa dall’origine, e che discende dal fatto che il sistema è in rotazione (se L2 > 0), e che noi stiamo osservando la sola variabile radiale. Classicamente si può dunque tener conto dell’effetto della rotazione considerando un potenziale efficace V̂ (r) = V (r) + L2 /2mr2 , dove il secondo termine tende a spingere la massa verso gli r crescenti. Vediamo ora la situazione nel caso quantistico. Un’ispezione della forma (5.37) ci mostra subito che [L2 , H] = 0 (5.38) che ci garantisce che L2 è conservato, ossia i suoi autovalori non dipendono dal tempo e i due operatori hanno un insieme di autofunzioni in comune. Già 49 sappiamo quindi che gli autovalori di L2 potranno essere usati per classificare gli stati. L’espressione (5.23) per Lz e la regola (5.16) ci dicono anche che [Lz , H] = 0 (5.39) e quindi anche gli autovalori di Lz saranno conservati e potranno essere usati per classificare gli stati. Procediamo ora alla separazione della variabile radiale da quelle angolari, la cui possibilità è fortemente suggerita sia da questi risultati che dall’osservazione della (5.37). Poniamo ψ(r, θ, φ) = R(r)Y (θ, φ) (5.40) quindi riscriviamo l’equazione di Schrödinger (5.7), dividendola per RY : 1 ∂ ∂R h̄2 r2 − 2 2m r R(r) ∂r ∂r + 1 L2 Y + V (r) = E 2mr2 Y (5.41) o ancora moltiplicando per −2mr2 /h̄2 e riarrangiando, 1 ∂ ∂R r2 R(r) ∂r ∂r − 1 2 2mr2 2 [V (r) − E] = 2 L Y h̄ h̄ Y (5.42) Il membro sinistro dipende solo da r, quello destro solo da θ e φ, e quindi entrambi devono essere uguali ad una costante. Abbiamo già [vedi (5.25)] indicato questa costante con `(` + 1), e trovato che ` deve essere un intero affinchè la soluzione non diverga. Le soluzioni per la parte angolare sono le armoniche sferiche Y`m (θ, φ) date dalla (5.33). Dovrà quindi essere 1 ∂ ∂R r2 R(r) ∂r ∂r − 2mr2 [V (r) − E] = `(` + 1) h̄2 (5.43) ovvero l’equazione di Schrödinger per la parte radiale è h̄2 1 ∂ ∂Rn` − r2 2m r2 ∂r ∂r # " h̄2 `(` + 1) + V (r) + Rn` (r) = En` Rn` (r) 2mr2 (5.44) Ci aspettiamo che in generale le energie dipendano da ` perchè il potenziale efficace dipende da `; inoltre per un dato ` ci aspettiamo per gli stati legati (se ve ne sono!) una quantizzazione dei livelli energetici, e abbiamo indicato con n il corrispondente indice. La funzione d’onda totale sarà allora ψn`m (r, θ, φ) = Rn` (r)Y`m (θ, φ) (5.45) L’energia non dipende da m. Come già osservato, m rappresenta la proiezione del momento angolare su un asse scelto arbitrariamente. A causa della simmetria sferica del problema, l’energia non può dipendere dall’orientamento del vettore L, ma solo dal suo modulo. All’energia En` sarà dunque associata una degenerazione 2` + 1 (o maggiore, se esistono altri osservabili commutanti che non abbiamo considerato!). 50 5.4.1 Funzioni d’onda angolari Le funzioni d’onda angolari per un problema a simmetria sferica non dipendono dunque dalla natura del potenziale, e sono date dalle armoniche sferiche Y`m (θ, φ) (5.33). Il loro aspetto per diversi valori di ` e m può essere esaminato ad esempio nella “galleria” dell’università di Oviedo2 , oppure esplorato attivamente usando l’applet Java al Davidson College3 . Si noti che m rappresenta la proiezione del momento angolare sull’asse z. Pertanto, le funzioni con m = 0 tenderanno a essere disposte lungo tale asse; quelle con m = ` tenderanno a localizzarsi prevalentemente sul piano xy. Le armoniche sferiche di ordine più basso sono le seguenti: Y00 (θ, φ) = Y11 (θ, φ) = Y10 (θ, φ) = Y22 (θ, φ) = Y21 (θ, φ) = Y20 (θ, φ) = q q q 1/4π (5.46) 3/8π sin θ eiφ (5.47) 3/4π cos θ (5.48) q 15/32π sin2 θ e2iφ (5.49) q 15/8π sin θ cos θ eiφ q 5/16π 3 cos2 θ − 1 . (5.50) (5.51) Si sono assunte funzioni normalizzate secondo la normalizzazione tradizionale: Z ∗ Ylm (θ, φ)Ylm (θ, φ)dΩ = δll0 δmm0 (5.52) dove Ω è l’angolo solido. L’ortogonalità delle armoniche sferiche è una naturale conseguenza del loro carattere di autofunzioni del momento angolare (nonché dell’equazione che soddisfano). Considerare −m al posto di m significa cambiare il segno all’esponente del termine exp(imφ) ossia, in pratica, a prendere la funzione complessa coniugata. E’ però da notare che la fase delle armoniche sferiche è arbitraria e che esistono diverse convenzioni Per identificare il valore di ` viene spesso usata la notazione spettroscopica: si indicano con s, p, d, f , g, . . . rispettivamente gli stati con ` = 0, 1, 2, 3, 4, . . . 5.5 Il potenziale coulombiano Il caso più importante e famoso è quello in cui V (r) è il potenziale coulombiano: V (r) = − Ze2 , 4π0 r (5.53) dove e = 1.6021 × 10−19 C è la carica dell’elettrone, Z è il numero atomico (numero di protoni nel nucleo), 0 = 8.854187817 × 10−12 in unità MKSA. In 2 3 http://www.unioviedo.es/qcg/harmonics/harmonics.html http://webphysics.davidson.edu/Applets/Hydrogenic/ 51 fisica si usa ancora molto il sistema CGS, nel quale il potenziale coulombiano ha la forma:: V (r) = −Zqe2 /r. (5.54) Nel seguito si userà qe2 = e2 /(4π0 ) in modo da ricondursi alla più semplice forma CGS. È spesso comodo lavorare in unità atomiche (a.u.): le unità di lunghezza sono espresse in raggi di Bohr (o semplicemente bohr), a0 : a0 = h̄2 = 0.529177Å = 0.529177 × 10−10 m, me qe2 (5.55) mentre le energie sono espresse in Rydberg (Ry): 1Ry = me qe4 = 13.6058eV. h̄2 (5.56) dove me è la massa dell’elettrone, non la massa ridotta. E’ immediato verificare che in tali unità, h̄ = 1, me = 1/2, qe2 = 2. Se invece del Ry si prende l’Hartree (Ha): 1 Ha = 2 Ry = me qe4 = 27.212 eV h̄2 (5.57) come unità di energia, si ottiene un altro set di unità atomiche, nelle quali h̄ = 1, me = 1, qe = 1. Attenzione alla confusione! Mai parlare di ”unità atomiche” senza specificare chiaramente quali. Nel seguito si useranno occasionalmente le prime (unità atomiche ”Rydberg”). 5.6 La funzione d’onda radiale per atomi idrogenoidi È conveniente porre χ(r) = rR(r) (5.58) e scrivere l’equazione radiale per χ(r) anzichè R(r). Si vede facilmente che la (5.44) diventa " # h̄2 d2 χ Zqe2 h̄2 `(` + 1) + E + − χ(r) = 0 2me dr2 r 2me r2 (5.59) Notiamo come questa equazione sia del tutto analoga all’equazione di Schrödinger in una dimensione (2.4), per una particella soggetta ad un potenziale efficace Zq 2 h̄2 `(` + 1) V̂ (r) = − e + (5.60) r 2me r2 Come già sottolineato, il secondo termine è il potenziale centrifugo. Gli stessi metodi utilizzati per trovare la soluzione della (2.4) (e in particolare il metodo numerico di Numerov) possono quindi essere utilizzati per trovare le autofunzioni radiali dell’energia. 52 Notiamo innanzitutto che per piccoli r il potenziale centrifugo è il termine dominante del potenziale. L’andamento delle soluzioni per r → 0 sarà allora determinato da `(` + 1) d2 χ ' χ(r) (5.61) dr2 r2 che dà χ(r) ∼ r`+1 , oppure χ(r) ∼ r−` . La seconda possibilità va scartata, perchè χ(r) non può divergere. Per grandi r invece, notiamo che avremo stati legati se E < 0 (in quanto esisterà un punto di inversione classico al di là del quale l’energia cinetica diventa negativa, e quindi la funzione d’onda decade esponenzialmente, e quindi solo alcune energie potranno dare luogo a soluzioni valide), e liberi se E > 0. Il caso E > 0 corrisponde a un problema di scattering elettrone-nucleo con uno spettro continuo di energie, e non ce ne occupiamo. L’andamento delle soluzioni per r → ∞ sarà allora determinato da 2me d2 χ ' − 2 Eχ(r) (5.62) 2 dr h̄ √ che dà χ(r) ∼ exp(±kr), dove k = −2me E/h̄. Il segno + va però scartato perchè comporta una divergenza indesiderata. Sembra allora sensato assumere per la soluzione una forma χ(r) = r`+1 e−kr ∞ X An r n (5.63) n=0 che garantisce un comportamento corretto in entrambi i casi limite, purchè la serie non diverga esponenzialmente. L’equazione per l’atomo idrogenoide può essere risolta seguendo lo stesso procedimento utilizzato per l’oscillatore armonico nella sezione 3.1. Ossia, si inserisce lo sviluppo (5.63) nella (5.59), si trova una formula di ricorrenza per i coefficienti An , si fa vedere che la serie in generale diverge come exp(2kr) a meno che non si interrompa dando origine a un polinomio, e si fa infine vedere che questo accade solo in corrispondenza a particolari valori di E. In particolare questo accade per Z 2 me qe4 Z2 Ry En = − 2 = − (5.64) n 2h̄2 n2 dove n ≥ ` + 1 è un intero detto numero quantico principale. Per un dato ` si avranno quindi soluzioni per n = ` + 1, ` + 2, . . .; oppure, pensando fissato n, i valori possibili per ` sono ` = 0, 1, . . . , n − 1. La soluzione per la funzione d’onda radiale si scrive s χn` (r) = (n − ` − 1)!Z `+1 −x/2 2`+1 x e Ln+1 (x) n2 [(n + `)!]3 a30 (5.65) dove si è posto s 2Z r 2me En x≡ =2 − r n a0 h̄2 53 (5.66) dove gli L2`+1 n+1 (x) sono i polinomi di Laguerre, di grado n − ` − 1. Il coefficiente è stato scelto in modo da ortonormalizzare l’insieme di funzioni: Z ∞ 0 χn` (r)χn0 ` (r)dr = δnn0 (5.67) Abbiamo già dimostrato che l’ortogonalità è garantita per le autofunzioni di un hamiltoniano a cui corrispondono autovalori diversi dell’energia [vedi (4.13)]. Sottolineiamo alcuni risultati rilevanti: 5.6.1 Densità radiale La probabilità di trovare la particella a una distanza compresa tra r e r + dr dal centro è ottenuta integrando sulle variabili angolari: Z dr |ψn`m (r, θ, φ)|2 rdθ r sin θ dφ = |Rn` |2 r2 dr = |χn` |2 dr (5.68) avendo sfruttato la proprietà di normalizzazione delle armoniche sferiche Z |Y`m (θ, φ)|2 dθ sin θ dφ = 1 (5.69) (dove l’integrazione è estesa a tutti i possibili angoli). Ne segue anche che la condizione di normalizzazione in termini di χ è Z ∞ 0 |χn` (r)|2 dr = 1 (5.70) La funzione |χ(r)|2 può essere dunque direttamente interpretata come una densità radiale. 5.6.2 Stato fondamentale Lo stato fondamentale ha n = 1, e quindi ` = 0. Si tratta dunque del caso in cui il momento angolare è nullo, e la corrispondente armonica sferica è costante: l’autofunzione è quindi a simmetria sferica. L’energia dello stato per l’atomo di idrogeno (Z = 1) è pari a −1, ossia l’energia di legame dell’elettrone è pari ad un Rydberg (a parte la piccola correzione legata alla massa ridotta). La funzione d’onda dello stato fondamentale è, con la normalizzazione esatta, un semplice esponenziale: Z 3/2 ψ100 (r, θ, φ) = √ e−Zr/a0 π 5.6.3 (5.71) Comportamento vicino al nucleo Il termine dominante vicino al nucleo è quello corrispondente al primo termine della serie, ossia χn` (r) ∼ r`+1 . Quindi più ` è grande, più rapidamente la funzione tende a zero avvicinandosi al nucleo. Questo corrisponde al fatto che la funzione è “spinta via” dal potenziale centrifugo. Quindi le funzioni radiali con grande ` non penetrano vicino al nucleo. 54 5.6.4 Comportamento lontano dal nucleo A grandi valori di r il comportamento è dominato dall’ultimo termine della serie, ossia va come χ(r) ∼ rn exp(−Zr/na0 ). Questo significa che (trascurando gli altri termini) |χn` (r)|2 ha un massimo attorno a r = n2 a0 /Z. Questo fornisce una stima grossolana della “dimensione” dell’autofunzione. La dimensione globale è dunque determinata soprattutto da n. 5.6.5 Numero di nodi Poichè nella (5.65) compare un polinomio di grado n − ` − 1, questo è anche il numero di nodi della funzione. In particolare, le autofunzioni con ` = 0 hanno n − 1 nodi; e tutte quelle con ` = n − 1 non hanno nodi. L’aspetto delle funzioni radiali può essere esaminato ad esempio sul sito di Wolfram Research4 o esplorato attraverso l’eccellente applet Java al Davidson College5 . 5.7 Degenerazione accidentale e simmetria dinamica Nonostante il potenziale efficace che appare nella (5.59) dipenda da `, e la parte angolare delle autofunzioni pure dipenda assai fortemente da `, l’espressione (5.64) dipende solo da n. Abbiamo dunque una degenerazione delle energie sugli n possibili valori per `, che si aggiunge a quella di ordine 2` + 1 legata ai possibili valori del numero quantico m [implicata dalla (5.44) in cui m non appare]. La degenerazione complessiva6 associata a n è n−1 X (2` + 1) = n2 (5.72) `=0 La degenerazione delle energie per diversi valori di ` è una situazione molto particolare che si verifica soltanto quando il potenziale di interazione è coulombiano. Si tratta di cioè di una degenerazione accidentale, che scompare appena il potenziale non è più puramente coulombiano. Una degenerazione indica generalmente la presenza di una simmetria, e quindi di una quantità conservata. Ad esempio la degenerazione in m è legata alla simmetria sferica e alla conservazione del momento angolare. Si può far vedere che il corrispondente classico della degenerazione accidentale negli atomi idrogenoidi è la conservazione del vettore di Runge-Lenz M= p×L α − r m r (5.73) verificata per una hamiltoniana classica H= p2 α − 2m r 4 http://library.wolfram.com/webMathematica/MSP/Explore/Physics/Hydrogen http://webphysics.davidson.edu/Applets/Hydrogenic/ 6 Come si vedrà in seguito, in realtà c’è ancora un fattore 2 dovuto allo spin. 5 55 (5.74) È questo il caso del moto relativo di due corpi attratti dalla forza gravitazionale. Come ben noto, le orbite sono ellittiche, e sono orbite chiuse: l’orientazione dell’ellisse non cambia nel tempo. Il vettore di Runge-Lenz è diretto lungo l’asse maggiore dell’ellisse. Il corrispondente vettore quantistico ha una espressione lievemente diversa ma sostanzialmente simile: M= 1 Zqe2 (p × L − L × p) − r 2m r (5.75) e si può far vedere che M è ortogonale a L, e [M, H] = 0: ossia è una quantità conservata. 5.8 Programma: hydrogen Il programma hydrogen radial.f907 oppure hydrogen radial.c8 risolve l’equazione radiale per un atomo idrogenoide. È sostanzialmente basato su harmonic1, con piccole differenze dovute all’equazione leggermente diversa, e alla risoluzione su griglia a passo logaritmico. 5.8.1 Griglia logaritmica La risoluzione numerica diretta della (5.59) presenta qualche difficoltà a causa della singolarità del potenziale a r = 0. Le difficoltà si possono aggirare lavorando su una griglia a passo variabile in r anzichè costante, che diventa sempre più fitta man mano che ci si avvicina all’origine. Una descrizione più approfondita dello schema qui presentato si può trovare nel cap.6 di questo libro: C. Froese Fischer, The Hartree-Fock method for atoms, Wiley, 1977. Chiamiamo x la nuova variabile di integrazione. Definiremo una griglia a passo costante in x, in modo da poter continuare ad adottare il metodo di Numerov senza modifiche. In generale per una mappatura definita da x = f (r) (5.76) ∆x = f 0 (r)∆r (5.77) f (r) ≡ log Zr (5.78) avremo La nostra particolare scelta è che fornisce quindi ∆r (5.79) r Il rapporto ∆r/r si mantiene pertanto costante sulla griglia logaritmica cosı̀ definita. ∆x = 7 8 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/hydrogen radial.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/hydrogen radial.c 56 Tuttavia, trasformando la (5.59) nella variabile x appare anche un termine con la derivata prima, che impedisce l’applicazione del metodo di Numerov. Il problema si aggira trasformando anche la funzione incognita in questo modo: 1 y(x) = √ χ (r(x)) r (5.80) È facile vedere che trasformando la (5.59) in modo da esprimerla in funzione di x e y (ma il potenziale può essere lasciato funzione di r), i termini con la derivata prima si cancellano, e moltiplicando l’intera equazione per r3/2 si ottiene " Zqe2 2me 2 d2 y r + E + dx2 r h̄2 ! 1 − `+ 2 2 # y(x) = 0 (5.81) Come si vede, questa equazione non presenta più singolarità per r = 0. Dal punto di vista pratico, la subroutine do mesh definisce all’inizio e una √ volta per tutte i valori di r, r, r2 per ogni punto della griglia. Il potenziale è pure calcolato una volta per tutte da init pot. La griglia è calcolata a partire da un x minimo pari a -8, corrispondente a Zrmin ' 3.4 × 10−3 unità atomiche (raggi di Bohr). 5.8.2 Applicazione della teoria perturbativa Particolare attenzione merita la sezione del programma: i = icl ycusp = (y(i-1)*f(i-1)+f(i+1)*y(i+1)+10.d0*f(i)*y(i)) / 12.d0 dfcusp = f(i)*(y(i)/ycusp - 1.d0) * Aggiornamento autovalore usando teoria delle perturbazioni de = dfcusp/ddx12 * ycusp*ycusp * dx il cui scopo è quello di stimare al primo ordine in teoria delle perturbazioni la differenza δe fra l’autovalore attuale e quello esatto. Vogliamo spiegare il meccanismo che sta alla base di questa stima (prima di affrontare questa sezione occorre essere familiari col metodo perturbativo descritto nel prossimo capitolo). Ricordiamo che icl è l’indice corrispondente al punto di inversione classico. L’integrazione viene effettuata in avanti sino a questo indice, ed all’indietro pure sino a questo indice. icl è quindi l’indice di raccordo tra le due funzioni. La funzione di destra viene riscalata in modo che non vi sia una discontinuità della funzione y al punto di raccordo, tuttavia la derivata prima dy/dx sarà in generale discontinua (a meno che l’autovalore non sia quello cercato). Si può quindi dire che y(icl) è il valore previsto dalla ricorrenza di Numerov calcolata usando come punto centrale sia icl-1 che icl+1. La ricorrenza di Numerov usando come punto centrale icl non è però mai stata applicata. Il valore calcolato per ycusp è appunto quanto predice la ricorrenza di Numerov usando icl come punto centrale; il problema è che è diverso da y(icl). L’ottica in cui ci porremo ora è quella di pensare che la funzione ottenuta sia la soluzione esatta di un problema diverso, e precisamente di un problema in 57 cui il potenziale nel solo intervallo ∆x centrato su y(icl) è diverso da quello dato. Il potenziale modificato “curva” la soluzione nel modo osservato. Una volta trovata la modifica del potenziale necessaria per ottenere questo effetto, la teoria delle perturbazioni ci fornisce una stima della differenza di autovalore rispetto all’originale. Riesaminiamo la formula di Numerov (3.34), e notiamo come la formula (pensiamola applicata al caso n=icl-1) ci fornisce in realtà il solo prodotto y(icl)f(icl). Solitamente da questo prodotto estraiamo y(icl) perchè f(icl) si pensa dato. Supponiamo ora invece che f al punto icl abbia un diverso valore fcusp non noto, ma tale che la funzione trovata soddisfi alla relazione di Numerov anche nel punto icl. Deve allora essere fcusp ycusp = f(icl) y(icl) in quanto questo prodotto è quanto fornito dal metodo di Numerov (integrando da icl-1 o icl+1), e ycusp è il valore che y deve avere affinchè la ricorrenza di Numerov sia soddisfatta anche in icl. Questo spiega la definizione di dfcusp (variazione di fcusp) calcolata dal programma. Il prossimo step è quello di calcolare la corrispondente variazione del potenziale. Per “potenziale” intendiamo qui il potenziale unidimensionale efficace che appare nell’equazione (5.81), W (x) = (2me /h̄2 )r2 V + (` + 1/2)2 , e da qui nelle definizioni per gli f(i). Differenziando si trova che la variazione del potenziale δW che dà luogo a una variazione δf è data da δW = − h̄2 12 δf 2me (∆x)2 (5.82) La teoria delle perturbazioni al primo ordine ci dà allora la corrispondente variazione dell’autovalore: δe = hy|δW |yi = Z |y(x)|2 δW (x)dx = |y(xc )|2 δW ∆x (5.83) avendo sviluppato l’integrale in una sommatoria sulla griglia, dove l’unico contributo non nullo viene fornito dalla regione di ampiezza ∆x centrata sul punto di inversione classico xc (ossia, nel programma, l’indice icl). Abbiamo dunque trovato che h̄2 12 δe = − |y(xc )|2 δf ∆x (5.84) 2me (∆x)2 è la differenza di autovalore per passare dal potenziale originale a quello perturbato. A parte il diverso segno—in quanto noi desideriamo risalire all’autovalore del problema non perturbato—questa è esattamente l’espressione usata dal programma per il calcolo della correzione all’autovalore de. Finchè si è lontani dalla convergenza, questa correzione è grossolana e può portare a errori considerevoli. Per questo motivo il programma è “protetto” dalla linea e = max(min(e+de,eup),elw) che impedisce in tutti i casi che venga stimato un nuovo valore di e all’esterno dell’intervallo [elw,eip]. Quando il programma procede verso la convergenza, la stima diventa via via sempre migliore e consente una convergenza assai rapida nella fase finale. 58 5.8.3 Laboratorio • Esaminare le soluzioni al variare di n e `; verificare la presenza della degenerazione accidentale. • Provare a modificare leggermente il potenziale definito nella subroutine init pot rimuovendo il suo carattere coulombiano, e verificare che la degenerazione accidentale scompare. Alcune modifiche possibili sono V (r) = −Zqe2 /r1+δ dove δ è un numero piccolo, positivo o negativo; oppure l’aggiunta di uno smorzamento esponenziale: V (r) = −Zqe2 /r exp(−Qr) dove Q è un numero dell’ordine di 0.05 a.u.. 59 Chapter 6 Metodi approssimati La risoluzione esatta, analitica, dell’equazione di Schrödinger è possibile solo in pochi casi, e anche la risoluzione numerica, specie per sistemi a molte particelle, può rivelarsi non banale o non fattibile in pratica. Esistono tuttavia dei metodi approssimati estremamente utili, con cui si può in molti casi ridurre il problema completo a un caso più semplice. 6.1 Metodo perturbativo Supponiamo che l’operatore hamiltoniano possa essere scritto in forma H = H0 + V (6.1) dove H0 è un “operatore hamiltoniano di riferimento” le cui autofunzioni si suppongono note: 0 0 0 H0 ψ m = Em ψm (6.2) e V una “perturbazione” che supporremo piccola, e indipendente dal tempo. 0 siano tutti Supporremo inoltre che non vi sia degenerazione, ossia che gli Em diversi (il caso in cui vi è degenerazione si può pure trattare senza troppa difficoltà). Consideriamo le soluzioni del problema completo: Hψn = En ψn (6.3) 0 costituiscono un insieme completo, è di certo possibile sviluppare Poichè le ψm le ψn secondo X 0 ψn = anm ψm (6.4) m Con questa posizione la (6.3) diventa X X 0 anm En ψm (6.5) 0 0 anm (En − Em )ψm (6.6) 0 anm (H0 + V )ψm = m m da cui X m 0 anm V ψm = X m 60 Moltiplichiamo a sinistra per ψk0∗ e integriamo. Utilizziamo per brevità la notazione di Dirac Z 0 0 hψk0 |V |ψm (6.7) i ≡ ψk0∗ ψm dv (integrato su tutte le coordinate). Si ottiene, sfruttando l’ortonormalità delle 0 , ψm X 0 (6.8) anm hψk0 |V |ψm i = ank (En − Ek0 ) m Fino a questo momento non è stata effettuata alcuna approssimazione. Poniamo ora En = En0 + n (6.9) anm = δnm + αnm (6.10) ottenendo hψk0 |V |ψn0 i + X 0 αnm hψk0 |V |ψm i = (δnk + αnk )(En0 − Ek0 + n ) (6.11) m = n δnk + αnk (En0 − Ek0 + n ) (6.12) e supponiamo che n e αnm , assieme agli integrali (6.7), siano delle quantità piccole. Approssimiamo al primo ordine (eliminando cioè tutti i termini di ordine successivo al primo): hψk0 |V |ψn0 i = n δnk + αnk (En0 − Ek0 ) (6.13) Nel caso k = n abbiamo n = hψn0 |V |ψn0 i (6.14) Questo è un risultato molto importante, che ci permette di ottenere rapidamente una stima del cambiamento di autovalore conseguente a una perturbazione mediante integrali sugli stati imperturbati. Il caso k 6= n ci dà αnk = hψk0 |V |ψn0 i En0 − Ek0 (6.15) che pure ha una interpretazione fisica: uno stato ψn è ottenuto come “miscela” degli stati imperturbati, di cui ψn0 costituisce l’ingrediente fondamentale, e in cui gli altri ψk0 appaiono con coefficienti proporzionali all’”accoppiamento” tra ψn0 e ψk0 attraverso la perturbazione, e inversamente proporzionali alla differenza di energia. Notiamo che al primo ordine deve essere αnn = 0. Infatti 1 = hψn |ψn i = X |δnm + αnm |2 = |1 + αnn |2 + m X |αnm |2 (6.16) m6=n Al primo ordine il membro a destra è 1 + 2αnn , da cui l’asserto. Questo equivale ad affermare che la correzione alla funzione d’onda al primo ordine, ψn1 , è ortogonali alla funzione d’onda imperturbata, ψn0 . 61 Riassumendo, i risultati della teoria delle perturbazioni non dipendenti dal tempo al primo ordine sono (per autovalori non degeneri): En = En0 + hψn0 |V |ψn0 i ≡ En0 + En1 X hψ 0 |V |ψ 0 i m n 0 ψm ≡ ψn0 + ψn1 ψn = ψn0 + 0 − E0 E m n m6=n (6.17) (6.18) È naturalmente possibile sviluppare la teoria delle perturbazioni ad ordini più elevati. Ad esempio al secondo ordine si trova En = En0 + hψn0 |V |ψn0 i + X |hψ 0 |V |ψ 0 i|2 m n . m6=n 0 En0 − Em (6.19) L’osservatore attento noterà come tale espressione sia equivalente alla seguente: En = En0 + hψn0 |V |ψn0 i + hψn0 |V |ψn1 i, (6.20) ovvero: per avere la correzione al prim’ordine dell’energia, bastano le funzioni d’onda imperturbate; per la correzione al second’ordine dell’energia, servono le correzioni al prim’ordine delle funzioni d’onda. In generale, si dimostra il teorema 2n+1: la correzione all’ordine 2n+1 dell’energia si calcola dalla correzione fino all’ordine n sulle funzioni d’onda. 6.1.1 Perturbazioni con autovalori degeneri Nel caso in cui uno o più autovalori siano degeneri, la 6.15 ci mostra chiaramente che tale approccio ha un problema. In effetti le formule sopra ricavate si applicano solo se vale la condizione 0 0 |hψn0 |V |ψm i| << |En0 − Em |, n 6= m (6.21) 0 sono degeneri. La teoria ci che non è ovviamente rispettata se En0 ed Em fornisce la ”ricetta” anche per tale caso. Si ignorano tutti gli elementi di matrice non diagonali (per i quali la 6.21 vale) salvo che sui sottospazi degeneri (cioè, sottospazi generati dalle autofunzioni il cui autovalore è degenere). Per tali sottospazi, tipicamente di dimensioni piccole, si risolve esattamente, ovvero, per diagonalizzazione, il problema; per gli autovalori non degeneri, la 6.14 continua a valere. Il problema, almeno al prim’ordine, si riduce quindi alla soluzione di tanti sottoproblemi la cui dimensione coincide con la degenerazione dell’autovalore imperturbato. Ovviamente tale degenerazione può ridursi o annullarsi per effetto della perturbazione. 6.2 Perturbazioni dipendenti dal tempo: transizioni elettromagnetiche Gli spettri di emissione e di assorbimento degli atomi sono alla base della nascita della meccanica quantistica. Ci attendiamo quindi di poter comprendere e spiegare le loro caratteristiche senza le assunzioni ad hoc che hanno caratterizzato la 62 prima fase dello sviluppo della meccanica quantistica. In particolare, vogliamo capire come far rientrare nel nostro formalismo le transizioni fra livelli energetici diversi, cominciando dal capire il significato di ”transizione”. Abbiamo visto come i livelli di energia siano stati stazionari, che non evolvono se non per un fattore di fase nel corso del tempo. Ciò è tuttavia vero solo in assenza di interazione con il campo elettromagnetico (e.m.). Consideriamo per esempio un atomo che al tempo t = 0 è in uno stato |Ei i (per esempio, lo stato fondamentale). Investiamo l’atomo con un’onda e.m.: il sistema ora è descritto da un Hamiltoniano che include sia l’atomo che il campo e.m. che l’interazione fra atomo e campo e.m., quindi lo stato iniziale evolve nel tempo, diciamo come |Ei (t)i. Ci interessa sapere qual è la probabilità di transizione Pf i (t), ovvero la probabilità che dopo un tempo t (per esempio, dopo il passaggio dell’onda e.m.) l’atomo si trovi in un altro stato |Ef i. Tale probabilità è naturalmente data da (6.22) Pf i (t) = |hEf |Ei (t)i|2 . Il calcolo di tale quantità può essere fatto usando la teoria delle perturbazioni dipendente dal tempo. Per un sistema descritto da un Hamiltoniano: (6.23) H(t) = H0 + H1 (t) dove H0 è l’Hamiltoniano (imperturbato) dell’atomo, H1 (t) la perturbazione causata dal campo e.m., al prim’ordine nella perturbazione si trova il seguente risultato (che non dimostriamo): Z 2 1 t 0 Pf i (t) = 2 hEf |H1 (t0 )|Ei iei(Ef −Ei )t /h̄ dt0 . h̄ 0 (6.24) Resta da decidere come descrivere il campo e.m. in meccanica quantistica. Questo è un problema non banale che richiede la teoria relativistica per una risposta più esauriente. Tuttavia si può ricorrere alla cosidetta descrizione semiclassica del campo e.m., che fornisce già i risultati più importanti. Introduciamo il potenziale vettore A(r, t), in termine del quale i campi elettrico E e magnetico B sono dati da (attenzione: questo paragrafo è in unità CGS!): E= 1 ∂A , c ∂t B = ∇ × A. (6.25) Abbiamo assunto che il nostro sia un campo di radiazione e quindi possiamo porre a zero il potenziale scalare (il potenziale elettrico). Come nel caso classico, la presenza di un campo e.m. nell’Hamiltoniano si ottiene con la seguente sostituzione (detta minimale): pn → pn + eA(rn , t) c (6.26) dove pn e rn sono le quantità di moto e le coordinate dell’n−esimo elettrone nell’atomo. L’Hamiltoniano assume la forma H = H0 + e X pn · A(rn , t) mc n 63 (6.27) dove si è usata la libertà nella definizione di A per scegliere ∇ · A = 0, e si è trascurato il termine di secondo grado in A2 . Per un’onda piana di frequenza ω(> 0) e vettore d’onda k = ω/c, possiamo prendere la seguente forma per il potenziale vettore: A i(k·r−ωt) (6.28) ee + e∗ e−i(k·r−ωt) 2 dove e è il vettore di norma unitaria ortogonale a k, in generale complesso, che rappresenta la polarizzazione della radiazione e.m.. Introduciamo ora l’Eq. (6.28) nell’Eq.(6.24). Poniamo ωf i = (Ef − Ei )/h̄, A(r, t) = eA hEf |(pn ·e)eik·rn |Ei i 2mch̄ e osserviamo il risultato: Gn = Fn = eA hEf |(pn ·e)e−ik·rn |Ei i (6.29) 2mch̄ 2 Z t X Z t i(ωf i −ω)t0 0 i(ωf i +ω)t0 0 Pf i (t) = Fn e dt + Gn e dt . 0 0 (6.30) n Avremo termini oscillanti, la cui media temporale va a zero, salvo che quando h̄ω = Ef − Ei (per il primo termine) o h̄ω = Ei − Ef (per il secondo termine). Nel primo caso abbiamo assorbimento di radiazione e Ef > Ei ; nel secondo caso abbiamo emissione stimolata, con Ef < Ei . Il calcolo può essere portato a termine e la probabilità di transizione per unità di tempo determinata: 2 Wf i X dPf i (t) 4π 2 q 2 ≡ = 2 e2 I(ωf i ) hEf | (pn · e)eik·rn |Ei i , dt m ch̄ωf i n Ei < Ef , (6.31) formula valida sia per l’assorbimento i → f che per l’emissione stimolata f → i con intensità della luce I. Il calcolo dell’emissione spontanea - che non appare nel quadro della teoria semiclassica - si può fare con considerazioni sull’equilibrio nel corpo nero e porta ad una formula in cui appare di nuovo lo stesso elemento di matrice al quadrato che nella (6.31), con coefficienti a moltiplicare differenti. 6.2.1 Transizioni di dipolo Nella sezione precedente abbiamo ritrovato le condizioni note sull’energia della luce incidente affinché una transizione possa avvenire. Tuttavia tale condizione è solo necessaria. Resta da determinare il valore dell’elemento di matrice: X e Df i = hEf | (pn · e)eik·rn |Ei i (6.32) m n che appare nella (6.31), che se nullo (o molto piccolo) renderà la transizione proibita. Per frequenze tipiche di transizione elettroniche negli atomi, k ∼ 1/1000Å, mentre r ∼ 1Å. Di conseguenza, k · rn << 1. Possiamo quindi sostituire 1 all’esponenziale nella (6.32): X e Df i ' hEf | (pn · e)|Ei i. (6.33) m n 64 Questa è l‘approssimazione di dipolo (elettrico). Il motivo del nome diventa evidente se si sfrutta l’identità pn = i m [H0 , rn ] h̄ (6.34) e il fatto che |Ei i and |Ef i sono autostati di H0 per riscrivere Df i ' X i (Ef − Ei )hEf | (rn · e)|Ei i ≡ −iωf i hEf |D · e|Ei i, h̄ n (6.35) dove D = −e n rn è il momento di dipolo elettrico dell’atomo. Analogamente, sviluppi dell’esponenziale di ordine più elevato fanno apparire termini di dipolo magnetico, quadrupolo elettrico, etc., nell’elemento di matrice Df i . Gli stati atomici saranno in generale classificabili come autostati del momento angolare (totale) L e della proiezione del momento angolare totale M lungo un asse (diciamo z): |Ei i ≡ |Ei , L, M i. Avranno inoltre una parità definita. Si possono enunciare e facilmente dimostrare varie regole di selezione: P • sulla parità: gli elementi di matrice di D fra stati aventi la stessa parità sono nulli; • sul momento angolare: hEf , L0 , M 0 |D|Ei , L, M i 6= 0 solo se L0 − L = −1, 0, 1, purché L + L0 > 0; • sulla proiezione del momento angolare: definiamo gli operatori D+ = Dx + iDy , D− = Dx − iDy . Gli elementi di matrice non nulli sono: hEf , L0 , M 0 |D+ |Ei , L, M i se M 0 = M + 1; hEf , L0 , M 0 |D− |Ei , L, M i se M 0 = M − 1; hEf , L0 , M 0 |Dz |Ei , L, M i se M 0 = M . Quest’ultima regola è particolarmente utile perché permette di distinguere le varie transizioni fra stati con M differente, usando luce polarizzata: infatti lo specifico elemento di matrice del dipolo dipende dalla polarizzazione e. 6.3 Metodo variazionale Consideriamo un operatore hamiltoniano H e una funzione ψ, che può essere fatta variare liberamente con la condizione che resti normalizzata a 1. Si può calcolare il valor medio dell’energia per questa funzione (che in generale non sarà un’autofunzione di H): hHi = Z ψ ∗ Hψ dv (6.36) dove v rappresenta tutte le coordinate di integrazione. Il principio variazionale afferma che le funzioni ψ per le quali hHi è stazionario—ossia non varia al primo ordine per piccole variazioni di ψ—sono le autofunzioni dell’energia. In altre parole, l’equazione di Schrödinger è equivalente ad una condizione di stazionarietà. 65 6.3.1 Dimostrazione del principio variazionale (I) Poichè una variazione arbitraria δψ di una funzione d’onda in generale ne distrugge la normalizzazione, è conveniente utilizzare la definizione più generale di valor medio R ∗ ψ Hψ dv (6.37) hHi = R ∗ ψ ψ dv Modificando la ψ in ψ + δψ, il valor medio diventa (ψ ∗ + δψ ∗ )H(ψ + δψ) dv (ψ ∗ + δψ ∗ )(ψ + δψ) dv R ∗ R R ψ Hψ dv + δψ ∗ Hψ dv + ψ ∗ Hδψ dv R R R ψ ∗ ψ dv + δψ ∗ ψ dv + ψ ∗ δψ dv R hHi + δhHi = = R Z = Z ∗ ψ Hψ dv + Z ∗ δψ Hψ dv + ∗ ψ Hδψ dv × R R ∗ δψ ∗ ψ dv ψ δψ dv 1 R R R − 1 − ψ ∗ ψ dv ψ ∗ ψ dv ψ ∗ ψ dv (6.38) dove si sono omessi i termini del secondo ordine in δψ, e si è usata l’approssimazione 1/(1+x) ' 1−x valida per piccoli x. Omettendo nuovamente i termini di ordine superiore al primo: R δhHi = δψ ∗ Hψ dv R + ψ ∗ ψ dv R ψ ∗ Hδψ ∗ dv R − hHi ψ ∗ ψ dv R ∗ R δψ ∗ ψ dv ψ δψ dv R + R ∗ . (6.39) ψ ∗ ψ dv ψ ψ dv I due termini nella parentesi tonda sono l’uno il complesso coniugato dell’altro, e lo stesso vale anche per i primi due poichè H è un operatore hermitiano, e soddisfa quindi a Z Z a∗ Hb dv = b∗ Ha dv ∗ (6.40) per qualsiasi coppia di funzioni a e b. Pertanto R δhHi = δψ ∗ Hψ dv R + c.c. − hHi ψ ∗ ψ dv R δψ ∗ ψ dv R + c.c. . ∗ ψ ψ dv (6.41) Supponiamo ora che ψ sia tale che hHi sia stazionario rispetto a qualsiasi sua variazione. Sarà allora δhHi = 0, ossia Z δψ ∗ [H − hHi] ψ dv + c.c. = 0 (6.42) per una variazione δψ arbitraria, e questo implica che deve essere [H − hHi] ψ = 0 (6.43) ovvero ψ è una soluzione dell’equazione di Schrödinger: Hψ = Eψ 66 (6.44) 6.3.2 Dimostrazione del principio variazionale (II) Un altro modo di dimostrare lo stesso principio, utile in seguito, è basato sul metodo dei moltiplicatori di Lagrange. Il metodo afferma che se si vuole rendere stazionario un integrale I0 mantenendo allo stesso tempo costanti altri integrali I1 . . . Ik , si può porre ! δ I0 + X λk Ik =0 (6.45) k dove λk sono costanti da determinare. Nel nostro caso avremo Z ψ ∗ Hψ dv (6.46) ψ ∗ ψ dv (6.47) δ(I0 + λI1 ) = 0 (6.48) I0 = Z I1 = e quindi porremo con λ da determinare. Procedendo come nella sezione precedente si ha Z δI0 = Z δI1 = δψ ∗ Hψ dv + c.c. (6.49) δψ ∗ ψ dv + c.c. (6.50) e quindi la condizione da soddisfare è Z δ(I0 + λI1 ) = δψ ∗ [H + λ]ψ dv + c.c. = 0 (6.51) da cui Hψ = −λψ (6.52) ossia il moltiplicatore di Lagrange è uguale, a meno del segno, a un autovalore dell’energia. Nuovamente vediamo che gli stati la cui energia media è stazionaria rispetto a qualsiasi variazione della funzione d’onda sono le soluzioni dell’equazione di Schrödinger. 6.3.3 Energia dello stato fondamentale Siano ψn le autofunzioni di un hamiltoniano H, a cui sono associate energie En : Hψn = En ψn (6.53) Supponiamo che lo stato fondamentale corrisponda a n = 0 e abbia quindi energia E0 . Sia ψ una qualunque altra funzione. Dimostriamo che si ha necessariamente R ∗ ψ Hψ dv hHi = R ∗ ≥ E0 (6.54) ψ ψ dv Per dimostrarlo, pensiamo di sviluppare ψ usando la base delle autofunzioni dell’energia. Ciò è sempre possibile perchè le autofunzioni dell’energia costituiscono un sistema completo e ortonormale, come dimostrato in 4.1. ψ= X n 67 cn ψn (6.55) Sarà allora P P 2 2 n |cn | (En − E0 ) n |cn | En P = E + hHi = P 0 2 2 n |cn | n |cn | (6.56) Poichè il secondo termine è positivo o nullo, essendo per definizione di stato fondamentale En ≥ E0 , la (6.54) è dimostrata. Questo risultato è semplice ma estremamente importante: ci dice che data una qualsiasi ψ, il suo valor medio dell’energia è sempre una stima superiore dell’energia dello stato fondamentale. Se lo stato fondamentale non è noto, si può quindi pensare di cercare una sua approssimazione facendo variare ψ nell’ambito di un insieme di funzioni di prova e cercando quella funzione che minimizza hHi. Questa è l’essenza del metodo variazionale. 6.3.4 Il metodo variazionale in pratica Si identifica una famiglia di funzioni d’onda di prova ψ(v; α1 , . . . , αr ), dove v è l’insieme delle variabili, e gli αi sono parametri. L’autovalore dell’energia sarà una funzione del parametri: Z E(α1 , . . . , αr ) = ψ ∗ Hψ dv (6.57) Il metodo variazionale consiste nel cercare il minimo di E rispetto a variazioni dei parametri, imponendo cioè ∂E ∂E = ... = =0 ∂α1 ∂αr (6.58) La ψ che soddisfa a queste condizioni con l’energia più bassa è quella che più si avvicina allo stato fondamentale. Può essere considerata come la miglior approssimazione possibile allo stato fondamentale tra l’insieme delle funzioni di prova. È chiaro che la scelta della famiglia delle funzioni di prova gioca un ruolo cruciale e va effettuata con attenzione. 6.4 Problema secolare Il metodo variazionale può essere ricondotto ad un problema algebrico immaginando di sviluppare la funzione d’onda in una base finita di funzioni, e applicando il metodo variazionale per trovare i coefficienti ottimali dello sviluppo. Basandoci sulla (6.45), ciò significa calcolare il funzionale (ossia una funzione di funzione) G[ψ] = hψ|H|ψi − hψ|ψi Z = ψ ∗ Hψ dv − Z ψ ∗ ψ dv (6.59) e imporre che G[ψ] sia minimo. Questo dà luogo a una equazione per i coefficienti dello sviluppo che ora determineremo. È fondamentale notare che la nostra base è costituita da un numero finito N di funzioni, e quindi non costituirà un sistema completo: ossia non sarà in 68 generale possibile sviluppare una qualsiasi funzione ψ in questa base, tra cui in generale anche le soluzioni esatte dell’equazione di Schrödinger. Quello che faremo è quindi trovare la ψ che meglio si avvicina al vero stato fondamentale nell’ambito di tutte le funzioni esprimibili come combinazione lineare delle N funzioni di base scelte. 6.4.1 Sviluppo in funzioni ortonormali Supponiamo di avere a disposizione una base di N funzioni bi fra loro ortonormali: Z hbi |bj i ≡ b∗i bj dv = δij (6.60) e sviluppiamo una generica ψ in questa base: ψ= N X ci bi (6.61) i=1 Sostituendo la (6.61) nella (6.59) si vede immediatamente che quest’ultima prende la forma G(c1 , . . . , cN ) = X = X c∗i cj Hij − ij X c∗i cj δij ij c∗i cj (Hij − δij ) (6.62) ij dove si è posto Hij = hbi |H|bj i = Z b∗i Hbj dv (6.63) Poichè sia H che la base sono dati, Hij è una matrice quadrata di numeri perfettamente nota, e che per la proprietà di hermiticità dell’operatore hamiltoniano tale che Hji = Hij∗ (6.64) (quindi simmetrica nel caso in cui tutti gli elementi siano reali). Come richiesto dal metodo variazionale, minimizziamo la (6.62) rispetto ai coefficienti: ∂G =0 ∂ci (6.65) e questo fornisce1 X (Hij − δij )cj = 0 (6.66) j 1 Lo scettico può separare i coefficienti in una parte reale e una immaginaria ck = xk + iyk , richiedere che siano nulle sia le derivate rispetto a xk che quelle rispetto a yk , e otterrà (sfruttando l’hermiticità) un sistema dove Wk = P j Wk + Wk∗ = 0 −iWk + iWk∗ = 0 (Hkj − δkj )cj , che ammette come soluzione solo Wk = 0. 69 Notiamo che se la base fosse un sistema completo (e quindi infinita), questa sarebbe una forma dell’equazione di Schrödinger. Abbiamo quindi dimostrato che queste stesse equazioni, nel caso in cui la base sia finita, costituiscono la migliore approssimazione possibile alla vera soluzione secondo il principio variazionale. La (6.66) è un sistema di N equazioni algebriche lineari e omogenee (non ci sono termini costanti) per le N incognite cj . In generale questo sistema ha come unica soluzione possibile tutti i cj nulli (caso che ovviamente non corrisponde ad alcuna funzione d’onda). Per avere soluzioni non nulle è necessario che il determinante dei coefficienti sia nullo: det |Hij − δij | = 0 (6.67) Ciò corrisponde in pratica a dire che una delle equazioni è una combinazione lineare delle altre, e quindi il sistema si riduce in realtà a un sistema di N − 1 equazioni con N incognite, che ammette soluzione non nulla. La (6.67) è detta equazione secolare. Si tratta di una equazione algebrica di grado N in (come subito si vede sviluppando il determinante e notando che la diagonale principale genera un termine contenente N , e tutte le altre diagonali termini con potenze inferiori), che possiede quindi N radici. Queste radici sono dette gli autovalori. La (6.66) può anche essere scritta in forma matriciale Hc = c (6.68) dove H è qui la matrice N × N costituita dagli Hij , e c è un vettore costituito dai ci disposti in colonna. Le soluzioni c sono quindi anche chiamati autovettori. Per ogni radice (autovalore) vi sarà un corrispondente autovettore (determinato a meno di una costante moltiplicativa, fissata dalla normalizzazione). Avremo quindi N autovettori. Si potrà allora scrivere che vi sono N soluzioni ψk = X Cik bi , k = 1, . . . , N (6.69) i dove Cik è una matrice costruita disponendo in colonna, fianco a fianco, gli N autovettori, e tali che Hψk = k ψk (6.70) ovvero, in forma matriciale, prendendo la componente i−ima, (Hψk )i = X Hij Cjk = k Cik (6.71) j La (6.68) è una equazione comune nell’algebra lineare, ed esistono metodi standard per risolverla. Data una matrice H, si ottengono quindi facilmente— attraverso routine di libreria—la matrice C e un vettore di autovalori . Il processo di risoluzione è anche noto come diagonalizzazione. Questo nome deriva dalla seguente importante proprietà di C. La (6.69) può essere vista come una trasformazione delle N funzioni di partenza in un altro insieme di N funzioni attraverso una matrice di trasformazione. Si può far vedere che 70 se le bi sono fra loro ortonormali anche le ψk lo sono. Si dice allora che la trasformazione è unitaria. Ciò corrisponde ad affermare che X ∗ Cij Cik = δjk (6.72) i o in notazione matriciale † ∗ (C −1 )ij = Cji ≡ Cij (6.73) ossia la matrice inversa è uguale alla trasposta coniugata, ovvero alla matrice aggiunta (cioè C è una matrice unitaria). Consideriamo ora il prodotto di matrici C −1 HC e calcoliamo un suo elemento: (C −1 HC)kn = X = X (C −1 )ki Hij Cjn ij ∗ Cik i = X Hij Cjn j X ∗ Cik n Cin i = n X ∗ Cin Cik i (6.74) = n δkn avendo fatto uso dei risultati precedenti. Si dice allora che la trasformazione C riduce H in forma di una matrice diagonale, i cui N elementi non nulli sono gli autovalori. Possiamo vedere quindi il nostro problema agli autovalori come quello della ricerca di una trasformazione che porti dalla base originale ad una nuova base in cui l’operatore H ha una forma diagonale, ossia agisce sugli elementi della base semplicemente moltiplicandoli per una costante (equazione di Schrödinger). 6.4.2 Sviluppo in funzioni non ortonormali I metodi di algebra di lineare permettono di trattare agevolmente anche il caso in cui la base è costituita da funzioni non ortonormali tra loro, in cui cioè Sij = hbi |bj i = Z b∗i bj dv (6.75) non è pari a δij . Gli Sij vengono detti integrali di overlap, per ovvi motivi. Talvolta risulta comodo lavorare con basi di questo tipo. Considerazioni simili a quelle effettuate all’inizio della sezione precedente indicano che in questo caso la (6.62) assume la forma più generale G(c1 , . . . , cN ) = X c∗i cj (Hij − Sij ) (6.76) ij e la condizione di minimo (6.66) diventa X (Hij − Sij )cj = 0 j 71 (6.77) o in forma matriciale Hc = Sc (6.78) noto come problema agli autovalori generalizzato. Risolvere un problema agli autovalori generalizzato corrisponde dal punto di vista numerico a risolvere due problemi agli autovalori semplici. Supponiamo infatti di procedere in due stadi, occupandosi prima del problema ausiliario Sd = σd (6.79) Questo è del tutto analogo al problema (6.68). Potremo cosı̀ trovare una matrice D (ottenuta disponendo gli autovettori per colonne), tale che D−1 SD sia diagonale, e i cui elementi non nulli siano gli autovalori σ. Si otterrà una equazione analoga alla (6.74): X ∗ Dik X i Sij Djn = σn δkn (6.80) j Supponiamo però di definire un’altra matrice di trasformazione Dij Aij ≡ √ σj (6.81) Si avrà allora X A∗ik i X Sij Ajn = δkn (6.82) j o in forma matriciale A∗T SA = I (6.83) dove T indica trasposizione. Una matrice A con questa proprietà può dunque essere ottenuta risolvendo un normale problema agli autovalori. Poniamo ora c = Av (6.84) Con questa posizione, l’equazione (6.78) diventa HA v = SA v (6.85) Moltiplichiamo a sinistra per A∗T : A∗T HA v = A∗T SA v = v (6.86) Pertanto, se risolviamo ora il problema secolare per l’operatore A∗T HA troveremo gli autovalori desiderati per l’energia. Per ottenere gli autovettori nella nostra base di partenza basterà, secondo la (6.84), applicare l’operatore A su ciascun autovettore. 72 6.5 Programma: hydrogen gauss Il programma hydrogen gauss.f902 (oppure hydrogen gauss.c3 ) risolve il problema secolare per l’atomo di idrogeno utilizzando due diverse basi non ortonormali: 1. una base gaussiana “onda S”: 2 bi (r) = e−αi r ; (6.87) 2. una base gaussiana “onda P”, di cui esistono tre scelte possibili, corrispondenti a valori diversi di m: 2 2 bi (r) = xe−αi r , bi (r) = ye−αi r , 2 bi (r) = ze−αi r . (6.88) L’operatore hamiltoniano del problema è ovviamente H=− h̄2 ∇2 Zqe2 − 2me r (6.89) e per l’atomo di idrogeno Z = 1. I calcoli per l’onda S e l’onda P sono del tutto indipendenti: si tratta di due basi distinte. La base in onda P è chiaramente inadatta a descrivere lo stato fondamentale, perchè non ha la simmetria (angolare) giusta, e viene inclusa a scopo didattico. Il codice legge da file una lista di esponenti αi e procede quindi a valutare tutti gli elementi delle matrici Hij e Sij . Il calcolo è basato sulle espressioni degli integrali calcolati analiticamente. In particolare si trova per l’onda S Z Sij = −(αi +αj )r2 3 e d r= π αi + αj !3/2 (6.90) e inoltre i termini cinetico e coulombiano di Hij sono rispettivamente HijK Z = −αi r2 e HijV " # h̄2 ∇2 −αj r2 3 h̄2 6αi αj − e d r= 2me 2me αi + αj Z = −αi r2 e " π αi + αj !3/2 (6.91) # Zq 2 2πZqe2 2 − e e−αj r d3 r = − r αi + αj (6.92) Per l’onda P si procede analogamente, utilizzando le corrispondenti espressioni per gli integrali. Il codice procede dunque a chiamare la subroutine diag che risolve il problema secolare generalizzato (ossia applica il principio variazionale), ritornando il vettore e contenente gli autovalori in ordine crescente di energia, e la matrice v contenente gli autovettori, ossia i coefficienti dello sviluppo. 2 3 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/hydrogen gauss.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/hydrogen gauss.c 73 Al suo interno, diag effettua il calcolo in due stadi descritto nella sezione precedente, delegando la risoluzione del problema agli autovalori semplice alla subroutine dsyev della libreria di algebra lineare LAPACK4 , ed utilizzando alcune chiamate addizionali a subroutines della libreria BLAS5 . Informazioni addizionali su queste librerie sono disponibili a partire dalla pagina del corso lapack.html6 . Notare come dopo la prima diagonalizzazione della matrices S, diag getta via tutti gli autovettori corrispondenti ad autovalori molto piccoli, entro una soglia di tolleranza numerica. Questi corrispondono a combinazioni quasi linearmente dipendenti dalle altre, che quindi implicano una quasi singolarità della matrice. Il numero di vettori di base linearmente indipendenti trovati viene riportato nell’output. Tale procedura non è in linea di principio necessaria: esistono routines di LAPACK che risolvono il problema secolare generalizzato Hψ = Sψ in una sola chiamata. Se la base è ben scelta, la matrice S non ha autovalori molto piccoli e le conseguenti instabilità numeriche. Tuttavia è facile verificare che in presenza di molte funzioni di base, o di funzioni di base mal scelte (per esempio troppo vicine) si possano avere autovalori quasi singolari. Una buona scelta dei coefficienti αj è fondamentale per avere un’alta accuratezza e assenza di instabilità. Il programma procede quindi a scrivere i coefficienti dello sviluppo nel file s-coeff.out (p-coeff.out): per ogni funzione j, e la funzione d’onda dello stato fondamentale nel file s-wfc.out (p-wfc.out). 6.5.1 Laboratorio • osservare e discutere lo stato fondamentale ottenuto con la base d’onde P • verificare l’accuratezza degli autovalori dell’energia • osservare gli effetti legati al numero di funzioni di base, e alla scelta dei parametri α. Provate per esempio a scegliere le lunghezze caratteristiche √ delle gaussiane, λ = 1/ α, uniformemente distribuite fra un λmin e un λmax opportunamente scelto. • confrontare la soluzione con quella ottenuta dal programma hydrogen. Provare in particolare la seguente base ottimizzata di quattro gaussiane: α1 = 0.121949, α2 = 0.444529, α3 = 1.962079, α4 = 13.00773 (a.u.). • Per Z > 1, come riscalereste i coefficienti delle gaussiane adatti per Z = 1? 4 http://www.netlib.org/lapack/ http://www.netlib.org/blas/ 6 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/lapack.html 5 74 6.6 Base di onde piane Un altro tipo di base comunemente impiegato in fisica è la base di onde piane. Questa è strettamente legata al concetto di trasformata di Fourier. Una funzione f (x) definita su tutto l’asse reale può essere sviluppata in componenti di Fourier, fe(k): ∞ 1 √ fe(k)eikx dk 2π −∞ Z ∞ 1 √ f (x)e−ikx dx. 2π −∞ Z f (x) = fe(k) = (6.93) (6.94) Per un intervallo finito [−L/2, L/2], possiamo invece scrivere f (x) = fe(kn ) = 1 Xe √ f (kn )eikn x L n 1 √ L Z L/2 (6.95) f (x)e−ikn x dx (6.96) −L/2 con kn = 2πn/L, n = 0, ±1, ±2, .... Da notare che la f (x) dell’Eq.6.95 è per costruzione una funzione periodica di periodo L: vale f (x + L) = f (x), come si verifica immediatamente. Ciò implica che deve valere f (−L/2) = f (+L/2) (condizioni al contorno periodiche). Le formule qui sopra si generalizzano in modo banale a tre o più dimensioni. Nel seguito ci limiteremo ad un caso unidimensionale. Definiamo quindi la nostra base di onde piane bi (x) secondo la (6.95): 1 bi (x) = √ eiki x , L ki = 2π i, L i = 0, ±1, ±2, ..., ±N (6.97) e i relativi coefficienti ci della funzione d’onda ψ(x) come Z L/2 ci = −L/2 b∗i (x)ψ(x)dx = hbi |ψi, ψ(x) = X ci bi (x). (6.98) i Questa base, composta da 2N + 1 funzioni, diventa completa nel limite N → ∞ (è una conseguenza delle note proprietà delle serie di Fourier). E’ immediato verificare che questa base è ortonormale: Sij = hbi |bj i = δij . La soluzione del problema di una particella sotto ad un potenziale richiede quindi la diagonalizzazione della matrice hamiltoniana, i cui elementi di matrice: Hij = hbi |H|bj i = hbi | p2 + V (x)|bj i 2m (6.99) sono banali. Il termine cinetico è diagonale: hbi | p2 h̄2 |bj i = − 2m 2m Z L/2 −L/2 b∗i (x) d 2 bj h̄2 ki2 (x)dx = δ . ij dx2 2m (6.100) Il termine di potenziale non è altro che una trasformata di Fourier: 1 hbi |V (x)|bj i = L Z L/2 1 V (x)e−i(ki −kj )x dx = √ Ve (ki − kj ). L −L/2 75 (6.101) Di conseguenza, gli elementi di matrice del potenziale tenderanno a zero per grandi valori di ki − kj tanto più rapidamente quanto più il potenziale varia lentamente, e viceversa. Potenziali (e funzioni d’onda) che variano su di una scala tipica di lunghezza λ avranno trasformata di Fourier significativa fino a kmax ∼ 2π/λ. In questo modo possiamo stimare il numero di onde piane necessarie per risolvere un problema. 6.7 Programma: pwell Consideriamo un semplice problema: i livelli di una buca di potenziale a a per x < − , x > 2 2 a a V (x) = −V0 per − ≤ x ≤ 2 2 V (x) = 0 (6.102) (6.103) dove V0 > 0, a < L. Gli elementi di matrice dell’hamiltoniana sono dati dal’Eq. (6.100) per la parte cinetica, dall’Eq.(6.101) per la parte potenziale. Quest’ultima si calcola esplicitamente: 1 hbi |V (x)|bj i = − L Z a/2 −a/2 V0 e−i(ki −kj )x dx (6.104) a/2 V0 e−i(ki −kj )x = − V0 L −i(ki − kj ) −a/2 = V0 sin (a(ki − kj )/2) , L (ki − kj )/2 (6.105) ki 6= kj . (6.106) Il caso ki = kj va trattato a parte e dà Ve (0) = V0 a . L (6.107) Il programma pwell.f90 genera i ki , riempe la matrice Hij e la diagonalizza. Il programma usa unità nelle quali h̄2 /2m = 1. I dati di input sono: larghezza (a) e profondità (V0 ) della buca, larghezza della scatola (L), numero di onde piane (2N + 1). In uscita, il programma stampa i tre livelli più bassi e la funzione d’onda dello stato fondamentale (su file). 6.7.1 Laboratorio • Osservate la convergenza dei risultati con il numero di onde piane e verificate la forma della funzione d’onda. Verificate l’energia (per esempio: per V0 = 1, a = 2, il risultato esatto è E = 0.4538) in particolare nel caso limite V0 → ∞. • Osservate la convergenza rispetto a L. Si noti come per valori di L non molto grandi, l’energia calcolata con il metodo variazionale è inferiore al valore esatto. Perché? 76 • Provate a modificare il programma per una buca di forma gaussiana (la cui trasformata di Fourier è nota in forma analitica). A parità di ”larghezza”, converge più rapidamente il problema a buca quadrato o quello a buca gaussiana? • Sappiamo che per un potenziale simmetrico rispetto alla parità, V (−x) = V (x), le soluzioni hanno parità alternata: pari lo stato fondamentale, dispari il primo stato eccitato, e cosı̀ via. Sfruttate questo fatto per ridurre il problema in due sottoproblemi, uno per gli stati pari e uno per gli stati dispari, usando funzioni seno e coseno ottenute come combinazioni delle onde piane usate finora (attenzione alla normalizzazione corretta e al termine kn = 0). Cosa ci si guadagna in termini computazionali? 77 Chapter 7 Atomi a più elettroni 7.1 Lo spin Gli esperimenti indicano che alle particelle si deve associare un “momento angolare intrinseco”, o spin, indipendentemente dalla loro natura (particelle elementari o con una struttura interna), e indipendentemente dal loro moto nello spazio. Si tratta di una variabile in più necessaria per descrivere il sistema. Lo spin di una particella può comparire nell’hamiltoniana sia perchè accoppiato ad esempio con un campo magnetico esterno, o perchè accoppiato con lo stesso momento angolare orbitale, e quindi dare origine a effetti chiaramente osservabili. Lo spin S è un momento angolare—nel senso che soddisfa all’algebra di commutazione (A.39)—e quindi valgono tutti i risultati della sez.A.7. Inoltre, l’autovalore di S 2 è una proprietà intrinseca di un tipo di particelle, e quindi ciò che varia è la proiezione ms dello spin lungo un asse. In particolare lo spin dell’elettrone è 1/2. Ciò significa che S 2 ha il valore fissato (3/4)h̄2 , e la sua proiezione lungo un asse ha autovalori −h̄/2 o +h̄/2. Lo spin di un elettrone può essere rappresentato dalle matrici di Pauli: σ h̄ x S = σ y , σx = 2 σz 0 1 1 0 ! , σy = 0 −i i 0 ! , σz = 1 0 0 −1 ! . (7.1) Tali matrici agiscono su vettori di dimensione 2, gli spinori: φ= α β ! (7.2) , in cui la parte superiore (α) rappresenta lo stato con spin up, la parte inferiore (β) lo stato con spin down. Si verifica facilmente che le matrici di Pauli danno le corrette relazioni di commutazione, e in più 3h̄2 h̄2 2 S = (σx + σy2 + σz2 ) = 4 4 2 78 1 0 0 1 ! = 3h̄2 . 4 (7.3) 7.2 Composizione di momenti angolari: la rappresentazione accoppiata Consideriamo un sistema in cui J1 e J2 sono due operatori momento angolare che commutano tra loro. Ciò accade quando si riferiscono a sistemi fisici indipendenti; ad esempio i momenti angolari di due particelle diverse, oppure il momento angolare orbitale e quello di spin di una stessa particella nell’assunzione che non vi siano interazioni che li accoppiano. Avremo quindi quattro osservabili commutanti per descrivere il sistema: J12 , J1z , J22 e J2z , e gli autostati comuni saranno caratterizzati dall’insieme di numeri quantici j1 , m1 , j2 e m2 . Dati j1 e j2 , avremno quindi (2j1 + 1)(2j2 + 1) stati distinti. Esiste anche un’altro utile insieme di osservabili per descrivere lo stesso sistema. Definiamo l’operatore momento angolare totale J = J1 + J2 (7.4) È immediato verificare che anche J deve soddisfare all’algebra di commutazione del momento angolare. Infatti [Jx , Jy ] = = = = [J1x + J2x , J1y + J2y ] [J1x , J1y ] + [J2x , J2y ] ih̄J1z + ih̄J2z ih̄Jz (7.5) avendo sfruttato il fatto che i commutatori fra componenti relative al sistema 1 e al sistema 2 sono per ipotesi nulle. Avremo quindi [Jz , J 2 ] = 0. Possiamo descrivere allora il sistema anche usando i quattro operatori J12 , 2 J2 , J 2 e Jz . Si tratta della cosiddetta rappresentazione accoppiata (il motivo di questo nome sarà chiaro tra breve). Per dimostrare che commutano tutti fra loro ci resta da vedere che [J12 , J 2 ] = [J22 , J 2 ] = 0, e che [J12 , Jz ] = [J22 , Jz ] = 0. [J12 , J 2 ] = = = = = e [J12 , Jx Jx + Jy Jy + Jz Jz ] Jx [J12 , Jx ] + [J12 , Jx ]Jx + (. . .) Jx [J12 , J1x + J2x ] + [J12 , J1x + J2x ]Jx + (. . .) Jx [J12 , J1x ] + [J12 , J1x ]Jx + (. . .) 0 [J12 , Jz ] = [J12 , J1z + J2z ] = [J12 , J1z ] = 0 (7.6) (7.7) Indichiamo con j1 , j2 , j e m i numeri quantici che caratterizzano gli autovalori dei nostri operatori. Dati j1 e j2 , j varierà da un certo jmin a un certo jmax , che ora identificheremo. m è la proiezione di Jz = J1z + J2z , e quindi per definizione dovrà essere m = m1 + m2 . Da questo si desume che il massimo valore possibile per m è j1 + j2 , ma il massimo valore possibile per m è anche pari a jmax . Dunque jmax = j1 + j2 . 79 jmin si ottiene imponendo che il numero totale di stati sia lo stesso ottenuto nella prima rappresentazione: j1X +j2 (2j + 1) = (2j1 + 1)(2j2 + 1) (7.8) j=jmin Si può verificare che questo fornisce jmin = |j1 − j2 |. Dunque j = |j1 − j2 |, . . . , j1 + j2 . Si può pensare che nel caso j = |j1 − j2 | i due vettori abbiano la stessa direzione ma verso opposto, e nel caso j = j1 + j2 la stessa direzione e verso; i casi intermedi corrispondono a momenti angolari che puntano in direzioni diverse. 7.2.1 Esempio: singoletti e tripletti Supponiamo che sia j1 = 1/2 e j2 = 1/2. Avremo quattro stati indipendenti, con m1 = ±1/2 e m2 = ±1/2. Passiamo alla rappresentazione accoppiata. I possibili valori di j sono j = 0 e j = 1. Nel caso j = 0 si può avere solo m = 0 (“stato di singoletto”). Nel caso j = 1 si avrà m = 0, ±1 (“stati di tripletto”). In totale vi sono sempre quattro stati. 7.2.2 Presenza di accoppiamento Perchè abbiamo introdotto questa rappresentazione, apparentemente equivalente a quella che considera i due momenti angolari separatamente? Il motivo è che in molti casi sono presenti termini nell’hamiltoniana che accoppiano i momenti angolari tra loro. Comune è ad esempio il caso di una “coppia” che tende ad allineare i due vettori: H = . . . − AJ1 · J2 (7.9) In presenza di tale termine, J1z e J2z non sono più conservati, ossia non sono più buoni numeri quantici. Infatti [J1z , −AJ1 · J2 ] = −A[J1z , J1x J2x + J1y J2y + J1z J2z ] (7.10) = −A[J1z , J1x ]J2x − A[J1z , J1y ]J2y (7.11) = −ih̄A(J1y J2x − J1x J2y ) (7.12) e questo operatore in generale non è nullo. Viceversa, è immediato vedere che J1z +J2z è conservato, in quanto [J2z , −AJ1 · J2 ] risulta essere uguale al termine calcolato qua sopra con segno opposto. 7.3 Particelle identiche: principio di indistinguibilità Nella meccanica quantistica non esiste il concetto di traiettoria della meccanica classica, che presuppone la conoscenza simultanea della posizione e della velocità delle particelle. Ciò ha delle importanti implicazioni. Supponiamo di considerare due particelle del tutto identiche (ad esempio due elettroni), e di determinare con elevata precisione la loro posizione ad un 80 certo istante t, trovando due posizioni r1 e r2 . Supponiamo di ripetere la misura ad un successivo istante t0 , trovando delle posizioni r01 e r02 . Siamo in grado di dire se la particella in r01 era quella che si trovava in r1 , oppure quella che si trovava in r2 all’osservazione precedente? La risposta è no. Questo è un principio generale che prende il nome di “principio di indistinguibilità”: Dato un sistema contenente N particelle fra loro identiche, è impossibile che una misura dia risultati diversi se si immagina di scambiare fra loro due particelle. In altre parole, il sistema deve essere simmetrico rispetto a tutte le permutazioni possibili. Immaginiamo per il momento di avere a che fare con un sistema in cui le particelle non interagiscono fra loro. Il problema di Schrödinger è allora separabile in N equazioni ad una particella, ed è possibile scrivere una soluzione per la funzione d’onda complessiva in forma di prodotto di soluzioni delle funzioni d’onda per le singole particelle. Per un sistema a due particelle: ψ(1, 2) = φ1 (1)φ2 (2) (7.13) dove abbiamo indicato con (1) e (2) le variabili associate alle due particelle (tipicamente per ogni particella le tre coordinate di posizione e la variabile di spin intrinseco), mentre invece gli indici bassi in φ1 e φ2 indicano la particolare funzione d’onda scelta, classificata coi numeri quantici del problema a una particella. Ebbene, la (7.13) non è una soluzione accettabile perchè—pur soddisfacendo all’equazione di Schrödinger—viola il principio di instinguibilità. Lo scambio delle particelle porta infatti ad una funzione ψ(1, 2) = φ2 (1)φ1 (2) (7.14) che pure è soluzione dell’equazione di Schrödinger ed è nettamente diversa dalla precedente. Ad esempio φ1 potrebbe essere un orbitale 1s, φ2 un orbitale 2p, e le due funzioni sopra darebbero origine a distribuzioni di densità (quantità misurabili) diverse. È comunque possibile costruire soluzioni che soddisfano al principio di indistinguibilità combinando opportunamente le (7.13) e (7.14): 1 ψs (1, 2) = √ [φ1 (1)φ2 (2) + φ2 (1)φ1 (2)] 2 (7.15) (funzione d’onda simmetrica) e 1 (7.16) ψa (1, 2) = √ [φ1 (1)φ2 (2) − φ2 (1)φ1 (2)] 2 √ (funzione d’onda antisimmetrica) I fattori 1/ 2 servono a mantenere le normalizzazioni corrette. Il principio di indistinguibilità è ovviamente soddisfatto per la (7.15). Nel caso della (7.16), lo scambio delle particelle porta ad un cambiamento di segno, ma le quantità osservabili (associate a |ψ|2 ) restano inalterate. Quale delle due trasformazioni va scelta? La risposta dipende dal tipo di particella, come discusso nella prossima sezione. 81 7.4 Operatori di permutazione Consideriamo un sistema a due particelle e chiamiamo P l’operatore che le scambia. Ossia: (7.17) P ψ(1, 2) ≡ ψ(2, 1) per qualsiasi funzione d’onda. Si vede subito che P è un ”operatore idempotente”, ossia soddisfa a P 2 = 1, e quindi P = P −1 . Il principio di indistinguibilità ci dice che qualsiasi misura deve dare lo stesso risultato se effettuata sullo stato ψ o sullo stato P ψ. Se l’operatore A corrisponde ad una generica osservabile e il sistema è in un autostato di A: Aψ = aψ (7.18) (ossia, una misura di A dà come risultato un numero a ben definito), allora deve anche essere vero che (7.19) AP ψ = aP ψ D’altra parte applicando l’operatore P a sinistra e a destra nella prima equazione si ha anche (7.20) P Aψ = aP ψ Sottraendo tra loro le ultime due equazioni e notando che questo deve valere per qualsiasi stato fisico ψ, deve allora essere [P, A] = 0 (7.21) ossia l’operatore P deve commutare con qualsiasi osservabile fisica, inclusa l’energia: (7.22) [P, H] = 0 e quindi è una quantità conservata. Dalla proprietà di idempotenza si inferisce inoltre che se P ψ = λψ, deve valere λ2 = 1, ovvero i suoi autovalori possono essere solamente +1 oppure −1. Risulta che il segno dell’autovalore dell’operatore di scambio, o parità, è una proprietà intrinseca del tipo di particella. Le particelle si dividono in • bosoni: P ψ = +ψ • fermioni: P ψ = −ψ dove P è riferito a una qualsiasi coppia di particelle di quel tipo. Un insieme di particelle si comporta dunque sempre in un dato modo, che dipende esclusivamente dal carattere di bosone o fermione della particella. 7.5 Caso di più particelle e sistemi composti Se un sistema è costituito da N particelle identiche anzichè da due, i risultati ottenuti si generalizzano facilmente. Indicato con P un generico operatore di 82 permutazione che applicato su uno stato di N particelle dà lo stato equivalente in cui le particelle sono state tra loro permutate in modo arbitrario, si avrà Pψ = ψ (7.23) Pψ = (−1)M ψ (7.24) per qualunque sistema di bosoni, e per un sistema di fermioni, dove M è il numero di scambi di coppie necessario per arrivare dallo stato iniziale a quello finale. Da ciò segue subito anche la regola per trovare il carattere di un sistema costituito da particelle non elementari, ma internamente costituite da k bosoni e ` fermioni. Poichè scambiare tra loro due di queste particelle significa scambiare tra loro k bosoni e ` fermioni, si ha subito che la particella composta è un bosone se ` è pari, e un fermione se ` è dispari, indipendentemente da k. Con argomenti di meccanica quantistica relativistica si può dimostrare che • le particelle a spin intero sono bosoni • le particelle a spin semiintero sono fermioni. È facile vedere che nel caso di particelle composte la regola di composizione dei momenti angolari dà un risultato consistente: l’insieme di k particelle a spin intero e ` particelle a spin semiintero dà una particella a spin intero se ` è pari, o una a spin semiintero se ` e dispari, indipendentemente da k. 7.6 Determinanti di Slater Il caso che più ci interessa è quello degli elettroni, che avendo spin 1/2 sono fermioni, e quindi la loro funzione d’onda deve essere antisimmetrica rispetto allo scambio di qualsiasi coppia. Supponiamo che uno stato sia descrivibile in termini di un prodotto di funzioni d’onda ad un elettrone. Come già discusso per due particelle, un semplice prodotto ψ(1, 2, . . . , N ) = φ1 (1)φ2 (2) . . . φN (N ) (7.25) non soddisfa al principio di indistinguibilità perchè non è un autostato degli operatori di permutazione. È possibile però costruire una soluzione antisimmetrica per scambio in forma di un determinante: φ1 (1) φ1 (2) . . . φ1 (N ) φ2 (1) φ2 (2) . . . φ2 (N ) 1 . . . . ψ(1, 2, . . . , N ) = √ . . . . N ! . . . . φ (1) φ (2) . . . φ (N ) N N N (7.26) Scambiare fra loro due particelle equivale infatti a scambiare fra loro due colonne, e per le proprietà del determinante questo porta ad un cambiamento di segno. 83 Notiamo però anche che se due qualsiasi delle righe sono fra loro uguali, il determinante si annulla e quindi una tale funzione d’onda non corrisponde ad alcun stato fisico. Pertanto tutte le φi devono essere diverse; due (o più) fermioni identici non possono trovarsi nello stesso stato. Si tratta del noto principio di esclusione di Pauli. 7.7 Atomi a due elettroni Supponiamo che lo spin sia separabile dalle coordinate (cosa senz’altro vera se l’hamiltoniano non contiene termini esplicitamente dipendenti dallo spin). In tal caso si potrà scrivere ψ(1, 2) = Φ(r1 , r2 )χ(σ1 , σ2 ) (7.27) dove Φ è funzione solo delle coordinate r e χ solo degli spin σ. La ψ(1, 2) è sempre antisimmetrica perchè gli elettroni sono fermioni. Tuttavia, è chiaro che è possibile ottenere questo risultato con una Φ antisimmetrica e una χ simmetrica, oppure con una Φ simmetrica e una χ antisimmetrica. Dati le autofunzioni di spin del singolo elettrone, ciascuna delle quali ha due valori possibili che indichiamo semplicemente con v+ e v− , possiamo costruire tre funzioni simmetriche dello spin: χ1,1 = v+ (σ1 )v+ (σ2 ) 1 χ1,0 = √ [v+ (σ1 )v− (σ2 ) + v− (σ1 )v+ (σ2 )] 2 χ1,−1 = v− (σ1 )v− (σ2 ) (7.28) (7.29) (7.30) e una antisimmetrica: 1 χ0,0 = √ [v+ (σ1 )v− (σ2 ) − v− (σ1 )v+ (σ2 )] 2 (7.31) Quelle simmetriche costituiscono un “tripletto” e corrispondono a uno stato del sistema a due elettroni con spin complessivo pari a 1, e tre possibili valori per la sua proiezione lungo z: -1, 0 e +1. Quella antisimmetrica costituisce un “singoletto” e corrisponde a uno stato con spin complessivo 0. Il valore dello spin complessivo determina quindi la simmetria della parte di spin, e di conseguenza quella della parte configurazionale. La funzione d’onda configurazionale antisimmetrica tende a “respingere” i due elettroni, in quanto non permette che essi possano essere vicini (la funzione d’onda tende ad annullarsi quando gli elettroni vengono portati nella stessa posizione). Per effetto della repulsione elettrostatica, ciò fa sı̀ che l’energia risultante sia più bassa di quella del corrispondente caso simmetrico, in cui gli elettroni hanno elevata probabilità di trovarsi vicini. Per questo motivo, fra gli stati eccitati dell’elio in cui uno dei due elettroni si trova in un orbitale 2s, lo stato in cui i due spin sono allineati (ortoelio, tripletto, parte di spin simmetrica e parte configurazionale antisimmetrica) ha energia più bassa di quello in cui i due spin sono opposti (paraelio, singoletto, parte di spin antisimmetrica e parte configurazionale simmetrica). 84 Il problema non si pone invece per lo stato fondamentale, in cui entrambi gli elettroni si trovano in orbitali 1s e quindi, come discusso nella sezione 7.8, la funzione d’onda configurazionale deve essere simmetrica. Il concetto di “orbitale” verrà chiarito meglio nel capitolo seguente. E’ lecito chiedersi quale sia la relazione fra la forma della funzione d’onda data dell’Eq.(7.27) e quella ottenuta come determinante di Slater, Eq.(7.26): 1 ψ(1, 2) = √ [φ1 (1)φ2 (2) − φ2 (1)φ1 (2)] . 2 (7.32) Si può verificare che una funzioni di tripletto con spin massimo può essere scritta come determinante di Slater delle due funzioni φ1 (r)v+ (σ) e φ2 (r)v+ (σ). Si ottiene 1 (7.33) Φa (r1 , r2 ) = √ [φ1 (r1 )φ2 (r2 ) − φ2 (r1 )φ1 (r2 )] . 2 La funzione di tripletto con spin minimo si ottiene in modo analogo, sostituendo v− a v+ nella parte di spin. La funzione di tripletto con spin zero non è invece ottenibili direttamente da un singolo determinante di Slater: bisogna sovrapporne due, uno generato da φ1 (r)v+ (σ) e φ2 (r)v− (σ), l’altro con le parti di spin scambiate. La sovrapposizione ortogonale degli stessi determinanti di Slater dà la funzione di singoletto, con 1 Φs (r1 , r2 ) = √ [φ1 (r1 )φ2 (r2 ) + φ2 (r1 )φ1 (r2 )] . 2 (7.34) Ovviamente se φ1 = φ2 esiste un solo determinante di Slater che coincide con lo stato di singoletto, e Φs (r1 , r2 ) = φ(r1 )φ(r2 ). 7.8 (7.35) Trattamento perturbativo dell’atomo di elio L’atomo di elio è caratterizzato da un operatore hamiltoniano H=− h̄2 ∇21 Zqe2 h̄2 ∇22 Zqe2 q2 − − − + e 2me r1 2me r2 r12 (7.36) dove r12 = |r2 − r1 | è la distanza tra i due elettroni. L’ultimo termine, corrispondente alla repulsione coulombiana tra i due elettroni, li accoppia tra loro e rende il problema non separabile. In prima approssimazione è possibile però considerare l’interazione tra elettroni q2 (7.37) V = e r12 come una perturbazione al problema descritto da H0 = − h̄2 ∇21 Zqe2 h̄2 ∇22 Zqe2 − − − 2me r1 2me r2 85 (7.38) che è facile da risolvere in quanto si separa in due problemi di un singolo elettrone in un campo di forze centrale coulombiano, ossia il problema di un atomo idrogenoide con nucleo di carica Z. Lo stato fondamentale di un singolo elettrone è dato da una funzione del tipo (5.71), che scriviamo in a.u.: Z 3/2 φ0 (ri ) = √ e−Zri π (7.39) (”orbitale 1s”). Notiamo che possiamo assegnare ad entrambi gli elettroni la stessa funzione d’onda, purchè il loro spin sia opposto (se il loro spin fosse uguale, uno dei due dovrebbe essere portato in uno stato eccitato altrimenti il principio di esclusione verrebbe violato). La funzione d’onda totale imperturbata è allora semplicemente il prodotto ψ 0 (r1 , r2 ) = Z 3 −Z(r1 +r2 ) e π (7.40) che è già una funzione simmetrica. L’energia del corrispondente stato fondamentale sarà la somma delle energie dei due atomi idrogenoidi: E0 = −2Z 2 Ry = −8Ry (7.41) essendo Z = 2. La repulsione tra elettroni dovrà alzare l’energia, rendendola cioè meno negativa. Nella teoria delle perturbazioni al primo ordine, E − E0 = hψ0 |V |ψ0 i Z Z6 2 −2Z(r1 +r2 ) 3 3 e d r1 d r2 = π2 r12 5 = ZRy 4 (7.42) (7.43) (7.44) come si ottiene calcolando l’integrale. Per Z = 2 la correzione è pari a 2.5 Ry, e fornisce un’energia E = −8 + 2.5 = −5.5 Ry. Il valore sperimentale è pari a −5.8074 Ry. L’approssimazione perturbativa non è precisa, ma fornisce una stima ragionevole della correzione pur essendo la “perturbazione” in questo caso di notevole entità. 7.9 Trattamento variazionale dell’atomo di elio Un esempio di applicazione del metodo variazionale può essere fornito nuovamente dall’atomo di elio. L’hamiltoniano, già incontrato nella sezione 7.8, è H=− q2 h̄2 ∇21 Zqe2 h̄2 ∇22 Zqe2 − − − + e 2me r1 2me r2 r12 (7.45) con Z = 2. Se non vi fosse il termine di repulsione fra i due elettroni il problema sarebbe separabile. Per ciascun elettrone si avrebbe uno stato fondamentale (in a.u.) Z 3/2 (7.46) φ(ri ) = √ e−Zri π 86 con energia associata −Z 2 , e il loro prodotto sarebbe lo stato fondamentale del sistema a due elettroni Z 3 −Z(r1 +r2 ) e π ψ(r1 , r2 ) = (7.47) con energia associata −2Z 2 Ry, ossia −8 Ry. Questo scenario implica l’aver assegnato spin opposti ai due elettroni, averli quindi collocati entrambi in uno stato 1s (n = 1, ` = 0), e aver costruito una funziona d’onda complessiva antisimmetrica in cui la parte di spin è antisimmetrica e quella orbitale simmetrica. L’effetto di ciascun elettrone sull’altro sarà quello di schermare parzialmente il nucleo. Per tener conto della repulsione fra elettroni, possiamo pensare di adottare delle funzioni di prova del tipo (7.47), in cui però sostituiamo la vera carica del nucleo Z con una “carica efficace” Ze , che ci aspettiamo essere più piccola di Z. Questo sarà il parametro che cercheremo di ottimizzare in modo variazionale. Assumiamo dunque ψ(r1 , r2 ; Ze ) = Ze3 −Ze (r1 +r2 ) e π (7.48) e riscriviamo cosı̀ l’hamiltoniano: " # " # q2 h̄2 ∇21 Zqe2 h̄2 ∇22 Zqe2 (Z − Ze )qe2 (Z − Ze )qe2 − − − − + e H= − + − 2me r1 2me r2 r1 r2 r12 (7.49) Calcoliamo ora Z E(Ze ) = ψ ∗ (r1 , r2 ; Ze )Hψ(r1 , r2 ; Ze ) d3 r1 d3 r2 (7.50) Il contributo all’energia dovuto alla prima parentesi quadra in (7.49) è −2Ze2 : si tratta infatti di un problema idrogenoide con nucleo di carica Ze e due elettroni non interagenti. Sviluppando gli integrali rimanenti (e notando che due di essi sono uguali per simmetria) sarà quindi (in a.u.) E(Ze ) = −2Ze2 − Z |ψ|2 4(Z − Ze ) 3 3 d r1 d r2 + r1 Z |ψ|2 2 3 3 d r1 d r2 r12 (7.51) con Ze6 −2Ze (r1 +r2 ) e π2 Gli integrali possono essere calcolati e il risultato è |ψ|2 = 5 27 E(Ze ) = −2Ze2 − 4(Z − Ze )Ze + 2 Ze = 2Ze2 − Ze 8 4 (7.52) (7.53) (dove si è esplicitamente inserito Z = 2). La minimizzazione di E(Ze ) rispetto a Ze porta immediatamente a 27 = 1.6875 16 (7.54) 729 = −5.695 Ry 128 (7.55) Ze = e corrispondentemente E=− 87 Il risultato è decisamente migliore di quello (−5.50 Ry) ottenuto col metodo perturbativo, anche se esiste ancora una discrepanza non trascurabile rispetto al valore sperimentale (−5.8074 Ry). Naturalmente è possibile migliorare il risultato variazionale adottando funzioni di prova più ricche. Questo è quanto viene effettuato dal metodo di Hartree-Fock descritto nel prossimo capitolo, in cui la funzione d’onda complessiva è ancora scritta come un prodotto di funzioni a un elettrone, le quali vengono però ottimizzate (ossia non sono semplici esponenziali). Risultati ancora migliori possono essere ottenuti mediante funzioni di prova più complesse di un semplice prodotto. Per esempio, supponiamo di cercare una funzione d’onda radiale del tipo ψ(r1 , r2 ) = [f (r1 )g(r2 ) + g(r1 )f (r2 )] , (7.56) dove le due funzioni f e g sono funzioni idrogenoidi come nella 7.46, ma possono avere valori di Z diversi. Minimizzando rispetto ai due parametri Zf e Zg , si trova Zf = 2.183, Zg = 1.188, e un’energia di E = −5.751 Ry, cioè una riduzione di oltre il 50% dell’errore rispetto al caso di una sola Z effettiva. Si noti come le due funzioni non sono affatto simili! 7.10 Programma: helium gauss Il programma helium gauss.f901 (oppure helium gauss.c2 ) ricerca lo stato fondamentale dell’atomo di elio, usando lo sviluppo in base di funzioni gaussiane già introdotte per il programma hydrogen gauss. Si cerca la soluzione come prodotto di una parte orbitale simmetrica e di una parte di spin antisimmetrica avente spin totale S = 0. La parte orbitale è sviluppata in funzioni prodotto simmetrizzate di gaussiane, Bk : ψ(r1 , r2 ) = X ck Bk (r1 , r2 ). (7.57) k Nel caso in cui le gaussiane, bi , sono di tipo S, come in Eq.(6.87), avremo: 1 Bk (r1 , r2 ) = √ bi(k) (r1 )bj(k) (r2 ) + bi(k) (r2 )bj(k) (r1 ) 2 (7.58) dove k è l’indice che corre sulle n(n+1)/2 coppie i(k), j(k) di funzioni gaussiane. La matrice di overlap Sekk0 può essere scritta in termini delle Sij per il caso idrogenoide definite dall’Eq.(6.90): Sekk0 = hBk |Bk0 i = Sii0 Sjj 0 + Sij 0 Sji0 . (7.59) e 0 , dell’Hamiltoniano: Gli elementi di matrice, H kk e 0 = hBk |H|B 0 i, H kk k 1 2 H=− h̄2 ∇21 Zqe2 h̄2 ∇22 Zqe2 q2 − − − + e 2me r1 2me r2 r12 (7.60) http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/gauss/helium gauss.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/helium gauss.c 88 si possono scrivere in termini degli elementi di matrice Hij = HijK +HijV ottenuti per il caso idrogenoide con Z = 2, Eq.(6.91) e (6.92): e 0 = H 0 S 0 + H 0 S 0 + S 0 H 0 + H 0 S 0 + hBk |Vee |B 0 i, H k ij ji jj ii ij ji ii jj kk (7.61) e dell’elemento di matrice dell’interazione coulombiana Vee : hBk |Vee |B i = k0 qe2 b 0 (r1 )bj(k0 ) (r2 )d3 r1 d3 r2 (7.62) r12 i(k ) Z q2 + bi(k) (r1 )bj(k) (r2 ) e bj(k0 ) (r1 )bi(k0 ) (r2 )d3 r1 d3 r2 . r12 Z bi(k) (r1 )bj(k) (r2 ) Ognuno dei due termini in Vee ha la forma Z I= 2 1 3 3 d r1 d r2 . r12 2 e−αr1 e−βr2 (7.63) Cerchiamo un cambiamento di variabile che faccia apparire (r1 −r2 )2 all’esponente delle gaussiane: h αr12 + βr22 = γ (r1 − r2 )2 + (ar1 + br2 )2 αβ 2 (r1 − r2 ) + α+β = r i α r1 + β (7.64) s 2 β r2 . α (7.65) Facciamo ora un cambio di variabile da (r1 , r2 ) a (r, s), dove r r = r1 − r2 , s= α r1 + β s β r2 ; α (7.66) l’integrale diventa Z I= αβ 2 αβ 2 1 r s − α+β − α+β e r e ∂(r1 , r2 ) 3 3 ∂(r, s) d rd s, (7.67) dove lo Jacobiano si calcola facilmente come determinante della matrice di trasformazione, Eq.(7.66): ∂(r1 , r2 ) ∂(r, s) = √ αβ α+β !3 . (7.68) Il calcolo degli integrali è banale e fornisce il risultato cercato: hBk |Vee |Bk0 i = qe2 π 5/2 qe2 π 5/2 + , αβ(α + β)1/2 α0 β 0 (α0 + β 0 )1/2 (7.69) dove α = αi(k) +αi(k0 ) , β = αj(k) +αj(k0 ) , α0 = αi(k) +αj(k0 ) , β 0 = αj(k) +αi(k0 ) . (7.70) 89 In modo analogo si calcolano gli elementi di matrice fra funzioni prodotto simmetrizzate, Bk , di gaussiane di tipo P (come quelle definite in Eq.6.88). La combinazione di gaussiane P che ha L = 0 ha la forma: 1 Bk (r1 , r2 ) = √ (r1 · r2 ) bi(k) (r1 )bj(k) (r2 ) + bi(k) (r2 )bj(k) (r1 ) 2 (7.71) E’ facile verificare che il prodotto di una gaussiana S e una P non contribuisce, in quanto dispari, allo stato fondamentale. Nel caso in cui si usino solo gaussiane di tipo S, il codice scrive su file (”gs-wfc.out”) la funzione: P (r1 , r2 ) = (4πr1 r2 )2 |ψ(r1 , r2 )|2 , (7.72) dove P (r1 , r2 )dr1 dr2 è la probabilità congiunta di trovare un elettrone fra r1 e r1 + dr1 e un elettrone fra r2 e r2 + dr2 . La probabilità di trovare un elettrone fra r e r + dr è data da p(r)dr, con p(r) = 4πr2 Z |ψ(r, r2 )|2 4πr22 dr2 = Z P (r, r2 )dr2 . (7.73) E’ facile vedere che per una funziona d’onda prodotto di due funzioni identiche, come la 7.47 o in generale la 7.35, P (r1 , r2 ) = p(r1 )p(r2 ). 7.10.1 Laboratorio • osservare gli effetti legati al numero di funzioni di base, alla scelta dei coefficienti delle gaussiane λ, all’inclusione di gaussiane P • confrontare l’energia con quella ottenuta con altri metodi: teoria perturbativa con funzioni d’onda idrogenoidi (sezione 7.8), teoria variazionale con Z effettivo (sezione 7.9), risultato esatto (-5.8074 Ry). • fate un plot della P (r1 , r2 ) e della differenza P (r1 , r2 )−p(r1 )p(r2 ), usando per esempio gnuplot e i seguenti comandi: set view 0, 90 unset surface set contour set cntrparam levels auto 10 splot [0:4][0:4] "gs-wfc.out" u 1:2:3 w l Notate come la probabilità P (r1 , r2 ) (la colonna 3 in ”splot”) non sia esattamente uguale al prodotto di p(r1 ) e p(r2 ) (colonna 4; la colonna 5 è la differenza fra i due). 90 Chapter 8 Metodo di Hartree-Fock 8.1 Il metodo di Hartree L’idea del metodo di Hartree è quella di provare ad approssimare “nel modo migliore possibile” la funzione d’onda soluzione dell’equazione di Schrödinger a N elettroni (problema la cui soluzione esatta è in pratica impossibile da ottenere) con un prodotto di funzioni d’onda a un elettrone—che chiameremo orbitali atomici. Come abbiamo visto, il modo migliore possibile consiste nell’applicare il principio variazionale, minimizzando l’energia media dello stato hψ|H|ψi. 8.1.1 Definizioni L’hamiltoniano di un atomo con nucleo di carica Z ed N elettroni è H=− X h̄2 i 2me ∇2i − X Zq 2 e i ri + X q2 e hiji rij (8.1) dove le parentesi angolari in hiji significano che la somma va limitata a tutte le coppie, ossia implica che i 6= j e che ciascuna coppia viene considerata una volta sola. Ad esempio una scelta valida potrebbe essere X = N −1 X N X (8.2) i=1 j=i+1 hiji Per futura economia di notazione, e anche per maggiore generalità delle formule che ricaveremo, definiamo gli operatori a uno e a due elettroni come fi ≡ − gij ≡ h̄2 2 Zqe2 ∇ − 2me i ri qe2 rij (8.3) (8.4) Con questa notazione l’hamiltoniano si scrive H= X fi + i X hiji 91 gij (8.5) Per usare questa notazione in modo generale è necessario assumere che g agisca simmetricamente sui due elettroni (cosa senz’altro vera per l’interazione coulombiana). 8.1.2 Equazioni di Hartree Supponiamo allora che la funzione d’onda totale sia esprimibile in forma di prodotto di funzioni d’onda a un elettrone, che supporremo ortonormali (e quindi diverse fra di loro): ψ(1, 2, . . . , N ) = φ1 (1)φ2 (2) . . . φN (N ) (8.6) Z φi (1)φj (1) dv1 = δij . (8.7) In φi (i), l’argomento i significa: le variabili associate all’elettrone i, ossia in pratica la sua posizione e la proiezione del suo momento angolare di spin. dvi indica un’integrazione rispetto a tutte queste variabili (e quindi anche una somma sugli spin). Invece l’indice i significa: l’insieme dei numeri quantici con cui cataloghiamo una particolare autofunzione, ossia in pratica (nel caso del campo centrale, che come vedremo è quello che ci interessa) il numero quantico principale n, il momento angolare orbitale ` e la sua proiezione m. Procediamo col calcolare il valor medio dell’energia: hψ|H|ψi = X X φ∗1 (1) . . . φ∗N (N ) fi + gij φ1 (1) . . . φN (N ) dv1 . . . dvN Z i = XZ φ∗i (i)fi φi (i) dvi + i = XZ hiji XZ φ∗i (i)φ∗j (j)gij φi (i)φj (j) dvi dvj hiji φ∗i (1)f1 φi (1) dv1 + i XZ φ∗i (1)φ∗j (2)g12 φi (1)φj (2) dv1 dv2 hiji (8.8) Nel primo passaggio si è fatto uso dell’ortonormalità (8.7); nel secondo si è semplicemente effettuata una sostituzione delle variabili di integrazione, che non giocano alcun ruolo, standardizzandole a 1 e 2 per comodità. Applichiamo ora il principio variazionale nella formulazione (6.45), richiedendo che nella variazione restino stazionari anche tutti gli integrali Z Ik = φ∗k (1)φk (1) dv1 (8.9) affinchè la normalizzazione di ogni funzione orbitale venga preservata. Vogliamo quindi imporre ! δ hψ|H|ψi − X k Ik =0 (8.10) k dove gli k sono i moltiplicatori di Lagrange da determinare. Supponiamo che venga fatta variare soltanto la funzione orbitale con indice k. Si ha allora Z δIk = δφ∗k (1)φk (1) dv1 + c.c. 92 (8.11) (mentre le variazioni di tutti gli altri integrali di normalizzazione saranno ovviamente nulle) ed anche, seguendo le argomentazioni in 6.3.1 sull’hermiticità di H, Z δhψ|H|ψi = + δφ∗k (1)f1 φk (1) dv1 + c.c. XZ δφ∗k (1)φ∗j (2)g12 φk (1)φj (2) dv1 dv2 + c.c. (8.12) j6=k Questo si ottiene notando che gli unici termini della (8.8) interessati sono quelli con i = k oppure j = k, e che ogni coppia è contata una e una sola volta. Ad esempio per 4 elettroni le coppie sono 12, 13, 14, 23, 24, 34; se scelgo k = 3 P viene un contributo solo da 13, 23 e 34, che corrisponde a una j6=k (l’ordine in cui appaiono gli indici della coppia non ha importanza, essendo g un operatore simmetrico). Pertanto, il principio variazionale assume la forma Z δφ∗k (1) f1 φk (1) + XZ φ∗j (2)g12 φk (1)φj (2) dv2 − k φk (1) dv1 + c.c. = 0 j6=k Affinchè il principio variazionale sia soddisfatto, δφk deve essere considerata una variazione arbitraria, e quindi il termine tra le parentesi quadrate deve essere nullo (assieme al suo complesso coniugato!). Deve quindi essere verificata XZ f1 φk (1) + φ∗j (2)g12 φk (1)φj (2) dv2 = k φk (1) (8.13) j6=k Queste (per k = 1, . . . , N ) sono le equazioni di Hartree. È utile scriverle mettendo gli operatori in forma esplicita: 2 − Zqe2 h̄ ∇2 φk (1) − φk (1) + 2me 1 r1 j6=k XZ φ∗j (2) 2 φj (2) dv2 φk (1) = k φk (1) r12 (8.14) Osserviamo che ciascuna di esse è simile ad una equazione di Schrödinger, in cui al potenziale coulombiano si aggiunge il “potenziale di Hartree” Z VH (r1 ) = ρk (2) qe2 dv2 r12 (8.15) dove si è posto ρk (2) = X φ∗j (2)φj (2) (8.16) j6=k ρj è la densità dovuta a tutti gli elettroni diversi da quello per cui stiamo scrivendo l’equazione. 93 8.1.3 Significato del potenziale di Hartree La (8.15) rappresenta il potenziale elettrostatico nel punto r1 generato da una distribuzione spaziale di carica ρk . E’ chiaro dunque il significato dell’approssimazione di Hartree. Assumendo che la ψ sia fattorizzabile in un prodotto, abbiamo in pratica assunto che gli elettroni siano fra loro indipendenti da un punto di vista formale. Gli elettroni naturalmente non sono affatto indipendenti e interagiscono fra loro in modo intenso. L’approssimazione fatta non è però cosı̀ cattiva se si fa “rientrare” la repulsione coulombiana fra elettroni sotto forma di un campo medio VH fra l’elettrone e il nucleo. VH contiene dunque l’effetto combinato di repulsione dell’elettrone che stiamo considerando da parte di tutti gli altri elettroni. Questo effetto si somma all’attrazione coulombiana esercitata dal nucleo, e la scherma parzialmente. Dunque è circa come se gli elettroni fossero indipendenti, ma interagissero tra loro attraverso il potenziale −Zqe2 /r + VH (r) anzichè il solo −Zqe2 /r. 8.1.4 Campo autoconsistente VH (r) non è un “vero” potenziale, in quanto la sua definizione dipende dalla distribuzione di densità degli elettroni, che a sua volta dipende dalle funzioni orbitali soluzioni della nostra equazione. Il potenziale dunque non è noto a priori, ma è funzione della soluzione; questo tipo di equazione è noto come equazione integro-differenziale. L’equazione può essere risolta in modo iterativo, dopo aver assunto una condizione iniziale per le funzioni orbitali. La procedura è la seguente: 1. calcolare la densità di carica (somma dei moduli quadri delle funzioni d’onda) 2. calcolare il potenziale di Hartree generato da questa densità (con metodi di elettrostatica) 3. risolvere l’equazione di Schrödinger ottenendo le funzioni d’onda. La risoluzione dell’equazione può essere effettuata utilizzando i metodi presentati nel capitolo 5.1. La densità elettronica è costruita popolando le funzioni d’onda in ordine di energia crescente (soddisfacendo al principio di Pauli!) fino a che tutti gli elettroni sono stati sistemati. In generale le funzioni d’onda ottenute alla fine della procedura sono diverse da quelle iniziali. La procedura può però essere iterata (sia direttamente, usando come funzioni iniziali quelle finali dell’iterazione precedente, che con metodi più raffinati) e porta ad una convergenza del risultato. E’ dunque possibile ripetere la procedura descritta finchè tutte le quantità sono sostanzialmente identiche a quelle dell’iterazione precedente. Il campo VH risultante è allora consistente con le funzioni d’onda, e per questo motivo questo viene chiamato metodo del campo autoconsistente. In calcoli atomici spesso esiste un’ulteriore semplificazione: VH è un campo centrale, ossia dipende dalla sola distanza r1 dell’elettrone dal nucleo. Quando ciò non è vero, si può comunque imporre come approssimazione: basta prendere 94 la media sferica nella definizione di ρk . Se le funzioni d’onda sono soluzione di un problema in un campo centrale, sappiamo a priori che saranno fattorizzate secondo la (5.45). La parte angolare è costituita dalle armoniche sferiche, identificate dai numeri quantici ` e m, mentre la parte radiale è caratterizzata dai numeri quantici n e `. Ovviamente non c’è più la degenerazione dell’energia per diversi `. 8.1.5 Autovalori ed Energia di Hartree Moltiplichiamo l’equazione di Hartree, Eq(8.13), per φ∗k (1), integriamo e sommiamo: si ottiene X k k = XZ φ∗k (1)f1 φk (1)dv1 + k XXZ φ∗k (1)φk (1)g12 φ∗j (2)φj (2)dv1 dv2 . k j6=k (8.17) Confrontiamo questa espressione con l’energia del sistema di molti elettroni, Eq.(8.8). L’energia di repulsione coulombiana è contata due volte, in quanto ogni coppia < jk > appare due volte nella somma. L’energia è quindi data dalla somma degli autovalori dell’equazione di Hartree, meno l’energia di repulsione coulombiana: E= X k 8.2 k − X Z φ∗k (1)φk (1)g12 φ∗j (2)φj (2)dv1 dv2 . (8.18) <jk> Il metodo di Hartree-Fock Il metodo di Hartree, che si basa sull’assunzione (8.6), costruisce una funzione d’onda totale che non ha la proprietà di essere antisimmetrica per scambio di una coppia. In base a quanto discusso all’inizio di questo capitolo, è evidente come sia più desiderabile lavorare con una forma antisimmetrica, ossia con un determinante di Slater: φ1 (1) . . . φ1 (N ) 1 . . . ψ(1, . . . , N ) = √ . . . N ! φN (1) . . . φN (N ) (8.19) La variante del metodo che utilizza funzioni di questo genere è quella comunemente usata, ed è nota come metodo di Hartree-Fock. Si può ripercorrere per la (8.19) tutto lo schema seguito per arrivare alle equazioni di Hartree (8.13). Le complicazioni sono puramente algebriche, legate alla funzione determinantale. È di molto aiuto la proprietà, valida per qualsiasi operatore F e funzioni determinantali ψ e ψ 0 : Z φ∗1 (1) . φ∗1 (N ) 1 . . . hψ|F |ψ 0 i = F N ! ∗ φN (1) . φ∗N (N ) φ0 (1) Z 1 ∗ ∗ . = φ1 (1) . . . φN (N )F 0 φN (1) 95 φ0 (1) . φ0 (N ) 1 1 . . . dv1 . . . dvN 0 φN (1) . φ0N (N ) . φ01 (N ) . . (8.20) dv1 . . . dvN 0 . φN (N ) (ossia, sviluppando il primo determinante si ottengono N ! termini che, una volta integrati, sono identici tra loro). Da questa proprietà si ottengono subito i prodotti scalari che ci interessano relativi agli operatori ad uno e due elettroni: hψ| X fi |ψi = i XZ φ∗i (1)f1 φi (1) dv1 (8.21) i (come nel caso Hartree), e hψ| X gij |ψi = hiji XZ φ∗i (1)φ∗j (2)g12 [φi (1)φj (2) − φj (1)φi (2)] dv1 dv2 (8.22) hiji le cui dimostrazioni sono semplici anche se noiose. Negli integrali si intende sempre inclusa anche la somma sugli spin. Supponiamo ora che in quest’ultimo termine l’operatore g12 dipenda solo dalle coordinate, come nel caso dell’interazione coulombiana. In tal caso il secondo termine Z φ∗i (1)φ∗j (2)g12 φj (1)φi (2) dv1 dv2 (8.23) deve essere nullo nel caso in cui gli spin degli stati i e j siano diversi. Infatti, pensiamo di fattorizzare le funzioni d’onda in una parte dipendente dalle sole coordinate e una parte di spin e notiamo che g12 non modifica quest’ultima. La parte di spin dell’integrale è allora il prodotto di due prodotti scalari fra stati di spin diverso, che per l’ortonormalità sono nulli. Passando ad uno schema in cui invece le variabili di spin non sono esplicitamente incluse, la (8.22) si può scrivere hψ| X gij |ψi = hiji XZ φ∗i (1)φ∗j (2)g12 [φi (1)φj (2) − δ(σi , σj )φj (1)φi (2)] dv1 dv2 hiji (8.24) dove σi è lo spin dell’elettrone i, e δ(σi , σj ) = 0 se σi 6= σj = 1 se σi = σj Riassumendo: hψ|H|ψi = XZ φ∗i (1)f1 φi (1) dv1 (8.25) i + XZ φ∗i (1)φ∗j (2)g12 [φi (1)φj (2) − δ(σi , σj )φj (1)φi (2)] dv1 dv2 hiji Si procede quindi all’applicazione del principio variazionale. A rigore è necessario imporre non solo che tutte le φi restino normalizzate a 1, ma anche che tutte le coppie φi , φj con lo stesso spin restino fra loro ortogonali. Quest’ultima condizione non era necessaria per il metodo di Hartree e per questo motivo non l’abbiamo menzionata prima. Questo genera una matrice (triangolare) di moltiplicatori di Lagrange ij . Tuttavia, si può far vedere (i dettagli sono sul libro di J. C. Slater, Teoria quantistica della materia, Zanichelli, 1980). che si può 96 sempre pensare di prendere una soluzione per cui la matrice degli è diagonale mediante una semplice trasformazione. Supporremo che sia stata fatta questa scelta. Omettiamo i dettagli e diamo direttamente le risultanti equazioni di HartreeFock, ottenute al solito pensando di variare una sola funzione φk : f1 φk (1) + XZ φ∗j (2)g12 [φk (1)φj (2) − δ(σk , σj )φj (1)φk (2)] dv2 = k φk (1) j (8.26) o in forma esplicita − XZ h̄2 2 Zqe2 q2 ∇1 φk (1) − φk (1) + φ∗j (2) e [φj (2)φk (1) 2me r1 r12 j − (8.27) δ(σk , σj )φk (2)φj (1)] dv2 = k φk (1) L’energia del sistema, Eq. 8.25, si può esprimere, in modo analogo a come visto per il caso di Hartree, tramite la somma degli autovalori della 8.27, meno un termine che compensa il doppio conteggio dell’energia di repulsione coulombiana e dell’energia di scambio: E= X k − k X Z φ∗k (1)φ∗j (2)g12 [φk (1)φj (2) − δ(σj , σk )φj (1)φk (2)] dv1 dv2 . <jk> (8.28) Osserviamo attentamente le differenze rispetto alle equazioni di Hartree (8.13): 1. la P j comprende anche il caso j = k. 2. per gli elettroni j con lo spin identico a quello di k c’è un termine in più, detto termine di scambio 3. a causa del termine di scambio, il caso j = k dà un contributo non nullo solo se gli spin sono diversi. Cerchiamo di capire cosa c’è dietro. Prima di procedere osserviamo che la (8.27) avrà normalmente infinite soluzioni, di cui solo le N a energia più bassa verranno occupate da elettroni. Gli stati che restano liberi sono gli stati eccitati. P La j va pensata limitata agli stati occupati. 8.2.1 Potenziale colombiano e di scambio Riscriviamo l’equazione di Hartree-Fock sotto la forma − h̄2 2 Zqe2 ∇1 φk (1) − φk (1) + VH (1)φk (1) + (V̂x φk )(1) = k φk (1), 2me r1 (8.29) dove abbiamo definito un potenziale coulombiano (o anche ”di Hartree”, ma non è lo stesso che nel metodo di Hartree!) VH ed un potenziale di scambio Vx . Il potenziale coulombiano è lo stesso per tutti gli orbitali: VH (1) = XZ j φ∗j (2) qe2 φj (2)dv2 ≡ r12 97 Z ρ(2) qe2 dv2 , r12 (8.30) dove abbiamo introdotto la densità di carica: ρ(2) = X φ∗j (2)φj (2). (8.31) j Si può verificare che ρ è uguale alla probabilità di trovare un elettrone: Z ρ(1) = N |Ψ(1, 2, .., N )|2 dv2 ...dvN . (8.32) Il termine di scambio: (V̂x φk )(1) = − X Z δ(σk , σj ) φ∗j (2) j qe2 φk (2)φj (1) dv2 r12 (8.33) non ha la forma semplice del potenziale coulombiano: VH (1)φk (1), dove VH (1) contiene l’integrazione sulla variabile 2. Ha piuttosto una forma del tipo (V̂x φ)(1) ≡ Z Vx (1, 2)φk (2)dv2 (8.34) che caratterizza una interazione non locale. 8.2.2 La densità di scambio Per cercare di comprendere il termine di scambio, definiamo la seguente “densità di scambio”: X φ∗ (1)φ∗j (2)φj (1)φk (2) ρx (2) ≡ δ(σk , σj ) k (8.35) φ∗k (1)φk (1) j Con questa definizione, il termine di scambio (8.33) si può riscrivere (V̂x φ)(1) = − "Z # q2 ρx (2) e dv2 φk (1) r12 (8.36) Lo scopo di questa definizione un po’ artificiosa è stato quello di riuscire a scrivere formalmente il termine di scambio come il prodotto di un “potenziale efficace” per φk (1), risultante da interazioni elettrostatiche con una distribuzione spaziale di densità di carica, esattamente come abbiamo fatto per il termine di Hartree. La densità di scambio ha le seguenti proprietà: 1. vi contribuiscono solo gli elettroni con lo stesso spin di quello che stiamo considerando 2. rappresenta una quantità di carica totale pari a 1. Infatti Z ρx (2)dv2 = X j φ∗ (1)φj (1) δ(σk , σj ) ∗k φk (1)φk (1) Z φ∗j (2)φk (2) dv2 (8.37) da cui si vede che i termini con j 6= k danno contributo nullo, mentre quello con j = k dà un contributo pari a uno. Questa carica è dunque quella dell’elettrone che sto considerando, ma distribuita in qualche modo nello spazio. Da notare che se considero uno stato k eccitato, ossia non occupato, allora è sempre j 6= k e la carica di scambio è nulla, come si conviene ad un elettrone . . . che non c’è. 98 3. esaminiamo cosa succede quando i punti 1 e 2 tendono a coincidere. In questo limite la carica di scambio tende a ρσk (1) = X δ(σk , σj )φ∗j (1)φj (1) (8.38) j ossia alla densità totale nel punto 1 di tutti gli elettroni con lo stesso spin dell’elettrone k. Vediamo dunque che, nell’equazione di Hartree-Fock per l’elettrone k, il primo termine (quello di Hartree, ma con somma estesa a tutti i j) include le interazioni efficaci con tutti gli elettroni, incluso k. Il termine di scambio toglie l’interazione dell’elettrone che stiamo considerando con se stesso. Consideriamo ora la densità di carica totale (Hartree+scambio) con lo stesso spin dell’elettrone k. Questa densità è nulla nel punto in cui si trova k, perchè in quel punto il termine di scambio compensa esattamente il termine di Hartree come indicato dall’ultima proprietà sopra. Quindi è come se il nostro elettrone trascinasse con sè una buca, detta buca di Fermi, che tiene lontani gli altri elettroni con lo stesso spin. Si tratta ovviamente di un effetto dovuto al principio di esclusione. Notiamo infine che il metodo di Hartree il termine escluso dalla somma j = k esclude—in modo più rudimentale—l’interazione dell’elettrone k con se stesso: lo stesso effetto rappresentato dal termine di scambio nelle equazioni di Hartree-Fock. 8.2.3 L’atomo di elio Come già visto per il metodo di Hartree, anche il metodo di Hartree-Fock utilizzato comunemente per gli atomi adotta l’approssimazione di campo centrale. Ciò permette la fattorizzazione delle Eq.(8.27) in una parte radiale e una parte angolare, e la classificazione delle soluzioni con i ”tradizionali” numeri quantici n, `, m. Consideriamo il caso più semplice dell’atomo a due elettroni e confrontiamo le equazioni di Hartree (8.14) con quelle di Hartree-Fock (8.27). L’equazione di Hartree (8.14) si riduce a (considerando k = 1) Zqe2 h̄2 2 ∇1 φ1 (1) − φ1 (1) + − 2me r1 "Z # φ∗2 (2) qe2 φ2 (2) dv2 φ1 (1) = 1 φ1 (1) (8.39) r12 L’equazione di Hartree-Fock (8.27) invece si riduce a − h̄2 2 Zqe2 q2 ∇1 φ1 (1) − φ1 (1) + φ∗1 (2) e [φ1 (2)φ1 (1) − φ1 (2)φ1 (1)] dv2 2me r1 r12 Z 2 q + φ∗2 (2) e [φ2 (2)φ1 (1) − δ(σ1 , σ2 )φ1 (2)φ2 (1)] dv2 = 1 φ1 (1) (8.40) r12 Z ovvero, poichè l’integrando nel primo integrale è nullo, h̄2 2 Zqe2 q2 − ∇1 φ1 (1) − φ1 (1) + φ∗2 (2) e [φ2 (2)φ1 (1) 2me r1 r12 −δ(σ1 , σ2 )φ1 (2)φ2 (1)] dv2 = 1 φ1 (1). Z 99 (8.41) Assumiamo ora di andare alla ricerca dello stato fondamentale. In base alle considerazioni effettuate nella sezione 7.7, ci aspettiamo che nello stato fondamentale i due elettroni abbiano spin opposto (δ(σ1 , σ2 ) = 0) e che entrambi occupino lo stesso orbitale 1s (ossia che φ1 e φ2 siano la stessa funzione φ1 ). Questo fa sı̀ che l’equazione di Hartree-Fock (8.41) per lo stato fondamentale sia identica a quella di Hartree (8.39): i metodi di Hartree ed Hartree-Fock sono quindi in questo caso equivalenti. Questo avviene in sostanza perchè i due elettroni hanno spin opposto e quindi non vi sono effetti di scambio in azione. In generale, si parla di Hartree-Fock Ristretto (RHF) per il caso frequente in cui tutti gli orbitali sono presenti a coppie, formate da una stessa funzione di r moltiplicata per funzioni di spin opposto. 8.3 L’energia di correlazione La soluzione Hartree-Fock non è esatta: lo sarebbe se il sistema sotto esame fosse descritto da una funzione d’onda formata da un solo determinante di Slater. In generale, ciò non è vero. La differenza di energia fra la soluzione esatta e la soluzione Hartree-Fock va sotto il nome di energia di correlazione.1 L’origine del nome deriva dal fatto che nell’approssimazione di Hartree-Fock manca una parte della ”correlazione elettronica”, ovvero dell’effetto che un elettrone ha sugli altri. Quest’ultimo è presente tramite l’interazione di scambio e l’interazione elettrostatica, ma mancano effetti più sottili che si riflettono in una forma della funzione d’onda esatta che è più generale di quella Hartree-Fock. Abbiamo visto tali effetti in opera nel caso dell’atomo di He risolto con il codice helium gauss (sezione 7.10): la probabilità P (r1 , r2 ) di trovare un elettrone a distanza r1 e uno a distanza r2 dal centro non è semplicemente uguale a p(r1 )p(r2 ), perchè gli elettroni cercano di ”evitarsi”. L’energia di correlazione nel caso dell’atomo di He è circa 0.084 Ry: una quantità piccola rispetto alle energie in gioco (∼ 1.5% dell’energia) ma non trascurabile. E’ lecito chiedersi a cosa possa mai servire una simile quantità, il cui calcolo è possibile solo in sistemi molto semplici (come per esempio l’atomo di Elio) o in sistemi modello (per esempio: il gas omogeneo di elettroni) nei quali si riesce a ottenere una soluzione praticamente esatta. Tuttavia avere una stima di quanto si sbaglia e soprattutto in che casi si sbaglia di più e perchè è cosa assai utile, nonchè la base di partenza per migliorare il metodo. Un ovvio modo per migliorare i risultati Hartree-Fock è aggiungere contributi da altri determinanti di Slater alla funzione d’onda di prova. Questa è l’essenza del metodo della ”interazione delle configurazioni”. La sua applicazione pratica richiede una raffinata ”tecnologia” per scegliere fra l’enorme numero di possibili determinanti di Slater il sottoinsieme più significativo. E’ molto usato in chimica quantistica per ottenere risultati di alta precisione, ma si tratta di un approccio computazionalmente molto pesante edi fatto limitato a sistemi (molecole) semplici. Metodi più agili danno una stima abbastanza buona dell’energia di correlazione tramite la teoria delle perturbazione (i cosid1 Feynman la chiamava energia di stupidità, perché la sola grandezza fisica che misura è la nostra incapacità di trovare la soluzione esatta! 100 detti approcci MP, Møller-Plesset). Un approccio completamente diverso è invece quello della teoria del funzionale densità, benché alla fine produca delle equazioni molto reminiscenti delle equazioni Hartree-Fock. 8.4 Programma: helium hf radial Il programma helium hf radial.f902 (oppure helium hf radial.c3 ) risolve le equazioni di Hartree-Fock (equivalenti in questo caso a quelle di Hartree come visto sopra) per lo stato fondamentale dell’atomo di elio. helium hf radial è basato su hydrogen ed utilizza lo stesso algoritmo di integrazione basato sul metodo di Numerov. La parte nuova è costituita dall’implementazione del metodo del campo autoconsistente per la ricerca degli orbitali. Il calcolo consiste nella risoluzione dell’equazione di Schrödinger radiale sotto un potenziale effettivo Vscf , somma del potenziale coulombiano del nucleo più il potenziale di Hartree come definito sopra: Zq 2 Vscf (r) = − e + VH (r), r q2 VH (r1 ) = e 2 Z |R(r1 )|2 3 d r2 . r12 (8.42) (0) Si parte da una stima iniziale di VH (r) nella routine init pot ( VH (r) = 0, semplicemente). Con lo stato fondamentale R(r) ottenuto da tale potenziale, si calcola (nella routine rho of r) la densità di carica ρ(r) = |R(r)|2 . La routine v of rho ricalcola il nuovo potenziale di Hartree VHout (r) per semplice integrazione, usando il teorema di Gauss: VeHout (r) = V0 + qe2 Z r rmax Q(s) ds, s2 Z Q(s) = ρ(r)4πr2 dr (8.43) r<s dove Q(s) è la carica contenuta nella sfera di raggio s; rmax è il punto della griglia più esterno, in cui assumiamo che il potenziale abbia il valore V0 = qe2 /rmax , cioè il valore asintotico per grandi r. Il potenziale di Hartree è poi reintrodotto nel calcolo non direttamente ma come combinazione lineare del vecchio e del nuovo potenziale. Si tratta di una tecnica molto semplice per garantire l’effettiva convergenza della procedura (non necessaria in questo caso, ma fondamentale in casi più complicati): VHin,new (r) = βVHout (r) + (1 − β)VHin (r), (8.44) dove 0 < β ≤ 1. La procedura è poi iterata fino a convergenza. Quest’ultima è verificata sulla norma di VHout (r)−VHin (r), ovvero dell’integrale del suo quadrato. In uscita, il programma stampa l’autovalore 1 dell’Eq.8.41, più vari termini dell’energia, tutti dal significato ovvio salvo il termine Variational correction. Quest’ultimo vale Z δE = 2 3 (VHin (r) − VHout (r))ρ(r)d3 r (8.45) http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/helium hf radial.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/helium hf radial.c 101 e serve a correggere4 il valore dell’energia ottenuto con la somma degli autovalori, Eq.(8.18), in modo che coincida con quello calcolato senza usare la somma degli autovalori, come in Eq.(8.8). I due valori dell’energia totale sono stampati l’uno accanto all’altro. Da notare anche il ”virial check”, che verifica il teorema del viriale: per un potenziale coulombiano, hT i = −hV i/2, dove i due termini sono rispettivamente i valori medi delle energie cinetica e potenziale. 8.4.1 Laboratorio • Confrontare l’energia con quella ottenuta con altri metodi: teoria perturbativa con funzioni d’onda idrogenoidi (sezione 7.8), teoria variazionale con Z effettivo (sezione 7.9) e con base di gaussiane (sezione 7.10), risultato esatto (-5.8074 Ry). • Osservare l’andamento della procedura di autoconsistenza e verificare che l’energia (ma non i singoli termini!) decresce monotonamente. • Graficare gli orbitali (file wfc.out) a differenti n e `. Notate come gli orbitali e i relativi autovalori diventino sempre più idrogenoidi per n crescente. Sapete spiegare perchè? • Se non sapete rispondere alla domanda precedente: graficate Vscf (file pot.out) e confrontate l’andamento asintotico con quello della sola parte −2Z/r. Cosa notate? • Il risultato Hartree-Fock numericamente più accurato è -5.7234 Ry. Provare a modificare i parametri della griglia radiale in modo da avvicinarsi al risultato accurato. 8.5 Programma: helium hf gauss La soluzione radiale delle equazioni di Hartree-Fock è possibile solo negli atomi o in particolari sistemi modello. In molti casi (per esempio, nelle molecole) si sviluppa la soluzione su di una base opportunamente scelta, in modo del tutto analogo a quanto visto per il metodo variazionale. Riscriviamo le equazioni di Hartree-Fock – limitate al caso ristretto – sotto la forma seguente: Fφk = k φk , k = 1, . . . , N/2 (8.46) introducendo l’operatore di Fock, F. Si tratta ovviamente di un operatore non locale e dipendente dagli orbitali φk stessi. Cerchiamo ora una soluzione sotto P (k) forma di somma su di una base di funzioni: φk (r) = i ci bi (r). Avremo F c(k) = k Sc(k) 4 (8.47) Gli autovalori sono calcolati usando il potenziale di input, gli altri termini usando il potenziale di output 102 (k) (k) (k) dove c(k) = (c1 , c2 , . . . , cN ) è il vettore dei coefficienti dello sviluppo, S è la matrice di sovrapposizione e F la matrice dell’operatore di Fock sugli stati della base: (8.48) Fij = hbi |F|bj i, Sij = hbi |bj i. Con un po’ di algebra si trova Fij = fij + XX l m X (k)∗ 1 2 gijlm − giljm , cl c(k) m N/2 2 k=1 (8.49) dove, con le notazioni introdotte in questo capitolo: Z fij = b∗i (r1 )f1 bj (r1 )dr1 , Z gijlm = b∗i (r1 )bj (r1 )g12 b∗l (r2 )bm (r2 )dr1 dr2 . (8.50) La somma sugli stati fra parentesi nella 8.49 è la cosiddetta matrice densità. I due termini nella seconda parentesi danno rispettivamente il contributo dei potenziali di Hartree e di scambio. Il problema 8.47 è più complesso di una normale diagonalizzazione, in quanto la matrice di Fock 8.49 dipende dai suoi autovettori. Tuttavia la soluzione può essere ricondotta ad una procedura autoconsistente, in cui ad ogni passo si diagonalizzazione una matrice fissata. Il programma helium hf gauss.f905 (oppure helium hf gauss.c6 ) risolve le equazioni di Hartree-Fock per lo stato fondamentale dell’atomo di elio, usando una base di gaussiane S. Gli ingredienti di base sono gli stessi del programma hydrogen gauss (per la diagonalizzazione e gli elementi di matrice di singolo elettrone) e helium gauss (per gli elementi di matrice della repulsione coulombiana fra elettroni). La procedura autoconsistente è ancora più semplice che in helium hf radial: ad ogni passo la matrice di Fock è calcolata usando la matrice densità del passo precedente, senza nessun accorgimento particolare, fino a quando l’energia non converge. 8.5.1 Laboratorio • Osservare come varia l’energia in funzione del numero di gaussiane e dei loro coefficienti. Confrontare con l’energia ottenuta da helium hf radial. • Provare la seguente base ottimizzata di quattro gaussiane, con coefficienti: α1 = 0.297104, α2 = 1.236745, α3 = 5.749982, α4 = 38.216677 a.u.. 5 6 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/F90/helium hf gauss.f90 http://www.fisica.uniud.it/˜giannozz/Corsi/MQ/Software/C/helium hf gauss.c 103 Chapter 9 Interazioni tra atomi 9.1 Approssimazione di Born-Oppenheimer Consideriamo un sistema di nuclei e di elettroni in interazione fra di loro. In generale, l’hamiltoniano del sistema dipenderà da tutte le coordinate nucleari, Rµ e da tutte le coordinate elettroniche, ri . Per un sistema di n elettroni sotto il campo di N nuclei di carica Zµ , si dovrà in linea di principio risolvere l’equazione di Schrödinger: (TI + VII + VeI + Te + Vee ) Ψ(Rµ , ri ) = EΨ(Rµ , ri ) (9.1) dove TI è l’energia cinetica dei nuclei, VII la repulsione coulombiana fra nuclei, VeI l’interazione coulombiana fra nuclei ed elettroni, Te l’energia cinetica degli elettroni, Vee la repulsione coulombiana fra elettroni: TI = X µ=1,N − h̄2 2 ∇ , 2Mµ µ Vee = Te = X i=1,n qe2 2 X i6=j − h̄2 2 ∇ , 2m i 1 , |ri − rj | VII = VeI = qe2 qe2 X Zµ Zν , 2 µ6=ν |Rµ − Rν | Zµ . (9.2) |Rµ − ri | µ=1,N i=1,n X X Il tutto ha l’aspetto di un problema formidabile. Tuttavia si può sfruttare la differenza di massa fra elettroni e nuclei per separare il problema globale in un problema elettronico a nuclei fissi e un problema nucleare sotto un potenziale effettivo generato dagli elettroni. Tale separazione va sotto il nome di approssimazione adiabatica, o di Born-Oppenheimer. Il punto cruciale è che il moto elettronico è assai più veloce del moto nucleare: le forze in gioco sono le stesse, ma un elettrone è quasi 2000 volte più leggero di ogni nucleone. Possiamo quindi assumere che in ogni istante gli elettroni ”seguano” il moto nucleare, mentre i nuclei in ogni istante ”vedono” un potenziale effettivo che è quello generato dagli elettroni. Il modo formale di vedere la cosa, nonché di vedere cosa si trascura, è il seguente. Assumiamo una funzione d’onda della forma (l) Ψ(Rµ , ri ) = Φ(Rµ )ψR (ri ) (l) (9.3) dove la funzione d’onda elettronica ψR (ri ) risolve la seguente equazione di Schrödinger: (l) (l) (l) (Te + Vee + VeI ) ψR (ri ) = ER ψR (ri ). (9.4) 104 L’indice R sta ad ricordare che sia la funzione d’onda che l’energia dipendono dalle coordinate nucleari, tramite Ve I; l’indice l classifica gli stati elettronici. Inseriamo ora la funzione d’onda (9.3) nell’Eq. (9.2) e notiamo che Te non agisce sulle variabili nucleari. Otterremo la seguente equazione: (l) (l) (l) TI + VII + ER Ψ(Rµ )ψR (ri ) = EΨ(Rµ )ψR (ri ). (9.5) Trascuriamo ora la dipendenza da R della funzione d’onda elettronica nel termine cinetico: (l) (l) (9.6) TI Φ(Rµ )ψR (ri ) ' ψR (ri ) (TI Φ(Rµ )) . Otterremo cosı̀ un’equazione di Schrödinger per le sole coordinate nucleari: (l) TI + VII + ER Ψ(Rµ ) = EΨ(Rµ ), (9.7) (l) dalla quale gli elettroni sono ”spariti”, nascosti nell’autovalore ER . Il termine (l) VII + ER funge da potenziale effettivo di interazione per i nuclei. Ovviamente tale potenziale, come pure autofunzioni e autovalori del problema nucleare, dipendono dal particolare stato elettronico. L’approssimazione di Born-Oppenheimer è molto ben verificata, salvo casi particolari di fenomeni non-adiabatici, che hanno comunque una grande importanza in certi processo. Il principale termine trascurato nella 9.6 ha la forma seguente: X h̄2 (l) (9.8) (∇µ Φ(Rµ )) ∇µ ψR (ri ) µ Mµ e può all’occorrenza essere trattato come perturbazione. 9.2 Superficie di Energia Potenziale L’approssimazione di Born-Oppenheimer ci permette dunque di risolvere separatamente un’equazione di Schrödinger per gli elettroni, Eq.(9.4), in funzione delle posizioni atomiche, e un problema per i soli nuclei, Eq.(9.7). Quest’ultimo è di fatto un’equazione di Schrödinger in cui i nuclei interagiscono tramite un potenziale interatomico effettivo, V (Rµ ≡ VII + E (l) , che è funzione delle posizioni atomiche Rµ e dello stato elettronico. Il potenziale interatomico V (Rµ ) è noto anche come superficie di energia potenziale (“potenziale” ed “energia potenziale” sono in questo contesto usati come sinonimi), o PES (potential energy surface). Si intuisce subito che il moto nucleare è interamente determinato dalla PES (assumendo che lo stato elettronico non vari nel tempo) in quanto le forze agenti sui nuclei non sono altro che il gradiente della PES: Fµ = −∇µ V (Rµ ), (9.9) (0) mentre gli stati di equilibrio del sistema di nuclei, che indichiamo con Rµ , sono caratterizzati dall’annullamento del gradiente della PES (e quindi della forza agente sui nuclei): Fµ = −∇µ V (R(0) (9.10) µ ) = 0, 105 In generale, ci possono essere molti punti di equilibrio, stabili (se siamo in un punto di minimo: se ci spostiamo dal minimo, le forze sono in ogni direzione contrarie allo spostamento, ovvero la derivata seconda è positiva dappertutto in un intorno del minimo) o instabili (se siamo in un punto di flesso o di massimo: esistono direzioni lungo le quali le forze sono nella stessa direzione dello spostamento, ovvero la derivata seconda è negativa). Fra i vari minimi, ce ne sarà uno di energia più bassa (il minimo globale), che corrisponderà allo stato fondamentale del sistema di nuclei (per un dato stato elettronico; se lo stato elettronico è anche lo stato fondamentale, questo sarà lo stato fondamentale del sistema di atomi). Gli altri minimi sono minimi locali, ovvero stati metastabili dai quali il sistema di nuclei può uscire superando una barriera di potenziale. 9.3 Molecole biatomiche Consideriamo ora il caso più semplice possibile: molecole biatomiche (in particolare, la molecola di H2 ). Ci sono 6 coordinate nucleari, 3 per il centro di massa e 3 relative, ma solo 1, la distanza R fra i nuclei, determina il potenziale interatomico effettivo V (R): la PES è infatti invariante per traslazione e per rotazione attorno all’asse congiungente i due nuclei. Per una data distanza R, possiamo risolvere l’Eq.(9.4) per gli elettroni, trovare lo l-esimo livello elettronico E (l) (R), determinare V (R) = EII (R) + E (l) (R). Da notare che l’energia di repulsione nucleare EII (R) è semplicemente data da EII (R0 = qe2 Z1 Z2 /R, dove Z1 e Z2 sono le cariche nucleari dei due nuclei. Limitiamoci a considerare lo stato elettronico fondamentale per la molecola di H2 . Per piccoli R, la repulsione (in questo caso fra i nuclei) ha il sopravvento e V (R) diventa positivo e diverge come qe2 /R per R → 0. Per grandi R, ci aspettiamo che lo stato fondamentale sia quello di due atomi di H neutri, quindi V (R) ' 2Ry. Per R intermedi, si osserva che la curva raggiunge un minimo a circa R0 = 0.74Å, in cui V (R0 ) ' V (∞) − 4.5eV. Tale valore di −4.5eV, differenza fra l’energia potenziale degli atomi a grande distanza e al minimo, va sotto il nome di energia di coesione o di legame. La forma del potenziale interatomico ricorda quella di potenziali modello quale quello di Morse (in effetti tali potenziali sono nati proprio per modellizzare casi di questo genere). Come è fatto lo stato fondamentale per R ∼ R0 ? un’idea ce la possiamo fare usando il metodo degli orbitali molecolari. Consideriamo soluzioni approssimate in cui gli stati di singola particella sono date da combinazioni di stati centrati attorno ai due nuclei. Le combinazioni con la stessa fase sono dette leganti, in quanto tendono ad accumulare carica nella zona di spazio fra i due nuclei. Le combinazioni con fase opposta sono dette antileganti, in quanto la carica fra i due nuclei è assai modesta. Partendo da questi orbitali molecolari, si può cercare la soluzione costruendo un determinante di Slater. Si trova che uno stato fondamentale qualitativamente simile a quello deducibile dagli esperimenti è ottenuto usando due orbitali leganti, di spin opposto, formati sovrapponendo stati 1s centrati sui due nuclei (i cosiddetti orbitali sigma1s). per costruzione, tale stato fondamentale ha spin nullo (S = 0). L’approccio degli orbitali molecolari può spiegare qualitativamente le carat- 106 teristiche dello stato fondamentale, e anche degli stati eccitati, della serie dei dimeri omonucleari (cioè formati da due nuclei uguali). Resta però un approccio semi-quantitativo. per un approccio più preciso, nell’ambito dell’approssimazione di Hartree-Fock e simili, si ricorre al metodo variazionale. Gli orbitali HartreeFock sono sviluppati su di una base di funzioni, tipicamente gaussiane o altre funzioni localizzate, centrate attorno ai vari nuclei. Si risolvono quindi le equazione di Hartree-Fock su questa base. 9.4 Solidi cristallini Moltissimi solidi assumono una struttura cristallina, caratterizzata da una disposizione regolare periodica degli atomi: il reticolo cristallino. La periodicità può essere formalizzata matematicamente in modo semplice e generale in un qualunque numero di dimensioni. Nel seguito ci interesseremo ad un sistema modello particolarmente semplice, che tuttavia illustra le principali problematiche e caratteristiche dei sistemi periodici. Consideriamo un sistema infinito e periodico di “atomi”. I nostri “atomi” sono rappresentati da un qualche potenziale, centrato sulla posizione atomica. Il potenziale rappresenta “in qualche modo” che non approfondiamo il potenziale effettivo sentito da un elettrone nel cristallo. Consideriamo solo elettroni di valenza, ovvero provenienti dai gusci atomici più esterni. L’effetto degli elettroni più profondi, strettamente legati al nucleo e il cui stato non risente che marginalmente della formazione del cristallo, può essere ignorato e in qualche modo che non approfondiamo inglobato nel potenziale effettivo (si parla in questo caso di pseudopotenziale). L’assunzione che gli elettroni profondi (di core) non diano contributo al legame chimico e che il loro stato non cambi in modo significativo rispetto al caso atomico (frozen-core approximation) è largamente utilizzata anche nei calcoli molecolari e ampiamente confermata dall’esperienza. Consideriamo infine il caso di elettroni indipendenti: implicitamente assumiamo che il potenziale effettivo tenga conto degli effetti di repulsione coulombiana. Ci siamo quindi ridotti al problema di calcolare i livelli di energia per un elettrone nel cosiddetto potenziale cristallino: un potenziale effettivo avente la periodicità del cristallo. Lo scopo di tale semplificazione è di ottenere un problema facilmente risolubile che porti, con una scelta appropriata del potenziale cristallino, a livelli elettronici rappresentativi del comportamento del sistema cristallino. Non abbiamo finora precisato né la composizione né la periodicità del sistema. Proseguiamo nella semplificazione e assumiamo un sistema unidimensionale di atomi tutti uguali, regolarmente spaziati di una distanza a. Le posizioni atomiche saranno quindi an = na, dove n corre su tutti i numeri interi negativi e positivi. Nel gergo della fisica dello stato solido, a è il parametro reticolare e gli an sono i vettori del reticolo cristallino. Il sistema ha una simmetria traslazionale discreta, ovvero è uguale a se stesso se traslato di a o di multipli di a: se chiamiamo V (x) il potenziale cristallino, formato dalla sovrapP posizione di potenziali “atomici”: V (x) = n Vn (x − an ), abbiamo immediatamente V (x + a) = V (x). Tale simmetria gioca un ruolo molto importante nelle proprietà dei solidi cristallini. Il nostro spazio unidimensionale (la retta) è de- 107 componibile in zone finite di spazio, di lunghezza a, periodicamente ripetute. Si definisce cella unitaria la più piccola di tale zone. La sua definizione contiene un certo grado di arbitrarietà: per esempio, sia gli intervalli [0, a[ che ]−a/2, +a/2] sono definizioni valide per il nostro caso. 9.4.1 Condizioni al Bordo Periodiche Prima di procedere a cercare la soluzione, dobbiamo chiederci quanto sia sensata applicare questa schematizzazione ad un cristallo reale, sistema formato da un numero macroscopico (dell’ordine del numero di Avogadro o frazioni di esso) ma comunque finito di atomi. Si può pensare ad un sistema troncato a N atomi, con N → ∞, ma non è un modo conveniente: si perde la simmetria traslazionale, rotta dalla presenza delle superfici (in questo caso, i bordi). Un modo più conveniente e formalmente corretto introduce le condizioni al bordo periodiche (PBC). Consideriamo il sistema in una scatola di dimensione L = N a e consideriamo soluzioni che obbediscano alla condizione ψ(x) = ψ(x + L), ovvero soluzioni periodiche di periodo L >> a. Possiamo immaginarci la funzione d’onda che, arrivata ad un bordo, “rientra” dall’altra parte. 1 . Nel caso unidimensionale possiamo farci un’immagine semplice del sistema: i nostri atomi sono distribuiti su di un anello invece che su di una retta, con l’atomo N fra l’atomo N − 1 e l’atomo 1. Le PBC ci permettono di continuare a trattare il sistema finito (di lunghezza L) ma macroscopico (con N atomi, un numero grandissimo se a è una distanza interatomica tipica e L una lunghezza macroscopica) come sistema con simmetria traslazionale discreta. Il caso N → ∞ descrive il cosiddetto limite termodinamico. Notare che il cristallo con PBC è privo di superficie! Di conseguenza, non c’è un “‘dentro” e un “fuori”: quest’ultimo non è previsto, non esiste. E’ il prezzo da pagare per il grande vantaggio di poter usare la simmetria di traslazione. Nonostante le PBC e la simmetria di traslazione, la soluzione dell’equazione di Schrödinger per un potenziale periodico può non sembrare del tutto ovvia. La costruzione dello stato fondamentale richiede un numero di stati di singola particella pari ad almeno la metà del numero di elettroni del sistema, assumendo che, come nel caso di He e H2 , la funzione d’onda a molti elettroni sia composta da un prodotto antisimmetrizzato di funzioni d’onda di singolo elettrone prese a coppie, spin-up e spin-down, cosı̀ da avere uno stato con S = 0. Il numero di elettroni in un cristallo dipende dagli atomi che lo compongono. Anche se assumiano un elettrone per “atomo” nel nostro modello di cristallo, abbiamo bisogno di conoscere N/2 stati, con N → ∞. Come possiamo descrivere un numero macroscopico di stati? 9.4.2 Teorema di Bloch A questi punto viene in soccorso la teoria della simmetria e in particolare il teorema di Bloch. Indichiamo con T l’operazione di traslazione discreta 1 Le PBC sono utili anche nella trattazione rigorosa della particella libera e nella definizione dell’operatore quantità di moto 108 T ψ(x) = ψ(x + a). Come sono fatti gli autovalori e gli autostati di T ? Si vede (e si dimostra rigorosamente) che T ψ(x) = λψ(x) ammette come soluzione ψk (x) = exp(ikx)uk (x), dove k è un numero reale, uk (x) è una funzione periodica di periodo a: uk (x + a) = uk (x). Questo risultata si generalizza a tre dimensioni, dove k è un vettore, chiamato vettore di Bloch. Gli stati ψk vanno sotto il nome di stati di Bloch. E’ immediato verificare che per gli stati di Bloch vale la seguente proprietà: ψk (x + a) = ψk (x)eika . (9.11) Classifichiamo le nostre soluzioni usando il vettore (in questo caso, unidimensionale) di Bloch k, che è legato all’autovalore dell’operatore traslazione (ricordiamo che H e T commutano). La 9.11 suggerisce che tutti i k che differiscono per un multiplo di 2π/a sono equivalenti (corrispondono allo steso autovalore di T ). Conviene quindi limitarsi al seguente intervallo di valori di k: −π/a < k ≤ π/a. Valori di k fuori da tale intervallo sono ricondotti dentro a tale intervallo con una traslazione di Gn = 2πn/a. Dobbiamo inoltre assicurarci della compatibilità con le PBC. E’ immediato verificare che solo k tali per cui exp(ikL) = 1 sono compatibili con le PBC, ovvero k deve essere un multiplo intero di 2π/L. Di conseguenza, per un numero N di atomi finito (ovvero per una dimensione finita L = N a della scatola), ci sono N valori ammissibili di k: kn = 2πn/L, con n = −N/2, ..., N/2 (notare che k−N/2 = −π/a è equivalente a kN/2 = π/a). Nel limite termodinamico N → ∞, questi N vettori di Bloch formeranno un insieme denso (nel senso matematico del termine) fra −π/a e π/a: a tutti gli effetti, un continuo. 9.4.3 Il potenziale vuoto Prima di proseguire verso la soluzione, esaminiamo il caso del potenziale pis̀emplice di tutti: il potenziale inesistente, V (x) √ = 0. Il nostro sistema avrà come soluzioni delle onde piane: ψk (x) = (1/ L)exp(ikx), dove il fattore ci assicura la normalizzazione. k può assumere un valore qualunque, purché compatibile con le PBC, ovvero k = 2πn/L, con n un intero qualunque. L’energia di uno stato di vettore k sarà puramente cinetica, e quindi: 1 ψk (x) = √ eikx , L (k) = h̄2 k 2 . 2m (9.12) Per ottenere una descrizione analoga a quella del caso con potenziale periodico, dobbiamo semplicemente “ripiegare” i vettori k nell’intervallo −π/a < k ≤ π/a, applicando traslazioni di Gn = 2πn/a. Tracciamo le energie in funzione di k, 9.12, “ripiegate”: ad ogni k nell’intervallo −π/a < k ≤ π/a corrispondono più stati, con energia n (k) = h̄2 (k + Gn )2 /2m. Gli stati Bloch corrispondenti hanno la forma 1 ψk,n (x) = √ eikx uk,n (x), L uk,n (x) = eiGn x . (9.13) La funzione uk,n (x) è per costruzione periodica. Da notare come si sia passati da una descrizione “estesa” in cui il vettore k copre tutto lo spazio, ad 109 una descrizione “ridotta” in cui k è compreso fra −π/a e π/a. Anche per lo spazio dei k possiamo quindi introdurre una “cella unitaria”, ] − π/a, π/a], periodicamente ripetuta c on periodo 2π/a. Tale cella va sotto il nome di Zona di Brillouin (BZ).E’ immediato verificare che la periodicità nello spazio k è data del cosiddetto reticolo reciproco: un reticolo Gn tale per cui Gn · am = 2πp, con p intero. 9.4.4 Soluzione per ll potenziale cristallino Veniamo ora al caso generale di potenziale periodico scritto come somma di termini centrati sugli “atomi”: V (x) = X v(x − na). (9.14) n Osserviamo per prima cosa che il teorema di Bloch permette di separare la soluzione del problema in sottoproblemi indipendenti per ogni k. Inserendo la forma di Bloch 9.11 nell’equazione di Schrödinger: (T + V (x))eikx uk (x) = Eeikx uk (x), (9.15) si ottiene un’equazione per la parte periodica uk (x): " h̄2 d d2 k 2 − 2ik − 2 2m dx dx ! # + V (x) − E uk (x) = 0 (9.16) che ha in generale una serie infinita e discreta di soluzioni, ortogonali fra di loro: Z L/2 −L/2 u∗k,n (x)uk,m (x)dx Z a/2 = δnm N −a/2 u∗k,n (x)uk0 ,m (x)dx, (9.17) dove abbiamo sfruttato la periodicità delle u(x) per ricondurre l’integrale su tutto il cristallo (da −L/2 a L/2) ad un integrale sulla sola cella unitaria (da −a/2 ad a/2). Tuttavia nel seguito non useremo tale equazione. Notiamo che le soluzioni di k differente sono per costruzione ortogonali. Scriviamo l’integrale di sovrapposizione fra stati di Bloch di k differenti: Z L/2 −L/2 Z L/2 ∗ ψk,n (x)ψk0 ,m (x)dx = −L/2 X = 0 ei(k −k)x u∗k,n (x)uk0 ,m (x)dx ip(k0 −k)a !Z a/2 e −a/2 p (9.18) 0 ei(k −k)x u∗k,n (x)uk0 ,m (x)dx, dove la somma su p scorre su tutti gli N vettori del reticolo. Il fattore puramente geometrico che moltiplica l’integrale è non nullo solo se k e k 0 coincidono: X 0 eip(k −k)a = N δk,k0 . (9.19) p Abbiamo usato la delta di Kronecker e non di Dirac perché i k formano un insieme denso ma comunque finito (ce ne sono N ). Notiamo che quest’ultima relazione di ortogonalità vale qualunque sia la parte periodica, u(x), degli stati di Bloch, e che niente implica che le parti periodiche degli stati di Bloch a k differenti siano fra di loro ortogonali: solo quelle allo stesso k lo sono (vedere la 9.17). 110 9.4.5 Base di onde piane Torniamo alla soluzione numerica. Vogliamo cercare una soluzione usando una base di onde piane, che è particolarmente adatta a problemi con periodicità. La scelta della base di onde piane non è libera: dipende infatti dal vettore di Bloch e dalla periodicità del sistema. Per un dato vettore k, la base di onde piane “giusta” è la seguente: 1 bn,k (x) = √ ei(k+Gn )x , L Gn = 2π n. a (9.20) La base ”giusta” deve infatti avere un comportamento exp(ikx), come gli stati di Bloch di vettore k; inoltre il potenziale deve avere elementi di matrice non nulli fra onde piane. Per un potenziale periodico come quello di 9.14, le componenti di Fourier sono non nulle solo per un set discreto di valori: Ve (G) = = 1 L Z L/2 V (x)e−iGx dx (9.21) −L/2 1 X −ipGa e L p !Z a/2 v(x)e−iGx dx. (9.22) −a/2 Di nuovo, il fattore p e−ipGa è nullo salvo che quando Ga è un multiplo di 2π, ovvero solo sui Gn sopra introdotti. Si ottiene quindi P 1 Ve (Gn ) = a Z a/2 v(x)e−iGn x dx. (9.23) −a/2 L’integrale c̀alcolato per un solo termine di potenziale e in una sola cella unitaria. Da notare come i termini N si elidano, come ci si aspetta se vogliamo che il limite N → ∞ sia ben definito. 9.5 Programma: periodicwell Veniamo infine alla risoluzione pratica di un potenziale “vero”: la buca di potenziale periodica, nota in fisica dello stato solido dagli anni ’30 sotto il nome di modello di Kronig-Penney: V (x) = X v(x − na), v(x) = −V0 n b |x| ≤ , 2 v(x) = 0 |x| > b 2 (9.24) e ovviamente a ≥ b. Tale modello è solubile esattamente nel limite b → 0, V0 → ∞, V0 b →costante. Gli ingredienti necessari per la soluzione in una base di onde piane sono quasi tutti presenti nelle sezioni 6.6 e 6.7, dove si è affrontata la soluzione numerica su di una base di onde piane per il problema della buca di potenziale singola. Il programma periodicwell è di fatto una banale estensione del programma pwell. In tale codice infatti si usa una base di onde piane come in 9.20, che equivale a risolvere il modello periodico di Kronig-Penney per k = 0. Se 111 aumentiamo la lunghezza della cella fino a che questa diventa grande rispetto alle dimensioni della singola buca, risolviamo il caso della buca isolata. La generalizzazione al modello periodico richiede solamente l’introduzione del vettore di Bloch k. La nostra base è data dalla 9.20. Per decidere dove troncarla, conviene considerare le onde piane fino ad un’energia cinetica massima: h̄2 (k + Gn )2 ≤ Ecut . (9.25) 2m Le funzioni d’onda di Bloch sono sviluppate in onde piane: ψk (x) = X cn bn,k (x) (9.26) 2 n |cn | = 1. Gli elementi di matrice n e sono automaticamente normalizzate se dell’hamiltoniana sono molto semplici: Hij = hbi,k |H|bj,k i = δij P h̄2 (k + Gi )2 1 + √ Ve (Gi − Gj ). 2m a (9.27) Il programma pwell può essere riciclato interamente, con la sola aggiunta del vettore di Bloch k, e con l’introduzione del parametro Ecut per decidere il set di base. Questo è preferibile al numero massimo di onde piane perchè la convergenza dipende dal modulo di k + G. Il numero di onde piane, invece, dipende anche da a, ovvero dalla dimensione della cella. Il programma periodicwell richiede in input la profondità della buca, V0 , la dimensione della buca, a, la dimensione della cella, L (attenzione alla differente definizione delle variabili!). Internamente fa un loop sui punti k che copre tutta la BZ (ovvero, in questo caso, l’intervallo [−π/L, π/L]), calcola i tre piu’ bassi valori di E(k), li salva sul file bands.out in un formato facilmente plottabile. 9.5.1 Laboratorio • Disegnate E(k), che va sotto il nome di struttura a bande, o anche dispersione. Notate come la presenza di un potenziale debole ha come effetto principale l’apparizione di intervalli di energia proibita ai bordi della ZB (ovvero: di valori di energia ai quali non corrisponde nessuno stato). Nel gergo della fisica dello stato solido, si apre un gap. Questo effetto è prevedibile sulla base della teoria delle perturbazioni. Si parla in tal caso di elettroni quasi liberi. • Osservate come varia E(k) in funzione della periodicità e della profondità della buca. Di regola, una banda diventa tanto più larga (dispersa, nel gergo della fisica dello stato solido) quanto maggiore è la sovrapposizione fra gli stati “atomici”. 112 Appendix A Postulati e formalismo della meccanica quantistica Questo capitolo intende dare una breve introduzione alla formulazione di Dirac e di von Neumann della meccanica quantistica. Si tratta di un approccio più formale e di più difficile ”digeribilità” rispetto all’approccio basato sulla funzione d’onda, ma più profondo e oserei dire più chiaro, una volta ”digerito”. Per un approfondimento, si consiglia il classico libro di Dirac: P. A. M. Dirac, I principi della meccanica quantistica, Boringhieri, 1976. La mia conoscenza dell’argomento deriva quasi interamente dal corso tenuto da Luigi Picasso a Pisa molti anni fa, di cui consiglio le dispense: L. E. Picasso, Lezioni di Meccanica Quantistica, ETS Pisa, 2000. A.1 Stato del sistema Si introduce lo stato del sistema, che è descritto matematicamente da un vettore in uno spazio vettoriale. Cosa sia il vettore e lo spazio vettoriale in questione dipende da cosa si sta studiando, ma l’aspetto fondamentale è che tale formulazione implica la validità del principio di sovrapposizione lineare. Se un sistema può essere in uno stato |Ai o in un altro stato |Bi, una qualunque sovrapposizione di |Ai e di |Bi, per esempio |Ci = |Ai + |Bi, è uno stato accettabile del sistema. Lo spazio vettoriale, in generale di dimensione infinita, che descrive gli stati del sistema va sotto il nome di spazio di Hilbert. In esso è definito un prodotto scalare, indicato con la notazione ”bra-ket” di Dirac: hA|Bi. Notare che vettori che differiscono solo per un fattore a moltiplicare rappresentano lo stesso stato fisico; solitamente si usano vettori normalizzati, per i quali cioè vale hA|Ai = 1. A.2 Osservabili e misura Una grandezza fisica misurabile è detta un osservabile. Se effettuiamo una misura di un’osservabile su di uno stato |Ai, in generale otterremo una transizione ad un altro stato |Bi con una probabilità che postuliamo essere data 113 dalla seguente espressione: P (A → B) = |hB|Ai|2 hA|AihB|Bi (A.1) (notare come tale espressione non dipenda dalla normalizzazione). Esistono però degli stati particolari sui quali la grandezza fisica misurata da un osservabile ha un valore determinato. Chiamiamo |oi lo stato su cui l’osservabile O ha valore determinato o. La probabilità di ottenere un valore determinato o sarà quindi data dalla probabilità di transizione allo stato |oi su cui l;osservabile vale o: |ho|Ai|2 (A.2) . P (o) = hA|Aiho|oi Per stati normalizzati, P (o) = |ho|Ai|2 . Come si formalizza matematicamente l’operazione di misura? Gli osservabili sono rappresentati da operatori che agiscono sugli stati in uno spazio di Hilbert. Se O è l’operatore di un osservabile, l’operazione di misura consiste nell’applicare l’operatore O sullo stato del sistema |Ai. Per gli stati sui quali l’osservabile O ha valori definiti, vale: O|oi = o|oi, (A.3) ovvero |oi è un autostato (o autovettore, o autofunzione) di O con autovalore o. Da notare che gli operatori corrispondenti a osservabili fisiche sono hermitiani o autoaggiunti, cioè se O† è l’operatore aggiunto, definito dalla condizione: hB|O† |Ai = hA|O|Bi∗ , (A.4) vale O† = O. L’hermiticità di un operatore garantisce che • gli autovalori sono reali; • gli autostati sono ortogonali (se gli autovalori sono differenti), o possono essere scelti in modo da essere ortogonali (se gli autovalori sono degeneri, ovvero se esistono più autostati con lo stesso autovalore). Si assume che ogni stato possa essere scritto come somma (in generale infinita) di autostati di un’osservabile, ovvero che tali autostati formino una base completa. Possiamo quindi scrivere |Ai come somma su tutti gli autostati |oi i: |Ai = X ci |oi i. (A.5) i Avremo in particolare |ci |2 P (oi ) = P . 2 i |ci | (A.6) Il valore medio, o valore di aspettazione, di O sullo stato |Ai è quindi P |ci |2 oi hA|O|Ai = . Ō = Pi 2 i |ci | 114 hA|Ai (A.7) A.3 Osservabili compatibili e non Non tutte le osservabili sono compatibili, ovvero possono essere misurate contemporaneamente. Due osservabili O e Q sono compatibili solo se commutano, ovvero se il loro commutatore è nullo: [O, Q] ≡ (OQ − QO) = 0. (A.8) Si tratta ovviamente di una relazione operatoriale, non banale! Si può facilmente dimostrare che se due operatori commutano, ammettono una base comune di autostati (e quindi la misura di ogni osservabile dà sempre il rispettivo autovalore, indipendentemente dall’ordine ”in cui si fa la misura”). Si può anche dimostrare che se O commuta con due operatori P e Q che non commutano fra di loro, esistono sicuramente autostati degeneri di O. Se misuriamo un’osservabile O su di uno stato generico, cioè non un autostato di O, otterremo una distribuzione di probabilità di valori misurati, caratterizzata da uno scarto quadratico medio ∆O definito come: ∆O = q hA|O2 |Ai 2 − hA|O|Ai = q O2 − Ō2 . (A.9) Dobbiamo immaginarci di poter ”preparare” il sistema tante volte nello stato |Ai e di fare la media (indicata qui con la barra) su tante misure. Solo su di un autostato di O avremo ∆O = 0. Si può dimostrare che se due operatori O e Q non commutano, vale la seguente relazione di indeterminazione : ∆O∆Q ≥ 1 |hA| [O, Q] |Ai| . 2 (A.10) Consideriamo il caso in cui il commutatore sia un multiplo dell’operatore identità: [O, Q] = ic, dove c è un fattore numerico (il fattore i è necessario! il commutatore di operatori hermitiani è anti-hermitiano). In tal caso il prodotto degli scarti quadratici medi ha un valore minimo indipendente dallo stato sul quale facciamo la misura: 1 ∆O∆Q ≥ |c|. (A.11) 2 A.4 Rappresentazioni Finora abbiamo parlato di spazi vettoriali (di Hilbert), di operatori che agiscono in tali spazi, abbiamo postulato che questi ultimi rappresentino grandezze fisiche misurabili, assunto che l’operazione di misura corrisponda all’applicazione di appropriati operatori ad elementi (vettori) di uno spazio di Hilbert. Tale formalismo ha già prodotto qualche risultato interessante: • garantisce la validità del principio di sovrapposizione lineare, e quindi rende possibile forme di ”interferenza quantistica”, analoghe all’interferenza fra onde; 115 • dà una descrizione probabilistica del processo di misura e limitazioni intrinseche alla precisione dello stesso per la misura di osservabili non compatibili. Tuttavia la connessione con la fisica vera e propria è ancora da fare. In particolare, la connessione fra questo approccio e la descrizione quantistica ”tradizionale” in termini di equazioni di Schrödinger e funzioni d’onda non sembra ovvia. La meccanica classica usa come variabili fondamentali le posizioni qi e le quantità di moto pi ; l’Hamiltoniana è espressa in termini di tali variabili. Consideriamo una sola particella, cosicchè i = x, y, z. Sostituiamo le qi e pi con i corrispondenti operatori della meccanica quantistica, e assumiamo che l’hamiltoniano e gli altri operatori si ottengano dalle espressioni classiche con tale sostituzione. Da ora in poi sarà implicito che qi e pi sono operatori. Assumiamo inoltre che i commutatori di qi e pi siano proporzionali alle parentesi di Poisson del caso classico: [qi , qj ] = [pi , pj ] = 0, [qi , pj ] = ih̄δij . (A.12) Ciò garantisce, per via della relazione di indeterminazione, Eq.(A.10), che il principio di indeterminazione di Heisenberg è rispettato. La forma esplicita di tali operatori tuttavia non è univoca: è infatti possibile introdurre differenti rappresentazioni degli operatori. Se consideriamo una qualunque base completa di stati |ηi i, possiamo scrivere l’azione di un operatore in termini degli elementi di matrice sugli stati della base: hA|O|Bi = X a∗i bj Oij (A.13) i,j dove (se la base è fatta di stati ortonormali) |Ai = X ai |ηi i, X |Bi = i bi |ηi i, Oij = hηi |O|ηj i. (A.14) i La matrice Oij ha in generale dimensione infinita. Per una base completa vale inoltre la relazione di completezza: I= X |ηi ihηi |, (A.15) i dove I è l’operatore identità. Se usiamo una base di autostati di O per sviluppare gli stati, avremo una rappresentazione diagonale per O. Si parla di rappresentazione di Heisenberg quando l’hamiltoniano è diagonale; di rappresentazione di Schrödinger, quando sono diagonali le coordinate. Nel seguito si descrive la seconda, che è anche quella più ”usuale”. A.5 Rappresentazione di Schrödinger Scriviamo la rappresentazione degli stati e degli operatori nella base degli autostati di qi . Per distinguere fra operatore e autovalore, quest’ultimo sarà indicato con ri : qi |ri = ri |ri. (A.16) 116 Su questi stati, la particella ha una posizione determinata: dato che le tre coordinate commutano fra di loro, è possibile determinare una base comune di autostati delle tre coordinate. Uno stato può essere rappresentato da una funzione d’onda: (A.17) |Ai → ψA (r) = hr|Ai e la probabilità di trovare la particella nel punto r discende dalla formula generale, Eq.(A.2): P (r) = |ψA (r)|2 , (A.18) cioè il quadrato della proiezione dello stato sull’autostato di r. C’è un piccolo problema in questi passaggi: da un punto di vista matematico, non stanno in piedi, in quanto l’operatore qi non ha autostati nel senso proprio del termine: gli stati |ri non formano una serie discreta di stati, ma una serie continua, e sono degli oggetti ben strani. Per esempio, la ”funzione” d’onda per una particella in un punto ben definito: hr|r0 i dovrebbe valere 0 dappertutto salvo che in r0 . Il problema non è insormontabile dal punto di vista matematico e portò Dirac a introdurre una distribuzione (un limite di funzioni) che va sotto il nome di delta di Dirac. A tutti gli effetti, possiamo scrivere hr|r0 i = δ(r − r0 ) (A.19) e usare la proprietà della delta di Dirac: Z δ(r)ψ(r)dr = ψ(0) (A.20) per rendere ben definito il passaggio alla rappresentazione di Schrödinger. Ci si convince quindi che l’identità può essere scritta come un integrale su r: Z I= |rihr|dr, (A.21) ∗ ψA (r)ψB (r)dr. (A.22) e per gli elementi di matrice vale: hA|Bi → Z Resta da definire cosa è la quantutà di moto. Una scelta possibile che rispetta le regole di commutazione, Eq.(A.12), è la seguente: |Bi = pi |Ai → ψB (r) = −ih̄ ∂ ψA (r), ∂ri (A.23) cioè la rappresentazione di Schrödinger della quantità di moto è: pi = −ih̄ ∂ . ∂ri (A.24) Si può dimostrare – cosa non evidente a prima vista – che l’operatore quantità di moto cosı̀ definito è hermitiano (autoaggiunto). Come sono fatti gli autostati della quantità di moto? Si vede subito che sono delle onde piane: ψk (r) ∝ eik·r , pi ψk (r) = h̄ki ψk (r), 117 (A.25) dove h̄k è l’autovalore. Anche la quantità di moto soffre di una patologia simile a quella dell’operatore coordinata: i suoi autostati – che sono onde estese a tutto lo spazio – sono ben definiti solo come limite, nel quadro di una trattazione matematica rigorosa. Gli altri operatori si costruiscono sostituendo alle variabili qi e pi i rispettivi operatori (facendo attenzione nei casi in cui l’ordine delle operazioni è importante). I livelli energetici sono determinati dagli autovalori Ei e autostati |ψi i dell’hamiltoniano, che scriviamo ”alla Dirac” come: H(pi , qi )|ψi i = Ei |ψi i. (A.26) Da qui si ottiene l’equazione di Schrödinger indipendente dal tempo, che per una particella di massa m sotto un potenziale V (r) può essere scritta ”alla Schrödinger” come: ! p2 + V (r) − Ei ψi (r) = 0 (A.27) 2m ovvero − A.6 h̄ 2 ∇ ψi (r) + (V (r) − Ei ) ψi (r) = 0. 2m (A.28) Evoluzione temporale E’ rimasto aperto il problema dell’evoluzione in funzione del tempo. In meccanica classica, l’Hamiltoniana determina l’evoluzione temporale. E’ quindi naturale assumere che anche in meccanica quantistica succeda la stessa cosa. Esistono però due schemi diversi, benché equivalenti, di descrivere l’evoluzione temporale in meccanica quantistica: • nello schema di Schrödinger, gli stati (o la funzione d’onda) evolvono nel tempo, gli operatori no; • nello schema di Heisenberg, gli operatori evolvono nel tempo, gli stati no. Consideriamo lo schema di Schrödinger. Postuliamo che l’evoluzione temporale della funzione d’onda sia data dall’equazione di Schrödinger dipendente dal tempo: ∂ψ(t) H(pi , qi )|ψ(t)i = ih̄ . (A.29) ∂t Non è difficile dimostrare che una volta risolta l’equazione di Schrödinger indipendente dal tempo, la soluzione dipendente dal tempo segue naturalmente. Se scriviamo la soluzione al tempo t = 0 come somma di autostati dell’hamiltoniano: ψ(r, 0) = X ci ψi (r) (A.30) ci eiEi t/h̄ ψi (r). (A.31) i l’evoluzione temporale sarà data da ψ(r, t) = X i 118 Se l’hamiltoniano non dipende esplicitamente dal tempo, la Eq.(A.29) può essere integrata e la sua soluzione scritta formalmente come |ψ(t)i = eiHt/h̄ |ψ(0)i ≡ U (t)|ψ(0)i. (A.32) L’operatore U (t) è definito tramite lo sviluppo in serie dell’esponenziale: ex = 1 + x + x2 x3 + + ... 2! 3! (A.33) ed è un operatore unitario, cioè vale U † = U −1 , U † U = U U † = I. (A.34) I valori medi di un osservabile evolvono nel tempo come: hψ(t)|O|ψ(t)i = hψ(0)|U † (t)OU (t)|ψ(0)i ≡ hψ(0)|O(t)|ψ(0)i. (A.35) Questo dimostra l’equivalenza fra lo schema di Schrödinger e quello di Heisenberg, in cui sono gli operatori a dipendere dal tempo: O(t) = U † (t)OU (t). (A.36) Derivando tale definizione si trova la formula generale valida anche se l’hamiltoniano dipende esplicitamente dal tempo: dO i ∂O = [H, O] + . dt h̄ ∂t (A.37) E’ stato qui aggiunta anche la possibilità di dipendenza esplicita dal tempo dell’operatore. Tale forma è l’esatto analogo del risultato trovato in meccanica classica, Eq.(1.13), dove il ruolo del commutatore è svolto dalle parentesi di Poisson. Se applichiamo tale risultato al valore di aspettazione (indicato qui con hOi), otteniamo l’espressione dhOi i = h[H, O]i + dt h̄ ∂O ∂t (A.38) che va sotto il nome di teorema di Ehrenfest. A.7 Definizione generale di momento angolare Da un punto di vista formale si può definire momento angolare un operatore vettoriale J che sia hermitiano e che soddisfi all’algebra di commutazione [Jx , Jy ] = ih̄Jz (A.39) (e analoghe relazioni ottenute invertendo e ciclando gli indici). Come subito si vede, ciò garantisce [Jx , J 2 ] = [Jy , J 2 ] = [Jz , J 2 ] = 0 119 (A.40) Quindi si può scegliere una delle tre componenti, ad esempio Jz , e sappiamo alloraa priori che J 2 e Jz dovranno avere un sistema completo di autostati in comune: J 2 Φjm = h̄2 j(j + 1)Φjm Jz Φjm = h̄mΦjm (A.41) In questa equazione ho indicato (per convenienza futura) gli autovalori con h̄2 j(j + 1) e h̄m senza fare nessuna particolare assunzione su j e m, che per ora pensiamo essere numeri complessi senza restrizioni. Si può dimostrare formalmente che quanto sopra (senza dover cioè far riferimento a particolari rappresentazioni) è sufficiente a dimostrare che • j deve essere reale e j ≥ 0 • m deve essere reale e −j ≤ m ≤ j • m = j e m = −j devono essere autovalori • autovalori successivi di m devono essere distanziati di 1 Ne segue che • 2j deve essere un numero intero, ossia j deve essere intero o semiintero • dato j ci sono 2j + 1 valori possibili per m: m = −j, −j + 1, . . . , j − 1, j. Il fatto che la proiezione p lungo z di J abbia un valore massimo h̄j sempre inferiore alla “lunghezza” h̄ j(j + 1) discende dal principio di indeterminazione, espresso in questo caso dalle (A.39): se Jz è stato determinato con precisione, è impossibile determinare esattamente sia Jx che Jy . Si può quindi immaginare che negli autostati descritti dalle (A.41) che il vettore J si muova in modo inosservabile intorno all’asse z, mantenendo tuttavia un angolo costante con l’asse z. L’equivalente classico è un moto di precessione del momento angolare attorno all’asse. Questi risultati sono molti simili a quelli che abbiamo trovato nella sezione 5.2 utilizzando una rappresentazione in coordinate polari e riferendoci al moto di una massa attorno ad un centro di forze, ma con una importante differenza: i valori di j e m possono essere anche semiinteri, mentre per il momento angolare orbitale devono essere interi altrimenti la funzione d’onda non è univoca. 120 Appendix B Formule utili B.1 Trasformate di Legendre Consideriamo una funzione f (x, y) delle variabili x, y. Possiamo scriverne il differenziale df = u(x, y)dx + v(x, y)dy da cui derivano le relazioni u(x, y) = ∂f , ∂x v(x, y) = ∂f . ∂y (B.1) Quindi f (x, y) è una funzione di x e y che ci dà delle equazioni per u e v. Cerchiamo ora la funzione di u e y che ci dà le equazioni equivalenti per x e v: x(u, y) = − ∂g , ∂u ∂g . ∂y v(x, y) = (B.2) Si verifica banalmente che la funzione g è data dalla trasformazione di Legendre: g(u, y) = f − ux. (B.3) Infatti, dg = df − udx − xdu = −xdu + vdy. Le trasformazioni di Legendre sono molto usate in termodinamica, dove servono ad ottenere i vari potenziali termodinamici in funzione delle variabili dello stato del sistema, legate fra di loro da equazioni di stato. In meccanica analitica, il passaggio dalla descrizione Lagrangiana alla descrizione Hamiltoniana si fa passando da variabili q, q̇ a variabili q, p, dove p = ∂L/∂ q̇. B.2 Gaussiane Funzioni di tipo gaussiane sono molto usate in chimica quantistica come funzioni di base. Sono note come GTO: Gaussian-Type Orbitals. Una caratteristica molto importante delle gaussiane è che il prodotto di due gaussiane centrate attorno a due centri differenti puèssere scritto come una gaussiana: 2 2 2 αβ − α+β (r1 −r2 )2 e−α(r−r1 ) e−β(r−r2 ) = e−(α+β)(r−r0 ) e 121 , r0 = αr1 + βr2 . (B.4) α+β Integrali utili di funzioni gaussiane: Z ∞ −αx2 e 0 1 dx = 2 1/2 π α Z ∞ , −αx2 xe 0 " e−αx dx = − 2α 2 #∞ = 0 1 , 2α (B.5) da cui ∞ (2n − 1)!!π 1/2 ∂n −αx2 e dx = e x dx = (−1) (B.6) ∂αn 0 2n+1 αn+1/2 0 Z Z ∞ ∞ n! ∂n 2 2 xe−αx dx = e−αx x2n+1 dx = (−1)n n (B.7) ∂α 0 2αn+1 0 Z ∞ B.3 −αx2 2n Z n Esponenziali Funzioni di base di tipo idrogenoide sono spesso usate in chimica quantistica come alterbative alle gaussiane e vanno sotto il nome di STO: Slater-Type Orbitals. Qualche integrale utile: Z e−2Zr 3 d r = 4π r Z ∞ re−2Zr dr = 4π e−2Zr − 0 Z r 1 − 2Z 4Z 2 e−2Z(r1 +r2 ) 3 3 5π 2 d r1 d r2 = . |r1 − r2 | 8Z 5 122 ∞ = 0 π Z2 (B.8) (B.9) Appendix C Algoritmi utili C.1 Ricerca degli zeri Alcune brevi note sul problema di trovare numericamente gli zeri di una funzione, ossia le soluzioni x0 di f (x) = 0 per una data funzione. Ci sono due tipi di zeri da considerare: • dispari - casi in cui f (x) cambia di segno ad x0 • pari - casi in cui f (x) non cambia di segno Questi ultimi pongono problemi numerici. Se si immagina di aggiungere una piccola incertezza numerica a f (x), lo zero scompare oppure si sdoppia in due zeri di tipo dispari. Per problemi del genere è opportuno utilizzare metodi di ricerca degli estremi. Ci occuperemo qui solo degli zeri di tipo dispari. C.1.1 Metodo di bisezione Si inizia con un intervallo [a, b] che include uno zero, e uno solo, in modo che sia f (a)f (b) < 0. L’algoritmo di bisezione dimezza l’intervallo ad ogni iterazione, raffinando sempre più la stima di x0 : 1. c = (a + b)/2 2. se f (a)f (c) < 0 si ridefinisce b = c; altrimenti se f (b)f (c) < 0 si ridefinisce a = c. 3. si ottiene cosı̀ un nuovo intervallo [a, b] di ampiezza dimezzata, su cui si ripete il procedimento. La convergenza è garantita (è impossibile ”perdere” lo zero), e il logaritmo dell’errore diminuisce linearmente col numero di iterazioni. Possono sorgere difficoltà relativamente al criterio di arresto. Ad esempio: • Errore assoluto: |a − b| < . Questo può dare problemi se x0 è molto grande: gli errori di arrotondamento in |a−b| potrebbero essere più grandi di . 123 • Errore relativo: |a − b| < a. Questo può dare problemi in prossimità di x = 0. • Se la pendenza di f (x) vicino allo zero è molto piccola, potrebbe esserci un intero intervallo in cui f (x) è indistinguibile da zero nella rappresentazione della macchina. C.1.2 Metodo di Newton-Raphson Si approssima linearmente la funzione ad ogni iterazione per ottenere una migliore stima del punto di zero. Supponiamo di conoscere f (x) e f 0 (x). Allora, nei dintorni di x, (C.1) f (x + δ) ' f (x) + f 0 (x)δ e quindi, al prim’ordine, f (x) (C.2) f 0 (x) darebbe f (x + δ) = 0. Si procede iterando in questo modo e si può far vedere che la convergenza è quadratica: il numero di cifre significative approssimativamente raddoppia ad ogni iterazione (col metodo di bisezione cresceva linearmente). Il problema di questo metodo è che la convergenza non è garantita, in particolare quando f 0 (x) varia notevolmente in prossimità dello zero. Inoltre, il metodo assume che f 0 (x) sia disponibile direttamente per un dato x. Nei casi in cui questo non si verifica e risulterebbe necessario calcolare la derivata attraverso una differenza finita, è consigliabile usare il metodo della secante descritto sotto. δ=− C.1.3 Metodo della secante Ci si basa su uno sviluppo lineare di f (x) tra due punti successivi della sequenza di iterazione, xn e xn+1 : f (x) = f (xn−1 ) + x − xn−1 [f (xn ) − f (xn−1 )] xn − xn−1 che fornisce come stima per il punto di zero xn − xn−1 xn+1 = xn − f (xn ) f (xn ) − f (xn−1 ) (C.3) (C.4) Si procede iterando in questo modo. Non è necessario che il punto di zero sia contenuto all’interno dell’intervallo esaminato. A causa di ciò, è però possibile che in casi patologici l’algoritmo non converga. Nei casi regolari, la velocità di convergenza è comunque assai migliore del metodo di bisezione, anche se lievemente inferiore a quella del metodo di Newton-Raphson (che però richiede la conoscenza della derivata). Nei casi più delicati è conveniente operare la ricerca in due fasi, iniziando col metodo di bisezione, identificando lo zero in modo sicuro, e passando infine al metodo della secante per stabilizzare rapidamente il valore fino alla precisione richiesta. 124 Appendix D Software utile D.1 Compilatori Per eseguire un programma scritto in un linguaggio di programmazione qualunque, si deve prima tradurre il programma in un linguaggio che il computer possa capire (linguaggio macchina, appunto). La traduzione è fatta da un interprete o da un compilatore: il primo traduce ed esegue immediatamente le istruzioni, il secondo prende il file con il programma, ne produce una versione in codice oggetto e infine ne fa un eseguibile. Matlab è un esempio di linguaggio “interpretato”. Fortran, C, C++ sono linguaggi “compilati”. Di conseguenza abbiamo bisogno di un compilatore Fortran o C/C++. Nei PC con Linux, il compilatore C (gcc) è sempre presente. Versioni recenti di Linux hanno di solito anche il compilatore Fortran gfortran. Nel caso questo sia assente e non sia facile installarlo, è possibile procurarsi un compilatore gratuito e molto affidabile, g95, scaricandolo da http://www.g95.org/. Anche su Mac OS-X e Windows è possibile installlare sia gcc (con textttgfortran) che g95. D.2 Gnuplot Gnuplot è un semplice programma open source per produrre grafici rapidamente a partire da un file di dati o da espressioni analitiche, disponibile sia in ambiente Unix/Linux che Windows. Ad esempio il grafico in fig. 1.1 è stato creato con set terminal postscript eps color set output "vclass.ps" V(x) = x**2 * ( 2. - cos(2.*pi*x/5.) ) plot [-6:6] V(x) with lines linewidth 2 Per iniziare ad usarlo potete fare riferimento agli appunti di Maria Peressi1 e ad una guida in italiano2 . Per la documentazione completa, vedere il sito 1 2 http://www-dft.ts.infn.it/˜peressi/gnuplot.html http://programmarein.supereva.it/gnuplot/index.html 125 ufficiale3 . Ovviamente chi fosse già familiare con qualche altro package grafico può usare il suo programma preferito senza problemi! D.3 BLAS e LAPACK LAPACK4 (Linear Algebra PACKage) è un’importante libreria matematica per risolvere diversi problemi di algebra lineare: equazioni lineari, problemi agli autovalori, ecc. Le routines di LAPACK sono scritte in modo da effettuare il massimo numero di operazioni possibile mediante chiamate a routines di BLAS5 (Basic Linear Algebra Subprograms). Queste ultime sono spesso altamente ottimizzate per l’architettura della macchina. Alcuni dei programmi presentati durante il corso fanno uso delle routines dgemm di BLAS e dsyev di LAPACK. Le routine BLAS e LAPACK sono scritte in Fortran 77. Si possono chiamare anche da C, ma attenzione: potrebbe essere necessario aggiungere un underscore nel programmma chiamante: dsyev , dgemm . 3 http://www.gnuplot.info/ http://www.netlib.org/lapack 5 http://www.netlib.org/blas 4 126