Università degli Studi di Bari “Aldo Moro” Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di laurea in Fisica Soluzioni numeriche dell’equazione di Schrödinger Davide Nuzzi Relatori: Dott. Francesco Vincenzo Pepe Chiar.mo Prof. Paolo Facchi Anno Accademico 2014-2015 It always bothers me that, according to the laws as we understand them today, it takes a computing machine an infinite number of logical operations to figure out what goes on in no matter how tiny a region of space, and no matter how tiny a region of time. How can all that be going on in that tiny space? Why should it take an infinite amount of logic to figure out what one tiny piece of space/time is going to do? So I have often made the hypotheses that ultimately physics will not require a mathematical statement, that in the end the machinery will be revealed, and the laws will turn out to be simple, like the chequer board with all its apparent complexities. - Richard Feynman, The Character of Physical Law Indice Introduzione 1 1 Evoluzione temporale e stati stazionari 2 1.1 L’equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Propagatore dell’equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Rotazione di Wick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4 Evoluzione nel tempo immaginario verso lo stato fondamentale . . . . . . . . . . 6 1.5 Formula di Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.6 Soluzioni numeriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Metodo di splitting degli operatori 10 2.1 Formula di Baker-Campbell-Hausdorff . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Applicazione del metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 Analisi della velocità di convergenza . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.4 Implementazione al calcolatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3 Metodo di Shooting 16 3.1 Metodo di Numerov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 3.2 Scelta delle condizioni iniziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.3 Metodo di Shooting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 4 Diffusione Montecarlo 22 4.1 Integrale sui cammini di Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . 22 4.2 Interpretazione dell’integrale sui cammini . . . . . . . . . . . . . . . . . . . . . . 23 4.3 Valutazione del propagatore con metodo Montecarlo . . . . . . . . . . . . . . . . 26 ii Indice 4.4 Walkers e processo di branching . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Applicazioni 5.1 5.2 5.3 28 33 Buca di potenziale infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5.1.1 Soluzione analitica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 5.1.2 Soluzione numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 5.2.1 Soluzione analitica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 5.2.2 Soluzione numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Oscillatore quartico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.3.1 Soluzione con metodo variazionale . . . . . . . . . . . . . . . . . . . . . . 40 5.3.2 Soluzione numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Conclusioni i Appendice A: Integrali Gaussiani ii Appendice B: Propagatore per una particella libera iii Bibliografia iv iii Introduzione Nel 1926 Erwin Schrödinger giunse alla risoluzione di un problema molto importante all’epoca, la determinazione dello spettro energetico dell’atomo d’idrogeno, con un metodo molto diverso da quelli impiegati dai suoi predecessori. Per la prima volta la quantizzazione dell’energia derivava non da un postulato, come nel modello atomico di Bohr-Sommerfeld, ma scaturiva naturalmente dalla risoluzione di un’equazione, quella che poi verrà chiamata equazione di Schrödinger indipendente dal tempo, che aveva la stessa forma di un’equazione agli autovalori. In [1] Schrödinger scrive ≪[...] the notion of “whole numbers ”, merely as such, is not introduced [...] (the quantization) arises in the same natural way as it does in the case of the node-numbers of a vibrating string≫. L’analogia con le onde stazionarie su una corda è più che appropriata, in quanto l’equazione di Schrödinger rappresenta il primo tentativo riuscito di ricavare un’equazione per le onde di materia, teorizzate da L. de Broglie nel 1924. L’equazione di Schrödinger rappresenta ancora oggi uno degli strumenti più utilizzati per la risoluzione di problemi quantistici in regime non relativistico e ha applicazioni pratiche nello studio della struttura della materia, in chimica e in spettroscopia. Non tutti i problemi possono però essere risolti in maniera esatta ed è indispensabile sviluppare tecniche di risoluzione numerica accurate ed efficienti. Lo scopo di questa tesi è analizzare alcune di queste tecniche dal punto di vista teorico e mostrare i risultati della loro applicazione. Nello specifico, nel Capitolo 1 verrà mostrato come il problema della determinazione dello stato fondamentale può essere ricondotto a un problema di evoluzione temporale lungo il tempo immaginario. Saranno poi sviluppati due metodi di risoluzione numerica, lo splitting degli operatori e la diffusione Montecarlo, rispettivamente nei capitoli 2 e 4, che utilizzano questo approccio per approssimare lo stato fondamentale. Nel Capitolo 3 verrà invece introdotto un metodo di integrazione numerica dell’equazione di Schrödinger detto metodo di Numerov, affiancato dall’algoritmo di shooting per la ricerca degli autovalori, che permette di determinare in maniera accurata lo stato fondamentale e i primi livelli eccitati. Nel Capitolo 5 queste tecniche verranno utilizzate per risolvere l’equazione di Schrödinger per tre tipi di potenziali: la buca di potenziale infinita, l’oscillatore armonico e l’oscillatore quartico. Per i primi due verrà ricavata la soluzione analitica mentre per il terzo si utilizzerà un’approssimazione variazionale. Si confronteranno infine i risultati esatti con quelli ottenuti dalle simulazioni numeriche. 1 Capitolo 1 Evoluzione temporale e stati stazionari 1.1 L’equazione di Schrödinger In meccanica quantistica un sistema fisico è descritto da un vettore |ψi all’interno di un parti- colare spazio di Hilbert H. La dimensione e la natura di tale spazio sono determinate una volta che si siano scelte le osservabili d’interesse per il problema. All’interno di questo lavoro ci si limiterà allo studio di sistemi costituiti da una singola particella in moto unidimensionale, in assenza di spin. Gli spazi di Hilbert considerati saranno quindi L2 (Ω) con Ω ⊂ R. L’evoluzione del sistema è totalmente determinata una volta assegnati l’operatore Hamiltoniano Ĥ e lo stato iniziale |ψ(t = 0)i ed è governata dall’equazione di Schrödinger: i~ d |ψ(t)i = Ĥ |ψ(t)i . dt (1.1.1) Essa è quindi deterministica, a esclusione del caso in cui si effettui la misura di una grandezza fisica e, in accordo con il postulato del collasso della funzione d’onda, lo stato del sistema subisce una variazione discontinua e di natura probabilistica. Per la precisione, considerata una grandezza fisica A a cui è associato un operatore hermitiano Â, e detto a un autovalore di tale operatore, allora se una misura della grandezza nello stato |ψi restituisce come risultato a lo stato del sistema viene istantaneamente proiettato nell’autospazio relativo ad a. All’interno di questo lavoro verrà analizzata la sola evoluzione determinata dall’equazione di Schrödinger, escludendo quindi il processo di misura. È importante osservare che se lo stato iniziale del sistema coincide con un autostato di un’osservabile, non è detto che rimanga autostato della stessa durante l’evoluzione. Un’importante eccezione a ciò è data dagli autostati dell’operatore Ĥ, gli stati stazionari, che sono anche autostati di ogni operatore  tale che [Â, Ĥ] = 0. Essi sono soluzioni dell’equazione agli autovalori per l’Hamiltoniano Ĥ |ψn i = En |ψn i , 2 (1.1.2) Capitolo 1: Evoluzione temporale e stati stazionari detta equazione di Schrödinger indipendente dal tempo. Come è facile osservare utilizzando la (1.1.2) all’interno della (1.1.1) e risolvendo, l’evoluzione temporale per questi stati è data da iEn (t − t0 ) |ψn (t)i = exp − ~ |ψn (t0 )i . (1.1.3) Essi variano quindi soltanto per un fattore di fase e, poiché in meccanica quantistica vettori che differiscono solo per un fattore di fase vengono identificati tra loro, si può affermare che gli stati stazionari rimangono inalterati durante l’evoluzione del sistema. Questa proprietà è essenziale al fine di applicare le tecniche di risoluzione che verranno illustrate nei capitoli successivi. La risoluzione dell’equazione (1.1.2), in particolare la determinazione dello spettro energetico, è essenziale nella quasi totalità dei casi in cui bisogna indagare il comportamento di un sistema quantistico. Si vede inoltre che la determinazione dello spettro energetico e dei relativi autostati permette anche di ricavare l’evoluzione temporale di uno stato arbitrario sistema e quindi rende possibile lo studio di processi dinamici. Come già detto, all’interno di questa tesi si considereranno solo sistemi costituiti da una singola particella senza spin, libera di muoversi in una direzione spaziale sotto l’azione di un potenziale V (x). In tal caso l’operatore di Hamilton si ottiene sostituendo nell’espressione classica H = T + V gli operatori corrispondenti all’energia cinetica e all’energia potenziale. Scegliendo di lavorare nel contesto dello spazio di Hilbert H = L2 (R), i cui vettori sono dati da ψ(x) = hx|ψi, le cosiddette funzioni d’onda, è possibile riscrivere l’equazione agli autovalori come: Ĥ ψn (x) = En ψn (x), (1.1.4) dove in questo caso H è l’operatore Hamiltoniano espresso nella rappresentazione della posizione. d e si può riscrivere la (1.1.2) come: In questa base l’impulso ha forma P = −i~ dx ~2 d2 − + V (x) ψn (x) = En ψn (x), 2m dx2 (1.1.5) che è l’equazione di Schrödinger unidimensionale per il moto di una particella di massa m. Nel resto della trattazione ci si riferirà con il nome di l’equazione di Schrödinger sia al caso dipendente dal tempo che a quello indipendente, non facendo distinzione neppure tra le equazioni nello spazio H e quelle nello spazio delle funzioni d’onda. Sarà possibile dedurre il caso a cui si fa riferimento dal contesto e dalla notazione utilizzata. 1.2 Propagatore dell’equazione di Schrödinger Si consideri un sistema descritto all’istante iniziale da un ket |ψ(t0 )i che evolve in accordo con l’equazione di Schrödinger. Al tempo t lo stato sarà |ψ(t)i e questa transizione deve poter essere 3 Capitolo 1: Evoluzione temporale e stati stazionari rappresentata tramite l’azione di un operatore unitario K̂, detto propagatore: |ψ(t)i = K̂(t, t0 ) |ψ(t0 )i . (1.2.1) Si vede che questo operatore deve essere necessariamente unitario in modo da conservare la p norma kψk = hψ|ψi. E’ importante che la norma del vettore di stato sia pari all’unità e che lo rimanga ad ogni istante di tempo in quanto ciò equivale, nella rappresentazione delle funzioni d’onda, a richiedere che la probabilità di trovare il sistema in un punto qualsiasi dello spazio sia pari ad uno. Sostituendo la (1.2.1) all’interno dell’equazione di Schrödinger (1.1.1) si ha quindi un’equazione per il propagatore stesso: dK̂(t, t0 ) = Ĥ K̂(t, t0 ). (1.2.2) dt Se l’Hamiltoniana non ha una dipendenza esplicita dal tempo, l’equazione può essere integrata i~ formalmente portando all’espressione per l’operatore di evoluzione temporale: ! iĤ(t − t0 ) . K̂(t, t0 ) = exp − ~ (1.2.3) Il ket evolve quindi nel modo seguente: iĤ(t − t0 ) |ψ(t)i = exp − ~ ! |ψ(t0 )i . (1.2.4) Una proprietà semplice ma importante che il propagatore deve soddisfare è che K̂(t0 , t0 ) = I, dove con I si indica l’operatore identità. Ciò viene imposto banalmente dalla sua definizione. D’ora in avanti si assumerà spesso t0 = 0 (senza perdita di generalità se Ĥ non dipende dal tempo) e si scriverà K̂(t, t0 ) = K̂(t). Si può mostrare ora il legame tra l’evoluzione temporale e gli stati stazionari menzionata nella sezione precedente. Assumendo per semplicità che Ĥ sia dotato solo di spettro discreto con autovalori En , in modo che gli autostati |φn i formino un sistema ortonormale completo, se si sviluppa lo stato iniziale rispetto alla base dell’energia, si ha: |ψ(0)i = ∞ X n=0 hφn |ψ(0)i |φn i = ∞ X n=0 cn |φn i . Sostituendo questa espressione nella (1.2.4), si arriva all’espressione ! ∞ ∞ X X iĤt iEn t |ψ(t)i = cn exp − |φn i = cn exp − |φn i , ~ ~ n=0 n=0 (1.2.5) (1.2.6) dove nell’ultimo passaggio si è sfruttato il fatto che l’operatore Ĥ è diagonale nella rappresentazione dell’energia. Questa relazione evidenzia che, una volta risolta l’equazione di Schrödinger indipendente dal tempo, se è noto come lo stato iniziale del sistema possa essere scomposto rispetto agli stati stazionari (cioè se sono noti i coefficienti cn ) allora l’evoluzione temporale è completamente 4 Capitolo 1: Evoluzione temporale e stati stazionari determinata. Si vedrà come a partire da questa espressione sia possibile risolvere in maniera semplice, dal punto di vista teorico, il problema della determinazione dello stato fondamentale. È istruttivo soffermarsi ulteriormente sul propagatore e su come esso possa essere interpretato nel contesto dello spazio delle funzioni d’onda. A partire dall’espressione (1.2.1), passando alla rappresentazione delle coordinate Z ψ(x, t) = dx0 K(x, t; x0 , t0 )ψ(x0 , t0 ) (1.2.7) R si vede che la funzione d’onda al tempo t può essere ottenuta come convoluzione del propagatore (nella rappresentazione della posizione) con la funzione d’onda all’istante iniziale. Il propagatore ha un legame molto stretto con le funzioni di Green, strumento molto utilizzato nella risoluzione di equazioni differenziali lineari. Il significato della (1.2.7) può essere ulteriormente chiarito esplicitando l’espressione per il propagatore: K̂(x, t; x0 , t0 ) = hx|K̂(t, t0 )|x0 i . (1.2.8) Questa formula si può interpretare come evoluzione temporale del |x0 i, dal tempo t0 al tempo t, seguita dalla proiezione su |xi. Si sta facendo quindi evolvere lo stato di una particella localizzata con certezza in x0 all’istante t0 e ci si sta chiedendo quale sia la probabilità di trovarla nella posizione x all’istante t. Per la precisione la probabilità cercata è il modulo quadro dell’elemento di matrice appena scritto. Si può osservare come ponendo t = t0 si abbia K(x, t0 ; x0 , t0 ) = hx|x0 i = δ(x − x0 ). (1.2.9) in accordo con l’interpretazione appena suggerita. 1.3 Rotazione di Wick Si assume ora che Ĥ sia un operatore positivo, cioè tale che hψ|Ĥ|ψi ≥ 0, ∀ |ψi ∈ H. Da ciò consegue che ogni autovalore En nello spettro è non negativo. Sotto queste ipotesi si vede facilmente che se all’interno dell’espressione (1.2.6) si effettua la sostituzione t → −iτ (1.3.1) l’evoluzione temporale della funzione d’onda assume un carattere totalmente diverso. Si passa da una sovrapposizione di autostati modulati con fattori periodici nel tempo a una sovrapposizione di autostati i cui coefficienti decadono tutti esponenzialmente rispetto alla nuova variabile temporale: |ψ(τ )i = ∞ X En τ cn exp − |φn i ~ n=0 (1.3.2) Le conseguenze di questa sostituzione verranno analizzate nella prossima sezione mentre adesso ci si concentrerà sull’approfondirne il significato matematico. 5 Capitolo 1: Evoluzione temporale e stati stazionari La (1.3.1) è detta rotazione di Wick in quanto, essendo τ ∈ R, è possibile interpretarla come una rotazione del propagatore nel piano complesso in senso orario di un angolo pari a π 2. Per la precisione si sta effettuando il prolungamento analitico dell’operatore di evoluzione temporale all’asse immaginario nel piano complesso. La rotazione di Wick è in realtà un risultato più generale utilizzato per passare da una metrica a segnatura (+, +, +, −) come quella dello spaziotempo di Minkowski alla metrica euclidea con segnatura (+, +, +, +), in quanto implica (dt)2 = −(dτ )2 . E’ utile, al fine dell’analisi che verrà effettuata nel Capitolo 4, osservare che la rotazione di Wick modifica sostanzialmente la natura dell’equazione di Schrödinger (1.1.1). Nella rappresentazione della posizione si ha ∂ψ(x, τ ) ~ ∂ 2 ψ(x, τ ) V (x) − = ψ(x, τ ). ∂τ 2m ∂x2 ~ (1.3.3) Nel caso di una particella libera (V (x) = 0) l’equazione di Schrödinger coincide con l’equazione del calore, detta anche equazione di diffusione, con D = ~/2m come coefficiente di diffusione. 1.4 Evoluzione nel tempo immaginario verso lo stato fondamentale Il livello energetico con energia minore, indicato con E0 , è detto stato fondamentale (si è ancora nell’ipotesi di Ĥ positivo e quindi E0 > 0). Supponiamo che lo stato fondamentale E0 sia non degenere e indichiamo con E1 , E2 , ... gli altri livelli energetici, detti stati eccitati. Di certo En > E0 , ∀n > 0. Ordinando lo spettro per energie crescenti si può scrivere quindi E0 < E1 ≤ ... ≤ En ≤ ... Scrivendo in forma estesa la sommatoria all’interno della (1.3.2): E1 τ E0 τ |φ0 i + c1 exp − |φ1 i + ... |ψ(τ )i = c0 exp − ~ ~ (1.4.1) (1.4.2) appare evidente come lo stato converga al vettore nullo: |ψ(τ )i → 0 per τ → ∞. La rotazione di Wick fa sı̀ che il propagatore perda la proprietà di unitarietà, in quanto kψk → 0. Sebbene tutti gli stati stazionari nella sommatoria decadano esponenzialmente nel tempo, la relazione tra i valori delle energie fa sı̀ che i termini corrispondenti ai livelli eccitati tendano ad annullarsi più velocemente di quanto faccia la proiezione sullo stato fondamentale. Ciò suggerisce che si possa fare in modo che lo stato del sistema evolva verso lo stato fondamentale, eliminando progressivamente gli stati eccitati dal suo sviluppo. Questo passaggio può essere effettuato normalizzando la funzione d’onda al tempo τ e valutando in questo caso il limite τ → ∞: ∞ X 2En τ , kψ(τ )k = hψ(τ )|ψ(τ )i = |cn | exp − ~ n=0 2 6 2 (1.4.3) Capitolo 1: Evoluzione temporale e stati stazionari En τ cn exp − |φn i |ψ(τ )i ~ n=0 s = kψ(τ )k ∞ P 2En τ 2 |cn | exp − ~ n=0 ∞ P τ →∞ −−−−→ |φ0 i . (1.4.4) Si è quindi arrivati ad un risultato essenziale. Un qualunque stato che non sia ortogonale allo stato fondamentale tende ad evolvere nel tempo immaginario proprio verso lo stato fondamentale se normalizzato come nella (1.4.4). Come appena sottolineato, è importante che hψ(0)|φ0 i = 6 0 in quanto in caso contrario si avrebbe c0 = 0 e il primo termine dello sviluppo in stati stazionari verrebbe a mancare. In questo caso la |ψi convergerebbe allo stato relativo al primo livello eccitato, come si vede facilmente dalla (1.4.4). Dal punto di vista puramente teorico, la procedura descritta risolve completamente il problema di identificazione dello spettro energetico e più in generale della risoluzione dell’equazione di Schrödinger. Infatti a partire dallo stato fondamentale è possibile ottenere facilmente l’energia ad esso relativa, che coincide con il valore di aspettazione dell’Hamiltoniano in tale stato: E0 = hφ0 |Ĥ|φ0 i . (1.4.5) La determinazione dei livelli eccitati, in assenza di degenerazione, può essere effettuata con la medesima procedura, considerando ogni livello eccitato come lo stato fondamentale di un nuovo Hamiltoniano, ottenuto proiettando via dallo spazio di Hilbert lo stato fondamentale del vecchio. Formalmente, se si sfrutta la relazione di completezza per scrivere l’operatore Ĥ nella cosiddetta rappresentazione spettrale Ĥ = ∞ X n=0 En |φn i hφn | (1.4.6) si può immaginare di separarlo in un termine che dipende dal solo stato fondamentale e in un ∞ P altro operatore Ĥ ′ = En |φn i hφn | interpretabile come un nuovo Hamiltoniano di cui |φ1 i è n=1 lo stato fondamentale. Si definisce quindi Ĥ ′ = Ĥ − E0 |φ0 i hφ0 | (1.4.7) e si cerca lo stato fondamentale di questo nuovo Hamiltoniano, che corrisponde al primo livello eccitato di Ĥ. Il procedimento cosı̀ descritto è valido solo in assenza di degenerazione per gli stati, ma può essere facilmente esteso al caso di degenerazione. In tal caso l’autospazio relativo ad E0 ha dimensione maggiore di uno e lo stato |ψi converge ad un qualsiasi autovettore all’interno di questo autospazio. Quando si rimuove |φ0 i dallo spazio H (per la precisione si rimuove il sottospazio da esso generato) viene rimossa solo una parte dell’autospazio relativo a E0 . Se si indica con dn la degenerazione del livello En e con φkn il k-esimo vettore all’interno base ortonormale per l’autospazio relativo a En , la (1.4.2) diviene |ψ(τ )i = dn ∞ X X n=0 k=1 En τ k cn,k exp − φn . ~ 7 (1.4.8) Capitolo 1: Evoluzione temporale e stati stazionari Proiettando fuori dallo spazio lo stato φ10 in accordo con la (1.4.7) l’evoluzione lungo il tempo immaginario dello stato del sistema diviene E0 τ 2 E0 τ 3 |ψ(τ )i = c0,2 exp − φ0 + c0,3 exp − φ0 + ... ~ ~ (1.4.9) e normalizzando lo stato, per τ → ∞ si ha: d 0 |ψ(τ )i τ →∞ 1 X −−−−→ c0,k φk0 , kψ(τ )k c (1.4.10) k=2 dove c2 = d0 P k=2 2 |c0,k | . Il sistema evolve quindi sempre verso un vettore appartenente allo stesso sottospazio e non verso il primo livello eccitato. Ciò non rappresenta un ostacolo, ma fornisce una procedura per valutare la degenerazione di un valore di energia, identificare una base ortonormale per l’autospazio relativo e procedere successivamente all’identificazione dei livelli eccitati. È sufficiente ripetere iterativamente la procedura, proiettando ogni volta via dallo spazio i ket trovati e controllare il valore di attesa dell’Hamiltoniano in ogni stato. Se per le prime n volte si trova lo stesso valore di energia E e successivamente un valore diverso dell’energia allora si è certi che lo stato fondamentale sia n volte degenere e i primi n ket trovati sono una base ortonormale per l’autospazio corrispondente. Nel contesto dell’equazione di Schrödinger unidimensionale è possibile provare che lo spettro discreto è non degenere e quindi la procedura appena illustrata nel caso generale non sarà necessaria nei casi analizzati in questa tesi. 1.5 Formula di Feynman-Kac Nella sezione precedente si è visto come è possibile collegare l’operatore di evoluzione temporale con l’energia dello stato fondamentale E0 , facendo evolvere lungo il tempo immaginario una funzione d’onda arbitraria. È possibile però esprimere la relazione tra l’Hamiltoniana Ĥ e l’energia dello stato fondamentale in una forma più elegante, che non dipenda dallo stato iniziale (arbitrario) del sistema. Partendo dalla definizione del propagatore e usando la relazione di completezza I, si può scrivere: iĤ(t − t0 ) K(x, t; x0 , t0 ) = hx|K̂(t, t0 )|x0 i = hx|φn i hφn | exp − ~ n,m X iEn (t − t0 ) δn,m hφm |x0 i = = hx|φn i exp − ~ n,m X iEn (t − t0 ) . = φn (x)φn (x0 ) exp − ~ n X 8 ! P+∞ n=0 |φn i hφn | = |φm i hφm |x0 i = (1.5.1) Capitolo 1: Evoluzione temporale e stati stazionari Assumendo t0 = 0 ed effettuando la rotazione di Wick, K(x, τ ; x0 ) = X n En τ . φn (x)φn (x0 ) exp − ~ (1.5.2) Se si calcola il propagatore tra lo stesso punto iniziale e finale (x0 = x) e si integra rispetto a questa variabile, si ha Z Z X X En τ En τ 2 dx K(x, τ ; x) = exp − , dx |φn (x)| = exp − ~ ~ n n (1.5.3) dove si è sfruttata la normalizzazione delle autofunzioni dell’energia. Prendendo il logaritmo di entrambi i membri, moltiplicando per 1/τ ed effettuando il limite τ → ∞, si ottiene 1 lim ln τ →∞ τ Z ! X E0 En τ 1 =− exp − dx K(x, τ ; x) = lim ln τ →∞ τ ~ ~ n (1.5.4) dove, come nella sezione precedente, si è sfruttato il fatto che tutti gli esponenziale corrispondenti ai livelli eccitati tendano a zero più velocemente di quello relativo allo stato fondamentale. Invertendo l’espressione ed effettuando il cambiamento di variabile t = τ /~ si ha quindi la nota formula di Feynman-Kac: 1 E0 = lim − ln Tr e−tH , t→∞ t (1.5.5) dove con Tr si è indicata la funzione traccia di un operatore. 1.6 Soluzioni numeriche Si è mostrato che la risoluzione dell’equazione di Schrödinger indipendente dal tempo è un problema equivalente alla valutazione dell’evoluzione temporale di una funzione d’onda arbitraria lungo il tempo immaginario. Per la sua semplicità concettuale, questo metodo risulta molto versatile e si presta bene ad essere alla base di metodi approssimati di soluzione. Esistono infatti numerose tecniche numeriche atte a valutare l’evoluzione temporale predetta dall’equazione di Schrödinger e in questa tesi se ne analizzeranno due. La prima è quella dello splitting degli operatori, analizzata nel Capitolo 2, che si basa su una valutazione approssimata dell’espressione (1.2.4). La seconda è quella della diffusione montecarlo, analizzata nel Capitolo 4, che sfrutta la possibilità di esprimere il propagatore attraverso il formalismo degli integrali di cammino di Feynman. Viene inoltre presentato un metodo di risoluzione diretto dell’equazione indipendente dal tempo, che non sfrutta quindi il formalismo del tempo immaginario ma si basa sull’integrare numericamente l’equazione differenziale, valutando contemporaneamente autovalori e autofunzioni attraverso una procedura detta shooting. Questo metodo sarà illustrato nel Capitolo 3. 9 Capitolo 2 Metodo di splitting degli operatori In questa sezione verrà analizzato un metodo di calcolo approssimato per il propagatore dell’equazione di Schrödinger basato sull’evoluzione nel tempo immaginario. Esso consentirà di valutare l’evoluzione temporale di una funzione d’onda qualsiasi verso lo stato fondamentale. Nello specifico si mostrerà come è possibile separare il termine cinetico e il termine potenziale all’interno dell’espressione del propagatore e valutarli singolarmente nella funzione d’onda, puntualizzando come questa procedura possa essere eseguita in maniera efficiente con un calcolatore. Si studierà poi brevemente quali informazioni sullo spettro energetico possono essere ricavate sulla base della velocità di convergenza della funzione d’onda verso lo stato fondamentale. 2.1 Formula di Baker-Campbell-Hausdorff Al fine di ottenere un’espressione approssimata per il propagatore, che ne permetta una semplice valutazione, è necessario introdurre un risultato sviluppato nel contesto dei gruppi di Lie. Dati due operatori X ed Y , tali che in generale [X, Y ] 6= 0, il prodotto degli operatori exp(X) e exp(Y ) può essere sviluppato come segue: 1 1 ([X, [X, Y ]] − [Y, [X, Y ]]) + ... . exp(X) exp(Y ) = exp X + Y + [X, Y ] + 2 12 (2.1.1) Questo risultato è detto formula di Baker-Campbell-Hausdorff. Ricordando che l’espressione per il propagatore tra l’istante t e l’istante t + ∆t è ! ! iĤ∆t i(T̂ + V̂ )∆t K̂(t, t + ∆t) = exp − = exp − , ~ ~ 10 (2.1.2) Capitolo 2: Metodo di splitting degli operatori dove con T̂ e V̂ si sono indicati rispettivamente gli operatori energia cinetica ed energia potenziale, si potrebbe pensare di identificare X e Y rispettivamente con i due operatori X=− iT̂ ∆t , ~ Y =− iV̂ ∆t , ~ (2.1.3) In questo caso si ottiene: iT̂ ∆t exp − ~ ! iV̂ ∆t exp − ~ ! ! iĤ∆t ∆t2 = exp − + 2 [T̂ , V̂ ] + ... . ~ 2~ (2.1.4) Si potrebbe quindi semplicemente fattorizzare il propagatore nel prodotto di due esponenziali riferiti separatamente al termine cinetico e a quello potenziale, commettendo un errore di ordine (∆t)2 . Si vede però che è possibile migliorare l’approssimazione portandola a O[(∆t)3 ] generalizzando la formula di (2.1.1) al caso di tre operatori X, Y, Z: 1 exp(X) exp(Y ) exp(Z) = exp X + Y + Z + ([X, Y ] + [Y, Z] + [Z, X]) + ... . 2 (2.1.5) Se identifichiamo questi operatori con X=Z=− iV̂ ∆t , 2~ Y =− iT̂ ∆t ~ (2.1.6) vediamo che [X, Z] = 0 e che [X, Y ] + [Y, Z] = [X, Y ] + [Y, X] = 0, quindi il termine O[(∆t)2 ] scompare dall’espressione, e nello scrivere ! ! ! ! iĤ∆t iV̂ ∆t iT̂ ∆t iV̂ ∆t exp − = exp − exp − exp − ~ 2~ ~ 2~ (2.1.7) si commette un errore dell’ordine (∆t)3 . 2.2 Applicazione del metodo La sezione precedente rende chiaro il nome utilizzato per questo metodo: l’operatore di evoluzione temporale viene diviso in più pezzi, ognuno dipendente dal solo termine cinetico o potenziale, al fine di renderne semplice la valutazione. Nella rappresentazione della posizione infatti gli operatori exp −iV̂ ∆t/2~ agiscono come fattori moltiplicativi per ψ(x) e la loro valutazione è immediata. Il termine cinetico ! ! iT̂ ∆t iP̂ 2 ∆t exp − = exp − ~ 2m~ (2.2.1) non è invece diagonale nella rappresentazione delle coordinate e non è quindi semplice determinare il modo in cui esso opera sulla funzione d’onda. La maniera più immediata per risolvere questo problema è trasformare la funzione d’onda dalla rappresentazione delle coordinate a quella degli impulsi attraverso la trasformata di Fourier: 1 ψ̃(p) = F (ψ(x)) = √ 2π~ Z +∞ −∞ 11 ipx , dx ψ(x) exp − ~ (2.2.2) Capitolo 2: Metodo di splitting degli operatori 1 ψ(x) = F −1 (ψ̃(p)) = √ 2π~ Z +∞ dp ψ̃(p) exp −∞ ipx ~ . (2.2.3) Poiché P̂ è un operatore moltiplicativo nella rappresentazione degli impulsi la valutazione del termine cinetico in questa base è immediata: ! ip2 ∆t iP̂ 2 ∆t ψ̃(p) = exp − ψ̃(p). exp − 2m~ 2m~ (2.2.4) La valutazione dell’espressione (2.1.2) che permette di far evolvere la funzione d’onda tra il tempo t e quello t+∆t è quindi possibile attraverso l’approssimazione data dallo splitting dell’operatore (2.1.7) e l’uso della trasformata di Fourier. Esplicitamente, data la funzione d’onda ψ(x, t), si opera prima con il termine potenziale, poi si effettua la trasformata di Fourier e si opera con il termine cinetico (che agisce come un fattore moltiplicativo), poi si torna nella rappresentazione delle coordinate attraverso l’ anti-trasformata di Fourier e infine si applica il secondo termine potenziale. In questo modo si ottiene ψ(x, t + ∆t) con un errore O(∆t3 ). Questo risultato dipende dalla scelta di dividere esattamente a metà l’intervallo temporale , nel ripartirlo tra i due operatori contenenti il termine di potenziale. Di seguito questa procedura è illustrata in maniera estesa: ip2 ∆t iV (x)∆t iV (x)∆t F −1 exp − F exp − ψ(x, t) ψ(x, t + ∆t) ≈ exp − 2~ 2m~ 2~ (2.2.5) Si può osservare che quando si è effettuato lo splitting del propagatore si è scelto di dimezzare il termine contenente il potenziale, ma anche la scelta del termine cinetico sarebbe stata possibile e infatti le due sono perfettamente equivalenti dal punto di vista teorico. Tuttavia la valutazione di due termini cinetici avrebbe richiesto ben quattro operazioni tra trasformate e anti-trasformate di Fourier e ciò, nell’implementazione del metodo su un calcolatore, causa un notevole aumento del carico computazionale. La procedura descritta permette di far evolvere nel tempo una qualsiasi funzione d’onda e rappresenta quindi un metodo per risolvere l’equazione di Schrödinger dipendente dal tempo. È sufficiente ora effettuare la rotazione di Wick per trasformarla in una procedura per la valutazione dello stato fondamentale, come spiegato ampiamente nel Capitolo 1. 2.3 Analisi della velocità di convergenza La convergenza verso lo stato fondamentale si ottiene attraverso il decadimento delle autofunzioni corrispondenti ai livelli eccitati nella (1.4.2). Poiché la vita media di ogni esponenziale dipende dal valore di energia del livello corrispondente, è possibile creare un collegamento tra la velocità di convergenza del metodo allo stato fondamentale e la differenza di energia tra i vari livelli. Si possono quindi ottenere informazioni indicative sullo spettro sulla base della velocità di convergenza verso lo stato fondamentale, in particolare è possibile stimare in maniera accurata la distanza del primo livello eccitato. 12 Capitolo 2: Metodo di splitting degli operatori Supponendo di porci a un tempo τ tale da considerare nulli tutti i termini nello sviluppo tranne il fondamentale e il primo livello eccitato, possiamo valutare in maniera esplicita il valore di E1 − E0 dalla distanza tra la funzione d’onda e il livello fondamentale. Questa approssimazione è tanto migliore quanto più è grande il rapporto (E2 − E1 )/(E1 − E0 ). La distanza tra la funzione ψ(x, τ ) che costituisce la nostra approssimazione dello stato fondamentale e il risultato esatto φ0 (x) può essere valutata come la norma della differenza tra le due. Usando quindi la (1.4.4) per esplicitare la funzione d’onda normalizzata e fermando la serie ai primi due termini, si può scrivere: |ψ(τ )i kψ(τ )k − |φ0 i ≈ 2 1 − 2 !− 12 c1 2(E1 − E0 )τ , 1 + exp − c0 ~ (2.3.1) Nel limite τ → ∞ si può sviluppare in serie di Maclaurin la funzione rispetto alla variabile piccola 2 c1 2(E1 − E0 )τ . z = exp − c0 ~ (2.3.2) Fermando lo sviluppo al prim’ordine e passando alla rappresentazione della posizione, si può scrivere 2 c1 ψ(x, τ ) 2(E1 − E0 )τ kψ(x, τ )k − φ0 (x) ≈ z = c0 exp − ~ 2 (2.3.3) 2 dove con k·k2 si è indicata la norma nello spazio delle funzioni a quadrato sommabile L2 (R). Quindi per tempi lunghi la distanza tra la funzione approssimata con il metodo e la soluzione esatta decresce esponenzialmente, con vita media λ dipendente dalla differenza (E1 − E0 ). Si può quindi invertire il ragionamento e partire dal valore di λ ottenuto dal fit della simulazione numerica ψ(x, τ ) ln − φ0 (x) = a − λτ kψ(x, τ )k 2 (2.3.4) 2 per stimare la distanza del primo livello eccitato: E1 − E0 ≈ 2.4 ~ . 2λ (2.3.5) Implementazione al calcolatore Fino ad ora si è illustrato l’algoritmo per valutare lo stato fondamentale dal punto di vista prettamente teorico. Nel caso reale in cui si debba risolvere il problema al calcolatore non si dispone di funzioni d’onda continue ma di un campionamento delle stesse su una griglia. Non è possibile neppure considerare x ∈ R ma ci si deve restringere ad un dominio finito [xmin , xmax ] ⊂ R. Ciò non è una limitazione eccessiva se gli autostati dell’equazione di Schrödinger, che devono essere normalizzabili, si annullano rapidamente per |x| → ∞. In questi casi è possibile scegliere è sufficiente scegliere una regione [xmin , xmax ] abbastanza grande da poter considerare ragione- volmente nulla la funzione d’onda al di fuori di essa. 13 Capitolo 2: Metodo di splitting degli operatori Nel caso unidimensionale, detto N il numero di punti per la griglia su cui campionare la funzione d’onda è possibile discretizzare quest’ultima come: ψi = ψ(xi ) , xi = xmin + i∆x , i ∈ {1, ..., N } (2.4.1) dove con ∆x = (xmax − xmin )/N si è indicato lo step spaziale, cioè la distanza tra due punti successivi sulla griglia. Maggiore è il valore di N (e quindi più piccolo è lo step spaziale), migliore sarà l’approssimazione della funzione d’onda. È necessario modificare anche la trasformata di Fourier in modo da tenere conto della discretizzazione della funzione d’onda. Scegliendo di campionare anche al funzione trasformata ψ̃ come un array di N valori, con impulsi equispaziati nell’intervallo [pmin , pmax ], si può scrivere: N X 1 ipj xk ∀j = 1...N ψ̃j = ψ̃(pj ) = √ . (2.4.2) ∆x ψk exp − ~ 2π~ k=1 L’intervallo [pmin , pmax ] va scelto simmetrico attorno allo zero (in quanto nel termine cinetico del propagatore la dipendenza è da p2 ) e ampio abbastanza da non trascurare frequenze significative. Se l’intervallo viene però scelto troppo ampio le instabilità numeriche possono creare rumore per |p| grandi e portare ad errori non trascurabili. La definizione dell’anti-trasformata è analoga. Nella sezione (1.4) si è mostrato come la convergenza allo stato fondamentale si ha nel limite τ → ∞. Questo è ovviamente irrealizzabile nella realtà e il calcolo va fermato ad un tempo T sufficientemente grande. Una stima di questo tempo può essere data osservando che nell’espressione (1.4.2) il termine esponenziale più lento nell’annullarsi sia quello corrispondente allo stato fondamentale, quindi deve essere T ≫ ~/(E1 − E0 ). La trattazione effettuata fin’ora per l’evoluzione lungo il tempo immaginario si basa sul partire da una funzione d’onda all’istante iniziale τ = 0, farla evolvere evolvere per un tempo sufficien- temente grande e alla fine normalizzarla. Nella (2.2.5) la funzione d’onda viene invece propagata per un solo step temporale ∆τ a partire dall’istante τ . Ovviamente a partire da questa espressione si può ottenere la propagazione per un tempo finito T sfruttando le proprietà di composizione del propagatore: |ψ(T )i = K̂(T, T − ∆τ ) ... K̂(2∆τ, ∆τ ) K̂(∆τ, 0) |ψ(0)i . (2.4.3) Quindi da un punto di vista prettamente teorico si vede che far evolvere la funzione d’onda per l’intero tempo T e normalizzarla alla fine oppure farla evolvere di un solo step ∆τ , normalizzarla, e iterare questo procedimento per n = T /∆τ volte, porta allo stesso risultato e quindi alla stessa approssimazione dello stato fondamentale. Da un punto di vista numerico i due procedimenti non sono però equivalenti in quanto dopo un tempo T troppo lungo si ha che kψk ≈ 0 e quindi, per via della precisione con cui vengono memorizzati i valori della funzione d’onda nel calcolatore, andare a normalizzare la funzione d’onda alla fine vuol dire commettere un errore significativo sul valore della norma della funzione d’onda, ottenuto effettuando un’integrazione numerica. Nella simulazione realizzata per 14 Capitolo 2: Metodo di splitting degli operatori questo lavoro si è quindi scelto di normalizzare la funzione d’onda dopo ogni step di evoluzione temporale. Nella sezione (1.4) è stata sviluppata anche una procedura per valutare i primi livelli eccitati oltre allo stato fondamentale. Innanzitutto bisogna puntualizzare che l’errore commesso nella determinazione dei livelli energetici e delle funzioni d’onda cresce quando si valutano stati con energia maggiore. Ciò perché quando si valuta numericamente la funzione d’onda dello stato fondamentale, per via dell’errore O(∆τ 3 ) e del tempo di simulazione finito, si giunge solo ad una sua approssimazione. Quando si scrive quindi il nuovo Hamiltoniano Ĥ ′ come prescritto dalla (1.4.7) esso risente di questo errore e il suo stato fondamentale non sarà più, nemmeno in linea teorica, coincidente con il primo stato eccitato dell’Hamiltoniano di partenza. La propagazione dell’errore è comune a tutti i metodi di risoluzione dell’equazione di Schrödinger che cercano i livelli eccitati a partire dai livelli precedentemente valutati. Il metodo di shooting descritto nel prossimo capitolo invece non soffre di questo problema, in quanto integra direttamente l’equazione di Schrödinger per ogni differente autovalore dell’energia, e commette in linea di principio lo stesso errore su tutti i livelli energetici. Come è evidente dalla (1.4.7), per operare con il nuovo Hamiltoniano è sufficiente procedere esattamente come fatto per lo stato fondamentale e poi eliminare dalla funzione d’onda le componenti lungo le direzioni degli stati già valutati, una procedura molto simile a quella di ortonormalizzazione di Gram–Schmidt. Anche in questo caso la procedura va ripetuta ad ogni step temporale, nonostante ciò non sia richiesto in linea di principio in quanto annullando i coefficienti cn corrispondenti ai primi n livelli essi dovrebbero rimanere nulli per la successiva evoluzione della funzione d’onda. Ciò deriva da errori numerici che hanno modo di accumularsi su diversi step temporali e di riportare alla luce termini dello sviluppo che in teoria dovrebbero essere definitivamente annullati dalla proiezione fuori dallo spazio. È per questo motivo che la ricerca del primo livello eccitato, ad esempio, viene effettuata seguendo questa procedura e non semplicemente cercando di partire da una funzione d’onda iniziale che non contenga alcuna componente dello stato fondamentale (c0 = 0). Infatti per potenziali V (x) pari le proprietà di simmetria delle autofunzioni dell’energia permettono di osservare che la funzione d’onda corrispondente allo stato fondamentale è necessariamente pari, mentre quella corrispondente al primo livello eccitato è necessariamente dispari. Basterebbe quindi partire da una funzione d’onda iniziale dispari ψ(x, t = 0) = −ψ(−x, t = 0) perché il metodo converga al primo livello eccitato, senza alcuna modifica all’Hamiltoniano. Come già detto ciò numeri- camente non accade e le simulazioni mostrano che per quanto la funzione d’onda inizialmente tenda verso il primo livello eccitato, dopo un tempo sufficientemente lungo si ha una transizione verso lo stato fondamentale. 15 Capitolo 3 Metodo di Shooting Il metodo che verrà esposto in questo capitolo, a differenza di quello esposto nel capitolo precedente e di quello che vedremo nel successivo, non si basa sul formalismo del tempo immaginario, ma affronta il problema con un approccio numerico più standard nel contesto della risoluzione di equazioni differenziali. L’equazione di Schrödinger viene risolta attraverso una discretizzazione dello spazio e degli operatori differenziali, detta metodo di Numerov, mentre la determinazione dello spettro viene effettuata con un algoritmo di bisezione, detto metodo di Shooting. 3.1 Metodo di Numerov Uno degli approcci numerici standard per la risoluzione di un’equazione differenziale ordinaria è il metodo di Runge-Kutta, un metodo del quart’ordine nello step di discretizzazione spaziale ∆x, molto versatile e stabile. Nel caso dell’equazione di Schrödinger indipendente dal tempo è però possibile derivare un altro metodo, più elegante e semplice di quello di Runge-Kutta e di un ordine maggiore in ∆x. Esso è detto metodo di Numerov e può essere utilizzato per risolvere ogni equazione differenziale nella forma d2 ψ = f (x)ψ(x) + g(x). dx2 (3.1.1) Nel nostro caso, essendo l’equazione di Schrödinger: d2 ψ 2m = 2 (V (x) − E) ψ(x), dx2 ~ (3.1.2) si ha che g(x) = 0, e il metodo verrà derivato sotto questa assunzione più particolare. È opportuno osservare che per risolvere l’equazione di Schrödinger è necessario trovare contemporaneamente il valore di E e la funzione ψ(x), mentre il metodo di risoluzione numerica permette solo di valutare la funzione ψ ad E fissato. Si supporrà quindi di fissare il valore di E e di risolvere l’equazione in questo caso, per poi mostrare nelle sezioni successive come determinarne gli autovalori. 16 Capitolo 3: Metodo di Shooting Sia ∆x lo step spaziale che verrà utilizzato in seguito per discretizzare la funzione d’onda su un reticolo unidimensionale. Si vuole sviluppare la funzione ψ, soluzione dell’equazione, in serie di Taylor tra punti distanti ∆x. Per la precisione si effettua lo sviluppo di ψ(x+∆x) e ψ(x−∆x) attorno al punto x: ψ(x + ∆x) = ψ(x) + ψ(x − ∆x) = ψ(x) + ∞ X ψ (n) (x) ∆xn , n! n=1 ∞ X ψ (n) (x) (−1)n ∆xn . n! n=1 (3.1.3) (3.1.4) Le potenze pari dei due sviluppi sono uguali, mentre le potenze dispari sono opposte. Andando a sommare le due espressioni si ottiene: ψ(x + ∆x) + ψ(x − ∆x) = 2ψ(x) + ψ (2) (x)∆x2 + ψ (4) (x) ∆x4 + O(∆x6 ). 12 (3.1.5) Si vuole ricondurre questa a un’equazione nei soli termini ψ(x), ψ(x + ∆x), ψ(x − ∆x), in modo da poterla poi risolvere algebricamente e, fissati due punti iniziali per la funzione d’onda, poter determinare iterativamente tutti gli altri. Il termine ψ (2) (x) può essere ottenuto direttamente dall’equazione differenziale, mentre resta da stimare il termine con la derivata quarta. Per semplicità di notazione si introduce l’operatore di differenza centrale δ definito in modo che: δ(ψ(x), ∆x) = ψ(x + ∆x) + ψ(x − ∆x) − 2ψ(x). (3.1.6) La formula precedente si scrive quindi come δ(ψ(x), ∆x) = ψ (2) (x)∆x2 + ψ (4) (x) ∆x4 + O(∆x6 ). 12 (3.1.7) Derivando l’espressione precedente rispetto a x si ha δ(ψ (2) (x), ∆x) = ψ (4) (x)∆x2 + ψ (6) (x) ∆x4 + O(∆x6 ), 12 (3.1.8) dove si è sfruttata la naturale linearità dell’operatore δ appena introdotto. Moltiplicando per ∆x2 /12 ed isolando la derivata quarta si ha ψ (4) (x) ∆x2 ψ (6) (x) ∆x4 = δ(ψ (2) (x), ∆x) − ∆x6 + O(∆x8 ), 12 12 144 (3.1.9) e sostituendo questa espressione nella (3.1.7) si ottiene δ(ψ(x), ∆x) = ψ (2) (x)∆x2 + ∆x2 δ(ψ (2) (x), ∆x) + O(∆x6 ). 12 (3.1.10) Sfruttando infine l’espressione dell’equazione di Schrödinger ψ (2) (x) = f (x)ψ(x), δ(ψ(x), ∆x) = ψ(x)f (x)∆x2 + ∆x2 δ(ψ(x)f (x), ∆x) + O(∆x6 ). 12 (3.1.11) Basta quindi sviluppare gli operatori di differenza centrale e isolare il termine ψ(x + ∆x) per poter integrare l’intera soluzione. 17 Capitolo 3: Metodo di Shooting Per implementare il metodo al calcolatore è necessario fissare un intervallo [xmin , xmax ] su cui valutare la funzione d’onda, campionandola in un numero N di punti su una griglia uniforme di step ∆x = (xmax − xmin )/(N − 1). Conviene quindi esprimere le funzioni d’onda campionate in una notazione più consona, indicando: ψn = ψ(xn ) , fn = f (xn ) , xn = xmin + n∆x , n ∈ {1, ..., N − 1} (3.1.12) La soluzione numerica esplicita dell’equazione di Schrödinger per una particella puntiforme in moto unidimensionale è quindi data dalle relazioni: 2 2ψn 1 + 5∆x 1− − ψ f n−1 n 12 ψn+1 = 2 ∆x 1− fn+1 12 con 2m fn = 2 (V (xn ) − E). ~ 3.2 ∆x2 12 fn−1 , (3.1.13) (3.1.14) Scelta delle condizioni iniziali La procedura illustrata permette di valutare un punto della funzione d’onda a partire dai due punti che lo precedono, quindi la determinazione dell’intera funzione d’onda richiede che siano forniti almeno i due punti iniziali ψ0 e ψ1 . Per la notazione adottata ciò vorrebbe dire conoscere ψ(xmin ) e ψ(xmin + ∆x) e quindi i due punti più vicini all’estremo sinistro dell’intervallo di integrazione. Si vede in realtà che è possibile scegliere in maniera più arbitraria i punti da cui partire con l’integrazione: è sufficiente infatti fissare due qualsiasi punti adiacenti sulla griglia e integrare in entrambe le direzioni fino agli estremi dell’intervallo. Spostandosi verso xmax si può utilizzare proprio la (3.1.13), mentre spostandosi verso xmin è sufficiente invertire questa espressione esplicitando ψn−1 in funzione di ψn e ψn+1 . Nonostante questa libertà nella scelta dei punti da cui iniziare l’integrazione, dal punto di vista computazionale è necessario procedere con maggiore cautela. Le soluzioni relative ad alcuni potenziali, come ad esempio il potenziale armonico V (x) = 21 kx2 , presentano il giusto comportamento asintotico solo per valori di E corretti. La quantizzazione dell’energia e la presenza di uno spettro discreto nascono infatti dal corretto comportamento della funzione d’onda ai bordi del dominio, mentre l’equazione differenziale ammette soluzioni per ogni valore di E ed esse in generale non appartengono a L2 (R). Se quindi il valore di E scelto non è pari all’autovalore dell’energia, la soluzione trovata tenderà a divergere agli estremi del dominio. Ciò rende difficile iniziare l’integrazione a partire da xmin verso xmax , in quanto si inizierebbe ad integrare da una regione in cui la funzione d’onda tende ad avere un comportamento non corretto ed è fortemente soggetta ad instabilità numeriche. Se il potenziale, come nei casi analizzati in questa tesi, è una funzione pari, V (x) = V (−x), è 18 Capitolo 3: Metodo di Shooting di gran lunga preferibile iniziare l’integrazione a partire da x = 0, dove è noto che la funzione d’onda ha un buon comportamento, e spostarsi contemporaneamente verso entrambi gli estremi del dominio di integrazione. Per la precisione, essendo le soluzioni necessariamente funzioni pari o dispari, è sufficiente integrare a partire da x = 0 verso uno solo dei due estremi e ottenere l’altra parte della funzione d’onda per simmetria. Resta quindi da determinare una procedura per un’accurata scelta di ψ(x = 0) e di ψ(x = ∆x) (scegliendo quindi di integrare verso l’estremo destro del dominio). Indichiamo con ψn l’autofunzione relativa all’n-esimo valore dell’energia En , con n ≥ 0. È possibile dimostrare, nel contesto dell’equazione di Schrödinger unidimensionale, un risultato molto importante noto come teorema dei nodi [2] [3]. Esso afferma che l’autofunzione ψn ha esattamente n nodi, cioè si annulla n volte (al finito, mentre il comportamento ψn (x) → 0 sugli estremi del dominio fa sı̀ che gli zeri siano complessivamente, al finito e all’infinito, n + 2). Come si è detto se il potenziale è pari le autofunzioni sono funzioni pari o dispari, cioè: ψ(x) = ±ψ(−x). (3.2.1) Le funzioni dispari sono caratterizzate quindi da ψ(0) = 0, cioè hanno sempre un nodo nell’origine. Inoltre per la simmetria, ogni volta che ψ(x) = 0, necessariamente deve essere ψ(−x) = 0, sia nel caso di funzioni pari che di funzioni dispari. Quindi in accordo con il teorema dei nodi si deduce che le autofunzioni ψn hanno la stessa parità di (−1)n . Supponendo di cercare l’autofunzione relativa all’n-esimo livello eccitato, se n è dispari ci si aspetta che la funzione d’onda si annulli nell’origine. Ciò permette di fissare ψ(0) = 0 e a ψ(∆x) a un valore arbitrario, e sceglierli come punti da cui iniziare l’integrazione. L’arbitrarietà nella scelta deriva dal fatto che tutte le funzioni d’onda φn (x) = k · ψn (x), con k costante, sono anch’esse soluzioni a n fissato per la linearità dell’equazione di Schrödinger analizzata e quindi al più si troverà una funzione d’onda non normalizzata, che potrà essere normalizzata alla fine dell’integrazione. Se invece n è pari è il valore di ψ(0) che può essere fissato arbitrariamente, mentre il valore di ψ(∆x) va scelto con più cautela. Sfruttando la simmetria della funzione è però noto che ψ(−∆x) = ψ(∆x) e i punti −∆x, 0, ∆x sono tre punti adiacenti sulla griglia di simulazione, quindi si può determinare il valore di ψ(∆x) a partire direttamente dalla (3.1.13), ottenendo ψ(∆x) = ψ(0) 1− 1− 5∆x2 12 f (0) , ∆x2 12 f (∆x) (3.2.2) per poi procedere normalmente con l’applicazione del metodo. 3.3 Metodo di Shooting In questa sezione verrà discussa la procedura utilizzata per risalire al valore corretto per gli autovalori. Come già evidenziato il metodo di Numerov permette di integrare l’equazione di 19 Capitolo 3: Metodo di Shooting Schrödinger per un qualsiasi valore di E e il comportamento della soluzione trovata agli estremi del dominio è indicativo di quanto il valore di E scelto sia lontano da un valore accettabile. Si è inoltre mostrato come all’n-esimo valore dell’energia En corrisponda un’autofunzione con esattamente n nodi al finito. È quindi possibile in linea di principio scegliere casualmente un valore di E, effettuare l’integrazione numerica contando il numero di nodi presenti nella soluzione e sulla base di questo numero correggere il valore di E ed effettuare una nuova integrazione. La semplice forma dell’equazione differenziale garantisce infatti che le soluzioni dipendano in maniera continua dal parametro E, quindi se si prende E ∈ [En , En+1 ] si è certi che la soluzione avrà un numero di nodi al finito compreso tra n ed n + 1. Se il numero di nodi trovati durante l’integrazione è maggiore di quello previsto ciò vuol dire che il valore di E scelto è troppo grande e va diminuito, viceversa nel caso si trovi un numero di nodi minore. Se il numero di nodi trovati è esattamente quello atteso non si può essere certi però di aver scelto il valore di E corretto, anzi, si vede che nell’intero intervallo E ∈ [En , En+1 ) il numero di nodi al finito è pari ad n ed essi diventano n + 1 solo per E ∈ [En+1 , En+2 ). Una maniera semplice di risolvere questo problema è di tenere conto anche degli zeri all’infinito: si impone che la funzione d’onda abbia esattamente n + 2 zeri e ciò equivale a richiedere che per |x| → ∞ si abbia il comportamento corretto ψ(x) → 0. Nel caso reale in cui la funzione d’onda viene campionata all’interno di un intervallo finito [xmin , xmax ] ciò equivale a richiedere che la funzione d’onda si annulli sul bordo di questo intervallo. Poiché nell’analisi fatta in questa tesi si considerano solo potenziali pari e l’integrazione della funzione d’onda viene fatta solo verso un estremo del dominio, il numero di nodi m che deve essere richiesto non è pari a n + 2 ma si ha: n+2 2 m= n+3 2 se n pari. (3.3.1) se n dispari. dove si è tenuto conto del fatto che la funzione d’onda relativa a n dispari ha sempre uno zero nell’origine, che si suppone venga contato durante il processo di integrazione. Riassumendo, dopo aver fissato n e quindi dopo aver scelto il livello energetico a cui si è interessati, si sceglie per E un valore arbitrario e si integra la funzione d’onda attraverso l’algoritmo di Numerov, contando il numero di nodi che essa presenta. Si confronta poi questo con il valore di m ottenuto attraverso la formula precedente, se si ha un numero maggiore di nodi il valore di E scelto è troppo alto e va diminuito, viceversa se il numero di nodi è minore si è scelto E troppo piccolo e va aumentato. Si è certi che il numero di nodi trovati andrà a coincidere con m solo nel caso in cui E vada a coincidere con l’autovalore En . La procedura illustrata, che analizza gli zeri della soluzione in modo da soddisfare le condizioni al contorno, è detta metodo di Shooting. Resta solo da fissare un metodo per variare adeguatamente il valore di E e garantire la più veloce convergenza all’autovalore. Si sfrutta un algoritmo di bisezione: si fissa il primo valore di E (0) a metà di un intervallo [Emin , Emax ] facendo attenzione a scegliere quest’ultimo in modo che 20 Capitolo 3: Metodo di Shooting l’autovalore vi cada ragionevolmente all’interno e si applica il metodo per la prima volta. Se il valore di E (0) dovesse risultare troppo alto è certo che l’autovalore non potrà trovarsi nell’intervallo [E (0) , Emax ] e certamente dovrà trovarsi nell’altra metà. Si fissa quindi come nuovo intervallo [Emin , E (0) ] e si prende E (1) a metà di quest’ultimo, ripetendo la procedura. Allo stesso modo se il valore trovato per E ad una certa iterazione dovesse risultare troppo basso bisognerebbe scegliere come intervallo, per l’iterazione successiva, quello comprendente l’estremo superiore. Reiterando questa procedura un numero sufficiente di volte ci si può avvicinare arbitrariamente all’autovalore En , a meno dell’errore commesso nella discretizzazione della funzione d’onda con il metodo di Numerov. Una rappresentazione grafica di questo procedimento, nel caso dell’oscillatore quartico, è presentata in Figura 3.1. i=1 i=5 i = 10 i = 15 i = 20 ψ(x) 1 0 −1 −3 −2.5 −2 −1.5 −1 −0.5 0 x 0.5 1 1.5 2 2.5 3 Figura 3.1: Ricerca del primo stato eccitato dell’oscillatore quartico con il metodo di shooting al variare dell’iterazione i, con ∆x = 4 · 10−5 . Per concludere, c’è bisogno di fare un’osservazione sulle autofunzioni ottenute in questa maniera. Per quanto si è detto riguardo al comportamento asintotico delle soluzioni, a meno di scegliere il valore di E esatto, esse presenteranno sempre un comportamento divergente per |x| grandi. Tale comportamento comincerà più lontano dall’origine tanto più precisa è l’approssimazione per E, ma è teoricamente ineliminabile. Ciò fa sı̀ che per quanto i risultati per gli autovalori ottenuti con questo metodo siano molto accurati, le autofunzioni risultano spesso non normalizzabili a causa di queste divergenze. Esse possono essere corrette a posteriori annullando la funzione per |x| grandi e poi normalizzando oppure si può scegliere di integrare la funzione in una regione spaziale [xmin , xmax ] tale da spingere le divergenze al di fuori di essa con un numero sufficiente di reiterazioni del metodo. 21 Capitolo 4 Diffusione Montecarlo Questo metodo di risoluzione numerica si basa, come nel caso del metodo di splitting degli operatori, su una valutazione esplicita del propagatore lungo il tempo immaginario. Inizialmente verrà analizzato più a fondo il significato matematico del propagatore e verrà mostrato come è possibile esprimerlo attraverso il formalismo degli integrali di cammino di Feynman. A partire da questa nuova formulazione sarà possibile introdurre un metodo Montecarlo per la valutazione del propagatore, che verrà interpretato facendo riferimento al legame tra l’equazione di Schrödinger e l’equazione del calore, accennata nel Capitolo 1. 4.1 Integrale sui cammini di Feynman A partire dalla formula di Baker-Campbell-Hausdorff introdotta nella sezione 2.1 si può arrivare ad un’espressione alternativa per l’esponenziale della somma di due operatori auto-aggiunti in uno spazio di Hilbert separabile.[4] Sotto queste ipotesi vale infatti la formula di Lie-Trotter : N . eA+B = lim eA/N eB/N N →∞ (4.1.1) Possiamo quindi riscrivere il propagatore dell’equazione di Schrödinger nella maniera seguente ! i(T̂ + V̂ )t = K̂(t) = exp − ~ ! ! ! !! (4.1.2) iV̂ t iT̂ t iV̂ t iT̂ t , = lim exp − exp − ... exp − exp − N →∞ N~ N~ N~ N~ {z } | N volte come prodotto di 2N esponenziali, metà dei quali dipende dal solo termine cinetico e metà dal solo termine potenziale. È possibile esprimere il limite nella rappresentazione delle coordinate, inserendo la relazione di 22 Capitolo 4: Diffusione Montecarlo completezza tra ogni coppia di esponenziali, per (N − 1) volte: K(x, x0 ; t) = hx|K̂(t)|x0 i = Z iV̂ t iT̂ t iV̂ t iT̂ t = lim dx1 ... dxN −1 hx|e− N ~ e− N ~ |xN −1 i ... hx1 |e− N ~ e− N ~ |x0 i . N →∞ (4.1.3) RN −1 Dobbiamo ora valutare ognuno degli N elementi di matrice che compaiono all’interno dell’integrale. Il termine contenente il potenziale è diagonale nella rappresentazione delle coordinate e quindi può essere portato fuori, lasciando l’elemento di matrice del termine cinetico. Quest’ultimo può essere interpretato come il propagatore di una particella libera che si muove tra xn−1 ed xn nel tempo ∆t = t/N , e la sua espressione viene valutata nell’Appendice A. Si ottiene ! ! iV̂ ∆t iT̂ ∆t hxn |exp − exp − |xn−1 i = ~ ~ ! iT̂ ∆t iV (xn )∆t (4.1.4) hxn |exp − |xn−1 i = = exp − ~ ~ r iV (xn )∆t im (xn − xn−1 )2 m = . exp − + 2πi~∆t ~ 2~ ∆t Possiamo ora esplicitare il propagatore tra i due punti dello spaziotempo (x0 , t0 ) e (x, t) attraverso questi propagatori infinitesimi, cosa che venne fatta per la prima volta da R. Feynman. È opportuno osservare che all’interno dell’espressione compaiono (N − 1) integrali, mentre ci sono N termini che rappresentano i propagatori infinitesimi, il che vuol dire che l’espressione finale, scritta in maniera compatta, sarà: K(x, x0 ; t) = lim cN N →∞ Z RN −1 N −1 Y n=1 dxn ! exp N X im (xn − xn−1 )2 n=1 2~ ∆t ! i∆t − V (xn ) , (4.1.5) ~ m N2 . 2πi~∆t Si darà ora un’interpretazione di questo risultato e si mostrerà come, dopo aver effettuato la cN = rotazione di Wick, questa espressione per il propagatore si presti facilmente ad una valutazione attraverso un metodo Montecarlo. 4.2 Interpretazione dell’integrale sui cammini Verrà mostrato ora brevemente come sia possibile dare un’interpretazione alla (4.1.5) e quale sia la sua validità matematica, senza però esulare dagli argomenti di questa tesi. Sia L(x(t), ẋ(t), t) la lagrangiana di una particella classica puntiforme di massa m, dove la coordinata x rappresenta la posizione. L’intera trattazione può essere estesa in maniera naturale al caso tridimensionale e a sistemi più complessi. Indicata con x(t) la traiettoria seguita dal sistema si definisce l’azione come: S[x(t)] = Z 0 t dt′ L (x(t′ ), ẋ(t′ ), t′ ) . 23 (4.2.1) Capitolo 4: Diffusione Montecarlo Questo integrale può essere valutato come limite di una somma integrale di Riemann sotto opportune condizioni di regolarità per L. In tal caso: S[x(t)] = lim ∆t N →∞ N X n=1 L (x(n∆t), ẋ(n∆t), n∆t) , (4.2.2) dove ∆t = t/N . Poiché si tratta di un sistema meccanico classico, la lagrangiana è la differenza tra energia cinetica e quella potenziale: S[x(t)] = lim ∆t N →∞ N X n=1 1 m 2 dx dt dove si è indicato xn = x(n∆t). 2 n∆t ! − V (xn ) , Per N → ∞ si ha che ∆t → 0 quindi la derivata può essere espressa come 2 2 x(t) − x(t − ∆t) (xn − xn−1 )2 dx = lim = lim . ∆t→0 ∆t→0 dt ∆t ∆t2 t=n∆t (4.2.3) (4.2.4) n∆t Complessivamente, l’azione ha espressione S[x(t)] = lim N →∞ N X m (xn − xn−1 )2 2 n=1 ∆t − ∆t V (xn ) . Confrontando questa relazione con la (4.1.5) appare evidente che si possa scrivere: ! N −1 m N2 Z Y i SN [x(t)] , K(x, x0 ; t) = lim dxn exp N →∞ 2πi~∆t ~ RN −1 n=1 (4.2.5) (4.2.6) dove SN [x(t)] è l’approssimazione in N suddivisioni della somma di Riemann (4.2.2). Il propagatore quantistico che esprime l’ampiezza di probabilità per una particella che si muove tra x0 e x nel tempo t può essere quindi collegata all’azione classica. I valori di x0 , x1 , ..., xN −1 , x corrispondono ora ai vertici di una spezzata che viene interpretata come una traiettoria per la particella classica. Si suppone che la particella si muova lungo questa spezzata, che nel limite N → ∞ diviene una curva continua, e si valuta l’azione lungo quella traiettoria. Tale valore viene poi reso immaginario dal termine i ~ e se ne valuta l’esponenziale. L’azione va calcolata per ogni possibile valore delle variabili di integrazione x1 , x2 , ..., xN −1 , cioè per ogni possibile traiettoria che collega il punto x0 a x. L’ampiezza di probabilità per lo spostamento della parti cella quantistica si può ottenere sovrapponendo le fasi exp ~i S(t) valutate lungo tutti i possibili cammini tra il punto di partenza e quello di arrivo, che includono la traiettoria classica, per cui l’azione è stazionaria. Una rappresentazione intuitiva di ciò è mostrata in figura 4.1. È possibile mostrare che si può ottenere un limite classico per questa espressione [5]. Nel caso di sistemi macroscopici l’azione assume valori che tipicamente sono più grandi di ~ di svariati ordini di grandezza e ciò fa sı̀ che traiettorie lontane da quella classica provochino grandi variazioni di 24 Capitolo 4: Diffusione Montecarlo 1.2 1 0.8 x 0.6 0.4 0.2 0 −0.2 0 0.5 1 1.5 2 2.5 3 3.5 4 n∆t Figura 4.1: Rappresentazione intuitiva dell’integrale sui cammini di Feynman per una particella che si propaga da x = 0 all’istante t = 0 fino a x = 1 all’istante t = 4∆t. La traiettoria classica è rappresentata dalla linea continua, mentre le altre traiettorie hanno opacità dipendente dalla loro distanza da quella classica fase nel termine integrando, portando alla cancellazione dei loro contributi. Solo le traiettorie molto vicine a quella classica interferiscono costruttivamente e danno contributo al propagatore. Come si è detto, nel limite N → ∞ la spezzata diviene una curva x(t) e si può interpretare la (4.2.6) come un integrale funzionale. Il funzionale: W [x(t)] = exp i S[x(t)] ~ (4.2.7) viene integrato lungo tutte le traiettorie possibili x, definendo una nuova misura: [dx] = lim N →∞ m N2 2πi~∆t Si può quindi scrivere: K(x, x0 ; t) = Z N −1 Y Z [dx] exp dxn (4.2.8) (4.2.9) RN −1 n=1 i S[x(t)] ~ Queste espressioni rappresentano unicamente una riscrittura compatta del limite (4.2.6). Si può far vedere che l’oggetto [dx] per come è stato definito non può essere una misura in quanto non soddisfa la σ-additività, ma il propagatore lungo il tempo immaginario, utile per gli scopi di questo lavoro, risulta posto su solide basi matematiche [6]. 25 Capitolo 4: Diffusione Montecarlo 4.3 Valutazione del propagatore con metodo Montecarlo Facendo riferimento alla (4.1.5) ed effettuando la rotazione di Wick t → −iτ si può scrivere ! N Z N −1 Y Y K(x, x0 ; τ ) = lim dxn W (xn ) · P (xn , xn−1 ) (4.3.1) N →∞ RN −1 n=1 n=1 V (xn )∆τ W (xn ) = exp − ~ r m m(xn − xn−1 )2 exp − P (xn , xn−1 ) = 2π~∆τ 2~∆τ Dove il significato delle nuove funzioni W e P verrà chiarito a breve. Si vuole puntualizzare che questo nuovo propagatore, in cui i termini oscillanti sono diventati degli esponenziali reali, è ben definito e a differenza del propagatore di Feynman permette di definire una misura [dx] che sia matematicamente corretta, detta misura di Wiener. Questa misura è fortemente collegata alla teoria dei processi stocastici e all’equazione del calore, ma nella trattazione qui esposta non si percorrerà questa strada e ci si concentrerà sul valutare numericamente la (4.3.1) con un metodo Montecarlo e di darne solo successivamente un’interpretazione in termini di processo stocastico. Verrà ora esposto brevemente il metodo di integrazione Montecarlo prima di applicarlo al nostro caso. Si consideri un integrale nella forma: Z dx1 ... dxN f (x1 , ..., xN )P (x1 , ..., xN ) I= (4.3.2) RN dove |I| < +∞ e la P rappresenta una densità di probabilità, con: P (x1 , ..., xN ) ≥ 0 ∀(x1 , ..., xN ) ∈ RN , Z dx1 ... dxN P (x1 , ..., xN ) = 1. RN Allora il valore di I può essere approssimato con la quantità I= Dove per ogni k la ennupla N 1 X (k) (k) f x1 , ..., xN , N (4.3.3) k=1 (k) (k) viene estratta a caso in accordo con la densità di x1 , ..., xN probabilità P . Si può dimostrare, attraverso la legge dei grandi numeri, che: lim I = I N →∞ (4.3.4) Basta quindi effettuare per N volte, con N sufficientemente grande, il campionamento della funzione f in punti estratti casualmente (in accordo con la densità di probabilità P ) per ottenere una buona stima dell’integrale. Nel caso in esame conviene fare riferimento non direttamente al propagatore K(x, x0 ; t), ma alle 26 Capitolo 4: Diffusione Montecarlo funzioni d’onda. Ricordando che, in accordo con la (1.2.7), la funzione d’onda a un istante t può essere ottenuta come convoluzione tra il propagatore e la funzione d’onda all’istante iniziale, possiamo scrivere ψ(x, τ ) = lim N →∞ Z RN N −1 Y dxn n=0 ! N Y n=1 ! W (xn ) · P (xn , xn−1 ) ψ(x0 , 0), (4.3.5) Dove l’integrazione è stata estesa anche alla variabile x0 . Ora è più chiaro il significato delle P (xn , xn−1 ), che possono essere interpretate come densità di probabilità in accordo con le richieste del metodo Montecarlo, attraverso la corrispondenza ! N Y W (xn ) ψ(x0 , 0) → f (x0 , ...xN −1 ) n=1 N Y P (xn , xn−1 ) n=1 → P (x0 , ..., xN −1 ) Si vede facilmente che quest’ultima soddisfa le richieste per essere interpretata come densità di probabilità, essendo positiva in quanto prodotto di esponenziali reali ed è normalizzata. La normalizzazione deriva dalla proprietà Z dxn−1 P (xn , xn−1 )P (xn−1 , xn−2 ) = P (xn , xn−2 ), (4.3.6) R che può essere verificata con un calcolo diretto. Si è quindi trovato un modo per approssimare la funzione d’onda ad un generico istante τ , che richiede solo di valutare un certo numero di volte il termine W in punti estratti casualmente da una particolare distribuzione di probabilità. Rimane solo quindi da fissare una procedura per estrarre le ennuple (x0 , ..., xN −1 ) in modo che si distribuiscano come previsto dalla P (x0 , ..., xN −1 ). Prima di concentrarci su questo problema osserviamo che, come evidenziato nel Capitolo 1, la funzione d’onda valutata in questa maniera non convergerebbe allo stato fondamentale per τ → ∞ ma tenderebbe ad annullarsi. Si potrebbe pensare di normalizzare la ψ(x, τ ) al tempo τ in modo da eliminare gli stati eccitati e preservare il solo stato fondamentale, che decade più lentamente. Il metodo esaminato in questo capitolo rende però difficile effettuare un’operazione di normalizzazione, quindi è necessario procedere in maniera differente rispetto a come si è fatto per l’operator splitting. Si ridefinisce il livello di riferimento per l’energia potenziale sottraendo da V (x) un termine ER costante: V (x) → V (x) − ER Ciò modifica la (1.4.2) introducendo un ulteriore termine all’esponente: (E1 − ER )τ (E0 − ER )τ φ0 (x) + c1 exp − φ1 (x) + ... ψ(x, τ ) = c0 exp − ~ ~ che va a cambiare totalmente il comportamento per tempi lunghi della funzione d’onda. • Se ER > E0 , la funzione d’onda tende a divergere esponenzialmente. 27 (4.3.7) (4.3.8) Capitolo 4: Diffusione Montecarlo • Se ER = E0 , la funzione d’onda converge allo stato fondamentale a meno di un fattore costante c0 . • Se ER < E0 , la funzione d’onda tende ad annullarsi. Ciò permette quindi di andare a cercare il valore dell’energia dello stato fondamentale studiando il comportamento della norma della funzione d’onda. Come si è detto resta da esplicitare come è possibile costruire l’ennupla di punti in accordo con la densità di probabilità P . Osserviamo che ogni termine P (xn , xn−1 ) rappresenta una gaussiana di media xn e varianza σ 2 = ~∆τ /m. Quindi fissato xN = x il termine xN −1 è estratto da una distribuzione gaussiana centrata in xN e con tale varianza. Ottenuto questo punto, si procede campionando xN −2 da una distribuzione centrata in xN −1 , e cosı̀ via fino a x0 : (k) (k) x(k) n = xn−1 + σ ρn ∀k = 1... N , ∀n = 0... N − 1 (4.3.9) (k) con ρn un numero casuale estratto da una distribuzione gaussiana di media 0 e varianza 1. Questa sequenza di numeri rappresenta un random walk unidimensionale: ogni nuova coordinata può essere ottenuta facendo uno spostamento casuale a partire dalla posizione precedente. Questa caratteristica non deve stupire, in quanto dopo la rotazione di Wick stiamo effettivamente risolvendo l’equazione del calore e il legame tra essa e il moto Browniano è ben noto, a partire dal lavoro pioneristico di Einstein nel 1905 [7]. Questa interpretazione verrà ulteriormente approfondita nella prossima sezione. 4.4 Walkers e processo di branching Il metodo Montecarlo descritto precedentemente permette di ottenere il valore approssimato della funzione d’onda ψ(x, τ ) per τ fissato, il che vuol dire, per come vengono scelte le ennuple di punti per l’applicazione del metodo, che devono essere scelti a priori lo step temporale ∆τ = τ /N e il numero di passi per il random walk. Il metodo infatti parte da x = xN e torna indietro fino a x0 , in un numero finito di passi. Sarebbe di gran lunga preferibile [8] un metodo che invece partisse da x0 e potesse lasciare evolvere la funzione d’onda per un numero non inizialmente fissato di step temporali, in modo da raggiungere τ arbitrariamente grandi. Ciò può essere fatto se si suppone che la ψ(x0 , 0) sia essa stessa una densità di probabilità all’interno della (4.3.5), il che pone delle restrizioni, in quanto richiede che la funzione d’onda debba essere positiva, ma permette di invertire il ragionamento: all’istante iniziale si sceglie casualmente un x0 secondo la densità di probabilità ψ(x0 , 0) e si prosegue scegliendo x1 da una distribuzione gaussiana centrata in x0 , e cosı̀ via, fermando il processo dopo un numero arbitrario di step. 28 Capitolo 4: Diffusione Montecarlo La scelta di partire da una funzione d’onda positiva ψ(x0 , 0) restringe il campo di applicabilità di questo metodo alla ricerca autostati φn (x) che siano anch’essi positivi, condizione che viene soddisfatta dalla funzione d’onda dello stato fondamentale. È opportuno riassumere esattamente quale sia la procedura da seguire per applicare il metodo: si estrae un valore x0 dalla densità di probabilità ψ(x0 , 0), lo si fa evolvere per uno step in accordo con la (4.3.9) e si valuta W (x1 ), si fa poi evolvere per un ulteriore step e si accumula il prodotto W (x1 ) · W (x2 ). Dopo un certo numero N di step questo prodotto sarà proprio la (k) (k) funzione f (x1 , ..., xN ) definita per l’integrazione Montecarlo. Bisognerebbe ripetere per N volte l’intero procedimento in modo da ottenere N valori distinti per f e farne una media, ma il problema è che, evolvendo la funzione a partire da x0 , ci si ritroverà ogni volta con un x = xN diverso e fare una media dei vari valori ottenuti non restituisce il risultato desiderato. Bisogna (k) (k) invece scegliere N molto grande e poi fare la media tra le f (x1 , ...xN −1 , x) che cadono in un intervallo largo ∆x attorno ad ogni x, in modo da ottenere una buona campionatura per ψ(x, τ ). Dal punto di vista computazionale la procedura illustrata risulta molto dispendiosa, in quanto si deve ripetere l’intera sequenza di operazioni (valutazione di W (xn ) e scelta casuale della coordinata successiva) un numero molto grande di volte. Esiste però una maniera per “parallelizzare” i processi e valutare contemporaneamente l’intero set di N random-walk, basata su una inter- pretazione differente delle W (xn ). In accordo con l’interpretazione stocastica suggerita prima immaginiamo che la scelta di x0 in accordo con ψ(x0 , 0) corrisponda con la nascita di un walker nella posizione x0 , il quale effettua un random-walk in accordo con la (4.3.9) e durante la sua evoluzione accumula il prodotto W (x1 ) · · · W (x), che a va a contribuire al valore di ψ(x, τ ). In Figura 4.2 viene mostrato un esempio di evoluzione per un certo numero di walkers che partono dalla posizione x = 0.5, mentre in Figura 4.3 viene mostrata la densità di walkers media per ogni cella di larghezza ∆x = 0.01 in tre istanti diversi dell’evoluzione. In quest’ultima è possibile notare come, a partire da una condizione iniziale corrispondente ad una δ di Dirac, la distribuzione complessiva tenda a divenire una Gaussiana di varianza sempre crescente, in perfetto accordo con la soluzione fondamentale dell’equazione del calore. Si può vedere che invece di accumulare il fattore moltiplicativo W si può ottenere lo stesso risultato dando ai walker la possibilità di variare il loro numero durante il percorso, proprio in base al valore assunto da W . Per la precisione se W (xn ) > 1, cioè se V (xn ) < ER , nella posizione xn vengono generati m = ⌊W (xn )⌋ walkers che seguiranno poi un’evoluzione indipendente, mentre il walker originario continua la sua evoluzione con probabilità p = W (xn ) − ⌊W (xn )⌋. Se invece W (xn ) < 1, cioè V (xn ) > ER , il walker sopravvive con probabilità W (xn ). Il processo di duplicazione dei walkers è detto branching, mentre nel caso la un walker debba essere eliminato si parla di “morte” per il walker. Si può scrivere una formula compatta per il numero di walkers che devono essere generati nella posizione xn che racchiuda il ragionamento 29 Capitolo 4: Diffusione Montecarlo 0.7 x 0.6 0.5 0.4 0.3 0 5 10 15 20 25 t 30 35 40 45 50 Figura 4.2: Evoluzione stocastica della posizione di 80 walkers concentrati all’istante iniziale in x = 0.5 appena fatto: m = min (⌊W (xn ) + u⌋ , m∗ ) (4.4.1) dove u è estratto casualmente da una distribuzione uniforme nell’intervallo [0, 1]. Il termine m∗ viene invece fissato in modo da evitare una forte variazione del numero di walker e tipicamente m∗ ∼ 3. Infatti negli istanti iniziali è possibile che V (xn ) ≪ ER e quindi che W (xn ) assuma valori grandi rispetto all’unità. Quindi all’istante iniziale si crea un set di N0 walkers e li si lascia evolvere indipendentemente secondo un random-walk (con σ fissato), li si duplica o li si lascia morire in base al valore di W e quindi in base al valore del potenziale nel punto in cui si trovano, e dopo un certo numero di step, si conta il numero di walkers che sono finiti in ogni intervallo ∆x attorno al punto x e questo costituisce una buona approssimazione per la funzione d’onda ψ(x, τ ) e conseguentemente per φ0 (x). L’ultima questione che resta da esaminare è la scelta di ER , che deve essere tale da non non far divergere o annullare la norma kψ(x, τ )k2 . Il valore di ER va quindi regolato ad ogni step in modo da cercare di mantenere costante il numero di walkers e quindi la norma della funzione d’onda. Dopo il primo step di evoluzione il numero di walkers sarà aumentato o diminuito in accordo con la relazione (4.4.1) e in accordo con la definizione (V (xn ) − ER )∆τ . W (xn ) = exp − ~ (4.4.2) Infatti definito il valore medio del potenziale nelle posizioni dei vari walkers all’istante inziale come: N0 1 X hV i0 = V (xi ) N0 k=1 30 (4.4.3) Capitolo 4: Diffusione Montecarlo 100 t = 50∆t t = 10∆t t=0 80 ψ(x) 60 40 20 0 0.3 0.35 0.4 0.45 0.5 x 0.55 0.6 0.65 0.7 Figura 4.3: Istogramma delle posizioni medie dei walkers durante la loro evoluzione a tre istanti diversi, con celle di larghezza ∆x = 0.01 0 si vede che se hV i0 > ER allora hW i0 < 1 e il numero complessivo di walkers tenderà a diminuire, 0 se invece hV i0 < ER allora hW i0 > 1 e il numero complessivo di walkers tenderà ad aumentare. 0 Si vorrebbe invece che il numero di walkers rimanga costante, quindi si deve correggere ER 1 1 e passare a una ER tale che ER ≈ hV i0 . Il come effettuare questa correzione viene suggerito direttamente dall’espressione (4.4.2): poiché ci si attende che i valori di W (xn ) non si allontanino molto dall’unità si può sviluppare in serie di Taylor troncata al prim’ordine e scrivere: hW i0 ≈ (hV i0 − ER )∆τ N1 ≈1− N0 ~ (4.4.4) dove con N0 si indica il numero di walkers all’istante iniziale e con N1 quello al primo step 1 temporale. Invertendo questa espressione ed effettuando la sostituzione ER = hV i0 si arriva all’espressione 1 ER = 0 ER ~ + ∆τ N1 1− N0 , (4.4.5) 0 che descrive la correzione al valore di ER in base alla variazione del numero di walkers tra i due step. Il termine α = ~/∆τ in realtà viene scelto quando il metodo viene implementato al calcolatore, in modo da minimizzare le fluttuazioni del valore di ER . Questa correzione va quindi effettuata dopo ogni step di evoluzione temporale, facendo sempre riferimento al numero N0 di walkers generati all’istante iniziale. Una volta implementato il metodo al calcolatore si vede che non c’è un vera convergenza del numero di walkers Ni o dell’energia ER ad un valore fissato [9]. Ciò è dovuto al fatto che le oscillazioni tra un timestep e l’altro sono grandi (il numero di walkers dipende dalle variazioni del potenziale medio tra di essi e il loro movimento è di natura casuale) e la correzione all’energia di riferimento viene sempre effettuata a posteriori rispetto alla variazione di Ni . 31 Capitolo 4: Diffusione Montecarlo Si vede però che entrambe le quantità hanno oscillazioni, per quanto ampie, sempre centrate attorno allo stesso valore medio, come mostrato in Figura 4.4. Per giungere ai risultati finali si effettua quindi una media temporale su un certo numero di timestep (a seguito della fase transitoria iniziale) per il valore ER e per il numero di walkers in ogni cella, che è la nostra approssimazione della funzione d’onda. Questo procedimento, nel caso dell’energia ER , è mostrato in Figura 4.5. ER 1 0.5 0 0 50 100 150 200 250 300 τ 350 400 450 500 550 600 Figura 4.4: Valore dell’energia di riferimento ER durante l’evoluzione del sistema, relativo al potenziale armonico, fino a τ = 600. Il timestep è stato fissato a ∆τ = 0.2 e il numero di walkers iniziali a N0 = 300. 0.6 < ER >τ 0.5 0.4 0.3 0.2 0 50 100 150 200 250 300 τ 350 400 450 500 550 600 Figura 4.5: Valore medio dell’energia di riferimento ER tra 0 e τ , durante l’evoluzione del sistema, relativo al potenziale armonico, con ∆τ = 0.2 e N0 = 300. 32 Capitolo 5 Applicazioni In questa sezione verranno mostrati alcuni esempi di applicazione dei metodi di risoluzione esposti nei capitoli precedenti. Verranno inizialmente analizzati due potenziali risolubili esattamente, la buca infinita e il potenziale armonico, per i quali è possibile comparare i risultati ottenuti dalle simulazioni con quelli analitici. Infine viene analizzato un potenziale per cui non è nota una soluzione analitica, quello dell’oscillatore quartico, utilizzando come riferimento per il valore dell’energia dello stato fondamentale la stima ottenuta con un metodo variazionale. Le simulazioni sono tutte state realizzate in C++, con l’ausilio delle librerie del software di analisi dati Root, nello specifico per la generazione di numeri casuali e per il plot di funzioni. 5.1 Buca di potenziale infinita Il primo esempio che verrà analizzato in questo lavoro è uno dei casi più semplici di sistema confinato, quello di una buca di potenziale infinita unidimensionale. Il potenziale ha la forma seguente: V (x) = dove L indica la larghezza della buca. 0 0<x<L (5.1.1) +∞ x ≤ 0 ∨ x ≥ L La funzione d’onda deve annullarsi nelle regioni in cui è il potenziale è infinito, e anche ai bordi della stessa. In questo caso l’equazione di Schrödinger assume la forma: d2 ψ(x) = −k 2 ψ(x) dx2 k2 = 2mE ~2 (5.1.2) a cui bisogna aggiungere le condizioni: ψ(0) = ψ(L) = 0 33 (5.1.3) Capitolo 5: Applicazioni 5.1.1 Soluzione analitica Poiché l’equazione di Schrödinger, all’interno della buca, si riduce a quella per una particella libera, la soluzione sarà una sovrapposizione di onde piane a cui andranno imposte le condizioni (5.1.3): ψ(x) = Ae−ikx + Beikx . (5.1.4) Imponendo che ψ(0) = 0 si ha ψ(x) = A eikx − e−ikx ⇒ A+B =0 (5.1.5) Ridefinendo la costante, si può riscrivere la funzione d’onda attraverso la funzione seno: ψ(x) = C sin (kx) (5.1.6) Imponendo la seconda condizione, ψ(L) = 0: C sin (kL) = 0. (5.1.7) Poiché il caso C = 0 porta ad una soluzione banale, deve essere necessariamente: n ∈ N∗ kL = nπ (5.1.8) Ricordando la dipendenza di k dall’energia si vede che ciò impone la quantizzazione della stessa. L’espressione precedente caratterizza totalmente lo spettro energetico: r 2mE nπ π 2 ~2 n2 = . ⇒ E = n ~2 L 2mL2 (5.1.9) Le autofunzioni sono determinate a meno della q costante di normalizzazione C, che si può valutare con una semplice integrazione e vale C = ψn (x) = 2 L. r Si ha quindi: nπx 2 . sin L L (5.1.10) Non c’è degenerazione, cosa attesa in quanto lo spettro discreto non è mai degenere per l’equazione di Schrödinger unidimensionale. Per comodità nel confrontare la soluzione analitica con i risultati numerici, si riscrive l’equazione in funzione delle grandezze adimensionali ε= 2mEL2 ~2 e si definisce ψ̃n (ξ) = ξ= x . L √ Lψn (ξ). (5.1.11) (5.1.12) Ci riferirà a quest’ultima come soluzione del problema e si ometterà la ∼. In questo caso si vede che lo spettro e le autofunzioni hanno forma: ε n = π 2 n2 , ψn (ξ) = 34 √ 2 sin (nπξ) (5.1.13) Capitolo 5: Applicazioni 5.1.2 Soluzione numerica Il metodo di splitting degli operatori e quello di diffusione Montecarlo sono stati utilizzati per valutare il solo stato fondamentale. Per il metodo di splitting lo step temporale è stato fissato a ∆t = 5 · 10−4 e l’intervallo per le frequenze con cui effettuare la trasformata di Fourier discreta è stato fissato a k ∈ [−50, 50], abbastanza ampio da permettere una buona descrizione della dinamica nella regione spaziale dell’intervallo [0, 1]. L’effetto del muro infinito di potenziale è stato implementato imponendo l’annullamento della funzione d’onda sugli estremi della griglia di simulazione ad ogni time-step. La funzione d’onda iniziale ψ(x, 0) è stata presa come una gaussiana centrata a metà della buca e con deviazione standard pari a 1/6 e l’evoluzione è stata analizzata per 300 step temporali. I risultati ottenuti sono mostrati in Figura 5.1 e in Tabella 5.1. L’applicazione del metodo Montecarlo a questo potenziale richiede invece una cura particola- re a causa del suo carattere fortemente irregolare. Per la precisione è stato necessario scegliere un time-step ∆τ = 10−5 di un ordine di grandezza inferiore a quello utilizzato per i potenziali analizzati in seguito. A partire da un numero N0 = 300 di walkers distribuiti secondo una delta di Dirac centrata in x = 0.5, si è fatto evolvere il sistema per N = 2 · 106 step temporali e si è poi campionata la funzione d’onda in 100 bin differenti di uguale larghezza. I risultati ottenuti sono riportati, a confronto con quelli dello splitting degli operatori, in Figura 5.1 e in Tabella 5.1. 1.5 ψ0o.s. ψ0m.d. φ0 V (x) ψ(ξ) 1 0.5 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 ξ Figura 5.1: Stato fondamentale della buca di potenziale, confronto tra i risultati numerici e la funzione esatta. Con ψ0o.s. si indica la soluzione del metodo di splitting degli operatori e con ψ0m.d la soluzione del metodo Montecarlo, mentre φ0 rappresenta la soluzione esatta. 35 Capitolo 5: Applicazioni Operator splitting E0 E0 teorico Discrepanza 9.70 π 2 ∼ 9.87 1.71 % 9.91 Montecarlo 2 π ∼ 9.87 0.36 % Tabella 5.1: Risultati dei metodi di splitting e di diffusione Montecarlo per lo stato fondamentale della buca di potenziale Con il metodo di shooting sono stati valutati lo stato fondamentale e i primi 4 livelli eccitati. La semplicità computazionale del metodo ha permesso l’utilizzo di una griglia molto fitta, con N = 25 · 103 steps e quindi con ∆x = 4 · 10−5 . Si è ripetuta la procedura di shooting fino a quando la variazione dell’energia E tra un’iterazione e la successiva non è divenuta minore di ∆E = 10−6 . I risultati per le energie sono riportati in Tabella 5.2 mentre le prime tre autofunzioni sono mostrate in Figura 5.2. 1.5 1 ψ(ξ) 0.5 0 −0.5 −1 −1.5 −0.1 ψ1 ψ2 ψ3 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1 ξ Figura 5.2: Stato fondamentale e primi due livelli eccitati della buca di potenziale ottenuti con il metodo di Shooting. Si è scelto di mostrare un campionamento molto meno denso di quello reale per maggiore chiarezza grafica 5.2 Oscillatore armonico Un altro potenziale di cui è conosciuta la soluzione analitica è quello dell’oscillatore armonico: V (x) = 1 1 2 kx = mω 2 x2 . 2 2 (5.2.1) La soluzione di questo problema è molto importante in quanto un potenziale arbitrario che abbia un punto di minimo relativo può essere approssimato da un potenziale armonico attorno a tale 36 Capitolo 5: Applicazioni Shooting E0 E1 E2 E3 9.87092 39.4816 88.8382 157.9264 2 Teorico π 4π Discrepanza 0.013 % 2 9π 0.008 % 2 0.013 % 16π E4 2 0.008 % 246.774 25π 2 0.014 % Tabella 5.2: Livelli energetici ottenuti con il metodo di Shooting per la buca di potenziale punto, rendendo possibile uno studio qualitativo di un gran numero di sistemi legati. L’equazione di Schrödinger in questo caso assume la forma: 2m 1 d2 ψ(x) 2 2 = 2 mω x − E ψ(x) dx2 ~ 2 (5.2.2) È sempre utile rendere l’equazione adimensionale e ciò in questo caso può essere fatto ridefinendo la scala delle energie e dello spazio attraverso le sostituzioni: mω E ξ2 = x2 ε= ~ ~ω (5.2.3) L’equazione assume quindi la forma: d2 ψ(ξ) = ξ 2 − 2ε ψ(ξ) 2 dξ 5.2.1 (5.2.4) Soluzione analitica È possibile estrarre dalla soluzione ψ(ξ) l’andamento asintotico per |ξ| grandi in modo da sempli- ficare l’equazione differenziale. In questo caso per |ξ| → ∞ si può trascurare il termine costante ε e si vede che l’andamento asintotico delle soluzioni è: ψ(ξ) ∼ e± ξ2 2 , (5.2.5) Delle due soluzioni va accettata solo quella normalizzabile. Si suppone quindi di poter scrivere la soluzione nella forma: ψ(ξ) = H(ξ)e− ξ2 2 (5.2.6) dove la H(ξ) è una funzione che descrive correttamente il comportamento attorno all’origine e che per ξ grandi cresce più abbastanza lentamente da non influenzare l’andamento asintotico dato dal termine gaussiano. Sostituendo questa espressione nell’equazione di Schrödinger si ottiene una nuova equazione per H: d2 H(ξ) dH(ξ) − 2ξ + (2ε − 1)H(ξ) = 0 2 dξ dξ Si suppone quindi che H sia sviluppabile in serie di potenze attorno a ξ = 0: H(ξ) = +∞ X n=0 37 an ξ n (5.2.7) (5.2.8) Capitolo 5: Applicazioni e si sostituisce questa espressione all’interno dell’equazione differenziale, supponendo di poter derivare termine a termine. Dopo semplici passaggi algebrici si arriva all’espressione: +∞ X n=0 ((n + 2)(n + 1)an+2 + (2ε − 2n − 1)an ) ξ n = 0. (5.2.9) Per il principio di identità delle serie di potenze questa espressione può essere vera per ogni ξ all’interno del dominio di convergenza della serie solo se i coefficienti sono tutti nulli. Si ricava cosı̀ una relazione di ricorrenza per i coefficienti: 2n + 1 − 2ε an+2 = . an (n + 2)(n + 1) (5.2.10) Noti quindi i primi due coefficienti a0 e a1 , fissati da una scelta di condizioni iniziali per l’equazione differenziale, è possibile in linea di principio determinare la soluzione. In realtà si osserva che l’andamento asintotico che si otterrebbe in questo caso porterebbe a soluzioni non accettabili, infatti l’andamento asintotico per i coefficienti è : an+2 2 ∼ an n Confrontandolo con lo sviluppo in serie di exp x2 : (5.2.11) ∞ X x2n exp x2 = n! n=0 (5.2.12) si vede che i coefficienti di questa serie hanno lo stesso comportamento per n grandi. Quindi H(ξ) contiene nel suo sviluppo, almeno per i termini con n pari, una componente di tipo exp ξ 2 e ψ(ξ) tende a divergere come exp ξ 2 /2 . Questa soluzione non è accettabile in quanto non normalizzabile. Perché ciò non si verifichi deve accadere che la serie in realtà sia una somma finita, cioè che esista un n∗ tale che si annullino tutti i coefficienti a partire da quell’ordine. Deve quindi valere che: 1 (5.2.13) 2 La condizione che H abbia un andamento asintotico corretto impone quindi la quantizzazione 2n∗ + 1 − 2ε = 0 ⇒ ε = n∗ + dell’energia e lo spettro è dato proprio dalla relazione scritta sopra. Per semplicità modifichiamo la notazione n∗ → n. Le funzioni Hn (ξ) sono quindi dei polinomi di grado n: Hn (ξ) = n X am ξ m (5.2.14) m=0 e sono detti polinomi di Hermite. Essi possono essere trovati ricorsivamente attraverso la (5.2.10). Da questa espressione si nota anche che se n è pari il polinomio contiene solo potenze pari di ξ e lo stesso accade se n è dispari, quindi sfruttando la relazione di ricorrenza si possono trovare tutti i coefficienti a meno di uno solo tra a0 e a1 , che può essere fissato dalla normalizzazione della funzione d’onda. 38 Capitolo 5: Applicazioni Per quanto detto si vede che la parità degli Hn (ξ) coincide con la parità di n e, essendo exp −ξ 2 /2 pari, l’autofunzione ψn (ξ) eredita questa proprietà. Ciò fa parte di un risultato più generale, il teorema dei nodi, e deriva dal fatto che il potenziale V (x) è esso stesso pari. In conclusione l’espressione per le funzioni d’onda normalizzate, tornando alla variabile x, si dimostra essere la seguente: 1 ψn (x) = √ 2n n! mω 1/4 π~ r mωx2 mω Hn exp − x 2~ ~ Si dimostra inoltre che esiste un’espressione chiusa per i polinomi di Hermite: n 2 d 2 Hn (x) = (−1)n ex e−x . n dx (5.2.15) (5.2.16) Nella trattazione effettuata in questa tesi si ridefinisce la funzione d’onda, rispetto alle coordinate adimensionali, come ψ̃n (ξ) = ~ mω 1/4 ψn (ξ) = 2 ξ 1 √ exp − Hn (ξ) 1 2 π 4 2n n! (5.2.17) e si confronta questa con i risultati delle simulazioni numeriche, omettendo d’ora in avanti la ∼. 5.2.2 Soluzione numerica Anche per il potenziale armonico si sono utilizzati i due metodi basati sul formalismo del tempo immaginario per ricercare il solo stato fondamentale, mentre la procedura di shooting è stata adoperata per cercare i primi 5 livelli energetici. Nel metodo di splitting degli operatori, il dominio di simulazione è stato fissato a [−5, 5] e si è campionata la funzione d’onda in N = 200 punti equispaziati. Tale regione è stata scelta abbastanza ampia da racchiudere con buona approssimazione la funzione d’onda, sapendo però che essa tendesse ad annullarsi solo per |x| → ∞. Il time-step è stato fissato a ∆t = 10−2 e si è effettuata una simulazione lunga t = 200∆t. La funzione d’onda iniziale non è stata scelta gaussiana come negli altri due casi, in quanto era già noto che questa fosse la forma esatta della soluzione, ma si è scelto di fissarla ad una funzione seno avente periodo pari a due volte la lunghezza della regione di simulazione, in modo da verificare l’efficacia del metodo anche in questa situazione. Per il metodo di diffusione Montecarlo non è stato invece necessario modificare le impostazioni di simulazione rispetto al caso precedente. La regolarità del potenziale ha inoltre permesso di ottenere risultati molto più accurati anche sui bordi del dominio di simulazione. I valori di E0 ottenuti con i due metodi sono presentati in Tabella 5.3 mentre le relative autofunzioni sono in Figura 5.3. Come per la buca di potenziale, il metodo di shooting è stato utilizzato per la ricerca dello stato fondamentale e dei primi quattro livelli eccitati, utilizzando lo stesso numero di step spaziali, ma su un dominio più esteso x ∈ [−5, 5]. I risultati per le energie sono riportati in Tabella 5.4 mentre le autofunzioni sono mostrate in Figura 5.4. 39 Capitolo 5: Applicazioni 1 ψ0o.s. ψ0m.d. φ0 V (x) 0.8 ψ(ξ) 0.6 0.4 0.2 0 −5 −4 −3 −2 −1 0 1 2 3 4 5 ξ Figura 5.3: Stato fondamentale dell’oscillatore armonico, confronto tra i risultati numerici e la funzione esatta. Con ψ0o.s. si indica la soluzione del metodo di splitting degli operatori e con ψ0m.d la soluzione del metodo Montecarlo, mentre φ0 rappresenta la soluzione esatta. E0 E0 teorico Discrepanza Operator splitting 0.503 0.6 % Montecarlo 0.499 1 2 1 2 0.2 % Tabella 5.3: Risultati dei metodi di splitting e di diffusione Montecarlo per lo stato fondamentale E0 dell’oscillatore armonico 5.3 Oscillatore quartico L’oscillatore quartico è descritto dal potenziale V (x) = kx4 . (5.3.1) Rappresenta quindi una naturale estensione dell’oscillatore armonico a forze che sono proporzionali alla terza potenza della deviazione rispetto alla posizione di equilibrio. Per questo potenziale non esiste una soluzione analitica all’equazione di Schrödinger e si deve necessariamente procedere con metodi approssimati. 5.3.1 Soluzione con metodo variazionale Data la somiglianza di questo potenziale con quello dell’oscillatore armonico ci si aspetta che l’approccio variazionale possa portare a buoni risultati. Il metodo si basa sul fatto che il valore atteso dell’energia in un qualsiasi stato non possa essere 40 Capitolo 5: Applicazioni 1 ψ(ξ) 0.5 0 −0.5 ψ1 ψ2 ψ3 −1 −5 −4 −3 −2 −1 0 1 2 3 4 5 ξ Figura 5.4: Stato fondamentale e primi due stati eccitati dell’oscillatore armonico ottenute con il metodo di Shooting. Le linee continue rappresentano le autofunzioni esatte E0 E1 E2 E3 E4 Shooting 0.50009 1.50006 2.5003 3.5001 4.5005 Teorico 1 2 3 2 5 2 7 2 9 2 Discrepanza 0.019 % 0.004 % 0.012 % 0.004 % 0.01 % Tabella 5.4: Livelli energetici ottenuti con il metodo di Shooting per l’oscillatore armonico mai minore dell’energia dello stato fondamentale. Ciò si può vedere facilmente andando a valutare il valore atteso di H nello stato |ψi e scrivendo l’Hamiltoniano attraverso la rappresentazione spettrale: in quanto En ≥ E0 ∀n. hψ|H|ψi = E[|ψi] = hψ|ψi +∞ P n=0 En |hψ|φn i| hψ|ψi 2 ≥ E0 (5.3.2) Se si sceglie quindi una funzione d’onda iniziale che dipenda da un insieme di parametri (α, β, ...) è possibile minimizzare il funzionale E[ψ(x)] rispetto a questo insieme di parametri per ottenere una buona approssimazione del valore dell’energia dello stato fondamentale. Non è possibile però sapere quanto si sia vicini e ciò dipende totalmente da quanto buono sia l’ansatz per la funzione d’onda iniziale. Se si parte da una funzione d’onda che vive, a prescindere dal valore dei parametri, in un sottospazio che sia ortogonale a φ0 , allora al più si potrà avere E[ψ(x)] = E1 , se invece viene effettuata una buona scelta è possibile avvicinarsi molto al valore dell’energia dello stato fondamentale. In questo caso il metodo dovrebbe portare a buoni risultati in quanto è ragionevole supporre 41 Capitolo 5: Applicazioni che la funzione d’onda per lo stato fondamentale dell’oscillatore quartico non abbia una forma funzionale molto diversa da quella dello stato fondamentale dell’oscillatore armonico. L’ansatz che viene fatto è quindi ψ(x, α) = e− dove α, che nel caso dell’oscillatore armonico vale αx2 2 mω ~2 , , (5.3.3) è un parametro variazionale. Se consideriamo una funzione iniziale normalizzata: α 14 αx2 e− 2 ψ(x, α) = π (5.3.4) Il funzionale da minimizzare diventa: r Z 2 2 ~2 d2 α − αx 4 − αx 2 2 − e + kx dx e E(α) = π R 2m dx2 (5.3.5) Che può essere integrato semplicemente in quanto somma di integrali gaussiani. Facendo riferimento ai risultati dell’Appendice C si trova: E(α) = 3km + ~2 α3 4mα2 (5.3.6) Valutando il punto di minimo di questa funzione di α e considerando l’unica soluzione reale dell’equazione, si ha: α∗ = 6km ~2 31 E ∗ = E(α∗ ) = , 3 4 3k~4 4m2 13 . (5.3.7) Anche in questo caso è utile introdurre le coordinate adimensionali: ξ= 5.3.2 mk ~2 61 x ε= m √ k~2 23 E (5.3.8) Soluzione numerica Per l’analisi di questo potenziale si è proceduto come per l’oscillatore armonico, riducendo la regione di simulazione all’intervallo [−3.5, 3.5], in quanto essendo il potenziale maggiormente “confinante” su intervalli di ordine 1, ci si attende una funzione d’onda più concentrata attorno all’origine. I risultati per l’energia dello stato fondamentale relativi allo splitting degli operatori e alla diffusione Montecarlo sono mostrati in Tabella 5.5 mentre le relative autofunzioni sono presentate in Figura 5.5, in cui è anche mostrata l’autofunzione ottenuta con il metodo variazionale, che quindi non va intesa come la soluzione esatta del problema. Si vede inoltre che l’energia trovata numericamente è in entrambi i casi minore della stima variazionale, in accordo con quanto detto riguardo le possibilità di questo metodo. Anche per il metodo di shooting si è proceduto come nel caso dell’oscillatore armonico, integrando numericamente la funzione d’onda nel dominio [−3, 3]. I risultati ottenuti in questo caso per gli stati eccitati non possono essere però confrontati con delle energie di riferimento teoriche. Infatti per ricavare l’energia degli stati eccitati usando un approccio variazionale bisognerebbe cercare 42 Capitolo 5: Applicazioni 1 ψ0o.s. ψ0m.d. φvar 0 V (x) 0.8 ψ(ξ) 0.6 0.4 0.2 0 −3 −2 −1 0 1 2 3 ξ Figura 5.5: Stato fondamentale dell’oscillatore quartico, confronto tra i risultati numerici e la soluzione variazionale. Con ψ0o.s. si indica la soluzione del metodo di splitting degli operatori e con ψ0m.d la soluzione del metodo Montecarlo, mentre φvar 0 rappresenta la soluzione variazionale. E0 E0 variazionale Operator splitting 0.6806 0.6814 Montecarlo 0.669 0.6814 Tabella 5.5: Risultati dei metodi di splitting e di diffusione Montecarlo per lo stato fondamentale E0 dell’oscillatore quartico lo stato fondamentale di nuovi Hamiltoniani ottenuti proiettando via dallo spazio le autofunzioni dei livelli inferiori. Tali autofunzioni sono però approssimate e non è noto quanto siano lontane dai risultati esatti, quindi anche i nuovi Hamiltoniani sono approssimati: ciò fa sı̀ che l’errore commesso con il metodo si accumuli in maniera sostanziale man mano che si cercano i risultati relativi a livelli più eccitati. È inoltre più difficile effettuare un ansatz per le autofunzioni, il che rende indispensabile il ricorso a un metodo numerico come quello utilizzato. I risultati sono mostrati in Figura 5.6 e in Tabella 5.6. E0 E1 E2 E3 E4 Shooting 0.6681 2.3938 4.6974 7.3361 10.2456 Variazionale 0.6814 / / / / Tabella 5.6: Livelli energetici ottenuti con il metodo di Shooting per l’oscillatore quartico Dalla separazione tra i livelli energetici si intuisce come lo spettro abbia una dipendenza da 43 Capitolo 5: Applicazioni 1 ψ(ξ) 0.5 0 −0.5 −1 −3 ψ1 ψ2 ψ3 −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3 ξ Figura 5.6: Stato fondamentale e primi due livelli eccitati ottenute con il metodo di Shooting per l’oscillatore quartico. n intermedia tra quella dell’oscillatore armonico (En ∝ n) e quella della buca di potenziale (En ∝ n2 ). Ciò non sorprende in quanto il potenziale V (x) = x2n converge puntualmente al potenziale della buca infinita per n → ∞, nel senso che converge a 0 per x ∈ (−1, 1) e diverge per x ∈ (−∞, −1), x ∈ (1, +∞), quindi è intuitivo aspettarsi che ogni livello energetico dell’oscillatore quartico abbia un valore compreso tra il rispettivo livello della buca di potenziale e quello dell’oscillatore armonico. 44 Conclusioni Il formalismo del tempo immaginario introdotto nel Capitolo 1, ha permesso di trasformare il problema della ricerca dello stato fondamentale in un problema di evoluzione temporale per la funzione d’onda. Nello specifico la risoluzione numerica dell’equazione di Schrödinger è equivalente alla valutazione numerica del propagatore lungo il tempo immaginario. All’interno di questo lavoro sono stati analizzati due metodi di risoluzione di questo tipo, lo splitting degli operatori e la diffusione Montecarlo. Entrambi i metodi hanno permesso di ottenere risultati in accordo entro il 2% con quelli esatti per la buca di potenziale e l’oscillatore armonico. Il vantaggio del metodo Montecarlo rispetto a quello di splitting è dato dalla naturalità con cui esso può essere esteso ad un numero di dimensioni maggiore di uno, mentre nel contesto di questa tesi, in cui sono stati esaminati solo problemi unidimensionali, i due metodi si sono dimostrati equivalenti in quanto a versatilità e tempo necessario per giungere alla soluzione. Il metodo di Shooting è stato invece utilizzato per determinare i primi cinque livelli energetici per entrambi i potenziali e si è dimostrato il più preciso dei tre, permettendo di ottenere risultati in accordo entro lo 0.02% con quelli esatti. Questo metodo inoltre permette di ottenere ogni livello eccitato con uno sforzo computazionale equivalente a quello necessario per lo stato fondamentale. I tre metodi sono poi stati utilizzati per studiare l’oscillatore quartico portando a risultati consistenti tra loro e con l’approssimazione variazionale. i Appendice A: Integrali Gaussiani In questa sezione verranno mostrati i risultati per alcuni integrali gaussiani che compaiono all’interno di questo lavoro. Si assumerà noto il risultato: Z +∞ √ 2 dx e−x = π (5.3.9) −∞ Il primo integrale che verrà analizzato, utilizzato nel ricavare la forma del propagatore per una particella libera, è il seguente: I= Z +∞ dx e−αx 2 +βx . (5.3.10) −∞ Esso può essere risolto riconducendolo all’integrale di Gauss. Infatti completando il quadrato all’esponente ed effettuando un cambiamento di variabile si ha: I= Z +∞ dx e−αx 2 +βx −∞ ! √ 2 β √ β β 2 y= αx+ 2√α dx exp − = αx + √ = + 2 α 4α −∞ r 2 Z +∞ 2 π 1 β β −y 2 = √ exp . exp dy e = α 4α α 4α −∞ Z +∞ (5.3.11) Nell’applicazione del metodo variazionale all’oscillatore quartico è invece necessario risolvere degli integrali nella forma: I′ = Z +∞ 2 dx x2n e−αx . (5.3.12) −∞ Il termine x2n può essere considerato come ottenuto da n derivazioni successive della funzione esponenziale rispetto al parametro α. Si vede che è possibile portare fuori dal segno di integrale la derivata e scrivere: Z +∞ r √ n n π π(2n + 1)!! − 2n+1 n d −αx2 ′ n d = = (−1) α 2 dx e I = (−1) n dαn dα α 2n −∞ ii (5.3.13) Appendice B: Propagatore per una particella libera Ci si occuperà ora di determinare esplicitamente il propagatore per una particella libera per cui V (x) = 0: ! iP̂ 2 (t − t0 ) K(x, t; x0 , t0 ) = hx|K̂(t, t0 )|x0 i = hx|exp − |x0 i . 2m~ (5.3.14) Appare evidente che la scelta della rappresentazione degli impulsi renderebbe immediata la valutazione dell’operatore, che è diagonale in tale base, quindi si inserisce la relazione di completezza R dp |pi hp| = I: ! Z iP̂ 2 (t − t0 ) dp hx|pi hp|exp − K(x, t; x0 , t0 ) = |x0 i = 2m~ R (5.3.15) Z ip2 (t − t0 ) hx|pi hp|x0 i . = dp exp − 2m~ R Gli ultimi due termini sono (a meno dell’operazione di coniugazione) le autofunzioni dell’impulso espresse nella rappresentazione delle coordinate e quindi delle onde piane: px 1 exp i hx|pi = √ ~ 2π~ (5.3.16) Si ottiene quindi: p ip2 (t − t0 ) + i (x − x0 ) K(x, t; x0 , t0 ) = dp exp − 2m~ ~ R Z (5.3.17) Questo integrale può essere risolto facilmente, facendo riferimento ai risultati dell’Appendice A, e vale: K(x, t; x0 , t0 ) = r m exp 2πi~(t − t0 ) iii im (x − x0 )2 2~ (t − t0 ) (5.3.18) Bibliografia [1] E. Schrödinger Quantisierung als Eigenwertproblem, Annalen der Physik 79, 489 (1926) [2] G. Nardulli Meccanica Quantistica, Vol. 1: Principi (Franco Angeli, Milano, 2011) [3] A. Messiah Quantum Mechanics (Dover Publications, New York, 2014) [4] L. S. Schulman Techniques and Applications of Path Integration (Dover Publications, New York, 2005) [5] J.J. Sakurai, Jim Napolitano Meccanica quantistica moderna (Zanichelli editore, Bologna, 2014) [6] G. Nardulli Meccanica Quantistica, Vol. 2: Applicazioni (Franco Angeli, Milano, 2011) [7] A. Einstein Investigations on The Theory Of the Brownian Movement (Dover Publications, New York, 1956) [8] W. M. C. Foulkes, L. Mitas, R. J. Needs , G. Rajagopal Quantum Monte Carlo simulations of solids , Rev. Mod. Phys. 73, 33 (2001) [9] I. Kosztin, B. Faber, K. Schulten Introduction to the Diffusion Monte Carlo Method, Am. J. Phys. 64, 633 (1996) iv Ringraziamenti Questa tesi rappresenta l’epilogo di un lungo percorso e molte persone vanno ringraziate per il supporto, diretto o indiretto, che mi hanno fornito. In primo luogo ringrazio il prof. Pepe per la disponibilità che mi ha sempre mostrato, per i suoi preziosi consigli, e soprattutto per il rigore con cui ha controllato la stesura di questo lavoro. Ringrazio il mio secondo relatore, il prof. Facchi, per gli utili suggerimenti e per i numerosi spunti che ha fornito al mio animo curioso durante il suo corso al secondo anno. In secondo luogo ringrazio i miei genitori, che non mi hanno fatto mancare nulla durante questo percorso e che non hanno mai ostacolato le mie scelte e le mie decisioni. Ringrazio anche tutti i miei parenti, in particolare i miei nonni, che assieme a mio padre e mia madre hanno sempre creduto in me. Un ringraziamento particolare va poi a tutti i miei amici e colleghi. Ringrazio Sara che, a prescindere da come siano andate le cose, è stata la più grande spinta durante questi anni a scoprire e a essere curioso. Con lei ho condiviso, più che con ogni altro, il mio emozionarmi per tutte le cose interessanti di cui venivo a conoscenza o che simulavo al computer. Ringrazio Giovanni, colui che ha più di tutti incrementato il mio ego in questi anni e l’unico rivale che davvero temo. Con lui ho condiviso tante piacevoli discussioni e mi ha dato il supporto necessario quando ce n’è stato bisogno. È tra le persone dalla più grande onestà intellettuale che io conosca e sono sicuro che diventerà un grande fisico. Ringrazio Alessandro, il mio ”sosia” che, nonostante le differenze di gusti riguardo le materie sperimentali, è sempre stata la persona con cui ho avuto la migliore intesa durante questi anni. Gli auguro il meglio per il suo futuro da fisico e mi scuso per essere stato poco presente negli ultimi mesi. Ringrazio poi i colleghi della sala studio, compagni di numerose colazioni al bar e di tanti bei momenti. In particolare ringrazio Meme, per avermi ascoltato (per non dire sopportato) sempre con grande pazienza e per aver condiviso con me molte cose interessanti, nell’ambito della fisica e soprattutto al di fuori. Ringrazio poi Arturo e Claudio, che hanno sempre riflettuto attentamente su ogni mio dubbio e hanno sempre fornito ottimi consigli o spunti di riflessione, anche per lo sviluppo di questa tesi. A tutti loro, anche quelli che non ho nominato nello specifico, nonostante v la totale disapprovazione che questa cosa provocherà, dedico la seguente formula: +∞ X n=1 n ∼ ζ(−1) = − 1 12 Ringrazio infine Clarissa, Cristina ed Erica, da poco nella mia vita ma che hanno già sopportato a lungo il mio ripetere per gli esami e il mio raccontare, in maniera decisamente poco concisa, tutte le meraviglie che la fisica e la matematica mi hanno fatto scoprire. vi