APPUNTI PER IL CORSO DI METODI MATEMATICI PER STM Laurea Specialistica in Scienze e Tecnologie dei Materiali Università Ca’ Foscari di Venezia Fantina Madricardo UMR 7618 CNRS - BIOEMCO - ENS, 46, rue d’Ulm, 75230 Paris, France www.biologie.ens.fr/bioemco mail: [email protected] Nota introduttiva Queste sono note sul corso di Metodi Matematici da me tenuto a nell’anno 2007-2008 per la Laurea specialistica in Scienze e Tecnologie dei Materiali. Il corso è pensato per studenti del primo anno della Laurea Specialistica, che abbiano quindi già avuto le nozioni matematiche e fisiche tipiche dei primi anni di un corso di Laurea scientifico. Queste dispense rappresentano una prima stesura degli appunti per il corso, e derivano in parte dalla trascrizione delle note del Prof. Giacometti. Vogliono essere una linea guida a partire dalla quale gli argomenti andranno approfonditi nei testi consigliati. Poichè si tratta di una prima stesura, è molto probabile che queste note contengano diversi errori, quindi sarò molto grata al lettore che me li farà notare. i Ringraziamenti Vorrei ringraziare il Prof. Achille Giacometti per tutto l’aiuto e i consigli che mi ha dato per la preparazione di questo corso, in particolare per le sue note concepite per il corso di Metodi Matematici tenuto l’anno scorso che si ritrovano trascritte in parte di queste dispense. Alcuni argomenti, invece, sono stati tratti dal libro “Mathematical Methods for Physicists” di George B. Arfken e Hans J. Weber e dal libro “Calcolo differenziale e integrale” di Nikolaj S. Piskunov (Editori Riuniti). iii Indice 1 Algebra lineare 1 1.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Indipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.5 Elementi di algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.7 Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.8 Trasformazioni di similitudine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.9 Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.10 Diagonalizzazione di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2 Spazi di Hilbert 27 2.1 Prodotto Scalare e Spazi Pre-Hilbertiani . . . . . . . . . . . . . . . . . . . . . . . 28 2.2 Spazi di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3 Operatori hemitiani e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.4 Operatori unitari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.5 Notazione di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.6 Teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 v vi INDICE 3 Elementi di algebra vettoriale e tensoriale 43 3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2 Prodotto scalare, prodotto vettore e convenzione di Einstein . . . . . . . . . . . . . 46 3.3 Convenzione di Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.4 Calcolo tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.5 Operatori differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.6 Identità vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.7 Teorema di Gauss e significato della divergenza . . . . . . . . . . . . . . . . . . . 58 3.8 Teorema di Stokes e significato del rotore . . . . . . . . . . . . . . . . . . . . . . 62 4 Analisi di Fourier e Funzione δ di Dirac 67 4.1 Idea base dell’espansione in serie di Fourier . . . . . . . . . . . . . . . . . . . . . 67 4.2 La serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.3 Problema delle variabili coniugate . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.4 Vantaggi ed esempi di applicazione delle serie di Fourier . . . . . . . . . . . . . . 74 4.5 Forma complessa delle serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 78 4.6 Trasformata integrale di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.7 La funzione di Dirac e le sue rappresentazioni . . . . . . . . . . . . . . . . . . . . 82 4.8 Proprietà della funzione di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.9 Relazione della funzione di Dirac e la trasformata di Fourier . . . . . . . . . . . . 86 4.10 Teorema di Convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.11 Teorema di Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5 Equazioni Differenziali 93 5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.3 Equazioni differenziali del primo ordine . . . . . . . . . . . . . . . . . . . . . . . 98 5.3.1 99 Equazioni a variabili separabili . . . . . . . . . . . . . . . . . . . . . . . . INDICE vii 5.3.2 Differenziale esatto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.3.3 Equazioni lineari di primo ordine . . . . . . . . . . . . . . . . . . . . . . 102 5.3.4 Equazioni lineari di ordine n . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.4 Separazione delle variabili: equazione di Helmholtz . . . . . . . . . . . . . . . . . 105 5.5 Metodo di Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.6 Equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5.6.1 Equazione di Schrödinger polare: equazione di Legendre . . . . . . . . . . 114 5.6.2 Polinomi di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.6.3 Equazione di Schrödinger radiale: equazione di Bessel . . . . . . . . . . . 119 5.6.4 Soluzione dell’equazione di Schrödinger radiale con il metodo di Frobenius 121 5.7 Punti singolari e limiti di applicabilità del metodo di Frobenius . . . . . . . . . . . 124 5.8 Indipendenza lineare delle soluzioni e metodo del Wronskiano . . . . . . . . . . . 125 5.9 Il problema di Sturm Liuville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5.10 Proprietà generali dell’equazione di Sturm Liuville . . . . . . . . . . . . . . . . . 130 Capitolo 1 Algebra lineare 1.1 Spazi vettoriali Gli spazi vettoriali sono strutture algebriche di grande importanza. Si tratta di una generalizzazione dell’insieme formato da tutti i vettori del piano cartesiano ordinario o dello spazio tridimensionale dotato di un’origine che costituisce l’ambiente nel quale si studiano generalmente i fenomeni della fisica classica. Lo spazio euclideo infatti è uno spazio vettoriale, cosı̀ come sono spazi vettoriali gli importanti spazi di Banach e di Hilbert. La loro importanza per la fisica classica è dovuta al fatto che molte grandezze fisiche (posizione, velocità, accelerazione, forza, ecc.) sono vettori. Ma anche se consideriamo la funzione d’onda ψ che sta alla base della meccanica quantistica, si ha che essa è un vettore di uno spazio di Hilbert. Anche il calcolo tensoriale (il cui tensore fondamentale è il tensore metrico gi j alla base della teoria della relatività) è una estensione del calcolo vettoriale. In particolare gli spazi vettoriali ci saranno molto utili per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Veniamo dunque alla definizione formale. Definizione 1.1.1 (Spazio Vettoriale) Sia C un corpo (ad es. C = R oppure C = C). Uno spazio vettoriale su C è un insieme V in cui siano definite le operazioni: + : V × V −→ V, · : C × V −→ V, e 1 (1.1) 2 Capitolo 1. Algebra lineare con le seguenti proprietà per l’addizione +: 1. u + (v + w) = (u + v) + w (proprietà associativa)∗ ; 2. u + v = v + u (proprietà commutativa); 3. ∃0V ∈ V tale che 0V + v = v + 0V = v (esistenza dell’elemento neutro per l’addizione); 4. Per ogni v ∈ V, ∃ − v ∈ V t.c. v + (−v) = 0V (esistenza dell’opposto); Per ogni u, v ∈ V, mentre per l’operazione di moltiplicazione per uno scalare ·: 1. α(βv) = (αβ)v; 2. (α + β)v = αv + βv; 3. α(v + w) = αv + αw; 4. 1 · v = v; Per ogni u, v, w ∈ V e ∀α, β ∈ C. Detto in modo intuitivo uno spazio vettoriale è una collezione di oggetti, chiamati ”vettori”, che possono essere sommati e riscalati. Oltre ai vettori geometrici ci sono molti esempi di spazi vettoriali, ad esempio: 1. l’insieme delle n-uple reali Rn ; 2. l’insieme dei polinomi a coefficienti reali R[X]; 3. l’insieme T delle funzioni f : R −→ R, derivabili almeno due volte che soddisfino la condizione f ′′ + f = 0. ∗ Si noti ad esempio che la sottrazione, la divisione non sono associative! Capitolo 1. Algebra lineare 3 1.2 Indipendenza lineare e basi Definizione 1.2.1 (Indipendenza lineare) Dato uno spazio vettoriale V su C i vettori v1 , · · · , vn ∈ V si dicono linearmente indipendenti se n X αi vi = 0 x=1 ⇒ αi = 0 ∀i = 1, . . . , n. (1.2) Questa definizione è intuitiva, infatti, se non fosse cosı̀, esisterebbe un certo α j , 0 tale che vj = − n 1 X αi vi , α j i, j (1.3) quindi v j si potrebbe scrivere come una combinazione lineare dei vi con i , j. Definizione 1.2.2 (Base) Sia V uno spazio vettoriale su C, si dice base di V un insieme di generatori linearmente indipendenti di V. Teorema 1.2.1 Si ha che se V = {ê1 , . . . , ên } è una base di V allora ogni vettore x di V si scrive in modo unico come combinazione lineare di elementi di V: x= n X xi êi . (1.4) i=1 Dim. il fatto che ogni vettore x di V si possa scrivere come nell’eq. (1.4) segue dalla definizione della base B, mentre che si possa scrivere in modo unico si dimostra come segue: supponiamo che ciò non sia vero, questo equivale a dire che si può scrivere: x = n X xi êi , = n X x′i êi , i=1 (1.5) i=1 ma questo significa che Pn i=1 (xi − x′i )êi = 0. Ma, poiché ê1 , . . . , ên sono non nulli, deve essere allora x′i = xi , quindi la rappresentazione è unica 4 Capitolo 1. Algebra lineare Si noti comunque che il teorema afferma che data una certa base la sua rappresentazione rispetto ad essa è unica, non che non si possono avere più basi per lo stesso spazio vettoriale. Un risultato fondamentale degli spazi vettoriali è che ogni spazio V ammette una base e che ogni base ha lo “stesso numero di elementi”.† Definizione 1.2.3 Sia V uno spazio vettoriale (finitamente generato) su C. Si dice dimensione di V il numero di elementi di una base di V e si indicherà con dimC V. 1.3 Applicazioni lineari Definizione 1.3.1 (Applicazione lineare) Siano V e W due spazi vettoriali su C, un’applicazione φ:V →W (1.6) si dice applicazione lineare o omomorfismo di spazi vettoriali se ∀v, v′ ∈ V e ∀α, β ∈ C si ha φ(αv + βw) = αφ(v) + βφ(w). (1.7) In particolare si dice isomorfismo un’applicazione lineare biettiva. L’isomorfismo in altre parole conserva le proprietà dell’operazione e la corrispondenza tra lo spazio di partenza e quello di arrivo è biunivoca. Un esempio di isomorfismo sono le rotazioni in R2 R: R2 −→ R2 (x, y) 7−→ (x′ , y′ ) dove x′ = cos θx + sin θy e y′ = − sin θx + cos θy. † L’ultima frase è tra virgolette dal momento che mentre è chiaro che cosa significa nel caso di spazi vettoriali a dimensione finita, lo è meno nel caso che lo spazio sia a dimensioni infinite. Capitolo 1. Algebra lineare 5 Definizione 1.3.2 Siano V e W due spazi vettoriali sul campo C. Ad un’applicazione lineare φ : V → W, possiamo associare due sottospazi vettoriali: il nucleo di φ l’immagine di φ kerφ = {v ∈ V|φ(v) = 0}; imφ = {w ∈ W|φ(v) = w}; Si chiamano rispettivamente rango rkφ e nullità nullφ dell’applicazione lineare φ le dimensioni dell’immagine e del nucleo. Osservazione 1.3.1 Siano V e W due spazi vettoriali su C, un’applicazione lineare φ : V → W è 1. φ è iniettiva se, e solo se, kerφ = h0i; 2. φ è suriettiva se, e solo se, imφ = W; 1.4 Matrici Definizione 1.4.1 (Matrice) Fissati due interi positivi m ed n chiameremo matrice m×n ad elementi in C una tabella di scalari del tipo a11 · · · . A = .. am1 · · · a1n .. . amn = ai j 1≤i≤n 1≤ j≤m dove ai j indica l’elemento della i-esima riga e della j-esima colonna. In generale si ha che l’insieme Mm×n (C) delle matrici m×n, ad elementi nel corpo C, è anch’esso uno spazio vettoriale (con le operazioni di somma e prodotto per scalari, definite elemento per elemento) e che le trasformazioni lineari possono essere rappresentate da una matrice. Sono trasformazioni lineari anche le operazioni di differenziazione e di integrazione operanti su un particolare spazio vettoriale detto di Hilbert H, come vedremo. 6 Capitolo 1. Algebra lineare Definizione 1.4.2 Siano V e W due spazi vettoriali di dimensione finita su C e siano V = {v1 , ..., vn } e W = {w1 , ..., wm } basi dei rispettivi spazi. Data un’applicazione lineare φ : V → W, si chiama matrice di φ, rispetto alle basi V e W, la matrice avente ordinatamente come colonne le componenti dei vettori φ(v1 ), · · · , φ(vn ), rispetto alla base W di W; ovvero, se φ(v1 ) = a11 w1 + +am1 wm .. . φ(vn ) = a1n w1 + +amn wm la matrice corrispondente è a11 · · · . αV,W (φ) = .. am1 · · · a1n .. . amn Esempio: Nel caso delle rotazioni viste prima R: . R2 −→ R2 (x, y) 7−→ (x′ , y′ ) dove x′ = cos θx + sin θy e y′ = − sin θx + cos θy, la matrice corrispondente sarà: x′ cos θ sin θ = y′ − sin θ cos θ x . y dove la matrice è la matrice di rotazione. Applicando tale matrice ad un vettore di coordinate (x,y) nel piano si ottiene un vettore di coordinate (x’, y’) ruotato di un angolo θ rispetto a quello iniziale. Si noti che in questo caso lo spazio di partenza e quello di arrivo hanno la stessa dimensione (nel caso delle rotazioni si tratta dello stesso spazio R2 ) e la matrice ha lo stesso numero di righe e di colonne. Definizione 1.4.3 Una matrice con lo stesso numero di righe e di colonne si dice matrice quadrata. Capitolo 1. Algebra lineare 7 Definizione 1.4.4 (Prodotto tra matrici) Siano date le matrici A ∈ Mm×n (C) e B ∈ Mn×t (C), il prodotto righe per colonne della matrice A con la matrice B è la matrice AB ∈ Mm×t (C), le cui colonne sono il prodotto scalare delle righe della matrice A per le colonne della matrice B. Ovvero l’elemento ci j della matrice prodotto è la somma dei prodotti degli elementi della i-esima riga di A per i corrispondenti elementi della j-esima colonna di B: A = (ahk )1≤h≤m , B = (brs )1≤r≤n , AB = (ci j )1≤i≤m , 1≤k≤n 1≤s≤t 1≤ j≤t allora ci j = n X l=1 ail bl j , qualunque siano (i, j) con 1 ≤ i ≤ m, 1 ≤ j ≤ t. La matrice prodotto ha tante righe quante sono le righe di A e tante colonne quante sono le colonne di B. Osservazione 1.4.1 Il prodotto tra matrici NON È SEMPRE eseguibile. Se è possibile eseguire il prodotto AB non è detto che si possa eseguire il prodotto BA e quindi bisogna fare attenzione all’ordine in cui si esegue la moltiplicazione. Se due matrici sono quadrate e della stessa dimesione si può eseguire sia il prodotto AB che il prodotto BA ottenendo una matrice quadrata della stessa dimesione, anche in questo caso però il prodotto non è in generale commutativo, cioè date due matrici A e B in generale: AB , BA (1.8) Osservazione 1.4.2 Il prodotto tra matrici in termini di applicazioni lineari corrisponde alla composizione di due applicazioni lineari, ovvero il prodotto tra due matrici è la matrice della composizione delle due applicazioni lineari che corrispondono ai due fattori. Precisamente, dati tre spazi vettoriali U, V, W sul corpo C e le applicazioni lineari ψ : U → V e φ : V → W e fissate le basi U = {u1 , ..., un } di U, V = {v1 , ..., vn } di V e W = {w1 , ..., wm} di W, le matrici B = αU,V (ψ), 8 Capitolo 1. Algebra lineare A = αV,W (φ) e C = αU,W (φ ◦ ψ), sono legate dalla relazione C = AB, ovvero αU,W (φ ◦ ψ) = αV,W (φ)αU,V (ψ) (1.9) Esempi: Date le matrici A e B: 1 2 3 A = 4 5 6 7 8 9 9 8 7 B = 6 5 4 3 2 1 , , si calcoli AB, BA e A2 . Risp. 30 AB = 84 138 24 69 114 18 54 , 90 90 BA = 54 18 114 69 24 138 84 , 30 30 2 A = 66 102 36 81 126 42 96 150 Definizione 1.4.5 Sia A ∈ Mn×n (C) si definisce matrice inversa della matrice A la matrice A−1 tale che AA−1 = I = A−1 A, dove I è la matrice identità che ha tutti gli elementi nulli tranne quelli sulla diagonale che sono uguali a 1: A = 1 0 ··· 0 1 ··· .. .. . . 0 0 ··· 0 0 .. . . 1 Anche in questo caso la matrice inversa corrisponde all’applicazione lineare inversa. Osservazione 1.4.3 Se la matrice A è lineare, è lineare anche A−1 . (Dimostrare per esercizio). Capitolo 1. Algebra lineare 9 N.B.: È importante notare che non è detto che A−1 esista! Infatti l’esistenza della matrice inversa dipende dalle proprietà della matrice A ed è necessario che sia almeno det A , 0 (vedi paragrafo 1.6). In particolare se le matrici A e B sono invertibili, si ha che (AB)−1 = B−1 A−1 (1.10) 1.5 Elementi di algebra delle matrici In seguito elenchiamo una serie di matrici particolari e alcune loro proprietà. 1. Matrice diagonale A = a11 0 .. . 0 ··· 0 a22 · · · .. . 0 .. . 0 0 ··· ann ; 2. Matrice idempotente (A)2 = A; (1.11) Esempio: 1 −1 , A = 0 0 1 −1 1 −1 1 −1 = A. = A2 = 0 0 0 0 0 0 3. Matrice trasposta Si dice matrice trasposta della matrice n × n A la matrice in cui sono invertite le righe e le colonne di A, ovvero: AT = Ã : (AT )i j = (A) ji . (1.12) 10 Capitolo 1. Algebra lineare Ad esempio se A è una matrice 3 × 3: a11 a12 a13 A = a21 a22 a23 a31 a32 a33 ⇒ a11 a21 a31 AT = a12 a22 a32 a13 a23 a33 . Si ha in generale: (AB)T = BT AT . (1.13) 4. Matrice simmetrica Una matrice è si dice simmetrica se è possibile scambiare le righe con le colonne senza che cambi nulla, ovvero: (A)i j = (A) ji ⇒ AT = A. (1.14) Questa simmetria negli indici si traduce nel fatto che il numero di elementi indipendenti si riduce. Nel caso di una matrice 3 × 3 solo gli elementi sulla diagonale e quelli al di sopra (o al di sotto) di essa sono linearmente indipendenti: a11 a12 a13 A = a12 a22 a23 a13 a23 a33 , perciò solo 3 + 2 + 1 = 6 elementi sono indipendenti. Nel caso di una matrice n × n A = a11 a12 · · · a12 a22 · · · .. .. . . a1n a12 · · · a1n a2n .. , . a1n Capitolo 1. Algebra lineare 11 si ha che il numero di elementi indipendenti è n + n − 1 + · · · + 3 + 2 + 1 = Pn k=1 k = n(n + 1)/2. 5. Matrice antisimmetrica (A)i j = −(A) ji (A)ii = −(A)ii ⇐⇒ ⇒ AT = −A, (1.15) (A)ii = 0. (1.16) è una matrice a diagonale nulla a12 · · · 0 −a 0 ··· 12 A = . .. .. . −a1n −a12 · · · a1n a2n .. , . Per una matrice antisimmetrica il numero di coefficienti indipendenti sarà Pn−1 k=1 = (n − 1)n/2. Proprietà: Ogni matrice quadrata M, essa può essere pensata come somma di una matrice simmetrica S e di una antisimmetrica A M = S + A. (1.17) Dim. Sia S = 21 (M + M T ), il che significa che (S )i j = 12 [(M)i j + (M T )i j ] = 21 (mi j + m ji ), da cui segue che (S ) ji = (S )i j , quindi la matrice S è simmetrica. Analogamente definiamo A = 12 (M − M T ) implica che (A)i j = 21 [(M)i j − (M T )i j ] = 12 (mi j − m ji ), ovvero (A) ji = −(A)i j il che significa che A è antisimmetrica. q.e.d. 1.6 Determinanti Il determinante è una funzione che associa ad ogni matrice quadrata A uno scalare, generalmente indicato come det(A). Il significato geometrico principale del determinante si ottiene interpretando 12 Capitolo 1. Algebra lineare la matrice quadrata A di ordine n come trasformazione lineare di uno spazio vettoriale a n dimensioni: con questa interpretazione, il valore assoluto di det(A) è il fattore con cui vengono modificati i volumi degli oggetti contenuti nello spazio. Se è diverso da zero, il segno del determinante indica inoltre se la trasformazione A preserva o cambia l’orientazione dello spazio. Diamone innanzitutto la definizione formale: Definizione 1.6.1 (Determinante) Sia l’insieme Mn×n (C) delle matrici n×n, ad elementi nel corpo C si definisce determinante della matrice A ∈ Mn×n (C) la funzione det : Mn×n (C) −→ R A 7−→ det(A) dove det(A) := sgn(σ) X sgn(σ)[a1σ(1) a2σ(2) · · · anσ(n) ]. σ∈S n = n Y X σ∈S n aiσ(i) , (1.18) i=1 (1.19) Nella formula, S n è l’insieme di tutte le permutazioni σ dell’insieme numerico {1, 2, . . . , n} e sgn(σ) denota il segno della permutazione ( σ = +1 se σ è una permutazione pari, −1 se è dispari). Esempio: n = 2 a 11 a12 A = a 21 a22 , In questo caso ci sono due permutazioni dell’insieme {1, 2}, quindi det(A) = a11 a22 − a21 a12 . (1.20) Il valore assoluto di questa espressione è pari all’area del parallelogramma con vertici in (0, 0), (a11 , a21 ), (a12 , a22 ) e (a11 + a12 , a21 + a22 ). Il segno del determinante (se questo è diverso da zero) dipende invece dall’ordine ciclico con cui compaiono i vertici del parallelogramma (il segno Capitolo 1. Algebra lineare 13 è negativo se il parallelogramma è stato ribaltato, e positivo altrimenti). Come spiegato più sotto, questa proprietà geometrica si estende anche in dimensioni maggiori di 2: il determinante di una matrice 3 × 3 è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo stesso procedimento visto. Esempio: n = 3 La generica matrice 3 × 3 è data da: a11 a12 a13 A = a21 a22 a23 a31 a32 a33 , e in questo caso di sono 3! = 6 permutazioni dell’insieme degli indici {1, 2, 3} e si ha det(A) = a11 a22 a33 + a13 a32 a21 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 . (1.21) Proprietà del determinante: • det I = 1; • se B è ottenuta scambiando due righe (o colonne) di A, allora det(B) = − det(A); • se B è ottenuta moltiplicando una riga di A per k, allora det(B) = k det(A); • se B è ottenuta sommando una riga di A ad un’altra, allora det(B) = det(A); • Se due righe (o due colonne) della matrice A sono uguali → det(A) = 0; • una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) ⇔ det(A) = 0; • Se B è ottenuta scambiando una riga (o colonna) con una combinazione lineare di due o più altre righe (o colonne) ⇔ det(B) = det(A); • det(AT ) = det(A); 14 Capitolo 1. Algebra lineare • det(AB) = det(A) det(B) (Teorema di Binet, dim. pg. 181 dell’Arfken). Interpretazione geometrica in 3 dimensioni Se si identifica ciascuna riga come un vettore di componenti rispettivamente: a = (a11 , a12 , a13 ), b = (a12 , a22 , a23 ) c = (a13 , a23 , a33 ), il determinante può essere visto come il prodotto misto tra questi tre vettori (ovvero come il volume del parallelepipedo di lati a, b e c): det(A) = a · (b × c). (1.22) A partire da questa relazione diventa molto semplice dimostrare le proprietà del determinate appena elencate. Il calcolo del determinante tramite le permutazioni degli indici può essere spesso complicato, dato che si basa su una somma di ben n! addendi. Un altro modo di calcolare il determinante è lo sviluppo di Laplace, che è molto utile in particolare per matrici non troppo grandi e contenenti un gran numero di zeri. Si procede scegliendo una riga, la i-esima, e il determinate si ottiene tramite la formula: det(A) = n X ai jCi j , (1.23) j=1 dove Ci j = (−1)( i + j)Mi j è il complemento algebrico dell’elemento di indici (i j), cioè Ci j è data da (−1)i+ j per il minore di ordine n − 1 che è il determinante della sottomatrice che si ottiene dalla matrice A eliminando la riga i-esima e la colonna j-esima. Ovvero: n X det(A) = (−1)i+ j ai j Mi j . (1.24) j=1 Esiste uno sviluppo analogo anche lungo la j-esima colonna. Inversione di una matrice Abbiamo visto che una matrice è una rappresentazione di un’ applicazione che linearmente trasforma gli assi coordinati. Ad esempio una rotazione è una trasformazione lineare. Adesso vogliamo Capitolo 1. Algebra lineare 15 definire la trasformazione inversa, che, se esiste, fa ritornare allo stato iniziale gli assi, ovvero la matrice A−1 tale che AA−1 = A−1 A = I, (1.25) con (A−1 )i j = a−1 i j , dove a−1 ≡ ij C ji , det A (1.26) dove C ji rappresenta il complemento algebrico dell’elemento di indici ( ji) di A, definito sopra, e dove si è assunto che il determinante di A sia diverso da zero. Se det A = 0 la matrice A si dice singolare e non esiste nessuna matrice inversa. Tecnica di eliminazione di Gauss per il calcolo dell’inversa Un altro modo di calcolare l’inversa di una matrice A invertibile è quello di eseguire sulla matrice A una serie operazioni che possono essere del tipo: 1. moltiplicare una riga di A per una costante; 2. sostituire una riga di A con un multiplo di un’altra riga; 3. scambiare due righe tra loro. Queste operazioni vengono applicate ad A fino a che non si ottiene, la matrice I identità. Questa procedura equivale ad applicare ad A una matrice M (che riassume tutte le operazioni viste sopra) tale che MA = I, il che significa che M = A−1 . Se si applica la stessa serie di operazioni alla matrice unitaria I si otterrà proprio l’inversa: MI = M. Vediamo un esempio: 1 2 A = 3 1 , 16 Capitolo 1. Algebra lineare Per praticità scriviamo A e I vicine e applichiamo loro le stesse mosse di Gauss: 1 2 A = 3 1 e 1 0 I = 0 1 , moltiplichiamo la seconda riga di A e I per 1/3 e sostituiamo poi la seconda riga con la prima meno la seconda che motiplichiamo poi per 6/5: 1 2 0 2 1 0 6 −2 5 5 e . Sostituiamo la prima riga con la prima meno la seconda e dividiamo la seconda riga per 2: 1 0 0 1 − 1 5 3 e 5 2 5 − 51 , dove abbiamo trasformato A nell’identità risalendo dunque all’inversa A−1 − 1 5 = 3 5 2 5 − 51 . 1.7 Sistemi di equazioni lineari Una delle più importanti applicazioni dei determinanti è che consentono di stabilire una condizione per l’esistenza di una soluzione per un insieme di equazioni algebriche omogenee (e non). Infatti se supponiamo di avere tre equazioni in tre incognite x1 , x2 , x3 (o più in generale n equazioni in n incognite): a1 x1 + a2 x2 + a3 x3 = 0, b1 x1 + b2 x2 + b3 x3 = 0, c1 x1 + c2 x2 + c3 x3 = 0, (1.27) Capitolo 1. Algebra lineare 17 il problema è determinare le condizioni per cui esistano delle soluzioni non nulle del sistema. Osservazione 1.7.1 Dato un sistema di equazioni lineari omogeneo in n incognite, il sistema ammette soluzioni non nulle se la matrice associata A ∈ Mn×n (C) è tale che det(A) = 0. Intuitivamente usando la notazione a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ), c = (c1 , c2 , c3 ) e x = (x1 , x2 , x3 ), il sistema corrisponde alle tre condizioni: a · x = 0, b · x = 0, (1.28) c · x = 0. In altre parole, perchè ci siano soluzioni, il vettore x deve essere ortogonale ad a, b e c. Questo significa che il sistema ha soluzione se a, b, c giacciono sullo stesso piano, ovvero se il volume del parallelepipedo associato ai tre vettori è nullo. Questo equivale a dire che il determinante della matrice che ha a, b, c come righe deve essere nullo. Supponiamo che c giaccia sul piano individuato da a e b, quindi per le condizioni di ortogonalità viste prima deve essere x ∼ a × b, ovvero: x ∼ (a1 b2 − a2 b1 )eˆ3 − (a1 b3 − a3 b1 )eˆ2 + eˆ1 (a2 b3 − a3 b2 )eˆ1 . (1.29) Prendendo il rapporto tra due incognite, assumendo ad es. x3 , 0, si ha: x1 x3 x2 x3 = = (a2 b3 − a3 b2 ) , (a1 b2 − a2 b1 ) (a3 b1 − a1 b3 ) . (a1 b2 − a2 b1 ) (1.30) 18 Capitolo 1. Algebra lineare Questa è la regola di Kramer per un sistema di equazioni algebriche omogeneo. Consideriamo ora il sistema non omogeneo a due equazioni e due incognite: a1 x1 + a2 x2 = a3 , b1 x1 + b2 x2 = b3 . Questo sistema è lo stesso dell’eq. (1.28), se si prende x3 = −1 e c = 0. Allora con x = (x1 , x2 , −1) possiamo ripetere lo stesso ragionamento fatto prima. Deve essere anche in questo caso x ∼ a × b e quindi: x1 = a3 a2 b3 b2 , a1 a2 b1 b2 x2 = a1 a3 b1 b3 a1 a2 b1 b2 , dove abbiamo usato il fatto che x3 = −1. In generale la regola di Kramer per un sistema Ax = b dove A ∈ Mn×n (C) è data da: xi = det(Ai ) , det A (1.31) dove Ai è la matrice formata sostituendo le i-esima colonna di A con la colonna b dei termini noti. In generale per un sistema non omogeneo di n equazioni in m incognite vale il seguente teorema: Teorema 1.7.1 (Teorema di Rouché-Capelli) Il sistema di equazioni lineari Σ : Ax = b, con A ∈ Mm×n (C) e b ∈ C m , ha soluzione se, e solo se, rk(A|b) = rkA. In tal caso, ogni soluzione del sistema Σ si ottiene sommando una soluzione particolare del sistema, ogni soluzione del sistema omogeneo associato Σ′ : Ax = 0. Dal momento che il rango di una matrice corrisponde al numero di colonne (o di righe) linearmente Capitolo 1. Algebra lineare 19 indipendenti, ciò significa che il vettore b non è linearmente indipendente dalle colonne di A, ovvero può essere espresso come combinazione lineare delle colonne di A. La tecnica di eliminazione di Gauss Analogamente a quanto visto per il calcolo dell’inversa di una matrice, uno dei metodi più efficaci di risoluzione dei sistemi di equazioni lineari consiste nella cosiddetta ”tecnica di eliminazione”, tradizionalmente attribuita a Gauss. La tecnica consiste nel fare ”operazioni elementari” sulle equazioni di un sistema lineare in modo da ridurre il numero di coefficienti non nulli senza modificarne le soluzioni. Queste cosiddette operazioni elementari sono di tre tipi: 1. scambio di due equazioni in un sistema lineare (e quindi di due righe nella corrispondente matrice); 2. moltiplicazione di tutti i coefficienti di un’equazione (e quindi di una riga della corrispondente matrice) per una costante diversa da zero; 3. sostituzione di un’equazione con la somma della stessa con un multiplo dell’equazione che la precede (e quindi sostituire una riga della corrispondente matrice con la somma della riga stessa con un multiplo della riga soprastante). Iterando opportunamente queste operazioni si può ottenere un sistema lineare che abbia le stesse soluzioni del sistema di partenza, ma con un maggior numero di coefficienti uguali a zero e quindi un sistema per cui sia più facile scrivere le soluzioni. In altre parole, il metodo di eliminazione di Gauss, consiste nell’applicare operazioni elementari sulle righe di un sistema lineare, fino ad ottenere un sistema che abbia una matrice a scalini, ovvero una matrice A tale che, per ogni indice di riga i, esista un indice di colonna j ≥ i, tale che si abbia ahk = 0 quando h ≥ i e k < j (cioè tutte le righe successive alla i-esima hanno i coefficienti nulli fino allla j-esima colonna). Il sistema cosı̀ ottenuto ha le stesse soluzioni del sistema di partenza. 20 Capitolo 1. Algebra lineare 1.8 Trasformazioni di similitudine Si è visto che dato un certo endoformismo di un dato spazio vettoriale V, è possibile associarvi una matrice, la cui forma tuttavia dipende dalla scelta della base rispetto a cui viene espressa. In questo paragrafo vediamo cosa succede nel caso in cui si passi da una base V = {eˆ1 , · · · , eˆn } ad una base W = {ê′1 , · · · , ê′n } di V. Tale trasformazione è rappresentata da una matrice A ê′i n X = (AT )i j ê j , (1.32) j=1 ovvero E ′ = AT E. Consideriamo ora due vettori di V, x, y. Rispetto alla base V si ha x = n X xi êi , (1.33) n X yi êi , (1.34) n X x′i ê′i , (1.35) n X y′i ê′i . (1.36) i=1 y = i=1 mentre rispetto alla base W si ha x′ = i=1 y′ = i=1 Se adesso consideriamo un endomorfismo di V che associa x a y, che rispetto alla base V è associato alla matrice B, ovvero y = Bx, si pone il problema di quale sarà l’espressione di tale trasformazione rispetto alla base W, ovvero quale sia il rapporto tra la matrice B e la matrice C che associa x′ a y′ . Definizione 1.8.1 Dato un endomorfismo φ di uno spazio vettoriale V, a cui sia associata la matrice B rispetto alla base V e la matrice C rispetto alla base W di V, la trasformazione che ci permette di Capitolo 1. Algebra lineare 21 cambiare la base, ovvero di passare da B a C si dice trasformazione di similitudine ed è data da: C = A−1 BA, (1.37) dove A è data dall’eq. (1.32). Per ricavare l’eq. (1.37) basta osservare che deve essere x = x′ e y = y′ , dato che i vettori non dipendono dalla rappresentazione. Osservazione 1.8.1 ((importante)) Da un punto di vista fisico si ha comunque che B e C rappresentano la ”stessa fisica” rispetto a due basi differenti e si ha: Proprietà 1 det(C) = det(B); Proprietà 2 tr(C) = tr(B); Proprietà 3 det(C − λI) = det(B − λI); dove il simbolo tr rappresenta la traccia di una matrice A ∈ Mn×n (C) che è data da tr(A) = Pn i=1 aii . Infatti il determinante e la traccia sono conservati da una trasformazione di similitudine e ciò è dovuto al fatto che sono delle quantità misurabili (per una matrice diagonale rappresentano rispettivamente il prodotto e la somma degli autovalori della matrice) e quindi indipendenti dalle loro rappresentazioni. 1.9 Autovettori e autovalori In algebra lineare, un autovettore di una trasformazione lineare è un vettore non nullo che non cambia direzione nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione per uno scalare, chiamato autovalore. L’autospazio è il sottospazio formato da tutti gli autovettori aventi un fissato autovalore, più il vettore nullo. In matematica, questi concetti fondamentali si applicano in algebra lineare, in analisi funzionale, in geometria. In molti contesti, hanno anche un 22 Capitolo 1. Algebra lineare significato fisico importante. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico possono corrispondere, ad esempio, ai modi di vibrazione di un corpo e gli autovalori alle loro frequenze. In meccanica quantistica, gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati. Il termine autovettore è la traduzione italiana della parola tedesca Eigenvektor, coniata da Hilbert nel 1904. ”Eigen” significa ”proprio”, ”caratteristico”. Dal punto di vista formale, autovettori e autovalori sono definiti come segue: Definizione 1.9.1 Sia V uno spazio vettoriale su un campo C, e sia A la matrice corrispondente ad un endomorfismo di V, cioè una trasformazione lineare φ : V → V. Se v è un vettore non nullo in V e λ è uno scalare (che può essere nullo) tali che φ(v) = λv, (1.38) allora v è un autovettore della trasformazione φ, e λ è il suo autovalore. Poiché φ è lineare, se v è un autovettore con autovalore λ, allora ogni multiplo non-nullo di v è anch’esso un autovettore con lo stesso autovalore λ. Più in generale, gli autovettori relativi allo stesso fissato autovalore, insieme al vettore nullo, formano un sottospazio di V chiamato l’autospazio relativo all’autovalore λ. Viene solitamente indicato con Vλ . Definizione 1.9.2 L’insieme degli autovalori di φ si dice spettro di φ. Il raggio spettrale di φ è l’estremo superiore dell’insieme dei moduli dei suoi autovalori. Nel caso in cui V sia di dimensione finita, scelta una base in esso, a φ è associata univocamente una matrice A. Per questo motivo si parla anche di autovettori e autovalori associati direttamente ad una matrice, rispettivamente come un vettore v e uno scalare λ tali che Av = λv. (1.39) Capitolo 1. Algebra lineare 23 Ad esempio per quanto riguarda le seguenti trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali: • Rotazione antioraria di angolo θ: se θ è diverso da 0 e π non esiste nessun autovettore, infatti ogni vettore viene ruotato e cambia di direzione. I casi θ = 0 e θ = π sono casi particolari, in cui ogni vettore sta fisso o è ribaltato: allora ogni vettore è autovettore, con autovalore rispettivamente 1 e −1. • Proiezione ortogonale su una retta r passante per l’origine: i vettori su r restano fermi e quindi sono autovettori con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l’origine vanno tutti sull’origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori. La matrice delle rotazioni l’abbiamo già vista nel paragrafo 1.2, mentre, se per semplicità assumiamo che la retta r sia l’asse orizzontale, allora matrice corrispondente alla proiezione su r sarà: 1 0 0 0 1.10 Diagonalizzazione di una matrice In molti problemi di fisica in cui vi siano delle matrici è utile eseguire una trasfomazione che renda la matrice diagonale. Evidentemente la matrice di una certa trasformazione sarà diagonale rispetto alla base costituita dai suoi autovettori. Quindi un modo per diagonalizzare una matrice (ammesso che essa sia diagonalizzabile) è quello di individuare gli autovalori e gli autovettori di tale matrice e poi procedere ad un cambiamento di base ovvero ad una trasformazione di similitudine. Un metodo generale per l’individuazione di autovalori e autovettori di un endomorfismo, nel caso in cui lo spazio vettoriale V abbia dimensione finita, è il seguente: 1. Si costruisce una base per V, cosı̀ da rappresentare l’endomorfismo tramite una matrice quadrata. 24 Capitolo 1. Algebra lineare 2. Dalla matrice si calcola un polinomio, detto polinomio caratteristico, le cui radici (cioè i valori che lo annullano) sono gli autovalori. 3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare, tramite risoluzione di un sistema di equazioni lineari. Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il seguente: p(x) = det(A − xI), (1.40) dove I è la matrice identità con lo stesso numero di righe di A. Le radici del polinomio sono proprio gli autovalori di A. Basi diverse danno generalmente matrici diverse tuttavia i polinomi caratteristici che ne risultano sono per sempre gli stessi: il polinomio caratteristico dipende quindi soltanto dall’endomorfismo φ (da cui l’aggettivo caratteristico). Osservazione 1.10.1 ((Esistenza degli autovalori)) Dato φ un endomorfismo in uno spazio V di dimensione n su C si ha: • Se v1 , ..., vm sono autovettori con autovalori λ1 , ..., λm , a due a due distinti, allora questi sono linearmente indipendenti. • Se il polinomio caratteristico di φ ha grado n, e quindi ha al più n radici implica che ha al piùn autovalori distinti. • Se C è algebricamente chiuso (ad esempio se C = C è il campo dei numeri complessi), allora il polinomio caratteristico ha sempre qualche radice: segue che A ha sempre qualche autovalore, e quindi qualche autovettore. Capitolo 1. Algebra lineare 25 • Se la dimensione n di V è dispari, e C = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale: segue che ogni endomorfismo di R3 ha almeno un autovettore. Osservazione 1.10.2 Diagonalizzare una matrice significa eseguire una trasformazione una trasformazione di similitudine, ovvero cambiare la base e passare alla base degli autovettori rispetto alla quale la matrice è diagonale. Definizione 1.10.1 Un endomorfismo φ dello spazio vettoriale V è diagonalizzabile se esiste una base di autovettori per φ. La matrice associata a φ in questa base è diagonale. Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio degli autovettori di φ. Se il polinomio caratteristico non ha tutte le radici in C, allora A non è diagonalizzabile. Ad esempio, una rotazione in R2 ha un polinomio caratteristico di secondo grado senza soluzioni reali: quindi non è diagonalizzabile. Osservazione 1.10.3 Ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha una base di autovettori ortogonali fra loro. Se il polinomio caratteristico di A ha tutte le radici in C con molteplicità 1, allora A è diagonalizzabile. Se il polinomio caratteristico di A ha tutte le radici in C, alcune delle quali con molteplicità maggiore di 1, non è necessariamente diagonalizzabile. Ad esempio la matrice seguente: 1 1 A = 0 1 ha come polinomio caratteristico (λ − 1)2 e non è diagonalizzabile. Capitolo 2 Spazi di Hilbert Gli spazi di Hilbert sono degli ambienti matematici introdotti dal matematico tedesco Hilbert all’inizio del secolo scorso. Essi sono di fondamentale importanza sia nell’analisi funzionale che nelle generalizzazioni delle serie di Fourier e in sintesi sono degli spazi vettoriali cui viene aggiunto un prodotto scalare e la completezza. La struttura lineare dello spazio di Hilbert e la nozione di completezza sono essenziali nella fondazione assiomatica della Meccanica Quantistica il cui primo assioma associa ad ogni sistema fisico uno spazio di Hilbert separabile e ad infinite dimensioni, e gli stati di un sistema quantistico a dei vettori di tale spazio. La struttura lineare dello spazio di Hilbert ci assicura la validità del principio di sovrapposizione degli stati che rende conto del fenomeno dell’interferenza (vedi esperimento dei fori di Young), mentre la completezza ci assicura che ogni combinazione lineare (anche infinita) di stati è ancora uno stato, un vettore appartenente allo spazio di Hilbert. Il secondo assioma della Meccanica Quantistica invece ci dice che ad ogni grandezza osservabile è associato un operatore autoaggiunto nello spazio di Hilbert. Sarà dunque necessario definire uno spazio di Hilbert e per far ciò avremo bisogno di una definizione rigorosa e generale di prodotto scalare e della nozione di completezza. Infine definiremo gli operatori autoaggiunti e le loro proprietà. 27 28 Capitolo 2. Spazi di Hilbert 2.1 Prodotto Scalare e Spazi Pre-Hilbertiani Il concetto di prodotto scalare di vettori su Rn ci è già noto ed è dato da: v · u = vu cos θ, (2.1) che, esprimendo v e u nella base canonica {ê1 , · · · , ên } di Rn : u = n X ui êi , v= i=1 n X vi êi , (2.2) i=1 significa che v·u = n X vi ui . (2.3) i=1 Questa definizione va bene fintanto che abbiamo a che fare con quantità reali tuttavia non va più bene quando i coefficienti sono complessi, infatti se definiamo il modulo di un vettore come segue: |v| = v t n X v2i (2.4) i=1 se ad esempio v = (ix, 0), (con x ∈ R) si vede subito che |v| = p (ix)2 = i|x| ∈ C. Questa definizione quindi non funziona e c’è bisogno di una definizione più generale: Definizione 2.1.1 Dato uno spazio vettoriale V si definisce prodotto interno, o prodotto scalare l’applicazione che ∀ a, b ∈ V associa uno scalare in C: tale che: (·, ·) : V × V −→ C (2.5) a, b 7→ (a, b) (2.6) Capitolo 2. Spazi di Hilbert 29 1. (a, b) = (b, a)∗ ; 2. (λa + µb, c) = λ∗ (a, c) + µ∗ (b, c); 3. (a, a) > 0 e (a, a) = 0 ⇔ a ≡ 0. Definizione 2.1.2 Una volta definito un prodotto scalare si può definire la norma di un vettore a ∈ V: 2 kak = (a, a) n X = a∗i ai n X = i=1 i=1 |ai |2 . (2.7) Esempi di prodotti scalari: 1. generalizzazione del prodotto scalare euclideo (a, b) = n X a∗i bi ; (2.8) i=1 2. ( f, g) = Z +∞ f ∗ (x)g(x)dx, (2.9) −∞ dove f, g ∈ L2 (R), insieme delle funzioni ”modulo quadro integrabili alla Lebesgue”: L2 (R) = ( f : R −→ x 7→ R t.c. f (x) Z +∞ −∞ | f (x)|2 dx < ∞ ) (2.10) Definizione 2.1.3 Uno spazio vettoriale dotato di prodotto scalare si dice spazio prehilbertiano. Definizione 2.1.4 (Ortogonalità) Due vettori a, b, ∈ V si dicono ortogonali se il loro prodotto scalare è nullo, ovvero se (a, b) = 0. (2.11) 30 Capitolo 2. Spazi di Hilbert Definizione 2.1.5 (Ortonormalità) Due vettori a, b, ∈ V si dicono ortonormali se il loro prodotto scalare è nullo, e se ciascuno di essi ha norma 1, ovvero se (a, b) = 0 e se kak2 = 1 e kbk2 = 1. Osservazione 2.1.1 E’ interessante notare che in uno spazio pre-hilbertiano n dimensionale si può sempre costruire una base ortonormale di n vettori ui con ui ·u j = δi j a partire da n vettori linearmente indipendenti vi , i = 1, · · · , n, ciò si può fare grazie al procedimento di Gram-Schmidt. Teorema 2.1.1 (Disuguaglianza di Bessel) Dato un insieme di vettori {x1 , · · · , xn } ∈ V spazio prehilbertiano, ortonormali tra loro, cioé tali che (xi , x j ) = δi j (delta di Kronecker, t.c. δii = 1 e δi j = 0 se i , j), e ∀ x ∈ V con (xi , x) = αi componenti di x rispetto a xi , valgono le seguenti affermazioni: 1. Pn 2 i=1 |αi | ≤ kxk2 ; 2. Definendo x′ = x − Pn i=1 αi xi si ha (x′ , xi ) = 0 ∀i = 1, · · · , n. Il significato fisico della disuguaglianza di Bessel è legato alla nozione di completezza che verrà approfondita tra poco. Definizione 2.1.6 (Completezza) L’insieme di vettori di V, spazio vettoriale, {x1 , · · · , xn } ortonormali tra loro è completo se non è contenuto in un insieme più grande nello stesso spazio vettoriale V. Teorema 2.1.2 Dato uno spazio vettoriale di dimensione finita V, e dato l’insieme di vettori {x1 , · · · , xn }, sono equivalenti le seguenti affermazioni: 1. {x1 , · · · , xn } è completo; 2. Se (xi , x) = 0 ∀i = 1, · · · , n 3. ∀ x ∈ V si ha x= Pn 4. ∀ x ∈ V si ha x= Pn allora i=1 αi xi ; i=1 (xi , x)xi ; x ≡ 0; Capitolo 2. Spazi di Hilbert 5. ∀ x, y ∈ V 6. ∀ x ∈ V si ha si ha 31 Pn i=1 (x, xi )(xi , y); (x, y) = kxk2 = Pn i=1 |αi |2 (identità di Parseval). Dim. ciclica vista a lezione. Teorema 2.1.3 (Disuguaglianza di Schwarz) Dato uno spazio pre-hilbertiano V, dati x, y ∈ V vale la seguente disuguaglianza: |(x, y)| ≤ kxk kyk. (2.12) Dim. Si consideri il vettore z(λ) = x + λy, con λ ∈ C e si calcoli la sua norma al quadrato: kz(λ)k2 = (x + λy, x + λy), = kxk2 + |λ|2 kyk2 + λ∗ (y, x) + λ(x, y), = kxk2 + |λ|2 kyk2 + λ(x, y) + λ∗ (x, y)∗ . (2.13) Notando che λ e λ∗ sono parametri indipendenti, si può calcolare il valore di λ (o λ∗ ) che minimizza kz(λ)k2 : ∂ kz(λ)k2 = λkyk2 + (x, y)∗ . ∂λ∗ Quindi si ricava: λ = − (x, y)∗ kyk2 e λ∗ = − (x, y) . kyk2 (2.14) Sostituendo in eq. (2.13) si ottiene: kz(λ)k2 = kxk2 − da cui segue |(x, y)|2 ≤ kxk2 kyk2 |(x, y)|2 ≥ 0, kyk2 (2.15) 32 Capitolo 2. Spazi di Hilbert La disuguaglianza di Schwarz generalizza agli spazi pre-hilbertiani la disuguaglianza triangolare per vettori u, v ∈ Rn : |(u · v)| ≤ |u| |v|, (2.16) che segue dall’eq. (2.1) osservando che | cos θ| ≤ 1. 2.2 Spazi di Hilbert Definizione 2.2.1 Uno spazio H pre-hilbertiano completo si dice spazio di Hilbert. Nel caso degli spazi a dimensione infinita la nozione di completezza è più delicata: Definizione 2.2.2 Uno spazio si dice completo se ogni successione di Cauchy converge ad un punto dello spazio stesso, ovvero x= +∞ X an xn n=0 ∀x ∈ H. (2.17) Si ricordi che possiamo distinguere tra due tipi di ”infinito”: 1. Infinito numerabile: quando esiste una corrispondenza uno ad uno con N; 2. Infinito non numerabile: quando esiste una corrispondenza uno ad uno con R. Definizione 2.2.3 Uno spazio di Hilbert H si dice separabile se ammette una base numerabile. Pertanto in uno spazio di Hilbert separabile è sempre possibile introdurre una base ortonormale. Questa proprietà vale anche per L2 ([a, b]). In particolare se consideriamo L2 ([−π, π]): L2 ([−π, π]) = ( f : R −→ x 7→ R t.c. f (x) Z +π −π ) | f (x)| dx < ∞ , 2 (2.18) si può verificare che in esso la base di Fourier fn (θ) = 1 √ einθ 2π (2.19) Capitolo 2. Spazi di Hilbert 33 è una base ortonormale di L2 ([−π, π]). 2.3 Operatori hemitiani e matrici Abbiamo visto nel paragrafo 1.5 a partire da una matrice A la definizione della matrice trasposta AT e la definizione della matrice simmetrica t.c. A = AT . Definizione 2.3.1 Una matrice A di Mn×n (C) si dice autoaggiunta o hermitiana se vale A† = A, (2.20) dove (A† )i j = (A)∗ji = a∗ji e ai j sono gli elementi di A. Osservazione 2.3.1 In generale considerando lo spazio di Hilbert H, dato l’operatore A il suo operatore aggiunto A† è definito dalla seguente relazione: x, A† y = (Ax, y) . (2.21) Ricordando la prima propietà del prodotto scalare si ha che (Ax, y) = (y, Ax)∗ e sostituendo in eq. (2.21) si ha che x, A† y = (y, Ax)∗ . (2.22) In particolare un operatore è autoaggiunto o hermitiano se vale: (x, Ay) = (Ay, x) . Proprietà dell’operatore hermitiano A† 1. Se A† = A, B† = B allora (A + B)† = A + B 2. A† = A allora (λA)† = λ; A ⇔ λ ∈ R; (2.23) 34 Capitolo 2. Spazi di Hilbert 3. (A† )i j = (A)∗ji = a∗ji ; † 4. A† = A; 5. (AB)† = B† A† ; 6. Se A† = A, B† = B allora (AB)† = AB ⇔ [A, B] = 0 Dim. fatta a lezione. Osservazione 2.3.2 Come nel caso delle matrici è sempre possibile anche per un operatore A su uno spazio di Hilbert H la seguente decomposizione: A = dove H = 1 2 1 1 A + A† + A − A† , 2 2 A + A† è un’operatore hermitiano, e K = 1 2 (2.24) A − A† è un operatore antihermitiano. Il secondo assioma delle Meccanica Quantistica ci dice che un operatore può rappresnetare una quantità fisica se e solo se è un operatore hermitiano. Osservazione 2.3.3 Come nel caso delle matrici è sempre possibile anche per un operatore A su uno spazio di Hilbert H vale la seguente affermazione: A† = A ⇔ (x, Ax) ∈ R, Dim. La prima implicazione si dimostra osservando che A† = A (Ax, x) = (x, Ax)∗ ⇒ (x, Ax) = A† x, x = (x, Ax) ∈ R, mentre l’implicazione inversa segue dal fatto che se (x, Ax) ∈ R allora (x, Ax) = (x, Ax)∗ = (Ax, x), che significa appunto A† x, x = (Ax, x), ovvero A† = A ⇒ (2.25) Capitolo 2. Spazi di Hilbert 35 2.4 Operatori unitari Definizione 2.4.1 Un operatore su uno spazio pre-hilbertiano V si definisce unitario se è soddisfatta la seguente relazione: U † = U −1 . (2.26) (Un operatore unitario reale si dice ortogonale). Proprietà di un operatore unitario Se l’operatore U è unitario sono equivalenti le seguenti affermazioni: 1. U † U = I = UU † ; 2. (U x, Uy) = (x, y); 3. kU xk = kxk, ovvero è un’isometria dal momento che preserva il prodotto scalare. Relazione di ortogonalità Se consideriamo l’elemento i j-esimo del prodotto UU † si ha: UU † ij n n X X † = (U)ik (U )k j = uik u∗jk , k=1 (2.27) k=1 ma se U è unitario allora UU † = I e quindi UU † = δi j , dunque ij n X uik u∗jk = δi j , (Relazione di Ortogonalità) (2.28) k=1 Osservazione 2.4.1 Una rotazione è un esempio importante di trasformazione unitaria. Osservazione 2.4.2 Nel caso reale si ha che U † = U T e dunque varrà U T U = UU T , che definisce una matrice ortogonale, pertanto le matrici unitarie sono la generalizzazione delle matrici ortogonali agli 36 Capitolo 2. Spazi di Hilbert spazi complessi. Dato che vale det(U T U) = det(U T ) det(U) = det(I) = 1, allora (det(U))2 = 1, quindi se U è una trasformazione ortogonale det(U) = ±1, (2.29) dove +1 corrisponde ad una rotazione propria, mentre −1 corrisponde ad un’inversione di parità. Osservazione 2.4.3 Nel caso complesso invece si ha che U † U = I = UU † implica che det(U) = eiθ . (2.30) 2.5 Notazione di Dirac In Meccanica Quantistica è estremamente utile la notazione dovuta a Dirac, in cui i vettori di uno spazio vettoriale V sono indicati con il ket |·i e le applicazioni sui vettori con il bra h·|. Per capire di che cosa si tratta vediamo l’analogia con le matrici: nel capitolo 1 abbiamo visto che per descrivere un’applicazione lineare φ o la matrice associata A basta descrivere il suo effetto sulle coordinate dello spazio, ovvero sui vettori di una sua base. Gli elementi della matrice ai j costituiscono una rappresentazione dell’operatore, una rappresentazione che dipende dalla scelta della base. Per capire intuitivamente la notazione di Dirac pensiamo al caso in cui la matrice ha una sola colonna |xi (vettore ket) di componenti xi , con i = 1, · · · , n. Se A ∈ Mn×n (C) è allora anche A|xi = |bi è ancora un vettore colonna. Allo stesso modo se una matrice ha una riga e n colonne, è chiamata vettore riga hx|. Chiaramente hx| si ottiene da |xi tramite la trasposizione, ovvero scambiando righe con colonne. Anche il prodotto scalare tra due vettori x, y ∈ V si può esprimere con la notazione appena vista ovvero hx | yi = n X x∗i yi . (2.31) i=0 In generale questa notazione si usa per qualunque prodotto scalare (anche quello che abbiamo definito in L2 (R)). L’idea fondamentale è che l’ordine nel prodotto scalare di uno spazio Hilbert H è Capitolo 2. Spazi di Hilbert 37 importante, infatti, ∀ a, b ∈ H si ha: (a, b) , (b, a). (2.32) Inoltre abbiamo visto che la definzione generale di prodotto scalare data nel paragrafo 2.1 prevede che esso sia lineare nel secondo elemento e antilineare nel primo: 1. (c, λa + µb) = λ(c, a) + µ(c, a) (lineare); 2. (λa + µb, c) = λ∗ (a, c) + µ∗ (b, c) (antilineare); Questa asimmetria si può comprendere meglio se pensiamo che i due fattori appartengano a due spazi diversi: Definizione 2.5.1 Sia V uno spazio vettoriale su un campo C. Un funzionale lineare di V è un’applicazione lineare da V nel campo C. La somma fra due funzionali lineari F e G, ed il prodotto fra F ed uno scalare λ sono definite nel modo seguente: (F + G)(v) := F(v) + G(v) e (λF)(v) := λF(v). (2.33) Con queste operazioni l’insieme di tutti i funzionali lineari di V in C forma a sua volta uno spazio vettoriale, detto spazio vettoriale duale V ∗ di V. Quindi in sintesi: • i ket sono gli elementi |xi ∈ V; • i bra sono gli elementi hx| ∈ V ∗ (duale di V) Teorema 2.5.1 (Teor. di Riesz) Dato uno spazio prehilbertiano V esiste una corrispondenza uno ad uno tra ogni funzionale F di V ∗ e ogni vettore f in V, basta definire F(v) = h f | vi, ∀v ∈ V. (2.34) 38 Capitolo 2. Spazi di Hilbert Estendiamo ora la notazione anche agli operatori: dato uno spazio di Hilbert H e un operatore A A : H −→ H f 7→ g = Af in notazione di Dirac si può scrivere |gi = A| f i e si ha per la linearità che A(λ| f i + µ|gi) = λA| f i + µA|gi. (2.35) E’ possibile pensare anche agli operatori sul duale H ∗ , infatti se |gi = A| f i considerando il prodotto scalare hh|gi = hh| (A| f i) = (hh|A) | f i. (2.36) Si può dunque pensare all’operatore A come agente sul bra ed essendo H ∗ lineare in se stesso, le regole sono identiche alla eq. (2.35): (λh f | + µhg|)A = λh f |A + µhg|A, quindi nell’eq. (2.36) si può scrivere in maniera non ambigua: hh|gi = hh|A| f i. (2.37) 2.6 Teorema spettrale Applicando la notazione di Dirac anche al problema degli autovalori di un operatore A su di un generico spazio di Hilbert H, possiamo riscrivere il problema degli autovalori Av = λv, come Capitolo 2. Spazi di Hilbert 39 segue: A|λi = λ|λi, (2.38) dove |λi è il ket dell’autovettore v corrispondente all’autovalore λ. In generale si ha che le soluzioni di questo problema possono essere: 1. λ = λn , ovvero λ assume solo valori discreti; 2. oppure λ assume valori continui. Abbiamo visto che autovettori corrispondenti ad autovalori differenti sono ortogonali tra loro. Dobbiamo pertanto definire la relazione di ortogonalità nei due casi appena considerati: 1. Caso discreto λn : l’equazione agli autovalori è Avn = λn vn , dove (vn , vm ) = δnm che in notazione di Dirac diventa hλn |λm i = δnm , (2.39) 2. Caso continuo λ: l’equazione agli autovalori è Av = λv, dove (v, v′ ) = δ(λ − λ′ ) che in notazione di Dirac diventa hλ|λ′ i = δ(λ − λ′ ), (2.40) dove δ rappresenta la δ di Dirac che vedremo più approfonditamente in seguito, ma di cui anticipiamo la definizione: 0 se x , x0 , δ(x − x0 ) = ∞ se x = x0 . (2.41) 40 Capitolo 2. Spazi di Hilbert Inoltre vale: Z +∞ δ(x) = 1. (2.42) −∞ A questo punto generalizziamo quanto avevamo già visto nel capitolo 1 a proposito delle matrici simmetriche, ovvero il teorema spettrale: Teorema 2.6.1 (Teorema spettrale - caso reale) Nel caso reale e dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio pre-hilbertiano reale ha una base ortonormale formata dagli autovettori dell’endomorfismo. Equivalentemente, ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale. In altre parole, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che M M T = I) ed una diagonale D per cui S = M −1 DM = M T DM. (2.43) Teorema 2.6.2 (Teorema spettrale - caso complesso) Sia H un operatore hermitiano su uno spazio di Hilbert complesso V di dimensione n. Il teorema spettrale complesso asserisce che esiste una base ortonormale di V fatta di autovettori per H. Gli autovalori di H sono tutti reali. In particolare, l’endomorfismo H è diagonalizzabile. Analogamente, con le matrici otteniamo che ogni matrice hermitiana è simile ad una matrice diagonale reale tramite una matrice unitaria. In altre parole, per ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui H = U −1 DU = U † DU. (2.44) In particolare gli autovalori di una matrice hermitiana sono tutti reali. Dim. Abbiamo già visto che gli che tutti gli autovalori di H sono reali nell’elenco delle proprietà delle matrici hermitiane, infatti dato v, autovettore per H, con autovalore λ, allora si ha: λ∗ hv | vi = hHv | vi = hv | Hvi = λhv | vi. (2.45) Capitolo 2. Spazi di Hilbert 41 Ne segue che λ è uguale al suo coniugato e quindi è reale. Per provare l’esistenza di una base di autovettori, usiamo l’induzione sulla dimensione di V. Poiché C è algebricamente chiuso, il polinomio caratteristico di H ha almeno una radice: quindi H ha almeno un autovalore e un autovettore relativo v. Lo spazio W = v⊥ formato dai vettori ortogonali a v ha dimensione n − 1. L’endomorfismo H manda W in sé dato che ∀w ∈ W anche Hw ∈ W: hHw | vi = hw | Hvi = λhw, vi = 0. (2.46) Inoltre H, considerato come endomorfismo di W è ancora hermitiano. Procedendo per induzione sulla dimensione n di V si dimostra il teorema. Quanto appena dimostrato vale anche per gli operatori autoaggiunti in uno spazio di Hilbert a infinite dimensioni. Vediamo ora come si traduce la completezza dello spazio di Hilbert nella notazione di Dirac. Caso discreto: Avn = λn vn e {vn }, con n ∈ N rappresenta una base ortonormale di autovettori per P P+∞ H, allora abbiamo visto che ∀v ∈ H si ha v = +∞ n=0 cn vn , ma (vn , v) = m=0 cn (vn , vm ) = P cn , quindi v = +∞ n=0 (vn , v)vn . Nella notazione di Dirac di scrive | vi = +∞ +∞ X X hvn | vi | vn i = | vn ihvn | vi, n=0 (2.47) n=0 che equivale a dire: +∞ X n=0 | vn ihvn |= I. (Relazione di Completezza) (2.48) In particolare, grazie al teorema spettrale, possiamo scrivere il nostro operatore A hermitiano rispetto alla base degli autovettori, ottenendo la sua decomposizione spettrale, ovvero la sua forma diagonale: A= +∞ X n=0 λn | vn ihvn | (Decomposizione Spettrale) (2.49) 42 Capitolo 2. Spazi di Hilbert Caso continuo: Au = λu e {u} rappresenta una base ortonormale di autovettori per H, quindi in notazione di Dirac A | λi = λ | λi , dove | λi è l’autovettore di A relativo all’autovalore λ. Inoltre ∀v ∈ H , vale Z | vi = +∞ −∞ dλ c(λ) | λi. (2.50) Dunque si ha hλ, vi = Z +∞ −∞ dλ′ c(λ′ )hλ | λ′ i = c(λ), (2.51) il che significa: | vi = Z +∞ −∞ +∞ ! dλ | λihλ | | vi, (2.52) (Relazione di Completezza) (2.53) dλ hλ | vi | λi = Z −∞ che equivale a dire: Z +∞ −∞ dλ | λihλ |= I. In particolare la decomposizione spettrale dell’operatore hermitiano A è data da: Z +∞ −∞ dλ λ | λihλ |, (2.54) relazione che ci dice che una matrice hermitiana x̀e diagonale rispetto alla base dei suoi autovettori. Capitolo 3 Elementi di algebra vettoriale e tensoriale 3.1 Introduzione Intuitivamente le quantità fisiche si dicono quantità scalari, quando solamente il loro valore numerico cambia (si pensi alla pressione, alla temperatura, alla massa) e tale valore non dipende dal sistema di coordinate che viene scelto, mentre vi sono poi quantità che dipendono anche dalla direzione (si pensi alla velocità, alla forza, al momento, etc.) che si dicono grandezze vettoriali. Le grandezze vettoriali possono essere rappresentate geometricamente grazie ad una freccia che indica l’orientamento e la direzione del vettore nello spazio. Un vettore può anche essere rappresentato da una terna (se lo spazio è tridimesionale) di coordinate. Vogliamo dare ora una definizione più precisa di queste quantità legata al loro comportamento rispetto a delle trasformazioni ortogonali. Definizione 3.1.1 (Trasformazione ortogonale) Una trasformazione ortogonale T in uno spazio vettoriale reale V è una trasformazione lineare che conserva il prodotto scalare, e dunque conserva le lunghezze dei vettori, ovvero dati due vettori u, v ∈ V: (T v, T w) = (v, w). 43 44 Capitolo 3. Elementi di algebra vettoriale e tensoriale Una trasformazione ortogonale è una rotazione rigida o una rotoinversione (rotazione seguita da un’inversione del verso del vettore). Ad essa è associata una matrice ortogonale. Ricaviamo ora le proprietà di una matrice ortogonale. Consideriamo pertanto il sistema di riferimento K con versori {ê1 , ê2 , ê3 } e il sistema di riferimento K ′ rototraslato rispetto a K con versori {eˆ′ 1 , eˆ′ 2 , eˆ′ 3 }. Il generico vettore v in K si può scrivere v = v1 ê1 + v2 ê2 + v3 ê3 = 3 X vi êi , (3.1) i=1 mentre nel sistema di riferimento K ′ si ha: ′ v = v′1 eˆ′ 1 + v′2 eˆ′ 2 + v′3 eˆ′ 3 = 3 X v′i eˆ′ i . (3.2) i=1 Dato che i versori sono ortonormali vale la relazione: (êi , ê j ) = δi j , (3.3) dove δi j è la delta di Kronecker. Lo stesso vale per i versori del sistema di riferimento K ′ : (eˆ′ i , eˆ′ j ) = δi j . (3.4) Dato che vi = (êi , v), gni vettore v ∈ V può essere scritto come v= 3 X (êi , v)êi . (3.5) i=1 In particolare anche i versori di K ′ possono essere espressi rispetto a quelli di K: eˆ′ i = 3 X (ê j , eˆ′ i )ê j , j=1 (3.6) Capitolo 3. Elementi di algebra vettoriale e tensoriale 45 ovvero eˆ′ i = 3 X ai j ê j , (3.7) j=1 dove, osservando che nel caso reale (ê j , eˆ′ i ) = (eˆ′ i , ê j ), abbiamo definito: ai j = (eˆ′ i , ê j ). (3.8) Esprimendo l’eq. (3.7) in forma matriciale otteniamo: eˆ′ 1 a11 a12 a13 ′ ˆ e 2 = a21 a22 a23 eˆ′ 3 a31 a32 a33 ê 1 ê2 ê3 . Definendo i due vettori colonna E ′ ed E rispettivamente e ai j = (R)i j , allora E ′ = RE. (3.9) A questo punto sostituendo nell’espressione nella relazione di ortonormalità (eˆ′ i , eˆ′ i ) = δi j l’espressione dell’eq. (3.7), e utilizzando il fatto che (êi , êi ) = δi j , si ottiene la proprietà caratteristica di una matrice ortogonale: 3 X aik a jk = δi j, (3.10) k=1 che in forma matriciale diventa δi j = 3 X k=1 = (R)ik (R) jk = 3 X = (R)ik (RT )k j , (3.11) k=1 ovvero RRT = I, (3.12) 46 Capitolo 3. Elementi di algebra vettoriale e tensoriale e analogamente RT = R−1 . (3.13) Si noti che le trasformazioni ortogonali sono trasformazioni unitarie reali. 3.2 Prodotto scalare, prodotto vettore e convenzione di Einstein Abbiamo visto come il prodotto scalare si scrive in coordinate cartesiane come segue: A·B = 3 X Ai Bi . (3.14) i=1 Per il prodotto vettore la cosa è leggermente più complicata. È necessario ricordare due cose. Prima di tutto, a differenza del caso del prodotto scalare euclideo, il prodotto vettoriale dipende dall’ordine in quanto A × B = −B × A. Ciò è dovuto al fatto che se si scambia l’ordine dei due vettori il versore n̂ cambia segno in virtù della nota regola della mano destra. Quest’ultima, d’altra parte, altro non è che una rappresenzatione mnemonica di una proprietà matematica sulle permutazioni. In secondo luogo, per una terna cartesiana, il prodotto vettore di due qualunque versori fondamentali fornisce il terzo a meno del segno che è appunto fornito dalla regola della mano destra di cui adesso cercheremo di capire l’origine. Quindi ad esempio x̂ × x̂ = 0 (perchè l’angolo tra i due versori si annulla), x̂× ŷ = ẑ mentre x̂× ẑ = −ẑ× x̂ = −ŷ. Regole simili valgono per gli altri casi. Riassumendo: x̂ × x̂ = 0 x̂ × ŷ = ẑ x̂ × ẑ = −ŷ ŷ × x̂ = −ẑ ŷ × ŷ = 0 ŷ × ẑ = x̂ ẑ × x̂ = ŷ ẑ × ŷ = −x̂ ẑ × ẑ = 0 (3.15) Vediamo di capire l’origine della regola della mano destra, sostituendo alla notazione con i versori fondamentali (x̂, ŷ, ẑ) quella con la numerazione da 1 a 3 per indicare le tre direzioni (ê1 , ê2 , ê3 ). In tal modo si è associato alla terna destrogira fondamentale (x̂, ŷ, ẑ) una terna (1, 2, 3). Se scambiamo Capitolo 3. Elementi di algebra vettoriale e tensoriale 47 tra loro due elementi della terna, stiamo eseguendo una permutazione degli indici. In quanti modi si può fare questa permutazione? È facile vedere esplicitamente che si puó fare i 6 modi distinti 1 2 3 2 1 3 3 1 2 1 3 2 2 3 1 3 2 1 (3.16) e questo è un caso particolare della proprietà combinatoria che il numero di permutazioni semplici di n oggetti è Dn = n!, da cui D3 = 3! = 6 in accordo con il calcolo diretto precedente. La regola della mano destra è dunque collegata alla parità del numero di permutazioni a partire dalla terna fondamentale (1, 2, 3): si avrà un segno positivo se il numero di permutazioni è pari, negativo altrimenti. Se è pari si dice che la permutazione è ciclica. In definitiva quindi, la ciclicità o meno della permutazione automaticamente seleziona il segno corretto da mettere nelle equazioni (3.16). Usando allora le notazioni compatte suddette, le equazioni (3.16) si riassumono nel modo seguente: 0 êi × ê j = êk −êk se i = j se i, j, k distinti e ciclici rispetto a 1, 2, 3 (3.17) se i, j, k distinti e non ciclici rispetto a 1, 2, 3 Come nel caso del prodotto scalare, anche in questo caso le operazioni algebriche possono essere fortemente semplificate mediante l’introduzione di un nuovo simbolo, questa volta con tre indici, detto simbolo di Levi-Civita ǫi jk 0 = 1 −1 se due qualunque dei tre indici i, j, k sono uguali se la terna i, j, k è ciclica rispetto alla 1, 2, 3 (3.18) altrimenti In tal modo le equazioni (3.16) si scrivono in modo compatto êi × ê j = 3 X k=1 ǫi jk êk (3.19) 48 Capitolo 3. Elementi di algebra vettoriale e tensoriale dove i, j = 1, 2, 3. In tal modo anche il prodotto vettore tra due arbitrari vettori diventa A×B = 3 X i j=1 3 X Ai B j êi × ê j = ǫi jk Ai B jêk (3.20) i jk=1 Si noti che la componente kesima del prodotto vettore (3.20) è (A × B)k = ǫi jk Ai B j. (3.21) 3.3 Convenzione di Einstein Le espressioni per il prodotto scalare e vettoriale viste nel paragrafo precedente (e anche altre più complesse, come vedremo in seguito) in cui compaiono molti simboli di sommatoria si semplificano sottointendendo l’indice di sommatoria sugli indici ripetuti. Cosı̀, ad esempio, nell’eq (3.14) appare un indice ripetuto i, mentre nell’eq (3.20) ne appaiono tre i, j, k. Con tale convenzione, detta convenzione degli indici ripetuti, o di Einstein, tale equazione si scrive più semplicemente: A · B = Ai Bi A × B = ǫi jk Ai B j êk (3.22) (3.23) dove si sono semplicemente sottointese le somme, come detto. Si ricordi che tale convenzione funziona solo se applicata agli indici ripetuti, che appaiono cioè due volte nell’espressione a destra del segno di uguaglianza. Si ricordi inoltre che la prima espressione della (3.23) è stata ottenuta con l’aiuto del simbolo di Kronecker δi j in quanto puó essere scritta anche come A · B = Ai B j δi j , dove questa volta si sottointende la somma sugli due indici i, j. Le definizione del simbolo di Kronecker δi j sono tali che il valore dell’indice j sia non nullo solo quando coincide con quello dell’indice i. In definitiva quindi, il prodotto scalare è legato al simbolo δi j mentre quello vettore è legato al simbolo di Levi-Civita ǫi jk . Ci si chiede ora se questi due simboli siano in qualche modo legati tra loro. La risposta è affermativa, Capitolo 3. Elementi di algebra vettoriale e tensoriale 49 ed è sintetizzata nella seguente relazione fondamentale ǫi jk ǫi jk = 6 (3.24) ǫi jk ǫi jl = 2 δkl ǫi jk ǫi jm = δ jl δkm − δ jm δkl Dimostramo la prima delle (3.25), ricordando che per la convenzione degli indici ripetuti, c’è una sommatoria sottointesa sugli indici i, j, k. Quindi scritta esplicitamente tale equazione diventa ǫi jk ǫi jk = ǫ111 ǫ111 + ǫ112 ǫ112 + . . . ecc su tutti i 3 × 3 × 3 = 33 = 27 termini della sommatoria. Le proprietà del simbolo di Levi-Civita (3.18) peró, fan si che ǫi jk ǫi jk 0 = 1 se due qualunque dei tre indici i, j, k sono uguali (3.25) se ǫi jk = 1 oppure −1 Quindi restano non nulli nella sommatoria solo i 3! = 6 termini corrispondenti alle possibili permutazioni della terna fondamentale 1, 2, 3, e il valore di ogni termine vale 1 come detto. Da cui il risultato 6. Vediamo ora di dimostrare la seconda delle (3.25). Si noti innanzi tutto che adesso ci sono solo 32 = 9 termini nella somma e cioè ǫi jk ǫi jl = ǫ11k ǫ11l + ǫ12k ǫ12l + . . . e cosı́ via, e il valore di ogni termine dipende dal valore di k e l. Supponiamo dapprima che k , l, ad esempio k = 1 e l = 2. Allora tutti i termini della somma sono nulli in quanto se il primo simbolo ha tutti gli indici distinti, necessariamente il secondo deve averne almeno due uguali e viceversa. Quindi si ottiene un valore non nullo solo se k = l, e in questo caso il risultato è sempre uguale a 2 in quanto solo due dei nove termini risultano diversi da zero e uguali a 1 come prima. Ció dimostra anche la seconda delle (3.25). Infine dimostramo il terzo risultato. In questo caso ci sono solo tre termini nella somma che possiamo scrivere esplicitamente: ǫi jk ǫilm = ǫ1 jk ǫ1lm + ǫ2 jk ǫ2lm + ǫ3 jk ǫ3lm . Si noti ora che gli indici j, k, l, m sono fissati ad un qualsiasi valore tra 1 e 3. Quindi se ad esempio fosse diverso da zero il 50 Capitolo 3. Elementi di algebra vettoriale e tensoriale primo dei tre termini, allora necessariamente i valori di j, k, l, m dovrebbero essere o j = 2 e k = 3 oppure viceversa, e quindi sarebbero nulli gli altri due termini. In definitiva sono diversi da zero solo in modo mutuamente esclusivo e dunque ad esempio ǫ1 jk ǫ1lm = δ jl δkm − δ jm δkl e la stessa cosa (in modo mutuamente esclusivo) per gli altri due termini. E quindi anche la terza delle (3.25) risulta dimostrata. 3.4 Calcolo tensoriale Una volta definita una trasformazione ortogonale e introdotta la convenzione di Einstein sugli indici possiamo definire le seguenti quantità: Definizione 3.4.1 (Scalare) Uno scalare è un invariante per trasformazioni ortogonali. Uno scalare è un tensore di rango 0. Definizione 3.4.2 (Vettore o tensore di rango 1) Un vettore è un oggetto definito da un indice singolo che trasforma secondo la seguente relazione: vi → v′i = ai j v j (3.26) (al solito è sottointesa la somma sull’indice ripetuto j) per un cambiamento di sistema di riferimento. Definizione 3.4.3 (Tensore di rango 2) Un tensore T i j è un oggetto definito da due indici che trasforma secondo la seguente relazione: T i j → T i′j = aik a jl T kl (3.27) Un tensore, essendo un oggetto identificato da due indici, può essere rappresentato come una matrice. È però importante notare che non è vero il viceversa, in quanto solo gli oggetti che trasformano secondo la (3.27) sono tensori. Capitolo 3. Elementi di algebra vettoriale e tensoriale 51 In modo analogo si definiscono i tensori di rango superiore a 2. T i jk... → T i′jk... = ail a jm akn . . . T lmn... (3.28) Si noti che sia il simbolo di Kronecker δi j che quello di Levi-Civita ǫi jk godono di questa proprietà e sono quindi tensori di rango 2 e 3 rispettivamente. Esiste una teoria generale per l’algebra dei tensori che non è ovviamente qui possibile sviluppare. Vi sono però due proprietà utili per il resto del corso che vale la pena di discutere. Definizione 3.4.4 Due tensori S i j e Ai j di rango 2 si definiscono simmetrico e antisimmetrico rispettivamente, se soddisfano le proprietà S i j = S ji Ai j = −A ji (3.29) rispetto allo scambio di indici i ↔ j. Valgono allora le seguenti due proprietà. Osservazione 3.4.1 (Proprietà 1) Per ogni tensore T i j , esistono un tensore simmetrico S i j ed uno antisimmetrico Ai j tali che T i j = S i j + Ai j (3.30) Dunque ogni tensore si può considerare come somma di un tensore simmetrico e di uno antisimmetrico. Questa proprietà è facile da dimostrare scrivendo T i j nel modo seguente Ti j = 1 1 T i j + T ji + T i j − T ji = S i j + Ai j 2 2 (3.31) dove, dalle (3.29) è facile verificare che il primo termine a destra dell’equazione (3.31) (indicato come S i j ) è appunto simmetrico, mentre il secondo (indicato con Ai j è antisimmetrico. 52 Capitolo 3. Elementi di algebra vettoriale e tensoriale Osservazione 3.4.2 (Proprietà 2) Il prodotto di ogni tensore simmetrico S i j per ogni tensore antisimmetrico Ai j é sempre nullo, cioè S i j A ji = 0 (3.32) dove il prodotto (in senso matriciale) è identificato dalla somma sull’indice j. Anche questa affermazione si verifica immediatamente scrivendo esplicitamente il prodotto come S i j A ji = S 11 A11 + S 12 A21 + S 13 A31 + (3.33) S 21 A12 + S 22 A22 + S 23 A32 + S 31 A13 + S 32 A23 + S 33 A33 Ma dalle proprietà (3.30) si vede immediatamente che Aii = 0 per ogni i = 1, 2, 3 (il che annulla i tre termini diagonali) e che i rimanenti sei termini si possono raggruppare in modo che la loro somma risulti nulla, come ad esempio S 12 A21 + S 21 A12 = S 12 (A12 + A21 ) = 0 (analogamente per gli altri quattro termini). Qundi anche questa seconda proprietà f̀acilmente dimostrata. 3.5 Operatori differenziali Nei casi fisici più generali, le varie quantità (scalari, vettori e tensori) sono in realtà dei campi, sono cioè funzioni delle variabili spaziali x e temporali t. Quindi ad esempio ψ = ψ(x, t), per i campi scalari, F = F(x, t) per i campi vettoriali e T i j = T i j (x, t) per i tensori (di rango 2). Su tali campi, operano degli operatori differenziali, contenenti cioè delle derivate parziali (sulle variabili spaziali e temporali). Uno di questi è l’operatore differenziale nabla ∇( ) = ∂ ∂ ∂ ( ) x̂ + ( ) ŷ + ( ) ẑ ∂x ∂y ∂z (3.34) Capitolo 3. Elementi di algebra vettoriale e tensoriale 53 applicato al campo scalare ψ. Altri tipi di operatori differenziali possono essere ottenuti però applicando l’operatore ∇ ad un vettore o ad un tensore, come vedremo tra un attimo. Si noti che la (3.34) si può mettere nella forma sintetica ∇( ) = 3 X ∂ ( ) ê j ∂x j j=1 (3.35) Vediamo ora il risultato dell’applicazione di questo operatore su scalari e vettori (il caso dei tensori è più complesso e non necessario per i nostri scopi). a) Scalare Con ∇ e uno scalare ψ si può costruire un solo operatore differenziale, e cioè il gradiente già visto in (3.34), che in notazione compatta (3.35) diventa ∇ (ψ) = 3 X ∂ (ψ) ê j ∂x j j=1 (3.36) Sio noti che il gradiente trasforma uno scalare in un vettore b)Vettore In questo caso ci sono due possibilità, corrispondenti, rispettivamente, al caso di prodotto scalare A · B e vettore A × B, avendo in mente di trattare l’operatore ∇ come un vettore con l’accortezza di ricordare che tale vettore opera su un altro, e quindi va sempre scritto a sinistra rispetto al campo vettoriale su cui sta operando. • Prodotto scalare. ∇ · F (x) = · " ∂ ∂ ∂ ( ) x̂ + ( ) ŷ + ( ) ẑ ∂x ∂y ∂z i h F x (x) x̂ + Fy (x) ŷ + Fz (x) # ∂ ∂ ∂ F x (x) + Fy (x) + Fz (x) ∂x ∂y ∂z 3 X ∂ F j (x) = ∂x j j=1 (3.37) = (3.38) 54 Capitolo 3. Elementi di algebra vettoriale e tensoriale Questo operatore differenziale, che trasforma un vettore in uno scalare è noto come divergenza. • Prodotto vettore. # ∂ ∂ ∂ ( ) x̂ + ( ) ŷ + ( ) ẑ ∇ × F (x) = ∂x ∂y ∂z i h × F x (x) x̂ + Fy (x) ŷ + Fz (x) " (3.39) Applicando le regole definite in (3.16) per i versori fondamentali, si ottiene " " # # ∂ ∂ ∂ ∂ ∇ × F (x) = Fz (x) − Fy (x) x̂ + F x (x) − F x (x) ŷ ∂y ∂z ∂z ∂z # " ∂ ∂ Fy (x) − F x (x) ẑ + ∂x ∂y (3.40) che è un operatore differenziale noto come rotore, che trasforma un vettore in un altro vettore. Si noti che la stessa espressione (3.41) si può ottenere risolvendo il seguente determinante: x̂ ŷ ẑ ∂ ∂ ∂ ∇ × F (x) = ∂x ∂y ∂z F F F x y z (3.41) È a questo punto importante ricordare che questi operatori differenziali hanno questa forma in coordinate cartesiane. In altre coordinate hanno forme diverse e più complicate. D’altra parte, essendo vettori, hanno senso anche in senso assoluto, indipendentemente dal sistema di coordinate scelto. • Quadrato di un vettore Anche per il vettore ∇, cosı́ come per gli altri vettori, è possibile fare il prodotto scalare con sè stesso, corrispondente al quadrato di un vettore. In questo caso si ottiene il Capitolo 3. Elementi di algebra vettoriale e tensoriale 55 Laplaciano ∇2 = ∇ · ∇ = ∂2 ∂2 ∂2 + + ∂x2 ∂y2 ∂z2 (3.42) che puó essere applicato sia ad uno scalare che ad un vettore ∇2 ψ (x) = ∂2 ∂2 ∂2 (x) (x) ψ + ψ + ψ (x) ∂x2 ∂y2 ∂z2 (3.43) ∇2 F (x) = ∇2 F x (x) x̂ + ∇2 Fy (x) ŷ + ∇2 Fz (x) ẑ dove ogni singolo termine puó essere considerato come Laplaciano di uno scalare, e quindi ad esempio ∇2 F x (x) = ∂2 /∂x2 F x (x) + ∂2 /∂y2 F x (x) + ∂2 /∂z2 F x (x) e analogamente per le altre componenti. Si noti che in notazione compatta, il laplaciano si scrive come ∇2 ψ (x) = ∂i ∂i ψ (xx) (3.44) dove abbiamo usato l’abbreviazione ∂i ≡ ∂/∂i e dove si ricordi che sull’indice i nella (3.44), essendo ripetuto, deve essere sottointesa una somma. 3.6 Identità vettoriali Vediamo adesso come la relazione fondamentale (3.25) permetta di fare, in modo semplice ed elegante, delle operazioni che comporterebbero altrimenti lunghi e penosi calcoli. Uno dei casi in cui tale opportunità risulta più evidente, è il caso in cui appaiono dei prodotti vettore ove si ricordi che la componente kesima di un prodotto vettore è dato dalla (3.21). Esempio 1: Prodotto misto Mostriamo che vale (A × B) · C = A · (B × C) (3.45) 56 Capitolo 3. Elementi di algebra vettoriale e tensoriale Infatti (A × B) · C = (A × B)i Ci = ǫi jk A j Bk Ci = A j ǫ jki Bk Ci (3.46) = A j (B × C) j = A · (B × C) dove si noti che abbiamo utilizzato il fatto che ǫ jki = ǫi jk differendo le stesse per due permutazioni corrispondenti a due segni negativi e quindi ad una moltiplicazione per l’unità 1. Esempio 2: Regola di distribuzione dei vettori Mostriamo che vale la regola (A × B) · (C × D) = (A · C) (B · D) − (A · D) (B · C) (3.47) Infatti dalle solite regole: (A × B) · (C × D) = (A × B)i (C × D)i (3.48) = ǫi jk ǫilm A j Bk Cl Dm = δ jl δkm − δ jm δkl A j Bk Cl Dm = A j Bk C j Dk − A j Bk C k D j = A j C j (Bk Dk ) − A j D j (Bk Ck ) = (A · C) (B · D) − (A · D) (B · C) Esempio 3: Equazioni di Maxwell Vediamo adesso qualche esempio che coinvolga anche l’operatore nabla (∇). Questo appare spesso in elettromagnetismo in associazione con le equazioni di Maxwell. ∇ × (∇ × A) = ∇ (∇ · A) − ∇2 A (3.49) Capitolo 3. Elementi di algebra vettoriale e tensoriale 57 Infatti [∇ × (∇ × A)]i = ǫi jk ∂ j (∇ × A)k (3.50) = ǫki j ǫklm ∂ j ∂l Am = δil δ jm − δim δ jl ∂ j ∂l Am = ∂i ∂ j A j − ∂ j ∂ j Ai = ∂i (∇ · A) − ∇2 Ai che è appunto la componente iesima della relazione che si voleva dimostrare. I prossimi due esempi utilizzano le proprietà (3.30) e (3.32) e sono fondamentali nella teoria dei potenziali in elettromagnetismo. Esempio 4: Campo magnetico solenoidale Vale l’identità ∇ · (∇ × A) = 0 (3.51) ∇ · (∇ × A) = ∂i (∇ × A)i = ∂i ǫi jk ∂ j Ak = ǫi jk ∂i ∂ j Ak = 0 (3.52) Infatti (3.53) essendo il prodotto di un tensore antisimmetrico (ǫi jk ) e di uno simmetrico (∂i ∂ j Ak ). Si noti che identificando il vettore A con il potenziale vettore del campo magnetico B, allora B = ∇ × A e ∇ · B = 0 corrispondente all’affermazione che il campo magnetico è solenoidale (a divergenza nulla). Esempio 4: Campo elettrico irrotazionale Vale l’identità ∇ × (∇ψ) = 0 (3.54) 58 Capitolo 3. Elementi di algebra vettoriale e tensoriale che si dimostra allo stesso modo della precedente: ∇ × (∇ψ) i = ǫi jk ∂ j (∇ψ)k = ǫi jk ∂ j ∂k ψ = 0 (3.55) che si annulla per la stessa ragione di prima. Anche in questo caso, identificando ψ con il potenziale elettrico allora E = −∇ψ e la relazione sopra è equivalente all’affermazione che ∇ × E = 0, cioè che il campo elettrico è irrotazionale (rotore nullo). 3.7 Teorema di Gauss e significato della divergenza Abbiamo visto come si può esprimere la divergenza in coordinate cartesiane, ma sappiamo che, essendo un vettore, essa deve avere un significato intrinseco (assoluto) indipendendente da ogni sistema di coordinate. Come fare ad esprimerlo in senso assoluto? Si utilizza il teorema di Gauss che andiamo ora a discutere. Si consideri una superficie arbitraria chiusa S e sia V il volume da essa racchiuso (Fig.3.1). Com’è noto si definisce il flusso ΦS attraverso la superficie chiusa S la quantità da=dS n V1 n S0 V S V2 Figura 3.1: Il teorema di Gauss. ΦS = I S F · da = I S F · n̂ dS (3.56) L’idea che vogliamo ora perseguire è quella di riuscire ad esprimere questo integrale di superficie Capitolo 3. Elementi di algebra vettoriale e tensoriale H S in termini di integrale di volume R V 59 . A tal scopo, si divida il volume V in due parti arbitrarie V1 e V2 in modo che V = V1 + V2 . Sia S 0 la superficie interna che divide il volume in due parti (Fig.3.1). Chiaramente la superficie chiusa S 1 che racchiude il volume V1 è data da S 1 = S 1ext + S 0 dove S 1ext è la superficie esterna. Analogamente per la seconda superficie S 2 = S 2ext + S 0 . Quindi la superficie originale è la somma delle due nuove superfici esterne, cioè S = S 1ext + S 2ext . Quindi I S1 F · da1 + I S2 Z F · da2 = S 1ext F · da1 + Z S0 F · da10 + Z S 2ext F · da2 + Z S0 F · da20 (3.57) Si noti ora che la superficie S 0 è orientata (perchè lo é l’elemento di superficie da0 ) con direzioni opposte per le due superfici. Quindi chiaramente Z F · da10 + S0 Z F · da20 = 0 S0 (3.58) e dunque I S1 F · da1 + I S2 F · da2 = Z F · da1 + S 1ext Z S 2ext F · da2 = ΦS La cosa si puó generalizzare. Se supponiamo di dividere il volume V in N parti allora V = PN e S = i=1 ∆S iext ed allora, come prima, abbiamo N I X i=1 ∆S i F · dai = I S F · da = ΦS (3.59) PN i=1 ∆Vi (3.60) Possiamo ora utilizzare questo risultato nel modo seguente. Chiaramente nel limite ∆Vi → 0, anche H l’integrale ∆S F · dai → 0. Come spesso succede, però, il rapporto tende ad un limite finito (in i quanto si annullano “con la stessa rapidità”). Chiameremo divergenza tale limite, cioè 1 ∇ · F = lim ∆Vi →0 ∆Vi I ∆S i F · dai (3.61) Si noti che, come anticipato in precedenza, questa definizione è indipendente da qualsiasi sis- 60 Capitolo 3. Elementi di algebra vettoriale e tensoriale tema di riferimento. La combinazione delle (3.60) e (3.61) permette di dimostrare un risultato importantissimo, noto come Teorema di Gauss (o della divergenza): I S F · da = Z dV (∇F) (3.62) F · dai (3.63) V Infatti I S F · da = = = lim δS i →0 lim ∆Vi →0 lim ∆Vi →0 N I X i=1 ∆S i N X ∆Vi i=1 N X i=1 1 ∆Vi I ∆S i F · dai ∆Vi (∇ · F)i = Z V (∇ · F) Si noti che conosciamo gi‘a un caso particolare di questo teorema avendolo visto in elettrostatica. Affinchè sia tutto consistente, però, resta da dimostrare che la divergenza definita in (3.61) in senso assoluto, si riduce alla (3.38) nel caso vengano utilizzate coordinate cartesiane. Per far questo si consideri la geometria definita nella Fig.3.2 dove un cubetto di volume ∆V = ∆x ∆y ∆z ha l’ estremo sinistro inferiore posizionato nel punto (x, y, z) Dalla definizione di divergenza (3.61) (x+∆x/2,y+ ∆y/2,z+ ∆z) z z (x,y,z+∆z) (x+∆x/2,y+ ∆y/2,z) x y (x,y,z) (x,y+∆y,z) x y Figura 3.2: Divergenza in coordinate cartesiane. applicato a tale volumetto abbiamo ∇·F = 1 ∆ΦS ∆V (3.64) Capitolo 3. Elementi di algebra vettoriale e tensoriale 61 dove ∆ΦS è il flusso totale attraverso la superficie che racchiude il volume, e quindi è la somma dei flussi attraverso le superfici perpendicolari alle tre direzioni cartesiane x, y, z: ∆ΦS = ∆Φ(z) + ∆Φ(x) + ∆Φ(y) (3.65) Dalla Fig.3.2, si vede che ad esempio per la superficie perpendicolare alla direzione ẑ si ha ∆x ,y+ = Fz x + 2 ∆x − Fz x + ,y+ 2 (z) ∆Φ ! ∆y , z + ∆z ∆x ∆y 2 ! ∆y , z ∆x ∆y 2 (3.66) Notando quindi che Fz x + ! ! ∆x ∆x ∆y ∆y ∂Fz ,y + , z + ∆z = Fz x + ,y + ,z + ∆z + o ∆z2 2 2 2 2 ∂z (3.67) si ottiene chiaramente, a meno di infinitesimi di ordine superiore che andranno a zero nel limite di volume infinitesimo, ∆Φ(z) = ∂Fz ∆x ∆y ∆z ∂z (3.68) Discorsi analoghi si possono fare per gli altri due flussi lungo x̂ e ŷ. Quindi ricordando che il prodotto delle tre lunghezze in (3.68) è uguale al volume ∆V, si ottiene ∆ΦS = ! I ∂F x ∂Fy ∂Fz + + ∆V = F · da ∂x ∂y ∂z ∆S (3.69) da cui, dividendo per ∆V, si trova immediatamente la definizione di divergenza in coordinate cartesiane. Come ultima osservazione di questa sezione, osserviamo che esiste un teorema di Gauss analogo 62 Capitolo 3. Elementi di algebra vettoriale e tensoriale anche per una generica funzione scalare ψ: I Z ψ da = dV (∇ψ) (3.70) V S 3.8 Teorema di Stokes e significato del rotore Anche per il rotore, abbiamo visto nell’equazione (3.41) come si esprime in coordinate cartesiane. Ci domandiamo anche in questo caso come si possa esprimere in coordinate assolute. Introduciamo una quantità molto importante nel campo della meccanica dei fluidi, e cioè la circuitazione lungo un circuito C come il seguente integrale di linea I ΓC = C F · dl (3.71) dove dl = dl τ̂, è un percorso infinitesimo lungo il circuito C nella direzione istantanea τ̂ tangenziale al circuito stesso. In completa analogia con quanto fatto precedentemente, cerchiamo di esprimere la circuitazione in termini di un integrale di superficie. A tal scopo dividiamo il circuito in due parti in modo arbitrario (3.3) Allora per gli stessi motivi della sezione precedente S = S 1 + S 2 e ext dl C2 S S2 C0 C S1 ext C1 Figura 3.3: Il teorema di Stokes. C = C1ext + C2ext , C1 = C1ext + C10 e C2 = C2ext + C20 . Anche in questo caso, il percorso che divide la superficie in due parti, ha due valori uguali ed opposti nelle due superfici e quindi Z C10 F · dl10 + Z C20 F · dl20 = 0 (3.72) Capitolo 3. Elementi di algebra vettoriale e tensoriale 63 e dunque Z C1 F · dl1 + Z C2 F · dl2 = ΓC (3.73) La stessa cosa si puó estendere a N divisioni nello stesso modo S = Quindi ΓC = N I X i=1 ∆Ci PN F · dli PN ext i=1 ∆C i . H → 0 in modo che il F · dl (3.75) rapporto esista finito, e viene quindi definito come rotore 1 = (∇ × F) · n̂ = lim ∆S →0 ∆S eC = (3.74) e, come in precedenza, nel limite ∆S i → 0, anche l’integrale di linea (∇ × F)n i=1 ∆S i I ∆C ∆Ci che è evidentemente indipendente da ogni sistema di riferimento. Mostriamo ora che vale il seguente teorema di Stokes (o del rotore): I F · dl = C Z S (∇ × F) · da (3.76) La dimostrazione è immediata. Dalla (3.74) e usando la (3.75) si ha ΓC = = = lim ∆S i →0 lim ∆S i →0 N I X i=1 N X i=1 ∆Ci F · dli 1 ∆S i ∆S i I F · dli ∆Ci lim ∆S i (∇ × F)i = ∆S i →0 (3.77) Z S (∇ × F) · da che è quello che si voleva dimostrare. Anche in questo caso resta da dimostrare che la definizione assoluta data per il rotore (in realtà la sua componente nella direzione n̂) in (3.75), coincide con quella data in (3.41). A tal scopo 64 Capitolo 3. Elementi di algebra vettoriale e tensoriale consideriamo in circuitino elementare, parallelo al piano (x, y) di superficie totale ∆S = ∆x ∆y (Fig.3.4). Supponiamo, come al solito, che l’estremo inferiore sinistro sia posizionato nel punto (x, y, z). In tale (opportuna) geometria, il problema è semplificato dal fatto che la coordinata z è irrilevante, e puó dunque essere omessa (Fig.3.4). Se indichiamo con ∆Cz γ1 +γ2 +γ3 +γ4 il circuitino z y γ3 y+∆y γ γ2 4 y γ1 y x x+∆x x x Figura 3.4: Rotore in coordinate cartesiane. elementare mostrato in figura, allora, ricordando che i cammini sono orientati e assumono quindi il segno opportuno, si ha chiaramente che Z F · dl1 Z F · dl2 Z F · dl3 Z F · dl4 γ1 γ2 γ3 γ4 ! ∆x = Fx x + , y ∆x 2 ! ∆y = Fy x + ∆x, y + ∆y 2 ! ∆x = −F x x + , y + ∆y ∆x 2 ! ∆y = −Fy x, y + ∆y 2 (3.78) Quindi, si ha che I ∆Cz F · dl = Z = " Fx + " Fy γ1 Z F · dl3 + F · dl4 γ2 γ3 γ4 ! !# ∆x ∆x , y − Fx x + , y + ∆y ∆x x+ 2 2 ! !# ∆y ∆y x + ∆x, y + − Fy x, y + ∆x 2 2 F · dl1 + Z F · dl2 + Z (3.79) E come al solito i vari termini possono essere connessi mediante uno sviluppo di Taylor al primo Capitolo 3. Elementi di algebra vettoriale e tensoriale 65 ordine: Fx Fy ! ! ! ∂ ∆x ∆x ∆x , y + ∆y = F x x + , y + Fx x + , y ∆y + o ∆y2 x+ 2 2 ∂y 2 ! ! ! ∂ ∆y ∆y ∆y = Fy x, y + + Fy x, y + ∆x + o ∆x2 x + ∆x, y + 2 2 ∂x 2 (3.80) da cui, sostituendo in Eq.(3.80) e ricordando che ∆S = ∆x ∆y, si ottiene I ∆Cz F · dl = " # ∂Fy ∂F x − ∆S ∂x ∂y (3.81) e quindi la componente (∇ × F)z , dividendo per ∆S e prendendo il limite ∆S → 0. Le altre componenti si ottengono in modo analogo. Capitolo 4 Analisi di Fourier e Funzione δ di Dirac 4.1 Idea base dell’espansione in serie di Fourier Le serie di Fourier sono state introdotte per descrivere delle funzioni periodiche mediante una serie di seni e coseni. Grazie alle serie di Fourier è possibile sviluppare in serie anche funzioni periodiche che non possono essere sviluppate in serie di Taylor. Infatti l’espansione in serie di Taylor richiede comunque che la funzione f (x) da approssimare sia derivabile infinite volte, dal momento che dato il punto x0 appartentente al dominio di f (x) si ha che il suo sviluppo in serie di Taylor è dato da: f (x) = +∞ X 1 1 (n) f (x − x0 )n = f (x0 ) + f ′ (x0 )(x − x0 ) + f ′′ (x0 )(x − x0 )2 + . . . n! 2! n=0 (4.1) Questo sviluppo in serie di Taylor ci permette di approssimare la funzione f (x) in ogni suo punto grazie a dei polinomi di ordine sempre maggiore: f (x) ≃ f1 (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + O((x − x0 )2 ) f (x) ≃ f2 (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + 1 ′′ f (x0 )(x − x0 )2 + O((x − x0 )3 ) (appr. quadratica), 2! ... ≃ ... f (x) ≃ (appr. lineare), fn (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + . . . + 1 (n) f (x0 ) + O((x − x0 )n+1 ) (appr. di ordine n). n! 67 Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 68 Si noti che la conoscenza di tutte le derivate f (n) (x0 ), ∀n è equivalente alla conoscenza della funzione originaria. Nel caso delle funzioni periodiche questa espansione è talvolta molto poco efficiente e qualche volta impossibile (se ad esempio la funzione non è derivabile in un punto). Risulta pertanto molto conveniente approssimare le funzioni periodiche tramite una sovrapposizione di funzioni periodiche elementari. Per questo sviluppo sarà necessario utilizzare sia funzioni pari che dispari, dal momento che si hanno funzioni pari, dispari e di parità indefinita. Ricordiamo che una funzione: • f (x) si dice pari sse f (−x) = f (x); • f (x) si dice dispari sse f (−x) = − f (x); Ricordando che il seno è dispari, e il coseno è pari, ci si aspetta di dover uilizzare una combinazione di tutte e due le funzioni. Esempio: Funzione triangolare Consideriamo la funzione f (x) = π 4x 0≤x≤ π 4 (π π 2 − x) π 2 (4.2) ≤x≤π Questa funzione è continua, ma non derivabile nel punto x = π2 , quindi uno sviluppo alla Taylor non funzionerebbe. Inoltre f (x) è una funzione dispari. Osservazione 4.1.1 Si noti che ogni funzione può essere pensata come somma di una funzione pari di una funzioni pari e di una dispari: f (x) = f+ (x) = f− (x) = f+ (x) + f− (x), 1 f (x) + f (−x) 2 1 f (x) − f (−x) 2 (4.3) funzione pari; (4.4) funzione dispari. (4.5) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 69 Si vede facilmente che, siccome la funzione triangolare è dispari, si può scrivere una sequenza di sue approssimazioni successive del tipo: f1 (x) = sin(x), 1 sin(3x), 32 1 1 f3 (x) = sin(x) − 2 sin(3x) + 2 sin(5x), 3 5 f2 (x) = sin(x) − ... = .... (4.6) (4.7) (4.8) (4.9) Se si sommano tutti i contributi si ottiene una serie convergente: f (x) = +∞ X (−1)n+1 sin[(2n − 1)x]. (2n − 1)2 n=1 (4.10) 4.2 La serie di Fourier Supponiamo di avere una funzione periodica f (θ) nell’intervallo −π ≤ θ ≤ π che rapprensenta il periodo. Dato che f (θ) = f+ (θ) + f− (θ) ∀ f e che le funzioni sin(θ) e cos(θ) sono rispettivamente dispari e pari, ci si aspetta di dover sviluppare la funzione f (θ) come combinazione lineare infinita (serie) di sin(nθ) e cos(nθ). Definizione 4.2.1 (Serie di Fourier) Una serie di Fourier è definita come un’espansione di una funzione in una serie di seni e coseni come segue: f (θ) = +∞ X 1 a0 + [an cos(nθ) + bn sin(nθ)] 2 n=1 (4.11) Osservazione 4.2.1 Il termine a0 rende conto di eventuali termini costanti e il fattore 1/2 è dato per convenzione. Si noti inoltre che la conoscenza di a0 , an , bn è equivalente alla conoscenza di f (θ). Per ricavare i coefficienti a0 , an e bn è necessario dimostrare il seguente lemma: Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 70 Teorema 4.2.1 Valgono le seguenti identità: 1. Z +π ∀n, m; dθ sin(nθ) cos(mθ) = 0, −π (4.12) 2. Z +π Z +π dθ sin(nθ) sin(mθ) = πδnm ; (4.13) dθ cos(nθ) cos(mθ) = πδnm ; (4.14) −π 3. −π Dim. 1) Si ricordi innanzitutto che Z +π dθ cos(nθ) = 0 = −π Z +π dθ sin(nθ). (4.15) −π Possiamo usare la formula trigonometrica: 2 sin z1 cos z2 = sin(z1 − z2 ) + sin(z1 + z2 ), (4.16) che applicata al nostro caso per z1 = nθ, z2 = mθ diventa 1 1 sin[(n − m)θ] + sin[(n + m)θ], 2 2 sin(nθ) cos(mθ) = (4.17) con n, m arbitrari. Quindi Z +π dθ sin(nθ) cos(mθ) = −π 1 2 Z +π −π dθ sin[(n − m)θ] + 1 2 Z +π dθ sin[(n + m)θ] = 0, (4.18) −π per l’eq.(4.15). Dim. 2) Consideriamo il caso n , m. Usando la seguente relazione 2 sin z1 sin z2 = cos(z1 − z2 ) − cos(z1 + z2 ), (4.19) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 71 si ottiene Z +π dθ sin(nθ) sin(mθ) = −π 1 2 Z +π −π 1 dθ cos ((n − m)θ)) − 2 Z +π dθ cos ((n + m)θ)) = 0,(4.20) −π sempre per l’eq.(4.15). Per n = m si usa invece la relazione: cos 2z = 2 cos2 z − 1 = 1 − 2 sin2 z, (4.21) da cui 1 (1 − 2 cos 2z) , 2 sin2 z = (4.22) quindi Z +π 2 dθ sin (nθ) = −π 1 2 Z +π 1 dθ − 2 −π Z +π dθ cos ((2nθ)) = π. (4.23) −π Dim. 3) si dimostra in modo analogo. A questo punto possiamo ricavare i coefficienti della serie di Fourier con le seguenti relazioni: Teorema 4.2.2 I coefficienti della serie di Fourier sono dati dalle seguenti relazioni: 1. 1 π a0 = Z +π dθ f (θ); (4.24) dθ f (θ) cos(nθ); (4.25) dθ f (θ) sin(nθ). (4.26) −π 2. an = 1 π Z +π 1 π Z +π −π 3. bn = −π Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 72 Dim. 1) Partiamo dall’eq. (4.11) e integramo ambo i memrbi su θ: Z +π −π Z +π 1 a0 dθ + dθ f (θ) = 2 −π Z +∞ " Z +π X + dθ cos(nθ) + bn an # dθ sin(nθ) −π −π n=1 +π = πa0 , quindi 1 π a0 = Z +π dθ f (θ). (4.27) −π Dim. 2) Per le an moltiplichiamo ambo i membri dell’eq.(4.11) per cos(mθ) e integriamo su θ: +π Z Z +π 1 a0 dθ cos(mθ) + 2 −π Z +∞ " Z +π X + an dθ cos(mθ) cos(nθ) + bn dθ f (θ) cos(mθ) = −π −π n=1 +π −π # dθ cos(mθ) sin(nθ) = πam , dunque 1 am = π +π Z dθ f (θ) cos(mθ). (4.28) −π Dim. 3) In questo caso moltiplichiamo l’eq.(4.11) per sin(mθ) e integriamo su θ: Z +π −π Z +π 1 dθ f (θ) sin(mθ) = dθ sin(mθ) + a0 2 −π Z +∞ " Z +π X + an dθ sin(mθ) cos(nθ) + bn −π n=1 +π −π # dθ sin(mθ) sin(nθ) , = πbm , quindi 1 bm = π Z +π −π dθ f (θ) sin(mθ). (4.29) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 73 4.3 Problema delle variabili coniugate Abbiamo visto che per una variabile adimensionale θ ∈ [−π, π] si può esprimere una funzione f (θ) in serie di Fourier come nell’eq.(4.11). Si pone ora il problema di come comportarsi nel caso in cui la funzione dipenda da una variabile dimensionale. Consideriamo due esempi: L Variabili spaziali: sia x ∈ [ −L 2 , 2 ] e sia data una funzione periodica f (x) con periodo L. In questo caso per ricondurci ad una variabile adimensionale poniamo: θ = kx, (4.30) dove k ha le dimensioni dell’inverso di una lunghezza: [k] = 1/[x]. Allora siccome θ = π per x = L/2 si ha π = kL/2 dunque si ricava il valore di k: k= 2π . L (4.31) Lo sviluppo sarà f (x) = # +∞ " X 1 2πnx 2πnx a0 + ) + bn sin( ), an cos( 2 L L n=1 (4.32) +∞ X 1 a0 + [an cos(nkx) + bn sin(nkx).] 2 n=1 (4.33) che usando la (4.31) diventa f (x) = Si noti che le dimensioni di k sono quelle di un vettore d’onda. T Variabili temporali: sia t ∈ [ −T 2 , 2 ] e sia data una funzione periodica f (t) con periodo T . In questo caso per ricondurci ad una variabile adimensionale poniamo: θ = ωt, (4.34) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 74 dove ω ha le dimensioni dell’inverso di un tempo: [ω] = 1/[t]. Allora poiché θ = π per t = T/2, deve essere π = ωT/2 e dunque: ω= 2π . T (4.35) Lo sviluppo sarà f (t) = # +∞ " X 2πnt 2πnt 1 a0 + ) + bn sin( ), an cos( 2 T T n=1 (4.36) +∞ X 1 a0 + [an cos(nωt) + bn sin(nωt).] 2 n=1 (4.37) che usando la (4.35) diventa f (t) = Si noti che le dimensioni di ω sono quelle di una frequenza angolare. Definizione 4.3.1 Le variabili k ed ω si dicono variabili coniugate rispetto ad x e t rispettivamente. È utile inoltre definire le quantità 2πn , L 2πn = nω = . T kn = nk = (4.38) ωn (4.39) L −T T Osservazione 4.3.1 la scelta di avere sempre degli intervalli simmetrici [−π, π], [ −L 2 , 2 ], [ 2 , 2 ] non è essenziale, l’importante è che il periodo sia quello scelto, ovvero 2π, L e T . 4.4 Vantaggi ed esempi di applicazione delle serie di Fourier Ci sono tre importanti vantaggi nell’uso dello sviluppo in serie di Fourier: 1. Lo sviluppo in serie di Fourier funziona anche per funzioni discontinue. 2. Lo sviluppo in serie di Fourier permette di rappresentare funzioni periodiche. Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 75 3. Lo sviluppo in serie di Fourier permette di identificare immediatamente le armoniche principali della funzioni e quindi anche le risonanze. Esempio: la funzione quadrata Consideriamo la funzione: 0 f (θ) = h −π < θ < 0 (4.40) 0<θ<π Questa funzione è discontinua in x = 0. Consideriamo il suo sviluppo in serie di Fourier di questa funzione: +∞ X 1 a0 + [an cos(nθ) + bn sin(nθ)] , 2 n=1 f (θ) = (4.41) dove i coefficienti a0 saranno: 1 a0 = π Z +π −π 1 dθ f (θ) = π Z +π dθh = h. (4.42) 0 Gli an sono nulli, mentre bn = 1 π Z +π −π dθ f (θ) sin(nθ) = 2h nπ n dispari, 0 n pari. . (4.43) Sopravvivono dunque solo i termini dispari e il termine costante: +∞ X 1 2h f (θ) = h + sin[(2n − 1)θ], 2 (2n − 1)π n=1 (4.44) # " 1 2h sin(3θ) sin(5θ) f (θ) = h + + + ... . sin θ + 2 π 3 5 (4.45) che esplicitando diventa Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 76 Esempio: oscillatore armonico forzato Si consideri il seguente problema: una massa m è connessa ad una molla di costante elastica k e soggetta ad una forza dipendente dal tempo F(t) = F0 sin(Ωt). L’equazione di Newton allora è m ẍ = −kx + F(t), (4.46) ovvero ẍ + Definiamo ora ω0 = q k m F0 k x= sin(Ωt). m m (4.47) che è la frequenza angolare caratteristica dell’oscillatore armonico libero. Sviluppando in serie di Fourier la funzione x(t) periodica di periodo T : x(t) = +∞ X 1 a0 + [an cos(ωn t) + bn sin(ωn t)] , 2 n=1 (4.48) dove ωn = (2πn)/T . Derivando rispetto al tempo ottieniamo ẋ(t) = +∞ X [−ωn an sin(ωn t) + bn ωn cos(ωn t)] , (4.49) n=1 e derivando ulteriormente ẍ(t) = +∞ h X n=1 i −ω2n an cos(ωn t) − ω2n bn sin(ωn t) . (4.50) Sostituendo nell’eq.(4.47) si ottiene: +∞ h +∞ X X i −ω2n an cos(ωn t) − ω2n bn sin(ωn t) + ω20 [an cos(ωn t) + bn sin(ωn t)] = n=1 n=1 F0 sin(Ωt). (4.51) m Quindi per n = 1 (ω20 − ω21 ) [a1 cos(ω1 t) + b1 sin(ω1 t)] = F0 sin(Ωt), m (4.52) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 77 mentre per n ≥ 2 (ω20 − ω2n ) [an cos(ωn t) + bn sin(ωn t)] = 0. (4.53) 1. Caso ω20 , ω2n ∀n = 1, 2, . . .. In questo caso b1 = 0 e inoltre ω1 = Ω implica che a1 = 1 F0 . 2 m ω0 − Ω 2 (4.54) Invece per n ≥ 2, si ha an = 0 = bn quindi x(1) (t) = F0 sin(Ωt) . m ω20 − Ω2 (4.55) 2. ∃n∗ tale che ω20 = ω2n∗ . In questo caso i coefficienti corrispondenti ad an∗ e bn∗ sono arbitrari quindi x(2) (t) = an∗ cos(ωn∗ t) + bn∗ sin(ωn∗ t). (4.56) Quest’ultima è la soluzione del problema omogeneo (oscillatore armonico libero). La soluzione generale sarà data dalla somma delle due: x(t) = an∗ cos(ωn∗ t) + bn∗ sin(ωn∗ t) + F0 sin(Ωt) . m ω20 − Ω2 (4.57) Si noti che la soluzione diverge per Ω = ω0 , che rappresenta la risonanza dell’oscillatore armonico forzato. Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 78 4.5 Forma complessa delle serie di Fourier La serie di Fourier può essere espressa in una forma più semplice se utilizziamo i numeri complessi, servendoci delle formule di Eulero per esprimere sin e cos in termini dell’esponenziale complesso: cos z = sin z = eiz + e−iz , 2 eiz − e−iz . 2i (4.58) (4.59) Sostituendo nell’eq.(4.11) si ha f (θ) = = # +∞ " X 1 einθ − e−inθ einθ + e−inθ a0 + − ibn an 2 2 2 n=1 # " +∞ X 1 an − ibn inθ an + ibn −inθ a0 + e + e . 2 2 2 n=1 (4.60) (4.61) Definiamo ora i seguenti coefficienti complessi: c0 = cn = c−n = 1 a0 , 2 an − ibn , 2 an + ibn . 2 (4.62) (4.63) (4.64) Quindi cambiando l’indice per il termine relativo a c−n si ottiene infine la serie di Fourier in forma complessa: f (θ) = +∞ X cn einθ , (4.65) n=−∞ dove i cn ∈ C e si ricavano usando le espressioni per an e bn (che invece ∈ R) delle equazioni (4.25) e (4.26) e il fatto che cos(nθ) − i sin(nθ) = e−inθ , ottenendo infine: cn = 1 2π Z +π −π dθe−inθ . (4.66) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 79 Si noti che il segno dell’espansione è arbitrario essendo simmetrica rispetto allo scambio n → −n. La cosa importante è che i coefficienti devono avere segno opposto nell’esponente rispetto a quello dell’esponenziale che compare nello sviluppo in serie. Si noti inoltre che tale espansione vale per ogni funzione periodica nell’intervallo [−π, π]. 4.6 Trasformata integrale di Fourier Consideriamo ora invece che la variabile adimensionale θ, delle variabili dimensionali come nel paragrafo 4.3. Anche in questo caso dobbiamo ricorrere alle variabili coniugate: L Variabili spaziali: sia x ∈ [ −L 2 , 2 ] e sia data una funzione periodica f (x) con periodo L. In questo caso la variabile coniugata è: kn = 2πn . L (4.67) Lo sviluppo sarà +∞ X f (x) = F(kn )eikn x , (4.68) n=−∞ dove abbiamo sostituito cn con F(kn ) (eq. (4.66)) ovvero: F(kn ) = 1 L Z + L2 − L2 dx f (x)e−ikn x . (4.69) T Variabili temporali: sia t ∈ [ −T 2 , 2 ] e sia data una funzione periodica f (t) con periodo T . In questo caso la variabile coniugata è ωn = 2πn , T (4.70) e lo sviluppo sarà f (t) = +∞ X n=−∞ F(ωn )eiωn t , (4.71) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 80 dove abbiamo sostituito cn con F(ωn ) (eq. (4.66)) ovvero: F(ωn ) = 1 T + T2 Z − T2 dt f (t)e−iωn t . (4.72) Vediamo ora come sia possibile introdurre uno sviluppo che non vale solo per le funzioni periodiche ma più in generale per qualsiasi funzione definita in tutto lo spazio. Prendiamo il caso delle variabili spaziali e assumiamo che L ≫ 1 e introduciamo la seguente definizione: ∆kn = kn+1 − kn = 2π , L (4.73) quindi ∆kn = 2π ≪ 1, L (4.74) nel limite L ≫ 1. A questo punto possiamo riscrivere l’eq.(4.68) come segue f (x) = +∞ X +∞ L X ∆kn F(kn )eikn x . 2π n=−∞ F(kn )eikn x = n=−∞ (4.75) Definiamo ora la funzione fˆ(kn ) = LF(kn ), (4.76) e quindi dall’eq.(4.69), usando l’eq.(4.76) si ottiene: fˆ(kn ) = LF(kn ) = Z + L2 − L2 dx f (x)e−ikn x . (4.77) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 81 Quest’ultima relazione vale ∀L, tuttavia se L → ∞ allora si ha che ∆kn → 0 e dunque +∞ X n=−∞ ∆kn → Z +∞ dk, (4.78) −∞ ovvero si passa da un indice discreto n ad un indice continuo k. Quindi l’eq.(4.75) nel limite L → ∞ diventa: f (x) = Z +∞ Z +∞ −∞ dk ˆ ikx f (k)e , 2π (4.79) dx f (x)e−ikx . (4.80) mentre l’eq.(4.77) diventa fˆ(k) = −∞ Le eq.(4.79) e (4.80) costituiscono la coppie di trasformate di Fourier: fˆ(k) = F [ f (x)], (Trasfomata di Fourier) f (x) = F −1 [ fˆ(k)]. (Antitrasformata di Fourier) (4.81) (4.82) Si procede in modo del tutto analogo per le variabili temporali in cui si definisce ∆ωn = ωn+1 − ωn = 2π ≪ 1, T (4.83) e si ottiene fˆ(ω) = f (t) = Z +∞ Z−∞ +∞ −∞ dt f (t)e−iωt , dω ˆ f (ω)eiωt . 2π (Trasfomata di Fourier) (Antitrasfomata di Fourier) (4.84) (4.85) Questo vale per una qualunque funzione dato che abbiamo esteso l’integrale a tutto lo spazio e non più solamente al periodo finito. Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 82 4.7 La funzione di Dirac e le sue rappresentazioni Consideriamo la seguente funzione ∆ǫ (x) = se − 2ǫ ≤ x ≤ 1 ǫ 0 se |x| > ǫ 2 ǫ 2 e supponiamo di conoscere ∆ǫ1 (x), ∆ǫ2 (x), . . . in modo che ǫ1 > ǫ2 > ǫ3 > . . .. Questo significa considerare una successione di funzioni che diventano sempre più strette e sempre più alte attorno allo zero. A questo punto se prendiamo ǫn → 0 si ottiene Z +∞ Z dx∆ǫn (x) = −∞ + ǫ2n dx − ǫ2n 1 1 = ǫn = 1. ǫn ǫn (4.86) Allo stesso modo si ha che per una funzione arbitraria f (x) abbiamo Z +∞ −∞ dx f (x)∆ǫn (x) = Z + ǫ2n − ǫ2n dx f (x) 1 = f (0). ǫn (4.87) Dunque prendendo il limite ǫn → 0 otteniamo +∞ se x = 0 , ∆ǫ (x) → δ(x) = 0 se x , 0 e valgono le seguenti proprietà Z Z +∞ +∞ dxδ(x) = 1, (4.88) −∞ dx f (x)δ(x) = f (0). (4.89) −∞ Osservazione 4.7.1 È importante notare che una tale funzione non esiste nel senso ordinario, ma solo nel senso delle distribuzioni, cioè pensandola appunto come il limite di una successione di funzioni regolari che abbiano le proprietà (4.88) e (4.89). Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 83 Definizione 4.7.1 (δ di Dirac) In generale si può definire la funzione (nel senso delle distribuzioni) δ(x) di Dirac una funzione che soddisfi le proprietà: Z Z b dx f (x)δ(x − x0 ) = a x ∈ [a, b], f (x0 ) (4.90) b a dx f (x)δ(x − x0 ) = 0 x < [a, b]. (4.91) È possibile pensare alla δ come limite di una funzione regolare: Esempio: Funzione gaussiana δ(x) = lim fa (x) = lim √ a→0 a→0 1 2πa2 − e x2 2a2 . (4.92) Per vedere che ciò è vero basta mostrare che 1. lim fa (0) = +∞, (4.93) a→0 2. Z +∞ ∀a. (4.94) = +∞. (4.95) dx fa (x) = 0, −∞ Dim. 1) Per ogni parametro a > 0 si ha lim fa (0) = lim √ a→0 a→0 1 2πa2 Dim. 2) Z +∞ dx fa (x) = −∞ = 1 Z +∞ − x2 2a2 , 2πa2 −∞ Z +∞ z2 1 dze− 2 = 1, √ 2π −∞ √ dxe (4.96) ∀a, (4.97) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 84 dove z = x/a e dz = dx/a. Esempio: Funzione Lorenziana δ(x) = lim Lǫ (x) = lim ǫ→0 ǫ→0 1 ǫ . π x2 + ǫ 2 (4.98) Per vedere che ciò è vero basta mostrare che 1. lim Lǫ (0) = +∞, ǫ→0 (4.99) 2. Z +∞ dxLǫ (x) = 0, −∞ ∀ǫ > 0. (4.100) Dim. 1) Per ogni parametro ǫ > 0 si ha lim Lǫ (0) = lim ǫ→0 ǫ→0 1 = +∞. πǫ (4.101) Dim. 2) Z +∞ dxLǫ (x) = −∞ = Z 1 +∞ 1 ǫ dx 2 π −∞ π x + ǫ2 +∞ 1 −1 x = 1. tan π ǫ −∞ 4.8 Proprietà della funzione di Dirac Si ha che ∀x ∈] − ∞, +∞[ si ha che: 1. δ(−x) = δ(x). (4.102) (4.103) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 85 dim. +∞ Z dxδ(−x) f (x) = −∞ = Z +∞ Z−∞ +∞ dxδ(x) f (−x) = f (0) dxδ(x) f (x), −∞ ∀ f (x). 2. Z +∞ −∞ dxδ′ (x − x0 ) f (x) = − f ′ (x0 ). dim. Z +∞ ′ −∞ 3. δ(ax) = dxδ (x − x0 ) f (x) = δ(x − x0 ) f (x)|+∞ −∞ − Z +∞ −∞ dxδ(x − x0 ) f ′ (x) = − f ′ (x0 ). 1 |a| δ(x) dim. Se a > 0 allora Z +∞ dxδ(ax) f (x) = −∞ = Z 1 y 1 +∞ dyδ(y) f ( ) = f (0) a −∞ a a Z +∞ 1 dxδ(x) f (x). a −∞ Se a = −|a| < 0 allora Z +∞ dxδ(−|a|x) f (x) = −∞ 1 2|x0 | +∞ 1 |a| Z dxδ(|a|x) f (x) −∞ = 4. δ(x2 − x20 ) = Z [δ(x + x0 ) + δ(x − x0 )], con x0 > 0. +∞ dxδ(x) f (x). −∞ Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 86 Dim. ∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) ha due radici x = ±x0 , quindi Z +∞ 2 dxδ(x − −∞ x20 ) f (x) = Z +∞ −∞ dxδ ∆x0 (x) f (x), dove tramite un’espansione di Taylor ∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) = 2x0 (x − x0 ) + O (x − x0 )2 , ∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) = −2x0 (x + x0 ) + O (x + x0 )2 , dove si è sviluppato nel primo caso attorno a x0 e nel secondo attorno a −x0 . Sostituendo si ottiene: Z +∞ −∞ 2 dxδ(x − x20 ) f (x) = Z +∞ Z−∞ +∞ dxδ 2x0 (x − x0 ) + O (x − x0 )2 f (x) + dxδ −2x0 (x + x0 ) + O (x + x0 )2 f (x), Z +∞ −∞ Z +∞ 1 1 dxδ(x − x0 ) f (x) + dxδ(x + x0 ) f (x), = 2x0 −∞ 2|x0 | −∞ Z +∞ 1 [δ(x − x0 ) + δ(x + x0 )] f (x). = dx 2|x0 | −∞ + 4.9 Relazione della funzione di Dirac e la trasformata di Fourier Abbiamo visto che fˆ(k) = f (x) = Z +∞ Z−∞ +∞ −∞ dx f (x)e−ikx , (Trasfomata di Fourier) (4.104) dk ˆ ikx f (k)e , 2π (Antitrasfomata di Fourier) (4.105) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 87 dove F : L2 (R) → L2 (R) 7→ f (x) fˆ(k) F −1 L2 (R) → L2 (R) fˆ(k) 7→ f (x) Questo significa che deve essere: F −1 F f (x) = f (x). (4.106) Sostituendo la eq.(4.104) nella (4.105) si ha Z dk ikx +∞ e dye−iky f (y), 2π # "Z +∞−∞ Z−∞ +∞ dk ik(x−y) e f (y). = dy −∞ 2π −∞ Z f (x) = +∞ Ricordando che dalla definizione della δ si ha +∞ Z dyδ(y − x) f (y) = −∞ f (x), e che δ(−x) = δ(x) per confronto si ha che deve essere: Z +∞ −∞ dk ik(x−y) e = δ(y − x). 2π (4.107) Analogamente sostituendo l’ eq.(4.105) nella (4.104) si ottiene: Z +∞ −∞ ′ dxe−i(k−k )x = 2πδ(k − k′ ). (4.108) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 88 Osservazione 4.9.1 Definendo ck (x) = eikx e c∗k (x) = e−ikx allora l’ eq.(4.105) si può scrivere f (x) = Z +∞ −∞ dk ck (x) 2π (4.109) ed interpretare come un’espansione in onde piane. In maniera analoga l’eq.(4.107) si può leggere +∞ Z −∞ dk ck (x)c∗k (x) = δ(y − x), 2π (4.110) che rappresenta una relazione di completezza della base di Fourier nello spazio L2 (R). 4.10 Teorema di Convoluzione Il teorema di convoluzione è di grande importanza poiché ci permette di avere, grazie alla trasformata di Fourier, la convoluzione di funzioni in un prodotto delle funzioni trasformate. In altre parole la convoluzione in un dominio (per esempio il dominio del tempo) diventa una semplice moltiplicazione nel dominio della variabile coniugata (per esempio il dominio della frequenza). Definiamo innanzitutto l’operazione di convoluzione (per avere un’idea di che cosa significhi l’operazione di convoluzione si pensi ad esempio all’eco di un segnale acustico: l’eco rappresenta la convoluzione del suono originale con una funzione geometrica che descrive i vari oggetti che stanno riflettendo il segnale sonoro). Definizione 4.10.1 Siano date dunque due funzioni arbitrarie di L2 (R) f e g tali che: fˆ(k) = F f (x) = ĝ(k) = F g(x) = Z +∞ Z −∞ +∞ dxe−ikx f (x), (4.111) dxe−ikx g(x), (4.112) −∞ allora si defininisce l’operazione di convoluzione come segue: ( f ∗ g) (x) = Z +∞ −∞ dy f (x − y)g(y) = Z +∞ −∞ dyg(x − y) f (y). (4.113) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 89 Vediamo ora come la trasformata di Fourier rende tale operazione molto semplice: sia h(x) = ( f ∗ g) (x) la funzione risultato della convoluzione: h(x) = Z +∞ dy f (x − y)g(y). −∞ (4.114) Dalla (4.111), abbiamo che fˆ(k) = Z +∞ Z +∞ dxeikx f (x), (4.115) dk ik(x−y) ˆ f (k), e 2π (4.116) −∞ dunque f (x − y) = −∞ e analogamente g(y) = Z +∞ −∞ dk′ ik′ y ′ e ĝ(k ). 2π (4.117) Sostituendo nell’eq.(4.114) si ha: h(x) = = = = = Z +∞ Z−∞ +∞ Z−∞ +∞ Z−∞ +∞ Z−∞ +∞ −∞ +∞ ′ dk ik(x−y) ˆ +∞ dk ik′ y e f (k)int−∞ e ĝ(k′ ), 2π 2π Z +∞ Z−∞ dk +∞ dk′ ˆ ′ ′ ikx f (k)ĝ(k )e dyei(k −k)y 2π −∞ 2π −∞ Z dk +∞ dk′ ˆ f (k)ĝ(k′ )eikx δ(k − k′ ) 2π −∞ 2π Z +∞ ′ dk ikx ˆ dk e f (k) ĝ(k′ )δ(k − k′ ) 2π 2π −∞ i dk ikx h ˆ e f (k)ĝ(k) . 2π dy Z (4.118) (4.119) (4.120) (4.121) (4.122) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 90 D’altra parte si ha Z h(x) = +∞ −∞ dk ik(x) e ĥ(k), 2π (4.123) e quindi per confronto si ha il teorema di convoluzione: ĥ(k) = fˆ(k)ĝ(k), (4.124) ovvero F f (x) ∗ g(x) = F f (x) F g(x) . (4.125) 4.11 Teorema di Parseval Un altro importante importante in meccanica quantistica è quello noto come teorema di Parseval: la trasformata di Fourier conserva il prodotto scalare (in altre parole si tratta di una trasformazione unitaria): Z +∞ ∗ dx f (x)g (x) = Z +∞ −∞ −∞ dk ˆ f (k)ĝ∗ (k). 2π (4.126) Dim. Z +∞ ∗ dx f (x)g (x) = −∞ = = = Z +∞ Z−∞ +∞ Z−∞ +∞ Z−∞ +∞ −∞ dx +∞ Z +∞ dk1 ik1 x ˆ dk2 −ik2 x ∗ e f (k1 ) e ĝ (k2 ) 2π −∞ −∞ 2π Z +∞ Z +∞ dk2 ˆ fˆ(k1 ) f (k1 )ĝ∗ (k2 ) dxei(k1 −k2 )x −∞ 2π −∞ Z +∞ dk2 ˆ fˆ(k1 ) f (k1 )ĝ∗ (k2 )δ(k1 − k2 ), 2π −∞ Z dk1 2π dk1 2π dk1 ˆ f (k1 )ĝ∗ (k1 ). 2π (4.127) (4.128) (4.129) (4.130) Capitolo 4. Analisi di Fourier e Funzione δ di Dirac 91 In particolare si ha che se f (x) = g(x): Z +∞ −∞ dx | f (x)| 2 = Z +∞ −∞ dk ˆ 2 f (k) , 2π ovvero il modulo quadro di una funzione è conservato dalla trasformata di Fourier. (4.131) Capitolo 5 Equazioni Differenziali 5.1 Introduzione Le equazioni differenziali rappresentano uno strumento importantissimo per descrivere l’evoluzione di un sistema a partire da alcune condizioni iniziali. Infatti se si vuol descrivere un fenomeno (sia esso fisico, economico, sociale, etc.) in maniera quantitativa ci si ritrova a studiare delle funzioni del tipo y = f (x, t) che possono variare nel tempo e nello spazio. Tuttavia spesso è impossibile stabilire a priori direttamente l’andamento di tale funzione, mentre si può individuare una dipendenza tra y e le derivate di y rispetto a t. Ad esempio la legge di Newton F = ma in cui si conosca il valore della forza rappresenta un’equazione differenziale che descrive il moto di un corpo di massa m sottoposto alla forza F. In questo caso la legge di Newton non ci da subito un’informazione sulla posizione del corpo in questione, bensı̀ un’informazione sulla sua accelerazione a che rappresenta la dericata seconda della posizione. Si pensi al caso dell’oscillatore armonico (ad es. una molla) in cui F = −ky e l’equazione differenziale che descrive il moto è m d2 y + ky = 0. dt2 93 (5.1) 94 Capitolo 5. Equazioni Differenziali Con la Eq.(5.1) abbiamo stabilito una relazione che lega la funzione incognita y con la sua derivata seconda rispetto al tempo d2 y , dt2 cioè un’equazione differenziale rispetto alla funzione incognita y. Risolvere quest’equazione vuol dire trovare una funzione y = f (t) che verifichi l’equazione differenziale data. Questo che abbiamo considerato era un esempio molto semplice, di seguito sono riportati alcuni tipi di equazioni differenziali fondamentali che descrivono molti fenomeni naturali: 1. Equazione di Laplace: ∇2 ψ = 0, si trova nei problemi di elettromagnetismo, idrodinamica, flusso di calore, gravitazione (omogenea). 2. Equazione di Poisson: ∇2 ψ = −ρ ǫ0 (inomogenea). 3. Equazione di Helmoltz: ∇2 ψ ± k2 ψ = 0, è l’equazione delle onde o di diffusione indipendente dal tempo e si trova nei problemi concernenti le onde elettromagnetiche, le onde sonore e l’acustica, le onde elastiche nei solidi, i reattori nucleari; 4. Equazione di diffusione dipendente dal tempo: ∇2 ψ = 1 ∂ψ . a2 ∂t 5. Equazione delle onde dipendente dal tempo: ∂2 ψ = ∂µ ∂µ ψ = 0. 6. Equazione del potenziale scalare: ∂2 ψ = ρǫ . 7. Equazione di Klein Gordon, che descrive il moto delle particelle a spin intero: ∂2 ψ = −µ2 ψ. Capitolo 5. Equazioni Differenziali 95 8. Equazione di Schödinger: 2 ~ ∇2 ψ + Vψ = i~ ∂ψ − 2m ∂t . 9. Equazione delle onde elastiche, fluidi viscosi; 10. Equazioni di Maxwell e Dirac. In particolare noi ci soffermeremo sull’eqauzione di Helmholtz e di Schödinger nel caso indipendente da tempo. Per quanto riguarda le equazioni alle derivate parziali di ordine superiore al primo (come quelle degli esempi appena considerati) si possono risolvere tramite alcune tecniche di risoluzione: • tramite la separazione delle variabili, ovvero riducendo l’equazione differenziale alle derivate parziali di n variabili ad n equazioni differenziali ordinarie di una sola variabile; • tramite la coversione della equazione alla derivate parziali in un’eqauazione integrale usando le funzioni di Green se si hanno delle equazioni differenziali non omogenee; • altri metodi come l’uso delle trasformazioni integrali. La logica seguita in questo capitolo pertanto è la seguente: nel paragrafo 5.2 cercheremo di definire esattamente che cos’è un’equazione differenziale. Nel paragrafo 5.3 considereremo per prima cosa le equazioni di primo grado, ripercorrendo la loro soluzione per separazione delle variabili, come differenziale esatto, e in particolare ci soffermeremo sulle equazioni lineari del primo ordine. Nel paragrafo 5.4 è descritto il metodo della separazione delle variabili applicandolo in particolare all’equazione di Helmholtz, che in questo paragrafo viene ridotta a tre equazioni di secondo grado ordinarie (ovvero equazioni in una sola variabile). Nel paragrafo 5.5 si descrive il metodo di Frobenius, ovvero un metodo di sviluppo in serie con cui si può trovare una soluzione di un’equazione lineare omogenea. Nel paragrafo 5.6 si risolve con questo metodo l’equazione di Schrödinger, mentre nel paragrafo 5.7 si considerano i limiti di applicabilità dello sviluppo in serie. Nel paragrafo 5.8 si descrive il metodo del Wronskiano che consente di trovare tutte le soluzioni linearmente indipendenti per una equazione diff. lineare omogenea. Nel paragrafo 5.9 i risultati ottenuti per 96 Capitolo 5. Equazioni Differenziali l’equazione di Helmholtz vengono generalizzati al caso di un operatore differenziale generico H e si descrive il problema di Sturm Liouville, le cui proprietà vengono brevemente discusse in paragrafo 5.10. 5.2 Definizioni Definizione 5.2.1 Si dice equazione differenziale ordinaria un’equazione che stabilisce una relazione tra la variabile indipendente x, la funzione incongnita y = f (x) e le sue derivate y′ , y′′ , . . . , y(n) . Un’equazione differenziale ordinaria (che significa che y = f (x) é funzione di una sola variabile) può essere scritta simbolicamente nei modi seguenti: F(x, y′ , y′′ , . . . , y(n) ) = 0. (5.2) oppure equivalentemente F(x, dn y dy d2 y , 2 , . . . , n ) = 0. dx dx dx (5.3) Il più delle volte però, le si ha che y è funzione di due o più variabili, in tal caso si parla di equazioni differenziali alle derivate parziali: Definizione 5.2.2 Si dice equazione differenziale alle derivate parziali una relazione tra una funzione incognita f che dipende da due o più variabili x, y, . . ., queste variabili e le derivate parziali di f: F(x, y, . . . ∂f ∂f ∂2 f , , . . . , 2 , . . .) = 0. ∂x ∂y ∂x (5.4) Definizione 5.2.3 Si chiama ordine di un’equazione differenziale l’ordine massimo della derivata che vi compare. Capitolo 5. Equazioni Differenziali 97 Definizione 5.2.4 Si chiama soluzione o integrale di un’equazione differenziale una qualsiasi funzione y = f (x) che, sostituita nell’equazione la trasforma in un’identità. Se ad esempio consideriamo l’eq.(5.1) le funzioni y = sin ωx, y = cos ωx, dove ω = √ k/m, e in generale y = C1 sin ωx + C2 cos ωx (5.5) è una soluzione generale dell’equazione dell’oscillatore armonico, a prescindere dalla scelta delle costanti C1 e C2 . È generale nel senso che è una soluzione in cui non si è ancora specificato il problema particolare ovvero non si sono ancora specificate le condizioni iniziali in cui si trova il sistema che vogliamo descrivere tramite l’equazione in questione. Se vogliamo restringerci ad un certo problema in particolare, per esempio quello in cui all’istante t = 0 la molla è ferma ed è allungata di tot centimetri rispetto alla sua lunghezza naturale, dobbiamo determinare tali costanti, ovvero trovare l’integrale particolare dell’equazione differenziale specificando le condizioni al contorno. Le condizioni al contorno possono essere di tre tipi: 1. Condizioni al contorno di Cauchy in cui viene specificato il valore al contorno della funzione e della sua derivata (ad es. y(0) = . . . e y′ (0) = . . . ). 2. Condizioni al contorno di Dirichlet in cui viene specificato solo il valore della funzione al contorno. 3. Condizioni al contorno di Neumann in cui viene specificato solo il valore della derivata della funzione al contorno. (n.b. Cauchy = Dirichlet + Neumann) 98 Capitolo 5. Equazioni Differenziali 5.3 Equazioni differenziali del primo ordine Un’equazione differenziale del primo ordine è della forma F(x, y, y′ ) = 0. (5.6) Se questa equazione è risolvibile rispetto a y′ , la si può scrivere nella forma seguente: y′ = f (x, y). (5.7) Si dice allora che l’equazione è risolvibile rispetto alla derivata e in tal caso vale il seguente teorema Teorema 5.3.1 (Teorema di esistenza ed unicità) Se nell’equazione dy dx = f (x, y) (5.8) la funzione f (x, y) e la sua derivata parziale rispetto a y sono continue in un certo campo D del piano Oxy e se (x0 , y0 ) è un certo punto di questo campo, esiste ed è unica la soluzione di questa equazione y = φ(x) (5.9) che soddisfa la condizione y = y0 per x = x0 . In termini geometrici il teorema ci dice che se valgono le ipotesi esiste una sola funzione y = φ(x) il cui grafico passa per il punto (x0 , y0 ), ovvero date certe condizioni iniziali, esiste una sola soluzione che le soddisfa. Pertanto risolvere un’equazione differenziale significa: 1. trovarne una soluzione generale o l’integrale generale (se le condizioni iniziali non sono date), oppure 2. trovare la soluzione particolare che soddisfa le condizioni iniziali date (se queste esistono). Capitolo 5. Equazioni Differenziali 99 5.3.1 Equazioni a variabili separabili Nel caso particolare in cui la (5.7) assuma la forma: dy dx = f1 (x) f2 (y), (5.10) ovvero nel caso in cui f (x, y) sia il prodotto di una funzione che dipende solo da x e una che dipende solo da y, l’equazione (5.10) può essere scritta come segue, supponendo che f2 (y) , 0: 1 dy = f2 (y) f1 (x)dx. (5.11) Quindi integrando separatamente i due differenziali essi differiscono al più per una costante: Z 1 dy = f2 (y) Z f1 (x)dx + C. (5.12) Definizione: In generale un’equazione che può essere riscritta come: P(x)dx + Q(y)dy = 0, (5.13) si chiama equazione a variabili separabili. È importante notare che questa tecnica di separazione delle variabili non richiede che l’equazione differenziale sia lineare. 5.3.2 Differenziale esatto L’eq. (5.7) si può scrivere come P(x, y)dx + Q(x, y)dy = 0. (5.14) 100 Capitolo 5. Equazioni Differenziali Questa equazione si dice esatta se corrisponde ad un differenziale dφ, ∂φ ∂φ dx + dy = 0. ∂x ∂y (5.15) Dato che l’eq. (5.14) è uguale a zero cerchiamo una funzione φ(x, y) costante tale che dφ = 0. Se tale funzione esiste deve essere P(x, y)dx + Q(x, y)dy = ∂φ ∂φ dx + dy ∂x ∂y (5.16) con ∂φ = P(x, y), ∂x ∂φ = Q(x, y). ∂y (5.17) La condizione necessaria e sufficiente affinché l’equazione sia esatta è che la forma differenziale dφ sia esatta, e che dunque le derivate parziali miste di φ(x, y), siano indipendenti dall’ordine di differenziazione: ∂2 φ ∂P(x, y) ∂Q(x, y) ∂2 φ = = = . ∂y∂x ∂y ∂x ∂x∂x (5.18) Se tale φ esiste deve essere φ(x, y) = C. Esempio: Data l’equazione: 2x y2 − 3x2 dx + dy = 0, y3 y4 (5.19) Capitolo 5. Equazioni Differenziali 101 verifichiamo se si tratta di un’eq. a differenziale esatto. P(x, y) = 2x , y3 Q(x, y) = y2 − 3x2 ; y4 allora ∂P(x, y) ∂y = − ∂Q(x, y) 6x =− 4; ∂x y 6x , y4 Ciò significa che l’equazione data è il differenziale totale di una funzione incognita φ(x, y). Per trovare questa funzione osserviamo che essendo φ = Z ∂φ ∂x = 2x , y3 si ha 2x x2 dx + f (y) = + f (y), y3 y3 dove f (y) è una funzione di y che dev’essere definita. Derivando questa relazione rispetto a y e tenendo conto del fatto che ∂φ ∂y = Q(x, y) = y2 − 3x2 , y4 si ha − 3x2 y2 − 3x2 ′ + f (y) = Q(x, y) = ; y4 y4 perciò si ha che f ′ (y) = 1 . y2 1 f (y) = − + c1 . y Quindi l’integrale generale dell’equazione iniziale è x2 1 − y3 y = C. 102 Capitolo 5. Equazioni Differenziali Tuttavia può essere che l’eq. (5.14) non sia esatta e che l’eq. (5.18) non sia soddisfatta. In ogni caso comunque esiste almeno un fattore integrante α(x, y) tale che α(x, y)P(x, y)dx + α(x, y)Q(x, y)dy = 0 (5.20) sia esatta. Il fattore integrante tuttavia non è sempre semplice da trovare e non esiste un modo sistematico per ricavarlo come si ha invece nel caso delle equazioni lineari del primo ordine che considereremo nel prossimo paragrafo. Si noti che un’equazione differenziale a variabili separabili è automaticamente esatta, mentre un’equazione esatta non è necessariamente separabile. 5.3.3 Equazioni lineari di primo ordine Definizione 5.3.1 Si chiama equazione lineare del primo ordine un’equazione lineare rispetto alla funzione incognita ed alla sua derivata. Essa è della forma ∂y + p(x)y = q(x), ∂x (5.21) dove p(x) e q(x) sono funzioni di x date. Se q(x) = 0 l’eq.5.21 è omogenea (in y). Il termine q(x) non nullo può rappresentare una sorgente o un termine forzante. Il fatto che l’eq.(5.21) sia lineare significa che ogni termine è lineare in y o dy/dx e che non ci sono potenze di ordine superiore quali per es. y2 oppure prodotti del tipo y(dy/dx). È importante tuttavia notare che ne’ p(x), ne’ q(x) devono essere lineari in x! L’eq.(5.21) può essere risolta esattamente, infatti se la si moltiplica per il fattore integrante α(x) tale che l’equazione: α(x) ∂y + α(x)p(x)y = α(x)q(x), ∂x (5.22) Capitolo 5. Equazioni Differenziali 103 possa essere riscritta come ∂ [α(x)y] = α(x)q(x), ∂x (5.23) cosicché ∂α(x) ∂y y + α(x) ∂x ∂x = α(x)q(x), (5.24) da cui segue che ∂α(x) ∂x = α(x)p(x), (5.25) quindi Z ln α(x) = x p(t)dt, (5.26) che ci permette ricavare il fattore integrante R α(x) = e x p(t)dt . (5.27) Una volta nota α(x) si puó integrare l’eq. (5.23): Z x ∂ [α(x)y] = ∂x Z x α(x)q(x), (5.28) ottenendo infine y(x) = e− R x p(t)dt Rt {e p(s)ds q(s)ds + C}. Teorema 5.3.2 Un’eq. del primo ordine ha solo una soluzione linearmente indipendente. (5.29) 104 Capitolo 5. Equazioni Differenziali dim. Supponiamo che y1 , y2 risolvano ambedue l’eq. diff. omogenea. Allora si ha che y′1 y1 = −p(x) = y′2 , y2 (5.30) che implica W(x) ≡ y′1 y2 − y1 y′2 ≡ 0. (5.31) W è detto il Wronskiano della coppia y1 , y2 . Mostriamo che W ≡ 0 è la condizione perché esse siano linearmente dipendenti. Infatti assumendo che siano linearmente dipendenti, cioè: ay1 + by2 = 0, (5.32) con a, b costanti non nulle per ogni x, deriviamo tale relazione lineare per ottenere quella che segue ay′1 + by′2 = 0. (5.33) La condizione per queste due equazioni nelle incognite a, b per avere una soluzione non banale è che il loro determinante sia nullo, ovvero W = 0. Invece se W = 0 segue la dipendenza lineare, infatti se integriamo la relazione y′1 y1 = y′2 , y2 (5.34) otteniamo ln y1 = ln y2 + ln C, (5.35) Capitolo 5. Equazioni Differenziali 105 ovvero y1 = Cy2 . (5.36) Vedromo più avanti la generalizzazione del Wronskiano. 5.3.4 Equazioni lineari di ordine n Definizione 5.3.2 Un’equazione differenziale di ordine n si dice lineare se essa è di primo grado rispetto alla funzione incognita y ed alle sue derivate y′ , . . . , y(n−1) , yn , cioè se essa si scrive nella forma a0 yn + a1 y(n−1) + · · · + an y = f (x), (5.37) dove a0 , a1 , . . . , an e f (x) sono funzioni date di x o costanti, mentre a0 , 0 per tutti i valori di x nel campo di definizione dell’eq. (5.37). In seguito assumeremo che a0 , a1 , . . . , an e f (x) sono funzioni continue per tutti i valori di x. La funzione f (x) si chiama secondo membro dell’equazione. Se f (x) , 0, l’equazione si dice non omogenea, se invece f (x) ≡ 0, l’equazione assume la forma a0 yn + a1 y(n−1) + · · · + an y = 0, (5.38) e si dice lineare omogenea associata. 5.4 Separazione delle variabili: equazione di Helmholtz Un modo di risolvere un’equazione alle derivate parziali di n variabili è quello di separarlo in n equazioni differenziali ordinarie. A tal fine, se si hanno n variabili, si dovranno introdurre n − 1 costanti. Come esempio applichiamo la procedura di separazione delle variabili all’equazione di 106 Capitolo 5. Equazioni Differenziali Helmholtz: ∇2 ψ ± k2 ψ = 0 (5.39) a) in coordinate cartesiane porta a tre equazioni (del tipo dell’oscillatore armonico)in una variabile per x, y e z; b) in coordinate cilindriche porta a 2 equazioni (dell’oscillatore armonico) in una variabile per z, φ e all’equazione di Bessel per ρ; c) in coordinate sferiche porta a un’equazione di Helmolz in una variabile per φ, un’equazione di Bessel in coordinate sferiche per r e, infine, un’equazione di Legendre per θ. a) Coordinate cartesiane. L’equazione di Helmholtz in coordinate cartesiane è ∂2 ψ ∂2 ψ ∂2 ψ + 2 + 2 + k2 ψ = 0. ∂x2 ∂y ∂z (5.40) Per separare le variabili possiamo scrivere ψ(x, y, z) = X(x)Y(y)Z(z) (5.41) e sostituire in (5.40). Si ha allora, dopo aver sostituito e diviso per ψ = XYZ: 1 d2 X 1 d2 Y 1 d2 Z + + + k2 = 0. X dx2 Y dy2 Z z2 (5.42) Se la scriviamo come segue: 1 d2 X 1 d2 Y 1 d2 Z = − − − k2 , X dx2 Y dy2 Z z2 (5.43) abbiamo dalla parte sinistra una funzione che dipende solo da x, mentre a destra una che dipende solo da y e z. Siccome x, y, z sono tre variabili indipendenti allora il cambiamento di Capitolo 5. Equazioni Differenziali 107 X non può dipendere da y e z e quindi sarà al più uguale a una costante: 1 d2 X = −l2 , X dx2 1 d2 Y 1 d2 Z − − k2 = −l2 . − Y dy2 Z z2 (5.44) (5.45) Analogamente a quanto osservato per il termine in X si puó scivere 1 d2 Y Y dy2 1 d2 Z Z z2 = −m2 , (5.46) = −n2 , (5.47) con k2 = n2 + l2 + m2 , ovvero si sono introdotte tre costanti di cui solo due sono indipendenti, ottenendo in tal modo tre equazioni per una sola variabile. La soluzione generale dell’equazione sarà: ψlm (x, y, z) = Xl (x)Ym (y)Zn (z) (5.48) b) Coordinate cilindriche. In coordinate cilindriche l’equazione di Helmholtz è data da: ∇2 ψ(ρ, φ, z) + k2 ψ(ρ, φ, z) = 0, (5.49) ! 1 ∂ ∂ψ 1 ∂2 ψ ∂2 ψ ρ + 2 2 + 2 + k2 ψ = 0. ρ ∂ρ ∂ρ ρ ∂φ ∂z (5.50) ψ(ρ, φ, z) = P(ρ)Φ(φ)Z(z) (5.51) ovvero Sostituendo nell’eq.(5.50) e dividendo per ψ si ottiene: ! 1 d dP 1 d2 Φ 1 d2 Z + + k2 = 0. ρ + 2 ρP dρ dρ ρ Φ dφ2 Z dz2 (5.52) 108 Capitolo 5. Equazioni Differenziali Anche in questo caso siccome ρ, φ, z sono tre variabili indipendenti allora il cambiamento di P non può dipendere da φ e z, e un ragionamento analogo vale per Φ e Z. Quindi, come fatto in precedenza, possiamo introdurre delle costanti l ed m e ottenere le seguenti equazioni diff. ordinarie: d2 Z dz2 d2 Φ dφ2 ρ = l2 Z, (5.53) = −m2 Φ, (5.54) ! dP d ρ + (−m2 + n2 ρ2 )P = 0. dρ dρ (eq. di Bessel) (5.55) c) Coordinate sferiche. In coordinate polari sferiche l’eq. di Helmholtz diventa: ∇2 ψ(r, θ, φ) + k2 ψ(r, θ, φ) = 0 (5.56) ! ! # " 1 ∂ ∂ψ 1 ∂2 ψ ∂ 2 ∂ψ r + sin θ + = −k2 ψ. sin θ ∂r ∂r ∂θ ∂θ sin θ ∂φ2 r2 sin θ (5.57) ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ) (5.58) ovvero Sostituendo nell’eq.(5.57) e dividendo per ψ si ottiene: ! ! d d2 Φ 1 d 2 dR 1 dΘ 1 = −k2 . r + sin θ + dr dθ Rr2 dr r2 sin θΘ dθ r2 Φ sin2 θ dφ2 (5.59) Introducendo le costanti m e Q quest’ultima equazione si può separare in tre eq. diff. ordinarie Capitolo 5. Equazioni Differenziali 109 in una sola variabile: d2 Φ(φ) + m2 Φ(φ) = 0, dφ2 " # dΘ(θ) m2 1 d sin θ − 2 Θ(θ) + QΘ(θ) = 0, sin θ dθ dθ sin θ " # 1 d 2 dR(r) QR(r) r + k2 R(r) − = 0 2 dr r dr r2 (eq. azimutale) (5.60) (eq. polare) (5.61) (eq. di Bessel). (5.62) La soluzione generale dell’eq. di Helmoholz in coordinte polari sferiche sarà ψQm (r, θ, φ) = X aQm RQ (r)ΘQm Φm (φ) (5.63) Q,m Osservazione 5.4.1 Si noti che k non deve essere necessariamente una costante e se si prende k = f (r) + 1 1 g(θ) + 2 h(φ) + k′2 , 2 r r sin θ (5.64) è ancora possibile separare le variabili e dunque la dipendenza angolare può essere isolata. In particolare nel caso dell’atomo di idrogeno k = χ(r). 5.5 Metodo di Frobenius In questa sezione descriviamo un metodo per ottenere una soluzione di un’equazione differenziale ordinaria lineare del secondo ordine omogenea. Questo metodo consiste in una espansione in serie della soluzione dell’eq. diff. e si può sempre applicare a patto che l’espansione sia fatta attorno ad un punto al più singolare regolare, come vedremo in seguito. Il metodo di Frobenius consiste nel sostituire la soluzione con un suo sviluppo in serie di potenze i cui coefficienti sono da determinarsi. Per illustrarlo applichiamo il metodo all’eq. dell’oscillatore armonico: d2 y + ω2 y = 0, dx2 (5.65) 110 Capitolo 5. Equazioni Differenziali di cui conosciamo già le soluzioni y = sin ωx, cos ωx. Possiamo sostituire y(x) = xk a0 + a1 x + a2 x2 + a3 x3 + · · · , = +∞ X an xk+n , (5.66) (5.67) n=0 dove si assume a0 , 0 e an , k sono ignoti. Si noti che se fosse a0 = 0 potremmo sempre risalire al primo coefficiente non nullo della serie con una opportuna scelta di k. Infatti si potrebbe scrivere y(x) = xk a1 x + a2 x2 + a3 x3 + · · · = xk+1 a1 + a2 x + a3 x2 + · · · , = xk+1 +∞ X an+1 xn . (5.68) (5.69) n=0 Calcoliamo ora y′ e y′′ : dy(x) dx d2 y(x) dx2 +∞ X = (k + n)an xk+n−1 , = (5.70) n=0 +∞ X n=0 (k + n)(k + n − 1)an xk+n−2 (5.71) sostituendo in (5.65) si ottiene: +∞ X n=0 k+n−2 (k + n)(k + n − 1)an x +ω 2 +∞ X an xk+n = 0. (5.72) n=0 Per il teorema di unicità delle serie di potenze si ha che i coefficienti di ciascuna potenza di x nella parte sinistra dell’eq.(5.72) devono essere nulli. Il primo termine dell’eq.(5.72) si può scrivere come Capitolo 5. Equazioni Differenziali 111 segue: +∞ X n=0 (k + n)(k + n − 1)an xk+n−2 = k(k − 1)a0 xk−2 + (k + 1)ka1 xk−1 + + +∞ X n=2 (5.73) (k + n)(k + n − 1)an xk+n−2 , = k(k − 1)a0 xk−2 + (k + 1)ka1 xk−1 + +∞ X + (k + m + 2)(k + m + 1)am+2 xk+m , (5.74) m=0 dove abbiamo posto m = n − 2. Quindi si ha k−2 k(k − 1)a0 x k−1 + (k + 1)ka1 x +∞ h X i + (k + n + 2)(k + n + 1)an+2 + ω2 an xk+n = 0, (5.75) n=0 Tutti i coefficienti di ogni potenza di x devono essere nulli, quindi si ricavano le seguenti equazioni indiciali: 1. k(k − 1)a0 = 0 che siccome a0 , 0, ci dà due possibilità k = 0 oppure k = 1; 2. k(k + 1)a1 = 0 che, mentre se k = 0, implica che a1 è arbitrario, se k = 1, implica che a1 = 0. Ci sono dunque due casi che corrispondono ad avere due soluzioni linearmente indipendenti, come ci aspettiamo. • Caso k = 0 ⇒ (m + 1)(m + 2)am+2 + ω2 am = 0, am+2 = − ω2 am . (m + 1)(m + 2) Quindi, partendo da a0 (a1 è arbitrario) si possono ottenere tutti i termini pari: 1 1 a2 = − ω2 a0 = − ω2 a0 2 2! 1 1 2 ω a2 = ω4 a0 a4 = − 4·3 4! 1 1 2 ω a4 = − ω6 a0 a6 = − 6·5 6! (5.76) 112 Capitolo 5. Equazioni Differenziali e in generale (−1)n 2 ω na0 (2n)! a2n = (5.77) Se invece si parte da a1 che è arbitrario, si ottiene la sequenza dei coefficienti dispari. Tuttavia, poiché a1 è arbitrario, possiamo scegliere a1 = 0, da cui segue che anche a2n+1 = 0, per ogni n. Sostituendo nell’eq.(5.67) si ottiene: y(x) = +∞ X an xk+n , (5.78) n=0 " # 1 1 1 2 4 6 = a0 1 − (ωx) + (ωx) − (ωx) + . . . , 2! 4! 6! (5.79) = a0 cos(ωx). (5.80) • Caso k = 1 ⇒ (m + 3)(m + 2)am+2 + ω2 am = 0 am+2 = − ω2 am . (m + 3)(m + 2) (5.81) Dato che deve essere a1 = 0, tutti i termini dispari sono nulli. Analogamente a quanto visto nel caso di k = 0, per k = 1 si ottiene: y(x) = # " 1 1 a0 3 5 1 − (ωx) + (ωx) + . . . , ω 3! 5! = a′0 sin(ωx), (5.82) (5.83) dove a′0 = a0 /ω. La soluzione generale sarà una combinazione lineare delle due: y(x) = A cos(ωx) + B sin(ωx), che è la soluzione che ci aspettavamo. (5.84) Capitolo 5. Equazioni Differenziali 113 5.6 Equazione di Schrödinger Abbiamo visto nel paragrafo 5.4 che l’eq. di Helmoholtz è data ∇2 ψ(x) + k2 ψ(x) = 0 (5.85) in particolare anche l’equazione di Schrödinger si può scrivere in una forma simile, infatti l’eq. di Schrödinger indipendente dal tempo è data da: −~2 2 ∇ ψ(x) + U(x)ψ(x) = Eψ(x), 2m (5.86) che però può essere scritta nel modo seguente: ∇2 ψ(x) + 2m [E − U(x)]ψ = 0, ~2 (5.87) ovvero ∇2 ψ(x) + χ(x)ψ = 0, (5.88) dove χ(x) = 2m [E − U(x)]. ~2 (5.89) Consideriamo ora il caso particolare del potenziale centrale U(x) = U(r) e χ(x) = χ(r), allora l’equazione si pu scrivere come segue: ∇2 ψ(x) + χ(r)ψ = 0. (5.90) Utilizzando il metodo della separazione delle variabili in coordinate polari sferiche, possiamo ridurre tale equazione alle derivate parziali a tre equazioni in una sola variabile come abbiamo visto nel 114 Capitolo 5. Equazioni Differenziali paragrafo 5.4 ottenendo le equazioni: d2 Φ(φ) + m2 Φ(φ) = 0, dφ2 " # dΘ(θ) m2 1 d Θ(θ) + l(l + 1)Θ(θ) = 0, sin θ − sin θ dθ dθ sin2 θ " # d 2d r + r2 χ(r)R(r) − l(l + 1)R(r) = 0 dr dr (eq. azimutale) (5.91) (eq. polare) (5.92) (eq. radiale). (5.93) L’equazione azimutale è l’eq. dell’oscillatore armonico che abbiamo risolto con il metodo di Frobenius nel paragrafo 5.5. 5.6.1 Equazione di Schrödinger polare: equazione di Legendre Risolviamo ora con il metodo di Frobenius l’eq. polare. Questa equazione è molto importante in fisica dal momento che compare in tutti i problemi a simmetria centrale (meccanica classica, elettromagnetismo, meccanica quantistica, etc.). Abbiamo posto Q = l(l + 1), con l = 0, 1, 2, ..., dove l rappresenta il numero quantico angolare (abbiamo visto nel foglio di esercizi numero 2 che l’operatore differenziale che compare in questa equazione è proprio l’operatore L2 legato al √ momento angolare). Ponendo ora x = cos θ, dx = − sin θdθ, sin θ = 1 − x2 e introducendo infine la funzione Θ(θ) = y(x) otteniamo l’equazione che segue: − # " m2 d d (1 − x2 ) y(x) − y(x) + l(l + 1)y(x) = 0, dx dx 1 − x2 (5.94) che derivando il primo termine diventa " # l(l + 1) d2 y(x) 2x dy(x) m2 + − − y(x) = 0, dx2 1 − x2 dx 1 − x2 (1 − x2 )2 (5.95) che rappresenta l’eq. di Legendre associata. Notiamo innnanzitutto che x ∈ [−1, 1] essendo x = cos θ. Capitolo 5. Equazioni Differenziali 115 Nel caso particolare in cui m = 0 si ottiene l’equazione di Legendre: y′′ (x) − 2x ′ l(l + 1) y (x) + y(x) = 0. 2 1−x 1 − x2 (5.96) L’eq.(5.95) si può porre nella forma generale y′′ (x) + P(x)y′ (x) + Q(x)y(x) = 0, (5.97) con P(x) = Q(x) = −2x , 1 − x2 l(l + 1) m2 − . 1 − x2 (1 − x2 )2 (5.98) (5.99) L’eq.(5.96) si può risolvere con il metodo di Frobenius, ovvero si assume: • y(x) = P+∞ n+k ; n=0 an x • a0 , 0 (senza perdita di generaltà). Procedendo come nel paragrafo 5.5 si ottengono le seguenti condizioni: k(k − 1)a0 = 0, (5.100) k(k + 1)a1 = 0, (5.101) (k + n + 2)(k + n + 1)an+2 = [(k + n)(k + n + 1) − l(l + 1)]an . (5.102) Dato che a0 , 0 ci sono due possibilità: • Caso k = 0. a1 è arbitrario, quindi lo possiamo scegliere a1 = 0. Dunque an+2 = " # n(n + 1) − l(l + 1) an (n + 2)(n + 1) (5.103) 116 Capitolo 5. Equazioni Differenziali che esplicitando rispetto ad a0 diventa: a2n = −l(l + 1)[3 · 2 − l(l + 1)][5 · 4 − l(l + 1)] · · · [(2n − 1)(2n − 2) − l(l + 1)] a0 , (5.104) 2n! dove si vede che la forma di questa successione dipende da l: 1. se l è intero (come nel caso di interesse fisico) allora il numeratore si annulla quando (∀l finito) dall’eq. (5.103) si ha n(n + 1) = l(l + 1) ⇒ nmax = l, (5.105) quindi la soluzione è un polinomio di grado nmax (prima soluzione); 2. se l è reale (< N) la serie ha infiniti termini dato che il numeratore dell’eq.(5.103) non si annulla mai, quindi la soluzione è una serie (seconda soluzione). • Caso k = 1. Allora a1 = 0 (a0 è arbitrario), quindi an+2 " # (n + 1)(n + 2) − l(l + 1) = an , (n + 3)(n + 2) (5.106) che significa a2n = [2n(2n − 1) − l(l + 1)] · · · [4 · 3 − l(l + 1)][2 · 1 − l(l + 1)] a0 . (2n + 1)! (5.107) Osservazione 5.6.1 (Convergenza) Si è visto che nel caso in cui l < N la soluzione è una serie ad infiniti termini. Si pone dunque il problema se la serie converge o meno. Anche in questo caso dobbiamo considerare i due casi: • Caso k = 0: in questo caso segue dall’eq. (5.103) che per n ≫ l si ha 2 an+2 = n(n + 1) − l(l + 1) ≃ n = 1. an (n + 2)(n + 1) n2 (5.108) Capitolo 5. Equazioni Differenziali 117 Questo significa che asintoticamente la nostra serie ha un andamento simile alla serie geometrica ovvero per n ≫ l: X n an xn ∼ X xn = n 1 , 1−x (5.109) che converge dunque per |x| < 1 mentre diverge per |x| ≥ 1. • Caso k = 1: in questo caso dall’eq.(5.106) che per n ≫ l si ha 2 an+2 = (n + 1)(n + 2) − l(l + 1) ≃ n = 1. n2 an (n + 3)(n + 2) (5.110) Anche in questo caso la serie converge dunque per |x| < 1 mentre diverge per |x| ≥ 1. Osservazione 5.6.2 Anche nel caso k = 1, se l ∈ N, esiste nmax dato dalla relazione nmax = l − 1. (5.111) 5.6.2 Polinomi di Legendre Abbiamo visto che se l ∈ N (caso che più ci interessa dal punto di vista fisico) la soluzione dell’eq. polare di Schrödinger è data da una somma finita di potenze, ovvero da dei polinomi. Proviamo ora a ricavare tali polinomi per alcuni vaolori di l. • Caso k = 0: in questo caso si ha nmax = l, (5.112) dove l è pari e la soluzione è y(x) = l X an xn = a0 + a2 x2 + a4 x4 + . . . + al xl , (5.113) n=0 infatti, dato che si è scelto a1 = 0, tutti i termini dispari sono nulli. Se prendiamo l = 2, allora y(x) = a0 + a2 x2 , (5.114) 118 Capitolo 5. Equazioni Differenziali dove dall’eq. (5.103) si ha a2 = −3a0 , quindi 1 y(x) = (3x2 − 1) = P2 (x), 2 (5.115) dove si è scelto a0 = −1/2. Infatti è possibile dimostrare che in generale questi polinomi soddisfano la seguente relazione: Z +1 dxPn (x)Pm (x) = −1 2 δnm . 2n + 1 (5.116) In particolare per n = m = 2 si ha Z +1 −1 dxP22 (x) = 2 5 (5.117) e sostituendo in (5.117) l’espressione di P2 data dall’eq. (5.115) si ottiene proprio che a0 = ±1/2. Analogamante per l = 4 si ha che y(x) = a0 + a2 x2 + a4 x4 , (5.118) e utilizzando l’eq. (5.103) e la relazione (5.116) si ricava che y(x) = 3 35 (1 − 10x2 + x4 ) = P4 (x), 8 3 (5.119) e cosı̀ via per P6 (x), P8 (x), . . . , P2n (x) • Caso k = 1: in questo caso nmax = l − 1, y(x) = x l−1 X n=0 an xn . (5.120) (5.121) Capitolo 5. Equazioni Differenziali 119 quindi per l = 3 3 5 y(x) = − (x − x3 ) = P3 (x), 2 3 (5.122) e cosı̀ via. 5.6.3 Equazione di Schrödinger radiale: equazione di Bessel Ritorniamo ora all’eq. di Schrödinger radiale: d h 2 ′ i 2 r R (r) + r χ(r)R(r) − l(l + 1)R(r) = 0, dr (5.123) dove χ(r) = 2m [E − U(r)] . ~2 (5.124) In particolare se consideriamo il caso dell’atomo di idrogeno si ha che U(r) = −e2 , r (5.125) che rappresenta il potenziale coulombiano nel sistema cgs. Per risalire al potenziale nel sistema mks, basta sostituire e2 con e2 /4πǫ0 , dove ǫ0 è la costante dielettrica nel vuoto. Sostituendo nella eq. (5.123) si ottiene: " # e2 d h 2 ′ i 2 2m r R (r) + r 2 E + R(r) − l(l + 1)R(r) = 0. dr r ~ (5.126) Ora vogliamo semplificare la nostra equazione e riscriverla in termini di una nuova funzione u(r) = rR(r). A tal fine dividiamo l’eq.(5.126) per r. A questo punto notiamo che vale: d2 1 d h 2 ′ i r R (r) = 2 [rR(r)] . r dr dr (5.127) 120 Capitolo 5. Equazioni Differenziali Quindi si ottiene: 2m 2m R(r) d2 = 0. [rR(r)] + 2 ErR(r) + 2 e2 R(r) − l(l + 1) 2 r dr ~ ~ A questo punto introduciamo la nuova variabile u(r) = rR(r) e moltiplicando per e2 −~2 d2 ~2 l(l + 1) u(r) − u(r) = Eu(r). u(r) + 2m dr2 r 2m r2 (5.128) −~2 2m si ottiene: (5.129) Introduciamo ora il potenziale centrifugo Uc f (r) = ~2 l(l + 1) L2 = , 2m r2 2mr2 (5.130) e ricordando l’espressione del potenziale coulombiano dell’eq.(5.125) si può definire il seguente potenziale efficace: Ue f f (r) = U(r) + Uc f (r) = − e2 ~2 l(l + 1) , + r 2m r2 (5.131) e l’eq.(5.129) diventa " # −~2 d2 + Ue f f (r) u(r) = Eu(r), 2m dr2 (5.132) che è l’equazione radiale di Schrödinger dove il potenziale è il potenziale efficace che abbiamo introdotto. Definiamo ora il raggio di Bohr: ~2 , me2 (5.133) 4π~2 = 5.29 × 10−11 m, me2 (5.134) a0 = che in unità mks ha l’espressione a0 = dove m ed e sono rispettivamente la massa e la carica dell’elettrone. Si ha che • per r ≫ a0 domina il potenziale coulombiano ovvero Ue f f (r) ∼ U(r); Capitolo 5. Equazioni Differenziali 121 • per r ≪ a0 domina il potenziale centrifugo ovvero Ue f f (r) ∼ Uc f (r); Infine si ha che il potenziale efficace ha un punto di inversione r∗ che si può determinare vedendo in che punto si annulla il potenziale efficace: Ue f f (r∗ ) = 0. (5.135) Con questa condizione si ha che r∗ = a0 l(l + 1) . 2 (5.136) Infine ponendo la derivata prima del potenziale efficace uguale a zero si ottiene il suo punto di minimo r0 , ovvero il punto di equilibrio: Ue′ f f (r0 ) = 0. (5.137) r0 = a0 l(l + 1). (5.138) Con questa condizione si ha che 5.6.4 Soluzione dell’equazione di Schrödinger radiale con il metodo di Frobenius Consideriamo ora solo gli stati legati, ovvero gli stati che hanno energia negativa: E = −|E| < 0 allora l’eq.(5.129) diventa " # l(l + 1) 2m e2 d2 2m − + 2 u(r) = 2 |E|u(r). 2 2 dr r ~ r ~ (5.139) Introduciamo ora E0 = e2 = 13.6eV, 2a0 (5.140) che è l’energia del livello fondamentale dell’atomo di idrogeno (che rappresenta l’energia che bisogna fornire al sistema per estrarre un elettrone nello stato fondamentale dell’idrogeno). L’eq.(5.139) 122 Capitolo 5. Equazioni Differenziali allora diventa " # l(l + 1) 2 d2 |E| − + u(r) = 2 u(r). 2 2 a0 r dr r a0 E0 Definiamo ora la nuova variabile adimensionale z = r/a0 e la costante λ2 = (5.141) |E| E0 > 0 e la funzione χ(z) = h(r/a0 ) sostituendo in (5.141) dopo aver moltiplicato per a0 si ha " # d2 l(l + 1) 2 2 − + − λ χ(z) = 0, z dz2 z2 (5.142) che rappresenta la forma adimensionale dell’eq. radiale di Schrödinger. Osservazione 5.6.3 Per z ≫ 1 l’eq.(5.142) diventa asintoticamente: # d2 2 − λ χas (z) = 0, dz2 (5.143) χas (z) = Ae−λz + Beλz , (5.144) " la cui soluzione è dove però è necessario scartare il secondo termine che diverge per z → +∞, pertanto definiamo χ(z) = e−λz y(z). (5.145) Sostituendo quest’eq.(5.145) nell’eq.(5.142) si ha " # d2 d l(l + 1) 2 − 2λ − + y(z) = 0, dz z dz2 z2 (5.146) che si può risolvere con il metodo di Frobenius (Problema 2, Foglio di esercizi 3) ottenendo infine la relazione di ricorrenza: 2 [λ(n + l + 1) − 1] an+1 = . an (n + l + 1)(n + l + 2) − l(l + 1) (5.147) Capitolo 5. Equazioni Differenziali 123 Osservazione 5.6.4 (Convergenza) Si noti che per n ≫ 1 si ha che an+1 ∼ 1 → 0, an n (5.148) quindi la serie è convergente. Osservazione 5.6.5 (Quantizzazione dell’energia) Si osservi che non è possibile che la serie abbia infiniti termini, infatti per n ≫ 1 si ha che an+1 2λn 2λ ∼ 2 ∼ , an n n (5.149) quindi asintoticamente si ha an+1 ∼ 2λ 2λ 2λ (2λ)n an ∼ an−1 , ∼ . . . ∼ a0 . n n n−1 n! (5.150) Quindi asintoticamente si avrà y(z) = zl+1 X (2λ)n n n! zn ∼ zl+1 e2λz , (5.151) dunque usando l’eq.(5.145) si ha χ(z) ∼ zl+1 eλz . (5.152) Tuttavia questa soluzione non è accettabile dal momento che diverge per z → ∞, quindi non può rappresentare una funzione d’onda che invece in generale deve essere quadrato sommabile alla Lebesgue (cioè ∈ L2 ) e tendere a zero per z → ∞. Dobbiamo perciò assumere che la serie abbia un numero finito di termini (polinomi di Laguerre), quindi deve essere λ(n + l + 1) = 1, (5.153) 124 Capitolo 5. Equazioni Differenziali quindi nmax è dato da λ= 1 , nmax + l + 1 (5.154) da cui segue la quantizzazione dell’energia. Infatti essendo λ2 = |E|/E0 , si ha 1 |En | , = E0 (nmax + l + 1)2 (5.155) E0 , n2 (5.156) quindi En = − n = 1, 2, . . . con Le soluzioni saranno dunque χ(z) = e−λz m max X am zm+l+1 , (5.157) m=0 allora − aλr u(r) = e 0 n X am r a0 n X am r a0 m=0 ottenendo infine R(r) = − aλr e 0 r m=0 !m+l+1 , (5.158) !m+l+1 , (5.159) con n = m + l + 1, m ∈ N, quindi l = 0, 1, 2, . . . , n − 1. 5.7 Punti singolari e limiti di applicabilità del metodo di Frobenius Il concetto di punto singolare serve per classificare un’eq. diff. ordinaria e per vedere se è possibile applicare la soluzione dello sviluppo in serie (metodo di Frobenius). L’eq. differenziale di secondo grado omogenea si può scrivere y′′ + P(x)y′ + Q(x)y = 0. (5.160) Definizione 5.7.1 Se le funzioni P(x) e Q(x) sono finite per x = x0 , x0 si dice punto ordinario. Se le funzioni o P(x) o Q(x) (o entrambe) diverge per x → x0 , il punto x0 si dice punto singolare. Ci sono due tipi di punti singolari: Capitolo 5. Equazioni Differenziali 125 1. Se le funzioni o P(x) o Q(x) (o entrambe) diverge per x → x0 , ma (x − x0 )P(x) e (x − x0 )2 Q(x) rimangono finiti per x → x0 . In questo caso x0 si dice punto singolare regolare (o non essenziale). 2. Se P(x) diverge più rapidamente di Q(x) diverge più rapidamente di 1 x−x0 , 1 , (x−x0 )2 in modo tale che (x − x0 )P(x) → ∞ per x → x0 o in modo tale che (x − x0 )2 Q(x) → ∞, allora x = x0 è una singolarità irregolare o essenziale. Teorema 5.7.1 (Teorema di Fuchs) Data un’eq. diff. llineare di secondo ordine si può sempre ottenere almeno una soluzione in serie di potenze (metodo di Frobenius), a patto che si espanda attorno ad un punt ordinario o al più attorno ad una singolarità regolare. 5.8 Indipendenza lineare delle soluzioni e metodo del Wronskiano Abbiamo visto che grazie al teorema di Fuchs è possibile risalire ad almeno una soluzione di un’eq. diff. lineare omogenea con il metodo di Frobenius. Vediamo ora come si può sfruttare la proprietà dell’indipendenza delle soluzioni per ricavare la seconda soluzione dell’eq. diff. Innanzitutto un insieme di funzioni φλ snon linearmente dipendenti se esiste tra loro una relazione del tipo: X kλ φλ = 0, (5.161) λ in cui non tutti i coefficienti kλ sono nulli. D’altra parte se l’unica soluzione dell’eq. (5.161) invece è kλ = 0 allora le funzioni φλ sono dette linearmente indipendenti. Assumiamo poi che le φλ siano differenziabili quanto necessario. Allora differenziando più volte l’eq. (5.161) si ottiene X λ X λ kλ φ′λ = 0, (5.162) kλ φ′′ λ = 0, (5.163) 126 Capitolo 5. Equazioni Differenziali e cosı̀ via. In questo modo avremo un insieme di equazioni lineari omogenee in cui kλ rappresentano le incognite. Abbiamo visto che esiste una soluzione kλ , 0 solo se il determinante dei coefficienti dei kλ si annulla. Questo significa: φ2 φ1 φ′1 φ′2 · · · ··· (n−1) φ(n−1) φ1 2 ··· φn ··· φ′n ··· ··· ··· φ(n−1) n Questo determinante si chiama Wronskiano (W). Allora = 0 (5.164) • se W , 0 l’eq.(5.161) non ha altra soluzione che kλ = 0, quindi le φλ sono linearmente indipendenti; • se W = 0 le φλ sono linearmente dipendenti. Esempio:oscillatore armonico Sappiamo che le soluzioni sono φ1 = sin ωx e φ2 = cos ωx, calcoliamo il Wronskiano: sin ωx cos ωx W = ω cos ωx −ω sin ωx = −ω , 0, (5.165) quindi φ1 , φ2 sono linearmente indipendenti. Con il teorema di Fuchs abbiamo visto che con il metodo di Frobenius si ottiene almeno una soluzione, nel caso dell’equazione di secondo ordine si ha hanno due soluzioni linearmente indipendenti y1 e y2 . Supponiamo di conoscere y1 (x) (magari proprio grazie al metodo di Frobenius) e usiamo ora il Wronskiano per ottenere y2 . Il wronskiano in questo caso è W(x) = y1 y′2 − y′1 y2 . (5.166) ′ ′ ′′ W ′ (x) = y′1 y′2 + y1 y′′ 2 − y1 y2 − y1 y2 , (5.167) Derivando W rispetto a x si ha: Capitolo 5. Equazioni Differenziali 127 che, poichè y1 e y2 sono soluzioni dell’eq.(5.160) diventa W ′ (x) = y1 [−P(x)y′2 − Q(x)y2 ] − y2 [−P(x)y′1 − Q(x)y1 ], = −P(x)(y1 y′2 − y′1 y2 ), (5.168) (5.169) ovvero W ′ (x) = −P(x)W(x). (5.170) Se assumiamo di conoscere già una soluzione y1 vogliamo trovarne la seconda linearmente indipendete, perciò sarà W , 0. Riscrivendo l’eq.(5.170) dW = −P(x)dx, W (5.171) integrando in x1 da a ad x si ha W(x) ln =− W(a) Z x P(x1 )dx1 , (5.172) a quindi " Z W(x) = W(a) exp − x # P(x1 )dx1 , (5.173) ! d y2 . dx y1 (5.174) a ma W(x) = Quindi y1 y′2 − y′1 y2 = y21 i h Rx ! exp − a P(x1 )dx1 d y2 . = W(a) dx y1 y21 (5.175) Integrando su x2 che varia tra b e x si ottiene: y2 (x) = y1 (x)W(a) Z x b i h Rx exp − a 2 P(x1 )dx1 [y1 (x2 )]2 dx2 , (5.176) 128 Capitolo 5. Equazioni Differenziali con a, b costanti arbitrarie. Possiamo scegliere W(a) = 1, si ottiene infine y2 (x) = y1 (x) Z x h R exp − x2 P(x1 )dx1 [y1 (x2 )]2 i dx2 , (5.177) che ci dà le seconda soluzione della nostra eq. differenziale di secondo ordine. 5.9 Il problema di Sturm Liuville Nei paragrafi precedenti abbiamo visto come risolvere un’equazione di secondo ordine. In questo paragrafo vogliamo ritornare al linguaggio degli operatori per esprimere tali equazioni differenziali come equazioni agli autovalori di operatori differenziali. Infatti le equazioni lineari del secondo ordine che abbiamo considerato corrispondono a operatori differenziali del secondo ordine che hanno la forma generale: data dall’equazione di Sturm-Liouville (SL), una equazione differenziale del secondo ordine nella forma [H + λw(x)] y(x) = 0, (5.178) " # d dy p(x) + (λw(x) − q(x)) y = 0, dx dx (5.179) che si può scrivere come segue dove si è posto H = " # d d p(x) − q(x). dx dx (5.180) Le funzioni p(x), q(x), e w(x) sono note, e nei casi più semplici sono continue su un intervallo chiuso e finito [a, b]. La formulazione del problema spesso prevede anche la specificazione dei valori al contorno di y e di dy/dx in a e b. La funzione w(x) chiamata funzione peso o densità. Il valore di λ non è specificato nell’equazione; cercare i valori di λ per cui esiste una soluzione Capitolo 5. Equazioni Differenziali 129 non banale dell’eq. (5.179) soddisfacente le condizioni al contorno rappresenta il problema di Sturm-Liouville (S-L). I valori di λ se esistono sono chiamati autovalori del problema definito da (5.179) e dalla condizioni al contorno. Le corrispondenti soluzioni (per un certo λ) sono le autofunzioni del problema. Sotto normali assunzioni sulle funzioni p(x), q(x), and w(x) si può notare che l’equazione non è altro che il problema agli autovalori di un operatore differenziale autoaggiunto in un certo spazio funzionale definito dalle condizioni al contorno. La teoria che ne risulta riguardante l’esistenza degli autovalori e il loro andamento asintotico, è chiamata teoria di Sturm-Liouville. Possiamo ora dimostrare che qualsiasi equazione differenziale del secondo ordine a coefficienti non costanti, ma sufficientemente regolari, del tipo: f (x)y′′ (x) + g(x)y′ (x) + (h1 (x) + λh2 (x)) y(x) = 0 (5.181) si può scrivere nella forma di S-L (eq.(5.179)). Per dimostrarlo partiamo dall’eq.(5.179) e ricaviamo l’eq.(5.181). Poiché p(x) e q(x) sono funzioni arbitrarie, possiamo scegliere: p(x) = exp (Z x −∞ g(x′ ) dx′ f (x′ ) ) p(x)h1 (x) , f (x) p(x)h2 (x) . f (x) , (5.182) q(x) = − (5.183) w(x) = (5.184) L’eq. (5.182) è equivalente a ln p(x) = Z x −∞ dx′ g(x′ ) , f (x′ ) (5.185) che dal momento che g(−∞) = f (−∞) = 0 si scrive anche d ln p(x) = dx g(x) , f (x) (5.186) 130 Capitolo 5. Equazioni Differenziali ovvero p′ (x) p(x) = g(x) , f (x) (5.187) che è equivalente all’eq.(5.182). Sviluppando l’eq. (5.179) si ottiene p(x)y′′ (x) + p′ (x)y′ (x) + (λw(x) − q(x)(x)) y(x) = 0. (5.188) Sostituendo l’eq.(5.187) e le espressioni per p(x), w(x) e q(x) (5.182,5.182,??) si ha exp (Z x −∞ dx′ g(x′ ) f (x′ ) )" ! # h2 (x) h1 (x) g(x) ′ y (x) + λ + y′′ (x) + y(x) = 0, f (x) f (x) f (x) (5.189) ma poiché l’esponenziale è sempre diverso da zero si ottiene infine proprio l’eq. (5.181). 5.10 Proprietà generali dell’equazione di Sturm Liuville Consideriamo l’equazione di Sturm-Liouville nella forma Hy(x) = −λw(x)y(x), (5.190) p(x)y(x)y′ (x)| x1 = 0 = p(x)y(x)y′ (x)| x2 , (5.191) con le condizioni al contorno dove si ha che H è l’operatore differenziale dato da: " # d d H= p(x) − q(x). dx dx Si ha che valgono le seguenti proprietà: (5.192) Capitolo 5. Equazioni Differenziali 131 Proprietà 1 (Ortogonalità delle autofunzioni) si ha che se per le autofunzioni vale relazione di ortonormalità < yn |ym >w = δnm , (5.193) dim. Siccome yn e ym sono due soluzioni si ha Hyn (x) = −λn w(x)yn (x), (5.194) Hym (x) = −λm w(x)ym (x), (5.195) quindi d p(x)y′n (x) + λn w(x)ym yn − qym yn = 0, dx d p(x)y′m (x) + λm w(x)yn ym − qyn ym = 0, yn dx ym (5.196) (5.197) sostituendo membro a membro si ha ym d d py′n − yn py′m + (λn − λm )wym yn = 0. dx dx (5.198) Integrando rispetto a x Z x2 x1 ( ) d d ′ ′ dx ym = 0. pyn − yn pym + (λn − λm )wym yn dx dx (5.199) Integrando per parti si ottiene (λn − λm ) Z x2 dxwym yn = 0, (5.200) x1 dove Z x2 x1 dxw(x)ym (x)yn (x) = < yn |ym >w . (5.201) 132 Capitolo 5. Equazioni Differenziali Dunque se n , m allora λn , λm quindi deve essere < yn |ym >w = 0, (5.202) invece se n = m si può sempre normalizzare in modo tale che < yn |yn >w = Z x2 x1 dxw(x)y2n (x), (5.203) quindi le autofunzioni sono ortonormali. Proprietà 2 (Autoaggiuntezza dell’hamiltoniano) H † = H, ovvero l’operatore hamiltoniano H è hermitiano. dim. dall’eq.(5.192) " # dg(x) d p(x) − q(x)g(x). dx dx Z x2 Z x2 Z x2 d ′ ∗ ∗ p(x)g (x) − dx f ∗ (x)q(x)g(x). dx f (x)Hg(x) = dx f (x) dx x1 x1 x1 Hg(x) = (5.204) (5.205) Integrando il primo termine a destra per parti ripetutamente e imponendo le condizioni al contorno si ottiene Z x2 x1 d dx f (x) p(x)g′ (x) = dx ∗ Z x2 dx x1 d p(x) f ∗ (x) g(x), dx (5.206) che sostituendo nell’eq.(5.207) ci permette di ottenere il risultato seguente: Z x2 ∗ dx f (x)(Hg(x)) = x1 Z x2 dxH f )∗ (x)g(x), (5.207) x1 che è quanto si voleva dimostrare. Osservazione 5.10.1 Un esempio importante per la fisica di equazione differenziale di tipo SturmLiouville è l’equazione di Legendre, ponendo p(x) = 1 − x2 e q(x) = 0 mentre w(x) = 1 e λ = l(l + 1).