APPUNTI PER IL CORSO DI METODI MATEMATICI

APPUNTI PER IL CORSO DI METODI MATEMATICI PER STM
Laurea Specialistica in Scienze e Tecnologie dei Materiali
Università Ca’ Foscari di Venezia
Fantina Madricardo
UMR 7618 CNRS - BIOEMCO - ENS,
46, rue d’Ulm, 75230 Paris, France
www.biologie.ens.fr/bioemco
mail: [email protected]
Nota introduttiva
Queste sono note sul corso di Metodi Matematici da me tenuto a nell’anno 2007-2008 per la Laurea
specialistica in Scienze e Tecnologie dei Materiali. Il corso è pensato per studenti del primo anno
della Laurea Specialistica, che abbiano quindi già avuto le nozioni matematiche e fisiche tipiche dei
primi anni di un corso di Laurea scientifico. Queste dispense rappresentano una prima stesura degli
appunti per il corso, e derivano in parte dalla trascrizione delle note del Prof. Giacometti. Vogliono
essere una linea guida a partire dalla quale gli argomenti andranno approfonditi nei testi consigliati.
Poichè si tratta di una prima stesura, è molto probabile che queste note contengano diversi errori,
quindi sarò molto grata al lettore che me li farà notare.
i
Ringraziamenti
Vorrei ringraziare il Prof. Achille Giacometti per tutto l’aiuto e i consigli che mi ha dato per la
preparazione di questo corso, in particolare per le sue note concepite per il corso di Metodi
Matematici tenuto l’anno scorso che si ritrovano trascritte in parte di queste dispense.
Alcuni argomenti, invece, sono stati tratti dal libro “Mathematical Methods for Physicists” di George
B. Arfken e Hans J. Weber e dal libro “Calcolo differenziale e integrale” di Nikolaj S. Piskunov
(Editori Riuniti).
iii
Indice
1 Algebra lineare
1
1.1
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Indipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3
Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4
Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.5
Elementi di algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.6
Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.7
Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.8
Trasformazioni di similitudine . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
1.9
Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
1.10 Diagonalizzazione di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2 Spazi di Hilbert
27
2.1
Prodotto Scalare e Spazi Pre-Hilbertiani . . . . . . . . . . . . . . . . . . . . . . .
28
2.2
Spazi di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
2.3
Operatori hemitiani e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
2.4
Operatori unitari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
2.5
Notazione di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.6
Teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
v
vi
INDICE
3 Elementi di algebra vettoriale e tensoriale
43
3.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
3.2
Prodotto scalare, prodotto vettore e convenzione di Einstein . . . . . . . . . . . . .
46
3.3
Convenzione di Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
3.4
Calcolo tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
3.5
Operatori differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
3.6
Identità vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
3.7
Teorema di Gauss e significato della divergenza . . . . . . . . . . . . . . . . . . .
58
3.8
Teorema di Stokes e significato del rotore . . . . . . . . . . . . . . . . . . . . . .
62
4 Analisi di Fourier e Funzione δ di Dirac
67
4.1
Idea base dell’espansione in serie di Fourier . . . . . . . . . . . . . . . . . . . . .
67
4.2
La serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
4.3
Problema delle variabili coniugate . . . . . . . . . . . . . . . . . . . . . . . . . .
73
4.4
Vantaggi ed esempi di applicazione delle serie di Fourier . . . . . . . . . . . . . .
74
4.5
Forma complessa delle serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . .
78
4.6
Trasformata integrale di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
4.7
La funzione di Dirac e le sue rappresentazioni . . . . . . . . . . . . . . . . . . . .
82
4.8
Proprietà della funzione di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
4.9
Relazione della funzione di Dirac e la trasformata di Fourier . . . . . . . . . . . .
86
4.10 Teorema di Convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
4.11 Teorema di Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
5 Equazioni Differenziali
93
5.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
5.2
Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
5.3
Equazioni differenziali del primo ordine . . . . . . . . . . . . . . . . . . . . . . .
98
5.3.1
99
Equazioni a variabili separabili . . . . . . . . . . . . . . . . . . . . . . . .
INDICE
vii
5.3.2
Differenziale esatto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
5.3.3
Equazioni lineari di primo ordine . . . . . . . . . . . . . . . . . . . . . . 102
5.3.4
Equazioni lineari di ordine n . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4
Separazione delle variabili: equazione di Helmholtz . . . . . . . . . . . . . . . . . 105
5.5
Metodo di Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.6
Equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.6.1
Equazione di Schrödinger polare: equazione di Legendre . . . . . . . . . . 114
5.6.2
Polinomi di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.6.3
Equazione di Schrödinger radiale: equazione di Bessel . . . . . . . . . . . 119
5.6.4
Soluzione dell’equazione di Schrödinger radiale con il metodo di Frobenius 121
5.7
Punti singolari e limiti di applicabilità del metodo di Frobenius . . . . . . . . . . . 124
5.8
Indipendenza lineare delle soluzioni e metodo del Wronskiano . . . . . . . . . . . 125
5.9
Il problema di Sturm Liuville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.10 Proprietà generali dell’equazione di Sturm Liuville . . . . . . . . . . . . . . . . . 130
Capitolo 1
Algebra lineare
1.1 Spazi vettoriali
Gli spazi vettoriali sono strutture algebriche di grande importanza. Si tratta di una generalizzazione
dell’insieme formato da tutti i vettori del piano cartesiano ordinario o dello spazio tridimensionale
dotato di un’origine che costituisce l’ambiente nel quale si studiano generalmente i fenomeni della
fisica classica. Lo spazio euclideo infatti è uno spazio vettoriale, cosı̀ come sono spazi vettoriali gli
importanti spazi di Banach e di Hilbert. La loro importanza per la fisica classica è dovuta al fatto
che molte grandezze fisiche (posizione, velocità, accelerazione, forza, ecc.) sono vettori. Ma anche
se consideriamo la funzione d’onda ψ che sta alla base della meccanica quantistica, si ha che essa
è un vettore di uno spazio di Hilbert. Anche il calcolo tensoriale (il cui tensore fondamentale è il
tensore metrico gi j alla base della teoria della relatività) è una estensione del calcolo vettoriale. In
particolare gli spazi vettoriali ci saranno molto utili per studiare le soluzioni dei sistemi di equazioni
lineari e delle equazioni differenziali lineari. Veniamo dunque alla definizione formale.
Definizione 1.1.1 (Spazio Vettoriale) Sia C un corpo (ad es. C = R oppure C = C). Uno spazio
vettoriale su C è un insieme V in cui siano definite le operazioni:
+ : V × V −→ V,
· : C × V −→ V,
e
1
(1.1)
2
Capitolo 1. Algebra lineare
con le seguenti proprietà per l’addizione +:
1. u + (v + w) = (u + v) + w (proprietà associativa)∗ ;
2. u + v = v + u (proprietà commutativa);
3. ∃0V ∈ V tale che 0V + v = v + 0V = v (esistenza dell’elemento neutro per l’addizione);
4. Per ogni v ∈ V,
∃ − v ∈ V t.c. v + (−v) = 0V (esistenza dell’opposto);
Per ogni u, v ∈ V, mentre per l’operazione di moltiplicazione per uno scalare ·:
1. α(βv) = (αβ)v;
2. (α + β)v = αv + βv;
3. α(v + w) = αv + αw;
4. 1 · v = v;
Per ogni u, v, w ∈ V e ∀α, β ∈ C.
Detto in modo intuitivo uno spazio vettoriale è una collezione di oggetti, chiamati ”vettori”, che
possono essere sommati e riscalati. Oltre ai vettori geometrici ci sono molti esempi di spazi
vettoriali, ad esempio:
1. l’insieme delle n-uple reali Rn ;
2. l’insieme dei polinomi a coefficienti reali R[X];
3. l’insieme T delle funzioni f : R −→ R, derivabili almeno due volte che soddisfino la
condizione f ′′ + f = 0.
∗
Si noti ad esempio che la sottrazione, la divisione non sono associative!
Capitolo 1. Algebra lineare
3
1.2 Indipendenza lineare e basi
Definizione 1.2.1 (Indipendenza lineare) Dato uno spazio vettoriale V su C i vettori v1 , · · · , vn ∈
V si dicono linearmente indipendenti se
n
X
αi vi = 0
x=1
⇒
αi = 0
∀i = 1, . . . , n.
(1.2)
Questa definizione è intuitiva, infatti, se non fosse cosı̀, esisterebbe un certo α j , 0 tale che
vj = −
n
1 X
αi vi ,
α j i, j
(1.3)
quindi v j si potrebbe scrivere come una combinazione lineare dei vi con i , j.
Definizione 1.2.2 (Base) Sia V uno spazio vettoriale su C, si dice base di V un insieme di generatori linearmente indipendenti di V.
Teorema 1.2.1 Si ha che se V = {ê1 , . . . , ên } è una base di V allora ogni vettore x di V si scrive in
modo unico come combinazione lineare di elementi di V:
x=
n
X
xi êi .
(1.4)
i=1
Dim. il fatto che ogni vettore x di V si possa scrivere come nell’eq. (1.4) segue dalla definizione
della base B, mentre che si possa scrivere in modo unico si dimostra come segue: supponiamo che
ciò non sia vero, questo equivale a dire che si può scrivere:
x =
n
X
xi êi ,
=
n
X
x′i êi ,
i=1
(1.5)
i=1
ma questo significa che
Pn
i=1 (xi
− x′i )êi = 0. Ma, poiché ê1 , . . . , ên sono non nulli, deve essere allora
x′i = xi , quindi la rappresentazione è unica
4
Capitolo 1. Algebra lineare
Si noti comunque che il teorema afferma che data una certa base la sua rappresentazione rispetto ad
essa è unica, non che non si possono avere più basi per lo stesso spazio vettoriale.
Un risultato fondamentale degli spazi vettoriali è che ogni spazio V ammette una base e che
ogni base ha lo “stesso numero di elementi”.†
Definizione 1.2.3 Sia V uno spazio vettoriale (finitamente generato) su C. Si dice dimensione di V
il numero di elementi di una base di V e si indicherà con dimC V.
1.3 Applicazioni lineari
Definizione 1.3.1 (Applicazione lineare) Siano V e W due spazi vettoriali su C, un’applicazione
φ:V →W
(1.6)
si dice applicazione lineare o omomorfismo di spazi vettoriali se ∀v, v′ ∈ V e ∀α, β ∈ C si ha
φ(αv + βw) = αφ(v) + βφ(w).
(1.7)
In particolare si dice isomorfismo un’applicazione lineare biettiva. L’isomorfismo in altre parole
conserva le proprietà dell’operazione e la corrispondenza tra lo spazio di partenza e quello di arrivo
è biunivoca.
Un esempio di isomorfismo sono le rotazioni in R2
R:
R2 −→ R2
(x, y) 7−→ (x′ , y′ )
dove x′ = cos θx + sin θy e y′ = − sin θx + cos θy.
†
L’ultima frase è tra virgolette dal momento che mentre è chiaro che cosa significa nel caso di spazi vettoriali a
dimensione finita, lo è meno nel caso che lo spazio sia a dimensioni infinite.
Capitolo 1. Algebra lineare
5
Definizione 1.3.2 Siano V e W due spazi vettoriali sul campo C. Ad un’applicazione lineare
φ : V → W, possiamo associare due sottospazi vettoriali:
il nucleo di φ
l’immagine di φ
kerφ = {v ∈ V|φ(v) = 0};
imφ = {w ∈ W|φ(v) = w};
Si chiamano rispettivamente rango rkφ e nullità nullφ dell’applicazione lineare φ le dimensioni
dell’immagine e del nucleo.
Osservazione 1.3.1 Siano V e W due spazi vettoriali su C, un’applicazione lineare
φ : V → W è
1. φ è iniettiva se, e solo se, kerφ = h0i;
2. φ è suriettiva se, e solo se, imφ = W;
1.4 Matrici
Definizione 1.4.1 (Matrice) Fissati due interi positivi m ed n chiameremo matrice m×n ad elementi
in C una tabella di scalari del tipo


 a11 · · ·
 .
A =  ..


am1 · · ·
a1n
..
.
amn



  = ai j 1≤i≤n

1≤ j≤m


dove ai j indica l’elemento della i-esima riga e della j-esima colonna.
In generale si ha che l’insieme Mm×n (C) delle matrici m×n, ad elementi nel corpo C, è anch’esso uno
spazio vettoriale (con le operazioni di somma e prodotto per scalari, definite elemento per elemento)
e che le trasformazioni lineari possono essere rappresentate da una matrice.
Sono trasformazioni lineari anche le operazioni di differenziazione e di integrazione operanti su
un particolare spazio vettoriale detto di Hilbert H, come vedremo.
6
Capitolo 1. Algebra lineare
Definizione 1.4.2 Siano V e W due spazi vettoriali di dimensione finita su C e siano V = {v1 , ..., vn }
e W = {w1 , ..., wm } basi dei rispettivi spazi. Data un’applicazione lineare φ : V → W, si chiama
matrice di φ, rispetto alle basi V e W, la matrice avente ordinatamente come colonne le componenti
dei vettori φ(v1 ), · · · , φ(vn ), rispetto alla base W di W; ovvero, se
φ(v1 ) = a11 w1 + +am1 wm
..
.
φ(vn ) = a1n w1 + +amn wm
la matrice corrispondente è


 a11 · · ·
 .
αV,W (φ) =  ..


am1 · · ·
a1n
..
.
amn
Esempio: Nel caso delle rotazioni viste prima
R:




 .



R2 −→ R2
(x, y) 7−→ (x′ , y′ )
dove x′ = cos θx + sin θy e y′ = − sin θx + cos θy, la matrice corrispondente sarà:
 

 x′   cos θ sin θ
 

=

 y′   − sin θ cos θ
 
  x 
  
   .
 y 
dove la matrice è la matrice di rotazione. Applicando tale matrice ad un vettore di coordinate (x,y)
nel piano si ottiene un vettore di coordinate (x’, y’) ruotato di un angolo θ rispetto a quello iniziale.
Si noti che in questo caso lo spazio di partenza e quello di arrivo hanno la stessa dimensione (nel
caso delle rotazioni si tratta dello stesso spazio R2 ) e la matrice ha lo stesso numero di righe e di
colonne.
Definizione 1.4.3 Una matrice con lo stesso numero di righe e di colonne si dice matrice quadrata.
Capitolo 1. Algebra lineare
7
Definizione 1.4.4 (Prodotto tra matrici) Siano date le matrici A ∈ Mm×n (C) e B ∈ Mn×t (C), il
prodotto righe per colonne della matrice A con la matrice B è la matrice AB ∈ Mm×t (C), le cui
colonne sono il prodotto scalare delle righe della matrice A per le colonne della matrice B. Ovvero
l’elemento ci j della matrice prodotto è la somma dei prodotti degli elementi della i-esima riga di A
per i corrispondenti elementi della j-esima colonna di B:
A = (ahk )1≤h≤m , B = (brs )1≤r≤n , AB = (ci j )1≤i≤m ,
1≤k≤n
1≤s≤t
1≤ j≤t
allora
ci j =
n
X
l=1
ail bl j ,
qualunque siano (i, j) con 1 ≤ i ≤ m, 1 ≤ j ≤ t.
La matrice prodotto ha tante righe quante sono le righe di A e tante colonne quante sono le colonne
di B.
Osservazione 1.4.1 Il prodotto tra matrici NON È SEMPRE eseguibile. Se è possibile eseguire
il prodotto AB non è detto che si possa eseguire il prodotto BA e quindi bisogna fare attenzione
all’ordine in cui si esegue la moltiplicazione. Se due matrici sono quadrate e della stessa dimesione
si può eseguire sia il prodotto AB che il prodotto BA ottenendo una matrice quadrata della stessa
dimesione, anche in questo caso però il prodotto non è in generale commutativo, cioè date due
matrici A e B in generale:
AB , BA
(1.8)
Osservazione 1.4.2 Il prodotto tra matrici in termini di applicazioni lineari corrisponde alla composizione di due applicazioni lineari, ovvero il prodotto tra due matrici è la matrice della composizione delle due applicazioni lineari che corrispondono ai due fattori. Precisamente, dati tre spazi
vettoriali U, V, W sul corpo C e le applicazioni lineari ψ : U → V e φ : V → W e fissate le basi
U = {u1 , ..., un } di U, V = {v1 , ..., vn } di V e W = {w1 , ..., wm} di W, le matrici B = αU,V (ψ),
8
Capitolo 1. Algebra lineare
A = αV,W (φ) e C = αU,W (φ ◦ ψ), sono legate dalla relazione C = AB, ovvero
αU,W (φ ◦ ψ) = αV,W (φ)αU,V (ψ)
(1.9)
Esempi: Date le matrici A e B:


 1 2 3

A =  4 5 6


7 8 9


 9 8 7

B =  6 5 4


3 2 1




 ,







 ,



si calcoli AB, BA e A2 .
Risp.

 30


AB =  84


138
24
69
114

18 


54  ,


90

 90


BA =  54


18
114
69
24

138 


84  ,


30

 30


2
A =  66


102
36
81
126

42 


96 


150
Definizione 1.4.5 Sia A ∈ Mn×n (C) si definisce matrice inversa della matrice A la matrice A−1 tale
che
AA−1 = I = A−1 A,
dove I è la matrice identità che ha tutti gli elementi nulli tranne quelli sulla diagonale che sono
uguali a 1:






A = 




1 0 ···
0 1 ···
..
..
.
.
0 0 ···


0 


0 

..  .
. 


1 
Anche in questo caso la matrice inversa corrisponde all’applicazione lineare inversa.
Osservazione 1.4.3 Se la matrice A è lineare, è lineare anche A−1 . (Dimostrare per esercizio).
Capitolo 1. Algebra lineare
9
N.B.: È importante notare che non è detto che A−1 esista! Infatti l’esistenza della matrice inversa
dipende dalle proprietà della matrice A ed è necessario che sia almeno det A , 0 (vedi paragrafo
1.6). In particolare se le matrici A e B sono invertibili, si ha che
(AB)−1 = B−1 A−1
(1.10)
1.5 Elementi di algebra delle matrici
In seguito elenchiamo una serie di matrici particolari e alcune loro proprietà.
1. Matrice diagonale






A = 




a11
0
..
.
0
···
0
a22 · · ·
..
.
0
..
.
0
0
···
ann






 ;



2. Matrice idempotente
(A)2 = A;
(1.11)
Esempio:


 1 −1 

 ,
A = 
 0 0 

 


 1 −1   1 −1   1 −1 

 = A.
 = 
 
A2 = 
 0 0   0 0   0 0 
3. Matrice trasposta Si dice matrice trasposta della matrice n × n A la matrice in cui sono
invertite le righe e le colonne di A, ovvero:
AT = Ã :
(AT )i j = (A) ji .
(1.12)
10
Capitolo 1. Algebra lineare
Ad esempio se A è una matrice 3 × 3:


 a11 a12 a13

A =  a21 a22 a23


a31 a32 a33








⇒


 a11 a21 a31

AT =  a12 a22 a32


a13 a23 a33




 .



Si ha in generale:
(AB)T = BT AT .
(1.13)
4. Matrice simmetrica
Una matrice è si dice simmetrica se è possibile scambiare le righe con le colonne senza che
cambi nulla, ovvero:
(A)i j = (A) ji
⇒
AT = A.
(1.14)
Questa simmetria negli indici si traduce nel fatto che il numero di elementi indipendenti si
riduce. Nel caso di una matrice 3 × 3 solo gli elementi sulla diagonale e quelli al di sopra (o
al di sotto) di essa sono linearmente indipendenti:


 a11 a12 a13

A =  a12 a22 a23


a13 a23 a33




 ,



perciò solo 3 + 2 + 1 = 6 elementi sono indipendenti. Nel caso di una matrice n × n






A = 



a11 a12 · · ·
a12 a22 · · ·
..
..
.
.
a1n a12 · · ·


a1n 


a2n 

..  ,
. 


a1n 
Capitolo 1. Algebra lineare
11
si ha che il numero di elementi indipendenti è n + n − 1 + · · · + 3 + 2 + 1 =
Pn
k=1
k = n(n + 1)/2.
5. Matrice antisimmetrica
(A)i j = −(A) ji
(A)ii = −(A)ii
⇐⇒
⇒
AT = −A,
(1.15)
(A)ii = 0.
(1.16)
è una matrice a diagonale nulla


a12 · · ·
 0

 −a
0
···
12

A =  .
..
 ..
.


−a1n −a12 · · ·


a1n 


a2n 

..  ,
. 


Per una matrice antisimmetrica il numero di coefficienti indipendenti sarà
Pn−1
k=1
= (n − 1)n/2.
Proprietà: Ogni matrice quadrata M, essa può essere pensata come somma di una matrice simmetrica S e di una antisimmetrica A
M = S + A.
(1.17)
Dim. Sia S = 21 (M + M T ), il che significa che (S )i j = 12 [(M)i j + (M T )i j ] = 21 (mi j + m ji ), da cui
segue che (S ) ji = (S )i j , quindi la matrice S è simmetrica. Analogamente definiamo A = 12 (M − M T )
implica che (A)i j = 21 [(M)i j − (M T )i j ] = 12 (mi j − m ji ), ovvero (A) ji = −(A)i j il che significa che A è
antisimmetrica. q.e.d.
1.6 Determinanti
Il determinante è una funzione che associa ad ogni matrice quadrata A uno scalare, generalmente
indicato come det(A). Il significato geometrico principale del determinante si ottiene interpretando
12
Capitolo 1. Algebra lineare
la matrice quadrata A di ordine n come trasformazione lineare di uno spazio vettoriale a n dimensioni: con questa interpretazione, il valore assoluto di det(A) è il fattore con cui vengono modificati
i volumi degli oggetti contenuti nello spazio. Se è diverso da zero, il segno del determinante indica
inoltre se la trasformazione A preserva o cambia l’orientazione dello spazio. Diamone innanzitutto
la definizione formale:
Definizione 1.6.1 (Determinante) Sia l’insieme Mn×n (C) delle matrici n×n, ad elementi nel corpo
C si definisce determinante della matrice A ∈ Mn×n (C) la funzione
det :
Mn×n (C) −→ R
A 7−→ det(A)
dove
det(A) :=
sgn(σ)
X
sgn(σ)[a1σ(1) a2σ(2) · · · anσ(n) ].
σ∈S n
=
n
Y
X
σ∈S n
aiσ(i) ,
(1.18)
i=1
(1.19)
Nella formula, S n è l’insieme di tutte le permutazioni σ dell’insieme numerico {1, 2, . . . , n} e sgn(σ)
denota il segno della permutazione ( σ = +1 se σ è una permutazione pari, −1 se è dispari).
Esempio: n = 2

 a
 11 a12
A = 
 a
21 a22



 ,

In questo caso ci sono due permutazioni dell’insieme {1, 2}, quindi
det(A) = a11 a22 − a21 a12 .
(1.20)
Il valore assoluto di questa espressione è pari all’area del parallelogramma con vertici in (0, 0),
(a11 , a21 ), (a12 , a22 ) e (a11 + a12 , a21 + a22 ). Il segno del determinante (se questo è diverso da
zero) dipende invece dall’ordine ciclico con cui compaiono i vertici del parallelogramma (il segno
Capitolo 1. Algebra lineare
13
è negativo se il parallelogramma è stato ribaltato, e positivo altrimenti). Come spiegato più sotto,
questa proprietà geometrica si estende anche in dimensioni maggiori di 2: il determinante di una
matrice 3 × 3 è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice
con lo stesso procedimento visto.
Esempio: n = 3
La generica matrice 3 × 3 è data da:


 a11 a12 a13

A =  a21 a22 a23


a31 a32 a33




 ,



e in questo caso di sono 3! = 6 permutazioni dell’insieme degli indici {1, 2, 3} e si ha
det(A) = a11 a22 a33 + a13 a32 a21 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 .
(1.21)
Proprietà del determinante:
• det I = 1;
• se B è ottenuta scambiando due righe (o colonne) di A, allora det(B) = − det(A);
• se B è ottenuta moltiplicando una riga di A per k, allora det(B) = k det(A);
• se B è ottenuta sommando una riga di A ad un’altra, allora det(B) = det(A);
• Se due righe (o due colonne) della matrice A sono uguali → det(A) = 0;
• una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) ⇔ det(A) = 0;
• Se B è ottenuta scambiando una riga (o colonna) con una combinazione lineare di due o più
altre righe (o colonne) ⇔ det(B) = det(A);
• det(AT ) = det(A);
14
Capitolo 1. Algebra lineare
• det(AB) = det(A) det(B) (Teorema di Binet, dim. pg. 181 dell’Arfken).
Interpretazione geometrica in 3 dimensioni
Se si identifica ciascuna riga come un vettore di componenti rispettivamente: a = (a11 , a12 , a13 ),
b = (a12 , a22 , a23 ) c = (a13 , a23 , a33 ), il determinante può essere visto come il prodotto misto tra
questi tre vettori (ovvero come il volume del parallelepipedo di lati a, b e c):
det(A) = a · (b × c).
(1.22)
A partire da questa relazione diventa molto semplice dimostrare le proprietà del determinate appena
elencate.
Il calcolo del determinante tramite le permutazioni degli indici può essere spesso complicato, dato
che si basa su una somma di ben n! addendi. Un altro modo di calcolare il determinante è lo
sviluppo di Laplace, che è molto utile in particolare per matrici non troppo grandi e contenenti un
gran numero di zeri. Si procede scegliendo una riga, la i-esima, e il determinate si ottiene tramite la
formula:
det(A) =
n
X
ai jCi j ,
(1.23)
j=1
dove Ci j = (−1)( i + j)Mi j è il complemento algebrico dell’elemento di indici (i j), cioè Ci j è data
da (−1)i+ j per il minore di ordine n − 1 che è il determinante della sottomatrice che si ottiene dalla
matrice A eliminando la riga i-esima e la colonna j-esima. Ovvero:
n
X
det(A) =
(−1)i+ j ai j Mi j .
(1.24)
j=1
Esiste uno sviluppo analogo anche lungo la j-esima colonna.
Inversione di una matrice
Abbiamo visto che una matrice è una rappresentazione di un’ applicazione che linearmente trasforma gli assi coordinati. Ad esempio una rotazione è una trasformazione lineare. Adesso vogliamo
Capitolo 1. Algebra lineare
15
definire la trasformazione inversa, che, se esiste, fa ritornare allo stato iniziale gli assi, ovvero la
matrice A−1 tale che
AA−1 = A−1 A = I,
(1.25)
con (A−1 )i j = a−1
i j , dove
a−1
≡
ij
C ji
,
det A
(1.26)
dove C ji rappresenta il complemento algebrico dell’elemento di indici ( ji) di A, definito sopra, e
dove si è assunto che il determinante di A sia diverso da zero. Se det A = 0 la matrice A si dice
singolare e non esiste nessuna matrice inversa.
Tecnica di eliminazione di Gauss per il calcolo dell’inversa
Un altro modo di calcolare l’inversa di una matrice A invertibile è quello di eseguire sulla matrice
A una serie operazioni che possono essere del tipo:
1. moltiplicare una riga di A per una costante;
2. sostituire una riga di A con un multiplo di un’altra riga;
3. scambiare due righe tra loro.
Queste operazioni vengono applicate ad A fino a che non si ottiene, la matrice I identità. Questa
procedura equivale ad applicare ad A una matrice M (che riassume tutte le operazioni viste sopra)
tale che MA = I, il che significa che M = A−1 . Se si applica la stessa serie di operazioni alla matrice
unitaria I si otterrà proprio l’inversa: MI = M. Vediamo un esempio:

 1 2

A = 
 3 1



 ,

16
Capitolo 1. Algebra lineare
Per praticità scriviamo A e I vicine e applichiamo loro le stesse mosse di Gauss:

 1 2

A = 
 3 1





e

 1 0

I = 
 0 1



 ,

moltiplichiamo la seconda riga di A e I per 1/3 e sostituiamo poi la seconda riga con la prima meno
la seconda che motiplichiamo poi per 6/5:

 1 2


 0 2






 1 0


 6 −2
5
5
e



 .

Sostituiamo la prima riga con la prima meno la seconda e dividiamo la seconda riga per 2:

 1 0


 0 1






 − 1
 5

 3
e
5
2
5
− 51



 ,

dove abbiamo trasformato A nell’identità risalendo dunque all’inversa
A−1

 − 1
 5
= 
 3
5
2
5
− 51



 .

1.7 Sistemi di equazioni lineari
Una delle più importanti applicazioni dei determinanti è che consentono di stabilire una condizione
per l’esistenza di una soluzione per un insieme di equazioni algebriche omogenee (e non). Infatti
se supponiamo di avere tre equazioni in tre incognite x1 , x2 , x3 (o più in generale n equazioni in n
incognite):
a1 x1 + a2 x2 + a3 x3 = 0,
b1 x1 + b2 x2 + b3 x3 = 0,
c1 x1 + c2 x2 + c3 x3 = 0,
(1.27)
Capitolo 1. Algebra lineare
17
il problema è determinare le condizioni per cui esistano delle soluzioni non nulle del sistema.
Osservazione 1.7.1 Dato un sistema di equazioni lineari omogeneo in n incognite, il sistema ammette soluzioni non nulle se la matrice associata A ∈ Mn×n (C) è tale che det(A) = 0.
Intuitivamente usando la notazione a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ), c = (c1 , c2 , c3 ) e x = (x1 , x2 , x3 ),
il sistema corrisponde alle tre condizioni:
a · x = 0,
b · x = 0,
(1.28)
c · x = 0.
In altre parole, perchè ci siano soluzioni, il vettore x deve essere ortogonale ad a, b e c. Questo
significa che il sistema ha soluzione se a, b, c giacciono sullo stesso piano, ovvero se il volume
del parallelepipedo associato ai tre vettori è nullo. Questo equivale a dire che il determinante della
matrice che ha a, b, c come righe deve essere nullo. Supponiamo che c giaccia sul piano individuato
da a e b, quindi per le condizioni di ortogonalità viste prima deve essere x ∼ a × b, ovvero:
x ∼ (a1 b2 − a2 b1 )eˆ3 − (a1 b3 − a3 b1 )eˆ2 + eˆ1 (a2 b3 − a3 b2 )eˆ1 .
(1.29)
Prendendo il rapporto tra due incognite, assumendo ad es. x3 , 0, si ha:
x1
x3
x2
x3
=
=
(a2 b3 − a3 b2 )
,
(a1 b2 − a2 b1 )
(a3 b1 − a1 b3 )
.
(a1 b2 − a2 b1 )
(1.30)
18
Capitolo 1. Algebra lineare
Questa è la regola di Kramer per un sistema di equazioni algebriche omogeneo.
Consideriamo ora il sistema non omogeneo a due equazioni e due incognite:
a1 x1 + a2 x2 = a3 ,
b1 x1 + b2 x2 = b3 .
Questo sistema è lo stesso dell’eq. (1.28), se si prende x3 = −1 e c = 0. Allora con x = (x1 , x2 , −1)
possiamo ripetere lo stesso ragionamento fatto prima. Deve essere anche in questo caso x ∼ a × b e
quindi:
x1 = a3 a2 b3 b2 ,
a1 a2 b1 b2 x2 =
a1 a3
b1 b3
a1 a2
b1 b2
,
dove abbiamo usato il fatto che x3 = −1. In generale la regola di Kramer per un sistema Ax = b
dove A ∈ Mn×n (C) è data da:
xi =
det(Ai )
,
det A
(1.31)
dove Ai è la matrice formata sostituendo le i-esima colonna di A con la colonna b dei termini noti.
In generale per un sistema non omogeneo di n equazioni in m incognite vale il seguente teorema:
Teorema 1.7.1 (Teorema di Rouché-Capelli) Il sistema di equazioni lineari Σ : Ax = b, con A ∈
Mm×n (C) e b ∈ C m , ha soluzione se, e solo se, rk(A|b) = rkA. In tal caso, ogni soluzione del sistema
Σ si ottiene sommando una soluzione particolare del sistema, ogni soluzione del sistema omogeneo
associato Σ′ : Ax = 0.
Dal momento che il rango di una matrice corrisponde al numero di colonne (o di righe) linearmente
Capitolo 1. Algebra lineare
19
indipendenti, ciò significa che il vettore b non è linearmente indipendente dalle colonne di A, ovvero
può essere espresso come combinazione lineare delle colonne di A.
La tecnica di eliminazione di Gauss
Analogamente a quanto visto per il calcolo dell’inversa di una matrice, uno dei metodi più efficaci di risoluzione dei sistemi di equazioni lineari consiste nella cosiddetta ”tecnica di eliminazione”, tradizionalmente attribuita a Gauss. La tecnica consiste nel fare ”operazioni elementari”
sulle equazioni di un sistema lineare in modo da ridurre il numero di coefficienti non nulli senza
modificarne le soluzioni. Queste cosiddette operazioni elementari sono di tre tipi:
1. scambio di due equazioni in un sistema lineare (e quindi di due righe nella corrispondente
matrice);
2. moltiplicazione di tutti i coefficienti di un’equazione (e quindi di una riga della corrispondente
matrice) per una costante diversa da zero;
3. sostituzione di un’equazione con la somma della stessa con un multiplo dell’equazione che
la precede (e quindi sostituire una riga della corrispondente matrice con la somma della riga
stessa con un multiplo della riga soprastante).
Iterando opportunamente queste operazioni si può ottenere un sistema lineare che abbia le stesse
soluzioni del sistema di partenza, ma con un maggior numero di coefficienti uguali a zero e quindi
un sistema per cui sia più facile scrivere le soluzioni. In altre parole, il metodo di eliminazione
di Gauss, consiste nell’applicare operazioni elementari sulle righe di un sistema lineare, fino ad
ottenere un sistema che abbia una matrice a scalini, ovvero una matrice A tale che, per ogni indice
di riga i, esista un indice di colonna j ≥ i, tale che si abbia ahk = 0 quando h ≥ i e k < j (cioè tutte
le righe successive alla i-esima hanno i coefficienti nulli fino allla j-esima colonna). Il sistema cosı̀
ottenuto ha le stesse soluzioni del sistema di partenza.
20
Capitolo 1. Algebra lineare
1.8 Trasformazioni di similitudine
Si è visto che dato un certo endoformismo di un dato spazio vettoriale V, è possibile associarvi una
matrice, la cui forma tuttavia dipende dalla scelta della base rispetto a cui viene espressa. In questo
paragrafo vediamo cosa succede nel caso in cui si passi da una base V = {eˆ1 , · · · , eˆn } ad una base
W = {ê′1 , · · · , ê′n } di V. Tale trasformazione è rappresentata da una matrice A
ê′i
n
X
=
(AT )i j ê j ,
(1.32)
j=1
ovvero E ′ = AT E. Consideriamo ora due vettori di V, x, y. Rispetto alla base V si ha
x =
n
X
xi êi ,
(1.33)
n
X
yi êi ,
(1.34)
n
X
x′i ê′i ,
(1.35)
n
X
y′i ê′i .
(1.36)
i=1
y =
i=1
mentre rispetto alla base W si ha
x′ =
i=1
y′ =
i=1
Se adesso consideriamo un endomorfismo di V che associa x a y, che rispetto alla base V è associato
alla matrice B, ovvero y = Bx, si pone il problema di quale sarà l’espressione di tale trasformazione
rispetto alla base W, ovvero quale sia il rapporto tra la matrice B e la matrice C che associa x′ a y′ .
Definizione 1.8.1 Dato un endomorfismo φ di uno spazio vettoriale V, a cui sia associata la matrice
B rispetto alla base V e la matrice C rispetto alla base W di V, la trasformazione che ci permette di
Capitolo 1. Algebra lineare
21
cambiare la base, ovvero di passare da B a C si dice trasformazione di similitudine ed è data da:
C = A−1 BA,
(1.37)
dove A è data dall’eq. (1.32).
Per ricavare l’eq. (1.37) basta osservare che deve essere x = x′ e y = y′ , dato che i vettori non
dipendono dalla rappresentazione.
Osservazione 1.8.1 ((importante)) Da un punto di vista fisico si ha comunque che B e C rappresentano la ”stessa fisica” rispetto a due basi differenti e si ha:
Proprietà 1 det(C) = det(B);
Proprietà 2 tr(C) = tr(B);
Proprietà 3 det(C − λI) = det(B − λI);
dove il simbolo tr rappresenta la traccia di una matrice A ∈ Mn×n (C) che è data da tr(A) =
Pn
i=1 aii .
Infatti il determinante e la traccia sono conservati da una trasformazione di similitudine e ciò è
dovuto al fatto che sono delle quantità misurabili (per una matrice diagonale rappresentano rispettivamente il prodotto e la somma degli autovalori della matrice) e quindi indipendenti dalle loro
rappresentazioni.
1.9 Autovettori e autovalori
In algebra lineare, un autovettore di una trasformazione lineare è un vettore non nullo che non
cambia direzione nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione
per uno scalare, chiamato autovalore. L’autospazio è il sottospazio formato da tutti gli autovettori
aventi un fissato autovalore, più il vettore nullo. In matematica, questi concetti fondamentali si
applicano in algebra lineare, in analisi funzionale, in geometria. In molti contesti, hanno anche un
22
Capitolo 1. Algebra lineare
significato fisico importante. In meccanica classica gli autovettori delle equazioni che descrivono un
sistema fisico possono corrispondere, ad esempio, ai modi di vibrazione di un corpo e gli autovalori
alle loro frequenze. In meccanica quantistica, gli operatori corrispondono a variabili osservabili,
gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei
valori della variabile corrispondente che hanno probabilità non nulla di essere misurati. Il termine
autovettore è la traduzione italiana della parola tedesca Eigenvektor, coniata da Hilbert nel 1904.
”Eigen” significa ”proprio”, ”caratteristico”. Dal punto di vista formale, autovettori e autovalori
sono definiti come segue:
Definizione 1.9.1 Sia V uno spazio vettoriale su un campo C, e sia A la matrice corrispondente ad
un endomorfismo di V, cioè una trasformazione lineare φ : V → V. Se v è un vettore non nullo in V
e λ è uno scalare (che può essere nullo) tali che
φ(v) = λv,
(1.38)
allora v è un autovettore della trasformazione φ, e λ è il suo autovalore.
Poiché φ è lineare, se v è un autovettore con autovalore λ, allora ogni multiplo non-nullo di v è anch’esso un autovettore con lo stesso autovalore λ. Più in generale, gli autovettori relativi allo stesso
fissato autovalore, insieme al vettore nullo, formano un sottospazio di V chiamato l’autospazio
relativo all’autovalore λ. Viene solitamente indicato con Vλ .
Definizione 1.9.2 L’insieme degli autovalori di φ si dice spettro di φ. Il raggio spettrale di φ è
l’estremo superiore dell’insieme dei moduli dei suoi autovalori.
Nel caso in cui V sia di dimensione finita, scelta una base in esso, a φ è associata univocamente una
matrice A. Per questo motivo si parla anche di autovettori e autovalori associati direttamente ad una
matrice, rispettivamente come un vettore v e uno scalare λ tali che
Av = λv.
(1.39)
Capitolo 1. Algebra lineare
23
Ad esempio per quanto riguarda le seguenti trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali:
• Rotazione antioraria di angolo θ: se θ è diverso da 0 e π non esiste nessun autovettore, infatti
ogni vettore viene ruotato e cambia di direzione. I casi θ = 0 e θ = π sono casi particolari,
in cui ogni vettore sta fisso o è ribaltato: allora ogni vettore è autovettore, con autovalore
rispettivamente 1 e −1.
• Proiezione ortogonale su una retta r passante per l’origine: i vettori su r restano fermi e
quindi sono autovettori con autovalore 1, i vettori sulla retta s ortogonale a r e passante per
l’origine vanno tutti sull’origine e quindi sono autovettori con autovalore 0. Non ci sono altri
autovettori.
La matrice delle rotazioni l’abbiamo già vista nel paragrafo 1.2, mentre, se per semplicità assumiamo che la retta r sia l’asse orizzontale, allora matrice corrispondente alla proiezione su r
sarà:

 1 0


 0 0





1.10 Diagonalizzazione di una matrice
In molti problemi di fisica in cui vi siano delle matrici è utile eseguire una trasfomazione che renda
la matrice diagonale. Evidentemente la matrice di una certa trasformazione sarà diagonale rispetto
alla base costituita dai suoi autovettori. Quindi un modo per diagonalizzare una matrice (ammesso
che essa sia diagonalizzabile) è quello di individuare gli autovalori e gli autovettori di tale matrice
e poi procedere ad un cambiamento di base ovvero ad una trasformazione di similitudine.
Un metodo generale per l’individuazione di autovalori e autovettori di un endomorfismo, nel caso
in cui lo spazio vettoriale V abbia dimensione finita, è il seguente:
1. Si costruisce una base per V, cosı̀ da rappresentare l’endomorfismo tramite una matrice quadrata.
24
Capitolo 1. Algebra lineare
2. Dalla matrice si calcola un polinomio, detto polinomio caratteristico, le cui radici (cioè i
valori che lo annullano) sono gli autovalori.
3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare,
tramite risoluzione di un sistema di equazioni lineari.
Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il
seguente:
p(x) = det(A − xI),
(1.40)
dove I è la matrice identità con lo stesso numero di righe di A. Le radici del polinomio sono proprio
gli autovalori di A.
Basi diverse danno generalmente matrici diverse tuttavia i polinomi caratteristici che ne risultano
sono per sempre gli stessi: il polinomio caratteristico dipende quindi soltanto dall’endomorfismo φ
(da cui l’aggettivo caratteristico).
Osservazione 1.10.1 ((Esistenza degli autovalori)) Dato φ un endomorfismo in uno spazio V di
dimensione n su C si ha:
• Se v1 , ..., vm sono autovettori con autovalori λ1 , ..., λm , a due a due distinti, allora questi sono
linearmente indipendenti.
• Se il polinomio caratteristico di φ ha grado n, e quindi ha al più n radici implica che ha al piùn
autovalori distinti.
• Se C è algebricamente chiuso (ad esempio se C = C è il campo dei numeri complessi),
allora il polinomio caratteristico ha sempre qualche radice: segue che A ha sempre qualche
autovalore, e quindi qualche autovettore.
Capitolo 1. Algebra lineare
25
• Se la dimensione n di V è dispari, e C = R è il campo dei numeri reali, il polinomio
caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale: segue che ogni
endomorfismo di R3 ha almeno un autovettore.
Osservazione 1.10.2 Diagonalizzare una matrice significa eseguire una trasformazione una trasformazione di similitudine, ovvero cambiare la base e passare alla base degli autovettori rispetto alla
quale la matrice è diagonale.
Definizione 1.10.1 Un endomorfismo φ dello spazio vettoriale V è diagonalizzabile se esiste una
base di autovettori per φ. La matrice associata a φ in questa base è diagonale.
Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio degli autovettori di φ. Se il polinomio caratteristico non ha tutte le radici in C, allora A non è
diagonalizzabile. Ad esempio, una rotazione in R2 ha un polinomio caratteristico di secondo grado
senza soluzioni reali: quindi non è diagonalizzabile.
Osservazione 1.10.3 Ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile,
ed ha una base di autovettori ortogonali fra loro.
Se il polinomio caratteristico di A ha tutte le radici in C con molteplicità 1, allora A è diagonalizzabile. Se il polinomio caratteristico di A ha tutte le radici in C, alcune delle quali con molteplicità
maggiore di 1, non è necessariamente diagonalizzabile.
Ad esempio la matrice seguente:

 1 1

A = 
 0 1





ha come polinomio caratteristico (λ − 1)2 e non è diagonalizzabile.
Capitolo 2
Spazi di Hilbert
Gli spazi di Hilbert sono degli ambienti matematici introdotti dal matematico tedesco Hilbert all’inizio del secolo scorso. Essi sono di fondamentale importanza sia nell’analisi funzionale che
nelle generalizzazioni delle serie di Fourier e in sintesi sono degli spazi vettoriali cui viene aggiunto
un prodotto scalare e la completezza. La struttura lineare dello spazio di Hilbert e la nozione di
completezza sono essenziali nella fondazione assiomatica della Meccanica Quantistica il cui primo
assioma associa ad ogni sistema fisico uno spazio di Hilbert separabile e ad infinite dimensioni, e gli
stati di un sistema quantistico a dei vettori di tale spazio. La struttura lineare dello spazio di Hilbert
ci assicura la validità del principio di sovrapposizione degli stati che rende conto del fenomeno
dell’interferenza (vedi esperimento dei fori di Young), mentre la completezza ci assicura che ogni
combinazione lineare (anche infinita) di stati è ancora uno stato, un vettore appartenente allo spazio
di Hilbert. Il secondo assioma della Meccanica Quantistica invece ci dice che ad ogni grandezza
osservabile è associato un operatore autoaggiunto nello spazio di Hilbert. Sarà dunque necessario
definire uno spazio di Hilbert e per far ciò avremo bisogno di una definizione rigorosa e generale
di prodotto scalare e della nozione di completezza. Infine definiremo gli operatori autoaggiunti e le
loro proprietà.
27
28
Capitolo 2. Spazi di Hilbert
2.1 Prodotto Scalare e Spazi Pre-Hilbertiani
Il concetto di prodotto scalare di vettori su Rn ci è già noto ed è dato da:
v · u = vu cos θ,
(2.1)
che, esprimendo v e u nella base canonica {ê1 , · · · , ên } di Rn :
u =
n
X
ui êi ,
v=
i=1
n
X
vi êi ,
(2.2)
i=1
significa che
v·u =
n
X
vi ui .
(2.3)
i=1
Questa definizione va bene fintanto che abbiamo a che fare con quantità reali tuttavia non va più
bene quando i coefficienti sono complessi, infatti se definiamo il modulo di un vettore come segue:
|v| =
v
t n
X
v2i
(2.4)
i=1
se ad esempio v = (ix, 0), (con x ∈ R) si vede subito che |v| =
p
(ix)2 = i|x| ∈ C. Questa definizione
quindi non funziona e c’è bisogno di una definizione più generale:
Definizione 2.1.1 Dato uno spazio vettoriale V si definisce prodotto interno, o prodotto scalare
l’applicazione che ∀ a, b ∈ V associa uno scalare in C:
tale che:
(·, ·) : V × V −→ C
(2.5)
a, b 7→ (a, b)
(2.6)
Capitolo 2. Spazi di Hilbert
29
1. (a, b) = (b, a)∗ ;
2. (λa + µb, c) = λ∗ (a, c) + µ∗ (b, c);
3. (a, a) > 0 e (a, a) = 0 ⇔ a ≡ 0.
Definizione 2.1.2 Una volta definito un prodotto scalare si può definire la norma di un vettore
a ∈ V:
2
kak
= (a, a)
n
X
=
a∗i ai
n
X
=
i=1
i=1
|ai |2 .
(2.7)
Esempi di prodotti scalari:
1. generalizzazione del prodotto scalare euclideo
(a, b) =
n
X
a∗i bi ;
(2.8)
i=1
2.
( f, g) =
Z
+∞
f ∗ (x)g(x)dx,
(2.9)
−∞
dove f, g ∈ L2 (R), insieme delle funzioni ”modulo quadro integrabili alla Lebesgue”:
L2 (R) =
(
f : R −→
x
7→
R
t.c.
f (x)
Z
+∞
−∞
| f (x)|2 dx < ∞
)
(2.10)
Definizione 2.1.3 Uno spazio vettoriale dotato di prodotto scalare si dice spazio prehilbertiano.
Definizione 2.1.4 (Ortogonalità) Due vettori a, b, ∈ V si dicono ortogonali se il loro prodotto
scalare è nullo, ovvero se
(a, b) = 0.
(2.11)
30
Capitolo 2. Spazi di Hilbert
Definizione 2.1.5 (Ortonormalità) Due vettori a, b, ∈ V si dicono ortonormali se il loro prodotto
scalare è nullo, e se ciascuno di essi ha norma 1, ovvero se (a, b) = 0 e se kak2 = 1 e kbk2 = 1.
Osservazione 2.1.1 E’ interessante notare che in uno spazio pre-hilbertiano n dimensionale si può
sempre costruire una base ortonormale di n vettori ui con ui ·u j = δi j a partire da n vettori linearmente
indipendenti vi , i = 1, · · · , n, ciò si può fare grazie al procedimento di Gram-Schmidt.
Teorema 2.1.1 (Disuguaglianza di Bessel) Dato un insieme di vettori {x1 , · · · , xn } ∈ V spazio prehilbertiano, ortonormali tra loro, cioé tali che (xi , x j ) = δi j (delta di Kronecker, t.c. δii = 1 e
δi j = 0 se i , j), e ∀ x ∈ V con (xi , x) = αi componenti di x rispetto a xi , valgono le seguenti
affermazioni:
1.
Pn
2
i=1 |αi |
≤ kxk2 ;
2. Definendo x′ = x −
Pn
i=1
αi xi
si ha
(x′ , xi ) = 0 ∀i = 1, · · · , n.
Il significato fisico della disuguaglianza di Bessel è legato alla nozione di completezza che verrà
approfondita tra poco.
Definizione 2.1.6 (Completezza) L’insieme di vettori di V, spazio vettoriale, {x1 , · · · , xn } ortonormali tra loro è completo se non è contenuto in un insieme più grande nello stesso spazio vettoriale
V.
Teorema 2.1.2 Dato uno spazio vettoriale di dimensione finita V, e dato l’insieme di vettori {x1 , · · · , xn },
sono equivalenti le seguenti affermazioni:
1. {x1 , · · · , xn } è completo;
2. Se (xi , x) = 0
∀i = 1, · · · , n
3. ∀ x ∈ V
si ha
x=
Pn
4. ∀ x ∈ V
si ha
x=
Pn
allora
i=1 αi xi ;
i=1 (xi ,
x)xi ;
x ≡ 0;
Capitolo 2. Spazi di Hilbert
5. ∀ x, y ∈ V
6. ∀ x ∈ V
si ha
si ha
31
Pn
i=1 (x, xi )(xi , y);
(x, y) =
kxk2 =
Pn
i=1
|αi |2 (identità di Parseval).
Dim. ciclica vista a lezione.
Teorema 2.1.3 (Disuguaglianza di Schwarz) Dato uno spazio pre-hilbertiano V, dati x, y ∈ V vale
la seguente disuguaglianza:
|(x, y)| ≤ kxk kyk.
(2.12)
Dim. Si consideri il vettore z(λ) = x + λy, con λ ∈ C e si calcoli la sua norma al quadrato:
kz(λ)k2 = (x + λy, x + λy),
= kxk2 + |λ|2 kyk2 + λ∗ (y, x) + λ(x, y),
= kxk2 + |λ|2 kyk2 + λ(x, y) + λ∗ (x, y)∗ .
(2.13)
Notando che λ e λ∗ sono parametri indipendenti, si può calcolare il valore di λ (o λ∗ ) che minimizza
kz(λ)k2 :
∂
kz(λ)k2 = λkyk2 + (x, y)∗ .
∂λ∗
Quindi si ricava:
λ = −
(x, y)∗
kyk2
e λ∗ = −
(x, y)
.
kyk2
(2.14)
Sostituendo in eq. (2.13) si ottiene:
kz(λ)k2 = kxk2 −
da cui segue |(x, y)|2 ≤ kxk2 kyk2 |(x, y)|2
≥ 0,
kyk2
(2.15)
32
Capitolo 2. Spazi di Hilbert
La disuguaglianza di Schwarz generalizza agli spazi pre-hilbertiani la disuguaglianza triangolare
per vettori u, v ∈ Rn :
|(u · v)| ≤ |u| |v|,
(2.16)
che segue dall’eq. (2.1) osservando che | cos θ| ≤ 1.
2.2 Spazi di Hilbert
Definizione 2.2.1 Uno spazio H pre-hilbertiano completo si dice spazio di Hilbert.
Nel caso degli spazi a dimensione infinita la nozione di completezza è più delicata:
Definizione 2.2.2 Uno spazio si dice completo se ogni successione di Cauchy converge ad un punto
dello spazio stesso, ovvero
x=
+∞
X
an xn
n=0
∀x ∈ H.
(2.17)
Si ricordi che possiamo distinguere tra due tipi di ”infinito”:
1. Infinito numerabile: quando esiste una corrispondenza uno ad uno con N;
2. Infinito non numerabile: quando esiste una corrispondenza uno ad uno con R.
Definizione 2.2.3 Uno spazio di Hilbert H si dice separabile se ammette una base numerabile.
Pertanto in uno spazio di Hilbert separabile è sempre possibile introdurre una base ortonormale.
Questa proprietà vale anche per L2 ([a, b]). In particolare se consideriamo L2 ([−π, π]):
L2 ([−π, π]) =
(
f : R −→
x
7→
R
t.c.
f (x)
Z
+π
−π
)
| f (x)| dx < ∞ ,
2
(2.18)
si può verificare che in esso la base di Fourier
fn (θ) =
1
√ einθ
2π
(2.19)
Capitolo 2. Spazi di Hilbert
33
è una base ortonormale di L2 ([−π, π]).
2.3 Operatori hemitiani e matrici
Abbiamo visto nel paragrafo 1.5 a partire da una matrice A la definizione della matrice trasposta AT
e la definizione della matrice simmetrica t.c. A = AT .
Definizione 2.3.1 Una matrice A di Mn×n (C) si dice autoaggiunta o hermitiana se vale
A† = A,
(2.20)
dove (A† )i j = (A)∗ji = a∗ji e ai j sono gli elementi di A.
Osservazione 2.3.1 In generale considerando lo spazio di Hilbert H, dato l’operatore A il suo
operatore aggiunto A† è definito dalla seguente relazione:
x, A† y = (Ax, y) .
(2.21)
Ricordando la prima propietà del prodotto scalare si ha che (Ax, y) = (y, Ax)∗ e sostituendo in eq.
(2.21) si ha che
x, A† y = (y, Ax)∗ .
(2.22)
In particolare un operatore è autoaggiunto o hermitiano se vale:
(x, Ay) = (Ay, x) .
Proprietà dell’operatore hermitiano A†
1. Se A† = A, B† = B allora (A + B)† = A + B
2. A† = A allora (λA)† = λ; A ⇔ λ ∈ R;
(2.23)
34
Capitolo 2. Spazi di Hilbert
3. (A† )i j = (A)∗ji = a∗ji ;
†
4. A† = A;
5. (AB)† = B† A† ;
6. Se A† = A, B† = B allora (AB)† = AB ⇔ [A, B] = 0
Dim. fatta a lezione.
Osservazione 2.3.2 Come nel caso delle matrici è sempre possibile anche per un operatore A su
uno spazio di Hilbert H la seguente decomposizione:
A =
dove H =
1
2
1
1
A + A† + A − A† ,
2
2
A + A† è un’operatore hermitiano, e K =
1
2
(2.24)
A − A† è un operatore antihermitiano.
Il secondo assioma delle Meccanica Quantistica ci dice che un operatore può rappresnetare una
quantità fisica se e solo se è un operatore hermitiano.
Osservazione 2.3.3 Come nel caso delle matrici è sempre possibile anche per un operatore A su
uno spazio di Hilbert H vale la seguente affermazione:
A† = A
⇔
(x, Ax) ∈ R,
Dim. La prima implicazione si dimostra osservando che A† = A
(Ax, x) = (x, Ax)∗
⇒
(x, Ax) =
A† x, x =
(x, Ax) ∈ R, mentre l’implicazione inversa segue dal fatto che se
(x, Ax) ∈ R allora (x, Ax) = (x, Ax)∗ = (Ax, x), che significa appunto A† x, x = (Ax, x), ovvero
A† = A
⇒
(2.25)
Capitolo 2. Spazi di Hilbert
35
2.4 Operatori unitari
Definizione 2.4.1 Un operatore su uno spazio pre-hilbertiano V si definisce unitario se è soddisfatta
la seguente relazione:
U † = U −1 .
(2.26)
(Un operatore unitario reale si dice ortogonale).
Proprietà di un operatore unitario
Se l’operatore U è unitario sono equivalenti le seguenti affermazioni:
1. U † U = I = UU † ;
2. (U x, Uy) = (x, y);
3. kU xk = kxk, ovvero è un’isometria dal momento che preserva il prodotto scalare.
Relazione di ortogonalità
Se consideriamo l’elemento i j-esimo del prodotto UU † si ha:
UU
†
ij
n
n
X
X
†
=
(U)ik (U )k j =
uik u∗jk ,
k=1
(2.27)
k=1
ma se U è unitario allora UU † = I e quindi UU † = δi j , dunque
ij
n
X
uik u∗jk = δi j ,
(Relazione di Ortogonalità)
(2.28)
k=1
Osservazione 2.4.1 Una rotazione è un esempio importante di trasformazione unitaria.
Osservazione 2.4.2 Nel caso reale si ha che U † = U T e dunque varrà U T U = UU T , che definisce
una matrice ortogonale, pertanto le matrici unitarie sono la generalizzazione delle matrici ortogonali agli
36
Capitolo 2. Spazi di Hilbert
spazi complessi. Dato che vale det(U T U) = det(U T ) det(U) = det(I) = 1, allora (det(U))2 = 1,
quindi se U è una trasformazione ortogonale
det(U) = ±1,
(2.29)
dove +1 corrisponde ad una rotazione propria, mentre −1 corrisponde ad un’inversione di parità.
Osservazione 2.4.3 Nel caso complesso invece si ha che U † U = I = UU † implica che
det(U) = eiθ .
(2.30)
2.5 Notazione di Dirac
In Meccanica Quantistica è estremamente utile la notazione dovuta a Dirac, in cui i vettori di uno
spazio vettoriale V sono indicati con il ket |·i e le applicazioni sui vettori con il bra h·|. Per capire di
che cosa si tratta vediamo l’analogia con le matrici: nel capitolo 1 abbiamo visto che per descrivere
un’applicazione lineare φ o la matrice associata A basta descrivere il suo effetto sulle coordinate
dello spazio, ovvero sui vettori di una sua base. Gli elementi della matrice ai j costituiscono una
rappresentazione dell’operatore, una rappresentazione che dipende dalla scelta della base. Per capire
intuitivamente la notazione di Dirac pensiamo al caso in cui la matrice ha una sola colonna |xi
(vettore ket) di componenti xi , con i = 1, · · · , n. Se A ∈ Mn×n (C) è allora anche A|xi = |bi è ancora
un vettore colonna. Allo stesso modo se una matrice ha una riga e n colonne, è chiamata vettore riga
hx|. Chiaramente hx| si ottiene da |xi tramite la trasposizione, ovvero scambiando righe con colonne.
Anche il prodotto scalare tra due vettori x, y ∈ V si può esprimere con la notazione appena vista
ovvero
hx | yi =
n
X
x∗i yi .
(2.31)
i=0
In generale questa notazione si usa per qualunque prodotto scalare (anche quello che abbiamo definito in L2 (R)). L’idea fondamentale è che l’ordine nel prodotto scalare di uno spazio Hilbert H è
Capitolo 2. Spazi di Hilbert
37
importante, infatti, ∀ a, b ∈ H si ha:
(a, b) , (b, a).
(2.32)
Inoltre abbiamo visto che la definzione generale di prodotto scalare data nel paragrafo 2.1 prevede
che esso sia lineare nel secondo elemento e antilineare nel primo:
1. (c, λa + µb) = λ(c, a) + µ(c, a) (lineare);
2. (λa + µb, c) = λ∗ (a, c) + µ∗ (b, c) (antilineare);
Questa asimmetria si può comprendere meglio se pensiamo che i due fattori appartengano a due
spazi diversi:
Definizione 2.5.1 Sia V uno spazio vettoriale su un campo C. Un funzionale lineare di V è un’applicazione lineare da V nel campo C. La somma fra due funzionali lineari F e G, ed il prodotto fra
F ed uno scalare λ sono definite nel modo seguente:
(F + G)(v) := F(v) + G(v)
e (λF)(v) := λF(v).
(2.33)
Con queste operazioni l’insieme di tutti i funzionali lineari di V in C forma a sua volta uno spazio
vettoriale, detto spazio vettoriale duale V ∗ di V.
Quindi in sintesi:
• i ket sono gli elementi |xi ∈ V;
• i bra sono gli elementi hx| ∈ V ∗ (duale di V)
Teorema 2.5.1 (Teor. di Riesz) Dato uno spazio prehilbertiano V esiste una corrispondenza uno ad
uno tra ogni funzionale F di V ∗ e ogni vettore f in V, basta definire
F(v) = h f | vi,
∀v ∈ V.
(2.34)
38
Capitolo 2. Spazi di Hilbert
Estendiamo ora la notazione anche agli operatori: dato uno spazio di Hilbert H e un operatore A
A : H −→ H
f
7→
g = Af
in notazione di Dirac si può scrivere |gi = A| f i e si ha per la linearità che
A(λ| f i + µ|gi) = λA| f i + µA|gi.
(2.35)
E’ possibile pensare anche agli operatori sul duale H ∗ , infatti se |gi = A| f i considerando il prodotto
scalare
hh|gi = hh| (A| f i) = (hh|A) | f i.
(2.36)
Si può dunque pensare all’operatore A come agente sul bra ed essendo H ∗ lineare in se stesso, le
regole sono identiche alla eq. (2.35):
(λh f | + µhg|)A = λh f |A + µhg|A,
quindi nell’eq. (2.36) si può scrivere in maniera non ambigua:
hh|gi = hh|A| f i.
(2.37)
2.6 Teorema spettrale
Applicando la notazione di Dirac anche al problema degli autovalori di un operatore A su di un
generico spazio di Hilbert H, possiamo riscrivere il problema degli autovalori Av = λv, come
Capitolo 2. Spazi di Hilbert
39
segue:
A|λi = λ|λi,
(2.38)
dove |λi è il ket dell’autovettore v corrispondente all’autovalore λ. In generale si ha che le soluzioni
di questo problema possono essere:
1. λ = λn , ovvero λ assume solo valori discreti;
2. oppure λ assume valori continui.
Abbiamo visto che autovettori corrispondenti ad autovalori differenti sono ortogonali tra loro. Dobbiamo pertanto definire la relazione di ortogonalità nei due casi appena considerati:
1. Caso discreto λn : l’equazione agli autovalori è Avn = λn vn , dove (vn , vm ) = δnm che in
notazione di Dirac diventa
hλn |λm i = δnm ,
(2.39)
2. Caso continuo λ: l’equazione agli autovalori è Av = λv, dove (v, v′ ) = δ(λ − λ′ ) che in
notazione di Dirac diventa
hλ|λ′ i = δ(λ − λ′ ),
(2.40)
dove δ rappresenta la δ di Dirac che vedremo più approfonditamente in seguito, ma di cui
anticipiamo la definizione:





 0 se x , x0 ,
δ(x − x0 ) = 



 ∞ se x = x0 .
(2.41)
40
Capitolo 2. Spazi di Hilbert
Inoltre vale:
Z
+∞
δ(x) = 1.
(2.42)
−∞
A questo punto generalizziamo quanto avevamo già visto nel capitolo 1 a proposito delle matrici
simmetriche, ovvero il teorema spettrale:
Teorema 2.6.1 (Teorema spettrale - caso reale) Nel caso reale e dimensione finita, il teorema
spettrale asserisce che ogni endomorfismo simmetrico di uno spazio pre-hilbertiano reale ha una
base ortonormale formata dagli autovettori dell’endomorfismo. Equivalentemente, ogni matrice
simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale. In altre parole,
per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che M M T = I) ed una
diagonale D per cui
S = M −1 DM = M T DM.
(2.43)
Teorema 2.6.2 (Teorema spettrale - caso complesso) Sia H un operatore hermitiano su uno spazio
di Hilbert complesso V di dimensione n. Il teorema spettrale complesso asserisce che esiste una
base ortonormale di V fatta di autovettori per H. Gli autovalori di H sono tutti reali. In particolare,
l’endomorfismo H è diagonalizzabile. Analogamente, con le matrici otteniamo che ogni matrice
hermitiana è simile ad una matrice diagonale reale tramite una matrice unitaria. In altre parole, per
ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui
H = U −1 DU = U † DU.
(2.44)
In particolare gli autovalori di una matrice hermitiana sono tutti reali.
Dim. Abbiamo già visto che gli che tutti gli autovalori di H sono reali nell’elenco delle proprietà
delle matrici hermitiane, infatti dato v, autovettore per H, con autovalore λ, allora si ha:
λ∗ hv | vi = hHv | vi = hv | Hvi = λhv | vi.
(2.45)
Capitolo 2. Spazi di Hilbert
41
Ne segue che λ è uguale al suo coniugato e quindi è reale. Per provare l’esistenza di una base di autovettori, usiamo l’induzione sulla dimensione di V. Poiché C è algebricamente chiuso, il polinomio
caratteristico di H ha almeno una radice: quindi H ha almeno un autovalore e un autovettore relativo
v. Lo spazio W = v⊥ formato dai vettori ortogonali a v ha dimensione n − 1. L’endomorfismo H
manda W in sé dato che ∀w ∈ W anche Hw ∈ W:
hHw | vi = hw | Hvi = λhw, vi = 0.
(2.46)
Inoltre H, considerato come endomorfismo di W è ancora hermitiano. Procedendo per induzione
sulla dimensione n di V si dimostra il teorema.
Quanto appena dimostrato vale anche per gli operatori autoaggiunti in uno spazio di Hilbert
a infinite dimensioni. Vediamo ora come si traduce la completezza dello spazio di Hilbert nella
notazione di Dirac.
Caso discreto: Avn = λn vn e {vn }, con n ∈ N rappresenta una base ortonormale di autovettori per
P
P+∞
H, allora abbiamo visto che ∀v ∈ H si ha v = +∞
n=0 cn vn , ma (vn , v) =
m=0 cn (vn , vm ) =
P
cn , quindi v = +∞
n=0 (vn , v)vn . Nella notazione di Dirac di scrive
| vi =
+∞
+∞
X
X
hvn | vi | vn i =
| vn ihvn | vi,
n=0
(2.47)
n=0
che equivale a dire:
+∞
X
n=0
| vn ihvn |= I.
(Relazione di Completezza)
(2.48)
In particolare, grazie al teorema spettrale, possiamo scrivere il nostro operatore A hermitiano
rispetto alla base degli autovettori, ottenendo la sua decomposizione spettrale, ovvero la sua
forma diagonale:
A=
+∞
X
n=0
λn | vn ihvn |
(Decomposizione Spettrale)
(2.49)
42
Capitolo 2. Spazi di Hilbert
Caso continuo: Au = λu e {u} rappresenta una base ortonormale di autovettori per H, quindi in
notazione di Dirac A | λi = λ | λi , dove | λi è l’autovettore di A relativo all’autovalore λ.
Inoltre ∀v ∈ H , vale
Z
| vi =
+∞
−∞
dλ c(λ) | λi.
(2.50)
Dunque si ha
hλ, vi =
Z
+∞
−∞
dλ′ c(λ′ )hλ | λ′ i = c(λ),
(2.51)
il che significa:
| vi =
Z
+∞
−∞
+∞
!
dλ | λihλ | | vi,
(2.52)
(Relazione di Completezza)
(2.53)
dλ hλ | vi | λi =
Z
−∞
che equivale a dire:
Z
+∞
−∞
dλ | λihλ |= I.
In particolare la decomposizione spettrale dell’operatore hermitiano A è data da:
Z
+∞
−∞
dλ λ | λihλ |,
(2.54)
relazione che ci dice che una matrice hermitiana x̀e diagonale rispetto alla base dei suoi
autovettori.
Capitolo 3
Elementi di algebra vettoriale e
tensoriale
3.1 Introduzione
Intuitivamente le quantità fisiche si dicono quantità scalari, quando solamente il loro valore numerico cambia (si pensi alla pressione, alla temperatura, alla massa) e tale valore non dipende dal
sistema di coordinate che viene scelto, mentre vi sono poi quantità che dipendono anche dalla direzione (si pensi alla velocità, alla forza, al momento, etc.) che si dicono grandezze vettoriali. Le
grandezze vettoriali possono essere rappresentate geometricamente grazie ad una freccia che indica
l’orientamento e la direzione del vettore nello spazio. Un vettore può anche essere rappresentato
da una terna (se lo spazio è tridimesionale) di coordinate. Vogliamo dare ora una definizione più
precisa di queste quantità legata al loro comportamento rispetto a delle trasformazioni ortogonali.
Definizione 3.1.1 (Trasformazione ortogonale) Una trasformazione ortogonale T in uno spazio
vettoriale reale V è una trasformazione lineare che conserva il prodotto scalare, e dunque conserva
le lunghezze dei vettori, ovvero dati due vettori u, v ∈ V:
(T v, T w) = (v, w).
43
44
Capitolo 3. Elementi di algebra vettoriale e tensoriale
Una trasformazione ortogonale è una rotazione rigida o una rotoinversione (rotazione seguita da
un’inversione del verso del vettore). Ad essa è associata una matrice ortogonale. Ricaviamo ora le
proprietà di una matrice ortogonale.
Consideriamo pertanto il sistema di riferimento K con versori {ê1 , ê2 , ê3 } e il sistema di riferimento
K ′ rototraslato rispetto a K con versori {eˆ′ 1 , eˆ′ 2 , eˆ′ 3 }. Il generico vettore v in K si può scrivere
v = v1 ê1 + v2 ê2 + v3 ê3 =
3
X
vi êi ,
(3.1)
i=1
mentre nel sistema di riferimento K ′ si ha:
′
v =
v′1 eˆ′ 1
+
v′2 eˆ′ 2
+
v′3 eˆ′ 3
=
3
X
v′i eˆ′ i .
(3.2)
i=1
Dato che i versori sono ortonormali vale la relazione:
(êi , ê j ) = δi j ,
(3.3)
dove δi j è la delta di Kronecker. Lo stesso vale per i versori del sistema di riferimento K ′ :
(eˆ′ i , eˆ′ j ) = δi j .
(3.4)
Dato che vi = (êi , v), gni vettore v ∈ V può essere scritto come
v=
3
X
(êi , v)êi .
(3.5)
i=1
In particolare anche i versori di K ′ possono essere espressi rispetto a quelli di K:
eˆ′ i =
3
X
(ê j , eˆ′ i )ê j ,
j=1
(3.6)
Capitolo 3. Elementi di algebra vettoriale e tensoriale
45
ovvero
eˆ′ i =
3
X
ai j ê j ,
(3.7)
j=1
dove, osservando che nel caso reale (ê j , eˆ′ i ) = (eˆ′ i , ê j ), abbiamo definito:
ai j = (eˆ′ i , ê j ).
(3.8)
Esprimendo l’eq. (3.7) in forma matriciale otteniamo:








 
 
eˆ′ 1   a11 a12 a13
 
 
′
ˆ
e 2  =  a21 a22 a23
 
eˆ′ 3   a31 a32 a33



 
ê
  1 

 
  ê2 

 

 
ê3 . 
Definendo i due vettori colonna E ′ ed E rispettivamente e ai j = (R)i j , allora
E ′ = RE.
(3.9)
A questo punto sostituendo nell’espressione nella relazione di ortonormalità (eˆ′ i , eˆ′ i ) = δi j l’espressione dell’eq. (3.7), e utilizzando il fatto che (êi , êi ) = δi j , si ottiene la proprietà caratteristica di una
matrice ortogonale:
3
X
aik a jk = δi j,
(3.10)
k=1
che in forma matriciale diventa
δi j =
3
X
k=1
= (R)ik (R) jk =
3
X
= (R)ik (RT )k j ,
(3.11)
k=1
ovvero
RRT = I,
(3.12)
46
Capitolo 3. Elementi di algebra vettoriale e tensoriale
e analogamente
RT = R−1 .
(3.13)
Si noti che le trasformazioni ortogonali sono trasformazioni unitarie reali.
3.2 Prodotto scalare, prodotto vettore e convenzione di Einstein
Abbiamo visto come il prodotto scalare si scrive in coordinate cartesiane come segue:
A·B =
3
X
Ai Bi .
(3.14)
i=1
Per il prodotto vettore la cosa è leggermente più complicata. È necessario ricordare due cose. Prima
di tutto, a differenza del caso del prodotto scalare euclideo, il prodotto vettoriale dipende dall’ordine
in quanto A × B = −B × A. Ciò è dovuto al fatto che se si scambia l’ordine dei due vettori il versore
n̂ cambia segno in virtù della nota regola della mano destra. Quest’ultima, d’altra parte, altro
non è che una rappresenzatione mnemonica di una proprietà matematica sulle permutazioni. In
secondo luogo, per una terna cartesiana, il prodotto vettore di due qualunque versori fondamentali
fornisce il terzo a meno del segno che è appunto fornito dalla regola della mano destra di cui adesso
cercheremo di capire l’origine. Quindi ad esempio x̂ × x̂ = 0 (perchè l’angolo tra i due versori si
annulla), x̂× ŷ = ẑ mentre x̂× ẑ = −ẑ× x̂ = −ŷ. Regole simili valgono per gli altri casi. Riassumendo:
x̂ × x̂ = 0
x̂ × ŷ = ẑ
x̂ × ẑ = −ŷ
ŷ × x̂ = −ẑ
ŷ × ŷ = 0
ŷ × ẑ = x̂
ẑ × x̂ = ŷ
ẑ × ŷ = −x̂
ẑ × ẑ = 0
(3.15)
Vediamo di capire l’origine della regola della mano destra, sostituendo alla notazione con i versori
fondamentali (x̂, ŷ, ẑ) quella con la numerazione da 1 a 3 per indicare le tre direzioni (ê1 , ê2 , ê3 ). In
tal modo si è associato alla terna destrogira fondamentale (x̂, ŷ, ẑ) una terna (1, 2, 3). Se scambiamo
Capitolo 3. Elementi di algebra vettoriale e tensoriale
47
tra loro due elementi della terna, stiamo eseguendo una permutazione degli indici. In quanti modi
si può fare questa permutazione? È facile vedere esplicitamente che si puó fare i 6 modi distinti
1 2 3
2 1 3
3 1 2
1 3 2
2 3 1
3 2 1
(3.16)
e questo è un caso particolare della proprietà combinatoria che il numero di permutazioni semplici
di n oggetti è Dn = n!, da cui D3 = 3! = 6 in accordo con il calcolo diretto precedente. La
regola della mano destra è dunque collegata alla parità del numero di permutazioni a partire dalla
terna fondamentale (1, 2, 3): si avrà un segno positivo se il numero di permutazioni è pari, negativo
altrimenti. Se è pari si dice che la permutazione è ciclica. In definitiva quindi, la ciclicità o meno
della permutazione automaticamente seleziona il segno corretto da mettere nelle equazioni (3.16).
Usando allora le notazioni compatte suddette, le equazioni (3.16) si riassumono nel modo seguente:




0






êi × ê j = 
êk







 −êk
se i = j
se i, j, k distinti e ciclici rispetto a 1, 2, 3
(3.17)
se i, j, k distinti e non ciclici rispetto a 1, 2, 3
Come nel caso del prodotto scalare, anche in questo caso le operazioni algebriche possono essere
fortemente semplificate mediante l’introduzione di un nuovo simbolo, questa volta con tre indici,
detto simbolo di Levi-Civita
ǫi jk




0






=
1







 −1
se due qualunque dei tre indici i, j, k sono uguali
se la terna i, j, k è ciclica rispetto alla 1, 2, 3
(3.18)
altrimenti
In tal modo le equazioni (3.16) si scrivono in modo compatto
êi × ê j =
3
X
k=1
ǫi jk êk
(3.19)
48
Capitolo 3. Elementi di algebra vettoriale e tensoriale
dove i, j = 1, 2, 3. In tal modo anche il prodotto vettore tra due arbitrari vettori diventa
A×B =
3
X
i j=1
3
X
Ai B j êi × ê j =
ǫi jk Ai B jêk
(3.20)
i jk=1
Si noti che la componente kesima del prodotto vettore (3.20) è
(A × B)k = ǫi jk Ai B j.
(3.21)
3.3 Convenzione di Einstein
Le espressioni per il prodotto scalare e vettoriale viste nel paragrafo precedente (e anche altre più
complesse, come vedremo in seguito) in cui compaiono molti simboli di sommatoria si semplificano sottointendendo l’indice di sommatoria sugli indici ripetuti. Cosı̀, ad esempio, nell’eq (3.14)
appare un indice ripetuto i, mentre nell’eq (3.20) ne appaiono tre i, j, k. Con tale convenzione, detta
convenzione degli indici ripetuti, o di Einstein, tale equazione si scrive più semplicemente:
A · B = Ai Bi
A × B = ǫi jk Ai B j êk
(3.22)
(3.23)
dove si sono semplicemente sottointese le somme, come detto. Si ricordi che tale convenzione
funziona solo se applicata agli indici ripetuti, che appaiono cioè due volte nell’espressione a destra
del segno di uguaglianza. Si ricordi inoltre che la prima espressione della (3.23) è stata ottenuta con
l’aiuto del simbolo di Kronecker δi j in quanto puó essere scritta anche come A · B = Ai B j δi j , dove
questa volta si sottointende la somma sugli due indici i, j. Le definizione del simbolo di Kronecker
δi j sono tali che il valore dell’indice j sia non nullo solo quando coincide con quello dell’indice i. In
definitiva quindi, il prodotto scalare è legato al simbolo δi j mentre quello vettore è legato al simbolo
di Levi-Civita ǫi jk .
Ci si chiede ora se questi due simboli siano in qualche modo legati tra loro. La risposta è affermativa,
Capitolo 3. Elementi di algebra vettoriale e tensoriale
49
ed è sintetizzata nella seguente relazione fondamentale
ǫi jk ǫi jk = 6
(3.24)
ǫi jk ǫi jl = 2 δkl
ǫi jk ǫi jm = δ jl δkm − δ jm δkl
Dimostramo la prima delle (3.25), ricordando che per la convenzione degli indici ripetuti, c’è
una sommatoria sottointesa sugli indici i, j, k. Quindi scritta esplicitamente tale equazione diventa
ǫi jk ǫi jk = ǫ111 ǫ111 + ǫ112 ǫ112 + . . . ecc su tutti i 3 × 3 × 3 = 33 = 27 termini della sommatoria. Le
proprietà del simbolo di Levi-Civita (3.18) peró, fan si che
ǫi jk ǫi jk





 0
=



 1
se due qualunque dei tre indici i, j, k sono uguali
(3.25)
se ǫi jk = 1 oppure −1
Quindi restano non nulli nella sommatoria solo i 3! = 6 termini corrispondenti alle possibili permutazioni della terna fondamentale 1, 2, 3, e il valore di ogni termine vale 1 come detto. Da cui il
risultato 6.
Vediamo ora di dimostrare la seconda delle (3.25). Si noti innanzi tutto che adesso ci sono solo
32 = 9 termini nella somma e cioè ǫi jk ǫi jl = ǫ11k ǫ11l + ǫ12k ǫ12l + . . . e cosı́ via, e il valore di ogni
termine dipende dal valore di k e l. Supponiamo dapprima che k , l, ad esempio k = 1 e l = 2.
Allora tutti i termini della somma sono nulli in quanto se il primo simbolo ha tutti gli indici distinti,
necessariamente il secondo deve averne almeno due uguali e viceversa. Quindi si ottiene un valore
non nullo solo se k = l, e in questo caso il risultato è sempre uguale a 2 in quanto solo due dei
nove termini risultano diversi da zero e uguali a 1 come prima. Ció dimostra anche la seconda delle
(3.25).
Infine dimostramo il terzo risultato. In questo caso ci sono solo tre termini nella somma che
possiamo scrivere esplicitamente: ǫi jk ǫilm = ǫ1 jk ǫ1lm + ǫ2 jk ǫ2lm + ǫ3 jk ǫ3lm . Si noti ora che gli indici
j, k, l, m sono fissati ad un qualsiasi valore tra 1 e 3. Quindi se ad esempio fosse diverso da zero il
50
Capitolo 3. Elementi di algebra vettoriale e tensoriale
primo dei tre termini, allora necessariamente i valori di j, k, l, m dovrebbero essere o j = 2 e k = 3
oppure viceversa, e quindi sarebbero nulli gli altri due termini. In definitiva sono diversi da zero
solo in modo mutuamente esclusivo e dunque ad esempio ǫ1 jk ǫ1lm = δ jl δkm − δ jm δkl e la stessa
cosa (in modo mutuamente esclusivo) per gli altri due termini. E quindi anche la terza delle (3.25)
risulta dimostrata.
3.4 Calcolo tensoriale
Una volta definita una trasformazione ortogonale e introdotta la convenzione di Einstein sugli indici
possiamo definire le seguenti quantità:
Definizione 3.4.1 (Scalare) Uno scalare è un invariante per trasformazioni ortogonali. Uno scalare
è un tensore di rango 0.
Definizione 3.4.2 (Vettore o tensore di rango 1) Un vettore è un oggetto definito da un indice singolo che trasforma secondo la seguente relazione:
vi → v′i = ai j v j
(3.26)
(al solito è sottointesa la somma sull’indice ripetuto j) per un cambiamento di sistema di riferimento.
Definizione 3.4.3 (Tensore di rango 2) Un tensore T i j è un oggetto definito da due indici che trasforma secondo la seguente relazione:
T i j → T i′j = aik a jl T kl
(3.27)
Un tensore, essendo un oggetto identificato da due indici, può essere rappresentato come una matrice. È però importante notare che non è vero il viceversa, in quanto solo gli oggetti che trasformano
secondo la (3.27) sono tensori.
Capitolo 3. Elementi di algebra vettoriale e tensoriale
51
In modo analogo si definiscono i tensori di rango superiore a 2.
T i jk... → T i′jk... = ail a jm akn . . . T lmn...
(3.28)
Si noti che sia il simbolo di Kronecker δi j che quello di Levi-Civita ǫi jk godono di questa proprietà e sono quindi tensori di rango 2 e 3 rispettivamente. Esiste una teoria generale per l’algebra
dei tensori che non è ovviamente qui possibile sviluppare. Vi sono però due proprietà utili per il
resto del corso che vale la pena di discutere.
Definizione 3.4.4 Due tensori S i j e Ai j di rango 2 si definiscono simmetrico e antisimmetrico
rispettivamente, se soddisfano le proprietà
S i j = S ji
Ai j = −A ji
(3.29)
rispetto allo scambio di indici i ↔ j.
Valgono allora le seguenti due proprietà.
Osservazione 3.4.1 (Proprietà 1) Per ogni tensore T i j , esistono un tensore simmetrico S i j ed uno
antisimmetrico Ai j tali che
T i j = S i j + Ai j
(3.30)
Dunque ogni tensore si può considerare come somma di un tensore simmetrico e di uno antisimmetrico. Questa proprietà è facile da dimostrare scrivendo T i j nel modo seguente
Ti j =
1
1
T i j + T ji + T i j − T ji = S i j + Ai j
2
2
(3.31)
dove, dalle (3.29) è facile verificare che il primo termine a destra dell’equazione (3.31) (indicato
come S i j ) è appunto simmetrico, mentre il secondo (indicato con Ai j è antisimmetrico.
52
Capitolo 3. Elementi di algebra vettoriale e tensoriale
Osservazione 3.4.2 (Proprietà 2) Il prodotto di ogni tensore simmetrico S i j per ogni tensore
antisimmetrico Ai j é sempre nullo, cioè
S i j A ji = 0
(3.32)
dove il prodotto (in senso matriciale) è identificato dalla somma sull’indice j.
Anche questa affermazione si verifica immediatamente scrivendo esplicitamente il prodotto come
S i j A ji = S 11 A11 + S 12 A21 + S 13 A31 +
(3.33)
S 21 A12 + S 22 A22 + S 23 A32 +
S 31 A13 + S 32 A23 + S 33 A33
Ma dalle proprietà (3.30) si vede immediatamente che Aii = 0 per ogni i = 1, 2, 3 (il che annulla i tre
termini diagonali) e che i rimanenti sei termini si possono raggruppare in modo che la loro somma
risulti nulla, come ad esempio S 12 A21 + S 21 A12 = S 12 (A12 + A21 ) = 0 (analogamente per gli altri
quattro termini). Qundi anche questa seconda proprietà f̀acilmente dimostrata.
3.5 Operatori differenziali
Nei casi fisici più generali, le varie quantità (scalari, vettori e tensori) sono in realtà dei campi, sono
cioè funzioni delle variabili spaziali x e temporali t. Quindi ad esempio ψ = ψ(x, t), per i campi
scalari, F = F(x, t) per i campi vettoriali e T i j = T i j (x, t) per i tensori (di rango 2). Su tali campi,
operano degli operatori differenziali, contenenti cioè delle derivate parziali (sulle variabili spaziali
e temporali). Uno di questi è l’operatore differenziale nabla
∇( ) =
∂
∂
∂
( ) x̂ +
( ) ŷ +
( ) ẑ
∂x
∂y
∂z
(3.34)
Capitolo 3. Elementi di algebra vettoriale e tensoriale
53
applicato al campo scalare ψ. Altri tipi di operatori differenziali possono essere ottenuti però applicando l’operatore ∇ ad un vettore o ad un tensore, come vedremo tra un attimo. Si noti che la (3.34)
si può mettere nella forma sintetica
∇( ) =
3
X
∂
( ) ê j
∂x j
j=1
(3.35)
Vediamo ora il risultato dell’applicazione di questo operatore su scalari e vettori (il caso dei tensori
è più complesso e non necessario per i nostri scopi).
a) Scalare Con ∇ e uno scalare ψ si può costruire un solo operatore differenziale, e cioè il gradiente
già visto in (3.34), che in notazione compatta (3.35) diventa
∇ (ψ) =
3
X
∂
(ψ) ê j
∂x
j
j=1
(3.36)
Sio noti che il gradiente trasforma uno scalare in un vettore
b)Vettore In questo caso ci sono due possibilità, corrispondenti, rispettivamente, al caso di prodotto
scalare A · B e vettore A × B, avendo in mente di trattare l’operatore ∇ come un vettore con
l’accortezza di ricordare che tale vettore opera su un altro, e quindi va sempre scritto a sinistra
rispetto al campo vettoriale su cui sta operando.
• Prodotto scalare.
∇ · F (x) =
·
"
∂
∂
∂
( ) x̂ +
( ) ŷ +
( ) ẑ
∂x
∂y
∂z
i
h
F x (x) x̂ + Fy (x) ŷ + Fz (x)
#
∂
∂
∂
F x (x) +
Fy (x) +
Fz (x)
∂x
∂y
∂z
3
X
∂
F j (x)
=
∂x j
j=1
(3.37)
=
(3.38)
54
Capitolo 3. Elementi di algebra vettoriale e tensoriale
Questo operatore differenziale, che trasforma un vettore in uno scalare è noto come
divergenza.
• Prodotto vettore.
#
∂
∂
∂
( ) x̂ +
( ) ŷ +
( ) ẑ
∇ × F (x) =
∂x
∂y
∂z
i
h
× F x (x) x̂ + Fy (x) ŷ + Fz (x)
"
(3.39)
Applicando le regole definite in (3.16) per i versori fondamentali, si ottiene
"
"
#
#
∂
∂
∂
∂
∇ × F (x) =
Fz (x) −
Fy (x) x̂ +
F x (x) −
F x (x) ŷ
∂y
∂z
∂z
∂z
#
"
∂
∂
Fy (x) −
F x (x) ẑ
+
∂x
∂y
(3.40)
che è un operatore differenziale noto come rotore, che trasforma un vettore in un altro
vettore. Si noti che la stessa espressione (3.41) si può ottenere risolvendo il seguente
determinante:
x̂
ŷ
ẑ
∂
∂
∂ ∇ × F (x) = ∂x ∂y
∂z F
F
F
x
y
z (3.41)
È a questo punto importante ricordare che questi operatori differenziali hanno questa forma in coordinate cartesiane. In altre coordinate hanno forme diverse e più complicate.
D’altra parte, essendo vettori, hanno senso anche in senso assoluto, indipendentemente
dal sistema di coordinate scelto.
• Quadrato di un vettore
Anche per il vettore ∇, cosı́ come per gli altri vettori, è possibile fare il prodotto scalare
con sè stesso, corrispondente al quadrato di un vettore. In questo caso si ottiene il
Capitolo 3. Elementi di algebra vettoriale e tensoriale
55
Laplaciano
∇2 = ∇ · ∇ =
∂2
∂2
∂2
+
+
∂x2 ∂y2 ∂z2
(3.42)
che puó essere applicato sia ad uno scalare che ad un vettore
∇2 ψ (x) =
∂2
∂2
∂2
(x)
(x)
ψ
+
ψ
+
ψ (x)
∂x2
∂y2
∂z2
(3.43)
∇2 F (x) = ∇2 F x (x) x̂ + ∇2 Fy (x) ŷ + ∇2 Fz (x) ẑ
dove ogni singolo termine puó essere considerato come Laplaciano di uno scalare, e
quindi ad esempio ∇2 F x (x) = ∂2 /∂x2 F x (x) + ∂2 /∂y2 F x (x) + ∂2 /∂z2 F x (x) e analogamente per le altre componenti.
Si noti che in notazione compatta, il laplaciano si scrive come
∇2 ψ (x) = ∂i ∂i ψ (xx)
(3.44)
dove abbiamo usato l’abbreviazione ∂i ≡ ∂/∂i e dove si ricordi che sull’indice i nella (3.44), essendo
ripetuto, deve essere sottointesa una somma.
3.6 Identità vettoriali
Vediamo adesso come la relazione fondamentale (3.25) permetta di fare, in modo semplice ed
elegante, delle operazioni che comporterebbero altrimenti lunghi e penosi calcoli.
Uno dei casi in cui tale opportunità risulta più evidente, è il caso in cui appaiono dei prodotti
vettore ove si ricordi che la componente kesima di un prodotto vettore è dato dalla (3.21).
Esempio 1: Prodotto misto
Mostriamo che vale
(A × B) · C = A · (B × C)
(3.45)
56
Capitolo 3. Elementi di algebra vettoriale e tensoriale
Infatti
(A × B) · C = (A × B)i Ci = ǫi jk A j Bk Ci = A j ǫ jki Bk Ci
(3.46)
= A j (B × C) j = A · (B × C)
dove si noti che abbiamo utilizzato il fatto che ǫ jki = ǫi jk differendo le stesse per due permutazioni corrispondenti a due segni negativi e quindi ad una moltiplicazione per l’unità
1.
Esempio 2: Regola di distribuzione dei vettori
Mostriamo che vale la regola
(A × B) · (C × D) = (A · C) (B · D) − (A · D) (B · C)
(3.47)
Infatti dalle solite regole:
(A × B) · (C × D) = (A × B)i (C × D)i
(3.48)
= ǫi jk ǫilm A j Bk Cl Dm
= δ jl δkm − δ jm δkl A j Bk Cl Dm
= A j Bk C j Dk − A j Bk C k D j
= A j C j (Bk Dk ) − A j D j (Bk Ck )
= (A · C) (B · D) − (A · D) (B · C)
Esempio 3: Equazioni di Maxwell Vediamo adesso qualche esempio che coinvolga anche l’operatore nabla (∇). Questo appare spesso in elettromagnetismo in associazione con le equazioni
di Maxwell.
∇ × (∇ × A) = ∇ (∇ · A) − ∇2 A
(3.49)
Capitolo 3. Elementi di algebra vettoriale e tensoriale
57
Infatti
[∇ × (∇ × A)]i = ǫi jk ∂ j (∇ × A)k
(3.50)
= ǫki j ǫklm ∂ j ∂l Am
= δil δ jm − δim δ jl ∂ j ∂l Am
= ∂i ∂ j A j − ∂ j ∂ j Ai
= ∂i (∇ · A) − ∇2 Ai
che è appunto la componente iesima della relazione che si voleva dimostrare.
I prossimi due esempi utilizzano le proprietà (3.30) e (3.32) e sono fondamentali nella teoria
dei potenziali in elettromagnetismo.
Esempio 4: Campo magnetico solenoidale
Vale l’identità
∇ · (∇ × A) = 0
(3.51)
∇ · (∇ × A) = ∂i (∇ × A)i
= ∂i ǫi jk ∂ j Ak = ǫi jk ∂i ∂ j Ak = 0
(3.52)
Infatti
(3.53)
essendo il prodotto di un tensore antisimmetrico (ǫi jk ) e di uno simmetrico (∂i ∂ j Ak ).
Si noti che identificando il vettore A con il potenziale vettore del campo magnetico B, allora
B = ∇ × A e ∇ · B = 0 corrispondente all’affermazione che il campo magnetico è solenoidale
(a divergenza nulla).
Esempio 4: Campo elettrico irrotazionale
Vale l’identità
∇ × (∇ψ) = 0
(3.54)
58
Capitolo 3. Elementi di algebra vettoriale e tensoriale
che si dimostra allo stesso modo della precedente:
∇ × (∇ψ) i = ǫi jk ∂ j (∇ψ)k = ǫi jk ∂ j ∂k ψ = 0
(3.55)
che si annulla per la stessa ragione di prima.
Anche in questo caso, identificando ψ con il potenziale elettrico allora E = −∇ψ e la relazione
sopra è equivalente all’affermazione che ∇ × E = 0, cioè che il campo elettrico è irrotazionale
(rotore nullo).
3.7 Teorema di Gauss e significato della divergenza
Abbiamo visto come si può esprimere la divergenza in coordinate cartesiane, ma sappiamo che,
essendo un vettore, essa deve avere un significato intrinseco (assoluto) indipendendente da ogni
sistema di coordinate. Come fare ad esprimerlo in senso assoluto? Si utilizza il teorema di Gauss
che andiamo ora a discutere.
Si consideri una superficie arbitraria chiusa S e sia V il volume da essa racchiuso (Fig.3.1).
Com’è noto si definisce il flusso ΦS attraverso la superficie chiusa S la quantità
da=dS n
V1
n
S0
V
S
V2
Figura 3.1: Il teorema di Gauss.
ΦS
=
I
S
F · da =
I
S
F · n̂ dS
(3.56)
L’idea che vogliamo ora perseguire è quella di riuscire ad esprimere questo integrale di superficie
Capitolo 3. Elementi di algebra vettoriale e tensoriale
H
S
in termini di integrale di volume
R
V
59
. A tal scopo, si divida il volume V in due parti arbitrarie V1 e
V2 in modo che V = V1 + V2 . Sia S 0 la superficie interna che divide il volume in due parti (Fig.3.1).
Chiaramente la superficie chiusa S 1 che racchiude il volume V1 è data da S 1 = S 1ext + S 0 dove S 1ext
è la superficie esterna. Analogamente per la seconda superficie S 2 = S 2ext + S 0 . Quindi la superficie
originale è la somma delle due nuove superfici esterne, cioè S = S 1ext + S 2ext . Quindi
I
S1
F · da1 +
I
S2
Z
F · da2 =
S 1ext
F · da1 +
Z
S0
F · da10 +
Z
S 2ext
F · da2 +
Z
S0
F · da20
(3.57)
Si noti ora che la superficie S 0 è orientata (perchè lo é l’elemento di superficie da0 ) con direzioni
opposte per le due superfici. Quindi chiaramente
Z
F · da10 +
S0
Z
F · da20 = 0
S0
(3.58)
e dunque
I
S1
F · da1 +
I
S2
F · da2 =
Z
F · da1 +
S 1ext
Z
S 2ext
F · da2 = ΦS
La cosa si puó generalizzare. Se supponiamo di dividere il volume V in N parti allora V =
PN
e S = i=1
∆S iext ed allora, come prima, abbiamo
N I
X
i=1
∆S i
F · dai =
I
S
F · da = ΦS
(3.59)
PN
i=1 ∆Vi
(3.60)
Possiamo ora utilizzare questo risultato nel modo seguente. Chiaramente nel limite ∆Vi → 0, anche
H
l’integrale ∆S F · dai → 0. Come spesso succede, però, il rapporto tende ad un limite finito (in
i
quanto si annullano “con la stessa rapidità”). Chiameremo divergenza tale limite, cioè
1
∇ · F = lim
∆Vi →0 ∆Vi
I
∆S i
F · dai
(3.61)
Si noti che, come anticipato in precedenza, questa definizione è indipendente da qualsiasi sis-
60
Capitolo 3. Elementi di algebra vettoriale e tensoriale
tema di riferimento. La combinazione delle (3.60) e (3.61) permette di dimostrare un risultato
importantissimo, noto come Teorema di Gauss (o della divergenza):
I
S
F · da =
Z
dV (∇F)
(3.62)
F · dai
(3.63)
V
Infatti
I
S
F · da =
=
=
lim
δS i →0
lim
∆Vi →0
lim
∆Vi →0
N I
X
i=1 ∆S i
N
X
∆Vi
i=1
N
X
i=1
1
∆Vi
I
∆S i
F · dai
∆Vi (∇ · F)i =
Z
V
(∇ · F)
Si noti che conosciamo gi‘a un caso particolare di questo teorema avendolo visto in elettrostatica.
Affinchè sia tutto consistente, però, resta da dimostrare che la divergenza definita in (3.61)
in senso assoluto, si riduce alla (3.38) nel caso vengano utilizzate coordinate cartesiane. Per far
questo si consideri la geometria definita nella Fig.3.2 dove un cubetto di volume ∆V = ∆x ∆y ∆z
ha l’ estremo sinistro inferiore posizionato nel punto (x, y, z) Dalla definizione di divergenza (3.61)
(x+∆x/2,y+ ∆y/2,z+ ∆z)
z
z (x,y,z+∆z)
(x+∆x/2,y+ ∆y/2,z)
x
y
(x,y,z)
(x,y+∆y,z)
x
y
Figura 3.2: Divergenza in coordinate cartesiane.
applicato a tale volumetto abbiamo
∇·F =
1
∆ΦS
∆V
(3.64)
Capitolo 3. Elementi di algebra vettoriale e tensoriale
61
dove ∆ΦS è il flusso totale attraverso la superficie che racchiude il volume, e quindi è la somma dei
flussi attraverso le superfici perpendicolari alle tre direzioni cartesiane x, y, z:
∆ΦS
= ∆Φ(z) + ∆Φ(x) + ∆Φ(y)
(3.65)
Dalla Fig.3.2, si vede che ad esempio per la superficie perpendicolare alla direzione ẑ si ha
∆x
,y+
= Fz x +
2
∆x
− Fz x +
,y+
2
(z)
∆Φ
!
∆y
, z + ∆z ∆x ∆y
2
!
∆y
, z ∆x ∆y
2
(3.66)
Notando quindi che
Fz x +
!
!
∆x
∆x
∆y
∆y
∂Fz
,y +
, z + ∆z = Fz x +
,y +
,z +
∆z + o ∆z2
2
2
2
2
∂z
(3.67)
si ottiene chiaramente, a meno di infinitesimi di ordine superiore che andranno a zero nel limite di
volume infinitesimo,
∆Φ(z) =
∂Fz
∆x ∆y ∆z
∂z
(3.68)
Discorsi analoghi si possono fare per gli altri due flussi lungo x̂ e ŷ. Quindi ricordando che il
prodotto delle tre lunghezze in (3.68) è uguale al volume ∆V, si ottiene
∆ΦS
=
!
I
∂F x ∂Fy ∂Fz
+
+
∆V =
F · da
∂x
∂y
∂z
∆S
(3.69)
da cui, dividendo per ∆V, si trova immediatamente la definizione di divergenza in coordinate
cartesiane.
Come ultima osservazione di questa sezione, osserviamo che esiste un teorema di Gauss analogo
62
Capitolo 3. Elementi di algebra vettoriale e tensoriale
anche per una generica funzione scalare ψ:
I
Z
ψ da =
dV (∇ψ)
(3.70)
V
S
3.8 Teorema di Stokes e significato del rotore
Anche per il rotore, abbiamo visto nell’equazione (3.41) come si esprime in coordinate cartesiane.
Ci domandiamo anche in questo caso come si possa esprimere in coordinate assolute. Introduciamo
una quantità molto importante nel campo della meccanica dei fluidi, e cioè la circuitazione lungo
un circuito C come il seguente integrale di linea
I
ΓC =
C
F · dl
(3.71)
dove dl = dl τ̂, è un percorso infinitesimo lungo il circuito C nella direzione istantanea τ̂ tangenziale
al circuito stesso. In completa analogia con quanto fatto precedentemente, cerchiamo di esprimere
la circuitazione in termini di un integrale di superficie. A tal scopo dividiamo il circuito in due
parti in modo arbitrario (3.3) Allora per gli stessi motivi della sezione precedente S = S 1 + S 2 e
ext
dl
C2
S
S2
C0
C
S1
ext
C1
Figura 3.3: Il teorema di Stokes.
C = C1ext + C2ext , C1 = C1ext + C10 e C2 = C2ext + C20 . Anche in questo caso, il percorso che divide la
superficie in due parti, ha due valori uguali ed opposti nelle due superfici e quindi
Z
C10
F · dl10 +
Z
C20
F · dl20 = 0
(3.72)
Capitolo 3. Elementi di algebra vettoriale e tensoriale
63
e dunque
Z
C1
F · dl1 +
Z
C2
F · dl2 = ΓC
(3.73)
La stessa cosa si puó estendere a N divisioni nello stesso modo S =
Quindi
ΓC =
N I
X
i=1
∆Ci
PN
F · dli
PN
ext
i=1 ∆C i .
H
→ 0 in modo che il
F · dl
(3.75)
rapporto esista finito, e viene quindi definito come rotore
1
= (∇ × F) · n̂ = lim
∆S →0 ∆S
eC =
(3.74)
e, come in precedenza, nel limite ∆S i → 0, anche l’integrale di linea
(∇ × F)n
i=1 ∆S i
I
∆C
∆Ci
che è evidentemente indipendente da ogni sistema di riferimento. Mostriamo ora che vale il seguente
teorema di Stokes (o del rotore):
I
F · dl =
C
Z
S
(∇ × F) · da
(3.76)
La dimostrazione è immediata. Dalla (3.74) e usando la (3.75) si ha
ΓC =
=
=
lim
∆S i →0
lim
∆S i →0
N I
X
i=1
N
X
i=1
∆Ci
F · dli
1
∆S i
∆S i
I
F · dli
∆Ci
lim ∆S i (∇ × F)i =
∆S i →0
(3.77)
Z
S
(∇ × F) · da
che è quello che si voleva dimostrare.
Anche in questo caso resta da dimostrare che la definizione assoluta data per il rotore (in realtà
la sua componente nella direzione n̂) in (3.75), coincide con quella data in (3.41). A tal scopo
64
Capitolo 3. Elementi di algebra vettoriale e tensoriale
consideriamo in circuitino elementare, parallelo al piano (x, y) di superficie totale ∆S = ∆x ∆y
(Fig.3.4). Supponiamo, come al solito, che l’estremo inferiore sinistro sia posizionato nel punto
(x, y, z). In tale (opportuna) geometria, il problema è semplificato dal fatto che la coordinata z è
irrilevante, e puó dunque essere omessa (Fig.3.4). Se indichiamo con ∆Cz γ1 +γ2 +γ3 +γ4 il circuitino
z
y
γ3
y+∆y
γ
γ2
4
y
γ1
y
x
x+∆x
x
x
Figura 3.4: Rotore in coordinate cartesiane.
elementare mostrato in figura, allora, ricordando che i cammini sono orientati e assumono quindi il
segno opportuno, si ha chiaramente che
Z
F · dl1
Z
F · dl2
Z
F · dl3
Z
F · dl4
γ1
γ2
γ3
γ4
!
∆x
= Fx x +
, y ∆x
2
!
∆y
= Fy x + ∆x, y +
∆y
2
!
∆x
= −F x x +
, y + ∆y ∆x
2
!
∆y
= −Fy x, y +
∆y
2
(3.78)
Quindi, si ha che
I
∆Cz
F · dl =
Z
=
"
Fx
+
"
Fy
γ1
Z
F · dl3 +
F · dl4
γ2
γ3
γ4
!
!#
∆x
∆x
, y − Fx x +
, y + ∆y ∆x
x+
2
2
!
!#
∆y
∆y
x + ∆x, y +
− Fy x, y +
∆x
2
2
F · dl1 +
Z
F · dl2 +
Z
(3.79)
E come al solito i vari termini possono essere connessi mediante uno sviluppo di Taylor al primo
Capitolo 3. Elementi di algebra vettoriale e tensoriale
65
ordine:
Fx
Fy
!
!
!
∂
∆x
∆x
∆x
, y + ∆y = F x x +
, y + Fx x +
, y ∆y + o ∆y2
x+
2
2
∂y
2
!
!
!
∂
∆y
∆y
∆y
= Fy x, y +
+ Fy x, y +
∆x + o ∆x2
x + ∆x, y +
2
2
∂x
2
(3.80)
da cui, sostituendo in Eq.(3.80) e ricordando che ∆S = ∆x ∆y, si ottiene
I
∆Cz
F · dl =
"
#
∂Fy ∂F x
−
∆S
∂x
∂y
(3.81)
e quindi la componente (∇ × F)z , dividendo per ∆S e prendendo il limite ∆S → 0. Le altre
componenti si ottengono in modo analogo.
Capitolo 4
Analisi di Fourier e Funzione δ di Dirac
4.1 Idea base dell’espansione in serie di Fourier
Le serie di Fourier sono state introdotte per descrivere delle funzioni periodiche mediante una serie
di seni e coseni. Grazie alle serie di Fourier è possibile sviluppare in serie anche funzioni periodiche
che non possono essere sviluppate in serie di Taylor. Infatti l’espansione in serie di Taylor richiede
comunque che la funzione f (x) da approssimare sia derivabile infinite volte, dal momento che dato
il punto x0 appartentente al dominio di f (x) si ha che il suo sviluppo in serie di Taylor è dato da:
f (x) =
+∞
X
1
1 (n)
f (x − x0 )n = f (x0 ) + f ′ (x0 )(x − x0 ) + f ′′ (x0 )(x − x0 )2 + . . .
n!
2!
n=0
(4.1)
Questo sviluppo in serie di Taylor ci permette di approssimare la funzione f (x) in ogni suo punto
grazie a dei polinomi di ordine sempre maggiore:
f (x) ≃
f1 (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + O((x − x0 )2 )
f (x) ≃
f2 (x) = f (x0 ) + f ′ (x0 )(x − x0 ) +
1 ′′
f (x0 )(x − x0 )2 + O((x − x0 )3 ) (appr. quadratica),
2!
... ≃ ...
f (x) ≃
(appr. lineare),
fn (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + . . . +
1 (n)
f (x0 ) + O((x − x0 )n+1 ) (appr. di ordine n).
n!
67
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
68
Si noti che la conoscenza di tutte le derivate f (n) (x0 ), ∀n è equivalente alla conoscenza della funzione
originaria.
Nel caso delle funzioni periodiche questa espansione è talvolta molto poco efficiente e qualche
volta impossibile (se ad esempio la funzione non è derivabile in un punto). Risulta pertanto molto
conveniente approssimare le funzioni periodiche tramite una sovrapposizione di funzioni periodiche
elementari. Per questo sviluppo sarà necessario utilizzare sia funzioni pari che dispari, dal momento
che si hanno funzioni pari, dispari e di parità indefinita. Ricordiamo che una funzione:
• f (x) si dice pari sse f (−x) = f (x);
• f (x) si dice dispari sse f (−x) = − f (x);
Ricordando che il seno è dispari, e il coseno è pari, ci si aspetta di dover uilizzare una combinazione
di tutte e due le funzioni.
Esempio: Funzione triangolare
Consideriamo la funzione






f (x) = 




π
4x
0≤x≤
π
4 (π
π
2
− x)
π
2
(4.2)
≤x≤π
Questa funzione è continua, ma non derivabile nel punto x = π2 , quindi uno sviluppo alla Taylor non
funzionerebbe. Inoltre f (x) è una funzione dispari.
Osservazione 4.1.1 Si noti che ogni funzione può essere pensata come somma di una funzione
pari di una funzioni pari e di una dispari:
f (x) =
f+ (x) =
f− (x) =
f+ (x) + f− (x),
1
f (x) + f (−x)
2
1
f (x) − f (−x)
2
(4.3)
funzione pari;
(4.4)
funzione dispari.
(4.5)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
69
Si vede facilmente che, siccome la funzione triangolare è dispari, si può scrivere una sequenza di
sue approssimazioni successive del tipo:
f1 (x) = sin(x),
1
sin(3x),
32
1
1
f3 (x) = sin(x) − 2 sin(3x) + 2 sin(5x),
3
5
f2 (x) = sin(x) −
... = ....
(4.6)
(4.7)
(4.8)
(4.9)
Se si sommano tutti i contributi si ottiene una serie convergente:
f (x) =
+∞
X
(−1)n+1
sin[(2n − 1)x].
(2n − 1)2
n=1
(4.10)
4.2 La serie di Fourier
Supponiamo di avere una funzione periodica f (θ) nell’intervallo −π ≤ θ ≤ π che rapprensenta il
periodo. Dato che f (θ) = f+ (θ) + f− (θ) ∀ f e che le funzioni sin(θ) e cos(θ) sono rispettivamente
dispari e pari, ci si aspetta di dover sviluppare la funzione f (θ) come combinazione lineare infinita
(serie) di sin(nθ) e cos(nθ).
Definizione 4.2.1 (Serie di Fourier) Una serie di Fourier è definita come un’espansione di una
funzione in una serie di seni e coseni come segue:
f (θ) =
+∞
X
1
a0 +
[an cos(nθ) + bn sin(nθ)]
2
n=1
(4.11)
Osservazione 4.2.1 Il termine a0 rende conto di eventuali termini costanti e il fattore 1/2 è dato
per convenzione. Si noti inoltre che la conoscenza di a0 , an , bn è equivalente alla conoscenza di
f (θ).
Per ricavare i coefficienti a0 , an e bn è necessario dimostrare il seguente lemma:
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
70
Teorema 4.2.1 Valgono le seguenti identità:
1.
Z
+π
∀n, m;
dθ sin(nθ) cos(mθ) = 0,
−π
(4.12)
2.
Z
+π
Z
+π
dθ sin(nθ) sin(mθ) = πδnm ;
(4.13)
dθ cos(nθ) cos(mθ) = πδnm ;
(4.14)
−π
3.
−π
Dim. 1) Si ricordi innanzitutto che
Z
+π
dθ cos(nθ) = 0 =
−π
Z
+π
dθ sin(nθ).
(4.15)
−π
Possiamo usare la formula trigonometrica:
2 sin z1 cos z2 = sin(z1 − z2 ) + sin(z1 + z2 ),
(4.16)
che applicata al nostro caso per z1 = nθ, z2 = mθ diventa
1
1
sin[(n − m)θ] + sin[(n + m)θ],
2
2
sin(nθ) cos(mθ) =
(4.17)
con n, m arbitrari. Quindi
Z
+π
dθ sin(nθ) cos(mθ) =
−π
1
2
Z
+π
−π
dθ sin[(n − m)θ] +
1
2
Z
+π
dθ sin[(n + m)θ] = 0, (4.18)
−π
per l’eq.(4.15).
Dim. 2) Consideriamo il caso n , m. Usando la seguente relazione
2 sin z1 sin z2 = cos(z1 − z2 ) − cos(z1 + z2 ),
(4.19)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
71
si ottiene
Z
+π
dθ sin(nθ) sin(mθ) =
−π
1
2
Z
+π
−π
1
dθ cos ((n − m)θ)) −
2
Z
+π
dθ cos ((n + m)θ)) = 0,(4.20)
−π
sempre per l’eq.(4.15).
Per n = m si usa invece la relazione:
cos 2z = 2 cos2 z − 1 = 1 − 2 sin2 z,
(4.21)
da cui
1
(1 − 2 cos 2z) ,
2
sin2 z =
(4.22)
quindi
Z
+π
2
dθ sin (nθ) =
−π
1
2
Z
+π
1
dθ −
2
−π
Z
+π
dθ cos ((2nθ)) = π.
(4.23)
−π
Dim. 3) si dimostra in modo analogo.
A questo punto possiamo ricavare i coefficienti della serie di Fourier con le seguenti relazioni:
Teorema 4.2.2 I coefficienti della serie di Fourier sono dati dalle seguenti relazioni:
1.
1
π
a0 =
Z
+π
dθ f (θ);
(4.24)
dθ f (θ) cos(nθ);
(4.25)
dθ f (θ) sin(nθ).
(4.26)
−π
2.
an =
1
π
Z
+π
1
π
Z
+π
−π
3.
bn =
−π
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
72
Dim. 1) Partiamo dall’eq. (4.11) e integramo ambo i memrbi su θ:
Z
+π
−π
Z +π
1
a0
dθ +
dθ f (θ) =
2
−π
Z
+∞ " Z +π
X
+
dθ cos(nθ) + bn
an
#
dθ sin(nθ)
−π
−π
n=1
+π
= πa0 ,
quindi
1
π
a0 =
Z
+π
dθ f (θ).
(4.27)
−π
Dim. 2) Per le an moltiplichiamo ambo i membri dell’eq.(4.11) per cos(mθ) e integriamo su θ:
+π
Z
Z +π
1
a0
dθ cos(mθ) +
2
−π
Z
+∞ " Z +π
X
+
an
dθ cos(mθ) cos(nθ) + bn
dθ f (θ) cos(mθ) =
−π
−π
n=1
+π
−π
#
dθ cos(mθ) sin(nθ)
= πam ,
dunque
1
am =
π
+π
Z
dθ f (θ) cos(mθ).
(4.28)
−π
Dim. 3) In questo caso moltiplichiamo l’eq.(4.11) per sin(mθ) e integriamo su θ:
Z
+π
−π
Z +π
1
dθ f (θ) sin(mθ) =
dθ sin(mθ) +
a0
2
−π
Z
+∞ " Z +π
X
+
an
dθ sin(mθ) cos(nθ) + bn
−π
n=1
+π
−π
#
dθ sin(mθ) sin(nθ) ,
= πbm ,
quindi
1
bm =
π
Z
+π
−π
dθ f (θ) sin(mθ).
(4.29)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
73
4.3 Problema delle variabili coniugate
Abbiamo visto che per una variabile adimensionale θ ∈ [−π, π] si può esprimere una funzione f (θ)
in serie di Fourier come nell’eq.(4.11). Si pone ora il problema di come comportarsi nel caso in cui
la funzione dipenda da una variabile dimensionale. Consideriamo due esempi:
L
Variabili spaziali: sia x ∈ [ −L
2 , 2 ] e sia data una funzione periodica f (x) con periodo L. In questo
caso per ricondurci ad una variabile adimensionale poniamo:
θ = kx,
(4.30)
dove k ha le dimensioni dell’inverso di una lunghezza: [k] = 1/[x]. Allora siccome θ = π per
x = L/2 si ha π = kL/2 dunque si ricava il valore di k:
k=
2π
.
L
(4.31)
Lo sviluppo sarà
f (x) =
#
+∞ "
X
1
2πnx
2πnx
a0 +
) + bn sin(
),
an cos(
2
L
L
n=1
(4.32)
+∞
X
1
a0 +
[an cos(nkx) + bn sin(nkx).]
2
n=1
(4.33)
che usando la (4.31) diventa
f (x) =
Si noti che le dimensioni di k sono quelle di un vettore d’onda.
T
Variabili temporali: sia t ∈ [ −T
2 , 2 ] e sia data una funzione periodica f (t) con periodo T . In questo
caso per ricondurci ad una variabile adimensionale poniamo:
θ = ωt,
(4.34)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
74
dove ω ha le dimensioni dell’inverso di un tempo: [ω] = 1/[t]. Allora poiché θ = π per
t = T/2, deve essere π = ωT/2 e dunque:
ω=
2π
.
T
(4.35)
Lo sviluppo sarà
f (t) =
#
+∞ "
X
2πnt
2πnt
1
a0 +
) + bn sin(
),
an cos(
2
T
T
n=1
(4.36)
+∞
X
1
a0 +
[an cos(nωt) + bn sin(nωt).]
2
n=1
(4.37)
che usando la (4.35) diventa
f (t) =
Si noti che le dimensioni di ω sono quelle di una frequenza angolare.
Definizione 4.3.1 Le variabili k ed ω si dicono variabili coniugate rispetto ad x e t rispettivamente.
È utile inoltre definire le quantità
2πn
,
L
2πn
= nω =
.
T
kn = nk =
(4.38)
ωn
(4.39)
L
−T T
Osservazione 4.3.1 la scelta di avere sempre degli intervalli simmetrici [−π, π], [ −L
2 , 2 ], [ 2 , 2 ]
non è essenziale, l’importante è che il periodo sia quello scelto, ovvero 2π, L e T .
4.4 Vantaggi ed esempi di applicazione delle serie di Fourier
Ci sono tre importanti vantaggi nell’uso dello sviluppo in serie di Fourier:
1. Lo sviluppo in serie di Fourier funziona anche per funzioni discontinue.
2. Lo sviluppo in serie di Fourier permette di rappresentare funzioni periodiche.
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
75
3. Lo sviluppo in serie di Fourier permette di identificare immediatamente le armoniche principali della funzioni e quindi anche le risonanze.
Esempio: la funzione quadrata
Consideriamo la funzione:





 0
f (θ) = 



 h
−π < θ < 0
(4.40)
0<θ<π
Questa funzione è discontinua in x = 0. Consideriamo il suo sviluppo in serie di Fourier di questa
funzione:
+∞
X
1
a0 +
[an cos(nθ) + bn sin(nθ)] ,
2
n=1
f (θ) =
(4.41)
dove i coefficienti a0 saranno:
1
a0 =
π
Z
+π
−π
1
dθ f (θ) =
π
Z
+π
dθh = h.
(4.42)
0
Gli an sono nulli, mentre
bn =
1
π
Z
+π
−π






dθ f (θ) sin(nθ) = 




2h
nπ
n dispari,
0
n pari.
.
(4.43)
Sopravvivono dunque solo i termini dispari e il termine costante:
+∞
X
1
2h
f (θ) = h +
sin[(2n − 1)θ],
2
(2n − 1)π
n=1
(4.44)
#
"
1
2h
sin(3θ) sin(5θ)
f (θ) = h +
+
+ ... .
sin θ +
2
π
3
5
(4.45)
che esplicitando diventa
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
76
Esempio: oscillatore armonico forzato
Si consideri il seguente problema: una massa m è connessa ad una molla di costante elastica k e
soggetta ad una forza dipendente dal tempo F(t) = F0 sin(Ωt). L’equazione di Newton allora è
m ẍ = −kx + F(t),
(4.46)
ovvero
ẍ +
Definiamo ora ω0 =
q
k
m
F0
k
x=
sin(Ωt).
m
m
(4.47)
che è la frequenza angolare caratteristica dell’oscillatore armonico libero.
Sviluppando in serie di Fourier la funzione x(t) periodica di periodo T :
x(t) =
+∞
X
1
a0 +
[an cos(ωn t) + bn sin(ωn t)] ,
2
n=1
(4.48)
dove ωn = (2πn)/T . Derivando rispetto al tempo ottieniamo
ẋ(t) =
+∞
X
[−ωn an sin(ωn t) + bn ωn cos(ωn t)] ,
(4.49)
n=1
e derivando ulteriormente
ẍ(t) =
+∞ h
X
n=1
i
−ω2n an cos(ωn t) − ω2n bn sin(ωn t) .
(4.50)
Sostituendo nell’eq.(4.47) si ottiene:
+∞ h
+∞
X
X
i
−ω2n an cos(ωn t) − ω2n bn sin(ωn t) + ω20
[an cos(ωn t) + bn sin(ωn t)] =
n=1
n=1
F0
sin(Ωt).
(4.51)
m
Quindi per n = 1
(ω20 − ω21 ) [a1 cos(ω1 t) + b1 sin(ω1 t)] =
F0
sin(Ωt),
m
(4.52)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
77
mentre per n ≥ 2
(ω20 − ω2n ) [an cos(ωn t) + bn sin(ωn t)] = 0.
(4.53)
1. Caso ω20 , ω2n ∀n = 1, 2, . . ..
In questo caso b1 = 0 e inoltre ω1 = Ω implica che
a1 =
1
F0
.
2
m ω0 − Ω 2
(4.54)
Invece per n ≥ 2, si ha an = 0 = bn quindi
x(1) (t) =
F0 sin(Ωt)
.
m ω20 − Ω2
(4.55)
2. ∃n∗ tale che ω20 = ω2n∗ .
In questo caso i coefficienti corrispondenti ad an∗ e bn∗ sono arbitrari quindi
x(2) (t) = an∗ cos(ωn∗ t) + bn∗ sin(ωn∗ t).
(4.56)
Quest’ultima è la soluzione del problema omogeneo (oscillatore armonico libero). La soluzione
generale sarà data dalla somma delle due:
x(t) = an∗ cos(ωn∗ t) + bn∗ sin(ωn∗ t) +
F0 sin(Ωt)
.
m ω20 − Ω2
(4.57)
Si noti che la soluzione diverge per Ω = ω0 , che rappresenta la risonanza dell’oscillatore armonico
forzato.
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
78
4.5 Forma complessa delle serie di Fourier
La serie di Fourier può essere espressa in una forma più semplice se utilizziamo i numeri complessi,
servendoci delle formule di Eulero per esprimere sin e cos in termini dell’esponenziale complesso:
cos z =
sin z =
eiz + e−iz
,
2
eiz − e−iz
.
2i
(4.58)
(4.59)
Sostituendo nell’eq.(4.11) si ha
f (θ) =
=
#
+∞ "
X
1
einθ − e−inθ
einθ + e−inθ
a0 +
− ibn
an
2
2
2
n=1
#
"
+∞
X
1
an − ibn inθ an + ibn −inθ
a0 +
e +
e
.
2
2
2
n=1
(4.60)
(4.61)
Definiamo ora i seguenti coefficienti complessi:
c0 =
cn =
c−n =
1
a0 ,
2
an − ibn
,
2
an + ibn
.
2
(4.62)
(4.63)
(4.64)
Quindi cambiando l’indice per il termine relativo a c−n si ottiene infine la serie di Fourier in forma
complessa:
f (θ) =
+∞
X
cn einθ ,
(4.65)
n=−∞
dove i cn ∈ C e si ricavano usando le espressioni per an e bn (che invece ∈ R) delle equazioni (4.25)
e (4.26) e il fatto che cos(nθ) − i sin(nθ) = e−inθ , ottenendo infine:
cn =
1
2π
Z
+π
−π
dθe−inθ .
(4.66)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
79
Si noti che il segno dell’espansione è arbitrario essendo simmetrica rispetto allo scambio n → −n.
La cosa importante è che i coefficienti devono avere segno opposto nell’esponente rispetto a quello
dell’esponenziale che compare nello sviluppo in serie.
Si noti inoltre che tale espansione vale per ogni funzione periodica nell’intervallo [−π, π].
4.6 Trasformata integrale di Fourier
Consideriamo ora invece che la variabile adimensionale θ, delle variabili dimensionali come nel
paragrafo 4.3. Anche in questo caso dobbiamo ricorrere alle variabili coniugate:
L
Variabili spaziali: sia x ∈ [ −L
2 , 2 ] e sia data una funzione periodica f (x) con periodo L. In questo
caso la variabile coniugata è:
kn =
2πn
.
L
(4.67)
Lo sviluppo sarà
+∞
X
f (x) =
F(kn )eikn x ,
(4.68)
n=−∞
dove abbiamo sostituito cn con F(kn ) (eq. (4.66)) ovvero:
F(kn ) =
1
L
Z
+ L2
− L2
dx f (x)e−ikn x .
(4.69)
T
Variabili temporali: sia t ∈ [ −T
2 , 2 ] e sia data una funzione periodica f (t) con periodo T . In questo
caso la variabile coniugata è
ωn =
2πn
,
T
(4.70)
e lo sviluppo sarà
f (t) =
+∞
X
n=−∞
F(ωn )eiωn t ,
(4.71)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
80
dove abbiamo sostituito cn con F(ωn ) (eq. (4.66)) ovvero:
F(ωn ) =
1
T
+ T2
Z
− T2
dt f (t)e−iωn t .
(4.72)
Vediamo ora come sia possibile introdurre uno sviluppo che non vale solo per le funzioni periodiche
ma più in generale per qualsiasi funzione definita in tutto lo spazio.
Prendiamo il caso delle variabili spaziali e assumiamo che L ≫ 1 e introduciamo la seguente
definizione:
∆kn = kn+1 − kn =
2π
,
L
(4.73)
quindi
∆kn =
2π
≪ 1,
L
(4.74)
nel limite L ≫ 1. A questo punto possiamo riscrivere l’eq.(4.68) come segue
f (x) =
+∞
X
+∞
L X
∆kn F(kn )eikn x .
2π n=−∞
F(kn )eikn x =
n=−∞
(4.75)
Definiamo ora la funzione
fˆ(kn ) = LF(kn ),
(4.76)
e quindi dall’eq.(4.69), usando l’eq.(4.76) si ottiene:
fˆ(kn ) = LF(kn ) =
Z
+ L2
− L2
dx f (x)e−ikn x .
(4.77)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
81
Quest’ultima relazione vale ∀L, tuttavia se L → ∞ allora si ha che ∆kn → 0 e dunque
+∞
X
n=−∞
∆kn →
Z
+∞
dk,
(4.78)
−∞
ovvero si passa da un indice discreto n ad un indice continuo k. Quindi l’eq.(4.75) nel limite L → ∞
diventa:
f (x) =
Z
+∞
Z
+∞
−∞
dk ˆ ikx
f (k)e ,
2π
(4.79)
dx f (x)e−ikx .
(4.80)
mentre l’eq.(4.77) diventa
fˆ(k) =
−∞
Le eq.(4.79) e (4.80) costituiscono la coppie di trasformate di Fourier:
fˆ(k) = F [ f (x)],
(Trasfomata di Fourier)
f (x) = F −1 [ fˆ(k)].
(Antitrasformata di Fourier)
(4.81)
(4.82)
Si procede in modo del tutto analogo per le variabili temporali in cui si definisce
∆ωn = ωn+1 − ωn =
2π
≪ 1,
T
(4.83)
e si ottiene
fˆ(ω) =
f (t) =
Z
+∞
Z−∞
+∞
−∞
dt f (t)e−iωt ,
dω ˆ
f (ω)eiωt .
2π
(Trasfomata di Fourier)
(Antitrasfomata di Fourier)
(4.84)
(4.85)
Questo vale per una qualunque funzione dato che abbiamo esteso l’integrale a tutto lo spazio e non
più solamente al periodo finito.
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
82
4.7 La funzione di Dirac e le sue rappresentazioni
Consideriamo la seguente funzione






∆ǫ (x) = 




se − 2ǫ ≤ x ≤
1
ǫ
0 se |x| >
ǫ
2
ǫ
2
e supponiamo di conoscere ∆ǫ1 (x), ∆ǫ2 (x), . . . in modo che ǫ1 > ǫ2 > ǫ3 > . . .. Questo significa
considerare una successione di funzioni che diventano sempre più strette e sempre più alte attorno
allo zero. A questo punto se prendiamo ǫn → 0 si ottiene
Z
+∞
Z
dx∆ǫn (x) =
−∞
+ ǫ2n
dx
− ǫ2n
1
1
=
ǫn = 1.
ǫn
ǫn
(4.86)
Allo stesso modo si ha che per una funzione arbitraria f (x) abbiamo
Z
+∞
−∞
dx f (x)∆ǫn (x) =
Z
+ ǫ2n
− ǫ2n
dx f (x)
1
= f (0).
ǫn
(4.87)
Dunque prendendo il limite ǫn → 0 otteniamo





 +∞ se x = 0
,
∆ǫ (x) → δ(x) = 



 0
se x , 0
e valgono le seguenti proprietà
Z
Z
+∞
+∞
dxδ(x) = 1,
(4.88)
−∞
dx f (x)δ(x) =
f (0).
(4.89)
−∞
Osservazione 4.7.1 È importante notare che una tale funzione non esiste nel senso ordinario, ma
solo nel senso delle distribuzioni, cioè pensandola appunto come il limite di una successione di
funzioni regolari che abbiano le proprietà (4.88) e (4.89).
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
83
Definizione 4.7.1 (δ di Dirac) In generale si può definire la funzione (nel senso delle distribuzioni)
δ(x) di Dirac una funzione che soddisfi le proprietà:
Z
Z
b
dx f (x)δ(x − x0 ) =
a
x ∈ [a, b],
f (x0 )
(4.90)
b
a
dx f (x)δ(x − x0 ) = 0
x < [a, b].
(4.91)
È possibile pensare alla δ come limite di una funzione regolare:
Esempio: Funzione gaussiana
δ(x) = lim fa (x) = lim √
a→0
a→0
1
2πa2
−
e
x2
2a2
.
(4.92)
Per vedere che ciò è vero basta mostrare che
1.
lim fa (0) = +∞,
(4.93)
a→0
2.
Z
+∞
∀a.
(4.94)
= +∞.
(4.95)
dx fa (x) = 0,
−∞
Dim. 1) Per ogni parametro a > 0 si ha
lim fa (0) = lim √
a→0
a→0
1
2πa2
Dim. 2)
Z
+∞
dx fa (x) =
−∞
=
1
Z
+∞
−
x2
2a2
,
2πa2 −∞
Z +∞
z2
1
dze− 2 = 1,
√
2π −∞
√
dxe
(4.96)
∀a,
(4.97)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
84
dove z = x/a e dz = dx/a.
Esempio: Funzione Lorenziana
δ(x) = lim Lǫ (x) = lim
ǫ→0
ǫ→0
1 ǫ
.
π x2 + ǫ 2
(4.98)
Per vedere che ciò è vero basta mostrare che
1.
lim Lǫ (0) = +∞,
ǫ→0
(4.99)
2.
Z
+∞
dxLǫ (x) = 0,
−∞
∀ǫ > 0.
(4.100)
Dim. 1) Per ogni parametro ǫ > 0 si ha
lim Lǫ (0) = lim
ǫ→0
ǫ→0
1
= +∞.
πǫ
(4.101)
Dim. 2)
Z
+∞
dxLǫ (x) =
−∞
=
Z
1 +∞ 1 ǫ
dx 2
π −∞
π x + ǫ2
+∞
1
−1 x = 1.
tan
π
ǫ −∞
4.8 Proprietà della funzione di Dirac
Si ha che ∀x ∈] − ∞, +∞[ si ha che:
1. δ(−x) = δ(x).
(4.102)
(4.103)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
85
dim.
+∞
Z
dxδ(−x) f (x) =
−∞
=
Z
+∞
Z−∞
+∞
dxδ(x) f (−x) = f (0)
dxδ(x) f (x),
−∞
∀ f (x).
2.
Z
+∞
−∞
dxδ′ (x − x0 ) f (x) = − f ′ (x0 ).
dim.
Z
+∞
′
−∞
3. δ(ax) =
dxδ (x − x0 ) f (x) =
δ(x −
x0 ) f (x)|+∞
−∞
−
Z
+∞
−∞
dxδ(x − x0 ) f ′ (x) = − f ′ (x0 ).
1
|a| δ(x)
dim. Se a > 0 allora
Z
+∞
dxδ(ax) f (x) =
−∞
=
Z
1
y
1 +∞
dyδ(y) f ( ) = f (0)
a −∞
a
a
Z +∞
1
dxδ(x) f (x).
a −∞
Se a = −|a| < 0 allora
Z
+∞
dxδ(−|a|x) f (x) =
−∞
1
2|x0 |
+∞
1
|a|
Z
dxδ(|a|x) f (x)
−∞
=
4. δ(x2 − x20 ) =
Z
[δ(x + x0 ) + δ(x − x0 )], con x0 > 0.
+∞
dxδ(x) f (x).
−∞
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
86
Dim. ∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) ha due radici x = ±x0 , quindi
Z
+∞
2
dxδ(x −
−∞
x20 ) f (x)
=
Z
+∞
−∞
dxδ ∆x0 (x) f (x),
dove tramite un’espansione di Taylor
∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) = 2x0 (x − x0 ) + O (x − x0 )2 ,
∆x0 (x) = x2 − x20 = (x − x0 )(x + x0 ) = −2x0 (x + x0 ) + O (x + x0 )2 ,
dove si è sviluppato nel primo caso attorno a x0 e nel secondo attorno a −x0 . Sostituendo si
ottiene:
Z
+∞
−∞
2
dxδ(x −
x20 ) f (x)
=
Z
+∞
Z−∞
+∞
dxδ 2x0 (x − x0 ) + O (x − x0 )2 f (x) +
dxδ −2x0 (x + x0 ) + O (x + x0 )2 f (x),
Z +∞ −∞
Z +∞
1
1
dxδ(x − x0 ) f (x) +
dxδ(x + x0 ) f (x),
=
2x0 −∞
2|x0 | −∞
Z +∞
1
[δ(x − x0 ) + δ(x + x0 )] f (x).
=
dx
2|x0 |
−∞
+
4.9 Relazione della funzione di Dirac e la trasformata di Fourier
Abbiamo visto che
fˆ(k) =
f (x) =
Z
+∞
Z−∞
+∞
−∞
dx f (x)e−ikx ,
(Trasfomata di Fourier)
(4.104)
dk ˆ ikx
f (k)e ,
2π
(Antitrasfomata di Fourier)
(4.105)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
87
dove
F : L2 (R) → L2 (R)
7→
f (x)
fˆ(k)
F −1 L2 (R) → L2 (R)
fˆ(k)
7→
f (x)
Questo significa che deve essere:
F −1 F f (x) = f (x).
(4.106)
Sostituendo la eq.(4.104) nella (4.105) si ha
Z
dk ikx +∞
e
dye−iky f (y),
2π
#
"Z +∞−∞
Z−∞
+∞
dk ik(x−y)
e
f (y).
=
dy
−∞ 2π
−∞
Z
f (x) =
+∞
Ricordando che dalla definizione della δ si ha
+∞
Z
dyδ(y − x) f (y) =
−∞
f (x),
e che δ(−x) = δ(x) per confronto si ha che deve essere:
Z
+∞
−∞
dk ik(x−y)
e
= δ(y − x).
2π
(4.107)
Analogamente sostituendo l’ eq.(4.105) nella (4.104) si ottiene:
Z
+∞
−∞
′
dxe−i(k−k )x = 2πδ(k − k′ ).
(4.108)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
88
Osservazione 4.9.1 Definendo ck (x) = eikx e c∗k (x) = e−ikx allora l’ eq.(4.105) si può scrivere
f (x) =
Z
+∞
−∞
dk
ck (x)
2π
(4.109)
ed interpretare come un’espansione in onde piane. In maniera analoga l’eq.(4.107) si può leggere
+∞
Z
−∞
dk
ck (x)c∗k (x) = δ(y − x),
2π
(4.110)
che rappresenta una relazione di completezza della base di Fourier nello spazio L2 (R).
4.10 Teorema di Convoluzione
Il teorema di convoluzione è di grande importanza poiché ci permette di avere, grazie alla trasformata di Fourier, la convoluzione di funzioni in un prodotto delle funzioni trasformate. In altre parole
la convoluzione in un dominio (per esempio il dominio del tempo) diventa una semplice moltiplicazione nel dominio della variabile coniugata (per esempio il dominio della frequenza). Definiamo
innanzitutto l’operazione di convoluzione (per avere un’idea di che cosa significhi l’operazione di
convoluzione si pensi ad esempio all’eco di un segnale acustico: l’eco rappresenta la convoluzione
del suono originale con una funzione geometrica che descrive i vari oggetti che stanno riflettendo il
segnale sonoro).
Definizione 4.10.1 Siano date dunque due funzioni arbitrarie di L2 (R) f e g tali che:
fˆ(k) = F f (x) =
ĝ(k) = F g(x) =
Z
+∞
Z −∞
+∞
dxe−ikx f (x),
(4.111)
dxe−ikx g(x),
(4.112)
−∞
allora si defininisce l’operazione di convoluzione come segue:
( f ∗ g) (x) =
Z
+∞
−∞
dy f (x − y)g(y) =
Z
+∞
−∞
dyg(x − y) f (y).
(4.113)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
89
Vediamo ora come la trasformata di Fourier rende tale operazione molto semplice: sia h(x) =
( f ∗ g) (x) la funzione risultato della convoluzione:
h(x) =
Z
+∞
dy f (x − y)g(y).
−∞
(4.114)
Dalla (4.111), abbiamo che
fˆ(k) =
Z
+∞
Z
+∞
dxeikx f (x),
(4.115)
dk ik(x−y) ˆ
f (k),
e
2π
(4.116)
−∞
dunque
f (x − y) =
−∞
e analogamente
g(y) =
Z
+∞
−∞
dk′ ik′ y ′
e ĝ(k ).
2π
(4.117)
Sostituendo nell’eq.(4.114) si ha:
h(x) =
=
=
=
=
Z
+∞
Z−∞
+∞
Z−∞
+∞
Z−∞
+∞
Z−∞
+∞
−∞
+∞
′
dk ik(x−y) ˆ
+∞ dk ik′ y
e
f (k)int−∞
e ĝ(k′ ),
2π
2π
Z +∞
Z−∞
dk +∞ dk′ ˆ
′
′ ikx
f (k)ĝ(k )e
dyei(k −k)y
2π −∞ 2π
−∞
Z
dk +∞ dk′ ˆ
f (k)ĝ(k′ )eikx δ(k − k′ )
2π −∞ 2π
Z +∞ ′
dk ikx ˆ
dk
e f (k)
ĝ(k′ )δ(k − k′ )
2π
2π
−∞
i
dk ikx h ˆ
e
f (k)ĝ(k) .
2π
dy
Z
(4.118)
(4.119)
(4.120)
(4.121)
(4.122)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
90
D’altra parte si ha
Z
h(x) =
+∞
−∞
dk ik(x)
e ĥ(k),
2π
(4.123)
e quindi per confronto si ha il teorema di convoluzione:
ĥ(k) =
fˆ(k)ĝ(k),
(4.124)
ovvero
F f (x) ∗ g(x) = F f (x) F g(x) .
(4.125)
4.11 Teorema di Parseval
Un altro importante importante in meccanica quantistica è quello noto come teorema di Parseval:
la trasformata di Fourier conserva il prodotto scalare (in altre parole si tratta di una trasformazione
unitaria):
Z
+∞
∗
dx f (x)g (x) =
Z
+∞
−∞
−∞
dk ˆ
f (k)ĝ∗ (k).
2π
(4.126)
Dim.
Z
+∞
∗
dx f (x)g (x) =
−∞
=
=
=
Z
+∞
Z−∞
+∞
Z−∞
+∞
Z−∞
+∞
−∞
dx
+∞
Z +∞
dk1 ik1 x ˆ
dk2 −ik2 x ∗
e f (k1 )
e
ĝ (k2 )
2π
−∞
−∞ 2π
Z +∞
Z +∞
dk2 ˆ
fˆ(k1 )
f (k1 )ĝ∗ (k2 )
dxei(k1 −k2 )x
−∞ 2π
−∞
Z +∞
dk2 ˆ
fˆ(k1 )
f (k1 )ĝ∗ (k2 )δ(k1 − k2 ),
2π
−∞
Z
dk1
2π
dk1
2π
dk1 ˆ
f (k1 )ĝ∗ (k1 ).
2π
(4.127)
(4.128)
(4.129)
(4.130)
Capitolo 4. Analisi di Fourier e Funzione δ di Dirac
91
In particolare si ha che se f (x) = g(x):
Z
+∞
−∞
dx | f (x)|
2
=
Z
+∞
−∞
dk ˆ 2
f (k) ,
2π
ovvero il modulo quadro di una funzione è conservato dalla trasformata di Fourier.
(4.131)
Capitolo 5
Equazioni Differenziali
5.1 Introduzione
Le equazioni differenziali rappresentano uno strumento importantissimo per descrivere l’evoluzione
di un sistema a partire da alcune condizioni iniziali. Infatti se si vuol descrivere un fenomeno (sia
esso fisico, economico, sociale, etc.) in maniera quantitativa ci si ritrova a studiare delle funzioni del
tipo y = f (x, t) che possono variare nel tempo e nello spazio. Tuttavia spesso è impossibile stabilire
a priori direttamente l’andamento di tale funzione, mentre si può individuare una dipendenza tra y e
le derivate di y rispetto a t. Ad esempio la legge di Newton F = ma in cui si conosca il valore della
forza rappresenta un’equazione differenziale che descrive il moto di un corpo di massa m sottoposto
alla forza F. In questo caso la legge di Newton non ci da subito un’informazione sulla posizione
del corpo in questione, bensı̀ un’informazione sulla sua accelerazione a che rappresenta la dericata
seconda della posizione. Si pensi al caso dell’oscillatore armonico (ad es. una molla) in cui F = −ky
e l’equazione differenziale che descrive il moto è
m
d2 y
+ ky = 0.
dt2
93
(5.1)
94
Capitolo 5. Equazioni Differenziali
Con la Eq.(5.1) abbiamo stabilito una relazione che lega la funzione incognita y con la sua derivata
seconda rispetto al tempo
d2 y
,
dt2
cioè un’equazione differenziale rispetto alla funzione incognita y.
Risolvere quest’equazione vuol dire trovare una funzione y = f (t) che verifichi l’equazione differenziale data. Questo che abbiamo considerato era un esempio molto semplice, di seguito sono
riportati alcuni tipi di equazioni differenziali fondamentali che descrivono molti fenomeni naturali:
1. Equazione di Laplace:
∇2 ψ = 0,
si trova nei problemi di elettromagnetismo, idrodinamica, flusso di calore, gravitazione (omogenea).
2. Equazione di Poisson:
∇2 ψ =
−ρ
ǫ0
(inomogenea).
3. Equazione di Helmoltz:
∇2 ψ ± k2 ψ = 0,
è l’equazione delle onde o di diffusione indipendente dal tempo e si trova nei problemi concernenti le onde elettromagnetiche, le onde sonore e l’acustica, le onde elastiche nei solidi, i
reattori nucleari;
4. Equazione di diffusione dipendente dal tempo:
∇2 ψ =
1 ∂ψ
.
a2 ∂t
5. Equazione delle onde dipendente dal tempo:
∂2 ψ = ∂µ ∂µ ψ = 0.
6. Equazione del potenziale scalare:
∂2 ψ = ρǫ .
7. Equazione di Klein Gordon, che descrive il moto delle particelle a spin intero:
∂2 ψ = −µ2 ψ.
Capitolo 5. Equazioni Differenziali
95
8. Equazione di Schödinger:
2
~
∇2 ψ + Vψ = i~ ∂ψ
− 2m
∂t .
9. Equazione delle onde elastiche, fluidi viscosi;
10. Equazioni di Maxwell e Dirac.
In particolare noi ci soffermeremo sull’eqauzione di Helmholtz e di Schödinger nel caso indipendente da tempo. Per quanto riguarda le equazioni alle derivate parziali di ordine superiore al primo (come quelle degli esempi appena considerati) si possono risolvere tramite alcune tecniche di
risoluzione:
• tramite la separazione delle variabili, ovvero riducendo l’equazione differenziale alle derivate
parziali di n variabili ad n equazioni differenziali ordinarie di una sola variabile;
• tramite la coversione della equazione alla derivate parziali in un’eqauazione integrale usando
le funzioni di Green se si hanno delle equazioni differenziali non omogenee;
• altri metodi come l’uso delle trasformazioni integrali.
La logica seguita in questo capitolo pertanto è la seguente: nel paragrafo 5.2 cercheremo di definire
esattamente che cos’è un’equazione differenziale. Nel paragrafo 5.3 considereremo per prima cosa
le equazioni di primo grado, ripercorrendo la loro soluzione per separazione delle variabili, come
differenziale esatto, e in particolare ci soffermeremo sulle equazioni lineari del primo ordine. Nel
paragrafo 5.4 è descritto il metodo della separazione delle variabili applicandolo in particolare
all’equazione di Helmholtz, che in questo paragrafo viene ridotta a tre equazioni di secondo grado
ordinarie (ovvero equazioni in una sola variabile). Nel paragrafo 5.5 si descrive il metodo di Frobenius, ovvero un metodo di sviluppo in serie con cui si può trovare una soluzione di un’equazione
lineare omogenea. Nel paragrafo 5.6 si risolve con questo metodo l’equazione di Schrödinger,
mentre nel paragrafo 5.7 si considerano i limiti di applicabilità dello sviluppo in serie. Nel paragrafo 5.8 si descrive il metodo del Wronskiano che consente di trovare tutte le soluzioni linearmente
indipendenti per una equazione diff. lineare omogenea. Nel paragrafo 5.9 i risultati ottenuti per
96
Capitolo 5. Equazioni Differenziali
l’equazione di Helmholtz vengono generalizzati al caso di un operatore differenziale generico H e si
descrive il problema di Sturm Liouville, le cui proprietà vengono brevemente discusse in paragrafo
5.10.
5.2 Definizioni
Definizione 5.2.1 Si dice equazione differenziale ordinaria un’equazione che stabilisce una relazione tra la variabile indipendente x, la funzione incongnita y = f (x) e le sue derivate y′ , y′′ , . . . , y(n) .
Un’equazione differenziale ordinaria (che significa che y = f (x) é funzione di una sola variabile)
può essere scritta simbolicamente nei modi seguenti:
F(x, y′ , y′′ , . . . , y(n) ) = 0.
(5.2)
oppure equivalentemente
F(x,
dn y
dy d2 y
, 2 , . . . , n ) = 0.
dx dx
dx
(5.3)
Il più delle volte però, le si ha che y è funzione di due o più variabili, in tal caso si parla di equazioni
differenziali alle derivate parziali:
Definizione 5.2.2 Si dice equazione differenziale alle derivate parziali una relazione tra una funzione incognita f che dipende da due o più variabili x, y, . . ., queste variabili e le derivate parziali di
f:
F(x, y, . . .
∂f ∂f
∂2 f
, , . . . , 2 , . . .) = 0.
∂x ∂y
∂x
(5.4)
Definizione 5.2.3 Si chiama ordine di un’equazione differenziale l’ordine massimo della derivata
che vi compare.
Capitolo 5. Equazioni Differenziali
97
Definizione 5.2.4 Si chiama soluzione o integrale di un’equazione differenziale una qualsiasi funzione y = f (x) che, sostituita nell’equazione la trasforma in un’identità.
Se ad esempio consideriamo l’eq.(5.1) le funzioni y = sin ωx, y = cos ωx, dove ω =
√
k/m, e in
generale
y = C1 sin ωx + C2 cos ωx
(5.5)
è una soluzione generale dell’equazione dell’oscillatore armonico, a prescindere dalla scelta delle
costanti C1 e C2 . È generale nel senso che è una soluzione in cui non si è ancora specificato il
problema particolare ovvero non si sono ancora specificate le condizioni iniziali in cui si trova il
sistema che vogliamo descrivere tramite l’equazione in questione. Se vogliamo restringerci ad un
certo
problema in particolare, per esempio quello in cui all’istante t = 0 la molla è ferma ed è allungata
di tot centimetri rispetto alla sua lunghezza naturale, dobbiamo determinare tali costanti, ovvero
trovare l’integrale particolare dell’equazione differenziale specificando le condizioni al contorno.
Le condizioni al contorno possono essere di tre tipi:
1. Condizioni al contorno di Cauchy in cui viene specificato il valore al contorno della funzione
e della sua derivata (ad es. y(0) = . . . e y′ (0) = . . . ).
2. Condizioni al contorno di Dirichlet in cui viene specificato solo il valore della funzione al
contorno.
3. Condizioni al contorno di Neumann in cui viene specificato solo il valore della derivata della
funzione al contorno.
(n.b. Cauchy = Dirichlet + Neumann)
98
Capitolo 5. Equazioni Differenziali
5.3 Equazioni differenziali del primo ordine
Un’equazione differenziale del primo ordine è della forma
F(x, y, y′ ) = 0.
(5.6)
Se questa equazione è risolvibile rispetto a y′ , la si può scrivere nella forma seguente:
y′ =
f (x, y).
(5.7)
Si dice allora che l’equazione è risolvibile rispetto alla derivata e in tal caso vale il seguente teorema
Teorema 5.3.1 (Teorema di esistenza ed unicità) Se nell’equazione
dy
dx
=
f (x, y)
(5.8)
la funzione f (x, y) e la sua derivata parziale rispetto a y sono continue in un certo campo D del piano
Oxy e se (x0 , y0 ) è un certo punto di questo campo, esiste ed è unica la soluzione di questa equazione
y = φ(x)
(5.9)
che soddisfa la condizione y = y0 per x = x0 . In termini geometrici il teorema ci dice che se valgono
le ipotesi esiste una sola funzione y = φ(x) il cui grafico passa per il punto (x0 , y0 ), ovvero date certe
condizioni iniziali, esiste una sola soluzione che le soddisfa.
Pertanto risolvere un’equazione differenziale significa:
1. trovarne una soluzione generale o l’integrale generale (se le condizioni iniziali non sono date),
oppure
2. trovare la soluzione particolare che soddisfa le condizioni iniziali date (se queste esistono).
Capitolo 5. Equazioni Differenziali
99
5.3.1 Equazioni a variabili separabili
Nel caso particolare in cui la (5.7) assuma la forma:
dy
dx
=
f1 (x) f2 (y),
(5.10)
ovvero nel caso in cui f (x, y) sia il prodotto di una funzione che dipende solo da x e una che dipende
solo da y, l’equazione (5.10) può essere scritta come segue, supponendo che f2 (y) , 0:
1
dy =
f2 (y)
f1 (x)dx.
(5.11)
Quindi integrando separatamente i due differenziali essi differiscono al più per una costante:
Z
1
dy =
f2 (y)
Z
f1 (x)dx + C.
(5.12)
Definizione: In generale un’equazione che può essere riscritta come:
P(x)dx + Q(y)dy = 0,
(5.13)
si chiama equazione a variabili separabili. È importante notare che questa tecnica di separazione
delle variabili non richiede che l’equazione differenziale sia lineare.
5.3.2 Differenziale esatto
L’eq. (5.7) si può scrivere come
P(x, y)dx + Q(x, y)dy = 0.
(5.14)
100
Capitolo 5. Equazioni Differenziali
Questa equazione si dice esatta se corrisponde ad un differenziale dφ,
∂φ
∂φ
dx +
dy = 0.
∂x
∂y
(5.15)
Dato che l’eq. (5.14) è uguale a zero cerchiamo una funzione φ(x, y) costante tale che dφ = 0. Se
tale funzione esiste deve essere
P(x, y)dx + Q(x, y)dy =
∂φ
∂φ
dx +
dy
∂x
∂y
(5.16)
con
∂φ
= P(x, y),
∂x
∂φ
= Q(x, y).
∂y
(5.17)
La condizione necessaria e sufficiente affinché l’equazione sia esatta è che la forma differenziale
dφ sia esatta, e che dunque le derivate parziali miste di φ(x, y), siano indipendenti dall’ordine di
differenziazione:
∂2 φ
∂P(x, y) ∂Q(x, y)
∂2 φ
=
=
=
.
∂y∂x
∂y
∂x
∂x∂x
(5.18)
Se tale φ esiste deve essere
φ(x, y) = C.
Esempio:
Data l’equazione:
2x
y2 − 3x2
dx
+
dy = 0,
y3
y4
(5.19)
Capitolo 5. Equazioni Differenziali
101
verifichiamo se si tratta di un’eq. a differenziale esatto.
P(x, y) =
2x
,
y3
Q(x, y) =
y2 − 3x2
;
y4
allora
∂P(x, y)
∂y
= −
∂Q(x, y)
6x
=− 4;
∂x
y
6x
,
y4
Ciò significa che l’equazione data è il differenziale totale di una funzione incognita φ(x, y). Per
trovare questa funzione osserviamo che essendo
φ =
Z
∂φ
∂x
=
2x
,
y3
si ha
2x
x2
dx
+
f
(y)
=
+ f (y),
y3
y3
dove f (y) è una funzione di y che dev’essere definita. Derivando questa relazione rispetto a y e
tenendo conto del fatto che
∂φ
∂y
= Q(x, y) =
y2 − 3x2
,
y4
si ha
−
3x2
y2 − 3x2
′
+
f
(y)
=
Q(x,
y)
=
;
y4
y4
perciò si ha che
f ′ (y) =
1
.
y2
1
f (y) = − + c1 .
y
Quindi l’integrale generale dell’equazione iniziale è
x2 1
−
y3 y
= C.
102
Capitolo 5. Equazioni Differenziali
Tuttavia può essere che l’eq. (5.14) non sia esatta e che l’eq. (5.18) non sia soddisfatta. In ogni caso
comunque esiste almeno un fattore integrante α(x, y) tale che
α(x, y)P(x, y)dx + α(x, y)Q(x, y)dy = 0
(5.20)
sia esatta. Il fattore integrante tuttavia non è sempre semplice da trovare e non esiste un modo
sistematico per ricavarlo come si ha invece nel caso delle equazioni lineari del primo ordine che
considereremo nel prossimo paragrafo.
Si noti che un’equazione differenziale a variabili separabili è automaticamente esatta, mentre
un’equazione esatta non è necessariamente separabile.
5.3.3 Equazioni lineari di primo ordine
Definizione 5.3.1 Si chiama equazione lineare del primo ordine un’equazione lineare rispetto alla
funzione incognita ed alla sua derivata. Essa è della forma
∂y
+ p(x)y = q(x),
∂x
(5.21)
dove p(x) e q(x) sono funzioni di x date. Se q(x) = 0 l’eq.5.21 è omogenea (in y). Il termine q(x)
non nullo può rappresentare una sorgente o un termine forzante.
Il fatto che l’eq.(5.21) sia lineare significa che ogni termine è lineare in y o dy/dx e che non ci sono
potenze di ordine superiore quali per es. y2 oppure prodotti del tipo y(dy/dx). È importante tuttavia
notare che ne’ p(x), ne’ q(x) devono essere lineari in x!
L’eq.(5.21) può essere risolta esattamente, infatti se la si moltiplica per il fattore integrante α(x) tale
che l’equazione:
α(x)
∂y
+ α(x)p(x)y = α(x)q(x),
∂x
(5.22)
Capitolo 5. Equazioni Differenziali
103
possa essere riscritta come
∂
[α(x)y] = α(x)q(x),
∂x
(5.23)
cosicché
∂α(x)
∂y
y + α(x)
∂x
∂x
= α(x)q(x),
(5.24)
da cui segue che
∂α(x)
∂x
= α(x)p(x),
(5.25)
quindi
Z
ln α(x) =
x
p(t)dt,
(5.26)
che ci permette ricavare il fattore integrante
R
α(x) = e
x
p(t)dt
.
(5.27)
Una volta nota α(x) si puó integrare l’eq. (5.23):
Z
x
∂
[α(x)y] =
∂x
Z
x
α(x)q(x),
(5.28)
ottenendo infine
y(x) = e−
R
x
p(t)dt
Rt
{e
p(s)ds
q(s)ds + C}.
Teorema 5.3.2 Un’eq. del primo ordine ha solo una soluzione linearmente indipendente.
(5.29)
104
Capitolo 5. Equazioni Differenziali
dim. Supponiamo che y1 , y2 risolvano ambedue l’eq. diff. omogenea. Allora si ha che
y′1
y1
= −p(x) =
y′2
,
y2
(5.30)
che implica
W(x) ≡ y′1 y2 − y1 y′2 ≡ 0.
(5.31)
W è detto il Wronskiano della coppia y1 , y2 . Mostriamo che W ≡ 0 è la condizione perché esse
siano linearmente dipendenti. Infatti assumendo che siano linearmente dipendenti, cioè:
ay1 + by2 = 0,
(5.32)
con a, b costanti non nulle per ogni x, deriviamo tale relazione lineare per ottenere quella che segue
ay′1 + by′2 = 0.
(5.33)
La condizione per queste due equazioni nelle incognite a, b per avere una soluzione non banale è
che il loro determinante sia nullo, ovvero W = 0. Invece se W = 0 segue la dipendenza lineare,
infatti se integriamo la relazione
y′1
y1
=
y′2
,
y2
(5.34)
otteniamo
ln y1 = ln y2 + ln C,
(5.35)
Capitolo 5. Equazioni Differenziali
105
ovvero
y1 = Cy2 .
(5.36)
Vedromo più avanti la generalizzazione del Wronskiano.
5.3.4 Equazioni lineari di ordine n
Definizione 5.3.2 Un’equazione differenziale di ordine n si dice lineare se essa è di primo grado
rispetto alla funzione incognita y ed alle sue derivate y′ , . . . , y(n−1) , yn , cioè se essa si scrive nella
forma
a0 yn + a1 y(n−1) + · · · + an y =
f (x),
(5.37)
dove a0 , a1 , . . . , an e f (x) sono funzioni date di x o costanti, mentre a0 , 0 per tutti i valori di x nel
campo di definizione dell’eq. (5.37). In seguito assumeremo che a0 , a1 , . . . , an e f (x) sono funzioni
continue per tutti i valori di x. La funzione f (x) si chiama secondo membro dell’equazione. Se
f (x) , 0, l’equazione si dice non omogenea, se invece f (x) ≡ 0, l’equazione assume la forma
a0 yn + a1 y(n−1) + · · · + an y = 0,
(5.38)
e si dice lineare omogenea associata.
5.4 Separazione delle variabili: equazione di Helmholtz
Un modo di risolvere un’equazione alle derivate parziali di n variabili è quello di separarlo in n
equazioni differenziali ordinarie. A tal fine, se si hanno n variabili, si dovranno introdurre n − 1
costanti. Come esempio applichiamo la procedura di separazione delle variabili all’equazione di
106
Capitolo 5. Equazioni Differenziali
Helmholtz:
∇2 ψ ± k2 ψ = 0
(5.39)
a) in coordinate cartesiane porta a tre equazioni (del tipo dell’oscillatore armonico)in una variabile
per x, y e z;
b) in coordinate cilindriche porta a 2 equazioni (dell’oscillatore armonico) in una variabile per z, φ
e all’equazione di Bessel per ρ;
c) in coordinate sferiche porta a un’equazione di Helmolz in una variabile per φ, un’equazione di
Bessel in coordinate sferiche per r e, infine, un’equazione di Legendre per θ.
a) Coordinate cartesiane. L’equazione di Helmholtz in coordinate cartesiane è
∂2 ψ ∂2 ψ ∂2 ψ
+ 2 + 2 + k2 ψ = 0.
∂x2
∂y
∂z
(5.40)
Per separare le variabili possiamo scrivere
ψ(x, y, z) = X(x)Y(y)Z(z)
(5.41)
e sostituire in (5.40). Si ha allora, dopo aver sostituito e diviso per ψ = XYZ:
1 d2 X 1 d2 Y 1 d2 Z
+
+
+ k2 = 0.
X dx2 Y dy2 Z z2
(5.42)
Se la scriviamo come segue:
1 d2 X
1 d2 Y 1 d2 Z
=
−
−
− k2 ,
X dx2
Y dy2 Z z2
(5.43)
abbiamo dalla parte sinistra una funzione che dipende solo da x, mentre a destra una che
dipende solo da y e z. Siccome x, y, z sono tre variabili indipendenti allora il cambiamento di
Capitolo 5. Equazioni Differenziali
107
X non può dipendere da y e z e quindi sarà al più uguale a una costante:
1 d2 X
= −l2 ,
X dx2
1 d2 Y 1 d2 Z
−
− k2 = −l2 .
−
Y dy2 Z z2
(5.44)
(5.45)
Analogamente a quanto osservato per il termine in X si puó scivere
1 d2 Y
Y dy2
1 d2 Z
Z z2
= −m2 ,
(5.46)
= −n2 ,
(5.47)
con k2 = n2 + l2 + m2 , ovvero si sono introdotte tre costanti di cui solo due sono indipendenti, ottenendo in tal modo tre equazioni per una sola variabile. La soluzione generale
dell’equazione sarà:
ψlm (x, y, z) = Xl (x)Ym (y)Zn (z)
(5.48)
b) Coordinate cilindriche. In coordinate cilindriche l’equazione di Helmholtz è data da:
∇2 ψ(ρ, φ, z) + k2 ψ(ρ, φ, z) = 0,
(5.49)
!
1 ∂
∂ψ
1 ∂2 ψ ∂2 ψ
ρ
+ 2 2 + 2 + k2 ψ = 0.
ρ ∂ρ ∂ρ
ρ ∂φ
∂z
(5.50)
ψ(ρ, φ, z) = P(ρ)Φ(φ)Z(z)
(5.51)
ovvero
Sostituendo
nell’eq.(5.50) e dividendo per ψ si ottiene:
!
1 d
dP
1 d2 Φ 1 d2 Z
+
+ k2 = 0.
ρ
+ 2
ρP dρ dρ
ρ Φ dφ2 Z dz2
(5.52)
108
Capitolo 5. Equazioni Differenziali
Anche in questo caso siccome ρ, φ, z sono tre variabili indipendenti allora il cambiamento di
P non può dipendere da φ e z, e un ragionamento analogo vale per Φ e Z. Quindi, come fatto
in precedenza, possiamo introdurre delle costanti l ed m e ottenere le seguenti equazioni diff.
ordinarie:
d2 Z
dz2
d2 Φ
dφ2
ρ
= l2 Z,
(5.53)
= −m2 Φ,
(5.54)
!
dP
d
ρ
+ (−m2 + n2 ρ2 )P = 0.
dρ dρ
(eq. di Bessel)
(5.55)
c) Coordinate sferiche. In coordinate polari sferiche l’eq. di Helmholtz diventa:
∇2 ψ(r, θ, φ) + k2 ψ(r, θ, φ) = 0
(5.56)
!
!
#
"
1
∂
∂ψ
1 ∂2 ψ
∂ 2 ∂ψ
r
+
sin θ
+
= −k2 ψ.
sin θ
∂r
∂r
∂θ
∂θ
sin θ ∂φ2
r2 sin θ
(5.57)
ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ)
(5.58)
ovvero
Sostituendo
nell’eq.(5.57) e dividendo per ψ si ottiene:
!
!
d
d2 Φ
1 d 2 dR
1
dΘ
1
= −k2 .
r
+
sin
θ
+
dr
dθ
Rr2 dr
r2 sin θΘ dθ
r2 Φ sin2 θ dφ2
(5.59)
Introducendo le costanti m e Q quest’ultima equazione si può separare in tre eq. diff. ordinarie
Capitolo 5. Equazioni Differenziali
109
in una sola variabile:
d2 Φ(φ)
+ m2 Φ(φ) = 0,
dφ2
"
#
dΘ(θ)
m2
1 d
sin θ
− 2 Θ(θ) + QΘ(θ) = 0,
sin θ dθ
dθ
sin θ
"
#
1 d 2 dR(r)
QR(r)
r
+ k2 R(r) −
= 0
2
dr
r dr
r2
(eq. azimutale)
(5.60)
(eq. polare)
(5.61)
(eq. di Bessel).
(5.62)
La soluzione generale dell’eq. di Helmoholz in coordinte polari sferiche sarà
ψQm (r, θ, φ) =
X
aQm RQ (r)ΘQm Φm (φ)
(5.63)
Q,m
Osservazione 5.4.1 Si noti che k non deve essere necessariamente una costante e se si prende
k = f (r) +
1
1
g(θ) + 2
h(φ) + k′2 ,
2
r
r sin θ
(5.64)
è ancora possibile separare le variabili e dunque la dipendenza angolare può essere isolata. In
particolare nel caso dell’atomo di idrogeno k = χ(r).
5.5 Metodo di Frobenius
In questa sezione descriviamo un metodo per ottenere una soluzione di un’equazione differenziale
ordinaria lineare del secondo ordine omogenea. Questo metodo consiste in una espansione in serie
della soluzione dell’eq. diff. e si può sempre applicare a patto che l’espansione sia fatta attorno ad
un punto al più singolare regolare, come vedremo in seguito. Il metodo di Frobenius consiste nel
sostituire la soluzione con un suo sviluppo in serie di potenze i cui coefficienti sono da determinarsi.
Per illustrarlo applichiamo il metodo all’eq. dell’oscillatore armonico:
d2 y
+ ω2 y = 0,
dx2
(5.65)
110
Capitolo 5. Equazioni Differenziali
di cui conosciamo già le soluzioni y = sin ωx, cos ωx. Possiamo sostituire
y(x) = xk a0 + a1 x + a2 x2 + a3 x3 + · · · ,
=
+∞
X
an xk+n ,
(5.66)
(5.67)
n=0
dove si assume a0 , 0 e an , k sono ignoti. Si noti che se fosse a0 = 0 potremmo sempre risalire al
primo coefficiente non nullo della serie con una opportuna scelta di k. Infatti si potrebbe scrivere
y(x) = xk a1 x + a2 x2 + a3 x3 + · · · = xk+1 a1 + a2 x + a3 x2 + · · · ,
= xk+1
+∞
X
an+1 xn .
(5.68)
(5.69)
n=0
Calcoliamo ora y′ e y′′ :
dy(x)
dx
d2 y(x)
dx2
+∞
X
=
(k + n)an xk+n−1 ,
=
(5.70)
n=0
+∞
X
n=0
(k + n)(k + n − 1)an xk+n−2
(5.71)
sostituendo in (5.65) si ottiene:
+∞
X
n=0
k+n−2
(k + n)(k + n − 1)an x
+ω
2
+∞
X
an xk+n = 0.
(5.72)
n=0
Per il teorema di unicità delle serie di potenze si ha che i coefficienti di ciascuna potenza di x nella
parte sinistra dell’eq.(5.72) devono essere nulli. Il primo termine dell’eq.(5.72) si può scrivere come
Capitolo 5. Equazioni Differenziali
111
segue:
+∞
X
n=0
(k + n)(k + n − 1)an xk+n−2 = k(k − 1)a0 xk−2 + (k + 1)ka1 xk−1 +
+
+∞
X
n=2
(5.73)
(k + n)(k + n − 1)an xk+n−2 ,
= k(k − 1)a0 xk−2 + (k + 1)ka1 xk−1 +
+∞
X
+
(k + m + 2)(k + m + 1)am+2 xk+m ,
(5.74)
m=0
dove abbiamo posto m = n − 2. Quindi si ha
k−2
k(k − 1)a0 x
k−1
+ (k + 1)ka1 x
+∞ h
X
i
+
(k + n + 2)(k + n + 1)an+2 + ω2 an xk+n = 0,
(5.75)
n=0
Tutti i coefficienti di ogni potenza di x devono essere nulli, quindi si ricavano le seguenti equazioni
indiciali:
1. k(k − 1)a0 = 0 che siccome a0 , 0, ci dà due possibilità k = 0 oppure k = 1;
2. k(k + 1)a1 = 0 che, mentre se k = 0, implica che a1 è arbitrario, se k = 1, implica che a1 = 0.
Ci sono dunque due casi che corrispondono ad avere due soluzioni linearmente indipendenti, come
ci aspettiamo.
• Caso k = 0 ⇒ (m + 1)(m + 2)am+2 + ω2 am = 0,
am+2 = −
ω2
am .
(m + 1)(m + 2)
Quindi, partendo da a0 (a1 è arbitrario) si possono ottenere tutti i termini pari:
1
1
a2 = − ω2 a0 = − ω2 a0
2
2!
1
1 2
ω a2 = ω4 a0
a4 = −
4·3
4!
1
1 2
ω a4 = − ω6 a0
a6 = −
6·5
6!
(5.76)
112
Capitolo 5. Equazioni Differenziali
e in generale
(−1)n 2
ω na0
(2n)!
a2n =
(5.77)
Se invece si parte da a1 che è arbitrario, si ottiene la sequenza dei coefficienti dispari. Tuttavia,
poiché a1 è arbitrario, possiamo scegliere a1 = 0, da cui segue che anche a2n+1 = 0, per ogni
n. Sostituendo nell’eq.(5.67) si ottiene:
y(x) =
+∞
X
an xk+n ,
(5.78)
n=0
"
#
1
1
1
2
4
6
= a0 1 − (ωx) + (ωx) − (ωx) + . . . ,
2!
4!
6!
(5.79)
= a0 cos(ωx).
(5.80)
• Caso k = 1 ⇒ (m + 3)(m + 2)am+2 + ω2 am = 0
am+2 = −
ω2
am .
(m + 3)(m + 2)
(5.81)
Dato che deve essere a1 = 0, tutti i termini dispari sono nulli. Analogamente a quanto visto
nel caso di k = 0, per k = 1 si ottiene:
y(x) =
#
"
1
1
a0
3
5
1 − (ωx) + (ωx) + . . . ,
ω
3!
5!
= a′0 sin(ωx),
(5.82)
(5.83)
dove a′0 = a0 /ω. La soluzione generale sarà una combinazione lineare delle due:
y(x) = A cos(ωx) + B sin(ωx),
che è la soluzione che ci aspettavamo.
(5.84)
Capitolo 5. Equazioni Differenziali
113
5.6 Equazione di Schrödinger
Abbiamo visto nel paragrafo 5.4 che l’eq. di Helmoholtz è data
∇2 ψ(x) + k2 ψ(x) = 0
(5.85)
in particolare anche l’equazione di Schrödinger si può scrivere in una forma simile, infatti l’eq. di
Schrödinger indipendente dal tempo è data da:
−~2 2
∇ ψ(x) + U(x)ψ(x) = Eψ(x),
2m
(5.86)
che però può essere scritta nel modo seguente:
∇2 ψ(x) +
2m
[E − U(x)]ψ = 0,
~2
(5.87)
ovvero
∇2 ψ(x) + χ(x)ψ = 0,
(5.88)
dove
χ(x) =
2m
[E − U(x)].
~2
(5.89)
Consideriamo ora il caso particolare del potenziale centrale U(x) = U(r) e χ(x) = χ(r), allora
l’equazione si pu scrivere come segue:
∇2 ψ(x) + χ(r)ψ = 0.
(5.90)
Utilizzando il metodo della separazione delle variabili in coordinate polari sferiche, possiamo ridurre
tale equazione alle derivate parziali a tre equazioni in una sola variabile come abbiamo visto nel
114
Capitolo 5. Equazioni Differenziali
paragrafo 5.4 ottenendo le equazioni:
d2 Φ(φ)
+ m2 Φ(φ) = 0,
dφ2
"
#
dΘ(θ)
m2
1 d
Θ(θ) + l(l + 1)Θ(θ) = 0,
sin θ
−
sin θ dθ
dθ
sin2 θ
"
#
d 2d
r
+ r2 χ(r)R(r) − l(l + 1)R(r) = 0
dr
dr
(eq. azimutale)
(5.91)
(eq. polare)
(5.92)
(eq. radiale).
(5.93)
L’equazione azimutale è l’eq. dell’oscillatore armonico che abbiamo risolto con il metodo di
Frobenius nel paragrafo 5.5.
5.6.1 Equazione di Schrödinger polare: equazione di Legendre
Risolviamo ora con il metodo di Frobenius l’eq. polare. Questa equazione è molto importante
in fisica dal momento che compare in tutti i problemi a simmetria centrale (meccanica classica,
elettromagnetismo, meccanica quantistica, etc.). Abbiamo posto Q = l(l + 1), con l = 0, 1, 2, ...,
dove l rappresenta il numero quantico angolare (abbiamo visto nel foglio di esercizi numero 2
che l’operatore differenziale che compare in questa equazione è proprio l’operatore L2 legato al
√
momento angolare). Ponendo ora x = cos θ, dx = − sin θdθ, sin θ = 1 − x2 e introducendo infine
la funzione Θ(θ) = y(x) otteniamo l’equazione che segue:
−
#
"
m2
d
d
(1 − x2 ) y(x) −
y(x) + l(l + 1)y(x) = 0,
dx
dx
1 − x2
(5.94)
che derivando il primo termine diventa
"
#
l(l + 1)
d2 y(x)
2x dy(x)
m2
+
−
−
y(x) = 0,
dx2
1 − x2 dx
1 − x2
(1 − x2 )2
(5.95)
che rappresenta l’eq. di Legendre associata. Notiamo innnanzitutto che x ∈ [−1, 1] essendo x =
cos θ.
Capitolo 5. Equazioni Differenziali
115
Nel caso particolare in cui m = 0 si ottiene l’equazione di Legendre:
y′′ (x) −
2x ′
l(l + 1)
y (x) +
y(x) = 0.
2
1−x
1 − x2
(5.96)
L’eq.(5.95) si può porre nella forma generale
y′′ (x) + P(x)y′ (x) + Q(x)y(x) = 0,
(5.97)
con
P(x) =
Q(x) =
−2x
,
1 − x2
l(l + 1)
m2
−
.
1 − x2
(1 − x2 )2
(5.98)
(5.99)
L’eq.(5.96) si può risolvere con il metodo di Frobenius, ovvero si assume:
• y(x) =
P+∞
n+k ;
n=0 an x
• a0 , 0 (senza perdita di generaltà).
Procedendo come nel paragrafo 5.5 si ottengono le seguenti condizioni:
k(k − 1)a0 = 0,
(5.100)
k(k + 1)a1 = 0,
(5.101)
(k + n + 2)(k + n + 1)an+2 = [(k + n)(k + n + 1) − l(l + 1)]an .
(5.102)
Dato che a0 , 0 ci sono due possibilità:
• Caso k = 0. a1 è arbitrario, quindi lo possiamo scegliere a1 = 0. Dunque
an+2 =
"
#
n(n + 1) − l(l + 1)
an
(n + 2)(n + 1)
(5.103)
116
Capitolo 5. Equazioni Differenziali
che esplicitando rispetto ad a0 diventa:
a2n =
−l(l + 1)[3 · 2 − l(l + 1)][5 · 4 − l(l + 1)] · · · [(2n − 1)(2n − 2) − l(l + 1)]
a0 , (5.104)
2n!
dove si vede che la forma di questa successione dipende da l:
1. se l è intero (come nel caso di interesse fisico) allora il numeratore si annulla quando (∀l
finito) dall’eq. (5.103) si ha
n(n + 1) = l(l + 1) ⇒ nmax = l,
(5.105)
quindi la soluzione è un polinomio di grado nmax (prima soluzione);
2. se l è reale (< N) la serie ha infiniti termini dato che il numeratore dell’eq.(5.103) non si
annulla mai, quindi la soluzione è una serie (seconda soluzione).
• Caso k = 1. Allora a1 = 0 (a0 è arbitrario), quindi
an+2
"
#
(n + 1)(n + 2) − l(l + 1)
=
an ,
(n + 3)(n + 2)
(5.106)
che significa
a2n =
[2n(2n − 1) − l(l + 1)] · · · [4 · 3 − l(l + 1)][2 · 1 − l(l + 1)]
a0 .
(2n + 1)!
(5.107)
Osservazione 5.6.1 (Convergenza) Si è visto che nel caso in cui l < N la soluzione è una serie
ad infiniti termini. Si pone dunque il problema se la serie converge o meno. Anche in questo caso
dobbiamo considerare i due casi:
• Caso k = 0: in questo caso segue dall’eq. (5.103) che per n ≫ l si ha
2 an+2 = n(n + 1) − l(l + 1) ≃ n = 1.
an (n + 2)(n + 1) n2 (5.108)
Capitolo 5. Equazioni Differenziali
117
Questo significa che asintoticamente la nostra serie ha un andamento simile alla serie geometrica ovvero per n ≫ l:
X
n
an xn ∼
X
xn =
n
1
,
1−x
(5.109)
che converge dunque per |x| < 1 mentre diverge per |x| ≥ 1.
• Caso k = 1: in questo caso dall’eq.(5.106) che per n ≫ l si ha
2 an+2 = (n + 1)(n + 2) − l(l + 1) ≃ n = 1.
n2 an (n + 3)(n + 2)
(5.110)
Anche in questo caso la serie converge dunque per |x| < 1 mentre diverge per |x| ≥ 1.
Osservazione 5.6.2 Anche nel caso k = 1, se l ∈ N, esiste nmax dato dalla relazione
nmax = l − 1.
(5.111)
5.6.2 Polinomi di Legendre
Abbiamo visto che se l ∈ N (caso che più ci interessa dal punto di vista fisico) la soluzione dell’eq.
polare di Schrödinger è data da una somma finita di potenze, ovvero da dei polinomi. Proviamo ora
a ricavare tali polinomi per alcuni vaolori di l.
• Caso k = 0: in questo caso si ha
nmax = l,
(5.112)
dove l è pari e la soluzione è
y(x) =
l
X
an xn = a0 + a2 x2 + a4 x4 + . . . + al xl ,
(5.113)
n=0
infatti, dato che si è scelto a1 = 0, tutti i termini dispari sono nulli. Se prendiamo l = 2, allora
y(x) = a0 + a2 x2 ,
(5.114)
118
Capitolo 5. Equazioni Differenziali
dove dall’eq. (5.103) si ha a2 = −3a0 , quindi
1
y(x) = (3x2 − 1) = P2 (x),
2
(5.115)
dove si è scelto a0 = −1/2. Infatti è possibile dimostrare che in generale questi polinomi
soddisfano la seguente relazione:
Z
+1
dxPn (x)Pm (x) =
−1
2
δnm .
2n + 1
(5.116)
In particolare per n = m = 2 si ha
Z
+1
−1
dxP22 (x) =
2
5
(5.117)
e sostituendo in (5.117) l’espressione di P2 data dall’eq. (5.115) si ottiene proprio che a0 =
±1/2.
Analogamante per l = 4 si ha che
y(x) = a0 + a2 x2 + a4 x4 ,
(5.118)
e utilizzando l’eq. (5.103) e la relazione (5.116) si ricava che
y(x) =
3
35
(1 − 10x2 + x4 ) = P4 (x),
8
3
(5.119)
e cosı̀ via per P6 (x), P8 (x), . . . , P2n (x)
• Caso k = 1: in questo caso
nmax = l − 1,
y(x) = x
l−1
X
n=0
an xn .
(5.120)
(5.121)
Capitolo 5. Equazioni Differenziali
119
quindi per l = 3
3
5
y(x) = − (x − x3 ) = P3 (x),
2
3
(5.122)
e cosı̀ via.
5.6.3 Equazione di Schrödinger radiale: equazione di Bessel
Ritorniamo ora all’eq. di Schrödinger radiale:
d h 2 ′ i 2
r R (r) + r χ(r)R(r) − l(l + 1)R(r) = 0,
dr
(5.123)
dove
χ(r) =
2m
[E − U(r)] .
~2
(5.124)
In particolare se consideriamo il caso dell’atomo di idrogeno si ha che
U(r) =
−e2
,
r
(5.125)
che rappresenta il potenziale coulombiano nel sistema cgs. Per risalire al potenziale nel sistema
mks, basta sostituire e2 con e2 /4πǫ0 , dove ǫ0 è la costante dielettrica nel vuoto. Sostituendo nella
eq. (5.123) si ottiene:
"
#
e2
d h 2 ′ i
2 2m
r R (r) + r 2 E +
R(r) − l(l + 1)R(r) = 0.
dr
r
~
(5.126)
Ora vogliamo semplificare la nostra equazione e riscriverla in termini di una nuova funzione u(r) =
rR(r). A tal fine dividiamo l’eq.(5.126) per r. A questo punto notiamo che vale:
d2
1 d h 2 ′ i
r R (r) = 2 [rR(r)] .
r dr
dr
(5.127)
120
Capitolo 5. Equazioni Differenziali
Quindi si ottiene:
2m
2m
R(r)
d2
= 0.
[rR(r)] + 2 ErR(r) + 2 e2 R(r) − l(l + 1)
2
r
dr
~
~
A questo punto introduciamo la nuova variabile u(r) = rR(r) e moltiplicando per
e2
−~2 d2
~2 l(l + 1)
u(r)
−
u(r) = Eu(r).
u(r)
+
2m dr2
r
2m r2
(5.128)
−~2
2m
si ottiene:
(5.129)
Introduciamo ora il potenziale centrifugo
Uc f (r) =
~2 l(l + 1)
L2
=
,
2m r2
2mr2
(5.130)
e ricordando l’espressione del potenziale coulombiano dell’eq.(5.125) si può definire il seguente
potenziale efficace:
Ue f f (r) = U(r) + Uc f (r) = −
e2
~2 l(l + 1)
,
+
r
2m r2
(5.131)
e l’eq.(5.129) diventa
"
#
−~2 d2
+ Ue f f (r) u(r) = Eu(r),
2m dr2
(5.132)
che è l’equazione radiale di Schrödinger dove il potenziale è il potenziale efficace che abbiamo
introdotto. Definiamo ora il raggio di Bohr:
~2
,
me2
(5.133)
4π~2
= 5.29 × 10−11 m,
me2
(5.134)
a0 =
che in unità mks ha l’espressione
a0 =
dove m ed e sono rispettivamente la massa e la carica dell’elettrone. Si ha che
• per r ≫ a0 domina il potenziale coulombiano ovvero Ue f f (r) ∼ U(r);
Capitolo 5. Equazioni Differenziali
121
• per r ≪ a0 domina il potenziale centrifugo ovvero Ue f f (r) ∼ Uc f (r);
Infine si ha che il potenziale efficace ha un punto di inversione r∗ che si può determinare vedendo
in che punto si annulla il potenziale efficace:
Ue f f (r∗ ) = 0.
(5.135)
Con questa condizione si ha che
r∗ = a0
l(l + 1)
.
2
(5.136)
Infine ponendo la derivata prima del potenziale efficace uguale a zero si ottiene il suo punto di
minimo r0 , ovvero il punto di equilibrio:
Ue′ f f (r0 ) = 0.
(5.137)
r0 = a0 l(l + 1).
(5.138)
Con questa condizione si ha che
5.6.4 Soluzione dell’equazione di Schrödinger radiale con il metodo di Frobenius
Consideriamo ora solo gli stati legati, ovvero gli stati che hanno energia negativa: E = −|E| < 0
allora l’eq.(5.129) diventa
"
#
l(l + 1) 2m e2
d2
2m
−
+ 2
u(r) = 2 |E|u(r).
2
2
dr
r
~ r
~
(5.139)
Introduciamo ora
E0 =
e2
= 13.6eV,
2a0
(5.140)
che è l’energia del livello fondamentale dell’atomo di idrogeno (che rappresenta l’energia che
bisogna fornire al sistema per estrarre un elettrone nello stato fondamentale dell’idrogeno). L’eq.(5.139)
122
Capitolo 5. Equazioni Differenziali
allora diventa
"
#
l(l + 1)
2
d2
|E|
−
+
u(r) = 2 u(r).
2
2
a0 r
dr
r
a0 E0
Definiamo ora la nuova variabile adimensionale z = r/a0 e la costante λ2 =
(5.141)
|E|
E0
> 0 e la funzione
χ(z) = h(r/a0 ) sostituendo in (5.141) dopo aver moltiplicato per a0 si ha
"
#
d2
l(l + 1) 2
2
−
+ − λ χ(z) = 0,
z
dz2
z2
(5.142)
che rappresenta la forma adimensionale dell’eq. radiale di Schrödinger.
Osservazione 5.6.3 Per z ≫ 1 l’eq.(5.142) diventa asintoticamente:
#
d2
2
− λ χas (z) = 0,
dz2
(5.143)
χas (z) = Ae−λz + Beλz ,
(5.144)
"
la cui soluzione è
dove però è necessario scartare il secondo termine che diverge per z → +∞, pertanto definiamo
χ(z) = e−λz y(z).
(5.145)
Sostituendo quest’eq.(5.145) nell’eq.(5.142) si ha
"
#
d2
d
l(l + 1) 2
− 2λ −
+ y(z) = 0,
dz
z
dz2
z2
(5.146)
che si può risolvere con il metodo di Frobenius (Problema 2, Foglio di esercizi 3) ottenendo infine
la relazione di ricorrenza:
2 [λ(n + l + 1) − 1]
an+1
=
.
an
(n + l + 1)(n + l + 2) − l(l + 1)
(5.147)
Capitolo 5. Equazioni Differenziali
123
Osservazione 5.6.4 (Convergenza) Si noti che per n ≫ 1 si ha che
an+1 ∼ 1 → 0,
an n
(5.148)
quindi la serie è convergente.
Osservazione 5.6.5 (Quantizzazione dell’energia) Si osservi che non è possibile che la serie abbia infiniti termini, infatti per n ≫ 1 si ha che
an+1 2λn 2λ
∼ 2 ∼
,
an
n
n
(5.149)
quindi asintoticamente si ha
an+1 ∼
2λ
2λ 2λ
(2λ)n
an ∼
an−1 , ∼ . . . ∼
a0 .
n
n n−1
n!
(5.150)
Quindi asintoticamente si avrà
y(z) = zl+1
X (2λ)n
n
n!
zn ∼ zl+1 e2λz ,
(5.151)
dunque usando l’eq.(5.145) si ha
χ(z) ∼ zl+1 eλz .
(5.152)
Tuttavia questa soluzione non è accettabile dal momento che diverge per z → ∞, quindi non può
rappresentare una funzione d’onda che invece in generale deve essere quadrato sommabile alla
Lebesgue (cioè ∈ L2 ) e tendere a zero per z → ∞. Dobbiamo perciò assumere che la serie abbia un
numero finito di termini (polinomi di Laguerre), quindi deve essere
λ(n + l + 1) = 1,
(5.153)
124
Capitolo 5. Equazioni Differenziali
quindi nmax è dato da
λ=
1
,
nmax + l + 1
(5.154)
da cui segue la quantizzazione dell’energia. Infatti essendo λ2 = |E|/E0 , si ha
1
|En |
,
=
E0
(nmax + l + 1)2
(5.155)
E0
,
n2
(5.156)
quindi
En = −
n = 1, 2, . . .
con
Le soluzioni saranno dunque
χ(z) = e−λz
m
max
X
am zm+l+1 ,
(5.157)
m=0
allora
− aλr
u(r) = e
0
n
X
am
r
a0
n
X
am
r
a0
m=0
ottenendo infine
R(r) =
− aλr
e
0
r
m=0
!m+l+1
,
(5.158)
!m+l+1
,
(5.159)
con n = m + l + 1, m ∈ N, quindi l = 0, 1, 2, . . . , n − 1.
5.7 Punti singolari e limiti di applicabilità del metodo di Frobenius
Il concetto di punto singolare serve per classificare un’eq. diff. ordinaria e per vedere se è possibile
applicare la soluzione dello sviluppo in serie (metodo di Frobenius). L’eq. differenziale di secondo
grado omogenea si può scrivere
y′′ + P(x)y′ + Q(x)y = 0.
(5.160)
Definizione 5.7.1 Se le funzioni P(x) e Q(x) sono finite per x = x0 , x0 si dice punto ordinario.
Se le funzioni o P(x) o Q(x) (o entrambe) diverge per x → x0 , il punto x0 si dice punto singolare.
Ci sono due tipi di punti singolari:
Capitolo 5. Equazioni Differenziali
125
1. Se le funzioni o P(x) o Q(x) (o entrambe) diverge per x → x0 , ma (x − x0 )P(x) e (x − x0 )2 Q(x)
rimangono finiti per x → x0 . In questo caso x0 si dice punto singolare regolare (o non
essenziale).
2. Se P(x) diverge più rapidamente di
Q(x) diverge più rapidamente di
1
x−x0 ,
1
,
(x−x0 )2
in modo tale che (x − x0 )P(x) → ∞ per x → x0 o
in modo tale che (x − x0 )2 Q(x) → ∞, allora x = x0 è
una singolarità irregolare o essenziale.
Teorema 5.7.1 (Teorema di Fuchs) Data un’eq. diff. llineare di secondo ordine si può sempre
ottenere almeno una soluzione in serie di potenze (metodo di Frobenius), a patto che si espanda
attorno ad un punt ordinario o al più attorno ad una singolarità regolare.
5.8 Indipendenza lineare delle soluzioni e metodo del Wronskiano
Abbiamo visto che grazie al teorema di Fuchs è possibile risalire ad almeno una soluzione di un’eq.
diff. lineare omogenea con il metodo di Frobenius. Vediamo ora come si può sfruttare la proprietà
dell’indipendenza delle soluzioni per ricavare la seconda soluzione dell’eq. diff.
Innanzitutto un insieme di funzioni φλ snon linearmente dipendenti se esiste tra loro una relazione
del tipo:
X
kλ φλ = 0,
(5.161)
λ
in cui non tutti i coefficienti kλ sono nulli. D’altra parte se l’unica soluzione dell’eq. (5.161) invece
è kλ = 0 allora le funzioni φλ sono dette linearmente indipendenti. Assumiamo poi che le φλ siano
differenziabili quanto necessario. Allora differenziando più volte l’eq. (5.161) si ottiene
X
λ
X
λ
kλ φ′λ = 0,
(5.162)
kλ φ′′
λ = 0,
(5.163)
126
Capitolo 5. Equazioni Differenziali
e cosı̀ via. In questo modo avremo un insieme di equazioni lineari omogenee in cui kλ rappresentano
le incognite. Abbiamo visto che esiste una soluzione kλ , 0 solo se il determinante dei coefficienti
dei kλ si annulla. Questo significa:
φ2
φ1
φ′1
φ′2
· · ·
···
(n−1)
φ(n−1)
φ1
2
···
φn
···
φ′n
···
···
···
φ(n−1)
n
Questo determinante si chiama Wronskiano (W). Allora
= 0
(5.164)
• se W , 0 l’eq.(5.161) non ha altra soluzione che kλ = 0, quindi le φλ sono linearmente
indipendenti;
• se W = 0 le φλ sono linearmente dipendenti.
Esempio:oscillatore armonico
Sappiamo che le soluzioni sono φ1 = sin ωx e φ2 = cos ωx, calcoliamo il Wronskiano:
sin ωx
cos ωx
W = ω cos ωx −ω sin ωx
= −ω , 0,
(5.165)
quindi φ1 , φ2 sono linearmente indipendenti. Con il teorema di Fuchs abbiamo visto che con il
metodo di Frobenius si ottiene almeno una soluzione, nel caso dell’equazione di secondo ordine si
ha hanno due soluzioni linearmente indipendenti y1 e y2 . Supponiamo di conoscere y1 (x) (magari
proprio grazie al metodo di Frobenius) e usiamo ora il Wronskiano per ottenere y2 . Il wronskiano
in questo caso è
W(x) = y1 y′2 − y′1 y2 .
(5.166)
′ ′
′′
W ′ (x) = y′1 y′2 + y1 y′′
2 − y1 y2 − y1 y2 ,
(5.167)
Derivando W rispetto a x si ha:
Capitolo 5. Equazioni Differenziali
127
che, poichè y1 e y2 sono soluzioni dell’eq.(5.160) diventa
W ′ (x) = y1 [−P(x)y′2 − Q(x)y2 ] − y2 [−P(x)y′1 − Q(x)y1 ],
= −P(x)(y1 y′2 − y′1 y2 ),
(5.168)
(5.169)
ovvero
W ′ (x) = −P(x)W(x).
(5.170)
Se assumiamo di conoscere già una soluzione y1 vogliamo trovarne la seconda linearmente indipendete, perciò sarà W , 0. Riscrivendo l’eq.(5.170)
dW
= −P(x)dx,
W
(5.171)
integrando in x1 da a ad x si ha
W(x)
ln
=−
W(a)
Z
x
P(x1 )dx1 ,
(5.172)
a
quindi
" Z
W(x) = W(a) exp −
x
#
P(x1 )dx1 ,
(5.173)
!
d y2
.
dx y1
(5.174)
a
ma
W(x) =
Quindi
y1 y′2
−
y′1 y2
=
y21
i
h Rx
!
exp − a P(x1 )dx1
d y2
.
= W(a)
dx y1
y21
(5.175)
Integrando su x2 che varia tra b e x si ottiene:
y2 (x) = y1 (x)W(a)
Z
x
b
i
h Rx
exp − a 2 P(x1 )dx1
[y1 (x2 )]2
dx2 ,
(5.176)
128
Capitolo 5. Equazioni Differenziali
con a, b costanti arbitrarie. Possiamo scegliere W(a) = 1, si ottiene infine
y2 (x) = y1 (x)
Z
x
h R
exp −
x2
P(x1 )dx1
[y1 (x2 )]2
i
dx2 ,
(5.177)
che ci dà le seconda soluzione della nostra eq. differenziale di secondo ordine.
5.9 Il problema di Sturm Liuville
Nei paragrafi precedenti abbiamo visto come risolvere un’equazione di secondo ordine. In questo
paragrafo vogliamo ritornare al linguaggio degli operatori per esprimere tali equazioni differenziali
come equazioni agli autovalori di operatori differenziali. Infatti le equazioni lineari del secondo
ordine che abbiamo considerato corrispondono a operatori differenziali del secondo ordine che hanno la forma generale: data dall’equazione di Sturm-Liouville (SL), una equazione differenziale del
secondo ordine nella forma
[H + λw(x)] y(x) = 0,
(5.178)
"
#
d
dy
p(x)
+ (λw(x) − q(x)) y = 0,
dx
dx
(5.179)
che si può scrivere come segue
dove si è posto
H =
"
#
d
d
p(x)
− q(x).
dx
dx
(5.180)
Le funzioni p(x), q(x), e w(x) sono note, e nei casi più semplici sono continue su un intervallo chiuso
e finito [a, b]. La formulazione del problema spesso prevede anche la specificazione dei valori al
contorno di y e di dy/dx in a e b. La funzione w(x) chiamata funzione peso o densità.
Il valore di λ non è specificato nell’equazione; cercare i valori di λ per cui esiste una soluzione
Capitolo 5. Equazioni Differenziali
129
non banale dell’eq. (5.179) soddisfacente le condizioni al contorno rappresenta il problema di
Sturm-Liouville (S-L).
I valori di λ se esistono sono chiamati autovalori del problema definito da (5.179) e dalla condizioni al contorno. Le corrispondenti soluzioni (per un certo λ) sono le autofunzioni del problema.
Sotto normali assunzioni sulle funzioni p(x), q(x), and w(x) si può notare che l’equazione non è
altro che il problema agli autovalori di un operatore differenziale autoaggiunto in un certo spazio
funzionale definito dalle condizioni al contorno. La teoria che ne risulta riguardante l’esistenza
degli autovalori e il loro andamento asintotico, è chiamata teoria di Sturm-Liouville.
Possiamo ora dimostrare che qualsiasi equazione differenziale del secondo ordine a coefficienti non
costanti, ma sufficientemente regolari, del tipo:
f (x)y′′ (x) + g(x)y′ (x) + (h1 (x) + λh2 (x)) y(x) = 0
(5.181)
si può scrivere nella forma di S-L (eq.(5.179)). Per dimostrarlo partiamo dall’eq.(5.179) e ricaviamo
l’eq.(5.181). Poiché p(x) e q(x) sono funzioni arbitrarie, possiamo scegliere:
p(x) = exp
(Z
x
−∞
g(x′ )
dx′
f (x′ )
)
p(x)h1 (x)
,
f (x)
p(x)h2 (x)
.
f (x)
,
(5.182)
q(x) = −
(5.183)
w(x) =
(5.184)
L’eq. (5.182) è equivalente a
ln p(x) =
Z
x
−∞
dx′
g(x′ )
,
f (x′ )
(5.185)
che dal momento che g(−∞) = f (−∞) = 0 si scrive anche
d
ln p(x) =
dx
g(x)
,
f (x)
(5.186)
130
Capitolo 5. Equazioni Differenziali
ovvero
p′ (x)
p(x)
=
g(x)
,
f (x)
(5.187)
che è equivalente all’eq.(5.182). Sviluppando l’eq. (5.179) si ottiene
p(x)y′′ (x) + p′ (x)y′ (x) + (λw(x) − q(x)(x)) y(x) = 0.
(5.188)
Sostituendo l’eq.(5.187) e le espressioni per p(x), w(x) e q(x) (5.182,5.182,??) si ha
exp
(Z
x
−∞
dx′
g(x′ )
f (x′ )
)"
!
#
h2 (x) h1 (x)
g(x) ′
y (x) + λ
+
y′′ (x) +
y(x) = 0,
f (x)
f (x)
f (x)
(5.189)
ma poiché l’esponenziale è sempre diverso da zero si ottiene infine proprio l’eq. (5.181).
5.10 Proprietà generali dell’equazione di Sturm Liuville
Consideriamo l’equazione di Sturm-Liouville nella forma
Hy(x) = −λw(x)y(x),
(5.190)
p(x)y(x)y′ (x)| x1 = 0 = p(x)y(x)y′ (x)| x2 ,
(5.191)
con le condizioni al contorno
dove si ha che H è l’operatore differenziale dato da:
"
#
d
d
H=
p(x)
− q(x).
dx
dx
Si ha che valgono le seguenti proprietà:
(5.192)
Capitolo 5. Equazioni Differenziali
131
Proprietà 1 (Ortogonalità delle autofunzioni) si ha che se per le autofunzioni vale relazione di
ortonormalità
< yn |ym >w = δnm ,
(5.193)
dim. Siccome yn e ym sono due soluzioni si ha
Hyn (x) = −λn w(x)yn (x),
(5.194)
Hym (x) = −λm w(x)ym (x),
(5.195)
quindi
d
p(x)y′n (x) + λn w(x)ym yn − qym yn = 0,
dx
d
p(x)y′m (x) + λm w(x)yn ym − qyn ym = 0,
yn
dx
ym
(5.196)
(5.197)
sostituendo membro a membro si ha
ym
d
d
py′n − yn
py′m + (λn − λm )wym yn = 0.
dx
dx
(5.198)
Integrando rispetto a x
Z
x2
x1
(
)
d
d
′
′ dx ym
= 0.
pyn − yn
pym + (λn − λm )wym yn
dx
dx
(5.199)
Integrando per parti si ottiene
(λn − λm )
Z
x2
dxwym yn = 0,
(5.200)
x1
dove
Z
x2
x1
dxw(x)ym (x)yn (x) = < yn |ym >w .
(5.201)
132
Capitolo 5. Equazioni Differenziali
Dunque se n , m allora λn , λm quindi deve essere
< yn |ym >w = 0,
(5.202)
invece se n = m si può sempre normalizzare in modo tale che
< yn |yn >w =
Z
x2
x1
dxw(x)y2n (x),
(5.203)
quindi le autofunzioni sono ortonormali.
Proprietà 2 (Autoaggiuntezza dell’hamiltoniano) H † = H, ovvero l’operatore hamiltoniano H è
hermitiano.
dim. dall’eq.(5.192)
"
#
dg(x)
d
p(x)
− q(x)g(x).
dx
dx
Z x2
Z x2
Z x2
d ′
∗
∗
p(x)g (x) −
dx f ∗ (x)q(x)g(x).
dx f (x)Hg(x) =
dx f (x)
dx
x1
x1
x1
Hg(x) =
(5.204)
(5.205)
Integrando il primo termine a destra per parti ripetutamente e imponendo le condizioni al
contorno si ottiene
Z
x2
x1
d dx f (x)
p(x)g′ (x) =
dx
∗
Z
x2
dx
x1
d p(x) f ∗ (x) g(x),
dx
(5.206)
che sostituendo nell’eq.(5.207) ci permette di ottenere il risultato seguente:
Z
x2
∗
dx f (x)(Hg(x)) =
x1
Z
x2
dxH f )∗ (x)g(x),
(5.207)
x1
che è quanto si voleva dimostrare.
Osservazione 5.10.1 Un esempio importante per la fisica di equazione differenziale di tipo SturmLiouville è l’equazione di Legendre, ponendo p(x) = 1 − x2 e q(x) = 0 mentre w(x) = 1 e λ =
l(l + 1).