Appunti del corso di METODI MATEMATICI DELLA FISICA Guido Cognola ∗ anno accademico 2009-2010 Questi appunti sono essenzialmente la trascrizione in maniera schematica e concisa delle lezioni svolte nel corso di Metodi Matematici della Fisica – Seconda Unità – nell’anno accademico 2009-2010. Il materiale è preso dai libri di testo consigliati e non deve assolutamente diventare un sostituto degli stessi. http://science.unitn.it/˜cognola → didattica ∗ e-mail: [email protected] dicembre 2009 Testi consigliati A.N. Kolmogorov and S.V. Fomin. Elementi di teoria delle funzioni e di analisi funzionale. Edizioni MIR 1980. V.V. Vladimirov et Coll. Recuel de Problèmes d’Équations de Physique Mathématique. Edizioni MIR 1976. Indice 1 Integrale di Lebesgue 1.1 Integrale di Riemann 1.2 Misura di Lebesgue . 1.3 Funzioni misurabili . 1.4 Integrale di Lebesgue 1.5 Teoremi Classici . . . . . . . 3 3 4 5 5 5 2 Spazi Metrici 2.1 Isometria fra spazi metrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 8 9 3 Spazi Normati 3.1 Esempi di spazi normati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 10 4 Spazi Euclidei 4.1 Esempi di spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Sistemi ortonormali chiusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Teorema di Riesz-Fischer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 12 13 15 5 Spazi di Hilbert 5.1 Lo spazio L2 . . . . . . . . . . . . . . . 5.2 Completezza di L1 e L2 . . . . . . . . . 5.3 Basi ortonormali in L2 . . . . . . . . . . 5.4 Sistema trigonometrico . . . . . . . . . . 5.5 Forma complessa della serie di Fourier . 5.6 Completezza del sistema trigonometrico 5.7 Polinomi di Legendre . . . . . . . . . . . 5.8 Polinomi di Hermite . . . . . . . . . . . . . . . . . . . 16 17 18 19 19 20 21 23 23 6 Funzionali lineari continui 6.1 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 27 27 7 Distribuzioni 7.1 Funzioni test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Lo spazio D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Lo spazio S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Distribuzioni di Schwartz . . . . . . . . . . . . . . . . . . . . . . 7.5 Distribuzioni regolari . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Prodotto di una distribuzione per una funzione C ∞ . . . . . . . . 7.7 Cambiamento di variabile . . . . . . . . . . . . . . . . . . . . . . 7.8 Derivazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.9 Prodotto diretto . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.10 Prodotto di convoluzione . . . . . . . . . . . . . . . . . . . . . . . 7.11 Condizioni sufficienti per l’esistenza del prodotto di convoluzione 7.12 Regolarizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.13 Distribuzioni temperate . . . . . . . . . . . . . . . . . . . . . . . 7.14 Trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 7.15 Soluzioni fondamentali di operatori differenziali lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 30 31 31 32 33 34 35 35 36 37 38 39 39 40 8 Operatori Lineari 8.1 Operatoti Limitati . . . . . . . . . . . . . . . 8.1.1 Proprietà dell’operatore aggiunto . . . 8.1.2 Proprietà dell’operatore autoaggiunto 8.2 Spettro . . . . . . . . . . . . . . . . . . . . . 8.3 Operatori Compatti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 44 46 47 48 49 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Equazioni Integrali 9.1 Applicazioni . . . . . . . . . . . . . . . . . . . . 9.1.1 Problema di Cauchy . . . . . . . . . . . 9.1.2 Problema di Abel (1823) . . . . . . . . . 9.1.3 Problema della corda . . . . . . . . . . . 9.2 Equazioni di Fredholm . . . . . . . . . . . . . . 9.2.1 Nuclei di Hilbert-Schmidt . . . . . . . . 9.3 Soluzione delle equazioni integrali di II a specie 9.3.1 Equazioni a nucleo simmetrico . . . . . 9.3.2 Equazioni a nucleo degenere . . . . . . . 9.3.3 Equazioni di Volterra . . . . . . . . . . 9.3.4 Soluzioni sotto forma di serie di potenze 9.3.5 Nuclei Ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 54 54 55 56 56 57 58 59 60 61 62 63 10 Contrazioni: metodo delle approssimazioni successive 64 11 Spazi di Hilbert 66 12 Distribuzioni 68 13 Equazioni integrali 89 Definizioni Alcuni dei concetti seguenti si possono definire in spazi più generali, ma qui siamo interessati agli spazi euclidei per i quali è definito il concetto di “distanza” fra due punti arbitrari. Questo è dato dalla norma della differenza dei due punti, che per spazi reali è una vera distanza ρ(x, y) fra punti (vedi sotto). • Punto di accumulazione. – x ∈ X è detto punto di accumulazione se ogni suo intorno contiene almeno un punto di X. • Chiusura. L’insieme X si dice chiuso se contiene tutti i suoi punti di accumulazione. • Limitatezza. – X si dice limitato se la distanza fra ogni coppia di punti è finita. Vale a dire, per ogni x, y ∈ X esiste C per cui ρ(x, y) ≤ C. • Compattezza. – Uno spazio X si dice compatto se da ogni suo ricoprimento aperto è possibile estrarre un sottoricoprimento finito. G ∈ X si dice relativamente compatto o precompatto se la sua chiusura in X è compatta. • TotaleSLimitatezza. – X è totalmente limitato se da è unione finita di “palle” aperte (ε-rete), cioè n X = k=1 B(xk , ε), dove B(x, ε) è la palla aperta di raggio ε centrata in x. • Discontinuità di prima specie. – Quando i limiti destro e sinistro esistono entrambi ma sono diversi fra loro. • Funzione a variazione limitata. – f definita in [a, b] si dice a variazione limitata se, per ogni suddivisone dell’intervallo del tipo a = x0 < x1 < · · · < xn = b si ha n X k=1 |f (xk ) − f (xk−1 )| < costante . • Funzione assolutamente continua. – f definita in [a, b] si dice assolutamente continua se, fissato arbitrariamente ε > 0, esiste δ per cui X X |f (bk ) − f (ak )| < ε , (bk − ak ) < δ , k k dove (ak , bk ) è una qualsiasi famiglia finita di intervalli disgiunti. Ogni funzione assolutamente continua è uniformemente continua e a variazione limitata. In particolare, l’integrale indefinito di ogni funzione sommabile definisce una funzione assolutamente continua. • Convergenza quasi ovunque. – Si dice che la successione {fn } converge a f quasi ovunque se fn (x) → f (x), a meno di un insieme di misura nulla, vale a dire, l’insieme dei punti in cui la funzione non converge ha misura nulla. • Sottoinsieme denso: un insieme G è denso in X se ogni punto di X è circondato da punti di G arbitrariamente vicini. In maniera precisa: per ogni x ∈ X e comunque scelto un numero ε > 0, esiste un elemento xg ∈ G tale che ρ(x, xg ) < ε. • Successione Fondamentale (o di Cauchy). – Una successione {xk } si dice fondamentale se soddisfa il criterio di Cauchy, vale a dire se, comunque scelto un numero ε > 0, esiste un intero Nε tale che ρ(xn , xm ) < ε, per ogni n, m > Nε . Ogni successione convergente ovviamente soddisfa questo criterio. In generale però non vale il viceversa. Quindi il criterio di Cauchy è una condizione necessaria ma non sufficiente per la convergenza delle successioni. • Completezza di uno spazio. – Uno spazio X si dice completo se ogni successione fondamentale è convergente. Questo significa che in uno spazio completo, la condizione di Cauchy è necessaria e sufficiente per la convergenza. Esempio. L’insieme Q dei numeri razionali non è completo. Esistono infatti successioni di numeri razionali che convergono ad un numero reale, ma non razionale. L’insieme dei numeri reali IR è completo ed è anche il completamento di Q. In IR ogni successione fondamentale converge ad un numero reale. • Spazio separabile. – Uno spazio X si dice separabile se contiene un insieme numerabile ovunque denso in X (gli spazi che si incontrano comunemente lo sono). Esempio. Un numero reale si può approssimare con precisione arbitraria mediante un numero razionale. L’insieme dei numeri razionali Q è quindi denso in IR; inoltre Q è numerabile e dunque IR è separabile. 1 Integrale di Lebesgue E’ l’estensione dell’integrale di Riemann ad una classe più vasta di funzioni1 . 1.1 Integrale di Riemann Analizziamo brevemente, da un punto di vista critico, la definizione di integrale secondo Riemann. Sia quindi f (x) una funzione limitata definita nell’intervallo I ≡ (a, b), m e M rispettivamente gli P estremi inferiore e superiore che questa raggiunge al variare di x ∈ I, hi un “piccolo” intervallo in I con i hi = I, mi , Mi e mi ≤ fi ≤ Mi gli estremi inferiore, superiore e un valore “rappresentativo” che la funzione assume al variare di x ∈ hi . Si ponga X X X σ= hi fi , s= h i mi , S= hi Mi+1 . i i i La funzione f (x) è integrabile secondo Riemann se i limiti per i → ∞ delle espressioni precedenti sono coincidenti. Il procedimento precedente è sensato se nell’intervallo hi i possibili valori di fi sono “vicini” fra loro, vale a dire se fi è effettivamente un punto rappresentativo della funzione. Se f è continua questo è certamente vero, ma non è necessario. Come si vede, nella definizione precedente si discretizza il dominio di definizione della funzione non sapendo quindi come saranno distribuiti i valori della stessa nel generico intervallo. Nella definizione integrale di Lebesgue il procedimento è simile, ma anzichè il dominio della funzione, si discretizza il co-dominio, avendo quindi il controllo sui valori che la funzione assume in ogni intervallino. Prima di procedere alla definizione generale, consideriamo una speciale classe di funzioni f (x) come sopra, ma con la ulteriore restrizione che l’insieme Iαβ sia un multi-intervallo, dove Iαβ ≡ {x ∈ I, tali che m ≤ α ≤ f (x) ≤ β ≤ M } (1.1) comunque scelti α e β. A questo punto dividiamo il co-dominio di f in tanti piccoli intervalli m = α0 < α1 < α2 < ... < αn = β ad ognuno dei quali corrisponderà un multi-intervallo X (1) (2) Iαi αi+1 = hi + hi + ... ≡ hi ⊂ I , hi = I , (1.2) i dove la funzione assumerà i valori αi ≤ fi ≤ αi+1 . Poniamo allora X X X s= hi αi ≤ σ = hi fi ≤ S = hi αi+1 i i (1.3) i e osserviamo che i limiti per i → ∞ delle espressioni precedenti sono coincidenti, per costruzione. Infatti, scelta un’arbitraria discretizzazione con αi+1 − αi < ε, si ha X S−s= (αi+1 − αi )hi < ε(b − a) . i ♣ hi è la misura (lunghezza) del multi-intervallo Iαi αi+1 . Se Iαβ non è un multi-intervallo, le espressioni (1.3) non hanno alcun significato, a meno che non si definisca hi in modo preciso. Per poter estendere l’integrale di Lebesgue a funzioni arbitarie è prima necessario definire la misura di un insieme qualunque. 1 Per una trattazione elementare vedi: F.G. Tricomi, Istituzioni di analisi superiore, Edizioni CEDAM, Padova (1964). 1.2 Misura di Lebesgue E’ una delle varie estensioni del concetto di misura ad un insieme qualunque. Sia P un intervallo (chiuso, aperto o semiaperto) in IR (o un rettangolo in IR2 o un iper-parallelepipedo in Rn ). La misura m(P ) di P è la lunghezza (l’area, l’iper-volume) e la misura dell’insieme vuoto è nulla per definizione; m(Φ) = 0. Questa misura gode delle proprietà • m(P ) ≥ 0; la misura è reale e non negativa; Pn Sn T • m(P ) = k=1 m(Pk ) se P = k=1 Pk e Pi Pj = Φ; la misura di un numero finito di intervalli disgiunti è la somma delle misure dei singoli intervalli. La misura si estende facilmente ad ogni insieme elementare, vale a dire a qualunque unione infinita di intervalli disgiunti. Si definisce X [ \ m′ (E) = m(Pk ) , E= Pk , Pi P j = Φ . k k Si osservi che rispetto alla seconda proprietà della misura sopra, nell’ultima espressione l’indice k può assumere infiniti valori. In generale, la decomposizione dell’insieme elementare E in infiniti intervalli disgiunti può essere effettuata in più modi; si dimostra che la misura m′ (E) non dipende dalla decomposizione. Si dimostra inoltre che se E è unione finita o numerabile di insiemi elementari Ek disgiunti, allora X [ \ m′ (E) = m′ (Ek ) , E= Ek , Ei Ej = Φ . k k Questa importante proprietà della misura m′ è detta Addidività numerabile o σ-additività. Consideriamo ora un insieme qualsiasi A contenuto in una regione finita di IR (IRn ) e un suo ricoprimento arbitrario mediante intervalli (rettangoli) Pk . Definiamo la misura esterna di A mediante l’espressione µ∗ (A) = inf A⊂∪k Pk m(Pk ) . Si dimostra l’importante e “naturale” proprietà, che se A ⊂ B allora µ∗ (A) ≤ µ∗ (B). • Definizione – Un insieme si dice misurabile nel senso di Lebesgue se si può approssimare con precisione arbitraria mediante insiemi elementari. Più precisamente, A sarà misurabile (secondo Lebesgue) se, per ogni ε > 0 esiste un insieme elementare E per cui µ∗ (A∆ E) < ε , dove A∆ E è l’insieme complemetare dell’intersezione. In tal caso la funzione µ∗ si chiama misura di Lebesgue e si indica semplicemente con µ. Unione e intersezione numerabile di insiemi misurabili è misurabile. Valgono inoltre le proprietà [ X A= An =⇒ µ(A) = µ(An ) , (σ-additività) , n n dove {An } è una famiglia disgiunta di insiemi misurabili. \ A = An , A1 ⊃ A2 ⊃ A3 ... =⇒ µ(A) = lim µ(An ) . n→∞ n A = [ n An , (1.4) A1 ⊂ A2 ⊂ A3 ... =⇒ µ(A) = lim µ(An ) . n→∞ L’estensione ad insiemi qualsiasi contenuti in tutto IR (IRn ) è ora immediata in quanto l’asse reale può essere visto come una somma di intervalli disgiunti e l’insieme A diventa la somma di (infiniti) insiemi, ognuno contenuto in un intervallo. Si osservi che in tal caso la misura può essere infinita. Usando le proprietà astratte che definiscono una misura, la misura di Lebesgue si può estendere ad insiemi più generali di IRn . Esempi Misura di un punto. – La misura di Lebesgue di un punto isolato A è banalmente nulla. Un punto infatti è contenuto in un intervallo Iε , con ε arbitrariamente piccolo, per cui µ(A) ≤ µ(Iε ) = ε. Usando la σ-additività si ricava che anche la misura di un’infinità numerabile di punti è nulla. 1.3 Funzioni misurabili Sia f (x) definita in un insieme misurabile I e sia Iαβ l’insieme definito dalla (1.1). La funzione f si dirà misurabile (secondo Lebesgue) se Iαβ è un insieme misurabile. Equivalentemente si dice che f è misurabile se, per ogni a, l’insieme Eα ≡ {x ∈ I, tali che f (x) > α} è misurabile. ♣ Se f è misurabile ed è uguale a g q.o. (quasi ovunque, vale a dire a meno di un insieme di misura nulla), allora anche g è misurabile; somme, prodotti, limiti di funzioni misurabili sono misurabili. 1.4 Integrale di Lebesgue La definizione di integrale di Lebesgue è ora immediata. Si usa infatti lo stesso procedimento introdotto sopra, dove anziché richiedere che l’insieme Iαβ in (1.1) sia un multi-intervallo, si richiede la misurabilità della funzione limitata f . Questo, per definizione, garantisce la misurabilità di Iαβ , che nel caso speciale sopra, equazione (1.2), era stata usata tacitamente ponendo hi uguale alla lunghezza del generico multiintervallo (si sono usata la somma al posto dell’unione). Allora poniamo X X X s= hi = µ(Iαi αi+1 ) , hi αi ≤ σ = hi fi ≤ S = hi αi+1 . (1.5) i i i Il limite delle espressioni precedenti per una suddivisione del co-dominio della funzione con infiniti intervalli infinitesimi definisce l’integrale di Lebesgue, cioè Z ∞ X X f (x) dx = lim hi hi fi . µ(I) = I i→∞ i i=1 Valgono tutte le proprietà dell’integrale di Riemann. Inoltre se f è limitata in I e integrabile secondo Riemann, allora è anche integrabile secondo Lebesgue e i due integrali coincidono. Se f = g q.o., allora Z Z dx f (x) = dx g(x) . I I Come si fa con l’integrate di Riemann, anche l’integrale di Lebesgue si estende, a funzioni non limitate. Per fare questo è sufficiente approssimare la funzione non limitata f mediante un successione di funzioni limitate (troncate) fn e definire l’integrale di f come limite degli integrali della serie fn usando i teoremi riportati di seguito. Se il limite è finito, la funzione si dice sommabile secondo Lebesgue. 1.5 Teoremi Classici • • Teorema I o di Lebesgue – Se {fn } è una successione di funzioni misurabili, uniformemente limitata (vale a dire che esiste un numero N per cui vale relazione |fn (x)| < N ) e convergente a f q.o., allora anche f è misurabile e si ha Z Z dx fn (x) → dx f (x) . Si osservi che per scambiare il limite con l’integrale basta la limitatezza uniforme e non la convergenza uniforme come per l’integrale di Riemann. Corollario – Se f (x) è la somma di una serie di funzioni misurabili un e le somme parziali sono uniformemente limitate, allora Z XZ dx un (x) = dx f (x) . n In queste ipotesi si può integrare termine a termine. • • Teorema II o di Lebesgue – Se {fn } è una successione di funzioni sommabili convergente a f q.o. e per ogni n vale la relazione |fn (x)| ≤ φ(x), dove φ(x) è una funzione sommabile, allora anche f è sommabile e Z Z dx fn (x) → dx f (x) . Come sopra, si può scambiare il limite con l’integrale. Corollario I – Se f (x) è la somma (q.o.) di una serie di funzioni sommabili un e tutte le somme parziali sono limitate da una funzione sommabile |φ(x)| , allora anche f è sommabile e il suo integrale è la somma degli integrali di fn . Sotto queste condizioni si può integrare termine a termine. Corollario II – Se una serie di funzioni sommabili non negative converge q.o. ad una funzione sommabile f , allora si può integrare termine a termine. • • Teorema di B. Levi – Se f1 (x) ≤ f2 (x) ≤ ... ≤ fn (x) ≤ ... è una successione di funzioni integrabili e tutti gli integrali sono maggiorati da un’unica costante, allora la successione converge a f quasi ovunque e inoltre l’integrale di f è il limite degli integrali. • • Teorema di Fatou – Se {fn } è una successione di funzioni sommabili non negative convergente a f e tutti gli integrali di fn sono maggiorati da una costante comune, allora l’integrale di f esiste ed è maggiorato dalla stessa costante. 2 Spazi Metrici • Definizione (spazio metrico) – Uno spazio metrico è un qualunque insieme X munito di un’applicazione ρ(x, y) che ad ogni coppia di elementi x, y ∈ X associa un numero reale, con le proprietà 1. ρ(x, y) ≥ 0 e ρ(x, y) = 0 se e solo se x = y, 2. ρ(x, y) = ρ(y, x) — simmetria, 3. ρ(x, z) ≤ ρ(x, y) + ρ(y, z) — disuguaglianza triangolare. Un’applicazione con le proprietà precedenti è detta distanza. Esempi 1. La retta reale IR con la distanza ρ(x, y) = |x − y|; si verifica banalmente che le tutte le proprietà sono soddisfatte. 2. L’insieme delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza v u n uX ρ(x, y) = t (xk − yk )2 . k=1 Questo spazio metrico è detto spazio Euclideo n−dimensionale e si indica con IRn . Le prime due proprietà sono banalmente verificate, mentre la disuguaglianza triangolare deriva dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz n X ak bk k=1 !2 ≤ n X a2i i=1 n X b2j (2.1) j=1 che a sua volta è una banale conseguenza dell’identità n X ak bk k=1 !2 = n X i=1 a2i n X j=1 b2j − n n 1 XX (ai bj − aj bi )2 2 i=1 j=1 che si verifica direttamente. Per ricavare la disuguaglianza triangolare, presi tre punti x, y, z in IRn conviene prima porre ak = xk − yk , bk = yk − zk =⇒ xk − zk = ak + bk . In questo modo si ha [ρ(x, z)] 2 = n X (ak + bk )2 = a2k + ≤ n X a2k + n X k=1 k=1 2 n X b2k + 2 [ρ(x, y) + ρ(y, z)] . n X ak bk k=1 k=1 k=1 k=1 = n X v v v 2 v u n u n u n u n X uX X X u u u b2k + 2t ai t bj = t ak + t bk i=1 b=1 k=1 3. L’insieme IRn1 delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza ρ1 (x, y) = n X k=1 |xk − yk | . Tutte le proprietà si verificano banalmente. k=1 (2.2) 4. L’insieme IRn∞ delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza ρ∞ (x, y) = max |xk − yk | . 1≤k≤n La disuguaglianza triangolare deriva dal fatto che, per ogni k |xk − zk | ≤ |xk − yk | + |yk − zk | ≤ max |xk − yk | + max |yk − zk | . 1≤k≤n 1≤k≤n 5. Lo spazio ℓ2 costituito dalle successioni {xk } di numeri reali tali che v u∞ uX ρ(x, y) = t (xk − yk )2 . P k x2k < ∞ con la distanza k=1 Se x, y ∈ ℓ2 allora la serie precedente converge come conseguenza delle disuguaglianze (xk ± yk )2 ≤ 2(x2k + yk2 ) e la disuguaglianza triangolare è il limite della (2.2). 6. Lo spazio C[a, b] delle funzioni continue nell’intervallo [a, b] con la metrica ρ(f, g) = max |f (t) − g(t)| . (2.3) a≤t≤b Le proprietà si verificano facilmente. 7. Lo spazio C2 [a, b] delle funzioni continue nell’intervallo [a, b] con la metrica s Z b ρ2 (f, g) = dt [f (t) − g(t)]2 . a La disuguaglianza triangolare si ricava usando la disuguaglianza di Cauchy-Bunjakowskij-Schwartz integrata. Rispetto a tutti quelli precedenti, questo spazio metrico non è completo. Questo significa che esistono successioni fondamentali di funzioni appartenenti a C2 [a, b] che però non convergono a funzioni di C2 [a, b]. 2.1 Isometria fra spazi metrici • Definizione (continuità) – Siano dati due spazi metrici X e Y con distanze ρ e ρ1 rispettivamente e un’applicazione f : X → Y . Si dirà che f è continua in x0 ∈ X se, comunque scelto ε > 0, esiste δ > 0 tale che, per ogni x ∈ X per cui ρ(x, x0 ) < δ si abbia ρ1 (f (x), f (x0 )) < ε . Questa definizione di continuità coincide con quella nota se X e Y sono insiemi numerici. • Definizione (omeomorfismo) – Se f : X → Y è un’applicazione biunivoca e bicontiuna, vale a dire continua, invertibile e con inversa continua allora si dice omeomorfismo fra spazi metrici (la stessa terminologia si usa anche per gli spazi topologici), e i due spazi si dicono omeomorfi. • Definizione (isometria) – Un omeomorfismo che conserva le distanze si dice isometria. L’isometria è quindi un’applicazione f : X → Y biunivoca e bicontiuna tale che ρ(x1 , x2 ) = ρ1 (f (x1 ), f (x2 )) , x1 , x2 ∈ X . Se fra due spazi metrici esiste un’isometria, i due spazi si dicono isometrici e, a tutti gli effetti, si possono considerare identici. • Definizione (convergenza) – Una successione di punti {xn } in uno spazio metrico X si dice convergente a x ∈ X se lim ρ(x, xn ) = 0 . n→∞ • Definizione (completezza) – Uno spazio X si dice completo se ogni successione fondamentale converge ad un elemento di X. Si dimostra che ogni spazio metrico ha un completamento unico a meno di isometrie. 2.2 Contrazioni • Definizione (contrazione) – Un’applicazione A da uno spazio metrico in sè stesso è detta contrazione se esiste un numero reale α < 1 tale che, per ogni coppia di punti x, y ∈ X si abbia ρ(Ax, Ay) ≤ αρ(x, y) , α < 1. • Teorema – Ogni contrazione è un’applicazione continua. • Dimostrazione – Data infatti una successione {xn } convergente a x ∈ X si ha ρ(Ax, Axn ) ≤ αρ(xn , x) ≤ ρ(xn , x) → 0 . • Teorema (principio delle contrazioni) – Ogni contrazione in uno spazio metrico completo ha un solo punto fisso, vale a dire che l’equazione Ax = x , ha sempre una e una sola soluzione. • Dimostrazione – Per la dimostrazione si usano le proprietà della distanza, la continuità di A e la completezza di X. Dato un punto qualunque x0 , si costruisce la successione x1 = Ax0 , x2 = Ax1 = A2 x0 , x3 = Ax2 = A3 x0 , ... xn = An x0 . Questa è una successione fondamentale in quanto, per ogni m ≥ n si ha ρ(xn , xm ) = ρ(An x0 , An Am−n x0 ) ≤ αn ρ(x0 , xm−n ) ≤ αn [ρ(x0 , x1 ) + ρ(x1 , xm−n )] ≤ αn [ρ(x0 , x1 ) + ρ(x1 , x2 ) + ρ(x2 , x3 ) + ... + ρ(xm−n−1 , xm−n )] αn ρ(x0 , x1 ) ≤ αn ρ(x0 , x1 )(1 + α + α2 + ... + αm−n ) ≤ . 1−α Poiché α < 1, l’ultimo termine è piccolo a piacere per n abbastanza grande. Data la completezza, la successione {xn } converge ad un punto x ∈ X. Usando la continuità si ha anche Ax = A lim xn = lim Axn = lim xn+1 = x n→∞ n→∞ n→∞ e quindi x è effettivamente un punto fisso, qualunque sia x0 . L’unicità si dimostra per assurdo. Infatti, se x, y sono entrambi punti fissi, con x 6= y, allora ρ(x, y) 6= 0 e ρ(x, y) = ρ(Ax, Ay) ≤ αρ(x, y) =⇒ α ≥ 0 , in contrasto con l’assunzione che A sia una contrazione. ♣ Per l’esistenza del punto fisso non è strettamente necessario che A sia una contrazione, ma è sufficiente che una qualche potenza B = An lo sia. Se B è una contrazione e x = Bx è un punto fisso per B allora x è un punto fisso anche per A. Infatti, preso x0 = Ax come punto iniziale si ha x = Bx = B k x =⇒ Ax = AB k x = B k Ax = B k x0 (2.4) e poiché B è una contrazione, per k → ∞, B k x0 converge a x qualunque sia x0 . 3 Spazi Normati Sia X uno spazio lineare (vettoriale) e p : X → IR un funzionale (omogeneo e convesso) con le proprietà 1. p(x) ≥ 0 e p(x) = 0 se e solo se x = 0; 2. p(αx) = |α| p(x) per ogni α ∈ C I (omogeneo); 3. p(x + y) ≤ p(x) + p(y) (disuguaglianza triangolare). Lo spazio (X, p) è detto spazio normato e p(x) è detta norma di x e si indica con kxk. Uno spazio normato completo si chiama spazio di Banach. In questo caso ovviamente la topologia è quella che segue dalla norma. Ogni spazio (reale) normato è anche metrico con la distanza data da ρ(x, y) = kx − yk. 3.1 Esempi di spazi normati 1. IR con la norma kxk = |x|; pPn 2 2. IRn con la norma kxk = k=1 xk ; Pn 3. IRn1 con la norma kxk1 = k=1 |xk |; 4. IRn∞ con la norma kxk∞ = max1≤k≤n |xk |; pPn 2 5. C I n con la norma kxk = k=1 |xk | ; 6. C[a, b] con la norma kf k = maxa≤t≤b |f (t)|; pP∞ 2 7. ℓ2 con la norma kxk = k=1 |xk | ; La verifica del fatto che quelle definite negli esempi sopra siano effettivamente delle norme si effettua come per gli esempi dati nella sezione precedente. 4 Spazi Euclidei ♣ Se non specificato diversamente, in questa sezione x, y, z, ... sono arbitrari elementi (vettori) di uno spazio lineare X, mentre α, β, ... sono numeri complessi arbitrari. • Definizione (spazio euclideo) – Si chiama spazio euclideo (complesso) uno spazio lineare (complesso) X in cui è definito un prodotto scalare. Questo è un funzionale (x, y) che ad ogni coppia di elementi x, y ∈ X associa un numero (complesso) e gode delle seguenti proprietà: 1. (x, x) ≥ 0 e inoltre 2. (x, y) = (y, x) 3. (x, α y) = α (x, y) , (x, x) = 0 se e solo se x = 0; (la barra rappresenta la coniugazione complessa); (α x, y) = ᾱ (x, y); 4. (x, y + z) = (x, y) + (x, z) , (x + z, y) = (x, y) + (z, y). Per la coniugazione complessa usiamo indifferentemente la barra sopra il simbolo o l’asterisco ∗ . ♣ Se lo spazio euclideo è complesso bisogna fare attenzione all’ordine degli elementi che formano il prodotto scalare, che in questo caso non è simmetrico a causa della proprietà 2. Ogni spazio euclideo è anche normato e di conseguenza metrico (se è reale). Infatti, mediante il prodotto scalare si può definire la norma kxk del generico elemento x ∈ X, vale a dire p (4.1) kxk = (x, x) , che gode delle proprietà richieste 1) kxk ≥ 0 e kxk = 0 se e solo se x = 0; 2) kα xk = |α| · kxk; 3) kx + yk ≤ kxk + kyk (disuguaglianza triangolare). Le proprietà 1) e 2) seguono direttamente dalle proprietà del prodotto scalare, mentre la 3) segue dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz. Nel paragrafo precedente questa disuguaglianza (vedi 2.1) si è dimostrata in un caso particolare, ma vale in generale e negli spazi euclidei si scrive nella forma compatta2 |(x, y)| ≤ kxk kyk . (4.2) 2 Si ricordi che il modulo del prodotto di due vettori è uguale al prodotto dei moduli per il coseno del’angolo compreso, che è sempre minore di 1. Questa si dimostra facilmente considerando la disuguaglianza 0 ≤ (λx + y, λx + y) = |λ|2 (x, x) + λ̄(x, y) + λ(y, x) + (y, y) = ||x||2 |λ|2 + 2 Re [λ(y, x)] + ||y||2 . Poiché λ è un un numero complesso arbitrario si può scegliere λ= (x, y) t, |(x, y)| t ∈ IR =⇒ Re [λ(y, x)] = |(x, y)| t . Con questa scelta si ricava la disequazione ||x||2 t2 + 2|(x, y)|t + ||y||2 ≥ 0 , che è sempre verificata se il discriminante è negativo o nullo. Imponendo tale condizione si ottiene direttamente la (4.2). Mediante la norma si può definire la “distanza” ρ(x, y) fra due punti arbitrari x, y ∈ X, ossia ρ(x, y) = kx − yk . Questa gode delle proprietà richieste: 1) ρ(x, y) ≥ 0 e ρ(x, y) = 0 se e solo se x = y; 2) ρ(x, y) = ρ(y, x); 3) ρ(x, y) ≤ ρ(x, z) + ρ(y, z) (disuguaglianza triangolare). Se lo spazio euclideo è reale allora ρ è un vera distanza. In ogni spazio euclideo la somma, il prodotto per un numero e il prodotto scalare sono continui. Questo significa che se {xn } e {yn } sono due successioni che convergono a x e y rispettivamente e αn è una successione numerica che converge ad α, allora si ha xn + yn → x + y , αn xn → αx , (xn , yn ) → (x, y) . La convergenza nello spazio X va intesa rispetto alla norma, vale a dire: xn → x significa che kxn − xk → 0. Per la dimostrazione si usano le proprietà della norma e del prodotto scalare. Quindi k(xn + yn ) − (x + y)k = k(xn − x) + (yn − y)k ≤ kxn − xk + kyn − yk → 0 , kαn xn − αxk = k(αn − α + α)(xn − x + x) − αxk ≤ |αn − α| kxn − xk + |αn − α| kxk + |α| kxn − xk → 0 , |(xn , yn ) − (x, y)| = |(xn − x + x, yn − y + y) − (x, y)| = |(xn − x, yn − y) + (xn − x, y) + (x, yn − y)| ≤ kxn − xk kyn − yk + kxn − xk kyk + kxk kyn − yk → 0 . In uno spazio euclideo reale, la norma rappresenta la “lunghezza del vettore” e il prodotto scalare permette di definire l’angolo φ formato da due vettori x, y (non nulli) mediante la relazione cos φ = (x, y) , kxkkyk 0 ≤ φ ≤ π, (spazio reale). (4.3) Se φ = π/2 i due vettori si dicono ortogonali. Se lo spazio in questione è complesso, la relazione (4.3) perde in generale il suo significato geometrico in quanto il prodotto scalare può essere complesso (φ non è più un angolo, tuttavia rimane valido il concetto di ortogonalità fra vettori. In uno spazio euclideo (complesso) un sistema di vettori non nulli {xi } si dice ortonormale se 0 per i 6= j , (xi , xj ) = δij , δij = 1 per i = j e semplicemente ortogonale se tutti i vettori in questione non hanno norma uguale a 1. Si verifica facilmente che i vettori ortogonali sono fra loro linearmente indipendenti. Infatti si ha (basta moltiplicare scalarmente per xi generico) α1 x1 + α2 x2 + ... + αn xn = 0 =⇒ αi = 0 , i = 1, 2, ..., n . Un sistema (ortogonale) si dice completo se il più piccolo sottospazio (chiuso) di X che contiene lo spazio generato dal sistema è X stesso. In tal caso il sistema (ortogonale/ortonormale) forma una base (ortogonale/ortonormale) e ogni elemento di X si può scrivere (in un solo modo) come combinazione lineare dei vettori di base. In ogni spazio euclideo X separabile esiste sempre un sistema ortonormale completo e ogni sistema ortonormale è numerabile (o finito). L’esistena di una base f1 , f2 , ...fn ... deriva direttamente dall’ipotesi di separabilità. Infatti, se lo spazio è separabile, esiste un sottoinsieme G numerabile ovunque denso in X. Da questo sottoinsieme basta quindi estrarre un insieme di vettori linearmente indipendenti e poiché G è denso in X, il sistema estratto sarà completo. A questo punto, usando la ‘procedura di ortonormalizzazione (vedi sotto) si potrà costruire una base ortonormale. • Teorema (ortonormalizzazione) – Dato un insieme di vettori f1 , f2 , ..., fn , ... linearmente indipendenti, è possibile Pn costruire un insieme di vettori ortonormali ϕ1 , ϕ2 , ..., ϕn , ... tali che 1) ϕnP= k=1 ank fk , con ann 6= 0; n 2) fn = k=1 bnk ϕk , con bnn 6= 0. • Dimostrazione – La dimostrazione è costruttiva nel senso che permette effettivamente di costruire l’insieme cercato. Per cominciare si pone ϕ1 = a11 f1 , |a11 | = 1 , kf1 k b11 = 1 . a11 I coefficienti a11 , b11 sono determinati a meno di un fattore di fase. Una volta costruito ϕ1 si costruisce ϕ2 mediante ϕ2 = h2 , kh2 k f2 = b21 ϕ1 + h2 . Il coefficiente b21 si determina imponendo che h2 sia ortogonale a ϕ1 . In tal modo si ha (ϕ1 , f2 ) − b21 = 0 =⇒ b21 = (ϕ1 , f2 ) , h2 = f2 − (ϕ1 , f2 ) ϕ1 . Ora si procede allo stesso modo e si costruisce ϕ3 , ϕ4 , .... Dati ϕ1 , ϕ2 , ..., ϕn−1 si costruisce ϕn mediante hn , ϕn = khn k fn = n−1 X bnk ϕk + hn k=1 e i coefficienti si ricavano imponendo che hn sia ortogonale a tutti i ϕk per k < n. In tal modo si ottiene bnk = (ϕk , fn ) , In conclusione si ha hn ϕn = , khn k k = 1, 2, ..., n − 1 . hn = fn − X k = 1n−1 (ϕk , fn )ϕk , che permette di ricavare i vettori ortonormali in modo ricorsivo. 4.1 Esempi di spazi euclidei IR – La retta reale è uno spazio euclideo (reale) di dimensione 1. Il prodotto scalare è banalmente il prodotto fra numeri reali e la norma coincide con il modulo. La distanza è il modulo della differenza. IRn – Le n-uple ordinate x ≡ (x1 , x2 , ..., xn ) di numeri reali formano uno spazio euclideo (reale) di dimensione n con il prodotto scalare dato da (x, y) = x1 y1 +x2 y2 +...+xn yn . Una base ortonormale è data dai versori e1 = (1, 0, 0, ..., 0) , e2 = (0, 1, 0, ..., 0) , ... en = (0, 0, 0, ..., 1) . ℓ2 – P Lo spazio i cui elementi sono della forma x ≡ (x1 , x2 , ..., xn , ...) (xk ∈ C) I P con la condizione ∞ ∞ 2 ∗ k=1 |xk | < ∞. Questo spazio, munito del prodotto scalare (x, y) = k=1 xk yk , è uno spazio euclideo (complesso) infinito-dimensionale. Una base è data dal sistema di infiniti vettori e1 = (1, 0, 0, ...) , e2 = (0, 1, 0, ...) , e3 = (0, 0, 1, ...) , .... C2 [a, b] – Lo spazio delle funzioni complesse, continue nell’intervallo [a, b] munito del prodotto scalare Rb (f, g) = a f ∗ (t)g(t) dt è uno spazio euclideo complesso infinito-dimensionale. Una base {ϕn , ψn } per questo spazio è data dalle funzioni trigonometriche 2πn t 2πn t ϕ0 (t) = 1 , ϕn (t) = cos , ψn (t) = sin , n = 1, 2, 3, ... b−a b−a L’ortogonalità di questo sistema si verifica direttamente, mentre la completezza è una diretta conseguenza del teorema di Weierstrass (La completezza di un sistema in genere è assai difficile da dimostrare). ♣ Si faccia attenzione a non confondere la completezza del sistema ortonormale con la completezza dello spazio su cui si lavora. In questo caso infatti il sistema trigonometrico è completo, mentre lo spazio C2 [a, b] non lo è, in quanto esistono successioni di funzioni continue che convergono a a funzioni discontinue (si veda la sezione (5.4)), 4.2 Sistemi ortonormali chiusi ♣ Da ora in avanti si assumerà che tutti gli spazi in esame siano separabili. Dato un vettore x in IRn e una base ortonormale {ek } si ha x= n X ck ek , ck = (ek , x) , k=1 dove i coefficienti ck rappresentano le coordinate del vettore rispetto alla base data (se la base è quella dell’esempio precedente allora ck sono le coordinate cartesiane, che sopra abbiamo indicato con xk ). Il concetto di “coordinata” si può generalizzare anche al caso in cui lo spazio sia infinito-dimensionale. Sia infatti X uno spazio euclideo infinito-dimensionale (separabile) e ϕn un sistema ortonormale. Dato un arbitrario elemento f ∈ X, che chiameremo ancora vettore, definiamo le sue “coordinate” ck , dette in questo caso coefficienti di Fourier (in senso generalizzato-vedi sezione (5.4)), mediante la relazione ck = (ϕk , f ) , c∗k = (ϕk , f ) = (f, ϕk ) , k = 1, 2, 3, ... e consideriamo la serie formale ∞ X ck ϕk , (serie di Fourier). (4.4) k=1 La serie precedente sarà detta serie di Fourier (in senso generalizzato-vedi sezione (5.4), del vettore f rispetto al sistema {ϕk }. E’ chiaro che tutto questo è sensato se la serie è convergente e se questa converge al vettore f . Per prima cosa dimostriamo che effettivamente la serie precedente è convergente per qualunque f ∈ X. Abbiamo n X ck ϕk , kf − Sn k ≥ 0 . Sn = k=1 Usando le proprietà della norma e la definizione di ck si ha n n n X X X cj ϕj ] ci ϕi ] , [f − ck ϕk k2 = [f − 0 ≤ kf − k=1 j=1 i=1 = kf k2 − = kf k2 − n X k=1 n X k=1 c∗k (ϕk , f ) − |ck |2 . n X k=1 ck (f, ϕk ) + n n X X c∗i cj (ϕi , ϕj ) i=1 j=1 (4.5) Dalla disuguaglianza precedente segue (per ogni n) n X k=1 |ck |2 ≤ kf k2 =⇒ ∞ X k=1 |ck |2 ≤ kf k2 , (disuguaglianza di Bessel) e di conseguenza la serie di partenza è convergente (qualunque sia n, la (4.5) è inferiore a kf k2 ). Come si vede, la serie (4.4) converge al vettore f (in norma) quando nell’ultima espressione sopra vale l’uguaglianza. Pn ♣ E’ interessante verificare che fra tutti i possibili vettori g = k=1 αk ϕk (dove n e αk sono arbitrari) costruiti mediante combinazioni lineari delle {ϕk }, quello che dà la migliore approssimazione per f si ottiene con αk = ck . Infatti, procedendo come sopra si ha kf − gk2 = kf − n X αk ϕk k2 = kf k2 − k=1 n X = kf k2 − k=1 |ck |2 + n X k=1 n X (αk∗ ck + αk c∗k ) + k=1 n X k=1 |αk |2 |αk − ck |2 . Questa espressione è chiaramente minima per αk = ck . Come detto sopra, la serie (4.4) converge al vettore f quando la relazione di Bessel diventa un’uguaglianza, ossia quando il sistema ortonormale è chiuso. • Definizione (sistema chiuso) – Il sistema ortonormale {ϕk } si dice chiuso se vale la relazione di Parseval ∞ X k=1 |ck |2 = kf k2 , (uguaglianza di Parseval). Si è detto precedentemente che in ogni spazio euclideo separabile esiste sempre un sistema ortonormale (numerabile) completo. Ora dimostriamo che ogni sistema ortonormale completo è anche chiuso e quindi completezza e chiusura del sistema diventano concetti “equivalenti”. • Teorema – In ogni spazio euclideo separabile X, ogni sistema ortonormale chiuso {ϕk } è completo e viceversa. • Dimostrazione – Sia {ϕk } chiuso. Allora ogni elemento f ∈ X si può sviluppare in serie di Fourier, ossia si può approssimare, con precisione a piacere, mediante una combinazione di vettori {ϕk }. Questo significa che lo spazio generato da {ϕk } è denso in X e quindi il sistema è completo per definizione di completezza. – Sia {ϕk } completo. Allora ogni elemento f ∈ X si può approssimare, con precisione a piacere, mediante una combinazione di vettori di base. In particolare, per quanto visto nell’osservazione sopra, fra tutte le possibili combinazioni che approssimano f , la somma costruita con i coefficienti di Fourier ck è la più precisa. Questo significa che fissato ε > 0 piccolo a piacere si ha ε > kf − n X k=1 αk ϕk k ≥ kf − n X k=1 ck ϕk k (4.6) e questo implica che la serie di Fourier converge a f e di conseguenza vale la relazione di Parseval. Quindi il sistema è chiuso. ♣ Questo teorema ci assicura che ogni vettore in uno spazio euclideo separabile e completo ha uno sviluppo rispetto ad una base ortonormale. Questo sviluppo è unico e i coefficienti sono quelli di Fourier. 4.3 Teorema di Riesz-Fischer Siano dati un sistema ortonormale (non necessariamente completo) e una successione di numeri c1 , c2 , c3 .... Ci si può chiedere sotto quali condizioni questi numeri sono i coefficienti di Fourier di qualche vettore f ∈P X rispetto al sistema dato. Come segue dalla disuguaglianza di Bessel, una condizione necessaria è ∞ che k=1 |ck |2 < ∞. Se lo spazio è completo, questa condizione è anche sufficiente. • Teorema di Riesz-Fischer – Sia {ϕk } un sistema in uno spazio euclideo X separabile Portonormale ∞ e completo e {ck } una successione numerica tale che k=1 |ck |2 < ∞. Allora esiste un elemento f ∈ X per cui ∞ X ck = (ϕk , f ) , k=1 |ck |2 = kf k2 . • Dimostrazione – Poniamo fn = n abbastanza grande si ha kfn+p − fn k2 = k n+p X k=n+1 Pn ck ϕk k2 = k=1 ck ϕk . n+p X k=n+1 Questa è una successione fondamentale in quanto, per |ck |2 < ε . L’ultima espressione segue dall’ipotesi di convergenza. Inoltre, per l’ipotesi di completezza di X, deve esistere un vettore f ∈ X tale che fn → f , vale a dire kf − fn k → 0 . Ora osserviamo che, per n ≥ k si ha (ϕk , f ) = (ϕk , fn ) + (ϕk , f − fn ) = ck + (ϕk , f − fn ) . Passando al limite per n → ∞ e usando la continuità del prodotto scalare si ottiene la prima tesi (ϕk , f ) = ck . Per ricavare la seconda basta sviluppare la norma n n n X X X |ck |2 cj ϕj ] = kf k2 − ci ϕi ] , [f − kf − fn k2 = [f − i=1 j=1 k=1 e passare al limite per n → ∞. • Teorema – In uno spazio euclideo separabile e completo, un sistema {ϕn } ortonormale è completo se o solo se l’unico vettore ortogonale a tutti i ϕn è il vettore nullo. • Dimostrazione – La condizione è necessaria. Infatti se {ϕn } è completo, allora è anche chiuso e per ogni f vale l’uguaglianza di Parseval. In particolare, se f è ortogonale a tutti i {ϕn }, i suoi coefficienti di Fourier sono tutti nulli e dunque X kf k2 = |ck |2 = 0 =⇒ f = 0 . k La condizione è sufficiente. Infatti, se {ϕn } non è completo si può trovare un elemento g 6= 0 per cui vale la disuguaglianza di Bessel X kgk2 > |ck |2 , ck = (ϕk , g) . k D’altra parte, per il teorema di Riesz-Fischer, data la successione ck , esiste un elemento f ∈ X per cui vale l’uguaglianza X kf k2 = |ck |2 , ck = (ϕk , f ) . k Confrontando le due relazioni precedenti si ottiene X (ϕk , f − g) = 0 , kf k2 = |ck |2 > kgk2 . k Dall’ultima uguaglianza segue che f − g è ortogonale a tutti i ϕk , mentre dalla disuguaglianza si ha che f − g 6= 0 . 5 Spazi di Hilbert • Definizione – Due spazi euclidei X e X̃ si dicono isomorfi se fra di essi esiste una corrispondenza biunivoca che ad ogni elemento di x ∈ X associa un elemento x̃ ∈ X̃ che conserva la linearità e il prodotto scalare, vale a dire x ↔ x̃ , y ↔ ỹ =⇒ x + y ↔ x̃ + ỹ , αx ↔ αx̃ , (x, y) ↔ (x̃, ỹ) . ♣ Tutti gli spazi euclidei (reali) di dimensione n finita sono isomorfi a IRn . Quindi IRn si può usare come modello per qualunque spazio euclideo (reale) n-dimensionale. Questo deriva dal fatto che il generico elemento x dello spazio euclideo X di dimensione n si può sviluppare rispetto ad una base di n vettori ortonormali. Le componenti (c1 , ..., cn ) di x formano un elemento di IRn (se X è reale, altrimenti di C I n ) e quindi ad ogni vettore in X corrisponde un elemento di IRn . Vale anche il viceversa. Questa corrispondenza biunivoca conserva la linearità e il prodotto scalare. La stessa cosa non vale per gli spazi euclidei di dimensione infinita. A tale scopo basta ricordare che lo spazio C2 [a, b] delle funzioni continue in [a, b] con il prodotto scalare Z b dt f¯(t)g(t) , (f, g) = a non è completo (successioni di funzioni continue possono convergere a funzioni discontinue) e quindi non può essere isomormfo ad uno spazio euclideo completo. • Definizione – Uno spazio euclideo completo, infinito-dimensionale è detto spazio di Hilbert. Un esempio importante di spazio di Hilbert separabile è lo spazio ℓ2 i cui elementi sono della forma x ≡ (x1 , x2 , ..., xn , ...) (xk ∈ C) I con la condizione P P∞ ∞ 2 ∗ k=1 |xk | < ∞, munito del prodotto scalare (x, y) = k=1 xk yk . • Teorema – Tutti gli spazi di Hilbert separabili sono isomorfi fra loro. • Dimostrazione – E’ sufficiente dimostrare che ogni spazio di Hilbert H separabile è isomorfo a ℓ2 . A tal scopo si consideri un generico vettore f ∈ H, una base ortonormale ϕn e i coefficienti di Fourier ak = (ϕk , f ). Per la disuguaglianza di Bessel, la successione a ≡ (a1 , a2 , a3 , ...) è un elemento di ℓ2 . Quindi ad ogni f ∈ H corrisponde un elemento di ℓ2 . Viceversa, dato un vettore {ak } ∈ ℓ2 , per il teorema di Riesz-Fischer si trova un vettore f ∈ H avente ak come coefficienti di Fourier. Dunque esiste una corrispondenza biunivoca fra H e ℓ2 . Usando la continuità del prodotto scalare si verifica facilmente che tale corrispondenza conserva la linearità e il prodotto scalare e quindi è un isomorfismo fra spazi di Hilbert. Infatti, dati f, g ∈ H e i corrispondenti a, b ∈ ℓ2 , cioè f ↔ a ≡ (a1 , a2 , a3 , ...) , g ↔ b ≡ (b1 , b2 , b3 , ...) , si ha αf ↔ αa, (f + g) ↔ (a + b) , (f, g) ↔ (a, b) , per ogni α ∈ C. I Le prime due implicazioni si verificano immediatamente, mentre per la terza abbiamo ∞ ∞ ∞ ∞ X X X X b j ϕj = ai ϕi , a∗k bk = (a, b) . (f, g) = a∗i bj (ϕi , ϕj ) = i=1 j=1 i,j=1 k=1 Da questo teorema segue che ogni spazio euclideo infinito-dimensionale, separabile e completo è isomorfo a ℓ2 , il quale è quindi un modello per qualunque spazio di Hilbert separabile. Un altro modello importante è dato da L2 , vale a dire dalle funzioni a quadrato sommabile (secondo Lebesgue). Lo spazio di Hilbert L2 [a, b] è il completamento di C2 [a, b]. 5.1 Lo spazio L2 Per i nostri scopi sarà sufficiente considerare funzioni f : IRn → C, I con la misura solita, ma IRn può essere sostituito da qualunque spazio misurabile X con misura di Lebesgue µ. Sia quindi Z 2 L2 (X, µ) ≡ f : X → C I tali che dµ |f (x)| < ∞ , dove x ∈ X, dµ è la misura (di Lebesgue) di X e l’integrale è fatto su tutto X (nelle applicazioni fisiche X ≡ IRn (o un sottospazio) e dµ ≡ dx = dx1 dx2 · · · dxn ). Si dimostra che lo spazio L2 (X, µ) (brevemente L2 (X) o L2 ) con il prodotto scalare Z (f, g) = dµ f¯(x)g(x) , (5.1) è uno spazio di Hilbert separabile (euclideo, completo, infinito-dimensionale e separabile). ♣ Queste due ultime affermazioni dipendono dalla misura di Lebesgue definita in X. Ci sono infatti spazi L2 (X, µ) che non sono separabili e anche casi degeneri di dimensione finita. Tutte le proprietà del prodotto scalare in (5.1) seguono banalamente dalle proprietà dell’integrale, dopo essersi accertati che tutti i passaggi formali sono effettivamente leciti. A questo scopo si deve osservare che, se f, g ∈ L2 e α ∈ C I allora f g ∈ L1 , αf ∈ L2 , f + g ∈ L2 . (5.2) Queste proprietà sono una diretta conseguenza di 1 |f (x)|2 + |g(x)|2 , 2 |αf (x)|2 = |α|2 |f (x)|2 , |f (x) + g(x)|2 = |f (x)|2 + 2|f (x)g(x)| + |g(x)|2 ≤ 2 |f (x)|2 + 2 |g(x)2 ] . |f (x)g(x)| ≤ La prima delle proprietà in (5.2) assicura l’esistenza dell’integrale che definisce il prodotto scalare per ogni coppia di funzioni appartenenti a L2 . Dato il prodotto scalare si ha la norma Z 1/2 kf k ≡ kf k2 = |f (x)|2 dx e si dirà che la successione di funzioni fn ∈ L2 converge in media (quadratica) a f ∈ L2 se Z 1/2 2 kfn − f k = |fn (x) − f (x)| dx → 0. Questa è la convergenza di f come vettore in uno spazio di Hilbert e non va confusa con la convergenza puntuale delle funzioni fn (x), che, fissato x è una convergenza in C. I ♣ Una funzione f a quadrato sommabile in X non è necessariamente integrabile, vale a dire che f ∈ L2 (X) non implica f ∈ L1 (X). Allo stesso modo f ∈ L1 (X) non implica f ∈ L2 (X). A titolo di esempio si considerino le due funzioni f1 (x) = 1 , (x2/3 + 1) x2/3 f2 (x) = 1 , x2/3 + 1 x ∈ IR . Come si verifica rapidamente, f1 ∈ L1 (IR, dx) ma f1 ∈ / L2 (IR, dx) (|f1 |2 non è integrabile nell’origine), mentre f2 ∈ L2 (IR, dx) ma f2 ∈ / L1 (IR, dx) (|f2 | non è integrabile all’infinito). Questo si verifica in uno spazio con misura infinita. Se X ha misura finita, allora L2 (X) ⊂ L1 (X). Infatti, se X ha misura finita, le costanti appartengono a L2 (anche a L1 ovviamente). Usando la prima delle proprietà riportate sopra allora si ha che f = 1 · f ∈ L1 (X) per ogni f ∈ L2 . 5.2 Completezza di L1 e L2 L1 (X) è uno spazio di Banach, vale a dire normato e completo, ma non è uno spazio euclideo. In L1 infatti si può definire una norma (anche se X ha misura infinita) mediante Z dx |f (x)| , kf k1 = X ma non un prodotto scalare. Ogni successione di Cauchy converge a un elemento di L1 e quindi lo spazio è completo. Dimostriamo ora la completezza di L1 perché servirà in seguito per dimostrare la completezza di L2 , che è lo spazio di Hilbert che ci interessa. Consideriamo allora una generica successione fondamentale fn ∈ L1 e mostriamo che questa converge, nella norma di L1 , sempre ad un elemento di L1 . Poiché {fn } soddisfa il criterio di convergenza di Cauchy, da essa si può estrarre un sottosuccessione {gk }, anch’essa fondamentale e tale che Z 1 kgk+1 − gk k1 = dx |gk+1 (x) − gk (x)| < k . 2 X Con gk (x) costruiamo ora la successione di funzioni positive Gk (x) = |g1 (x)| + |g2 (x) − g1 (x)| + ... + |gk (x) − gk−1 (x)| , che per costruzione gode delle proprietà Z G1 (x) ≤ G2 (x) ≤ G3 (x) ≤ ... X dx Gk (x) < k−1 X j=0 1 < 2. 2j La successione soddisfa tutte le ipotesi del teorema di Levi e questo ci assicura che Gk (x) converge quasi ovunque ad una funzione G(x) (convergenza puntuale) il cui integrale è il limite degli integrali di Gk (x). La convergenza e l’integrabilità di Gk (x) implica la convergenza (quasi ovunque) e l’integrabilità di gk (x) in quanto si ha |gk (x)| = |g1 (x) + g2 (x) − g1 (x) + ... + gk (x) − gk−1 (x)| ≤ Gk (x) . Poniamo g(x) = limk→∞ gk (x). Questa è una convergenza puntuale, mentre per la completezza è necessaria la convergenza nella norma di L1 . Questa si ottiene ricordando che gk (x) è una successione fondamentale in L1 . Questo significa che comunque fissato ε > 0, per i, j abbastanza grandi si ha Z kgi (x) − gj (x)k1 = dx |gi (x) − gj (x)| < ε . X Vediamo che fissato i, hj (x) = |gi (x) − gj (x)| è una successione di funzioni che soddisfa tutte le ipotesi del teorema di Fatou. E’ quindi lecito passare al limite j → ∞ sotto il segno di integrale. Prendendo questo limite nell’equazione precedente si ricava Z dµ |gi (x) − g(x)| < ε =⇒ lim kgk (x) − g(x)k1 = 0 , X k→∞ ottenendo in tal modo che la successione di funzioni gk converge a g anche in norma L1 . Per completare la dimostrazione si deve verificare che anche la successione originale {fn } converge a f ∈ L1 . A tale scopo osserviamo che per ogni ε > 0, per n, j abbastanza grandi si ha kfn − gk k1 < ε , kgk − gk1 < ε , da cui segue kfn − gk1 = kfn − gk + gk − gk1 ≤ kfn − gk k1 + kgk − gk1 < 2ε . Questo significa che la successione originale converge a f = g ∈ L1 e lo spazio è quindi completo. • Teorema – Lo spazio L2 (X, µ) è completo. • Dimostrazione – Consideriamo per semplicità il caso in cui la misura di X è finita, vale a dire µ(X) < ∞. Si deve dimostrare che ogni successione fondamentale {fn } di funzioni in L2 converge ad un elemento di L2 . In uno spazio di misura finita L2 ⊂ L1 e questo implica che una successione fondamentale in L2 sia anche fondamentale in L1 . Infatti dalla (4.2) si ottiene Z kfn (x) − fm (x)k1 ≡ dx |fn (x) − fm (x)| = (1, |fn − fm |) X p ≤ k1k kfn − fm k = µ(X) kfn (x) − fm (x)k < ε µ(X) . Qui kf k ≡ kf k2 rappresenta la norma in L2 . Per quanto si è visto sopra nel dimostrare la completezza di L1 , da ogni successione fondamenale {fn } si può estrarre una sottosuccesione fondamentale {gk } convergente quasi ovunque ad una funzione g(x) ∈ L1 . Poiché {gk } è fondamentale anche in L2 , per ogni ε > 0 e i, j abbastanza grandi si ha Z kgi − gj k2 = dx |gi (x) − gj (x)|2 < ε2 . X Fissato i, la successione di funzioni hj (x) = |gi (x) − gj (x)|2 soddisfa le ipotesi del teorema di Fatou e quindi si può passare al limite j → ∞ sotto il segno di integrale ottenendo Z dx |gi (x) − g(x)|2 < ε =⇒ lim kgi − gk = 0 , g(x) ∈ L2 . i→∞ X Il fatto che g ∈ L2 è dovuto alla linearità dello spazio. Infatti sappiamo che il vettore gi ∈ L2 e il teorema di Fatou ci assicura che anche il vettore (g − gi ) ∈ L2 . Quindi anche la loro somma deve appartenere a L2 . Come sopra ora verifichiamo che g è anche il limite della successione originale {fn }. Per ogni ε > 0 e n, k abbastanza grandi abbiamo kfn − gk = kfn − gk + gk − gk ≤ kfn − gk k + kgk − gk < 2ε , da cui segue che fn → f = g ∈ L2 e quindi lo spazio è completo. ♣ La dimostrazione si estende al caso in cui X è un insieme misurabile di misura infinita, usando il fatto che X è unione numerabile di insiemi disgiunti di misura finita e la σ-additività della misura di Lebesgue. 5.3 Basi ortonormali in L2 Come segue dalle considerazioni di carattere generale, in L2 (spazio euclideo infinito-dimensionale, separabile e completo) esiste un sistema ortonormale completo ϕk per cui ogni f ∈ L2 si può scrivere nella P∞ forma f = k=1 ck ϕk , dove i coefficienti di Fourier {ck } formano un elemento di ℓ2 . Valgono le relazioni Z ∞ X |ck |2 , ck = (ϕk , f ) . kf k2 = (f, f ) = |f (x)|2 dx = k=1 5.4 Sistema trigonometrico Si consideri lo spazio delle funzioni a quadrato sommabile nell’intervallo [−π, π]. E’ immediato verificare che le funzioni trigonometriche 1 ϕ0 = √ , 2π ϕn (x) = cos nx √ , π sin nx ψn (x) = √ π (5.3) appartengono a L2 ([−π, π]) e sono fra loro ortonormali. Inoltre formano un sistema completo come conseguenza di un teorema di Weierstrass (vedi dimostrazione sotto). Ogni funzione f ∈ L2 ([−π, π]) avrà quindi uno sviluppo della forma f = c0 ϕ0 + ∞ X n=1 cn ϕn + ∞ X n=1 c̃n ψn = ∞ ∞ X a0 X bn sin nx , an cos nx + + 2 n=1 n=1 (5.4) dove i coefficienti di Fourier sono dati da Z 1 π an = f (x) cos nx dx , π −π Z 1 π bn = f (x) sin nx dx , π −π n = 0, 1, 2, ... n = 1, 2, 3, ... (5.5) Non si deve dimenticare che la convergenza è in media quadratica. Questo significa che !2 Z π ∞ ∞ X a0 X bn sin nx dx → 0 . an cos nx + + f (x) − 2 −π n=1 n=1 In generale non vale la convergenza puntuale, vale a dire che la serie calcolata in un punto può differire dal valore della funzione calcolata nello stesso punto. Anziché [−π, π] si può considerare un intervallo arbitrario [−a, a] di lunghezza 2a. In tal caso per ogni f ∈ L2 ([−a, a]) si ha (basta fare il cambio di variabile x → πx/a) f= 5.5 ∞ ∞ nπx X nπx a0 X an cos bn sin + + , 2 a a n=1 n=1 an = bn = Z 1 a nπx f (x) cos dx , a −a a Z nπx 1 a f (x) sin dx , a −a a n = 0, 1, 2, ... n = 1, 2, 3, ... Forma complessa della serie di Fourier Si ottiene come conseguenza diretta delle formule di Eulero eix + e−ix eix − e−ix , sin x = . 2 2i Usando queste espressioni e ponendo cos x = an ∓ ibn a0 , α±n = , n = 1, 2, 3, ... 2 2 per ogni f ∈ L2 ([−π, π]) si ha Z π 1 αn = f (x)e−inx dx , n = 0, ±1, ±2, ... 2π −π ∞ X αn einx . f = α0 = (5.6) n=−∞ ♣ Il sistema {einx } non è normalizzato. Si ha infatti Z π imx inx ei(n−m) dx = 2π δmn . e ,e = −π Il sistema ortonormale corrispondente a quello in (5.3) è pertanto einx ϕn = √ , 2π n = 0, ±1, ±2, ... (5.7) e la serie di Fourier diventa f= ∞ X n=−∞ cn ϕn , 1 cn = (ϕn , f ) = √ 2π Z π −π f (x)e−inx dx , n = 0, ±1, ±2, ... 5.6 Completezza del sistema trigonometrico La completezza del sistema trigonometrico è una diretta conseguenza di un teorema di Weierstrass, che, in questo contesto, è una conseguenza del teorema di Fejer che ora dimostreremo. Consideriamo dapprima una funzione continua di periodo 2π sulla retta reale. Si deve osservare che la sua serie di Fourier potrebbe divergere in qualche punto. Quindi non basta la continuità per avere la convergenza delle somme parziali della serie di Fourier. Esistono tuttavia altre maniere di sommare la serie in modo da avere la convergenza. A tale scopo poniamo S0 (x) = a0 , 2 Sn (x) = n X [ak cos kx + bk sin kx] k=1 e consideramo la media aritmetica (somme di Fejer) S0 + S1 + S2 + ... + Sn−1 . n Introduciamo anche alcune utili funzioni che useremo nella dimostrazione del teorema di Fejer. σn = Nucleo di Dirichlet. Questo è definito dalla funzione " # n 1 1 X sin(n + 1/2)y cos ky . = + Dn (y) ≡ 2π sin(y/2) π 2 (5.8) k=1 L’ultima espressione deriva dall’identità trigonometrica ! n n 1 X 1 y 1 y 1 X 1 y − sin k − y cos ky sin + = sin + sin k + 2 2 2 2 2 2 2 k=1 k=1 1 y 1 3y y 1 = sin + sin y − sin n − y − sin + ... + sin n + 2 2 2 2 2 2 1 1 = y. sin n + 2 2 Nucleo di Fejer. Questo è definito mediante la funzione Φn (y) = 2 n−1 sin ny/2 1 X sin(k + 1/2)y 1 = . 2πn sin y/2 2πn sin y/2 (5.9) k=0 e gode delle proprietà (si verificano direttamente) Z π dy Φn (y) = 1 , Φn (y) ≥ 0 , −π Z −δ dy Φn (y) = −π Z π dy Φn (y) , δ per ogni n e δ > 0 fissati. Inoltre si ha Z π Z −δ dy Φn (y) = 0 . dy Φn (y) = lim lim n→∞ n→∞ −π δ L’uguaglianza trigonometrica in (5.9) si ottiene dall’identità seguente: 2 sin y sin(2k + 1)y = 2 sin y[cos y sin(2ky) + sin y cos(2ky)] = = sin 2y sin(2ky) + [1 − cos 2y] cos(2ky) cos 2ky − cos 2(k + 1)y . (5.10) Sommando si ha infatti n−1 X 2 sin y sin(2k + 1)y = n−1 X k=0 k=0 = = [cos 2ky − cos 2(k + 1)y] 1 − cos 2y + cos 2y − cos4y + ... + cos(2n − 1)y − cos(2ny) 1 − cos(2ny) = 2 sin2 (ny) . (5.11) • Teorema di Fejer – Se f è una funzione periodica e continua, allora la successione {σn } delle somme di Fejer converge uniformemente a f in ogni punto. • Dimostrazione – Dalla definizione dei coefficienti si ha # Z " n 1 π 1 X Sn (x) = (cos kt cos kx + sin kt sin kx) f (t) dt + π −π 2 k=1 # Z " n 1 π 1 X = cos k(t − x) f (t) dt + π −π 2 k=1 Z π Dn (t − x) f (t) dt . = −π Usando questa espressione nella definizione delle somme di Fejer e la forma del nucleo di Dirichlet si ottiene Z π Z π n−1 X sin(k + 1/2)z 1 σn (x) = dz Φn (z) f (x + z) , (5.12) dz f (x + z) = 2πn −π sin z/2 −π k=0 Tenendo conto della continuità e della periodicità di f si ha |f (x)| ≤ M , |f (x) − f (y)| < ε , per |x − y| < 2δ . Quindi |f (x) − σn (x)| Z π dz [f (x) − f (x + z)] Φn (z) = −π Z δ Z −δ dz |f (x) − f (x + z)| Φn (z) dz |f (x) − f (x + z)| Φn (z) + ≤ −δ −π Z π dz |f (x) − f (x + z)| Φn (z) + δ ≤ 2M Z −δ −π dz Φn (z) + ε Z δ dz Φn (z) + 2M −δ Z π dz Φn (z) . δ Come conseguenza delle proprietà di Φ(z), l’espressione precedente si può rendere piccola a piacere indipendentemente da x ∈ IR e questo implica la convergenza uniforme delle somme di Fejer. Per dimostrare la completezza del sistema trigonometrico in L2 [−π, π] ora basta osservare che • La convergenza uniforme implica la convergenza in media quadratica. Infatti, se fissato ε > 0, per n abbastanza grande si ha |f (x) − fn (x)| < ε, qualunque sia x, allora kf − fn k2 = Z X |f (x) − fn (x)|2 dx ≤ µ(X) ε2 . In questo caso particolare X = [−π, π], µ(X) = 2π e fn (x) = σn (x). • Lo spazio delle funzioni continue in [−π, π] è denso in L2 [−π, π], vale a dire che ogni funzione a quadrato sommabile si può approssimare, con approssimazione arbitraria, mediante funzioni continue. Nel caso in esame, data un’arbitraria funzione g ∈ L2 [−π, π] e ε > 0, si può trovare una funzione continua f (x) per cui kg − f k < ε e per l’osservazione precedente kf − σn k < ε per n abbastanza grande. Si ha allora kg − σn k = kg − f + f − σn k ≤ kg − f k + kf − σn k < 2ε , da cui segue che qualunque funzione g ∈ L2 [−π, π] si può sviluppare usando il sistema trigonometrico (5.3) o equivalentemente il sistema (5.7). Il sistema trigonometrico (5.3) costituisce dunque un sistema ortonormale completo (chiuso) in L2 [−π, π]. • Teorema I o di Weierstrass – Ogni funzione continua e periodica è il limite uniforme di una successione di polinomi trigonometrici. • Dimostrazione – Il teorema di Fejer dimostrato sopra afferma la stessa cosa e in più fornisce la successione di polinomi trigonometrici che converge uniformemente alla funzione. • Teorema II o di Weierstrass – Ogni funzione continua in un intervallo chiuso è il limite uniforme di una successione di polinomi algebrici. • Dimostrazione – Poiché la funzione data è continua in un intervallo chiuso, si può estendere ad una funzione continua e periodica di periodo T . Mediante un cambiamento di variabile il periodo può trasformare 2π e l’intervalle in [−π, π]. Per il teorema di Fejer la funzione ora si può approssimare mediante polinomi trigonometrici. A koro volta, questi si possono sviluppare in serie di Taylor che converge uniformemente in ogni intervallo finito. Mediante la trasformazione inversa si ottiene la tesi del teorema. 5.7 Polinomi di Legendre Le funzioni 1, x, x2 , ... permettono di costruire tutti i polinomi e quindi, come conseguenza del II o teorema di Weierstrass, formano una base per L2 [a, b]. Ortogonalizzando (con il metodo descritto precedentemente) questa base nell’intervallo [−1, 1] rispetto al prodotto scalare Z 1 dx f ∗ (x)g(x) , (f, g) = −1 si ottengono i polinomi di Legendre Pn (x), che sono polinomi di grado n per costruzione e, a meno di un fattore costante, coincidono con i polinomi Rn (x) = Cn dn (x2 − 1)n , dxn dove Cn è un fattore di normalizzazione. Questi sono infatti polinomi di grado n e si verifica direttamente che sono ortogonali. Quindi sia Pn che Rn appartengono al sottospazio generato da 1, x, ..., xn e sono ortogonali. Sono quindi proporzionali. Il fattore di normalizzazione si ricava direttamente e vale √ 2n + 1 √ . Cn = n!2n 2 I polinomi di Legendre non sono normalizzati. Sono dati dalla formula di Rogrigues Pn (x) = 1 dn (x2 − 1)n . n!2n dxn ♣ In L2 [a, b] si possono introdurre altre basi polinomiali, rispetto ad una misura diversa da quella usata sopra, vale a dire che il prodotto scalare è dato da Z b dµ f ∗ (x)g(x) , dµ = p(x) dx , (f, g) = a dove la funzione p(x) è una funzione data, sommabile e non negativa (funzione peso). 5.8 Polinomi di Hermite Volendo usare basi polinomiali in L2 [−∞, ∞] si è costretti ad usare una funzione peso in quanto i polinomi non sono a quadrato sommabile rispetto alla misura naturale sulla retta, ma lo diventano con la misura di Lebesgue dµ = exp(−x2 ) dx. Ortogonalizzando 1, x, x2 , ... in L2 [−∞, ∞] rispetto al prodotto scalare Z ∞ 2 dx e−x f ∗ (x)g(x) , (f, g) = −∞ si ottengono i Polinomi di Hermite 2 Hn (x) = (−1)n ex dn −x2 e . dxn I polinomi di Laguerre si ottengono in modo analogo ortogonalizzando 1, x, x2 , ... in L2 [0, ∞] con il prodotto scalare Z ∞ dx e−x f ∗ (x)g(x) . (f, g) = 0 6 Funzionali lineari continui • Definizione (funzionale) – Un funzionale è un’applicazione da uno spazio lineare X in C. I Il funzionale F : X → C I si dice lineare (anti-lineare) se è additivo e omogeneo, vale a dire se per ogni coppia di elementi x, y ∈ X e ogni numero complesso α si ha F (x + y) = F (x) + F (y) , F (α x) = α F (x) , lineare , ( F (α x) = ᾱ F (x) , anti-lineare ) . ♣ Si osservi che come conseguenza dell’omogeneità si ha F (0) = 0. Questo perché F (0) = F (0 x) = 0 F (x) = 0. Il prodotto scalare e l’integrale sono esempi importanti di funzionali lineari. • Definizione (continuità) – Un funzionale lineare F definito in uno spazio topologico si dice continuo nel punto x0 se, fissato ε > 0, esiste un intorno Ux0 di x0 per cui ∀ x ∈ Ux0 . |F (x) − F (x0 )| = |F (x − x0 )| < ε , • Teorema – Se un funzionale lineare è continuo in un punto allora è continuo in ogni punto. • Dimostrazione – Il teorema è una diretta conseguenza della linearità. Infatti, sia F un funzionale lineare continuo nel punto x0 , con intorno Ux0 . La trasformazione (traslazione) x → y = x + y0 − x0 manda il punto x0 con intorno Ux0 ∋ x nel punto y0 con intorno Vy0 ∋ y e per la linearità segue |F (y) − F (y0 )| = |F (y − y0 )| = |F (x) − F (x0 )| < ε . Per avere la continuità in X è quindi sufficiente che il funzionale sia continuo in un punto qualunque, ad esempio nell’origine. • Teorema – Affinché il funzionale lineare F sia continuo in X è necessario e sufficiente che F sia limitato in un intorno dell’origine, vale a dire |F (x)| < C per ogni x ∈ U0 . • Dimostrazione – La condizione è necessaria. Se F è continuo, allora, fissato ε > 0 esiste un intorno dell’origine U0 per cui |F (x)| = |F (x − 0)| < ε , x ∈ U0 e quindi il funzionale è limitato in un intorno dell’origine. – La condizione è sufficiente. Se F è limitato in un intorno dell’origine U0 , allora |F (x)| < C. Fissiamo ε > 0 e un intorno dell’origine V0 ottenuto mediante la trasformazione y = εx/C, per ogni x ∈ U0 . Per ogni y ∈ V0 otteniamo |F (y) − F (0)| = |F (y)| = |F (εx/C)| = ε |F (x)| < ε , C y ∈ V0 , x ∈ U0 . Vediamo dumque che il funzionale è continuo nell’origine e quindi in tutto X. • Teorema – In ogni spazio normato, un funzionale lineare è continuo se e soltanto se i suoi valori all’interno della sfera unitaria sono limitati. • Dimostrazione – E’ una diretta conseguenza del teorema precedente. Infatti negli spazi normati, ogni intorno dell’origine contiene una sfera e per la linearità si può considerare la sfera di raggio arbitrario, in particolare quella unitaria. • Definizione (norma) – In uno spazio normato si definisce la norma di un funzionale lineare mediante la relazione kF k = sup |F (x)| . (6.1) kxk=1 Valgono le relazioni kF k = sup x6=0 |F (x)| , kxk kF k = sup |F (x)| . kxk≤1 L’equivalenza fra la prima relazione e la (6.1) segue direttamente dall’omogeneità. Infatti si ha |F (x)| x = |F (y)| , x 6= 0 , kyk = 1 . = F kxk kxk Si vede dunque che l’estremo superiore della relazione precedente porta a (6.1). Per mostrare che anche la seconda è equivalente a (6.1), osserviamo che per ogni x ∈ X con x 6= 0 si ha |F (x)| ≤ kxk kF k =⇒ |F (x)| ≤ kF k , if kxk < 1 . Prendendo l’estremo superiore dell’ultima disuguaglianza abbiamo sup |F (x)| ≤ kF k =⇒ kxk<1 sup |F (x)| = kF k kxk≤1 e questo implica che |F (x)| raggiunge il suo massimo sulla sfera unitaria (al variare di x con kxk ≤ 1). Le tre espressioni date per la norma del funzionale lineare sono dunque equivalenti. ♣ Dalle definizioni di norma segue l’utile disuguaglianza |F (x)| ≤ kxk kF k , ∀x ∈ X . Esempi • Fissato un vettore a ∈ IRn , per ogni x ∈ IRn definiamo il funzionale F (x) = (a, x) . Dalle proprietà del prodotto scalare si verifica che questo è un funzionale lineare e inoltre è limitato (continuo). Infatti si ha |F (x)| = |(a, x)| ≤ kak · kxk =⇒ |F (x)| ≤ kak . kxk Dalla prima disuguaglianza si vede che |F (x)| ≤ kak all’interno della sfera unitaria kxk ≤ 1 e quindi è continuo. Prendendo l’estremo superiore nell’ultima equazione e osservando inoltre che F (a) = kak2 , si ottiene |F (a)| = kak =⇒ kF k = kak . kak kF k ≤ kak , • L’integrale F (g) = Z b dt g(t) , a con g(t) ∈ C[a, b] definisce un funzionale lineare limitato. La norma vale kF k = b − a. Infatti |F (g)| ≤ Z a b dt |g(t)| ≤ max |g(t)|(b − a) = kgk(b − a) . t∈[a,b] Come per l’esercizio precedente il funzionale è limitato all’interno della sfera unitaria e quindi è continuo. La relazione precedente vale per ogni g ∈ C[a, b]. In particolare, per g costante diventa un’uguaglianza, da cui segue il risultato cercato. 6.1 Spazio duale Dati due funzionali lineari F1 , F2 in uno spazio lineare X si definiscono le operazioni di somma F = F1 +F2 e prodotto per un numero complesso G = αF1 mediante F (x) = F1 (x) + F2 (x) , G(x) = α F1 (x) = F1 (αx) , ∀x ∈ X . E’ evidente che F e G cosı̀ definiti sono funzionali lineari e, se F1 e F2 sono continui, allora lo sono anche F, G. L’insieme dei funzionali lineari (continui) su X con le operazioni definite sopra costituisce uno spazio lineare, che viene detto spazio duale (o coniugato) di X e si indica con X ∗ (o X ′ ). In particolare, se X è normato, allora anche X ∗ è normato. Infatti, la norma introdotta sopra gode di tutte le proprietà della norma. La topologia corrispondente alla norma data viene detta topologia forte. • Teorema – Lo spazio duale X ∗ di uno spazio normato è completo (nella topologia forte). • Dimostrazione – Sia {Fn } una successione fondamentale di funzionali lineari (continui) in X ∗ . Allora si ha |Fn (x) − Fm (x)| ≤ kFn − Fm k kxk ≤ ε kxk . Questo significa che per ogni x ∈ X, la successione di numeri complessi {Fn (x)} è fondamentale e quindi Fn (x) → F (x), poiché C I è completo. Basta quindi verificare che F (x) definisce un funzionale F lineare e continuo. – La linearità si verifica banalmente; – per dimostrare la continutà basta effettuare il limite m → ∞ nell’espressione sopra. In tal modo si ha |Fn (x) − F (x)| ≤ ε kxk =⇒ kFn − F k ≤ ε =⇒ kF k ≤ ε + kFn k . Il funzionale F è quindi limitato (continuo) ed è il limite della successione {Fn }. ♣ Si noti che non è richiesta la completezza di X. Se X non è completo e X̄ è il suo completamento, allora X ∗ e X̄ ∗ sono isomorfi. 6.2 Base duale Sia X uno spazio lineare di dimensione n e {ek } una base. Allora ogni vettore x ∈ X e ogni funzionale lineare F si potranno scrivere nella forma x= n X xk ek , F (x) = n X F (xk ek ) = xk F (ek ) . k=1 k=1 k=1 n X I valori sui vettori di base defininiscono univocamente il funzionale lineare. Si definiscano ora i funzionali hi (ej ) = δij =⇒ hi (x) = n X hi (xk ek ) = xi , i, j = 1, 2, ..., n k=1 In tal modo si ha F (x) = n X xk F (ek ) = k=1 n X F (ek ) hk (x) =⇒ F = k=1 n X F (ek )hk k=1 e quindi i funzionali hk costituiscono una base nello spazio duale. Questa è detta base duale di ek . • Teorema di Riesz – Sia H uno spazio di Hilbert e F : H → C I un funzionale lineare continuo. Allora esiste sempre un unico elemento a ∈ H tale che F (x) = (a, x) , ∀x ∈ H , kF k = kak . (6.2) Vale anche il viceversa, ossia, un arbitrario elemento a ∈ H, definisce univocamente un funzionale lineare continuo mediante l’equazione (6.2), la quale determina quindi un isomorfismo fra H e H ∗ . • Dimostrazione – La dimostrazione del teorema è alquanto elaborata. Qui ci limitiamo a dimostrare soltanto la seconda parte, che è relativamente semplice. Sia allora a ∈ H un generico vettore. L’equazione (6.2) definisce centamente un funzionale lineare continuo come diretta conseguenza della linearità e continuità del prodotto scalare. Inoltre, sempre per le proprietà del prodottto scalare si ha |F (x)| |F (x)| = |(a, x)| ≤ kak kxk , =⇒ kF k = sup = kak . |F (a)| = |(a, a)| = kak2 , x6=0 kxk ♣ Questo teorema afferma di fatto che in uno spazio di Hilbert, il prodotto scalare rappresenta il più generale funzionale lineare continuo. 7 Distribuzioni Furono introdotte da Dirac (1930) in maniera puramente formale e successivamente trattate in maniera rigorosa da Sobolev (1936) e Schwartz (1950) e infine da Gelfand che ne completò l’opera. La necessità di generalizzare il concetto di funzione si incontra nella fisica ad esempio quando si vuole introdurre la densità (di massa, di carica, ...) per un corpo estremamente piccolo (puntiforme). Infatti, se ρε (x) è la densità di massa per un corpo omogeneo, sferico di raggio ε e massa unitaria m = 1, allora si ha 3 Z per kxk < ε , 4πε3 , dx ρε (x) = 1 , ρε (x) = 0, per kxk > ε , IR3 dove x ≡ (x1 , x2 , x3 ) e dx = dx1 dx2 dx3 è la misura di Lebesgue di IR3 . La densità di un punto materiale di massa unitaria sarà data formalmente da ∞ , per kxk = 0 , δ(x) = lim ρε (x) = (7.1) 0, per kxk 6= 0 , ε→0 e il suo integrale su tutto IR3 dovrà essere uguale a 1 (la massa del corpo). E’ chiaro che questo non ha significato nell’ambito delle funzioni. Per dare senso all’integrale di δ(x) si deve estendere il concetto di funzione. Ad esempio, presa un’arbitraria funzione continua ϕ(x), si ha Z Z 3 dxρ (x)ϕ(x) − ϕ(0) dx [ϕ(x) − ϕ(0)] = ε 3 4πε3 kxk<ε IR Z 3 dx |ϕ(x) − ϕ(0)| ≤ η , (7.2) ≤ 4πε3 kxk<ε dove, per la continuità della funzione, si è posto |f (x) − f (0)| ≤ η per kxk < ε. Dalla (7.2) si deduce Z lim dx ρε (x)ϕ(x) = ϕ(0) , ε→0 IR3 per ogni funzione continua. La quantità δ introdotta sopra si può quindi vedere come limite di una successione di funzionali ρε che operano nello spazio delle funzioni continue e dunque δ = limε→0 ρε va inteso come (δ, ϕ) = lim (ρε , ϕ) = ϕ(0) , ε→0 ∀φ ∈ C(IR3 ) . δ ha un significato matematicamente preciso come funzionale lineare, continuo. Questo è detto funzione generalizzata o più comunemente distribuzione. Per definire in modo matematicamente rigoroso il limite dell’integrale della densità ρε si è fatto ricorso all’uso di una funzione test ϕ(x) continua, ma arbitraria. Le distribuzioni sono dunque funzionali lineari, continui su uno spazio di funzioni test. E’ chiaro che “più grosso” è lo spazio delle funzioni test e “più piccolo” risulterà lo spazio delle distribuzioni. ♣ L’azione del funzionale F sulla funzione test ϕ si indica cumunemente con la notazione F (ϕ) ≡ (F, ϕ), che non va confusa con un prodotto scalare (si ricordi che ϕ e F appartengono a spazi differenti). 7.1 Funzioni test Si usano principalmente due spazi di funzioni test, ossia • D ≡ {ϕ : IRn → C} I funzioni continue, indefinitamente derivabili e a supporto compatto, vale a dire ϕ(x) ∈ C ∞ (IRn ) e ϕ(x) = 0 per kxk > Rϕ ; • S ≡ {ϕ : IRn → C} I funzioni continue, indefinitamente derivabili e a decrescenza rapida, vale a dire che ϕ(x), come pure tutte le sue derivate, si annulla all’infinito più rapidamente di qualunque potenza. Le proprietà delle distribuzioni dipendono dallo spazio a cui appartengono le funzioni test, in quanto, essendo funzionali lineari, vivono nello spazio duale D′ o S ′ . Le prime, agenti sullo spazio D, si dicono distribuzioni di Schwartz, mentre le seconde, agenti sullo spazio S, si dicono distribuzioni temperate. ♣ Ogni funzione indefinitamente derivabile e a supporto compatto appartiene banalmente anche a S e quindi D ⊂ S (lo spazio S è “più grosso” di D). Questo implica che S ′ ⊂ D′ e quindi tutte le distribuzioni temperate sono anche distribuzioni di Schwartz (lo spazio S ′ è più “piccolo” di D′ ). Si dimostra che D è denso in S. Questo significa che ogni funzione C ∞ e a decrescenza rapida si può approssimare, con precisione a piacere, mediante funzioni C ∞ e a supporto compatto. Notazioni. – Per semplificare la scrittura, conviene introdurre le seguenti notazioni: " n #1/2 X n 2 x ≡ (x1 , x2 , ..., xn ) ∈ IR , kxk = xk , k=1 α ≡ (α1 , α2 , ..., αn ) ∈ INn , αn 1 α2 xα = xα 1 x2 ... xn , |α| = α1 + α2 + ... + αn , Dα ϕ(x) = ∂ α1 +α2 +...+αn ϕ(x1 , x2 , ..., xn ) ∂xα11 ∂xα22 ... ∂xαnn dove IN è l’insieme dei numeri naturali compreso lo zero e α è un multi-indice (ogni αk è intero o nullo). 7.2 Lo spazio D E’ costituito dalle funzioni ϕ : IRn → C, I C ∞ e a supporto compatto. Questo significa che ogni funzione in D si annulla all’esterno di una sfera di raggio Rϕ , ϕ(x) = 0 , ∀x : kxk > Rϕ . La topologia dello spazio D è alquanto restrittiva. • Definizione (convergenza di funzioni test) – Si dirà che la successione {ϕk } ∈ D converge a ϕ ∈ D se esiste U che contiene il supporto di ϕ e tutti i supporti di ϕk e Dα ϕk (x) → Dα ϕ(x), per ogni x ∈ U e ogni α ∈ INn • Teorema – Dato un operatore A : D → X (X spazio topologico) le affermazioni seguenti sono equivalenti: A è continuo; A è limitato; Aϕk → 0, ∀ϕk : ϕk → 0. Esempi • Le funzioni (“campane”) ωε (x) = ( 1 Nε 0, ε2 , exp − ε2 −kxk 2 per kxk < ε , per kxk ≥ ε , (7.3) sono elementi di D qualunque sia ε. Nε è una costante di normalizzazione inessenziale per i nostri scopi. • Ogni operatore differenziale della forma P (x, ∂x ) ≡ X aα (x) Dα , |α|≤p è continuo e quindi limitato. aα (x) ∈ C ∞ , p ≥ 0, 7.3 Lo spazio S E’ costituito dalle funzioni ϕ : IRn → C, I C ∞ e a decrescenza rapida, più precisamente tali che h i ∀p ∈ IN , α ∈ INn . σp,α (ϕ) ≡ sup (1 + kxk2 )p/2 |Dα ϕ(x)| < ∞ , n x∈IR Le quantità σp,α (ϕ) o equivalentemente le quantità h i σp (ϕ) = sup σp,α (ϕ) = sup sup (1 + kxk2 )p/2 |Dα ϕ(x)| , |α|≤p |α|≤p x∈IRn costituiscono una famiglia di seminorme (possono annullarsi anche se ϕ 6= 0) con la proprietà σ0 (ϕ) ≤ σ1 (ϕ) ≤ σ2 (ϕ) ≤ ... , ∀ϕ ∈ S(IRn ) . Mediante questa famiglia di seminorme si definisce la topokogia di S. • Definizione (convergenza di funzioni test) – Si dirà che una successione di funzioni test {ϕk ∈ S} converge a 0 se e solo se σp,α (ϕk ) → 0 uniformemente per ogni p ∈ N e ogni α ∈ N n . • Definizione – L’operatore A : S → X (X è uno spazio lineare topologico), si dirà continuo se per ogni ϕk → 0 si ha Aϕk → 0. Esempi • E’ immediato verificare che le funzioni di Hermite √ 2 ϕn (x) = (2n n! π)−1/2 Hn (x) e−x /2 , 2 Hn (x) = (−1)n ex dn −x2 e , dxn appartengono a S(IR). • L’operatore Dα : S → S è continuo ∀α ∈ INn . ♣ Si dimostra che S(IRn ) è denso in Lp (IRn ) e in particolare in L2 (IRn ). Ciò significa che ogni funzione a quadrato sommabile si può approssimare mediante funzioni di S. 7.4 Distribuzioni di Schwartz Sono funzionali lineari e continui f : D → C. I Le distribuzioni di Schwartz sono dunque elementi dello spazio duale D′ (o D∗ ). Per ogni f ∈ D′ , ϕ, ϕn , ψ ∈ D e α, β ∈ C I si ha • (f, ϕ) ∈ C; I • (f, αϕ + βψ) = α(f, ϕ) + β(f, ψ), (linearità); • (f, ϕn ) → (f, ϕ), (continuità). Per quanto detto precedentemente riguardo agli spazi duali, D′ è uno spazio lineare, vale a dire (αf + βg, ϕ) = α(f, ϕ) + β(g, ϕ) , f, g ∈ D′ , ϕ ∈ D, α, β ∈ C I. • Definizione (convergenza di distribuzioni) – Si dice che {fn } ∈ D′ converge debolmente a f ∈ D′ se per ogni ϕ ∈ D si ha (fn , ϕ) → (f, ϕ) . • Teorema – D′ è uno spazio completo (nella topologia debole). Questo significa che se (fn , ϕ) → cϕ , allora esiste f per cui cϕ = (f, ϕ). In effetti, dato il numero complesso cϕ , il funzionale f definito dalla seguente equazione: (f, ϕ) = cϕ è lineare e continuo e quindi è una distribuzione di Schwartz. Infatti, usando la linearità di fn si ha (fn , ϕ + ψ) → cϕ+ψ ≡ (f, ϕ + ψ) , (fn , ϕ) → cϕ , =⇒ (fn , ϕ + ψ) → cϕ + cψ ≡ (f, ϕ) + (f, ψ) , (fn , ψ) → cψ , (fn , αϕ) → cαϕ ≡ (f, αϕ) , (fn , αϕ) → α cϕ ≡ α(f, ϕ) , e il funzionale è dunque lineare. Supponendo ϕk → ϕ in D, usando la continuità di fn e facendo i limiti n, k → ∞ si ottiene (fn , ϕk ) → (fn , ϕ) → (f, ϕ) , (fn , ϕk ) → (f, ϕk ) . Questo significa che fissato ε > 0 esistono n, k abbastanza grandi per cui |(f, ϕk ) − (fn , ϕk )| < ε , |(f, ϕ) − (fn , ϕk )| < ε , da cui segue |(f, ϕ) − (f, ϕk )| = |(f, ϕ) − (fn , ϕk ) + (fn , ϕk ) − (f, ϕk )| ≤ |(f, ϕ) − (fn , ϕk )| + |(fn , ϕk ) − (f, ϕk )| < 2ε e quindi il funzionale è anche continuo. • Definizione (supporto di una distribuzione) – Si indichi con D(G) l’insieme delle funzioni test con supporto in G Tutte queste funzioni sono nulle nel complementare di G (IRn − G). Se (f, ϕ) = 0 per ogni ϕ ∈ D(G) allora f ≡ 0 per ogni x ∈ G e si dirà che f ha supporto nel complementare di G. Si dirà inoltre che f = g in G, se (f − g, ϕ) = 0 per ogni ϕ ∈ D(G). 7.5 Distribuzioni regolari Sono quelle che si possono rappresentare mediante funzioni localmente sommabili. Quindi se f è regolare, allora esiste f (x) : IRn → IRn (o definita su qualche sottospazio di IRn ), tale che, per ogni G ⊂ IRn Z Z dx |f (x)| < ∞ =⇒ (f, ϕ) = dx f (x) ϕ(x) . G IRn L’ultima espressione definisce un funzionale lineare e continuo. La continuità deriva da Z Z |(f, ϕn − ϕ)| = dx f (x) [ϕn (x) − ϕ(x)] ≤ max |ϕn (x) − ϕ(x)| dx |f (x)| → 0 , x∈U U U dove U è l’insieme che contiene il supporto di ϕ e tutti i supporti delle ϕk . • Definizione (distribuzioni singolari) – Sono tutte quelle non rappresentabili mediante funzioni localmente sommabili. Tutte le proprietà valide per le distribuzioni regolari saranno estese per definizione anche a quelle singolari (vedi più avanti). Esempi • Un esempio classico di distribuzione singolare è dato dalla δ di Dirac, definita mediante (δ, ϕ) = ϕ(0) , supp δ ≡ {0} . E’ evidente dalla definizione che il supporto di tale distribuzione è dato dall’origine. Infatti il valore del funzionale è nullo se calcolato su qualunque funzione test il cui supporto non contenga l’origine. Si dimostra per assurdo che questa deve essere una distribuzione singolare. Infatti se fosse rappresentabile mediante una funzione localmente integrabile, questa dovrebbe avere supporto nell’origine. Sarebbe quindi una funzione nulla quasi ovunque. Si osservi che il limite di una distribuzione regolare può essere una distribuzione singolare, come si è visto nell’esempio iniziale (7.1). Un altro esempio di successione di distribuzioni regolari convergente a δ è dato dalle funzioni a campana ωε in (7.3) (normalizzate). Infatti si ha Z Z ε dx ωε (x) ϕ(x) − ϕ(0) ≤ dx ωε (x) |ϕ(x) − ϕ(0)| ≤ sup |ϕ(x) − ϕ(0)| → 0 . x∈[−ε,ε] IR −ε Quindi (ωε , ϕ) → ϕ(0) =⇒ ωε (x) → δ(x) . Questo appena visto è un caso particolare di un teorema che verrà dimostrato più avanti (vedi 12.1). • Un altro importante esempio di distribuzione singolare è dato dalla parte principale di 1/x in D′ (IR). Questa si indica con P(1/x) ed è definita nel seguente modo: P 1 , ϕ(x) x Z −ε Z ∞ Z ∞ ϕ(x) ϕ(x) ϕ(x) dx dx dx ≡ v.p. ≡ lim + ε→0+ x x x −∞ ε −∞ Z ∞ ϕ(x) − ϕ(0) . dx = x −∞ • Importanti per la fisica sono le due distribuzioni 1/(x ± i0) in D′ (IR) definite mediante Z ∞ 1 ϕ(x) dx , ϕ(x) ≡ lim . ε→0+ −∞ x ± i0 x ± iε Valgono le formule di Sokhotski: 1 1 = P ∓ iπδ(x) . x ± i0 x La dimostrazione si ricava direttamente dalla definizione. Infatti per qualunque funzione test con supporto in (−R, R) si ha Z ∞ −∞ dx ϕ(x) x + iε = Z R −R R = Z −R R = Z −R dx ϕ(x) = x + iε R ϕ(x) − ϕ(0) + ϕ(0) x + iε −R Z R ϕ(x) − ϕ(0) dx dx + −2iε ϕ(0) 2 + ε2 x + iε x 0 dx Z dx Z R dx −R x − iε x2 + ε2 ϕ(x) − ϕ(0) R − 2i ϕ(0) arctan . x + iε ε Prendendo il limite per ε → 0+ si ottiene il risultato cercato, vale a dire 7.6 Z R ϕ(x) − ϕ(0) 1 1 dx , ϕ(x) = − iπ ϕ(0) = P − iπδ, ϕ(x) . x ± i0 x x −R Prodotto di una distribuzione per una funzione C ∞ Una distribuzione qualsiasi f ∈ D′ (IRn ) può essere moltiplicata per un’arbitraria funzione y(x) ∈ C ∞ (IRn ). Con queste ipotesi, y(x)ϕ(x) è una funzione test (se lo è ϕ(x)) e quindi si può definire (y f, ϕ) ≡ (f, y ϕ) , che è certamente vera per ogni distribuzione regolare. Per definizione si estende a tutte le distribuzioni. Esempi Data una funzione y(x) ∈ C ∞ (IR) si ha (y(x)δ(x), ϕ(x)) = (δ(x), y(x)ϕ(x)) = y(0)ϕ(0) = (y(0)δ(x), ϕ(x)) , da cui segue che y(x)δ(x) = y(0)δ(x). In modo del tutto analogo si verifica che x P(1/x) = 1. Quindi y(x)δ(x) = y(0)δ(x) , xδ(x) = 0 , xP 1 = 1. x ♣ E’ immediato verificare che in generale non è possibile definire un prodotto fra distribuzioni, che sia commutativo e associativo. Infatti, se esistesse un tale prodotto, per assurdo si avrebbe 1 1 1 = δ(x) . 0=0P = [x δ(x)] P = δ(x) x P x x x 7.7 Cambiamento di variabile Sia f una distribuzione regolare in D(IRn ). Allora, per ogni matrice A di ordine n, invertibile e ogni vettore b ∈ IRn si ha Z Z 1 dx f (Ax + b) ϕ(x) = dy f (y) ϕ(A−1 (y − b)) . | det A| IRn IRn Più in generale, data una funzione y(x) ∈ C ∞ (IRn ) si ha Z Z dx f (y(x)) ϕ(x) = dy J(y) f (y) ϕ(x(y)) , IRn IRn dove J(y) è lo Jacobiano della trasformazione. Per ogni distribuzione regolare valgono allora le relazioni (f (Ax + b), ϕ(x)) = ∂x J(y) = , ∂y (7.4) 1 f (x), ϕ(A−1 (x − b) , | det A| (f (y(x)), ϕ(x)) = (f (y), J(y)ϕ(x(y))) , e per definizione queste regole si estendono a qualunque distribuzione. Esempi Si consideri la distribuzione δ in D′ (IR). 1 ϕ(−b/a) x−b (δ(ax + b), ϕ(x)) = δ(x), ϕ = |a| a |a| (δ(y(x)), ϕ(x)) = ϕ(x(y)) δ(y), |y ′ | = =⇒ δ(ax + b) = δ(x + b/a) . |a| X ϕ(xk ) , |y ′ (xk )| k dove y(xk ) = 0 e la somma è fatta su tutti gli zeri (semplici) della funzione. In tal modo si ha δ(y(k)) = X δ(x − xk ) . |y ′ (xk )| k Come esempio esplicito si consideri la distribuzione δ(x2 − 1). In questo caso y(x) = x2 − 1 e y ′ (x) = 2x. L’equazione y(x) = 0 ha due soluzioni x± = ±1 e pertanto δ(x2 − 1) = δ(x − x+ ) δ(x − x− ) 1 + = [δ(x − 1) + δ(x + 1)] . |y ′ (x+ )| |y ′ (x− )| 2 7.8 Derivazione Sia data una funzione f (x) ∈ C p (IR) con p ≥ 1. Questa è localmente sommabile e quindi definisce una distribuzione regolare. Allora, per ogni funzione test si ha Z ∞ Z ∞ dx f (x) ϕ′ (x) . dx f ′ (x) ϕ(x) = − (f ′ , ϕ) = −∞ −∞ Più in generale, per ogni k ≤ p si ottiene Z Z ∞ dx f (k) (x) ϕ(x) = (−1)k (f (k) , ϕ) = ∞ dx f (x) ϕ(k) (x) . −∞ −∞ Per una funzione f (x) ∈ C p (IRn ) con p ≥ 1 si ottiene un risultato simile, vale a dire Z ∞ Z ∞ n X αk ≤ p . dx f (x) Dα ϕ(x) , |α| = dx Dα f (x) ϕ(x) = (−1)|α| (Dα f, ϕ) = −∞ −∞ k=1 Quest’ultima espressione si usa come definizione di derivata di una distribuzione qualunque, quindi, per ogni f ∈ D′ (IRn ) si definisce (Dα f, ϕ) ≡ (−1)|α| (f, Dα ϕ) . Si verifica direttamente che Dα f cosı̀ definito è un funzionale lineare e continuo, ossia una distribuzione in D′ (IRn ). Dalle proprietà delle funzioni test segue che le distribuzioni hanno derivate di ordine qualunque. Valgono inoltre le proprietà seguenti, che si dimostrano applicando direttamente la definizione: • Dα Dβ f = Dβ Dα f = Dα+β f , (α, β ∈ INn ); • ∂k [y(x)f ] = f ∂k y(x) + y(x)∂k f , • Dα fk → Dα f , (y(x) ∈ C ∞ ); (α ∈ INn , fk → f ); • supp Dα f ⊂ supp f . P∞ • Ogni serie f = k=1 uk (x) di funzioni localmente sommabili e uniformemente convergente su ogni P∞ compatto di IRn , in D′ (IRn ) si può differenziare quanto si vuole e si ha Dα f = k=1 Dα uk (x). Quest’ultima proprietà deriva dallePproprietà della derivata e dalla continuità delle distribuzioni. N Per le ipotesi fatte, posto fN (x) = k=1 uk (x) si ha Z Z Z dx f (x)ϕ(x) = lim dx lim f (x)ϕ(x) = dx f (x)ϕ(x) , N N N →∞ IRn N →∞ IRn IRn qualunque sia ϕ(x) ∈ D(IRn ). Allora lim (Dα fN , ϕ) = lim (−1)|α| (fN , Dα ϕ) = (−1)|α| (f, Dα ϕ) = (Dα f, ϕ) . N →∞ 7.9 N →∞ Prodotto diretto Date due funzioni localmente integrabili f (x) : IRn → C I e g(y) : IRm → C, I la funzione f (x)g(y) è n+m localmente integrabile in IR e quindi definisce una distribuzione regolare in D′ (IRn+m ). Usando il teorema di Fubini, per ogni ϕ(x, y) ∈ D(IRn+m ) si ha Z (f · g, ϕ) = dx dy f (x)g(y)ϕ(x, y) n+m IR Z Z = dx f (x) dy g(y)ϕ(x, y) = (f, (g, ϕ)) n m ZIR ZIR = dy g(y) dx f (x)ϕ(x, y) = (g, (f, ϕ)) . IRm IRn Per ogni coppia di distribuzioni f, g si definisce il prodotto diretto mediante (f · g, ϕ) = (f, (g, ϕ)) = (g, (f, ϕ)) . E’ immediato verificare che f · g ∈ D′ (IRn+m ), ossia è un funzionale lineare e continuo. Inoltre gode delle seguenti proprietà: • f ·g =g·f, (proprietà commutativa); • f ·g·h = g·h·f = h·f ·g, • Dxα f · g = [Dxα f ] · g , (proprietà associativa – h(z) ∈ IRp ); (α ∈ INn ); • α(x) f · g = [α(x)f ] · g , (α(x) ∈ C ∞ ); R • (f (x) · 1, ϕ) = IRm dy (f (x), ϕ(x, y)). 7.10 Prodotto di convoluzione Siano f (x) e g(x) due funzioni localmente sommabili su IRn e sia inoltre Z Z dy |f (y)g(x − y)| dy |g(y)f (x − y)| = h(x) = IRn IRn anch’essa una funzione sommabile in IRn . Allora si definisce prodotto di convoluzione la funzione Z Z [f ∗ g](x) = dy g(y)f (x − y) = dy f (y)g(x − y) = [g ∗ f ](x). IRn IRn Se f e g si pensano come distribuzioni in D′ (IRn ), per ogni ϕ ∈ D(IRn ) si ottiene Z Z Z (f ∗ g, ϕ) = dξ [f ∗ g](ξ)ϕ(ξ) = dξ ϕ(ξ) dy g(y)f (ξ − y) n n n IR IR IR Z Z Z = dy g(y) dξ ϕ(ξ)f (ξ − y) = dx dy f (x)g(y)ϕ(x + y) IRn IRn IR2n = (f · g, ϕ(x + y)) . (7.5) Si osservi che l’uguaglianza precedente non si può usare per definire il prodotto di convoluzione fra due distribuzioni qualsiasi, in quanto ϕ ∈ D(IRn ), ma in generale non appartiene a D(IR2n ), perché non ha supporto compatto in IR2n . Per estendere la definizione di prodotto di convoluzione, si fa uso di una successione di funzioni test ηk (x) convergente a 1 in IRn . Per definizione si dice che una successione di unzioi test ηk converge a 1 in IRn se, fissata una sfera (palla) di raggio arbitrario UR ≡ {x : kxk ≤ R}, esiste K per cui si ha ηk (x) = 1 , ∀k > K , ∀x ∈ UR . Quindi, per k abbastanza grande ηk è costante all’interno di qualunque regione fissata e questo implica anche tutte che le sue derivate si annullano in tale regione. Si richiede inoltre che ηk (x) e tutte le sue derivate siano uniformemente limitate in tutto IRn , cioè |Dα ηk (x)| < Cα , ∀x ∈ IRn , ∀α ∈ INn . Si faccia attenzione al fatto che questa appena definita non è la convergenza in D(IRn ) (1 ∈ / D(IRn )). Ora osseviamo che la (7.5) si può scrivere nella forma (f ∗ g, ϕ) = lim (f · g, ηk (x, y)ϕ(x + y)) , k→∞ lim ηk (x, y) = 1 , k→∞ (7.6) dove ηk (x, y) è una qualunque funzione test convergente a 1 in IR2n . Poiché ηk (x, y)ϕ(x + y) ∈ D(IR2n ), l’espressione precedente esiste per qualunque coppia di distribuzioni se k è finito. Quando il limite esiste, il prodotto di convoluzione fra due distribuzioni qualunque si definisce mediante l’equazione (7.6). Si verifica che se il limite esiste non dipende dalla scelta di ηk . Se f ∗ g esiste, allora valgono le proprietà seguenti • f ∗ g = g ∗ f . Deriva banalmente dal fatto che il prodotto diretto è commutativo. • [Dα f ] ∗ g = Dα [f ∗ g] = f ∗ [Dα g]. Per la dimostrazione di questa utile proprietà basta osservare che per k abbastanza grande, le derivate di ηk (x, y) sono nulle nel supporto di ϕ(x), dove ηk (x, y) = 1. Qualunque sia y si ha quindi ∂xj [ηk (x, y)ϕ(x + y)] = ηk (x, y) ∂xj ϕ(x + y) k >K. Qui y è visto come un parametro fissato. Ovviamente quando si deriva rispetto a qualche componente y j di y, allora x diventa un parametro dato. Derivando la distribuzione rispetto a xj abbiamo = −(f ∗ g, ∂xj ϕ) = − lim (f (x) · g(y), ηk (x, y)∂xj ϕ(x + y)) (∂xj [f ∗ g], ϕ) k→∞ = − lim (f (x) · g(y), ∂xj [ηk (x, y)ϕ(x + y)]) k→∞ = lim (∂xj f (x) · g(y), ηk (x, y)ϕ(x + y)) = ([∂xj f ] ∗ g, ϕ) . k→∞ Si noti tuttavia che l’esistenza di [Dα f ] ∗ g non garantisce quella di f ∗ [Dα g]. Infatti, procedendo formalmente si arriva alla seguente contraddizione: ϑ′ ∗ 1 = δ ∗ 1 = 1 6= ϑ ∗ 1′ = ϑ ∗ 0 = 0 . Questo succede perchè ϑ ∗ 1 non esiste! • Se fj → f e gj → g allora fj ∗ g → f ∗ g , f ∗ gj → f ∗ g . La dimostrazione segue direttamente dalla definizione di prodotto. 7.11 Condizioni sufficienti per l’esistenza del prodotto di convoluzione Qui deriviamo alcune condizioni che ci assicurano l’esistenza del prodotto di convoluzione e ci forniscono anche il modo per calcolarlo. • f e g sono distribuzioni regolari e una delle due (diciamo g) ha supporto compatto contenuto nella sfera Ur di raggio r. Allora, per ogni R si ha Z Z Z dx h(x) = dx dy |g(y)f (x − y)| UR UR Ur Z Z Z Z = dy |g(y)| dx |f (x − y)| = dy |g(y)| dz |f (z)| < ∞ . Ur UR Ur UR+r La funzione h(x) è localmente sommabile e dunque il prodotto di convoluzione delle due distribuzioni esiste ed è dato direttamente dalla (7.5). • f e g sono funzioni con supporto entrambe in IR+ , contenuto nell’intervallo [0, R]. In tal caso si ha Z R dx h(x) = Z R dx 0 0 −R = Z 0 Z R x dy |g(y)f (x − y)| dy |g(y)| Z y R dz |f (z)| ≤ Z 0 R dy |g(y)| Z 0 R dz |f (z)| < ∞ . Anche in questo caso h(x) è localmente sommabile e quindi il prodotto di convoluzione è dato dalla (7.5). • f e g sono funzioni sommabili in IRn . Allora banalmente segue Z Z Z Z Z dx h(x) = dx dy |g(y)f (x − y)| = dy |g(y) dz |f (z)| < ∞ . IRn IRn IRn IRn IRn Anche in questo caso il prodotto di convoluzione è dato dalla (7.5). • f è una distribuzione qualsiasi e g è una distribuzione con supporto compatto. In tal caso il prodotto di convoluzione è dato da (f ∗ g, ϕ) = (f (x) · g(y), η(y)ϕ(x + y)) , η(y)g(y) = g(y) , dove η è una qualunque funzione test che vale 1 nel supporto di g. Per la dimostrazione basta osservare che (f ∗ g, ϕ) = = (f ∗ gη, ϕ) = lim (f (x) · g(y)η(y), ηk (x, y)ϕ(x + y)) k→∞ lim (f (x) · g(y), η(y)ηk (x, y)ϕ(x + y)) = (f (x) · g(y), η(y))ϕ(x + y)) . k→∞ L’ultimo passaggio al limite è lecito in quanto η(y)ϕ(x + y) ∈ D(IR2n ). • f qualunque e ψ ∈ D(IRn ). In questo caso (f ∗ ψ)(x) = (f (y), ψ(x − y)) ∈ C ∞ (IRn ) , è una distribuzione regolare. Il prodotto esiste perché ψ ha supporto compatto. Allora (f ∗ ψ, ϕ) = Z dy ψ(y)ϕ(x + y) (f (x), (ψ(y), η(y)ϕ(x + y))) = f (x), IRn Z Z = f (x), dz ψ(z − x)ϕ(z) = dzϕ(z) (f (x), ψ(z − x)) . IRn IRn Esempi • La δ di Dirac è l’unità rispetto al prodotto di convoluzione, cioè δ ∗ f = f ∗ δ = f . Questo deriva direttamente dall’espressione del prodotto di convoluzione per distribuzioni con supporto compatto. Sia infatti η(x) una funzione test con η(0) = 1. Allora (f ∗ δ, ϕ) = (f (x) · δ(y), η(y)ϕ(x + y)) = (f (x), (δ(y), η(y)ϕ(x + y))) = (f, ϕ) . 7.12 Regolarizzazione Sia ωε (x) una funzione test tale che limε→0 ωε (x) = δ(x) e f ∈ D′ (IRn ) una qualunque distribuzione. Allora, per quanto visto sopra si ha fε (x) ≡ (f ∗ ωε )(x) = (f (y), ωε (x − y)) ∈ C ∞ (IRn ) . La distribuzione fε si dice distribuzione regolarizzata (regolarizzazione di f ). • Teorema – Ogni distribuzione è il limite di funzioni test in D(IRn ), ossia D è denso in D′ . • Dimostrazione – Sia ηε (x) → 1 nella sfera U1/ε di raggio 1/ε. Allora si ha (ηε fε , ϕ) = (fε , ηε ϕ) = (fε , ϕ) → (f, ϕ) . Poiché ηε fε ∈ D ne segue il teorema. 7.13 Distribuzioni temperate Sono tutti i funzionali lineari e continui f : S → C. I Le distribuzioni temperate sono dunque elementi dello spazio duale S ′ . Dal fatto che D ⊂ S segue che S ′ ⊂ D′ . Ciò significa che tutte le distribuzioni temperate sono anche distribuzioni di Schwartz, ma non è vero il viceversa. La ragione per cui conviene “restringere” lo spazio delle distribuzioni è dovuta al fatto che in S ′ è possibile definire la trasformata di Fourier e questa è ancora un elemento di S ′ . Questo in generale non vero in D′ . Tutto quanto si è definito fin qui per le distribuzioni di Schwartz vale senza limitazioni anche per le distribuzioni temperate. • Teorema di Schwartz – Un funzionale lineare f : S → C I appartiene a S ′ se e solo se per ogni funzione test ϕ ∈ S esiste una costante C > 0 e un intero p ≥ 0 per cui |(f, ϕ)| ≤ C σp (ϕ) , σp (ϕ) = sup n |α|≤p;x∈IR (1 + kxkp )|Dα ϕ(x)| . (7.7) • Dimostrazione – La condizione è sufficiente. Infatti, se la (7.7) è soddisfatta, per ogni successione {ϕk } convergente in S si ha |(f, ϕk − ϕ)| ≤ C σp (ϕk − ϕ) → 0 , quindi il funzionale è continuo. – La condizione è necessaria. Infatti, sia f ∈ S ′ e “per assurdo” la (7.7) non sia soddisfatta per qualche ϕ ∈ S. Allora, posto ϕ |(f, ϕ)| > k σk (ϕ) , ψk = √ k σk (ϕ) si ha |(f, ψk )| = √ √ 1 |(f, ϕ)| > k . k σk (ϕ) (7.8) L’ultima espressione è in contrasto con la continuità del funzionale in quanto si deve avere (f, ψk ) → 0, poiché ψk → 0 per costruzione. 7.14 Trasformata di Fourier Data un’arbitraria funzione test ϕ ∈ S(IRn ) si definisce la sua trasformata di Fourier mediante Z n X −i(ξ,x) F [ϕ](ξ) ≡ ϕ̃(ξ) = ξk xk . dx e ϕ(x) , (ξ, x) = IRn k=1 Per le proprietà di ϕ l’integrale converge e ϕ̃(ξ) ∈ C ∞ (IRn ) e si ha Dξα F [ϕ](ξ) = F [(−ix)α ϕ(x)](ξ) , F [Dxα ϕ(x)](ξ) = (iξ)α F [ϕ](ξ) . Dalle relazioni precedenti segue ξ β Dξα F [ϕ](ξ) = ξ β F [(−ix)α ϕ(x)](ξ) = (−i)|α|+|β| F [Dxβ (xα ϕ)](ξ) . Prendendo il modulo di questa equazione si ha Z β α β α |ξ| Dξ F [ϕ](ξ)| = |F [Dx (x ϕ)](ξ)| ≤ dx |Dxβ (xα ϕ(x)| < ∞ . n IR Questo significa che ϕ̃(ξ) ∈ S. La trasformata di Fourier si può quindi vedere come un operatore F : S → S. E’ un operatore continuo e limitato. La formula di inversione è data da Z 1 dξ ei(ξ,x) ϕ̃(ξ) F −1 [ϕ̃](x) ≡ ϕ(x) = (2π)n IRn 1 1 F [ϕ̃(ξ)](−x) = F [ϕ̃(−ξ)](x) . = (2π)n (2π)n Ora notiamo che la trasformata di Fourier F [f ](ξ) è ben definita per ogni funzione f sommabile in IRn e inoltre è una funzione continua di ξ e quindi definisce una distribuzione regolare (ogni funzione continua è localmente sommabile). Dalla definizione segue Z Z −i(ξ,x) (F [f ], ϕ) = dξ ϕ(ξ) dx e f (x) n IRn ZIR Z −i(ξ,x) = dx f (x) dξ e ϕ(ξ) = (f, F [ϕ]) . IRn IRn Questa proprietà delle funzioni sommabili si estende per definizione a tutte le distribuzioni f ∈ S ′ , vale a dire (F [f ], ϕ) ≡ (f, F [ϕ]) . Per la trasformata di Fourier delle distribuzioni temperate, valgono tutte le proprietà che si hanno per le funzioni. In particolare • Dα F [f ] = F [(−ix)α ϕ(x)]; • F [Dα f ](ξ) = (iξ)α F [ϕ](ξ); • F [f (x − x0 )](ξ) = e−i(ξ,x0 ) F [f (x)](ξ); • F [f (x)](ξ + ξ0 ) = F [e−i(ξ0 ,x) f (x)](ξ); • F [f · g] = F [f ] F [g]. • Se il prodotto di convoluzione fra f e g esiste, allora si ha l’importante proprietà F [f ∗g] = F [f ] F [g] . Esempi Le seguenti proprietà relative alla trasformata di Fourier della δ di Dirac si ottengono direttamente dalla definizione: • F [δ(x − x0 )] = e−i(ξ,x0 ) ; F [δ] = 1 ; F [1] = (2π)n δ; • F [Dα δ](ξ) = (iξ)α F [δ](ξ) = (iξ)α ; • F [xα ](ξ) = (iξ)α Dα F [1] = (2π)n (iξ)α δ. 7.15 Soluzioni fondamentali di operatori differenziali lineari Sia g ∈ D′ (IRn ) una distribuzione data e P (D) l’operatore differenziale X P (D) = aα (x) Dα , α(x) ∈ C ∞ (IRn ) , p ∈ IN , α ∈ INn . |α|≤p Una distribuzione f ∈ D′ (IRn ) si dirà soluzione generalizzata dell’equazione P (D)f = g , se per ogni ϕ ∈ D(IRn ) soddisfa l’equazione X (P (D) f, ϕ) = (−1)|α| (f, aα Dα ϕ) = (g, ϕ) . |α|≤p • Definizione (soluzione fondamentale) – La distribuzione E si dirà soluzione fondamentale o elementare dell’operatore P (D) se soddisfa l’equazione P (D) E = δ . (7.9) In generale E non è unica. Infatti, se E0 soddisfa l’equazione omogenea, allora E + E0 è ancora soluzione fondamentale. Data la soluzione fondamentale, una soluzione dell’equazione non omogenea è data da P (D) u = g =⇒ u = E ∗ g , purché il prodotto di convoluzione abbia senso. In tal caso si ha infatti P (D)[E ∗ g] = [P (D)E] ∗ g] = δ ∗ g = g . • Teorema – Tutti gli operatori differenziali lineari a coefficienti costanti (aα (x) = aα =costante) possiedono una soluzione fondamentale E ∈ S ′ (IRn ), che soddisfa l’equazione X P (iξ) F [E] = 1 , P (iξ) = aα (iξ)α . (7.10) |α|≤p • Dimostrazione – L’equazione (7.10) è la trasformata di Fourier della (7.9). P (iξ) è un polinomio algebrico in ξ ∈ IRn e il suo inverso definisce effettivamente una distribuzione temperata Ẽ(ξ) e quindi anche E(x) = F −1 [Ẽ(ξ)](x) ∈ S ′ (IRn ) è una distribuzione temperata. ′ • Teorema – In D+ (IR) l’operatore lineare P a coefficienti costanti ak , della forma p P = a0 + a1 X d dp dk + ... + ap p = ak k , dx dx dx k=0 p ≥ 1, ha una sola soluzione fondamentale data da E(x) = ϑ(x) Z(x) dove Z(x) ∈ C p (IR) è soluzione dell’equazione differenziale omogenea P Z(x) = a0 + a1 Z ′ (x) + ... + ap Z (p) (x) = 0 , con le condizioni iniziali Z (p−1) = 1 , Z (k) (0) = 0 , k = 0, 1, 2, ... p − 2 . • Dimostrazione – La dimostrazione si ottiene banalmente per verifica diretta. Poiché la funzione Z(x) soddisfa le condizioni iniziali precedenti, si ha d ϑ(x)Z (p−1) (x) = ϑ(x)Z (p) (x) + δ(x)Z (p−1) (0) = ϑ(x)Z (p) (x) + δ(x) , dx d ϑ(x)Z (k) (x) = ϑ(x)Z (k+1) (x) + δ(x)Z (k) (0) = ϑ(x)Z (k+1) (x) , k = 0, 1, 2, ... p − 2 . dx da cui segue P E(x) = ϑ(x) P Z(x) + δ = δ . ′ Quindi E(x) ∈ D+ è una soluzione fondamentale ad è anche unica come conseguenza dell’unicità di Z(x). 8 Operatori Lineari Qui daremo alcune definizioni e teoremi riguardanti gli operatori lineari in spazi di Banach, vale a dire normati e completi, ma la definizione e parte dei risultati vale anche in spazi topologigi più generali. Siano X e Y due spazi di Banach e A : X ∈ Y un’applicazione fra questi due spazi, che a un punto x ∈ X associa un punto y ∈ Y . • Definizione (operatore lineare) – L’applicazione A è un operatore lineare se, dati x1 , x2 ∈ X e α, β ∈ C, I si ha A(αx1 + βx2 ) = αAx1 + βAx2 . ♣ I funzionali lineari sono particolari operatori lineari da X in C. I • Definizione (dominio) – In generale, gli operatori non sono definiti per ogni punto di X. L’insieme DA ⊂ X dei punti in cui è definito l’operatore si chiama dominio di A. Si assume che il dominio di un operatore lineare sia una varietà lineare, vale a dire che, per ogni coppia x1 , x2 ∈ DA e α, β ∈ C, I si abbia αx1 + βx2 ∈ DA , • Definizione (co-dominio) – L’insieme dei punti Ax = y ∈ Y si chiama co-dominio o immagine dell’operatore A e si indica con RA . • Definizione (nucleo) – L’insieme dei punti x ∈ DA tali che Ax = 0 si chiama nucleo dell’operatore e si indica con KerA. • Definizione (continuità) – L’operatore lineare A si dice continuo in x0 ∈ DA se, comunque scelto ε > 0 esiste δ > 0 per cui kAx − Ax0 k = kA(x − x0 )k < ε , ∀x ∈ DA tali che kx − x0 | < δ . A si dice continuo se lo è in ogni punto x ∈ DA . Equivalentemente A è continuo se, data una qualsiasi successione convergente {xk } ∈ DA , si ha lim kA(x − xk )k = 0 , k→∞ ∀{xk } ∈ DA tali che lim xk = x ∈ DA . k→∞ Esempi • L’operatore identità I : X → X dato da Ix = x; DI = X; RI = X; KerI = {0}. • L’operatore nullo O : X → Y dato da Ox = 0; DO = X; RO = {0}; KerO = X. • L’operatore di derivazione A = D : X → X dato da Dx = x′ ; il dominio e l’immagine dipendono da X. Se X ≡ C[a, b], allora DA è dato dalle funzioni derivabili con derivata continua. In tal caso l’operatore non è continuo. Basta considerare la successione sin kx/k che è convergente e la sua derivata cos kx che non ha limite. L’operatore di derivazione è continuo in altri spazi, ad esempio D : C ∞ → C ∞ . • Definizione (limitatezza) – A : X → Y è limitato se è definito in tutto X e trasforma insiemi limitati in insiemi limitati. Per spazi di Banach questo è equivalente a dire che l’operatore limitato trasforma ogni sfera in X in un insieme limitato in Y . Per l’omogeneità dell’operatore questo è equivalente a dire che, esiste una costante CA per cui la disuguaglianza kAxk ≤ CA kxk , kAk ≡ inf CA =⇒ kAxk ≤ kAk kxk , (8.1) è soddisfatta per ogni x ∈ X. L’estremo inferiore delle costanti che soddisfano la (8.1) definisce la norma di A. • Teorema – Per ogni operatore limitato fra spazi normati si ha kAk ≡ inf CA = sup x6=0 kAxk = sup kAxk . kxk kxk≤1 • Dimostrazione – Posto α = sup x6=0 kAxk , kxk si ha kAxk ≤ αkxk =⇒ kAk ≤ α . Questo perché per definizione la norma è l’estremo inferiore delle costanti che soddisfano la disuguaglianza precedente. Osserviamo però che, sempre per definizione di norma, kAxk ≤ kAk kxk e quindi vale anche la disuguaglianza inversa rispetto a quella sopra in quanto kAxk ≤ kAk =⇒ α ≤ kAk . kxk • Teorema – Ogni operatore limitato è continuo e viceversa. • Dimostrazione – Sia A limitato. Allora data una qualunque successione {xk } convergente a x si ha lim kA(xk − x)k ≤ kAk lim kxk − xk = 0 . k→∞ k→∞ Viceversa, sia A continuo e per assurdo non limitato. Allora si può trovare una successione {xn } in X per cui kAxn k > nkxn k , yn = xn , nkxn k kyn k = 1 . n Da queste equazioni abbiamo lim yn = 0 , n→∞ kAyn k = kAxn k > 1, nkxn k in contraddizione con l’ipotesi di continutà dell’operatore. • Definizione (somma di operatori) – Dati due operatori lineari A e B fra due spazi X e Y si definisce la somma S : X → Y che ad ogni x ∈ DS associa il punto y ∈ Y mediante l’equazione \ Sx = Ax + Bx , DS = DA DB . Si definisce anche l’operazione di prodotto per un arbitrario numero α ∈ C I mediante P = αA , P x = αAx , x ∈ DA ≡ DP . E’ immediato verificare che S e P sono operatori lineari e se A e B sono limitati, anche S e P lo sono e si ha kSxk = kAx + Bxk ≤ (kAxk + kBxk) ≤ (kAk + kBk)kxk) =⇒ kSk ≤ kAk + kBk , kP xk = kαAxk = |αk|Axk =⇒ kP k = |αk|Ak . • Definizione (prodotto di operatori) – Se A : X → Y e B : Y → Z, allora si può definire l’operatore prodotto C : X → Z, mediante C ≡ BA , Cx = B(Ax) , Dc ≡ {x ∈ DA per cui y = Ax ∈ DB } . E’ immediato verificare che questa equazione definisce un operatore lineare. Inoltre se A e B sono operatori limitati allora anche il loro prodotto è limitato. Infatti kCxk = kBAxk ≤ kBkkAxk ≤ kBkkAkkxk =⇒ kCk ≤ kBkkAk . Il prodotto di operatori è associativo, cioè, dati A : X → Y , B : Y → Z, C : Z → W si ha C(BA) = (CB)A ≡ CBA , CBA : X → W . Se Y ≡ X allora C = BA : X → X. In questo caso si può definire anche l’operatore AB : X → X per ogni x ∈ DB e tale che Bx ∈ DA . In generale AB 6= BA anche per operatori limitati che hanno dominio in tutto X. • Definizione (commutatore) – Dati due operatori A e B da X in sè stesso, si definisce il commutatore di A, B mediante [A, B] ≡ AB − BA . Se [A, B] = 0 si dice che gli operatori commutano fra loro. • Definizione (potenza) – Per un operatore A : X → X si può definire la potenza ricorsivamente, cioè An = AAn−1 . Se A è limitato si ottiene kAn k = kAAn−1 k ≤ kAkkAn−1 k =⇒ kAn k ≤ kAkn . • Definizione (inverso) – Si dice che A : X → Y è invertibile se per ogni y ∈ RA l’equazione Ax = y ha una sola soluzione x. In tal caso ad ogni y ∈ RA corrisponde un solo x = By ∈ DA e viceversa. L’operatore B ≡ A−1 si dice inverso dell’operatore A. Si verifica direttamente che A−1 è un operatore lineare. Infatti, posto y1 = Ax1 , x1 = A−1 y1 , z = αx1 + βx2 , y2 = Ax2 , x2 = A−1 y2 , α, β ∈ C I. (8.2) (8.3) si ha z = (αx1 + βx2 ) = αA−1 y1 + βA−1 y2 , (8.4) Per la linearità di A si ha anche Az = A(αx1 + βx2 ) = αAx1 + βAx2 = αy1 + βy2 =⇒ z = A−1 (αy1 + βy2 ) . (8.5) Confrontando le due espressioni (8.4) e (8.5) per z si ottiene A−1 (αy1 + βy2 ) = αA−1 y1 + βA−1 y2 . (8.6) • Teorema Condizione necessaria e sufficiente affinché A sia invertibile è che Ker A ≡ {0}. • Dimostrazione – La condizione è necessaria. Infatti, se A è invertibile la corrispondenza fra DA e RA è biunivoca e quindi solo x = 0 appartiene al nucleo, – La condizione è sufficiente. Sia infatti Ker A ≡ {0} e per assurdo Ax1 = Ax2 con x1 6= x2 . Allora abbiamo la contraddizione A(x1 − x2 ) = 0. 8.1 Operatoti Limitati L’insieme L(X, Y ) degli operatori lineari limitati (continui) con le operazioni di somma e prodotto per un numero complesso forma uno spazio lineare completo se Y è completo e normato se X e Y lo sono. • Teorema – Se Y è completo allora L(X, Y ) è completo nella (topologia uniforme o della norma), vale a dire che ogni successione fondamentale {Ak } di operatori limitati converge in norma ad un operatore limitato A, cioè lim kA − Ak k = 0 . (8.7) k→∞ • Dimostrazione – Sia {Ak } una qualunque successione di Cauchy in L(X, Y ). Per ogni x ∈ X si ha kyi − yj k ≡ kAi x − Aj xk ≤ kAi − Aj k kxk < ε , ∀i, j > Nε . Questo significa che {yk = Ak x} è una successione fondamentale in Y . Se Y è completo, questa converge ad un elemento y ∈ Y che è l’immagine di x tramite l’operatore A. Quindi definiamo A mediante y = lim yk = lim Ak x ≡ Ax , k→∞ k→∞ ∀x ∈ X . L’operatore A cosı̀ definito è lineare e limitato. La linearità è banale da verificare. Per dimostrare la continutà (limitatezza) poniamo x = x1 − x2 e y = Ax, dove x1 , x2 sono punti “vicini”. Questo significa che, fissato ε, per k > K abbastanza grande e per kxk < ε/kAk k, possiamo porre kAx − Ak xk < ε e kAk xk < ε. Abbiamo allora kyk = kAxk = k(A − Ak + Ak )xk ≤ kAx − Ak xk + kAk xk < 2ε . k > K , kxk < ε . kAk k Quindi A è continuo (limitato). • Teorema – Sia {Ak } una successione di operatori lineari e limitati fra spazi di Banach e tale che ∞ X k=0 kAk k < ∞ . (8.8) Allora si ha ∞ X Ak = A , kAk ≤ k=0 • Dimostrazione – Posto Bn = kBn − Bm k = k n X ∞ X k=0 Pn Ak k ≤ k=m+1 kAk k . k=0 (8.9) Ak e fissato ε > 0 si ha, per n > m > Nε n X k=m+1 kAk k ≤ ε . La successione {Bn } è fondamentale e per il teorema precedente converge ad un operatore lineare e limitato A = lim Bn = n→∞ ∞ X Ak k=0 =⇒ kAk ≤ ∞ X k=0 kAk k . • Teorema di Banach – Un operatore lineare limitato che trasforma biunivocamente uno spazio di Banach X in uno spazio di Banach Y ha un inverso limitato. La dimostrazione è alquanto laboriosa e la tralasciamo. • Teorema – Sia A : X → X un operatore limitato con kAk < 1. Allora l’operatore I − A è invertibile e limitato e si ha (I − A)−1 = ∞ X Ak , k(I − A)−1 k ≤ k=0 1 . 1 − kAk • Dimostrazione – Poiché la norma di A è minore di 1 si ha lim kAn k = 0 =⇒ n→∞ lim An = 0 , n→∞ ∞ X k=0 kAk k ≤ ∞ X k=0 kAkk = 1 1 − kAk (8.10) e quindi (vedi (8.9)) esiste un operatore limitato dato da B= ∞ X Ak , B ∈ L(X, X) . k=0 (8.11) Allora (I − A) n X Ak = n X k=0 k=0 Ak − Ak+1 = I − An+1 . (8.12) Prendendo il limite per n → ∞ e tenendo conto che An → 0 si ottiene il risultato cercato, ossia (I − A)−1 = ∞ X k=0 Ak , k(I − A)−1 k ≤ ∞ X k=0 kAkk = 1 . 1 − kAk (8.13) • Definizione (aggiunto) – L’aggiunto di un operatore limitato A : X → Y è un operatore limitato A† : Y ∗ → X ∗ fra gli spazi duali. Qui diamo la definizione solo per operatori in spazi di Hilbert. Sia A : H → H un operatore limitato in uno spazio di Hilbert H. Come conseguenza del teorema di Riesz, il duale di H, H ∗ , è isomorfo ad H stesso e quindi l’aggiunto di A sarà di fatto un’applicazione di H in sè stesso. Fissato un arbitrario elemento g ∈ H si consideri il funzionale Fg [x] = (g, Ax). Questo è un funzionale lineare, limitato e quindi continuo. La linearità è una diretta conseguenza della linearità del prodotto scalare, mentre la limitatezza segue da |Fg [x]| = |(g, Ax)| ≤ kgkkAxk ≤ kgkkAkkxk =⇒ kFg k ≤ kgkkAk . Ogni funzionale lineare in uno spazio di Hilbert si può rappresentare sotto forma di prodotto scalare (teorema di Riesz). Questo significa che esiste un vettore h ∈ H tale che Fg [x] = (g, Ax) = (h, x). Posto allora h = Bg si ha (g, Ax) = (h, f ) ≡ (Bg, x) =⇒ (g, Ax) = (Bg, x) . L’operatore B è detto aggiunto e si indica con A† . Poiché A è limitato, DA ≡ H e per come è definito l’aggiunto anche DA† ≡ H. Se lo spazio ha dimensione finita (IRn o C I n ), in una base qualunque l’operatore A è rappresentato da una matrice quadrata Aij . In tal caso l’operatore aggiunto sarà rappresentato dalla matrice coniugatatrasposta, cioè A†ij = A∗ji . 8.1.1 Proprietà dell’operatore aggiunto • [A† ]† = A. Infatti, ricordando le proprietà del prodotto scalare si ha ([A† ]† g, f ) = (g, A† f ) = (A† f, g) = (f, Ag) = (Ag, f ) . • kA† k = kAk. Dato un qualunque vettore f ∈ H si ha kA† f k2 2 kAf k = |(A† f, A† f )| = |(f, AA† f )| ≤ kf kkAkkA† f k =⇒ kA† f k ≤ kAkkf k , = |(Af, Af )| = |(A† Af, f )| ≤ kf kkA† kkAf k =⇒ kAf k ≤ kA† kkf k . Dal confronto si ottiene il risultato cercato. • (αA + βB)† = ᾱA† + β̄B † . Per arbitrari α, β ∈ C I si ha infatti (g, (αA + βB)f ) = α(g, Af ) + β(g, Bf ) = α(A† g, f ) + β(B † g, f ) = (αA + βB)† g, f . • (AB)† = B † A† . Gli operatori A a B sono entrambi limitati e quindi il prodotto è limitato. Per ogni coppia di vettori in H si ha (g, ABf ) = (A† g, Bf ) = (B † A† , f ) . • [A−1 ]† = [A† ]−1 . Infatti, se l’operatore A è invertibile si ha I = I † = [AA−1 ]† = [A−1 ]† A† =⇒ [A−1 ]† = [A† ]−1 . • Definizione (normale) – Un operatore si dice normale se A† A = AA† . • Definizione (autoaggiunto) – Un operatore che coincide con il suo aggiunto è detto autoaggiunto (o hermitiano). In tal caso A = A† =⇒ (g, Af ) = (Ag, f ) , ∀g, f ∈ H . (8.14) L’aggiunto di un operatore si può definire anche per operatori non limitati per i quali il dominio non coincide con tutto H. In tal caso l’operatore si dice autoaggiunto se vale la (8.14) e se inoltre DA† ≡ DA . Se i domini dei due operatori sono diversi allora l’operatore A si dice simmetrico. 8.1.2 Proprietà dell’operatore autoaggiunto • (f, Af ) ∈ IR. Infatti si ha banalmente (f, Af ) = (Af, f ) = (f, Af ) . • Se esiste un autovalore λ per cui Af = λf , allora λ ∈ IR. Questa è una banale conseguenza della proprietà precedente, infatti (f, Af ) = (f, λf ) = λ (f, f ) = λ kf k2 ∈ IR =⇒ λ ∈ IR . • Se λ1 , λ2 sono due autovalori distinti allora i corrispondenti autovettori f1 , f2 sono ortogonali. Si ha infatti λ1 (f2 , f1 ) = (f2 , Af1 ) = (Af2 , f1 ) = λ2 (f2 , f1 ) =⇒ (f2 , f1 ) = 0 . • Definizione (proiettore) – Un operatore P ∈ L(H) è detto operatore di proiezione se è idempotente, cioè P 2 = P e hermitiano, cioè P = P † . Esempi Sia {ϕk } una base ortonormale di H e Pk il proiettore sul sottospazio di H generato da ϕk , ossia P k ϕk = ϕk , Pi ϕj = δij =⇒ Pi Pj = δij Pj . Dato un generico vettore ψ ∈ H si ha allora ψ= ∞ X cj ϕj , Pk ψ = ∞ X cj Pk ϕj = ck ϕk , Pk2 ψ = ck Pk ϕk = ck ϕk = Pk ψ . j=1 j=1 • Definizione (positivo) – Sia A ∈ L(H) un operatore limitato in uno spazio di Hilbert. A è detto positivo se per ogni x ∈ H si ha (x, Ax) ≥ 0. Si scriverà A ≥ 0 e più in generale A ≥ B se A − B è un operatore positivo. ♣ Per ogni B ∈ L(H), l’operatore A = B † B è positivo. Infatti, dalla definizone di operatore aggiunto segue (x, Ax) = (Bx, Bx) = kBxk2 ≥ 0. • Per ogni operatore positivo vale la disuguaglianza |(x, Ay)|2 ≤ (x, Ax)(y, Ay). Questa segue dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz ponendo A = B † B. Infatti |(x, Ay)|2 = |(Bx, By)|2 ≤ kBxk2 kBy 2 k = (Bx, Bx) (By, By) = (x, Ax)(y, Ay) . • Ogni operatore positivo A ∈ L(H) con H complesso è autoaggiunto. Questa condizione è conseguenza del fatto che in uno spazio di Hilbert complesso, la condizione (x, Ax) ∈ IR per ogni x implica (x, Ay) = (Ax, y) ∀x, y ∈ H. Infatti da (x, Ax) = (Ax, x) si ha (x + y, A(x + y)) = (x + iy, A(x + iy)) = (A(x + y), x + y) =⇒ (x, Ay) + (y, Ax) = (Ax, y) + (Ay, x) , (A(x + iy), x + iy) =⇒ (x, Ay) − (y, Ax) = (Ax, y) − (Ay, x) . Dal confronto si ricava il risultato richiesto. Si noti che è necessario che H sia complesso. • Definizione (unitario) – Un operatore Ω ∈ L(H) è detto isometrico se (x, Ωy) = (x, y) per ogni coppia di vettori x, y ∈ H. Un operatore isometrico U per cui RU ≡ H è detto unitario. • Teorema – Ogni operatore unitario U è invertibile e l’inverso U −1 coincide con l’aggiunto U † . • Dimostrazione – Notiamo dapprima che U è invertibile poiché il suo nucleo è costituito dal solo vettore nullo. Infatti se x ∈ Ker U , per le proprietà di U si ottiene Ux = 0 , kU xk = kxk = 0 =⇒ x = 0 . Per ogni coppia di vettori x, y ∈ H si ha inoltre (U x, U y) = (x, y) = (x, U † U y) =⇒ U † U = I =⇒ U † = U −1 . • Teorema – Gli autovalori di un operatore unitario sono numeri complessi λ di modulo uguale a 1 e quindi si possono scrivere nella forma λ = eiα (α ∈ IR). Inoltre gli autovettori corrispondenti ad autovalori distinti sono ortogonali. • Dimostrazione – Sia U x = λx con x 6= 0. Allora kU xk2 = kxk2 = |λ|2 kxk2 =⇒ |λ| = 1 . Se λ1 , λ2 sono due autovalori distinti con autovettori x1 , x2 si ha (U x1 , U x2 ) = (x1 , x2 ) = λ̄1 λ2 (x1 , x2 ) =⇒ (x1 , x2 ) = 0 . ♣ Ogni operatore unitario U si può rappresentare nella forma U = eiA , 8.2 U † = U −1 = e−iA , A = A† . Spettro Sia data una trasformazione lineare in IRn o C I n rappresentata da una matrice quadrata A. Gli autovalori λ della matrice si ottengono risolvendo l’equazione algebrica (equazione secolare) det(λI − A) = 0 . Questa è un’equazione di grado n che ha al più n radici distinte λ1 , λ2 , ..., λn , che costituiscono lo spettro di A. Il numero di autovalori indipendenti è ovviamente uguale al rango della matrice r ≤ n. Se λ non appartiene allo spettro, allora l’operatore λI − A è invertibile. In uno spazio con infinite dimensioni lo spettro di un operatore è assai più ricco e complicato. • Definizione (risolvente) – Si consideri un operatore limitato in X. Si dice che λ è un punto regolare o che appartiene all’insieme risolvente ρ(A) se l’operatore λI −A è bi-iettivo in tutto X. Quindi è invertibile e limitato per il teorema di Banach. In tal caso l’inverso Rλ (A) = (λI − A)−1 (8.15) si chiama risolvente di A in λ. Dall’equazione (8.13) si ricavano le rappresentazioni Rλ (A) Rλ (A) = = ∞ X k=0 ∞ X k=0 λ−k−1 Ak , λk A−k−1 , kRλ (A)k ≤ kRλ (A)k ≤ ∞ X k=0 ∞ X k=0 |λ|−k−1 kAkk , kAk < |λ| , |λ|k kAk−k−1 , kAk > |λ| . Nella seconda espressione per il risolvente si deve assumere che A sia invertibile. ♣ Dalla prima espressione, detta serie di Neumann, si deduce che tutti i λ che soddisfano la disuguaglianza λ > kAk sono punti regolari. Se λ 6∈ ρ(A) allora appartiene allo spettro di A. Contrariamente a quanto si ha negli spazi finitodimensionali dove lo spettro è sempre dato da un numero finito di autovalori, nel caso infinito-dimensionale si possono incontrare due casi distinti: • spettro puntuale: è costituito dai numeri complessi λ per cui Ax = λx, con X ∋ x 6= 0. In tal caso λ e x sono detti rispettivamente autovalore e autovettore di A. • spettro continuo o residuo: è costituito da tutti i λ per i quali l’operatore (λI − A)−1 esiste ma non è definito per tutti gli x ∈ X, ossia λI − A non è bi-iettivo. ♣ Se λ è un punto regolare, allora anche λ+ε, per ε sufficientemente piccolo, è un punto regolare. Questo significa che ρ(λ) è un insieme aperto e di conseguenza lo spettro, che è l’insieme complementare di ρ(λ), è un insieme chiuso. 8.3 Operatori Compatti Questi hanno proprietà molto simili agli operatori limitati in spazi a dimensione finita e il loro studio è relativamente semplice rispetto allo studio degli operatori limitati. Si incontrano inoltre in molte applicazioni fisiche. • Definizione (spazio compatto) – Sia X uno spazio di Banach e G ⊂ X un sottospazio. G si dice relativamente compatto o precompatto se da ogni successione {xk } in G è possibile estrarre una sottosuccessione convergente ad un punto x ∈ X. Se x ∈ G allora G si dice compatto. Evidentemente se G è relativamente compatto allora la sua chiusura Ḡ è compatta. ♣ Un operatore continuo B trasforma insiemi relativamente compatti in insiemi relativamente compatti. Infatti, se da {xk } si può estrarre una sottosuccessione convergente {xkj }, allora anche {Bxkj } è una successione convergente. Infatti, fissato ε > 0, per ki , kj > Nε si ha kBxki − Bxkj k ≤ kBkkxki − xkj k < ε . Quindi anche {Bxkj } è una sccessione fondamentale e poiché lo spazio X è completo questa converge a un punto di X. L’immagine attraverso B di un insieme relativamente compatto è quindi ancora un insieme relativamente compatto. • In uno spazio di dimensione finita, uno spazio compatto è chiuso e limitato e viceversa, ma in uno spazio a dimensione infinita il concetto di compattezza è più generale, nel senso che esistono spazi chiusi e limitati, ma non compatti. Esempi In ℓ2 si consideri la sfera unitaria G ≡ {x : kxk ≤ 1} ⊂ ℓ2 . Questo spazio è chiaramente chiuso e limitato, ma non compatto. Per verificare questo basta osservare che la successione {ek } costituita dalla base ortonormale appartiene a G, ma da essa non è possibile estrarre una sottosuccessione convergente. Infatti {ek } non contiene nessuna sottosuccessione fondamentale in quanto kei − ej k2 = (ei − ej , ei − ej ) = 2 . • Definizione (operatore compatto) – Un operatore A : X → X si dice compatto o completamente continuo se trasforma insiemi limitati in insiemi relativamente compatti o equivalentemente se dalla trasformata di ogni successione limitata è possibile estrarre una sottosuccessione convergente, cioè, se kxk k < C, allora {Axkj } converge. Il concetto di compattezza per gli operatori è più “restrittivo” di quello di limitatezza o continuità nel senso che lo spazio degli operatori compatti è contenuto in quello degli operatori limitati. Infatti esistono operatori limitati ma non compatti. Un esempio semplice è costituito dall’operatore identità, che è chiaramente limitato, ma non compatto in quanto trasforma la sfera unitaria in sè stessa. Per quanto visto nell’esempio precedente, questa è chiusa e limitata ma non compatta. Si vede facilmente che l’insieme degli operatori compatti forma una spazio lineare e quindi è un sottospazio chiuso di L(X, X). • Teorema – Ogni operatore compatto è limitato. • Dimostrazione – Sia per assurdo A compatto, ma non limitato. Allora esiste xn con kAxn k > nkxn k. Posto kAxn k xn , =⇒ kyn k = 1 , kAyn k = > n. yn = kxn k kxn k Dalla successione limitata {yn } non è possibile estrarre una sottosuccessione convergente in contrasto con l’ipotesi di compattezza. • Teorema – Sia Ak → A una successione convergente di operatori compatti in uno spazio di Banach X; allora il limite è anch’esso un operatore compatto. • Dimostrazione – Sia {xn } una successione limitata in X. Poiché A1 è compatto da {A1 xn } è possibile estrarre una sottosuccessione convergente {A1 xn1 }. Per la stessa ragione, da {A2 xn1 } è possibile estrarre una sottosuccessione convergente {A2 xn2 }. Procedendo in questo modo ricorsivo si ha che la sottosuccessione {Ak xnj } è convergente se k ≤ j. Allora, fissato ε > 0, per k ≤ i ≤ j abbastanza grandi si ha kAxni − Axnj k = k(A − Ak )xni + Ak xni − Ak xnj ) − (A − Ak )xnj k ≤ k(A − Ak )xni k + k(A − Ak )xnj k + kAk xni − Ak xnj )k < ε . Questo deriva dal fatto che {Ak } converge in norma ad A e {Ak xni } è fondamentale perché convergente. In questo modo abbiamo verificato che {Axnj } è una sottosuccessione fondamentale e quindi convergente poiché X è completo. • Teorema – Sia A : X → X compatto e B : X → X limitato. Allora BA e AB sono entrambi operatori compatti. • Dimostrazione – Sia G ⊂ X limitato e G1 ≡ A(G) l’immagine, relativamente compatta, di G attraverso A. Poiché B è continuo, G2 ≡ B(G1 ) è anch’esso relativamente compatto. Quindi G2 ≡ BA(G) è un insieme relativamente compatto e quindi l’operatore BA è compatto. In modo analogo si ha che B(G) è un insieme limitato poiché B è limitato e quindi AB(G) è relativamente compatto. Corollario. – L’inverso A−1 di un operatore compatto A non può essere limitato. Per il teorema appena dimostrato, se A−1 fosse limitato, allora AA−1 = I sarebbe compatto, ma per quanto detto sopra, l’identità non è un operatore compatto. • Teorema – L’aggiunto di un operatore compatto è anch’esso compatto. La dimostrazione è alquanto laboriosa e qui la tralasciamo. • Definizione (convergenze in uno spazio di Hilbert) – Per una successione {xk } in uno spazio di Hilbert si hanno due tipi di convergenza: • Convergenza forte: si dice che {xk } converge fortemente a x se kxk − xk → 0. • Convergenza debole: si dice che {xk } converge debolmente a x se |(y, xk − x)| → 0 per ogni y in H. Per una successione di operatori limitati {Ak } in uno spazio di Hilbert si possono avere tre tipi di convergenza: • Convergenza in norma: si dice che {Ak } converge in norma (o uniformemente) a A se kA−Ak k → 0. • Convergenza forte: si dice che {Ak } converge fortemente a A se k(A − Ak )xk → 0 per ogni x ∈ H. • Convergenza debole: si dice che {Ak } converge debolmente a A se |(x, (Ak − A)y)| → 0 per tutti gli x, y ∈ H. E’ immediato verificare che la convergenza uniforme implica quella forte che a sua volta implica quella debole. Criterio di compattezza. – In uno spazio di Hilbert un operatore compatto trasforma una successione debolmente convergente in una fortemente convergente, Quindi se {xk } è una successione debolmente convergente a x e A è un operatore compatto, allora |(y, xk − x)| → 0 , ∀y ∈ H =⇒ kAxk − Axk → 0 . Questa proprietà può essere usata anche come definizione di operatore compatto. Lemma. Sia A ∈ L(H) un operatore autoaggiunto e compatto e {xn } una successione debolmente convergente a x; allora si ha (xn , Axn ) → (x, Ax) . • Dimostrazione – La successione {Axn } è fortemente convergente poiché A è compatto e kxn k < C poiché la successione è convergente. Allora si ha |(xn , Axn ) − (x, Ax)| = |(xn − x + x, Axn ) − (x, Ax)| = |x, A(xn − x)) + (xn − x, Axn )| ≤ ≤ |x, (A(xn − x))| + |(xn − x, Axn )| kAxn − Axkkxk + kAxn − Axkkxn k → 0 . Lemma. Sia A ∈ L(H) un operatore autoaggiunto e compatto; allora si ha kAk = sup kAxk = sup |(x, Ax)| . kxk=1 kxk=1 • Dimostrazione – Posto C = supkxk=1 |(x, Ax)|, dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz si ricava |(x, Ax)| ≤ kAxkkxk ≤ kAk kxk2 =⇒ C ≤ kAk . Per ricavare la√disuguaglianza opposta scegliamo due arbitrari vettori x, y ∈ H e poniamo z± = (x ± y)/ 2. Allora |(x, Ay) + (y, Ax)| = |(z+ , Az+ ) − (z− , Az− )| z− Az− z+ Az+ kz+ k2 + kz− k2 , , ≤ kz+ k kz+ k kz− k kz− k ≤ C(kz+ k2 + kz− k2 ) = C(kxk2 + kyk2 ) . Posto ora y = (kxk/kAxk) Ax si ottiene |(x, Ay) + (y, Ax)| = 2kAxkkxk ≤ 2Ckxk2 =⇒ kAk ≤ C . • Teorema (di esistenza) – Sia A ∈ L(H) un operatore autoaggiunto e compatto; allora esistono IR ∋ λ 6= 0 e ϕ ∈ H con Aϕ = λϕ , kAk = |λ| . • Dimostrazione – Poniamo |λ| = kAk e mostriamo che λ ∈ IR è un autovalore di A e costruiamo il corrispondente autovettore. Per i due lemma precedenti, esiste una successione xn con kxn k = 1 per cui lim |(xn , Axn )| = kAk = |λ| . n→∞ Poiché A è compatto, da {Axn } si può estrarre una successione {Axnk } convergente a y ∈ H e che ovviamente soddisfa la disuguaglianza kAxnk k ≤ |λ| =⇒ kyk ≤ |la| . Vale anche la disuguaglianza inversa, infatti 0 ≤ kAxnk − λ xnk k2 = kAxnk k2 + λ2 kxnk k2 − 2λ(xnk , Axnk ) . Prendendo il limite si ottiene lim kAxnk − λ xnk k2 = kyk2 − λ2 ≥ 0 =⇒ kyk ≥ |λ| . nk →∞ Confrontando i due risultati si ricava kyk = |λ| e di conseguenza (A − λ)xnk → 0. Ora osserviamo che kλxnk − yk = kλxnk − Axnk + Axnk − yk ≤ kλxnk − Axnk k + kAxnk − yk → 0 =⇒ xnk → y ≡ ϕ. λ Quindi anche {xnk } è una successione convergente. Finalmente si ha kAϕ − λϕk = kAϕ − Axnk + Axnk − λϕk ≤ kA(ϕ − xnk )k + kAxnk − yk ≤ kAkkϕ − xnk )k + kAxnk − yk → 0 =⇒ Aϕ = λϕ . • Teorema di Hilbert-Schmidt (convoluzione spettrale) – Per ogni operatore lineare, autoaggiunto e compatto in uno spazio di Hilbert esiste un sistema ortonormale {ϕk } di autovettori corrispondenti agli autovalori λk e ogni elemento ψ ∈ H si scrive univocamente nella forma X ψ= ck ϕk + ψ0 , Aψ0 = 0 , (8.16) k Aψ = X ck λk ϕk = k X λ k Pk ψ , ck = (ϕk , ψ) , Pk ψ = (ϕk , ψ)ϕk . k Pk sono proiettori e ψ0 ∈ Ker A. Se il sistema è infinito, allora limk→∞ λk = 0 e ogni autovalore ha molteplicità finita. • Dimostrazione – La dimostrazione si fa in maniera costruttiva. Posto A1 ≡ A e H1 ≡ H, per il teorema precedente esistono un autovalore λ1 e un autovettore ϕ1 con |λ1 | = kA1 k = sup x1 ∈H1 ;kx1 k=1 kAx1 k . Il vettore ϕ1 genera un sottospazio di H1 e H2 sarà il sottospazio ortogonale, vale a dire H = {ϕ1 } ⊕ H2 , (ϕ1 , x2 ) = 0 , ∀x2 ∈ H2 . Ora osserviamo che l’operatore A ristretto ad H2 è invariante, vale a dire che A : H2 → H2 , infatti, ∀x2 ∈ H2 si ha (Ax2 , ϕ1 ) = (x2 , Aϕ1 ) = λ1 (x2 , ϕ1 ) = 0 =⇒ Ax2 ∈ H2 . Indichiamo con A2 la restrizione di A al sottospazio invariante H2 . A2 è ancora un operatore limitato, autoaggiunto e compatto in quanto è la restrizione ad un sottospazio invariante di un operatore limitato, autoaggiunto e compatto. Se A2 non è nullo, per il teorema di esistenza ci sono allora λ2 , ϕ2 tali che |λ2 | = kA2 k = sup x2 ∈H2 ;kx2 k=1 kAx2 k ≤ sup x1 ∈H1 ;kx1 k=1 kAx1 k = kA1 k = |λ1 | . Ora introduciamo il sottospazio H3 ⊂ H ortogonale allo spazio generato da ϕ1 , ϕ2 , ossia H = {ϕ1 } ⊕ {ϕ2 } ⊕ H3 , (αϕ1 + βϕ2 , x3 ) = 0 , ∀x3 ∈ H3 . H3 è un sottospazio invariante e quindi la restrizione A3 di A ad H3 è un operatore limitato, autoaggiunto e compatto. Se non è nullo si può procedere come sopra. In tal modo si costruiscono tutti gli autovalori e gli autovettori ortonormali dell’operatore A e si ottiene An ϕn = λn ϕn , |λ1 | ≥ |λ2 | ≥ |λ3 | ≥ ... Se l’operatore ha rango finito n, il processo si arresta dopo n passi (An+1 = 0), altrimenti si ottiene una successione infinita di autovalori (serie spettrale). Per vedere che λn → 0 si procede per assurdo. Sia infatti limn→∞ λn = a 6= 0. Allora la successione {1/λn } è limitata e quindi lo è anche la successione di vettori gn = ϕn , λn kgn k ≤ C . Poiché A è compatto, dalla successione {Agn = ϕn } dovrebbe essere possibile estrarre una successione convergente, ma questo è chiaramente assurdo, perché kϕn k = 1. Quindi λn → 0. Questo indirettamente dimostra anche che la molteplicità è finita, vale a dire che il numero di vettori distinti corrispondenti allo stesso autovalore è finito. Se cosı̀ non fosse, ci sarebbe almeno un autovalore λk ripetuto infinite volte e quindi la successione degli autovalori non potrebbe convergere a zero. Per completare la dimostrazione prendiamo un qualunque vettore ψ ∈ H e definiamo xn ≡ ψ − n−1 X k=1 ck ϕk , ck = (ϕk , ψ) , xn ∈ Hn . Per verificare l’ultima affermazione, basta moltiplicare scalarmente per un qualunque vettore ϕj con j < n. Si ha inoltre kxn k2 = k ψ − n−1 X k=1 ck ϕk k2 = kψk2 − n−1 X k=1 |ck |2 ≤ kψk2 =⇒ kxn k ≤ kψk . Infine k Aψ − n−1 X k=1 ck λk ϕk k = kAxn k = kAn xn k ≤ |λn | kxn k ≤ |λn | kψk → 0 , da cui segue X Aψ = ck λk ϕk , ψ= k X ck ϕk + ψ0 . (8.17) k Corollario. – Un operatore lineare, autoaggiunto, compatto e invertibile ha un sistema di autovettori completo. Infatti se l’operatore è invertibile KerA ≡ {0} e quindi ogni ψ si può sviluppare in autofunzioni di A (ψ0 = 0). L’invertibilità è una condizione necessaria. Infatti sia ϕk (k ≥ 1) una base per H e si consideri l’operatore A2 = ∞ X k=2 λ k Pk , ∞ X k=2 |λk |2 < ∞ . Questo è lineare, autoaggiunto e compatto. I suoi autovalori e i suoi autovettori sono λk , ϕk (k ≥ 2), i quali formano un insieme completo in H2 ma non in H. L’operatore A2 è infatti invertibile in H2 man non è invertibile in H in quanto ϕ1 ∈ Ker A2 e quindi A2 , visto come operatore in H, ha un autovalore nullo. 9 Equazioni Integrali Sono equazioni in cui la funzione che si deve determinare compare anche sotto il segno di integrale. Lo studio sistematico e approfondito fu fatto a cavallo dei secoli XIX e XX principalmente ad opera di Volterra, Fredholm e Hilbert. Tutte le trasformate integrali possono essere viste come equazioni integrali. Ad esempio, la trasformata di Fourier Z ∞ dx e−ixξ φ(x) , φ̃(ξ) = g(ξ) = −∞ diventa un’equazione integrale se si suppone nota la funzione g(ξ) e incognita la funzione φ(x) che è integrata. Come è ben noto, la soluzione di questa equazione integrale si determina mediante la trasformata inversa Z ∞ 1 dξ eixξ g(ξ) . φ(x) = 2π ∞ Questo rappresenta un esempio di equazione integrale di Fredholm di I a specie. Qui si studieranno due classi di equazioni integrali lineari, ossia Rb • Equazioni di Fredholm di I a specie: g(x) = a dt K(x, t) φ(t). Rb • Equazioni di Fredholm di II a specie: φ(x) = g(x) + a dt K(x, t) φ(t). Rx • Equazioni di Volterra di I a specie: g(x) = a dt K(x, t) φ(t). Rx • Equazioni di Volterra di II a specie: φ(x) = g(x) + a dt K(x, t) φ(t). La funzione K(x, t) è detta nucleo integrale. Questo determina tutte le caratteristiche della soluzione. ♣ Le equazioni integrali di Volterra si possono vedere come casi particolari di quelle di Fredholm in cui K(x, t) = 0 per x ≥ t ≥ b. Tuttavia è bene studiarle separatamente in quanto presentano caratteristiche assai diverse. 9.1 Applicazioni Riportiamo alcuni storici problemi la cui formulazione conduce in modo naturale ad equazioni integrali. 9.1.1 Problema di Cauchy Un’equazione differenziale φ′ (t) = F (t, φ(t)) con la condizione iniziale φ(0) = φ0 si può trasformare in un’equazione integrale. Se F (t, φ(t)) è lineare in φ, allora si ottiene un’equazione di Volterra di II a specie. Integrando l’equazione sull’intervallo [0, x] si ha infatti ′ Z x φ (t) = F (t, φ(t)) , dt F (t, φ(t)) ⇐⇒ φ(x) = φ0 + φ(0) = φ0 . 0 Più in generale, un’equazione differenziale lineare della forma F (t) = α0 (t)φ(t) + α1 (t)φ′ (t) + φ′′ (t) , φ(0) = φ0 , φ′ (0) = φ1 , è equivalente all’equazione integrale di Volterra Z x dt K(x, t)ψ(t) , ψ(x) = g(x) + 0 dove ψ(x) = φ′′ (x) , K(x, t) = −α1 − α0 (x − t) , g(x) = F (x) − α0 φ0 − (α1 + α0 x)φ1 , 0 zi =x x l y(x) z(y) α zf =0 ξ 0 α y l β δ β y(x) y F Figura 1: problema di Abel (a sinistra) – problema della corda (a destra) Questo deriva dal fatto che Z tn−1 Z t1 Z x dtn f (tn ) = dt1 dt2 ... 0 0 0 1 (n − 1)! Z 0 x dt (x − t)n−1 f (t) , e quindi ′ φ (x) = φ1 + Z x dtψ(t) , φ(x) = φ0 + φ1 x + Z 0 0 x dt (x − t)ψ(t) . E’ interessante notare che se i coefficienti sono costanti, cioè αk (t) = ck , allora il nucleo dipende solo dalla differenza degli argomenti. In questo caso l’integrale può essere visto come il prodotto di convoluzione fra K(x) e ψ(x). Trovata la funzione φ(x), la soluzione del problema si trova integrando due volte ψ(x) rispetto a x, vale a dire Z x dt (x − t)ψ(t) . φ(x) = φ(0) + φ1 x + 0 Questa tecnica si può estendere senza difficoltà ad equazioni differenziali di ordine qualunque. Se la funzione differenziale originale ha coefficienti costanti, integrando direttamente si ricava l’equazione integrale per φ(x) nella forma Z x dt K(x − t)φ(t) , φ(x) = g(x) + 0 K(x, t) = −α1 − α0 (x − t) , g(x) = φ0 + (φ1 + α1 φ0 )x + Z 0 x dt (x − t)F (t) . Questo significa che le equazioni integrali di Volterra di II specie con nucleo della forma K(x, t) = Pn (x − t), dove Pn è un polinomio di grado n, sono equivalenti ad equazioni integrali di ordine n + 1, con le condizioni iniziali φ(k) (0) = g (k) (0) per k = 0, 1, ..., n. 9.1.2 Problema di Abel (1823) E’ uno dei primi problemi in cui si incontrano equazioni integrali. Questo consiste nel determinare la forma della guida, contenuta in un piano verticale, lungo la quale una particella cade in un tempo fissato (vedi figura 9.1.2). Si orienti l’asse z lungo la verticale e sia (y, z) il piano contenente la guida, la cui forma è determinata da un’equazione z = z(y) che si deve determinare. Sia z = x la quota iniziale della particella, inizialmente ferma e z = 0 la quota di arrivo al tempo t. In un istante generico la particella si troverà in un punto P sulla guida ad una quota 0 < z < x e la tangente alla guida passante per P formerà due angoli α = π p − β ≤ β con l’asse orizzontale y. Trascurando gli attriti, il modulo della velocità nel punto P è v(z) = 2g(x − z) e la componente verticale (negativa) vz (z) = p dz(t) φ(z) = −v(z) sin α = −v(z) sin β =⇒ 2g dt = − √ dz , dt x−z φ(z) = 1 . sin β L’angolo β = β(z) determina indirettamente la forma della guida, ossia l’equazione z = z(y). Integranto l’ultima equazione fra 0 e t e quindi in z fra z(0) = x e z(t) = 0 si ha Z x p φ(z) dz √ g(x) ≡ 2g t = . x−z 0 √ dove per maggior generalità, al posto della costante 2g t si può mettere un’arbitraria funzione di x. L’equazione di Abel è dunque un’equazione di Volterra di I a specie. 9.1.3 Problema della corda Consiste nel determinare la densità di una corda di lunghezza l vincolata nei due punti estremi (x, y) = (0, 0) e (x, y) = (l, 0), nota la sua forma y = y(x). Si suppone che la deformazione dovuta al peso sia piccola in modo che la forma si discosti di poco dalla retta orizzontale y = 0. Conviene orientare l’asse y verso il basso. In tal modo lo spostamento y(x) dovuto al peso è positivo e ovviamente y(0) = y(l) = 0. Prima di affrontare il problema posto, si consideri un filo di massa trascurabile, vincolato agli estremi come la corda sopra e soggetto ad un forza F diretta verso il basso e applicata nel punto P ≡ (ξ, δ), dove y(ξ) = δ è lo spostamento verticale (piccolo) dovuto all’applicazione della forza. La tensione del filo T ∼ T0 si assume costante, che è un’ipotesi ragionevole se l’estensione è trascurabile (piccole deformazioni). Per l’equilibrio delle forze di avrà ξ(l − ξ)F δ δ =⇒ δ = + , (9.1) F = T (sin α + sin β) ∼ T0 ξ l−ξ lT0 dove α, β sono gli angoli che il filo forma con la retta orizzontale (in x = 0 e x = l rispettivamente). Lo spostamento y(x) in un generico punto si ricava dalla similitudine dei triangoli rattangoli ed è proporzionale a F . Lo si può scrivere nella forma ( x(l−ξ) xδ 0 ≤ x ≤ ξ, F ξ = lT0 , y(x) = G(x, ξ) F , G(x, ξ) = ξ(l−x) (l−x)δ F (l−ξ) = lT0 , ξ ≤ x ≤ l . Torniamo ora al problema originale della corda pesante con densità di massa ρ(x). Se l’unica forza presente è la forza peso, nel punto x = ξ sarà applicata una forza infinitesima dF (ξ) = gρ(ξ) dξ dovuta all’elemento infinitesimo di corda di lunghezza dξ (g è l’accelerazione di gravità). Questa forza produce una deformazione infinitesima dy(x) = G(x, ξ) dF (ξ) = gG(x, ξ) ρ(ξ) dξ , nel generico punto x. La deformazione totale della corda nel punto x sarà la somma dei contributi dovuti a tutti gli elementi infinitesimi di corda, ossia Z l G(x, ξ) ρ(ξ) dξ . y(x) = g 0 Si vede quindi che, data la forma della corda y = y(x), la densità di massa ρ(x) è determinata da un’equazione integrale di Fredholm di I a specie. 9.2 Equazioni di Fredholm Con opportune ipotesi sul nucleo e sul termine noto, lo studio di queste equazioni diventa equivalente allo studio delle proprietà di un operatore in uno spazio di Hilbert. Definiamo l’operatore di Fredholm A mediante Z b dt K(x, t) φ(t) . (9.2) (Aφ)(x) = ψ(x) = a Con questa definizione l’equazione di Fredholm di II a specie assume la forma Aφ + g = φ. In particolare, per le equazioni omogenee (g = 0), la soluzione φ è autofunzione dell’operatore A. Ovviamente affinchè tutto questo abbia matematicamente senso, si deve specificare in modo preciso lo spazio in cui si lavora. 9.2.1 Nuclei di Hilbert-Schmidt Costituiscono una classe importante di nuclei integrali a cui corrispondono operatori compatti, detti di Hilbert-Schmid. Per semplicità consideriamo l’intervallo reale I = [a, b] con misura di Lebesgue dx e il quadrato Q = I × I con misura di Lebesgue dµ = dx dt, ma in tutta la trattazione che segue I può essere sostituito da uno spazio qualsiasi munito di misura, come ad esempio l’intera retta reale. • Definizione – Il nucleo K(x, t) si dice nucleo di Hilbert-Schmidt se è a quadrato sommabile in Q, vale a dire Z dx dt |K(x, t)|2 < ∞ . Q • Teorema – Ad ogni nucleo di Hilbert-Schmidt K(x, t) corrisponde un operatore lineare compatto A : L2 (I) → L2 (I) definito dalla (9.2) e la sua norma soddisfa la disuguaglianza Z 1/2 kAk ≤ = kK(x, t)kL2 (Q) . dx dt |K(x, t)|2 Q • Dimostrazione – Dimostriamo dapprima che effettivamente A è un operatore in L2 (I). A tale scopo osserviamo che, come conseguenza del teorema di Fubini, dalla (9.3) segue Z b Z b 2 dx |K(x, t)|2 < ∞ . dt |K(x, t)| < ∞ , a a Le ultime due disuguaglianze sono vere a meno di insiemi di misura nulla, vale a dire per quasi tutti gli x e per quasi tutti i t rispettivamente. Quindi la funzione K(x, t), pensata come funzione di una sola variabile (l’altra è un parametro), appartiene a L2 (I). Data un’arbitraria funzione φ(t) ∈ L2 (I) si ha allora 2 Z Z b b 2 2 dt |K(x, t)|2 . dt K(x, t) φ(t) = φ̄(t), K(x, t) ≤ kφk2 |ψ(x)| = a a Integrando ora rispetto a x si ottiene Z Z b 2 2 2 dx |ψ(x)| ≤ kφk kψk ≡ a Q dt dx |K(x, t)|2 < ∞ . In questo modo abbiamo dimostrato che ψ ∈ L2 (I). Inoltre si ha kψk = kAφk ≤ kφk kK(x, t)kL2 (Q) =⇒ kAk ≤ kkK(x, t)kL2 (Q) Quindi A è un operatore limitato in L2 (I). Per dimostrare che è anche compatto facciamo vedere che è il limite di una successione {AN } di operatori compatti. Sia {ϕn } una base in L2 (I). Allora tutti i possibili prodotti ϕi (I)ϕj (I) formano una base per L2 (Q) e quindi qualunque funzione in L2 (Q) si può sviluppare in serie di Fourier. In particolare si ha K(x, t) = ∞ X aij ϕi (x)ϕj (t) , KN (x, t) = ij=1 N X aij ϕi (x)ϕj (t) . ij=1 La successione di funzioni converge in norma a K(x, t), cioè lim kK(x, t) − KN (x, t)kL2 (Q) = 0 . N →∞ Al nucleo KN (x, t) corrisponde un operatore AN definito dalla (9.2). Per quanto visto sopra si ha kA − AN k ≤ kK(x, t) − KN (x, t)kL2 (Q) → 0 . Quindi la successione di operatori {AN } è uniformemente convergente all’operatore A. Se gli AN sono operatori compatti, allora anche A è compatto. Gli operatori AN sono banalmente compatti perché di rango finito, vale a dire che il loro co-dominio è uno spazio di dimensione finita. Questo si vede facilmente in quanto AN φ(x) = N X aij ϕi (x) ij=1 Z b dt ϕj (t)φ(t) = a N X ci ϕi (x) , i dove si è posto ci = N X aij b Z dt ϕj (t)φ(t) . a j=1 Si vede dunque che per ogni φ ∈ L2 (I), AN φ appartiene al sottospazio di dimensione N generato dai vettori ϕ1 , ϕ2 , ..., ϕN . AN è quindi compatto. ♣ Dalla dimostrazione segue direttamente che ogni operatore di Hilbert-Schmidt è il limite uniforme di una successione di operatori integrali a rango finito. • La corrispondenza fra operatori e nuclei di Hilbert-Schmidt è biunivoca, nel senso che, se A1 φ = A2 φ per ogni φ ∈ L2 (I), allora i nuclei corrispondenti coincidono quasi ovunque in L2 (Q). Infatti se Z b dt [K1 (x, t) − K2 (x, t)] φ(t) = 0 , ∀φ(t) ∈ L2 (I) , a allora si ha anche Z b dt |K1 (x, t) − K2 (x, t)|2 = 0 , a questo perché K1 (x, t) − K2 (x, t) = f (t) ∈ L2 (I). Integrando l’ultima equazione rispetto a x si ottiene il risultato. • Teorema – Se A è l’operatore corrispondente al nucleo di Hilbert-Schmidt K(x, t), allora A† corrisponde al nucleo coniugato K̄(t, x) (si noti lo scambio delle variabili), vale a dire Z b † dt K̄(t, x) φ(t) . (A φ)(x) = a • Dimostrazione – Per ogni coppia di funzioni f, g ∈ L2 (I), usando il teorema di Fubini si ha # "Z # Z "Z Z b b b b ¯ ¯ dx K(x, t) f (x) dt g(t) dt K(x, t) g(t) = dx f (x) (f, Ag) = a a = Z a b dt g(t) "Z a b dx K̄(x, t) f (x) # = a a Z "Z a b dx g(x) a b dt K̄(t, x) f (t) # = (A† f, g) . ♣ In uno spazio finito dimensionale un operatore è rappresentato da una matrice A ≡ {Aij } e l’operatore aggiunto dalla matrice coniugata-trasposta, cioè A† ≡ {Āji }. Come dimostrato sopra i nuclei integrali godono di una proprietà simile, dove però gli indici discreti sono sostituiti da variabili continue. In particolare, se l’operatore è autoaggiunto, allora il nucleo corrispondente soddisfa l’equazione K(x, t) = K̄(t, x), che in uno spazio reale, diventa una semplice condizione di simmetria rispetto allo scambio delle variabili. 9.3 Soluzione delle equazioni integrali di II a specie Per le equazioni integrali di II a specie esistono dei teoremi che stabiliscono sotto quali condizioni esiste la soluzione e permettono inoltre di studiarne le proprietà. Al contrario, per le equazioni di I a non esistono teoremi di carattere cosı̀ generale e ognuna di esse richiede dunque uno studio particolareggiato. 9.3.1 Equazioni a nucleo simmetrico Sono equazioni di Fredholm di II a specie definite da un nucleo integrale di Hilbert-Schmidt soddisfacente la condizione di simmetria K(x, t) = K̄(t, x). Per i teoremi dimostrati sopra, queste equazioni sono equivalenti ad equazioni della forma φ = g + Aφ , (9.3) dove A è un operatore compatto e autoaggiunto in uno spazio di Hilbert astratto. Sotto queste condizioni, per l’operatore A vale il teorema di Hilbert-Schmidt. Questo ci assicura che in H esiste un insieme di autovettori ϕn con autovalori λn di molteplicità finita e ogni vettore ψ ∈ H si può scrivere nella forma X ψ= ck ϕk + ψ0 , Aψ0 = 0 , ck = (ϕk , ψ) . k In particolare si possono sviluppare in questo modo la soluzione φ e il termine noto g. Poniamo quindi X φ = ak ϕk + φ0 , Aφ0 = 0 , k g = X bk ϕk + g0 , Ag0 = 0 , bk = (g, ϕk ) . k Sostituendo questi sviluppi nell’equazione (9.3) e tenendo conto del fatto che Aϕk = λk ϕk si ottiene X [bk − (1 − λk )ak ] ϕk + g0 − φ0 = 0 . k Tenendo conto dell’indipendenza dei vettori ϕk si ricava bk − (1 − λk )ak = 0 , g0 − φ0 = 0 . Si vede dunque che condizione necessaria e sufficiente per l’esistenza della soluzione è che bk = 0 se λk = 1. In tal caso la soluzione è data da φ0 = g0 , an = bn . 1 − λn Queste equazioni determinano tutti i coefficienti di Fourier an della soluzione, tranne i termini corrispondenti all’autovalore λn̂ = 1. Esistono quindi m coefficienti arbitrari corrispondenti alle autofunzioni ϕn̂1 , ϕn̂2 , ..., ϕn̂m con autovalore λn̂ = 1 (m è la molteplicità di tale autovalore). Questi risultati sono di fatto il contenuto del teorema dell’alternativa di Fredholm nel caso simmetrico e sono formulati normalmente nel seguente modo: • Teorema di Fredholm (alternativa) – a) Se λ = 1 non è autovalore dell’operatore A, allora l’equazione di Fredholm di II a specie ha una ed una sola soluzione per qualunque scelta di g. b) Se λ = 1 è autovalore dell’operatore A, allora l’equazione di Fredholm di II a specie ha soluzione se e solo se il termine noto g è ortogonale al sottospazio generato dalle autofunzioni corrispondenti all’autovalore λ = 1. In tal caso esistono infinite soluzioni (la soluzione dipende da un numero di parametri pari alla molteplicità di tale autovalore). ♣ A volte può essere conveniente considerare l’equazione di Fredholm dipendente da un parametro µ ∈ C, I mediante la sostituzione K(x, t) → µK(x, t). In tal caso l’equazione operatoriale diventa φ = g + µ Aφ e il teorema dell’alternativa vale con la banale sostituzione λ = 1 → µλ = 1. Quindi si hanno i due casi seguenti (per semplicità di scrittura supponiamo KerA ≡ {0}): a) µλk 6= 1 per qualunque k; allora esiste una sola soluzione data da φ = (1 − µA)−1 g = X (ϕk , g) ϕk . 1 − µλk k b) µλn̂ = 1 e (g, ϕn̂j ) = 0 ∀j = 1, ..., m, dove m è la molteplicità dell’autovalore λn̂ ; allora la soluzione dipende da m coefficienti arbitrari cj e ha la forma X φ= k6={n̂1 ,...,n̂m } m X (ϕk , g) cj ϕn̂j . ϕk + 1 − µλk j=1 • Esistono teoremi di Fredholm simili al precedente anche per equazioni con nuclei non simmetrici o arbitrari (non di Hilbert-Schmidt). 9.3.2 Equazioni a nucleo degenere Consideriamo ancora equazioni di Fredholm di II a specie Z b dy K(x, y)φ(x) , kK(x, y)kL2 (Q) < ∞ , φ(x) = g(x) + a definite da un nucleo di Hilbert-Schmidt, non necessariamente simmetrico, ma degenere. Questo significa che può essere scritto come prodotto di funzioni dipendenti da una sola variabile. Più precisamente si assume K(x, y) = N X Pk (x)Qk (y) , Pk (x) ∈ L2 [I] , k=1 Qk (x) ∈ L2 [I] , dove Pk sono funzioni (vettori) linearmente indipendenti. Sotto queste ipotesi, l’operatore A associato al nucleo è un operatore di rango N in quanto trasforma ogni funzione φ ∈ L2 in una funzione Aφ che appartiene al sottospazio generato dai vettori Pk . Infatti si ha Z b Z b N N X X qk Pk (x) , dy Qk (y)φ(y) = Pk (x) dyK(x, y)φ(y) = Aφ(x) = a a k=1 k=1 dove si è posto Z b dy Qk (y)φ(y) . qk = a Dopo questa osservazione, l’equazione di Fredholm si può scrivere nella forma φ(x) = g(x) + N X qk Pk (x) . k=1 Usando questo sviluppo di φ nell’equazione originale (9.4) e tenendo conto che Pk sono vettori linermente indipendenti (non necessariamente ortogonali), si ricava un sistema di equazioni algebriche che permette di ricavare i coefficienti qj dello sviluppo. Per vedere questo poniamo Z b Z b dx Qk (x)g(x) . dx Qi (x)Pj (x) , bk = aij = a a Usando queste notazioni e (9.4) in (9.4) si ottiene # " N N N X X X ajk qk . P j bj + qj Pj = j=1 j=1 k=1 Poiché i vettori Pj sono linearmente indipendenti si ottiene un sistema di N equazioni algebriche nelle incognite qj , cioè q j = bj + N X ajk qk , j = 1, 2, ... N k=1 Ricavate le incognite qj , la soluzione dell’equazione (9.4) è data dalla (9.4). La soluzione esiste ed è unica se la matrice δij − aij è invertibile. 9.3.3 Equazioni di Volterra Si consideri un’equazione di Volterra della forma Z x dt K(x, t) φ(t) , |K(x, t)| ≤ C . φ(x) = g(x) + a Come detto sopra, questa equazione si può vedere come un’equazione di Fredholm di II a specie ponendo K(x, t) , a ≤ t ≤ x , KF (x, t) = 0, x ≤ t ≤ b. Per l’ipotesi fatta, KF (x, t) è sommabile ed anche a quadrato sommabile in Q e dunque è un nucleo di Hilbert-Schmidt. Valgono allora tutte le considerazioni fatte precedentemente. In questo caso tuttavia, la soluzione esiste sempre ed è unica per ogni g ∈ L2 ([0, x]). Questo è dovuto al fatto che una qualche potenza dell’operatore Z x dt K(x, t) φ(t) , (Aφ)(x) = a è una contrazione e questo per la (2.4) è sufficiente per affermare che esiste un’unica soluzione. Per vedere che, per n sufficientemente grande An è una contrazione, lavoriamo in C[a, b] con la norma data da kφk = maxa≤t≤b |φ(t)|. Dapprima osserviamo che Z x1 dt K(x1 , t)φ(t) ≤ Ckφk (x1 − a) . |Aφ(x1 )| = a Procedendo ulteriormente si ha Z x2 Z 2 2 dx1 K(x2 , x1 )[Aφ(x1 )] ≤ C kφk |A φ(x2 )| = a a x2 dx1 (x1 − a) ≤ C 2 kφk (x2 − a)2 . 2 Ora si può procedere in questo modo indefinitamente. Dopo n passi si ottiene |An φ(x)| =≤ C n kφk (x − a)n (b − a)n ≤ C n kφk , n! n! da cui segue kAn φk = max |An φ(x)| ≤ C n kφk x∈[a,b] (b − a)n n! =⇒ kAn k ≤ α , dove α < 1 per n abbastanza grande. L’equazione iniziale è della forma φ = Aφ + g = Bφ e se B n è una contrazione, allora l’equazione ha un solo punto fisso. Per quanto visto sopra si ha kB n φ1 − B n φ2 k = kAn (φ1 − φ2 k ≤ α kφ1 − φ2 k , α = Cn (b − a)n n! e per n abbastanza grande α è certamente minore di 1, quindi B n è una contrazione. Si faccia attenzione al fatto che B non è un operatore lineare. 9.3.4 Soluzioni sotto forma di serie di potenze Sia data l’equazione φ = g + µAφ , kµAk < 1 , dove A è un operatore lineare limitato in uno spazio di Hilbert H e g ∈ H. Per l’ipotesi fatta, I − µA è un operatore invertibile e quindi si ha −1 φ = (I − µA) g= ∞ X (µA)k g = g + µAg + µ2 A2 g + ... (9.4) k=0 Per la (8.13) la serie converge uniformemente e può essere vista come una serie di potenze in µ. La serie troncata fornisce quindi una soluzione approssimata all’ordine desiderato nel parametro µ. Le soluzioni delle equazioni integrali di Fredholm con nucleo di Hilbert-Schmidt si possono sempre rappresentare sotto forma di serie di potenze per valori sufficientemente piccoli del parametro µ. L’operatore I − µA corrispondente all’equazione integrale è infatti invertibile per piccoli valori di µ. Per prima cosa verifichiamo che il “prodotto” di due nuclei di Hilbert-Schmidt è ancora un nucleo di Hilbert-Schmidt. Infatti, dati due arbitrari nuclei di Hilbert-Schmidt K(x, t) e H(x, t) e posto Z b dy K(x, y)H(y, t) , G(x, t) = a per la disuguadlianza di Cauchy-Bunjakowskij-Schwartz si ottiene "Z # "Z # b b 2 2 2 |G(x, t)| ≤ dy |K(x, y)| dy |H(y, t)| , a a da cui segue kG(x, t)kL2 (Q) ≤ kK(x, t)kL2 (Q) kH(x, t)kL2 (Q) . (9.5) Da questa considerazione segue che il “prodotto” di un numero arbitrario di nuclei di Hilbert-Schmidt è ancora di Hilbert-Schmidt e in particolare lo sono tutti i nuclei iterati Z b dy K(x, y) Kn−1 (y, t) , n = 2, 3, ... K1 (x, t) = K(x, t) , Kn (x, t) = a Posto kK(x, t)kL2 (Q) = k, dalla (9.5) segue direttamente kK2 (x, t)kL2 (Q) ≤ k 2 , kKn (x, t)kL2 (Q) ≤ k n . Questo significa che per |kµ| < 1 la serie di funzioni ∞ X µn Kn (x, t) = µR(x, t; µ) , |kµ| < 1 , n=1 è convergente. Ai nuclei iterati Kn (x, t) corrispondono le potenze An dell’operatore. Questo significa che l’operatore I − µA è invertibile per |kµ| < 1, cioè −1 (I − µA) = ∞ X n=0 n n µ A =I+ ∞ X n=1 µn An ≡ I + µR(µ) , |kµ| < 1 , dove R(µ) è un operatore compatto il cui nucleo integrale di Hilbert-Schmidt è R(x, t; µ), detto risolvente del nucleo K(x, t). La soluzione può essere scritta nella forma Z b −1 dt R(x, t; µ) g(t) . φ(x) = ((I − µA) g(x) = g(x) + µ a ♣ La condizione |kµ| < 1 è sufficiente ma non necessaria per l’esistenza della soluzione. Ad esempio, come si è mostrato sopra, le equazioni di Volterra con nucleo limitato hanno soluzione sotto forma di serie di potenze per qualunque valore di µ. • Per il teorema dell’alternativa, se µ è diverso dall’inverso di uno degli autovalori di A allora l’equazione ha sempre una sola soluzione, mentre la serie di potenze (9.4) fornisce una soluzione solo per valori di µ < 1/k. Esiste però una complicata espansione in serie di potenze che converge per qualunque valore del parametro diverso dall’inverso di uno degli autovalori. • Si deve fare attenzione che l’unicità della soluzione è strettamente legata alla classe di funzioni scelta. Nei teoremi precedenti si è dimostrata l’unicità in L2 (I), ma le equazioni integrali possono avere una sola soluzione in L2 (I) e allo stesso tempo altre soluzioni più generali (ad esempio non integrabili). 9.3.5 Nuclei Ortogonali Due nuclei K(x, t) e H(x, t) si dicono ortogonali se Z Z b dy K(x, y)H(y, t) = 0 , G2 (x, t) = G1 (x, t) = b dy H(x, y)K(y, t) = 0 . a a Nel caso in cui valga solo una delle due equazioni precedenti i nuclei si dicono semi-ortogonali. Se il nucleo K(x, t) corrispondente ad una equazione di Fredholm è ortogonale a sè stesso, allora R(x, t; µ) = K(x, t) in quanto Kn (x, t) = 0 per n > 1. In tal caso la soluzione è data da Z b dt K(x, t) g(t) φ(x) = g(x) + µ a e ovviamente esiste per ogni valore del parametro. Metodi Matematici della Fisica — Esercizi 10 Contrazioni: metodo delle approssimazioni successive E’ un utile metodo per dimostrare l’esistenza e l’unicità della soluzione e per trovare soluzioni approssimate in molte situazioni sia matematiche che fisiche. Esercizio 1. (Equazioni – Trovare le radici dell’equazione F (x) = 0 nell’intervallo [a, b]. Soluzione – La soluzione cercata è equivalente a trovare il punto fisso della funzione f (x) = x − λF (x) , λ 6= 0 . Se questa è una contrazione per qualche valore di λ, allora l’equazione originale ha una sola radice che si può trovare per approssimazioni successive, cioè x1 = x0 − λF (x0 ) , x2 = x1 − λF (x1 ) , ... xn = xn−1 − λF (xn−1 ) . ♣ Se F (x) è un polinomio in x questo esercizio diventa banale perché è noto che ogni polinomio di grado n ha n radici e quindi f (x) non può essere una contrazione per n > 1. Se invece n = 1, F (x) = ax e f (x) = (1 − a)x è una contrazione per α = |1 − a| < 1. Ovviamente la soluzione esiste per qualunque valore di α, ma il metodo delle contrazioni ci assicura l’esistenza solo per α < 1. Questo significa semplicemente che l’essere f una contrazione è una condizione sufficiente, ma non necessaria per l’esistenza di un’unica soluzione. Questo appena discusso è un caso assolutamente banale, ma si possono incontrare casi complicati in cui la soluzione trovata vale anche per valori dei parametri per cui l’operatore in questione non è una contrazione. Questo si vede generalmente dopo avere trovato la soluzione esatta. Se però ci si ferma ad una soluzione approssimata, bisogna considerare solo quei valori dei parametri per cui l’oeratore è una contrazione. Esercizio 2. (Funzioni Liftsitziane) – Trovare la soluzione dell’equazione f (x) = x per una funzione continua nell’intervallo [a, b] e che soddisfa la condizione di Lifsitz |f (x) − f (y)| ≤ K|x − y| , x, y ∈ [a, b] , K < 1. Soluzione – La funzione f è una contrazione in uno spazio metrico (l’intervallo [a, b] dotato della distanza di IR, esempio 1 sopra) e quindi la soluzione esiste, è unica e si ottiene come limite della successione {xn }, dove x1 = f (x0 ) , x2 = f (x1 ) , ... xn = f (xn−1 ) , con x0 arbitrario. xn rappresenta un valore approssimato della soluzione esatta x = limn→∞ xn . Esercizio 3. (Equazioni di Fredholm) – Trovare la soluzione dell’equazione integrale non omogenea, lineare, di II-specie Z b dy K(x, y) f (y) , f (x) = ϕ(x) + λ a dove λ è un parametro arbitrario, mentre ϕ(x) e K(x, y) sono funzioni date, continue nell’intervallo [a, b]. K(x, y) è detto nucleo dell’equazione e, per l’ipotesi di continuità, |K(x, y| ≤ M . Soluzione – Nello spazio C[a, b] si consideri l’applicazione Z b dy K(x, y) f (y) . g(x) = (Af )(x) = ϕ(x) + λ a Dalla definizione di distanza in C[a, b] si ha ρ(g1 , g2 ) = max |g1 − g2 | ≤ |λ|(b − a) M ρ(f1 , f2 ) =⇒ ρ(Af1 , Af2 ) ≤ |λ|(b − a) M ρ(f1 , f2 ) . Se λ (b − a)M < 1, l’applicazione A è una contrazione nello spazio C[a, b], che è completo. Per λ sufficientemente piccolo l’equazione di Fredholm ha quindi un’unica soluzione che può essere ottenuta per approssimazioni successive a partire da una funzione arbiraria f0 . Si ha Z b dy K(x, y) fn−1 (y) , n = 1, 2, 3, ... fn (x) = ϕ(x) + λ a 11 Spazi di Hilbert Esercizio 4. (Funzioni di Hermite) – Si veda la trasformata di Fourier come un operatore lineare F : L2 → L2 e si cerchino le funzioni (autofunzioni) che rimangono invarianti (a meno di un fattore) per questo tipo di trasformazione. Soluzione – Se ψ è una funzione di L2 invariante per trasformazioni di Fourier, allora F [ψ(x)](k) = ψ̃(k) = λψ(k) , (11.1) dove λ è un numero complesso. Applicando tuttavia 4-volte di seguito la trasformata di Fourier si deve ottenere la funzione di partenza, dunque ψ = F 4 [ψ] = F 3 [λψ] = F 2 [λ2 ψ] = F [λ3 ψ] = λ4 ψ =⇒ λ = ±1, ±i . La trasformata di Fourier, vista come operatore F : L2 → L2 ha autovalori ±1, ±i. Alcune autofunzioni si possono ricavare ricordando la proprietà della trasformata di Fourier F [(−ix)n f (x)](k) = d F [f ](k) dk n e il fatto che la gaussiana ψ0 (x) = e− 2 − k2 F [ψ0 ](k) = e x2 2 è autofunzione, come si verifica direttamente. Infatti = ψ0 (k) =⇒ λ0 = 1 . Consideriamo ora la funzione ψ1 (x) = −ixψ0 (x). Per questa si ha F [ψ1 (x)](k) = F [−ixψ0 (x)](k) = ψ0′ (k) = −iψ1 (k) =⇒ λ1 = −i . Analogamente per ψ2 (x) = [(−ix)2 + (1/2)]ψ0 (x) si ha 1 F [ψ2 (x)](k) = ψ0′′ (k) + ψ0 = −ψ2 (k) =⇒ λ2 = −1 . 2 Per procedere oltre osserviamo che, se ψ(x) è autofunzione con autovalore λ, allora xψ(x) − ψ ′ (x) è autofunzione con autovalore −iλ. Infatti F [xψ(x) − ψ ′ (x)] (k) = iψ̃ ′ (k) − ik ψ̃(k) = −iλψ(k) . Per ottenere le autofunzioni di F basta quindi agire con l’operatore x − d/dx, partendo da ψ0 . In questo modo abbiamo ψ0 = e− x2 2 , ψ1 = 2xψ0 , ψ2 = (4x2 − 2)ψ0 , ... Evidentemente esistono infinite autofunzioni che sono tutte della forma ψn (x) = Hn (x) e− x2 2 , funzioni di Hermite, (11.2) dove Hn sono polinomi di grado n con parità definita, detti polinomi di Hermite e coincidono con quelli visti sopra. Esercizio 5. (Oscillatore armonico) – Trovare autofunzioni e autovalori dell’operatore differenziale d2 2 2 H : IR → IR dato da H = − dx 2 + α x . Soluzione – Si consideri l’equazione differenziale d2 − 2 + α2 x2 ψ(x) = −ψ ′′ (x) + α2 x2 ψ(x) = µαψ(x) , dx (11.3) che, con un’opportuna scelta del parametro α diventa quella che descrive l’oscillatore armonico in meccanica quantistica. α è un parametro dimensionale e per quanto concerne l’interesse matematico, si può porre uguale a 1 senza perdere in generalità. Questo equivale a scegliere variabili a-dimensionali mediante la trasformazione x → x/α. Le dimensioni corrette si potranno ristabilire a fine calcolo mediante l’analisi dimensionale. Si osservi che, per α = 1, l’equazione (11.3) è invariante rispetto a trasformazioni di Fourier. Infatti si ottiene −(ik)2 ψ̃(k) − α2 ψ̃ ′′ (k) = µψ̃(k) =⇒ −ψ̃ ′′ (k) + k2 µ ψ̃(k) = ψ̃(k) . 2 α α (11.4) Questo significa che se ψ(x) = f (x) è soluzione della (11.3), allora ψ̃(k) = f (k) è soluzione della (11.4). In altre parole, le soluzioni dell’equazione (11.3) (autofunzioni dell’oscillatore armonico) sono anche autofunzioni dell’operatore F . Le autofunzioni di F sono le funzioni di Hermite (11.2). Sostituendo ψ(x) con ψn (x) nell’equazione differenziale (11.3) (con α = 1) si ottiene −ψn′′ (x) + x2 ψ(x) = − [Hn′′ (x) − (2x + 1)Hn′ (x)] e− x2 2 = µn Hn e− x2 2 , da cui segue Hn′′ (x) − (2x + 1)Hn′ (x) + µn Hn (x) = 0 , Hn (x) = n X aj xj . (11.5) j=0 Usando nell’equazione (11.5) l’espressione esplicita per i polinomi Hn (x) si ottengono le formule di ricorrenza n X j=0 [(j + 1)(j + 2)aj+2 − (2j + 1 − µn )aj ] xj = 0 =⇒ aj+2 = 2j + 1 − µn , (j + 1)(j + 2) j = 0, 1, ..., n − 2 , an+2 = 0 = 2n + 1 − µn . (n + 1)(n + 2) Dall’ultima espressione si ricava µn = 2n + 1 che è l’autovalore corrispondente all’autofunzione ψn . In conclusione si ha Hn′′ (x) − 2xHn′ (x) + (2n + 1)Hn (x) = 0 , aj+2 = 2(j + 1 − n) , (j + 1)(j + 2) j ≤ n − 2. L’ultima espressione permette di ricavare esplicitamente i coefficienti dei polinomi di Hermite. Le funzioni di Hermite costituiscono un sistema ortogonale completo in L2 (−∞, ∞). Di norma la completezza è di difficile dimostrazione, mentre invece è immediato verificare l’ortogonalità. Usando la (11.3) si ha −ψn′′ + x2 ψn = µn ψn , ′′ −ψm + x2 ψm = µm ψm . Moltiplicando la prima per ψm e la seconda per ψn e sottraendo si ottiene ′′ ψn′′ ψm − ψn ψm = d ′ (ψ ′ ψm − ψn ψm ) = (µm − µn )ψn ψm . dx n Assumendo n 6= m e integrando si ricava il risultato desiderato, cioè Z ∞ Z ∞ 1 d ′ ψn ψm dx = (ψ ′ ψm − ψn ψm ) dx = 0 . µm − µn −∞ dx n −∞ (11.6) 12 Distribuzioni Esercizio 6. (Proprietà di δ) – Verificare che per ogni a, y ∈ C I e α(x) ∈ C ∞ , per la distribuzione ′ δ ∈ D (IR) valgono le seguenti proprietà,: 1) δ(x) = δ(−x) , 2) 3) 5) δ(ax) = δ(x) |a| , xδ(x) = 0 , 4) 6) , δ(x2 − a2 ) = δ(x−a)+δ(x+a) 2|a| 1 1 2 δ x − y = x δ(x − y) = y 2 δ(x − y) , α(x) δ(x − a) = α(a) δ(x − a) . Soluzione – Le prime quattro sono una diretta conseguenza delle regole sul cambiamento di variabile, mentre le altre due seguono dalla definizione usando il fatto che x e α(x) sono funzioni C ∞ . A titolo di esempio verifichiamo la 4) e la 6). 4) Soluzione – poniamo g(x) = 1/x − 1/y, g ′ (x) = −1/x2 . L’equazione g(x) = 0 ha come unica soluzione x1 = y, per cui si ha δ(x − x1 ) 1 1 δ = − = y 2 δ(x − y) = x2 δ(x − y) . x y |g ′ (x1 )| 6) Soluzione – osserviamo che (α(x)δ(x − a), ϕ(x)) = (δ(x − a), α(x)ϕ(x)) = α(a) ϕ(a) = α(a) (δ(x − a), ϕ(x)) , da cui segue la 6). Esercizio 7. (Funzione ϑ di Heaviside) – Verificare che la derivata della funzione ϑ(x) (funzione a gradino, che vale 1 per x positivo e 0 per x negativo), vista come distribuzione in D′ (IR) coincide con δ(x), mentre la sua primitiva è la distribuzione f = xϑ(x) + c (c costante arbitraria). Soluzione – ϑ(x) è una funzione localmente sommabile e dunque definisce una distribuzione regolare. Si ha Z ∞ Z ∞ dx ϕ(x) , dx ϑ(x)ϕ(x) = (ϑ, ϕ) = 0 −∞ da cui segue ′ ′ (ϑ , ϕ) = −(ϑ, ϕ ) = − Z ∞ dx ϕ′ (x) = ϕ(0) = (δ, ϕ) =⇒ ϑ′ = δ . 0 Derivando f otteniamo f′ = d [xϑ(x) + c] = ϑ(x) + xδ(x) = ϑ(x) , dx e quindi f è la primitiva di ϑ. Esercizio 8. (Derivate successive di δ) – Verificare che le derivate successive δ (k) di δ in D′ (IR) sono distribuzioni linearmente indipendenti. Questo significa che, qualunque sia n fn = n X ak δ (k) = 0 =⇒ ak = 0 , k = 0, 1, 2, ..., n k=0 Soluzione – Applicando fn ad un’arbitraria funzione test, usando la linearità del funzionale e la definizione di derivata, si ha 0 = (fn , ϕ) = n X (−1)k ak (δ, ϕ(k) ) = k=0 n X (−1)k ak ϕ(k) (0) . k=0 Poiché ϕ è arbitraria, tutti i coefficienti ak devono annullarsi. Esercizio 9. (Rappresentazioni di δ) – Verificare che data una qualunque funzione f sommabile in IR e tale che Z dx f (x) = 1 , IR si ha δ(x) = lim kf (kx) = lim ε→0 k→∞ 1 f (x/ε) . ε Soluzione – La dimostrazione si ottiene banalmente derivando la primitiva della funzione kf (kx). Si ha Z kx Z x dt f (t) → ϑ(x) , (12.1) dt k f (kt) = Fk (x) = −∞ −∞ da cui Fk′ (x) = kf (kx) → ϑ′ (x) = δ(x) . Esercizio 10. (Derivate in D′ (IR)) – Calcolare esplicitamente le derivate delle seguenti distribuzioni: 1) |x| , 2) log |x| , 3) P 1 . x 1) Soluzione – La distribuzione è regolare. Dalla definizione di derivata si ha Z 0 Z ∞ Z ∞ d|x| ′ ′ ′ dx xϕ′ (x) dx xϕ (x) + dx |x|ϕ (x) = − ,ϕ = −(|x|, ϕ ) = − dx −∞ 0 −∞ Z 0 Z ∞ 0 ∞ dx ϕ′ (x) dx ϕ′ (x) + [xϕ(x)]−∞ − = − [xϕ(x)]0 + −∞ 0 Z ∞ Z ∞ dx ϑ(−x) ϕ′ (x) dx ϑ(x) ϕ′ (x) − = −∞ −∞ Z ∞ dx [ϑ(x) − ϑ(−x)] ϕ′ (x) = (ϑ(x) − ϑ(−x), ϕ) . = −∞ Di qui segue d|x| dx = ϑ(x) − ϑ(−x). 2) Soluzione – La distribuzione è regolare. Come sopra si ha Z ∞ d log |x| dx log |x|ϕ′ (x) ,ϕ = −(log |x|, ϕ′ ) = − dx −∞ Z 0 Z ∞ ′ dx log(−x)ϕ′ (x) dx log xϕ (x) − = − 0 = − lim ε→0 Z ∞ −∞ dx log xϕ′ (x) + ε ∞ Z −ε −∞ dx log(−x)ϕ′ (x) Z −ε ϕ(x) ϕ(x) −ε dx + [log(−x)ϕ(x)]−∞ − ε→0 x x ε −∞ Z ∞ Z −ε ϕ(x) ϕ(x) dx + dx = lim log ε [ϕ(ε) − ϕ(−ε)] + lim ε→0 ε→0 x x −∞ ε Z ∞ ϕ(x) 1 dx = lim log ε [2εϕ′ (0) + o(ε2 )] + v.p. = P ,ϕ . ε→0 x x −∞ Z ∞ = − lim [log xϕ(x)]ε − Quindi si ha d log |x| dx =P 1 x . dx 3) Soluzione – La distribuzione è singolare. Usando la definizione si ha Z ∞ Z −ε d ϕ′ (x) ϕ′ (x) 1 1 ′ dx dx P ,ϕ = − P , ϕ = − lim + ε→0 dx x x x x ε −∞ ( ) ∞ Z ∞ −ε Z −ε ϕ(x) ϕ(x) ϕ(x) ϕ(x) = − lim dx 2 + dx 2 + + ε→0 x ε x x −∞ x ε −∞ Z −ε Z ∞ Z ∞ ϕ(0) ϕ(x) − ϕ(0) 2ϕ(0) dx 2 − v.p. dx + + o(ε) − lim = lim ε→0 ε→0 ε x x2 −∞ ε −∞ Z ∞ 1 ϕ(x) − ϕ(0) = − P 2,ϕ . dx = −v.p. 2 x x −∞ Si vede dunque che d 1 1 P = −P 2 , dx x x P Z ∞ ϕ(x) − ϕ(0) 1 dx , ϕ ≡ v.p. . 2 x x2 −∞ Esercizio 11. (Limiti in D′ (IR)) – In D′ (IR) calcolare i limiti per ε → 0 delle seguenti distibuzioni: 1) x , x2 + ε2 2) ε , x2 + ε2 3) sin(x/ε) , x 4) eix/ε P 1 , x 5) cos(x/ε) P 1) Soluzione – Osserviamo che 1 1 1 1 1 x 1 1 → =P . = lim lim 2 + + ε→0 2 ε→0 x + ε2 x + iε x − iε 2 x + i0 x − i0 x Nell’ultima espressione si sono usate le formule di Sokhotski. 2) Soluzione – La funzione si può scrivere nella forma (1/ε) f (x/ε) dove Z ∞ 1 dx f (x) = [arctan(x)]∞ , f (x) = 2 −∞ = π . x +1 −∞ Per quanto visto sopra la funzione è quindi una rappresentazione della δ e pertanto ε lim = πδ(x) . ε→0 x2 + ε2 3) Soluzione – La funzione data si può scrivere nella forma (1/ε) f (x/ε) dove ora Z R sin x sin x dx , lim = π, f (x) = R→∞ −R x x e pertanto lim ε→0 1 x sin = πδ(x) . x ε L’integrale di f (x) si calcola facilmente usando il metodo dei residui. 4) Soluzione – Data un’arbitraria funzione test con supporto in [−R, R] si ha Z R Z R/ε eix/ε ϕ(x) eiy ϕ(εy) 1 dx dy = v.p. . (eix/ε P , ϕ) = v.p. x x y −R −R/ε Prendendo il limite ε → 0 otteniamo Z ∞ 1 eiy lim (eix/ε P , ϕ) = v.p.ϕ(0) dy = iπ ϕ(0) = iπ (δ, ϕ) . ε→0 x y −∞ In conclusione lim eix/ε P ε→0 1 = iπ δ(x) . x 1 . x Anche l’ultimo integrale si calcola usando il metodo dei residui. 5) Soluzione – Anziché applicare la distribuzione ad una funzione test osserviamo che x 1 x 1 1 x 1 lim cos P = lim eix/ε − i sin P = lim eix/ε P − lim i sin P = 0. ε→0 ε→0 ε→0 ε→0 ε x ε x x ε x Esercizio 12. (Limiti in D′ (IR)) – In D′ (IR) calcolare i limiti per t → ∞ delle seguenti distibuzioni: 1) eixt , x ± i0 2) e−ixt , x ± i0 3) tm e−ixt (m ≥ 0) . 1) Soluzione – Usando le formule do Sokhotski e i risultati dell’esercizio precedente otteniamo eixt 1 lim = lim eixt P + iπδ = 2πiδ(x) , t→∞ x − i0 t→∞ x eixt 1 lim = 0. = lim eixt P − iπδ t→∞ x + i0 t→∞ x 2) Soluzione – Volendo usare i risultati appena ottenuti poniamo x = −y, pertanto e−ixt = − lim t→∞ t→∞ x + i0 −ixt e lim = − lim t→∞ x − i0 t→∞ lim eiyt = −2πiδ(y) = −2πiδ(x) , y − i0 eiyt = 0. y + i0 3) Soluzione – La distribuzione è regolare. Applicandola ad una generica funzione test si ha Z ∞ m −itx m dx e−itx ϕ(x) = tm ϕ̃(t) , (t e , ϕ) = t −∞ dove ϕ̃(t) è la trasformata di Fouriesr di ϕ(x). Poiché ϕ(x) ∈ C ∞ , ϕ̃(t) decresce all’infinito più rapidamente di qualsiasi potenza e pertanto il limite della distribuzione data è nullo per qualunque valore di m. P∞ Esercizio 13. (Serie trigonometrica) – Verificare che la serie trigonometrica k=−∞ ak eikx converge in D′ (IR) se |ak | ≤ A|k|m +B, con A, B, m arbitrari, m ≥ 0. ak è quindi un polinomio di grado qualunque. Soluzione – Per quanto visto nella sezione sulla derivazione in D′ (IRn ), le serie di funzioni localmente sommabili e uniformemente convergenti su ogni compatto si possono derivare quanto si vuole. Per dimostrare che la serie trigonometrica converge, basta mostrare che, sotto le ipotesi fatte, è ottenibile derivando una serie uniformemente convergente. A tale scopo costruiamo la serie di funzioni localmente sommabili ∞ X ak a0 xm+2 + eikx (m + 2)! (ik)m+2 (12.2) k=−∞ che converge uniformente in tutto IR, in quanto è maggiorata da una serie numerica convergente. Infatti si ha ∞ ∞ ∞ X X X ak B A |ak | ikx . e ≤ + ≤ (ik)m+2 |k|m+2 k2 k m+2 k=−∞ k=−∞ k=−∞ Derivando m + 2 volte la serie in (12.2) si ottiene esattamente la serie del problema. Esercizio 14. (Serie di δ) – Mostrare che le serie seguenti convergono in D′ (IR) qualunque sia ak ∈ C: I 1) ∞ X k=−∞ ak δ(x − k) , 2) ∞ X k=−∞ ak δ (k) (x − k) . 1) Soluzione – Applicando la serie ad un’arbitraria funzione test con supporto in [−R, R] si ha ! R ∞ ∞ ∞ X X X X ak ϕ(k) < ∞ . ak ϕ(k) = ak (δ(x − k), ϕ(x)) = ak δ(x − k), ϕ(x) = k=−R k=−∞ k=−∞ k=−∞ La serie si tronca perché ϕ(k) = 0 per k > R. 2) Soluzione – Le derivate delle funzioni test sono ancora funzioni test e quindi ! R ∞ ∞ X X X (k) (−1)k ak ϕ(k) < ∞ . (−1)k ak ϕ(k) (k) = ak δ (x − k), ϕ(x) = k=−R k=−∞ k=−∞ Esercizio 15. (Formula di Poisson) – Dimostrare che in D′ (IR) valgono le identità ∞ X 1) 2) k=−∞ ∞ X k=−∞ δ(x − 2πk) = ∞ 1 1 X 1 + cos(kx) = 2π π 2π k=1 ∞ 2 X cos(2k + 1)x . (−1)k δ(x − πk) = π ∞ X k=−∞ eikx = 1 2π ∞ X e−ikx , k=−∞ k=0 1) Soluzione – Ricordiamo che per x ∈ (0, 2π) vale lo sviluppo di Fourier x−π = X n∈Z Z;n6=0 ieinx , n ∀x ∈ (0, 2π) . Per x ∈ IR, la serie precedente produce una funzione periodica f (x) (dente di sega), che può essere scritta nella forma f (x) = π + X n∈Z Z;n6=0 ∞ X ieinx (x − 2πn) χn (x) , = n n=−∞ x ∈ IR , (12.3) dove χn (x) è la funzione caratteristica dell’intervallo (2πn, 2π(n + 1)), che vale 1 dentro l’intervallo e zero altrimenti. Quindi χn (x) = ϑ(x − 2πn) − ϑ(x − 2π(n + 1)) =⇒ χ′ (x) = δ(x − 2πn) − δ(x − 2π(n + 1)) . P∞ Derivando la distribuzione f , tenendo conto che n=−∞ χn (x) = 1 e xδ(x) = 0 si ottiene − X einx = f ′ (x) ∞ X = {χn (x) + (x − 2πn) [δ(x − 2πn) − δ(x − 2π(n + 1))]} n=−∞ n∈Z Z;n6=0 = 1 − 2π ∞ X n=−∞ δ(x − 2π(n + 1)) = 1 − 2π ∞ X n=−∞ δ(x − 2πn) , da cui segue direttamente la 1). Si deve osservare che in D′ (IR) è lecito derivare termine a termine la (12.3) perché il membro di destra dell’equazione è la derivata di una serie uniformemente convergente. 2) Soluzione – In questo caso si può procedere in modo opposto a quello precedente. Chiamando f ′ (x) la primitiva del primo membro della 2) e ricordando che δ(x) è la derivata della funzione ϑ(x) si ha f (x) = ∞ X k=−∞ (−1)k ϑ(x − πk) , a meno di una costante inessenziale. Notiamo che f (x) = ∞ X k=−∞ (−1)k ϑ(x − πk) = ... + [ϑ(x + 2π) − ϑ(x + π)] + [ϑ(x) − ϑ(x − π)] +[ϑ(x − 2π) − ϑ(x − 3π)] + [ϑ(x − 4π) − ϑ(x − 5π)] + ... è la funzione ottenuta mediante il prolungamento periodico dell’impulso quadrato seguente: 1 , x ∈ (0, π) , ε(x) = 0 , x ∈ (−π, 0) . La serie di Fourier di tale funzione è data da ε(x) = ∞ ∞ 1 X 1 − (−1)n 2 X sin(2k + 1)x sin(nx) = , π n=1 n π 2k + 1 x ∈ (−π, π) . k=1 Per ogni x ∈ IR abbiamo dunque f (x) = ∞ 2 X sin(2k + 1)x , π 2k + 1 k=1 da cui derivando si ottiene la 2) come richiesto. E’ lecito derivare termine a termine per lo stesso motivo dell’esercizio precedente. ♣ Applicando il risultato ottenuto in 1) ad una funzione test si ottiene la formula di somma di Poisson. Si ha ! ∞ ∞ X X ϕ(2πk) , δ(k − 2π), ϕ = k=−∞ k=−∞ ∞ X k=−∞ 1 2π Z dx e−ikx ϕ(x) = 1 2π ∞ X ϕ̃(k) , k=−∞ da cui segue ∞ X ϕ(2πk) = k=−∞ 1 2π ∞ X ϕ̃(k) , formula di somma di Poisson. k=−∞ Come per le distribuzioni temperate, la trasformata di Fourier è definita in maniera ‘asimmetrica‘ mediante Z ∞ Z ∞ 1 dk eikx ϕ̃(k) . dx e−ikx ϕ(x) , ϕ(x) = ϕ̃(k) = 2π −∞ −∞ Si noti che se φ(x) ∈ D allora il primo membro della formula di Poisson è costituito da una somma finita. Se invece ϕ(x) ∈ S allora si ha un’identità fra due serie. A titolo di esempio prendiamo ϕ(x) = exp(−αx2 ) con α > 0. Allora abbiamo r Z ∞ Z ∞ π −k2 /4α −α(x+ikx/α)2 −ikx −αx2 −k2 /4α dx e = dx e e =e φ̃(k) = e . α −∞ ∞ Si ottiene in tal modo l’indentità di Jacobi ∞ X n=−∞ ∞ X 2 2 1 e−n /4α . e−2παn = √ 2 πα n=−∞ Esercizio 16. (Equazioni algebriche) – Siano y = y(x) ∈ D′ (IR), ϕ ∈ D(IR), α(x) ∈ C ∞ e n ∈ IN. Si assuma inoltre che α(x) si annulli soltanto in x0 e si indichino con a, b, c, ak delle costanti arbitrarie. Risolvere le seguenti equazioni algebriche: 1) xy = 0 , 6) α(x)y = 0 , 2) xy = 1 , 3) xy = P 7) x(x − 1)y = 0 , 1 , x 4) x2 y = 2 , 8) y cos x = 0 , 5) xn y = 0 , 9) x(x + 1)2 y = 0 . 1) Soluzione – Vista come funzione, y(x) = 0 per x 6= 0 e l’equazione perde di signifcato per x = 0. Nell’ambito delle distribuzioni l’equazione ha soluzioni per ogni valore di x. E’ evidente che la soluzione avrà supporto in {0}. Applicando la distribuzione alla generica funzione test si ha (xy, ϕ) = (y, xϕ) = 0 =⇒ y = a δ . 2) Soluzione – Una soluzione particolare è data da P y = aδ + P 1 x e pertanto la soluzione generale è 1 . x 3) Soluzione – Una soluzione particolare è data da P x12 e quindi y = aδ + P 1 . x2 4) Soluzione – Una soluzione particolare è data da 2 P x12 . Per trovare la soluzione generale dell’equazione omogenea ricordiamo che (xm δ (n) , ϕ) = (δ (n) , xm ϕ) = (−1)n dn m [x ϕ(x)]|x=0 . dxn L’espressione precedente è nulla per ogni n < m. In particolare si ha 2 1 (x δ, ϕ) = 0 , =⇒ y = aδ + bδ ′ + 2 P 2 . (x2 δ ′ , ϕ) = 0 , x 5) Soluzione – Per quanto visto nell’esercizio precedente si ha y = Pn−1 k=0 ak δ (k) . 6) Soluzione – E’ chiaro che y è una distribuzione che ha supporto su tutti gli zeri di α(x). In questo caso c’e’ un’unico zero semplice e pertanto y = aδ(x − x0 ). 7) Soluzione – La funzione x(x − 1) ha due zeri semplici e quindi y = aδ(x) + bδ(x − 1). 8) Soluzione – In questo caso ci sono infiniti zeri semplici nei punti xk e pertanto si ottiene ∞ X 1 ak δ(x − xk ) , xk = k + y= π. 2 k=−∞ 9) Soluzione – La funzione x(x + 1)2 ha uno zero semplice in x = 0 e uno zero doppio in x = −1. Per quanto visto negli esercizi precedenti si avrà y = aδ(x) + bδ(x + 1) + cδ ′ (x + 1) . Esercizio 17. (Equazioni differenziali) – In D′ (IR) risolvere le equazioni differenziali seguenti (n, m = 0, 1, 2, ..., a, b, c, ak , bk , ck costanti arbitrarie): 1) y (m) = 0 , 2) xn y (m) = 0 , (n > m) , 5) x2 y ′ = 0 , 6) x2 y ′ = 1 , 7) y ′′ = δ , 3) xy ′ = 1 , 4) xy ′ = P 8) (x + 1)y ′′ = 0 , 1 , x 9) (x + 1)2 y ′′ = 0 . 1) Soluzione – E’ chiaro che se non ci sono punti singolari (zeri/infiniti), allora la soluzione ottenuta per le funzioni vale anche nell’ambito delle distribuzioni. Nel caso specifico la soluzione classica y = P m−1 k k=0 ak x è valida per ogni x e definisce una distribuzione regolare. 2) Soluzione – In questo caso si deve tenere conto degli zeri della funzione xn . Per quanto visto precedentemente (vedi equazione algebriche) si ha y (m) = a0 δ + a1 δ ′ + ... + an−1 δ (n−1) . Integrando questa distribuzione 2 volte si ottiene y (m−1) y (m−2) = bm + a0 ϑ + a1 δ + ... + an−1 δ (n−2) , = bm−1 + bm x + a0 ϑx + a1 ϑ + ... + an−1 δ (n−3) , ′ Si vede dunque che integrando m volte si otterrà il polinomio classico, più una distribuzione in D+ (IR) data dalle ϑ e una distribuzione con supporto in {0} dovuta alle δ. Il risultato finale ha la forma y= m−1 X ak xk + m−1 X bk ϑ xm−k−1 + ck δ (k−m) , k=m k=0 k=0 n−1 X dove ak , bk , ck sono costanti arbitrarie. 3) Soluzione – Basta trovare una soluzione particolare e sommarla alla soluzione dell’equazione omogenea scritta sopra. Per trovare la soluzione particolare y0 osserviamo che y0′ = P 1 x =⇒ y0 = log |x| =⇒ y = a + bϑ + log |x| . 4) Soluzione – Procedendo come nell’esercizio precedente si ha y0′ = P 1 x2 =⇒ y0 = −P 1 x =⇒ y = a + bϑ − P 1 . x 5) Soluzione – E’ un caso particolare del caso generale trattato sopra. Si ha y = a + bϑ + cδ. 6) Soluzione – Una soluzione particolare è data da y0′ = P 1 x2 =⇒ y0 = −P 1 x =⇒ y = a + bϑ + cδ − P 1 . x 7) Soluzione – La soluzione si ottiene integrando direttamente, cioè y ′′ = δ =⇒ y ′ = a + bϑ =⇒ y = ax + bϑx + c . 8) Soluzione – La funzione x + 1 ha uno zero semplice in x = −1 e pertanto y ′′ = δ(x + 1) =⇒ y ′ = a + bϑ(x + 1) =⇒ y = ax + b(x + 1)ϑ(x + 1) + c 9) Soluzione – In questo caso c’e’ uno zero doppio in x = −1, pertanto si ha y ′′ = aδ(x + 1) + bδ ′ (x + 1) =⇒ y ′ = aδ(x + 1) + bδ(x + 1) + c , da cui y = a(x + 1)ϑ(x + 1) + bϑ(x + 1) + cx + d . Esercizio 18. (Prodotto di convoluzione) – Ricordiamo alcune proprietà del prodotto diretto e del prodotto di convoluzione, supponendo che questo esista. In tal caso si ha f ∗g =g∗f, f (x + y) ∗ g(x) = (f ∗ g)(x + y) , Dα (f ∗ g) = f ∗ Dα g = g ∗ Dα f . Il prodotto di convoluzione di una qualunque distribuzione con δ esiste e si ha δ∗f =f, δ (m) ∗ f = f (m) . Per δ ∈ D′ (IRn ) vale la relazione δ(x1 , x2 , ... , xn ) = δ(x1 ) · δ(x2 ) · ... · δ(xn ) . Questo segue direttamente dalla definizione di prodotto diretto. Infatti (δ(x1 ) · δ(x2 ) · ... · δ(xn ), ϕ(x1 , x2 , ... , xn )) = = (δ(x2 ) · ... · δ(xn ), (δ(x2 ), ϕ(x1 , x2 , ... , xn ))) (δ(x2 ) · ... · δ(xn ), ϕ(0, x2 , ... , xn )) . Procedendo in questo modo si ottiene (δ(x1 ) · δ(x2 ) · ... · δ(xn ), ϕ(x1 , x2 , ... , xn )) = ϕ(0, 0, ... , 0) = (δ(x1 , x2 , ... , xn ), ϕ(x1 , x2 , ... , xn )) . Prima di procedere definiamo anche una distribuzione δS che rappresenta la “restrizione” della δ ad una superficie S ⊂ IRn . Data una qualunque funzione µ(x) continua sulla superficie regolare S ⊂ IRn , si definisce la distribuzione µδS mediante Z (µδS , ϕ) = dx µ(x)ϕ(x) . (12.4) S Quando la superficie è una iper-sfera di raggio R, cioè IRn ⊃ Sn ≡ {x : |x| = R}, si usa anchela notazione δSn = δ(R − |x|). Riportiamo esplicitamente i tre casi n = 1, 2, 3 che si incontrano spesso nella fisica. Per n = 1, 2, 3 si ottiene rispettivamente (δS1 , ϕ) = ϕ(R) + ϕ(−R) =⇒ δS1 ≡ δ(R − |x|) = δ(x − R) + δ(x + R) , (δS2 , ϕ) = Z dx ϕ(x) = R Z dx ϕ(x) = R2 2π dϑ ϕ(R, ϑ) , 0 |x|=R (δS3 , ϕ) = Z |x|=R Z dΩ ϕ(R, Ω) , Ω dove l’ultimo integrale è fatto sulla sfera unitaria e dΩ = sin ϑ dϑ dϕ è l’elemento infinitesimo di angolo solido. In D′ (IR) calcolare i prodotti di convoluzione seguenti: 1) f = ϑ ∗ ϑ , 4) f = e−|x| ∗ e−|x| , 2) f = ϑ ∗ x2 ϑ , 3) f = xϑ ∗ xϑ , 2 2 5) f = e−ax ∗ x e−ax , a > 0. 1) Soluzione – Poiché entrambi i fattori hanno supporto in IR+ f esiste ed ha supporto in IR+ ′ (f ∈ D+ (IR)) . Derivando si ha f ′ = δ ∗ ϑ = ϑ =⇒ f = xϑ . Si noti che la costante di integrazione è nulla perché f deve avere supporto in IR+ . ′ 2) Soluzione – Anche in questo caso f ∈ D+ (IR). Derivando otteniamo f ′ = δ ∗ x2 ϑ = x2 ϑ =⇒ f = 1 3 x ϑ. 3 3) Soluzione – Derivando e tenendo conto che f ha supporto in IR+ si ottiene f ′ = (xδ + ϑ) ∗ xϑ = ϑ ∗ xϑ =⇒ f ′′ = δ ∗ xϑ = xϑ =⇒ f = 1 2 x ϑ. 6 4) Soluzione – Il prodotto di convoluzione è definito perché entrambi i fattori sono sommabili in IR. In tal caso si ha Z ∞ Z ∞ Z ∞ dy e−y e−|x+y| . dy e−y e−|x−y| + dy e−|y| e−|x−y| = f (x) = −∞ 0 0 Si deve distinguere fra valori di x positivi e negativi. Allora R∞ R∞ Rx dy e−x + x dy ex e−2y + 0 dy e−x e−2y = (1 + x)e−x , 0 R −x R∞ R∞ f (x) = dy ex + −x dy e−x e−2y + 0 dy ex e−2y = (1 − x)ex , 0 Il risultato finale si può scrivere nella forma compatta f = ϑ(x)(1 + x)e−x + ϑ(−x)(1 − x)ex = (1 + |x|)e|x| . x ≥ 0, x ≤ 0. 5) Soluzione – Anche in questo caso entrambi i fattori sono assolutamente integrabili in IR. Per semplificare l’integrazione notiamo che f = g ′ , dove √ Z ∞ 2 2 2 e−ax ∗ e−ax π 1 −ay 2 −a(x−y)2 g(x) = − dy e e = − √ e−ax /2 . =− 2a 2a −∞ 2a 2a Derivando si ha infine r π x −ax2 /2 ′ f =g = e . 2a a ′ ′ Esercizio 19. (Derivazione in D+ (IR)) – In D+ (IR) si consideri la distribuzione ( ϑ(x)xα−1 , α > 0, Γ(α) α ∈ IR , fα (x) = ′ , α ≤ 0, fα+1 dove Γ(x) è la funzione Gamma di Eulero (integrale del II tipo). ′ Mostrare che per ogni g ∈ D+ (IR) e ogni n ∈ IN si ha dn g, dxn 4) fn ∗ g = ϑ ∗ ϑ ∗ ϑ ∗ ... ∗ g . 1) fα ∗ fβ = fα+β , 3) f−n ∗ g = 2) f0 ∗ g = δ ∗ g , Nell’ultima espressione ci sono n fattori ϑ. Tutti i prodotti di convoluzione sopra esistono perché le ′ distribuzioni appartengono a D+ (IR). 1) Soluzione – Dalla definizione si ha Z x ϑ(x)xα+β−1 ϑ(x) ϑ(x)xα+β−1 fα ∗ fβ = = = fα+β . dy y α−1 (x − y)β−1 = B(α, β) Γ(α)Γ(β) 0 Γ(α)Γ(β) Γ(α + β) La funzione Beta (integrale di Eulero del I tipo) è data da Z 1 Γ(x)Γ(y) tx−1 = = B(y, x) , dt B(x, y) = y−1 (1 − t) Γ(x + y) 0 Re x > 0 , Re y > 0 . (12.5) 2) Soluzione – Dalla definizione per α = 0 abbiamo f0 (x) = f1′ (x) = ϑ′ (x) = δ(x) =⇒ f0 ∗ g = δ ∗ g = g . 3) Soluzione – Usando la definizione per α ≤ 0 si ha (n) ′ ′′ f−n = f−n+1 = f−n+2 = ... f0 = δ (n) =⇒ f−n ∗ g = δ (n) ∗ g = δ ∗ g (n) = g (n) . ′ vale anche per α > 0, infatti 4) Soluzione – Notiamo che la relazione fα = fα+1 ′ fα+1 = ϑ(x)xα−1 αϑ(x)xα−1 = = fα . Γ(α + 1) Γ(α) Allora otteniamo ϑ = f1 = f2′ = f3′′ = ... fn(n−1) =⇒ fn = ϑ ∗ ϑ ∗ ... ∗ ϑ , n fattori. ′ (IR) di ϑ si è scritta nella forma ϑ ∗ ϑ = xϑ. Si noti che la primitiva in D+ Esercizio 20. (Derivate di ordine qualunque) – La distribuzione introdotta nell’esercizo precedente ′ permette di definire “derivate” e “primitive” di ordine qualunque in D+ (IR) (anche non intero). + Se g(x) è una funzione con supporto in IR , per quanto visto sopra si ha Z x dg(x) f−1 ∗ g = dy g(y) . , f1 ∗ g = ϑ ∗ g = dx 0 Sostituendo 1 con n ∈ IN si ottengono la derivata e la primitiva di ordine n (purché esistano). ′ (IR) non ci sono problemi di esistenza qualunque sia n. Più in generale si definisce Se g ∈ D+ (α) g = f−α ∗ g , derivata di ordine α , α ∈ IR . g(α) = fα ∗ g , primitiva di ordine α , Queste effettivamente generalizzano il concetto di derivata e integrale. Usando la definizione data, calcolare 2) δ (1/2) , 1) δ(1/2) , 4) ϑ(3/2) . 3) ϑ(3/2) , 1) Soluzione – Le primitive si calcolano applicando direttamente fα , cioè ϑ(x) δ(1/2) = f1/2 ∗ δ = f1/2 = √ . πx 2) Soluzione – Per calcolare le derivate bisogna prima “spostarsi” verso gli α positivi usando la relazione di ricorrenza per fα e usare poi la sua espressione in termini della funzione localmente sommabile. Quindi ′ δ (1/2) = f−1/2 ∗ δ = f1/2 = d ϑ(x) √ . dx πx 3) Soluzione – Come in 1) si ottiene ϑ(3/2) ′ = f5/2 ∗ ϑ = f5/2 = 4ϑ(x) x3/2 √ . 3 π 4) Soluzione – Procedendo come in 2) si ricava ′ ′′ ′ ϑ(3/2) = f−3/2 ∗ ϑ = f−1/2 ∗ ϑ = f1/2 ∗ ϑ = f1/2 ∗δ = ♣ Si osservi che δ(1/2) = d2 ϑ(3/2) , dx2 δ (1/2) = ϑ(3/2) = d ϑ(x) √ . dx πx d δ(1/2) . dx Attenzione! Nelle espressioni delle derivate in 2) e 4) non è lecito effettuare esplicitamente la derivazione della funzione perché derivando si otterrebbe una funzione non localmente sommabile. Ad esempio, g(x) = 2x−1/2 è una funzione localmente sommabile in IR e quindi rappresenta una distribuzione g regolare in D′ (IR). La sua derivata g ′ è ben definita, ma va calcolata applicando la distribuzione ad una funzione test. Derivandola direttamente come fuinzione si ottiene −x−3/2 che non rapprenta nessuna distribuzione. ′ (IR), risolvere l’equazione integrale Esercizio 21. (Equazione di Abel) – In D+ Z x u(t) dt = g(x) , g(x) ∈ C 1 (IR+ ) , g(0) = 0 , 0 < α < 1. (x − t)α 0 Soluzione – Si deve trovare la distribuzione u(x) in termini della funzione g(x) data. Mediante la distribuzione fα introdotta negli esercizi precedenti, l’equazione di Abel si può scrivere nella forma compatta Γ(β) fβ ∗ u = g(x) , 0 < β = 1 − α < 1. Ricordando le proprietà di fα , in particolare fα ∗ fβ = fα+β e f0 = δ, moltiplicando (convoluzione) l’equazione precedente per f−β otteniamo Γ(β) f−β ∗ fβ ∗ u = f−β ∗ g =⇒ Γ(1 − α) u = fα−1 ∗ g = fα ∗ f−1 ∗ g = fα ∗ g ′ . Usando l’espressione esplicita per fα abbiamo infine Z x Z 1 g ′ (t) g ′ (t) sin πx x u(x) = dt dt = . 1−α Γ(α)Γ(1 − α) 0 (x − t) π (x − t)1−α 0 Esercizio 22. (Trasformate di Fourier) – Ricordiamo che in S ′ (IRn ) la trasformata di Fourier è definita in maniera “asimmetrica” in quanto, data un’arbitraria funzione test ϕ ∈ S(IRn ), si ha R F [ϕ](x) = ϕ̃(x) = IRn dk eR−i(k,x) ϕ(k) , =⇒ F [ϕ](x) = (2π)n F −1 [ϕ](−x) . 1 i(k,x) ϕ̃(k) , F −1 [ϕ̃](x) = ϕ(x) = (2π) n IRn dk e Per ogni f ∈ S ′ valgono le proprietà seguenti: 1. 2. F [(−ix)α f ] = Dα F [f ] , F [Dα f ] = (ik)α F [f ] , 3. F [f ∗ g] = F [f ]F [g] , quando ha significato. In S ′ (IR) calcolare le trasformate di Fourier delle seguenti distribuzioni: 1) δ , 2) 1 , 4) ϑ ∗ δ ′ , 3) ϑ , 5) xϑ(x) , 6) f (x − x0 ) , 7) eixk0 f (x) . In S ′ (IR), S ′ (IR2 ) calcolare le trasformate di Fourier delle seguenti distribuzioni: 8) P 1 , |x| 9) P 1 , |x|2 (|x|2 = x21 + x22 ) . dove Z Z 1 ϕ(x) − ϕ(0) ϕ(x) P n , ϕ(x) = + , dx dx n |x| |x| |x|n |x|<1 |x|>1 dx = dx1 dx2 ... dxn e gli integrali precedenti sono fatti su IRn . 1) Soluzione – Dalla terza proprietà, per qualunque distribuzione f ∈ S si ha F [f ] = F [δ∗f ] = F [δ]F [f ] e quindi F [δ] = 1. 2) Soluzione – Osserviamo che F [1](x) = (2π)n F −1 [1](−x) = (2π)n δ(−x) = (2π)n δ(x). In questo caso n = 1 e quindi F [1] = 2πδ. 3) Soluzione – Applicando la definizione si ha Z Z ∞ Z ∞ dk dk ϕ̃(k) = (ϑ̃, ϕ) = (ϑ, ϕ̃) = 0 = lim R→∞ Z R dk 0 Z Z 0 ∞ −∞ ∞ ∞ dx e−ikx ϕ(x) −∞ dx e−ikx ϕ(x) = i lim R→∞ −iRx e −1 Z ∞ dx −∞ e−iRx − 1 ϕ(x) x dx = i lim v.p. ϕ(x) R→∞ x −∞ 1 1 −iRx P , ϕ(x) − i P , ϕ(x) . = i lim e R→∞ x x Per quanto visto negli esercizi precedenti (vedi limiti) si ha finalmente F [ϑ](x) = πδ(x) − iP 1 i =− , x x − i0 F [ϑ](−x) = πδ(x) + iP 1 i = . x x + i0 4) Soluzione – Usando le proprietà del prodotto di convoluzione si ha ϑ ∗ δ ′ = ϑ′ ∗ δ = δ ∗ δ − δ =⇒ F [ϑ ∗ δ ′ ] = F [δ] = 1 . 5) Soluzione – Dalla proprietà 1. scritta per α = 1 si ricava d 1 1 d F [xϑ(x)](k) = i F [ϑ(x)](k) = i πδ(k) − iP = iπδ ′ (k) − P 2 . dk dk k k 6) Soluzione – E’ sufficiente dimostrarlo per una distribuzione regolare. Dalla definizione di trasformata segue Z ∞ Z ∞ dk e−ikx ϕ(k) dx f (x − x0 ) (F [f (x − x0 )](k), ϕ(k)) = (f (x − x0 ), F [ϕ](x)) = −∞ −∞ Z ∞ Z ∞ dk e−ikx e−ikx0 ϕ(k) dx f (x) = = −∞ −ikx0 (f (x), F [e −∞ ϕ](x)) = (F [f ](k), e−ikx0 ϕ(k)) = (e−ikx0 F [f ](k), ϕ(k)) , da cui segue F [f (x − x0 )](k) = e−ik0 F [f (x)](k). 7) Soluzione – Anche qui assumiamo una distribuzione regolare, quindi Z Z ∞ Z ∞ Z ∞ −ikx ixk0 ixk0 dx f (x) dk e ϕ(k) = f (x) dx e f (x)], ϕ) = (F [e = dk e−ixk ϕ(k + k0 ) −∞ −∞ −∞ −∞ ∞ (f (x), F [ϕ(k + k0 )](x)) = (F [f (x)](k), ϕ(k + k0 )) = (F [f (x)](k − k0 ), ϕ(k)) , da cui segue F [eixk0 f (x)](k) = F [f (x)](k − k0 ). 8) Soluzione – Applicando la definizione per n = 1 si ha Z Z 1 ϕ̃(x) − ϕ̃(0) ϕ̃(x) F P dx (k), ϕ(k) = dx + |x| |x| |x| |x|<1 |x|>1 (Z ) Z ∞ Z [e−ikx − 1] e−ikx dk ϕ(k) = dx + dx |x| |x| k=−∞ |x|<1 |x|>1 Z 1 Z ∞ Z ∞ [cos kx − 1] cos kx dx dk ϕ(k) =2 dx + x x x=0 k=−∞ x=1 ) (Z Z ∞ Z ∞ k cos y [cos y − 1] dy + dk ϕ(k) dy =2 y y y=k k=−∞ y=0 (Z ) Z ∞ Z Z k 1 ∞ [cos y − 1] cos y dy dy dk ϕ(k) =2 dy + − y y y=0 k=−∞ y=1 y=1 y = (−2 log |k| − 2c1 , ϕ(k)) . Si ha dunque 1 F P (k) = −2 log |k| − 2c1 , |x| c1 = Z 1 dy 0 1 − cos y − y Z ∞ dy 1 cos y . y 9) Soluzione – In due dimensioni conviene usare coordinate polari x ≡ (r, ϑ), dx = r drdϑ. In questo modo si ha Z 1 Z 2π Z ∞ ϕ̃(r, ϑ) − ϕ̃(0) ϕ̃(r, ϑ) 1 dr dϑ dr = + F P 2 (k), ϕ(k) |x| r r 0 0 1 Z 1 Z Z 2π Z ∞ −i|k|r cos ϑ [e − 1] e−i|k|r cos ϑ dr dϑ = dr dk ϕ(k) + r r 0 0 1 IR2 ( ) Z Z 1 Z 2π Z ∞ Z |k| −iy cos ϑ −iy cos ϑ [e − 1] dy e = dy dϑ dk ϕ(k) dy + − y y y 0 0 IR2 1 1 = (−2π log |k| − 2πc2 , ϕ(k)) , da cui segue 1 F P 2 (k) = −2π log |k| − 2πc2 , |x| c2 = Qui J0 è la funzione di Bessel Z 2π Z 2π 1 1 −iz cos ϑ dϑ e = dϑ eiz cos ϑ . J0 (z) = 2π 0 2π 0 Z 0 1 dy 1 − J0 (y) − y Z 1 ∞ dy J0 (y) . y (12.6) Esercizio 23. (Trasformate di Fourier di δS – In S ′ (IRn ), per n = 1, 2, 3, calcolare le trasformate di Fourier della distribuzione δS definita in (12.4), dove S è la superficie |x| = R. (n=1) Soluzione – In questo caso si ha δS1 = δ(x − R) + δ(x + R) e pertanto F [δS1 ](k) = F [δ(x − R)](k) + F [δ(x + R)](k) = e−ikR F [δ(x)](k) + eikR F [δ(x)](k) = 2 cos kR . (n=2) Soluzione – Dalla definizione otteniamo (F [δ(|x| − R)](k), ϕ(k)) = (δ(|x| − R), ϕ̃(x)) = = R Z 2π Z dϑϕ̃(R, ϑ) = R 0 Z dx ϕ̃(x) |x|=R Z IR 2 dk Z 2π dϑ e−i|k|R cos ϑ ϕ(k) 0 dk J0 (R|k|ϕ(k) = (2πRJ0 (R|k|), ϕ(k)) . IR2 Vediamo dunque che F [δ(R − |x|)](k) = 2πRJ0 (R|k|), dove J0 (z) è la funzione di Bessel in (12.6). = 2πR (n=3) Soluzione – Anche qui usiamo la definizione. Allora Z dx ϕ̃(x) (F [δ(|x| − R)](k), ϕ(k)) = (δ(|x| − R), ϕ̃(x)) = = R2 Z 2π dπ 2πR2 da cui segue F [δ(R − |x|)](k) = 4πR |x|=R π dϑ sin ϑϕ̃(R, ϑ, ϕ) 0 0 = Z Z 3 IR dk Z 1 du e−i|k|Ru ϕ(k) = 4πR −1 Z 3 IR dk sin |k|R ϕ(k) , |k| sin |k|R . |k| Esercizio 24. – In S ′ (IRn ), per n = 1, 2, 3, verificare le identità seguenti ϑ(R−|x|) , x ∈ IR , 2 sin |k|R ϑ(R−|x|) √ , x ∈ IR2 , F −1 (x) = 2π R2 −r 2 |k| δ(R−|x|) , x ∈ IR3 . 4πR (12.7) Nel calcolo per n = 2 si consideri noto il risultato Z R sin |k|R rJ0 (r|k|) , = dr √ 2 − r2 |k| R 0 dove J0 (z) è la funzione di Bessel in (12.6). (n=1) Soluzione – Usando la definizione, facciamo le trasformate di Fourier del secondo membro in (12.7). Per x ∈ IR si ha Z R Z ∞ Z R dx e−ikx ϕ(k) dk dx ϕ̃(x) = (F [ϑ(R − |x|)](k), ϕ(k)) = (ϑ(R − |x|), ϕ̃(x)) = −R −∞ −R Z ∞ sin kR sin kR dk = 2 ϕ(k) = 2 , ϕ(k) . k k −∞ Poiché la funzione è pari, si può sostituire k con il suo modulo ottenendo cosı̀ il risultato richiesto. (n=2) Soluzione – Per x ∈ IR2 si ha Z R Z 2π rdrdϑ ϑ(R − |x|) ϑ(R − |x|) √ √ (k), ϕ(k) = , ϕ̃(x) = ϕ̃(r, ϑ) F √ 2 2 2 2 R −r R −r R2 − r 2 0 0 Z Z R Z 2π rdrdϑ er|k| cos ϑ √ = dk ϕ(k) 2 R2 − r 2 0 0 IR Z Z R rdr J0 (r|k|) sin |k|R √ = 2π = 2π , ϕ(k) . dk ϕ(k) |k| R2 − r 2 0 IR2 (n=3) Soluzione – Questo è esattamente il terzo problema dell’esercizio precedente. Esercizio 25. (Soluzioni fondamentali di operatori differenziali lineari) – Ricordiamo che ogni operatore differenziale lineare a coefficienti costanti possiede una soluzione fondamentale E, la quale è una distribuzione temperata e soddisfa le equazioni X P (D)E = δ , P (ik) F [E](k) = P (ik)Ẽ(k) = 1 , P (D) = aα Dα . (12.8) α ′ ′ D+ (IR), In S (IR) e costante, n ∈ IN): d ± a, 1) dx trovare la soluzione fondamentale dei seguenti operatori lineari (x ∈ IR, a > 0 2) n+1 d ±a , dx 3) d2 − a2 , dx2 4) d2 + a2 , dx2 5) d2 d +2 + 1. 2 dx dx 1) Soluzione – In S ′ si ha P (ik) = ik ± a =⇒ Ẽ(k) = 1 ik ± a =⇒ E(x) = F −1 [E(k)](x) . Calcolando la trasformata inversa otteniamo infine Z ∞ 1 eikx E(x) = = ±ϑ(±x) e∓ax . dk 2πi −∞ k ∓ ia L’ultimo integrale si calcola rapidamente usando il metodo dei residui. E’ immediato verificare che l’espressione trovata soddisfa la (12.8). ′ la soluzione è della forma E(x) = ϑ(x)Z(x) dove 1*) Soluzione – In D+ ′ Z (x) ± aZ(x) = 0 , =⇒ Z(x) = e∓ax =⇒ E(x) = ϑ(x) e∓ax . Z(0) = 1 , ♣ Notiamo che la soluzione coincide con quella ottenuta sopra nel primo caso in cui P (d/dx) = d/dx + a. In tal caso infatti la distribuzione è temperata. Nel secondo caso in cui P (d/dx) = d/dx−a la soluzione non è temperata e quindi dufferisce rispetto a quella ottenuta sopra. 2) Soluzione – In S ′ , procedendo come sopra abbiamo Ẽ(k) = (ik ± a)−(n+1) da cui segue Z ∞ Z ∞ eikx xn xn ∓ax eikx 1 dk = = ±ϑ(±x) e . dk E(x) = n+1 n+1 2π(i) (k ∓ ia) 2πin! −∞ k ∓ ia n! −∞ Per ottenere il risultato precedente si è integrato n volte per parti. ′ si ottiene risolvendo l’equazione differenziale di ordine n + 1 2*) Soluzione – La soluzione in D+ d n dx ± a Z(x) = 0 , xn ∓ax =⇒ Z(x) = e . Z (n) (0) = 1 , n! ′ (n−1) Z(0) = Z (0) = ... = Z = 0, da cui segue E(x) = ϑ(x) xn e∓ax /n!. 3) Soluzione – In S ′ abbiamo 1 1 1 1 , = − Ẽ(k) = − 2 k + a2 2i|a| k + ia k − ia da cui segue E(x) 1 = − 2π = − Z ∞ −∞ −a|x| e 2a . 1 eikx = dk 2 2 k +a 4πia Z ∞ −∞ dk eikx eikx − k + ia k − ia Gli integrali precedenti si calcolano usando il metodo dei residui. ′ si ha facilmente 3*) Soluzione – In D+ ′′ eax − e−ax sinh ax Z (x) − a2 Z(x) = 0 , =⇒ Z(x) = = , ′ Z (0) = 1 , Z(0) = 0 , 2a a da cui E(x) = [ϑ(x) sinh ax]/a. 4) Soluzione – In questo caso si deve fare attenzione al fatto che il polinomio corrispondente all’operatore non è invertibile (come funzione). Senza perdere in generalità possiamo assumere a > 0 e porre a = |a|. Otteniamo allora [(ik)2 + a2 ]Ẽ(k) = −(k − a)(k + a)Ẽ(k) = 1 . Come si verifica direttamente, una soluzione particolare di questa equazione algebrica è data da 1 1 1 1 1 E(k) = −P P . P = −P k+a k−a 2a k+a k−a Si noti che il prodotto delle due distribuzioni sopra è ben definito perché sono “singolari” in punti distinti. Mediante l’antitrasformata otteniamo Z ∞ Z ∞ 1 eikx eikx E(x) = dk v.p. dk − v.p. 4πa k+a k−a −∞ −∞ 1 = sin a|x| . 2a ′ si ha come sopra 4*) Soluzione – In D+ ′′ sin ax eiax − e−iax Z (x) + a2 Z(x) = 0 , = , =⇒ Z(x) = Z ′ (0) = 1 , Z(0) = 0 , 2ai a e infine E(x) = [ϑ(x) sin ax]/a. ♣ Si noti che con la sostituzione a → ia quest’ultima espressione diventa 1 1 sin iax = sinh ax , ia a ′ dell’esercizio precedente. che coincide con la soluzione in D+ 5) Soluzione – In questo caso si ha Ẽ(k) = [−k 2 + 2ki + 1]−1 = −(k − i)−2 da cui segue Z ∞ eikx 1 dk = ϑ(x) x e−x . E(x) = − 2π −∞ (k − i)2 ′ 5*) Soluzione – In D+ si ha ′′ Z (x) + 2Z ′ (x) + 1 = 0 , Z ′ (0) = 1 , Z(0) = 0 , =⇒ Z(x) = x e−x =⇒ E(x) = ϑ(x) x e−x . ′ In questo caso la soluzione in D+ è temperata e coincide con quella in S ′ . Esercizio 26. (Soluzioni fondamentali del laplaciano) – In S ′ (IRn ) trovare le soluzioni fondamentali dell’operatore di laplace ∆ per n = 1, 2, 3, vale a dire: 1) ∆ = d2 , dx2 2) ∆ = ∂2 ∂2 + 2, 2 ∂x1 ∂x2 3) ∆ = 1) Soluzione – In S ′ (IR) si ha F [∆ E(x)](k) = −k 2 Ẽ(k) = 1 =⇒ Ẽ(k) = −P 1 , k2 ∂2 ∂2 ∂2 + + . 2 2 ∂x1 ∂x2 ∂x23 e quindi E(x) 1 1 1 = F −1 −P 2 (x) = (x) F −P k 2π (−k)2 ix 1 1 1 d (x) = (x) = F P F P 2π dk k 2π k Z ∞ ix e−ikx |x| = dk v.p. = . 2π x 2 ∞ 2) Soluzione – In S ′ (IR2 ) abbiamo F [∆ E(x)](k) = −|k|2 Ẽ(k) = 1 =⇒ Ẽ(k) = −P 1 , |k|2 |k|2 = k12 + k22 . Allora si ha 1 1 1 1 1 (x) = E(x) = F −1 −P 2 (x) = F −P log |x| = log r , 2 2 |k| (2π) | − k| 2π 2π dove si è tralasciata la costante inessenziale e si è posto x ≡ (r, ϑ). 3) Soluzione – In S ′ (IR3 ), 1/|k|2 è una funzione localmente sommabile e quindi definisce una distribuzione regolare. Si ha F [∆ E(x)](k) = −|k|2 Ẽ(k) = 1 =⇒ Ẽ(k) = − 1 , |k|2 |k|2 = k12 + k22 + k32 . La trasformata inversa si può calcolare direttamente come funzione. Usando coordinate polari k ≡ (p, ϑ, ϕ), dk = p2 sin ϑ dp dϑ dϕ si ha Z π Z 2π Z 1 Z ∞ Z ∞ 1 1 ipr cos ϑ sin ϑ dϑ e = − dϕ du eipru dp dp E(x) = − (2π)3 0 (2π)2 0 0 0 −1 Z ∞ Z ∞ 2 sin pr sin y 1 1 = − dp dy = − =− , 2 2 r(2π) 0 p r(2π) −∞ y 4πr dove r = |x| (si noti che la soluzione è il potenziale newtoniano). Esercizio 27. (Opetarore di Helmholtz) – In S ′ (IR3 ) trovare la soluzione fondamentale degli operatori 1) ∆ + m2 , 2) ∆ − m2 , m > 0. 1) Soluzione – Posto come sopra k ≡ (p, ϑ, ϕ) otteniamo (−p2 + m2 ) Ẽ(k) = 1 =⇒ Ẽ(k) = − 1 , p2 − m2 − i0 dove si è introdotta la distribuzione singolare Z ϕ(x) 1 , ϕ(x) = lim dx 2 . ε→0 IR3 |x|2 − m2 + i0 |x| − m2 − iε La trasformata di Fourier della funzione (p2 − m2 − iε)−1 in IR3 si può calcolare direttamente. Infatti Z π Z 2π Z ∞ 1 p2 eipr cos ϑ 1 F −1 − 2 sin ϑ dϑ 2 dϕ dp (x) = − 2 3 p − m − i0 (2π) 0 p − m2 − iε 0 0 √ Z ∞ 2 p sin pr eir m +iε 1 dp = − . = − r(2π)2 −∞ p2 − m2 − iε 4πr Facendo il limite ε → 0 abbiamo le due soluzioni E(x) = − eimr , 4πr Ē(x) = − e−imr . 4πr 2) Soluzione – In questo caso la Ẽ(k) = −1/(p2 + m2 ) è una distribuzione regolare. Facendo la trasformata otteniamo Z π Z 2π Z ∞ 1 p2 eipr cos ϑ E(x) = − sin ϑ dϑ 2 dϕ dp 3 (2π) 0 p + m2 0 0 Z ∞ e−mr p sin pr 1 =− . dp 2 = − 2 2 r(2π) −∞ p +m 4πr Questa soluzione corrisponde al potenziale di Yukawa. Esercizio 28. (Equazione del calore) – La propagazione del calore attraverso un mezzo omogeneo è governata dall’operatore ∂ − α∆ , ∂t dove α > 0 è una costante che dipende dal mezzo, t ≥ 0 è il tempo e ∆ il laplaciano in n dimensioni spaziali x ∈ IRn . ′ (IR) × S ′ (IRn ). 1) Determinare la soluzione fondamentale in D+ 1) Soluzione – Facciamo la trasformata di Fourier dell’equazione rispetto a x ∈ IRn , considerando il tempo come un parametro esterno. Allora otteniamo F [δ(t, x)] = F [δ(t) · δ(x)] = δ(t) · F [δ(x)] = δ(t) , ∂ + α |k|2 Ẽ(t, k) = δ(t) . ∂t Poiché t ≥ 0, la soluzione dell’equazione precedente è della forma Ẽ(t, k) = ϑ(t) Z̃(t, k) con Z̃(0, k) = 1 e 2 ∂ + α |k|2 Z̃(t, k) =⇒ Z̃(t, k) = e−α|k| t , |k|2 = k12 + ... + kn2 . ∂t La soluzione cercata è data da E(t, x) = F −1 [Ẽ(t, k)](x) = ϑ(t) F −1 [Z̃(t, k)](x) Z 2 ϑ(t) = dx e−α|k| t ei(k,x) . n n (2π) IR L’integrale si fa facilmente perché è il prodotto di n integrali della forma Z ∞ q2 2 1 1 e− 4αt , dp e−αp t eipq = √ 2π −∞ 2 παt con q = xi (i = 1, 2, ... n. Si ha finalmente E(t, x) = |x|2 ϑ(t) √ n e− 4αt , 2 παt Esercizio 29. (Laplaciano in dimensione qualunque – Metodo della discesa) – Sotto certe condizioni, il metodo della discesa permette di trovare la soluzione fondamentale di un operatore A in IRn , partendo dalla soluzione fondamentale dell’operatore P = ∂t + A in IR1+n ( per analogia con l’equazione del calore, P si chiama operatore del calore). A tale scopo si supponga di avere una funzione K(t, x), integrabile rispetto a t in IR+ e tale che ∂ + A K(t, x) = 0 , lim K(t, x) = δ(x) , lim K(t, x) = 0 . t→∞ t→0 ∂t Integrando l’equazione precedente rispetto a t si ottiene Z Z ∞ i h dt K̇(t, x) + A K(t, x) = K(∞, x) − K(0, x) + A 0= 0 0 ∞ dt K(t, x) , da cui segue Z ∞ dt K(t, x) = δ(x) . A 0 Si vede dunque che l’integrale di K(t, x) è soluzione fondamentale dell’operatore A. Osserviamo ora che la soluzione fondamentale E(t, x) dell’operatore del calore P tende sempre a δ(x) per t → 0 poiché è della forma ϑ(t) Z(t, x), dove Z(t, x) soddisfa l’equazione del calore omogenea. Infatti h i ∂ δ(t)δ(x) = + A ϑ(t) Z(t, x) = δ(t) Z(0, x) + ϑ(t) Ż(t, x) + AZ(t, x) = δ(t) Z(0, x) , ∂t e quindi Z(0, x) = δ(x). Questo significa che se E(t, x) è integrabile in t allora la soluzione fondamentale dell’operatore A è data da Z ∞ dt E(t, x) . E(x) = 0 ♣ Il metodo descritto sopra ha validità più generale come si evince dal seguente • Teorema (metodo della discesa) – Sia u(t, x) ∈ D′ (R1+n ) la soluzione dell’equazione differenziale X P (∂t , Dx )u(t, x) = δ(t)g(x) , P (∂t , Dx ) = P0 (Dx ) + Pq (Dx ) ∂tq , q>0 dove P0 , Pq sono polinomi arbitrari. Se u(t, x) è integrabile in t, allora Z ∞ dt u(t, x) = u(t, x) ∗ 1 . P0 (Dx ) u0 (x) = g(x) , u0 (x) = (12.9) 0 Nell’ultimo termine, ′′ 1′′ è pensato come funzione di t soltanto e quindi come distribuzione appartiene a D′ (IR). Dalla (12.9) segue che la soluzione fondamentale dell’operatore P0 (Dx ) si può ottenere integrando la soluzione fondamentale dell’operatore P (∂t , Dx ) (quando l’integrale esiste). • Dimostrazione – Qui diamo soltanto una semplice dimostrazione formale usando le proprietà delle distribuzioni. Indichiamo con E(t, x) e E0 (x) le soluzioni fondamentali degli operatori P e P0 rispettivamente, quindi P (∂t , Dx )E(t, x) = δ(t) · δ(x) , P0 (Dx )E(x) = δ(x) . Dalle proprietà del prodotto diretto e di convoluzione si ha anche E(t, x) ∗ [1 · δ(x)] = 1 · [E0 (x) ∗ δ(x)] = 1 · E0 (x) , [δ(t) · δ(x)] ∗ [1 · δ(x)] = 1 · δ(x) . Nella formula precedente si conserva la distribuzione ′′ 1′′ , anche se inessenziale, perché siamo in D′ (IR1+n ). Applicando ora l’operatore P otteniamo finalmente P (∂t , Dx )[1 · E0 (x)] = 1 · P0 (Dx )E0 (x) , [P (∂t , Dx )E(t, x)] ∗ [1 · δ(x)] = [δ(t) · δ(x)] ∗ [1 · δ(x)] = 1 · δ(x) . 1) Usando il metodo della discesa, trovare le soluzioni fondamentali dell’operatore di laplace in IRn (n ≥ 3), ossia ∆ = n X ∂2 , ∂x2k k=1 x ≡ (x1 , x2 , .. , xn ) . 1) Soluzione – La soluzione fondamentale dell’equazione del calore ricavata precedentemente è una gaussiana della forma |x|2 1 ∂ − 4αt E(t, x) = √ , − α∆ E(t, x) = δ(t, x) . n e ∂t 2 παt Vediamo che E(t, x) è integrabile in t. Posto α = 1 abbiamo Z ∞ Z ∞ |x|2 n 1 dt E(t, x) = − √ n E(x) = − dt e− 4t t− 2 (2 π) 0 0 n2 −1 Z ∞ n 1 1 Γ(n/2 − 1) 4 = − √ n dτ e−τ τ 2 −2 = − . 2 n/2 |x| ) |x|n−2 (2 π) 4π 0 Questa vale per n ≥ 3, ma “accidentalmente” dà il risultato corretto anche per n = 1. ′ Esercizio 30. (Equazione di Schrödinger) – In D+ (IR) × S ′ (IRn ) trovare la soluzione fondamentale dell’operatore ih̄ h̄2 ∂ + ∆, ∂t 2m ∆ = n X ∂2 , ∂x2j j=1 h̄ > 0 , m > 0. Soluzione – Come per l’equazione del calore, facciamo la trasformata di Fourier rispetto a x ≡ (x1 , ... , xn ). In tal modo ∂ h̄2 |k|2 Ẽ(t, k) = δ(t) =⇒ Ẽ(t, k) = ϑ(t) Z(t, k) , ih̄ − ∂t 2m dove Z(t, k) è soluzione dell’equazione omogenea ih̄ ∂t Z(t, k) − h̄2 |k|2 Z(t, k) = 0 , 2m Z(0, k) = 1 . La soluzione con la condizione iniziale fissata è 2 Z(t, k) = e−iαt|k| , α= h̄ , 2m da cui segue E(t, x) Z ∞ Z n Y 1 1 −iαt p2 ipxj −iαt|k|2 i(k,x) dp e e dk e e = = (2π)n IRn 2π −∞ j=1 " 2 # Z ∞ n Y 2 2 eixj /4αt einπ/4 = du e−iαt u = √ ei|x| /4αt . n 2π (2 παt) −∞ j=1 Finalmente si ha m n2 im|x|2 iπn exp E(t, x) = ϑ(t) . + 2πh̄t 2h̄t 4 Esercizio 31. (Equazione delle onde) – Trovare le soluzioni fondamentali dell’operatore delle onde ′ ′ ′ (IR) × S ′ (IR3 ). (IR) × S ′ (IR2 ) e D+ (IR) × S ′ (IR), D+ 2 = ∂t2 − α2 ∆ (α > 0, costante) in D+ 1) ∆ = ∂2 , ∂x2 2) ∆ = ∂2 ∂2 + 2, 2 ∂x1 ∂x2 3) ∆ = ∂2 ∂2 ∂2 + + . 2 2 ∂x1 ∂x2 ∂x23 1) Soluzione – Come per l’equazione del calore, facciamo la trasformata di Fourier solo rispetto alla variabile x e risolviamo l’equazione ottenuta rispetto a t. In questo modo si ottiene ∂t2 Ẽ(t, k) + α2 k 2 Ẽ(t, k) = δ(t) , Ẽ(t, k) = ϑ(t)Z̃(t, k) , dove Z̃(t, k) è soluzione del problema ∂t2 Z̃(t, k) + α2 k 2 Z̃(t, k) = 0 , Z̃ ′ (0, k) = 1 , Z̃(0, k) = 0 . Integrando con le condizioni iniziali date si ha Ẽ(t, k) = ϑ(t) sin αkt αk =⇒ E(t, x) = ϑ(t) 2πα Z ∞ −∞ dk eikx sin αkt . k Risolvendo l’integrale con il metodo dei residui si ottiene finalmente E(t, x) = 1 ϑ(αt − |x|) . 2α Quest’ultima trasformata si poteva scrivere direttamente usando i risultati dell’esercizio (12.7). 2) Soluzione – Procedendo come sopra si ottiene q ϑ(t) sin α|k|t Ẽ(t, k) = , |k| = k12 + k22 . α|k| La trasformata inversa di questa distribuzione è già stata calcolata nell’esercizio (12.7). Usando quel risultato si ha direttamente E(t, x) = ϑ(αt − |x|) p . 2α α2 t2 − |x|2 3) Soluzione – Anche in questo caso si ha Ẽ(t, k) = ϑ(t) sin α|k|t , α|k| |k| = q k12 + k22 + k32 , e la trasformata inversa è stata calcolata in (12.7). Quindi E(t, x) = ϑ(t) δ(α2 t2 − |x|2 ) ϑ(t) δ(αt − |x|) = . 4πα2 t 2πα 13 Equazioni integrali Esercizio 32. – Usando il metodo del risolvente trovare la soluzione dell’equazione Z π dt sin x cos t φ(t) , g(x) ∈ C[0, π] . φ(x) = g(x) + µ 0 Soluzione – Osserviamo che il primo nucleo iterato K2 (x, t) è nullo. Infatti Z π Z π 1 dy sin x cos y sin y cos t = sin x cos t K2 (x, t) = dy sin 2y = 0 , 2 0 0 e quindi il nucleo dell’equazione è ortogonale a sè stesso. La soluzione esiste per qualunque valore di µ ed è data da Z π dt sin x cos t g(t) . φ(x) = g(x) + µ 0 Esercizio 33. – Usando il metodo delle contrazioni, risolvere l’equazione di Fredholm Z 1 dt x2 t φ(t) . φ(x) = Bφ(x) = 1 + 2 0 Soluzione – E’ immediato verificare che la funzione φ(x) = 1 + 2x2 è un punto fisso dell’operatore B e quindi è una soluzione. Volendo applicare il principio delle contrazioni si può procedere in questo modo. Prima si verifica che B, o una sua qualche potenza, è una contrazione. A questo scopo osserviamo che Z 1 Z 2 1 2 dt t ≤ x2 kφk , dt tφ(t) ≤ 2x max |φ(t)| |Aφ(x)| = 2x t∈[0,1] 0 |A2 φ(x)| ≤ 2x2 Z 1 dt t |Aφ(t)| ≤ 2x2 kφk 0 0 Z 0 1 dt t3 ≤ x2 kφk kφk ≤ . 2 2 Prendendo ora il massimo dell’espressione precedente per x ∈ [0, 1] abbiamo kA2 φk ≤ kφk 2 =⇒ kB 2 φ1 − B 2 φ2 k = kA2 (φ1 − φ2 )k ≤ kφ1 − φ2 k . 2 L’operatore B 2 : C[a, b] → C[a, b] è dunque una contrazione. Scelto allora un punto arbitrario in C[a, b] la soluzione si può determinare per approssimazioni successive. Posto φ0 (x) = 1 si ha banalmente φ1 = Bφ0 = 1 + x2 , φn+1 = B n+1 φ0 = 1 + φ2 = B 2 φ0 = 1 + 3 2 x , 2 φ3 = B 3 φ0 = 1 + 7 2 x , ... 4 2n − 1 2 x =⇒ φ(x) = φ∞ = 1 + 2x2 . 2n−1 Esercizio 34. – Usando il metodo del risolvente trovare la soluzione dell’equazione di Fredholm Z 1 dt xt φ(t) , g(x) ∈ C[0, 1] . φ(x) = g(x) + µ 0 Soluzione – Posto K1 (x, t) = K(x, t) = xt osserviamo che k= Z 0 1 Z 0 1 2 dx dt |K(x, t)| 1/2 = 1 . 3 Il metodo del risolvente si può dunque applicare per |µ| < 3. Si ha K2 (x, y) = xt , 3 K3 (x, t) = xt , ... 9 Kn (x, y) = xt 3n−1 e per |µ| < 3 R(x, t; µ) = ∞ X µn−1 Kn (x, t) = xt n=1 ∞ h in−1 X µ 3xt = . 3 3−µ n=1 La soluzione è quindi φ(x) = g(x) + 3µ 3−µ Z 1 dt xt g(t) . 0 E’ interessante notare che la soluzione precedente esiste per qualunque µ 6= 3. Infatti, dopo la risommazione, il risolvente è definito per qualunque valore di µ 6= 3. Esercizio 35. – Trovare la soluzione dell’equazione di Volterra Z x dt ex−y φ(y) . φ(x) = ex + 0 1) usando il metodo delle contrazioni; 2) usando il metodo del risolvente. 1 Soluzione – Prendiamo come funzione iniziale φ0 (x) = ex . Allora si ha Z x x dy e−y φ0 (y)] = ex (1 + x) , φ1 (x) = e [1 + 0 Z x x2 −y x x dy e φ1 (y)] = e 1 + x + , φ2 (x) = e [1 + 2 0 Z x x2 x3 −y x x dy e φ2 (y)] = e 1 + x + φ3 (x) = e [1 + , + 2 3! 0 ... ... n X xk =⇒ φ(x) = φ∞ (x) = e2x . φn (x) = ex k! k=1 2) Soluzione – Per usare il metodo del risolvente dobbiamo considerare il nucleo di Fredholm troncato x−t t−y e , t ≤ x, e , t ≥ y, KF (x, t) = =⇒ KF (t, y) = 0, t > x, 0, t < y. Calcoliamo ora i nuclei iterati di KF (x, t). Si ha K1 (x, y) K2 (x, t) = KF (x, y) , Z Z x dt KF (x, t)K1 (t, y) = KF (x, y) = Z = Kn (x, y) x dt KF (x, t)K2 (t, y) = KF (x, y) 0 ... ... (x − y)n−1 KF (x, y) . (n − 1)! = dt = (x − y) KF (x, y) , y 0 K3 (x, t) x Z y x (x − t) dt = (x − y)2 KF (x, y) , 2 Di qui segue R(x, y; 1) = KF (x, y) ∞ X (x − y)n−1 = e2(x−y) , n − 1! n=1 x > y. La soluzione ora si ricava senza difficoltà e si ha Z x x dt e2(x−y) ey = e2y . φ(x) = e + 0 Esercizio 36. (Autovalori e autofunzioni delle equazioni integrali). – Ricavare autovalori e autofunzioni delle equazioni integrali equivale a risolvere un problema agli autovalori per un operatore in uno spazio di Hilbert. Se il nucleo dell’equazione è di Hilbert-Schmidt e simmetrico, allora l’operatore corrispondente A è autoaggiunto e compatto e di conseguenza il suo inverso A−1 è non limitato. A e A−1 hanno le stesse autofunzioni, mentre gli autovalori di A−1 sono l’inverso degli autovalori di A. Per certe classi di nuclei integrali è relativamente semplice ricavare gli autovalori dell’inverso e quindi di A. Questo succede quando l’inverso è un operatore differenziale a coefficienti costanti. A titolo di esempio si consideri l’operatore integrale Z b dy K(x, y)φ(y) , K(x, y) = K̄(y, x) , kK(x, y)kL2 < ∞ , Aφ(x) = a con K(x, y) che soddisfa le condizioni ∂2 K(x, y) = αδ(x − y) , K(a, y) = 0 , K ′ (a, y) = 0 , ∂x2 o due condizioni al cortorno equivalenti. Nell’ambito delle distribuzioni otteniamo Kx′′ (x, y) ≡ d2 1 d2 −1 Aφ(x) = αφ(x) =⇒ A = . dx2 α dx2 In questo caso gli autovalori λ = 1/µ e le autofunzioni ϕ di A si ottengono risolvendo il problema 1 ′′ α ϕ (x)R= µϕ(x) , b ϕ(a) = a dy K(a, y)ϕ(y) = 0 , Aϕ(x) = λϕ(x) =⇒ A−1 ϕ(x) = µϕ(x) =⇒ R ϕ′ (a) = b dy K ′ (a, y)ϕ(y) = 0 . a Il numero delle condizioni al contorno indipendenti deve essere uguale all’ordine dell’equazione differenziale. Si osservi che condizioni al contorno della forma ϕ(a) = cost da sole non danno nessuna informazione in quanto le autofunzioni sono sempre definite a meno di una costante arbitaria (vedi esempi sotto). Trovati gli autovalori e le autofunzioni, la soluzione dell’equazine integrale si scrive come sviluppo in serie usando il teorema dell’alternativa. Usando la tecnica descritta sopra, calcolare autovalori e autofunzioni dell’equazione integrale Z 1 dy K(x, y)φ(y) = µAφ(x) . φ(x) = µ 0 nei seguenti casi: 1) K(x, y) = x, x ≤ y, y, x ≥ y, 3) K(x, y) = x(1 − y) , y(1 − x) , 5) K(x, y) = sin x sin(1 − y) , sin y sin(1 − x) , 2) K(x, y) = x ≤ y, x ≥ y, i, −i , 4) K(x, y) = x ≤ y, x ≥ y. x ≤ y, x ≥ y, (x + 1)y , (y + 1)x , 6) K(x, y) = x ≤ y, x ≥ y, sinh x sinh(1 − y) , sinh y sinh(1 − x) , x ≤ y, x ≥ y. 1) Soluzione – Il nucleo è di Hilbert-Sschmidt in quanto è definito da una funzione limitata e quindi è a quadrato sommabile in [0, 1] × [0, 1]. Inoltre è simmetrico e può essere scritto nella forma compatta ′′ K (x, y) = −δ(x − y) , x K(0, y) = 0 , K(x, y) = ϑ(y − x)x + ϑ(x − y)y = K(y, x) =⇒ ′ K (1, y) = 0 , ′ K (0, y) = 1 . Per quanto visto sopra, gli autovalori e le autofunzioni dell’equazione sono dati da ϕ′′ (x) + µϕ(x) = 0 , ϕ(0) = 0 , ϕ′ (1) = 0 , ϕ′ (0) = cost . Si ricordi che le autofunzioni sono sempre definite a meno di una costante e per questo motivo il valore di ϕ′ (0) (se non è nullo) può essere arbitrario. Di fatto questa condizione è ridondante e non dà nessuna informazione. Si vede facilmente che per µ ≤ 0 non ci sono soluzioni, mentre per µ > 0 si hanno le infinite soluzioni (normalizzate) 2 √ 1 1 ϕn (x) = 2 sin n + πx , µn = n + π2 , n = 0, 1, 2, ... 2 2 2) Soluzione – Il nucleo è di Hilbert-Schmidt, simmetrico e può essere scritto nella forma ′ Kx (x, y) = −2iδ(x − y) , K(x, y) = iϑ(y − x) − iϑ(x − y) = K̄(y, x) , =⇒ K(0, y) = −K(1, y) = i . In questo caso l’operatore inverso è un operatore differenziale del primo ordine che soddisfa l’equazione agli autovalori ϕ′ (x) − 2iµϕ(x) = 0 , ϕ(0) + ϕ(1) = 0 . Le due condizioni al contorno prese separatamente non danno alcuna informazione, perhé le autofunzioni sono definite a meno di una costante arbitraria. La soluzione dell’equazione differenziale è ϕ(x) = cost e2iµx e affinché siano soddisfatte le condizioni al contorno 2µ deve essere un multiplo dispari di π. Le autofunzioni normalizzate sono dunque 1 π, n ∈ ZZ . ϕn (x) = e2iµn x , µn = n + 2 3) Soluzione – Il nucleo è simmetrico e di Hilbert-Schmidt e si può scrivere nella forma ′′ Kx (x, y) = −δ(x − y) , K(0, y) = 0 , K(x, y) = ϑ(y − x)x(1 − y) + ϑ(x − y)y(1 − x) =⇒ K(1, y) = 0 . Si vede che il problema è simile a quello precedente, a parte le condizioni al contorno. Infatti ϕ′′ (x) + µϕ(x) = 0 , ϕ(0) = 0 , ϕ(1) = 0 . Anche in questo caso si hanno soluzioni solo per µ > 0 date da √ µn = n2 π 2 , n = 1, 2, 3, ... ϕn (x) = 2 sin nπx , 4) Soluzione – Qui abbiamo ′′ Kx (x, y) = δ(x − y) , K(0, y) = y , K(1, y) = y + 1 , K(x, y) = xy + ϑ(y − x)y + ϑ(x − y)x =⇒ K ′ (0, y) = y , ′ K (1, y) = y + 1 , da cui segue ϕ′′ − µϕ = 0 , ϕ(0) − ϕ′ (0) = 0 , ϕ(1) − ϕ′ (1) = 0 . Per µ > 0 esiste un’unica soluzione data da ϕ0 (x) = ex , µ0 = 1 , mentre per µ < 0 si hanno le infinite soluzioni (non normalizzate) ϕn (x) = sin nπx + nπ cos nπx , µn = −n2 π 2 , n = 1, 2, 3, ... 5) Soluzione – Scriviamo il nucleo simmetrico e di Hilbert-Schmidt nella forma K(0, y) = 0 , K(x, y) = ϑ(y − x) sin x sin(1 − y) + ϑ(x − y) sin y sin(1 − x) =⇒ K(1, y) = 0 , e derivando K ′′ (x, y) = − sin 1 δ(x − y) − K(x, y). Questo problema è un po’ diverso rispetto a quelli precedenti in quanto si ha d2 1 d2 −1 Aφ(x) + Aφ(x) = −αφ(x) =⇒ A = − + 1 , dx2 α dx2 dove α = sin 1. L’equazione agli autovalori coorispondente è perciò ϕ′′ (x) + [µα + 1]ϕ(x) = 0 , ϕ(0) = ϕ(1) = 0 , α = sin 1 . Per µα + 1 ≤ 0 non ci sono soluzioni, mentre per µα + 1 > 0 si ottiene ϕn (x) = sin nπx , µn = n2 π 2 − 1 , sin 1 n = 1, 2, 3, ... 6) Soluzione – Questo problema è simile al precedente in quanto K(x, y) = ϑ(y − x) sinh x sinh(1 − y) + ϑ(x − y) sinh y sinh(1 − x) =⇒ K(0, y) = 0 , K(1, y) = 0 , e K ′′ (x, y) = K(x, y) − sinh 1 δ(x − y). La corrispondente equazione agli autovalori è ϕ′′ (x) + [µα − 1]ϕ(x) = 0 , ϕ(0) = ϕ(1) = 0 , α = sinh 1 . Per µα − 1 ≤ 0 non ci sono soluzioni, mentre per µα − 1 > 0 si ottiene ϕn (x) = sin nπx , µn = n2 π 2 + 1 , sinh 1 n = 1, 2, 3, ... Esercizio 37. (Alternativa di Fredholm Usando il teorema dell’alternativa risolvere l’equazione di Fredholm Z π dy K(x, y)φ(y) , φ(x) = g(x) + 0 nei due casi sequenti: 3x 1) g(x) = sin , 2 2) g(x) = 0 , K(x, y) = K(x, y) = sin x cos y , x < y , sin y cos x , x > y , sin y cos x , x < y , sin x cos y , x > y . 1) Soluzione – Si verifica che il nucleo è simmetrico e di Hilbert-Schmidt. Lo scriviamo nella forma ′′ K (x, y) = −K(x, y) − δ(x − y) , K(0, y) = 0 , K(x, y) = ϑ(y − x) sin x cos y + ϑ(x − y) cos x sin y =⇒ ′ K (π, y) = 0 . L’equazione agli autovalori per A−1 è ϕ′′ (x) + [µ + 1]ϕ(x) = 0 , ϕ(0) = ϕ′ (π) = 0 , che ha soluzioni solo per µ + 1 > 0. Si ottiene r 2 2 1 1 x, µn = n + sin n + − 1, ϕn (x) = π 2 2 n = 0, 1, 2, ... Vediamo che µn 6= 1 qualunque sia n e di conseguenza anche λn = 1/µn 6= 1. Questo significa che esiste una soluzione, ed una sola, qualunque sia g(x). Nel caso particolare g(x) è proporzionale a ϕ1 (x) e quindi tutti i coefficienti dello sviluppo sono nulli, tranne b1 . Si ha infatti r r ∞ X π π bn ϕn (x) = g(x) = ϕ1 (x) =⇒ b1 = , bn = 0 , ∀n 6= 1 . 2 2 n=0 La soluzione allora è data da φ(x) = b1 ϕ1 (x) µ1 b1 ϕ1 (x) 3x = = 5 sin . 1 − λ1 µ1 − 1 2 2) Soluzione – Procedendo come sopra si ha ′′ K (x, y) = −K(x, y) + δ(x − y) , K(π, y) = 0 , K(x, y) = ϑ(y − x) cos x sin y + ϑ(x − y) sin x cos y =⇒ ′ K (0, y) = 0 . L’equazione che determina gli autovalori è ϕ′′ (x) + [1 − µ]ϕ(x) = 0 , ϕ(π) = ϕ′ (0) = 0 , che ha soluzioni solo per 1 − µ > 0. Si ottiene r 2 2 1 1 ϕn (x) = x, µn = 1 − n + , cos n + π 2 2 n = 0, 1, 2, ... Anche in questo caso tutti gli autovalori sono diversi da 1 e pertanto la soluzione è unica per qualunque g(x). Nel caso particolare g(x) = 0 e pertanto la soluzione è φ(x) = 0. Esercizio 38. (Nuclei degeneri) – Ricordiamo che questi sono della forma K(x, y) = N X Pk (x)Qk (y) , k=1 dove Pk (x) ∈ L2 sono vettori linearmente indipendenti. La soluzione dell’equazione definita da un nucleo di questo tipo si può scrivere nella forma ( Rb N N X X bk = a dx Qk (x)g(x) , Rb [δjk − ajk ]qk = bj , qk Pk (x) , φ(x) = g(x) + aij = a dx Qi (x)Pj (x) . j=1 k=1 Si deve fare attenzione all’ordine perché in generale la matrice {aij } non è simmetrica. E’ evidente che la soluzione è unica se la matrice δij − aij è invertibile. In tal caso, in assenza del termine noto la soluzione è identicamente nulla. Usando la tecnica appena descritta si risolvano le seguenti equazioni: Z π Z 1 dy sin x cos yφ(y) , dy x(x + y)φ(y) , 2) φ(x) = x + 1) φ(x) = x + 0 0 3) φ(x) = x + Z π/2 dy sin x cos yφ(y) , 4) φ(x) = 1 + Z π dy (x sin y + y sin x)φ(y) . 0 0 1) Soluzione – Il nucleo è della forma P1 = x , P2 = x2 , K(x, y) = P1 Q1 + P2 Q2 , Q1 = y , Q2 = 1 . Integrando si ottiene b1 = 1 , 3 b2 = 1 , 2 a11 = 1 , 3 a12 = 1 , 4 a21 = 1 , 2 a22 = Il sistema che determina i coefficienti dello sviluppo della soluzione è quindi 2 1 1 36 3 q1 − 4 q2 = 3 q1 = 25 =⇒ 1 2 1 23 , q2 = 23 . − 2 q1 + 3 q2 = 2 La soluzione dell’equazione è finalmente ϕ(x) = x + 36 2 48 36 2 25 x+ x = x+ x . 23 23 23 23 1 . 3 2) Soluzione – In questo caso abbiamo K(x, y) = P1 (x)Q1 (y), P1 (x) = sin x , Q1 (y) = cos y. Dalla definizione otteniamo banalmente b1 = −2 =⇒ q1 = −2 =⇒ φ(x) = x − 2 sin x . a11 = 0 , 3) Soluzione – Rispetto al problema precedente cambia solo l’intervallo di integrazione. Si ottiene b1 = π2 − 1 =⇒ q1 = π − 2 =⇒ φ(x) = x + (π − 2) sin x . a11 = 21 , 4) Soluzione – Qui abbiamo K(x, y) = P1 (x)Q1 (y) + P2 (x)Q2 (y) dove P1 (x) = x , P2 (x) = sin x , Q1 (y) = sin y , Q2 (y) = y . Allora otteniamo b1 = 2 , b2 = π2 , 2 a11 = π , a12 = π , 2 a21 = La soluzione dell’equazione è data da 3 8 − 8π + π 3 x 3π 2 + π 3 sin(x) φ(x) = 1 − − . 2 (−6 + 12π − 6π 2 + π 4 ) −6 + 12π − 6π 2 + π 4 π3 , 3 a22 = π .