Università degli Studi “Mediterranea” di Reggio Calabria DIMET, Facoltà di Ingegneria Corso di Dottorato in Ingegneria Elettronica - Settore scientifico ING-INF/02 Spazi di Krylov, procedure di stabilizzazione e algoritmi di precondizionamento per lo sviluppo di soluzioni stabili ed efficienti dell’equazione integrale del campo elettrico (EFIE) nell’ambito dello scattering diretto da corpi metallici Tesi di Dottorato di Salvatore TRINGÀLI Relatore: Giovanni ANGIULLI Coordinatore: Riccardo CAROTENUTO XXI ciclo 2006-2008 Indice Introduzione vi Glossario dei simboli 1 Il campo elettromagnetico viii 1 1.1 Il concetto fisico di campo . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Derivazione naif delle leggi di Maxwell . . . . . . . . . . . . . . . 3 1.2.1 L’elettrostatica e la legge di Coulomb . . . . . . . . . . . 3 . Il campo elettrostatico . . . . . . . . . . . . . . . . . . . 4 La magnetostatica e la legge di Ampère . . . . . . . . . . 5 . Il campo magnetostatico . . . . . . . . . . . . . . . . . . 6 L’elettrodinamica . . . . . . . . . . . . . . . . . . . . . . . 7 . L’equazione di continuità . . . . . . . . . . . . . . . . . 8 . La corrente di spostamento di Maxwell . . . . . . . . . 8 . La forza elettromotrice . . . . . . . . . . . . . . . . . . . 9 . La legge dell’induzione di Faraday . . . . . . . . . . . . 10 La teoria elettromagnetica formale . . . . . . . . . . . . . . . . . 11 1.3.1 Le relazioni costitutive della materia . . . . . . . . . . . . 12 . Isotropia e anisotropia. . . . . . . . . . . . . . . . . . . 13 . Dispersività nel tempo e nello spazio. . . . . . . . . . . 13 . Omogeneità nel tempo e nello spazio. . . . . . . . . . . 14 . Linearità e sovrapposizione degli effetti. . . . . . . . . . 15 Il fenomeno dello scattering . . . . . . . . . . . . . . . . . . . . . 16 . Lo scattering nelle applicazioni . . . . . . . . . . . . . . 18 1.2.2 1.2.3 1.3 1.4 Indice ii 2 L’EFIE e lo scattering diretto 20 2.1 Le equazioni dello scattering . . . . . . . . . . . . . . . . . . . . . 20 2.2 Il caso del conduttore cilindrico . . . . . . . . . . . . . . . . . . . 22 2.2.1 Il problema diretto . . . . . . . . . . . . . . . . . . . . . . 23 . L’unicità della soluzione . . . . . . . . . . . . . . . . . . 24 . L’EFIE e l’esistenza della soluzione . . . . . . . . . . . . 26 . Il problema delle risonanze . . . . . . . . . . . . . . . . 27 2.3 Le equazioni dello scattering 3D . . . . . . . . . . . . . . . . . . 28 2.3.1 Formulazione differenziale del problema diretto . . . . . . 29 2.3.2 Una derivazione informale dell’EFIE 3D . . . . . . . . . . 32 3 Localizzazione delle risonanze 34 3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Ricerca delle singolarità . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.1 Funzione ausiliaria . . . . . . . . . . . . . . . . . . . . . . 41 QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 CCVL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 LQI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 DET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 CONDET . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 CONDEST_QR . . . . . . . . . . . . . . . . . . . . . . . 44 RCOND . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 RCOND_QR . . . . . . . . . . . . . . . . . . . . . . . . . 44 ALGA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 ALGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Ricerca risonanze - Risultati sperimentali . . . . . . . . . 45 Cubo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Stabilizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.3.1 Natura delle singolarità . . . . . . . . . . . . . . . . . . . 61 3.3.2 Soluzione a norma minima . . . . . . . . . . . . . . . . . 61 3.3.3 Soluzione OP . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.3.4 Soluzione TSVD . . . . . . . . . . . . . . . . . . . . . . . 62 3.2.2 3.3 Indice iii 3.3.5 Risultati numerici e conclusioni . . . . . . . . . . . . . . . 4 Sistemi lineari e precondizionatori 4.1 4.2 4.4 4.5 4.6 68 Generalità sulle tecniche di soluzione . . . . . . . . . . . . . . . . 69 4.1.1 Metodi diretti . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.1.2 Metodi iterativi . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1.3 Metodi iterativi stazionari . . . . . . . . . . . . . . . . . . 72 4.1.4 Metodi iterativi stazionari . . . . . . . . . . . . . . . . . . 73 . Gauss-Jacobi. . . . . . . . . . . . . . . . . . . . . . . . . 73 . Gauss-Seidel. . . . . . . . . . . . . . . . . . . . . . . . . 73 . Metodi di rilassamento. . . . . . . . . . . . . . . . . . . 74 I metodi dinamici di Krylov . . . . . . . . . . . . . . . . . . . . . 75 4.2.1 Il gradiente coniugato . . . . . . . . . . . . . . . . . . . . 76 4.2.2 Il metodo dei residui minimi generalizzato . . . . . . . . . 79 . La variante ripartita del GMRES . . . . . . . . . . . . . 80 L’algoritmo BiCG . . . . . . . . . . . . . . . . . . . . . . 81 La onvergenza dei metodi di Krylov . . . . . . . . . . . . . . . . 81 4.3.1 Fattori di influenza dei tassi di convergenza . . . . . . . . 83 4.3.2 Criteri di arresto . . . . . . . . . . . . . . . . . . . . . . . 85 Il precondizionamento . . . . . . . . . . . . . . . . . . . . . . . . 86 4.4.1 Il precondizionatore antihermitiano . . . . . . . . . . . . . 88 4.4.2 Il precondizionatore diagonale . . . . . . . . . . . . . . . . 88 4.4.3 Il precondizionatore ILU . . . . . . . . . . . . . . . . . . . 89 Esperimenti numerici . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.5.1 Simulazione 1 . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.5.2 Simulazione 2 . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.5.3 Simulazione 3 . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.5.4 Simulazione 4 . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.5.5 Simulazione 5 . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.5.6 Simulazione 6 . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.5.7 Simulazione 7 . . . . . . . . . . . . . . . . . . . . . . . . . 118 4.5.8 Simulazione 8 . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.2.3 4.3 63 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Indice iv A Formulazioni deboli 125 A.1 L’equazione del calore . . . . . . . . . . . . . . . . . . . . . . . . 125 A.2 Derivate deboli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 A.2.1 Definizione e alcune proprietà . . . . . . . . . . . . . . . . 128 A.2.2 Un caso concreto . . . . . . . . . . . . . . . . . . . . . . . 130 B Identità notevoli 131 B.1 Identità vettoriali di tipo algebrico . . . . . . . . . . . . . . . . . 131 B.2 Identità vettoriali di tipo differenziale . . . . . . . . . . . . . . . 131 Bibliografia i Ai miei genitori, per avermi dato alla vita e regalato parte della loro A mia sorella, perché senza di lei non avrei mai finito questa tesi A G, per la sua impagabile amicizia e le nostre sconclusionate discussioni A V, per essere il mio cielo e l’orizzonte estremo della mia insana ispirazione Introduzione In elettromagnetismo, si definisce con il termine “scattering” il problema della determinazione della perturbazione di un campo introdotta dalla presenza di un bersaglio. Nella pratica comune, i problemi di scattering coinvolgono gli oggetti più svariati, dalla forma arbitraria, costituiti da mezzi permeabili o impermeabili alla radiazione elettromagnetica. Tutti si possono, però, descrivere mediante lo schema logico per cui 1) le sorgenti, assegnate sotto forma di cariche o correnti impresse, irradiano nello spazio circostante un campo elettromagnetico (c.d. campo incidente); 2) la libera propagazione del campo incidente viene perturbata dalla presenza di un oggetto (c.d. ostacolo o scatteratore) dotato di caratteristiche discontinue rispetto all’ambiente ospitante; 3) nell’interazione con il campo incidente, l’ostacolo si comporta come una sorgente secondaria e genera intorno a sé un campo diffuso; 4) il campo diffuso si somma al campo incidente per produrre il campo totale. Il paradigma comprende, fra le altre possibili, due tipologie fondamentali di problemi: diretti e inversi. Di fatto, la loro soluzione trova applicazione nei contesti tecnici e scientifici più disparati, spaziando dall’archeologia [2] all’ingegneria civile, dalla salvaguardia dei beni monumentali al rilevamento di ordigni inesplosi [3] o di giacimenti sotterranei di petrolio. L’attività di ricerca svolta nel corso del ciclo di dottorato, in particolare, si è concentrata sullo studio dei problemi del primo tipo (i.e., diretti), rilevanti, per esempio, nella progettazione e implementazione di antenne per le telecomunicazioni (terrestri e satellitari), nella rilevazione radar di oggetti in volo (nel campo dell’aeronautica civile o della difesa militare) o nella realizzazione di sistemi intelligenti di autodistanziamento dei veicoli su strada (c.d. sensori FS). Rispetto all’argomento, questa tesi discute, in particolare, un metodo di Introduzione vii stabilizzazione della soluzione numerica, calcolata a partire dal sistema lineare prodotto dalla discretizzazione (tramite il metodo dei momenti) dell’equazione integrale del campo elettrico (EFIE) per lo studio dello scattering da corpi metallici, fondato sulla revisione ed estensione di una tecnica analoga - ma generalmente inefficace - proposta in letteratura da Canning [1]. La descrizione dell’algoritmo, peraltro tradotto in un’effettiva procedura di calcolo in ambiente Matlab, si completa attraverso un risultato formale, inteso a dimostrare, attraverso la teoria degli operatori quasi-fredholmiani, che lo spazio nullo dell’operatore integrale implicitamente definito dall’EFIE ha una dimensione algebrica (di Hamel) comunque finita, anche in condizioni di mal posizione (i.e., di non unicità della soluzione). Come conseguenza fondamentale, ne risulta la possibilità, in linea di principio, di “epurare” la soluzione risonante dalle componenti spurie introdotte dalla degenerazione del nucleo operatoriale attraverso un numero finito di filtraggi (cap. 3). Al problema del filtraggio viene premessa l’analisi di efficienza (rispetto ai tempi di processazione) di alcune tecniche numeriche per la localizzazione delle c.d. risonanze1 , che costituisce allo stato attuale dell’arte un passaggio necesssario e ineludibile della procedura di filtrazione tout-court (cap. 3). Un altro fronte di indagine (cap. 4) riguarda l’efficienza del calcolo in ipso della soluzione numerica dell’EFIE (lontano dalla risonanza) attraverso i c.d. schemi iterativi di tipo Krylov e la definizione di opportune strategie di precondizionamento, “calibrate” sulle proprietà peculiari del modello analitico, per accelerarne il rate di convergenza. Esaurite le indispensabili premesse di carattere generale inerenti alle equazioni di Maxwell, la prima metà della tesi (capp. 1 e 2) è stata interamente dedicata a revisione formale della teoria coinvolta nella formulazione del problema diretto dello scattering da corpi metallici: il taglio è estremamente formale, per l’intima volontà, da una parte, di chiarificare alcuni aspetti del problema troppo spesso trascurati dall’approccio ingegneristico e, dall’altra, per costruire il background teorico necessario alla dimostrazione della finitezza incondizionata del kernel dell’EFIE, cui si è accennato in precedenza. 1: le frequenze discrete per cui l’equazione integrale del campo “degenera” e la sua soluzione analitica manca di unicità. Glossario dei simboli L’elenco dei simboli più ricorrenti nel corso della trattazione, al fine di semplificarne il “riconoscimento” e rendere più agevole la lettura dell’elaborato. N l’insieme degli interi non negativi {0, 1, . . .} N0 l’insieme degli interi positivi, i.e., N − {0} R l’insieme dei numeri reali con la usuale struttura di campo C l’insieme dei numeri complessi con la usuale struttura di campo Rn l’insieme delle n-uple ordinate di numeri reali, con la consueta struttura di spazio lineare su R e la topologia della norma euclidea C n R m,n C m,n l’insieme delle n-uple ordinate di numeri complessi, con al consueta struttura di spazio lineare su C e la topologia della norma euclidea l’insieme delle matrici rettangolari m × n a ingressi reali con la consueta struttura di spazio R-lineare e la topologia euclidea l’insieme delle matrici rettangolari m × n a ingressi complessi con la consueta struttura di spazio C-lineare e la topologia euclidea A t AH la trasposta di una generica matrice A ∈ Rm,n oppure ∈ Cm,n la trasposta coniugata di una generica matrice A ∈ Rm,n oppure ∈ Cm,n k · kn,p la norma hölderiana di ordine p ≥ 1 in Rn o Cn k · kn,∞ la norma dell’estremo superiore in Rn o Cn k · kX la norma di uno spazio normato o di Banach X sul campo scalare dei numeri reali o complessi (secondo il contesto) h· , ·in il prodotto scalare di Rn o Cn h· , ·iX il prodotto scalare di uno spazio hilbertiano o prehilbertiano X sul campo reale o complesso (secondo il contesto) rot il rotore di un campo vettoriale R3 → R3 o R3 → C3 divn la divergenza di un campo vettoriale Rm → Rn o Rm → Cn ∇n il gradiente di un campo scalare Rn → R o Cn → C ∆n l’operatore di Laplace n-dimensionale Glossario dei simboli D̄ la chiusura (topologica) di un insieme D ⊆ Rn ∂D la frontiera (topologica) di un insieme D ⊆ Rn C k (D, F) lo spazio delle funzioni D ⊆ Rn → F ix k volte differenziabili con continuità in D Bn (r0 , r) la sfera euclidea di raggio r > 0 e centro r0 ∈ Rn Bn la sfera euclidea di raggio unitario e centro l’origine in Rn Lp (Ω, F) lo spazio F-lineare delle funzioni f (·) : Ω ⊆ Rn → K per cui f p (·) è integrabile secondo Lebesgue, con p ≥ 1 e F = R oppure F = C loc Lp (Ω, K) lo spazio K-lineare delle funzioni f (·) : Ω ⊆ Rn → K per cui f p (·) è integrabile secondo Lebesgue in ogni compatto C ⊆ Ω, con p ≥ 1 e K = R oppure K = C Dove necessario, nell’elenco dei simboli qui sopra, si assuma che m, n ∈ N0 ; k sia un intero ≥ 0 e Ω un insieme misurabile dello spazio ambiente euclideo. Capitolo 1 Il campo elettromagnetico Nel corso del capitolo si introduce il concetto di campo e si passano in rassegna le equazioni fondamentali di Maxwell-Lorentz per lo studio delle interazioni fra la materia e le onde1 elettromagnetiche. Quindi, dopo una breve parentesi sulle relazioni costitutive della materia, si descrivono per grandi linee i due massimi problemi inerenti allo studio dei cosiddetti fenomeni di scattering, i.e., il problema diretto e il problema inverso, ricostruendo per ciascuno un’amplia bibliografia e rinviando ai capitoli successivi la derivazione dei modelli a equazioni integrali utilizzati nella pratica per risolverli in alcuni casi particolari di spiccata rilevanza dal punto di vista applicativo. 1.1 Il concetto fisico di campo Informalmente, nel linguaggio della fisica moderna, un campo è una funzione definita in ogni punto del cronotopo [10], ancorché, nella pratica, l’intensità di qualsiasi campo empirico conosciuto si sappia decrescere a zero, all’aumentare della distanza dalle sorgenti, tanto da poterne restringere il dominio ad una sezione (eventualmente limitata) dello spazio-tempo. Ad esempio, nella teoria della gravitazione newtoniana [11], la forza del campo gravitazionale è inversamente proporzionale al quadrato della distanza dall’oggetto gravitante. D’altronde, è opportuno sottolineare che la definizione astratta dei campi non può né deve prescindere dalla constatazione di fatto che gli stessi possiedono una consistenza fisica. A riguardo John A. Wheeler [12] osserva che «un campo occupa spazio, contiene energia e la sua presenza impedisce un vuoto vero». Sicché il vuoto è 1: qui e per il seguito, un’onda è una perturbazione del continuum spazio-temporale che si propaga attraverso un mezzo di trasmissione, tipicamente con trasporto di energia. Capitolo 1. Il campo elettromagnetico 2 libero dalla materia, ma non è libero dai campi. Che manifestano la propria presenza creando «una condizione contingente, per cui una particella posta in un punto risente dell’azione di una forza». Parole di Feynman. Una carica elettrica p1 in movimento subisce, in effetti, l’azione di una forza di reazione vincolare istantanea, acquistando un momento. Ma una seconda carica p2 , posta nel vuoto a una certa distanza dalla prima, non ne risente in alcun modo, almeno fintanto che, viaggiando nel tempo e nello spazio alla velocità della luce, gli effetti indotti dal moto di p1 , come un’onda d’urto, non la investono, sicché a sua volta p2 acquista un momento. Dove si trova, però, il momento prima che p2 si metta in movimento? Per la legge di conservazione del momento, infatti, deve pur essere da qualche parte. Ebbene, la fisica moderna ha trovato «di grande utilità per l’analisi delle forze» ammettere che il momento sia contenuto nel campo. «Il fatto che il campo elettromagnetico sia dotato di un momento e di un’enegia propri lo rende estremamente reale. [...] Una particella genera un campo, e il campo agisce su un’altra particella e possiede proprietà comuni alle particelle, come l’energia e il momento». Sono sempre riflessioni di Feynman, riprese dalle sue celebri lezioni al Caltech Institute [13]. Dal punto di vista dei modelli, un campo è solitamente rappresentato per mezzo di scalari, di vettori o, più in generale, di tensori, a seconda che, rispettivamente, il suo valore puntuale sia uno scalare, un vettore o un tensore. E.g., il campo gravitazionale newtoniano ha una natura vettoriale, perché è necessario punto per punto un vettore per rappresentare intensità, direzione e verso della forza gravitazionale. La temperatura all’interno di una stanza, invece, è il classico esempio di un campo scalare. Di fatto, la teoria (fisica) dei campi riguarda la costruzione di un modello mirato a descrivere le dinamiche di un campo, ovvero il modo in cui un campo evolte e muta, nel tempo, nello spazio o in funzione di altre componenti. Tipicamente, questo comporta la definizione di un opportuno funzionale del campo e il suo trattamento in termini analoghi ad un sistema caratterizzato da un’infinito numero di gradi di libertà, secondo i due approcci fondamentali della meccanica classica [14] e della meccanica quantistica [15] [16], di cui, però, non è possibile discutere qui in un maggiore dettaglio. Si può dire, tuttavia, che l’importanza della nozione di campo nella fisica venne realizzata, per la prima volta, da Michael Faraday, nel corso delle sue ricerche sui fenomeni magnetici. L’intuizione di Faraday fu che i campi elettrico e magnetico non sono solo campi di forze, in grado di alterare, eventualmente, lo stato di moto delle particelle (cariche), ma possiedono, come le particelle, una consistenza fisica indipendente, poiché caratterizzati, per esempio, dalla proprietà di trasportare dell’energia. Le idee di Faraday e di numerosi altri pionieri della ricerca che gli fecero segui- Capitolo 1. Il campo elettromagnetico 3 to, portarono James Clerk Maxwell nel 1873 a formulare la prima teoria di campo unificata nella storia della fisica, con l’introduzione delle sue celebri equazioni per il campo elettromagnetico, ieri descritto in termini di una coppia (e, h) di vettori - con il formalismo classico utilizzato nel corso di questa tesi - ed oggi - col formalismo della fisica del ’900 - mediante un singolo tensore antisimmetrico di rango 2 (l’una e l’altro variabili nel tempo e nello spazio). 1.2 Derivazione naif delle leggi di Maxwell In effetti, l’elettromagnetismo moderno nasce con i primi esperimenti di elettrologia del tardo Illuminismo, collegati allo studio delle interazioni fra cariche elettriche stazionarie o distribuzioni di carica racchiuse all’interno di spazi finiti dotati di frontiere stazionarie2 . Nasce, cioè, con l’elettrostatica. 1.2.1 L’elettrostatica e la legge di Coulomb Già nel 1780, nell’ambito delle ricerche dell’elettrostatica, venne dimostrato da Coulomb, per via sperimentale, che le interazioni fra corpi carichi elettricamente si possono descrivere in termini di forze meccaniche. Figura 1.1: la geometria della legge di Coulomb per l’elettrostatica, in cui due particelle cariche puntiformi interagiscono attraverso una forza meccanica. Si immagini, per semplicità, di considerare due cariche puntiformi nel vuoto q e q0 , poste, rispettivamente, nei punti r e r0 6= r di un sistema di riferimento cartesiano ortogonale Oxyz, come illustrato in fig. 1.3. In base alla legge di Coulomb, q0 (carica sorgente) esercita una forza istantanea 2: cioè fisse nello spazio e di valore costante nel tempo. Capitolo 1. Il campo elettromagnetico F(r) (forza elettrica) su q (carica di test), tale che µ ¶ r − r0 q0 q 1 q0 q · = − ∇ F(r) = 3 4π²0 kr − r0 k32 4π²0 kr − r0 k2 4 (1.1) dove ²0 ≈ 8.8542 · 10−12 è la permettività (dielettrica) del vuoto e il gradiente a ultimo membro è calcolato supponendo r0 fisso e r variabile. . Il campo elettrostatico D’altro canto, piuttosto che descrivere l’interazione elettrostatica in termini della “azione a distanza” di una forza su una carica di prova, come nel caso del sottoparagrafo precedente, è più utile associare a q0 un campo vettoriale (stazionario) estat (·) : R3 − {r0 } → R3 (campo elettrostatico) ponendo 0 µ ¶ F(r) q0 1 estat (r) := lim =− ∇3 , in R3 − {r0 } 0 q→0 q 4π²0 kr − r0 k2 (1.2) dove il processo al limite “si motiva” con la necessità di garantire che la carica di test q sia, di fatto, sufficientemente piccola3 da non perturbare il campo prodotto dalla sorgente. In tal modo, l’espressione puntuale di Estat non dipenderà esplicitamente da q, ma solo da q0 . Così da poter dire che ogni carica elettrica induce nello spazio circostante un campo, il cui valore è indipendente dalla presenza di altre cariche. Nel caso, poi, di un insieme discreto di cariche q1 , q2 , . . ., localizzate, rispettivamente, nei punti r1 , r2 , . . . di uno spazio altrimenti vuoto, l’ipotesi di linearità consente di sovrapporre l’uno all’altro gli effetti dovuti alle singole sorgenti, di modo che per il campo elettrostatico totale estat (·) si può scrivere µ ¶ X stat 1 X qi stat e (r) = ei (r) = − ∇3 4π²0 i kr − ri k2 i (1.3) Se, adesso, le cariche discrete q1 , q2 , . . . sono “molte”, sufficientemente piccole e tutte concentrate in un insieme V chiuso e limitato (i.e., compatto) dello spazio, al punto da poterne descrivere la distribuzione tramite una funzione ρ(·) : V → R (densità di carica elettrica), la sommatoria (1.3) si può eventualmente sostituire con un integrale di volume esteso a V, in un ideale processo al limite per cui il campo elettrostatico totale estat (·), in definitiva, è descritto dall’equazione µ ¶ ˆ ˆ ρ(r0 ) 1 ρ(r0 ) ∇3 −4π²0 estat (r) = dr30 = ∇3 dr30 kr − r k kr − r k 0 2 0 2 V V (1.4) dove r ∈ R3 − V e lo scambio formale fra il segno di integrale e l’operatore derivativo ∇3 si giustifica considerando che il gradiente è calcolato sulle coordinate del generico 3: benché ampiamente utilizzate, argomentazioni informali di quest’ordine, in realtà, sono prive di ogni senso, dal momento che, al meglio delle conoscenze attuali della fisica, la carica è quantizzata, per cui renderla arbitrariamente piccola, di fatto, è impossibile. Capitolo 1. Il campo elettromagnetico 5 punto di osservazione r ∈ Ve := R3 − V, mentre l’integrazione si estende alla posizione variabile di un arbitrario punto sorgente r0 ∈ V. Da qui, interpretando gli integrali e le derivate in senso debole distribuzionale e utilizzando, quindi, l’identità operatoriale secondo cui div3 (∇3 ϕ) = ∆3 ϕ, per ogni funzione localmente integrabile ϕ(·) : R3 → R, si trova che µ ˆ ¶ ˆ ρ(r0 ) ρ(r0 ) −4π²0 div3 estat (r) = div3 ∇3 dr30 = ∆3 dr30 V kr − r0 k2 V kr − r0 k2 µ ¶ 1 qualunque sia r ∈ Ve . Sennonché ∆3 = −4πδ(r − r0 ), e perciò kr − r0 k2 ˆ ρ(r) 1 ∀r ∈ V3 : div3 estat (r) = ρ(r0 )δ(r − r0 )dr30 = (1.5) ²0 V ²0 ¡ ¢ che è la legge di Gauss dell’elettrostatica. D’altronde, siccome rot ∇3 α(r) = 0, per ogni funzione debolmente derivabile α(·) : Ve → C, è immediato stabilire dalla (1.4) che il campo elettrostatico è irrotazionale, dacché µ ˆ ¶ ρ(r0 ) 1 rot estat (r) = − rot ∇3 dr30 = 0 4π²0 V kr − r0 k2 1.2.2 (1.6) La magnetostatica e la legge di Ampère Mentre l’elettrostatica attiene allo studio degli effetti prodotti da una distribuzione di cariche statiche4 , la magnetostatica tratta il caso delle correnti stazionarie5 e delle interazioni dove queste risultano coinvolte. Figura 1.2: la geometria della legge di Ampère della magnetostatica, in cui due fili percorsi da corrente interagiscono attraverso una forza meccanica. Storicamente, Ampère fu il primo ad osservare che una spira piana Γ1 , in cui scorra una corrente continua di prova I1 , esercita un’azione a distanza su una seconda spira piana Γ2 , percorsa da una corrente stazionaria I2 , attraverso una forza meccanica F. 4: 5: cioè fisse nelle loro posizioni e costanti nel tempo. cioè di cariche elettriche in movimento con velocità costante nel tempo. Capitolo 1. Il campo elettromagnetico 6 In particolare, assimilando i circuiti a due curve orientate disgiunte e generalmente regolari dello spazio e supponendone le dimensioni molto più piccole della loro distanza reciproca, Ampère potè stabilire empiricamente che6 ¶ ‰ µ ‰ r1 − r2 µ0 I 1 I 2 t2 × t1 × d` d`2 F= 1 4π kr1 − r2 k32 Γ2 Γ1 (1.7) dove µ0 = 4π · 10−7 H/m è la permeabilità (magnetica) del vuoto e t̂2 = t̂2 (r2 ) e t̂1 = t̂1 (r1 ) indicano, rispettivamente, i versori delle tangenti locali a Γ2 e a Γ1 nei punti r2 ∈ Γ2 e r1 ∈ Γ1 (v. fig. 1.2). Ad un primo sguardo, la relazione (1.7) può sembrare asimmetrica rispetto ai ruoli di Γ2 e Γ1 , suggerendo un’apparente violazione del terzo principio della meccanica di Newton. Applicando, tuttavia, l’identità del triplo prodotto (B.3), si può riscriverla nella forma µ ¶ ¶ ‰ µ ˆ µ0 I 1 I 2 1 F= t̂2 · t̂1 · ∇3 d`2 d`1 + 4π kr1 − r1 k2 Γ2 Γ1 ‰ ‰ µ0 I1 I2 r2 − r1 − t̂ · t̂1 d`1 d`2 3 2 4π kr 2 − r1 k2 Γ2 Γ1 (1.8) D’altronde, poiché l’integranda del primo integrale al membro destro dell’ultima equazione è un differenziale esatto, il termine corrispondente svanisce e l’espressione (1.7) della forza magnetostatica fra le spire assume la forma ‰ ‰ µ0 I1 I2 r2 − r1 F=− t̂ · t̂1 d`1 d`2 3 2 4π Γ2 Γ1 kr2 − r1 k2 (1.9) che manifesta apertamente la simmetria attesa in termini di Γ1 e Γ2 . . Il campo magnetostatico In analogia col caso elettrostatico, anziché descrivere l’interazione magnetostatica in termini di una forza su una corrente stazionaria di prova I, come nel corso del sottoparagrafo precedente, conviene associare a una corrente stazionaria I0 , che scorre attraverso un circuito elementare di lunghezza d` orientato secondo il versore tangente t̂ ∈ R3 e localizzato nel punto r0 ∈ R3 , un campo vettoriale bstat (·) : R3 − {r0 } → R3 0 (induzione magnetica) tale che dbstat (r) = 0 6: µ0 I0 r − r0 , t̂ × 4π kr − r0 k32 per ogni r ∈ R3 − {r0 } si tratta della legge di Ampère per la magnetostatica. (1.10) Capitolo 1. Il campo elettromagnetico 7 Generalizzando al caso di una densità di corrente j(·) : V → R3 (in A/m2 ), tutta concentrata in un compatto V ⊆ R3 , ne risulta la legge di Biot-Savart, per cui µ ¶ ˆ ˆ µ0 r − r0 −1 µ0 j(r0 ) × dr30 = j(r0 ) × ∇3 dr30 = bstat (r) = 3 4π V kr − r0 k2 4π V kr − r0 k2 µ ¶ ˆ ˆ j(r0 ) µ0 µ0 1 = rot dr30 − rot j(r0 ) dr30 = 4π V kr − r0 k2 4π V kr − r0 k2 ˆ j(r0 ) µ0 = rot dr30 , per ogni r ∈ Ve := R3 − V̄ (1.11) 4π V kr − r0 k2 dove abbiamo usato l’identità (B.9) e il fatto che gradiente e rotore in seno all’integrale non operano sulle coordinate di integrazione, e perciò rot j(r0 ) = 0, per ogni r0 ∈ V. Per stabilire le proprietà del campo magnetostatico, proviamo, adesso, a calcolarne divergenza e rotore. Dalla legge di Biot-Savart µ ¶ ˆ j(r0 ) µ0 div3 bstat (r) = div3 ∇3 × dr30 = 0 4π V kr − r0 k2 (1.12) in Ve := R3 − V̄, sulla base della (B.15). In modo analogo, applicando l’identità operatoriale (B.13) e i teoremi di Green, si trova [27] che (al netto dei calcoli) µ ˆ ¶ j(r0 ) µ0 rot bstat (r) = rot rot dr30 = µ0 j(r) (1.13) 4π V kr − r0 k2 1.2.3 L’elettrodinamica La sintesi estrema di quanto si è stabilito nel corso dei paragrafi precedenti è che le leggi dell’elettrostatica e della magnetostatica si possono riassumere in due paia di equazioni vettoriali alle derivate parziali disaccoppiate ed indipendenti dal tempo. I.e., le equazioni dell’elettrostatica classica div3 estat (r) = ρ(r) ²0 rot estat (r) = 0 e le equazioni della magnetostatica classica div3 bstat (r) = ρ(r) ²0 rot bstat (r) = µ0 j(r) (1.14) (1.15) le une e le altre valide (anche in senso debole) nei punti di un qualsiasi aperto Ω esterno al dominio limitato V dello spazio dove si suppongono concentrate le cariche e le correnti. Poiché non vi è nessun elemento a priori che metta in relazione estat (·) direttamente con bstat (·), l’elettrostatica e la magnetostatica classiche si sono sviluppate, di fatto, come fossero due teorie indipendenti. Capitolo 1. Il campo elettromagnetico 8 Quando, tuttavia, si ammette una variazione dei campi dal tempo7 , le due teorie si unificano nell’elettrodinamica classica. Storicamente, l’unificazione è stata motivata da due risultati fondamentali suggeriti dall’esperienza: i) l’equazione di continuità e l’introduzione della corrente di spostamento di Maxwell, a seguito dell’osservazione che la carica (elettrica) è una quantità conservativa e che la corrente (elettrica) è soltanto un trasporto di carica. ii) la legge dell’induzione di Faraday, per cui si stabilisce che una variazione del flusso magnetico attraverso una spira induce una corrente nel circuito attraverso l’azione di una forza elettromotrice. . L’equazione di continuità Supponiamo che, punto per punto nel dominio di interesse V ⊆ R3 e istante per istante nell’intervallo temporale di riferimento (ti , tf ) ⊆ R, la densità di corrente e la densità di carica osservate varino, rispettivamente, secondo le funzioni j(·) : R3 × (ti , tf ) → R e ρ(·) : R × (ti , tf ) → R. Allora la legge empirica di conservazione della carica si traduce nell’equazione di continuità (o di conservazione della carica) ∂ρ(r, t) + div j(r, t) = 0, ∂t per ogni (r, t) ∈ V × (ti , tf ) (1.16) per cui si stabilisce che la “velocità” di variazione della carica ρ(·) è localmente bilanciata dalla divergenza della densità di corrente j(·). . La corrente di spostamento di Maxwell In fine al paragrafo (1.2.2) abbiamo utilizzato implicitamente il fatto che in magnetostatica div j(·) = 0 nei punti di un aperto per stabilire una condizione locale sul rotore dell’induzione magnetica. Sennonché la relazione deve essere adatta, nel caso di sorgenti e campi non stazionari, in accordo con l’equazione di continuità (1.16), di modo che div3 j(r, t) = −∂t ρ(r, t) in V × (ti , tf ). In tal modo, ripetendo puntualmente i passaggi necessari alla derivazione logica dell’equazione (1.13), si ottiene il risultato formale per cui rot b(r, t) = µ0 j(r, t) + ²0 µ0 ∂ e(r, t), ∂t in V × (ti , tf ) (1.17) dove il termine ²0 ∂t e(·) rappresenta la cosiddetta corrente di spostamento, introdotta in un lampo di genio da Maxwell [28] per rendere solenoidale il membro di destra della (1.17) nel momento in cui j(·) rappresenti la densità di corrente elettrica totale in V, 7: cioè si transita da un regime stazionario a un regime dinamico. Capitolo 1. Il campo elettromagnetico 9 che si può sempre splittare nelle tre aliquote delle correnti di conduzione, polarizzazione e magnetizzazione. La corrente di spostamento è un extra-termine assimilabile a una corrente fittizia che fluice attraverso vuoto. Tra le altre conseguenze teoriche, l’introduzione della corrente di Maxwell nell’equazione (1.17) consente di predire l’esistenza di una radiazione in grado di trasportare energia e momento attraverso lo spazio-tempo, a grandissime distanze, persino in assenza di materia (i.e., nel vuoto). . La forza elettromotrice L’esperienza dimostra che, se un mezzo conduttore è attraversato dalle linee di forza di un campo elettrico e(·), nel mezzo si induce un flusso di carica netta, e quindi una densità di corrente elettrica j(·), che parzialmente può essere anche attribuita ad altri processi (ad es., chimici o idrodinamici). Sotto opportune condizioni e per determinate tipologie di materiali, è possibile talvolta assumere che, almeno in prima approssimazione, esista una relazione lineare fra j(·) ed e(·). Ossia che valga la cosiddetta legge di Ohm, per cui j(·) = σ(·) e(·) (1.18) dove σ(·) è la conducibilità (elettrica) del mezzo, eventualmente variabile punto per punto e istante per istante entro l’intervallo temporale di osservazione. Nel più generale dei casi, per esempio in un conduttore anisotropo, σ(·) è un tensore. Ora, se la corrente è interamente dovuta all’azione del campo elettrico e(·), quest’ultimo spenderà un lavoro sulle cariche e, a meno che il mezzo non sia un superconduttore, vi sarà dissipazione di energia per effetto Joule sotto forma di calore. Il rate con cui tale energia viene dispersa è pari a h j(·), e(·)i3 per ogni unità di volume. D’altro canto, se e(·) è irrotazionale (quindi conservativo), j(·) tende asintoticamente a zero con il tempo. Di conseguenza, in condizioni di stazionarietà della corrente, è necessaria la presenza di un campo elettrico ausiliario eEMF (·) (dovuto, ad es., alla presenza di una pila), corrispondente ad una forza elettromotrice E capace di mantenere in moto le cariche. Nel qual caso la legge di Ohm (1.18) si riscrive nella forma ¡ ¢ j(·) = σ(·) eEMF (·) + e(·) (1.19) da cui è possibile definire la forza elettromotrice E in termini della circuitazione del campo elettrico totale, cioè ponendo ˆ E := heEMF (r, t) + estat (r, t), t̂i3 d` Γ ove Γ è un qualsiasi ciclo e t il versore della tangente locale a Γ. (1.20) Capitolo 1. Il campo elettromagnetico 10 . La legge dell’induzione di Faraday Nel corso del sottoparagrafo (1.2.1) abbiamo ricavato le equazioni differenziali del campo elettrostatico, stabilendo in particolare che estat (·) è irrotazionale, e perciò conservativo 8 . Ne risulta che l’integrale di estat (·) esteso ad un qualsiasi circuito Γ (in astratto, una cuva generalmente regolare dello spazio) è nullo. Di conseguenza, l’equazione (1.20) comporta che ‰ heEMF (r, t), t̂i3 d` E= (1.21) Γ D’altronde, l’esperienza dimostra che la variazione del flusso magnetico attraverso una qualunque superficie S concatenata a Γ si manifesta nell’azione di un campo elettrico non conservativo, cui si associa una forza elettromotrice9 . Figura 1.3: la variazione temporale del flusso di b(·) dovuta al moto relativo del dipolo magnetico rispetto alla spira induce nel circuito una corrente misurata dall’amperometro collegato ai suoi estremi, confermando l’esperimento di Faraday. Nella formulazione generalizzata di Maxwell, questo risultato si traduce nella cosiddetta legge di Faraday-Neumann-Lenz, per cui ‰ d eEFM (r, t) · t̂ d` = − Φm (t) = E(t) = dt ˆ ˆΓ ∂b(r, t) d =− b(r, t) · n̂ dS = − · n̂ dS dt S ∂t S 8: 9: (1.22) i.e., si può esprimere come il gradiente di un campo scalare (potenziale elettrostatico). e quindi un corrente, nel caso in cui Γ sia un vero e proprio circuito elettrico. Capitolo 1. Il campo elettromagnetico 11 dove Φm (·), per l’appunto, è il flusso di b(·) attraverso S. Da qui, per applicazione del teorema di Stokes, l’equazione integrale (1.22) assume la forma locale rot3 e(·) = −∂t b(·) (1.23) che descrive in modo esplicito il legame esistente, in seno alla teoria maxwelliana, fra l’elettrologia e il magnetismo ed è valida anche nel limite relativistico in cui la curva Γ sia in movimento rispetto a un riferimento stazionario. 1.3 La teoria elettromagnetica formale A questo punto, con uno sforzo di generalizzazione sulla validità delle equazioni stabilite (su base euristica o sperimentale) nel corso del paragrafo precedente, è possibile assiomatizzare la definizione del campo elettromagnetico “osservato” in una certa regione dello spazio Ω ⊆ R3 , limitatamente all’intervallo di tempo (ti , tf ) ⊆ R, in termini di qualsiasi coppia (e, b) di funzioni10 Ω × (ti , tf ) → R3 , anche generalizzate e sufficientemente regolari, tali che ∇3 · d(r, t) = ρ(r, t) ∇3 × e(r, t) = − ∂ b(r, t) ∂t ∀(r, t) ∈ Ω × (ti , tf ) : ∇3 · b(r, t) = 0 ∇ × h(r, t) = ∂ d(r, t) + j(r, t) 3 ∂t (1.24) dove ρ(·) e j(·) sono funzioni Ω × (ti , tf ) → R e Ω × (ti , tf ) → R3 associate, rispettivamente, alle cariche e alle correnti11 presenti nel dominio di interesse e d(·) e h(·), analogamente, funzioni12 Ω × (ti , tf ) → R3 legate ai campi primari e(·) ed h(·) da opportune trasformazioni (dette relazioni costitutive) del tipo d(r, t) = F [e, b](r, t) , per ogni (r, t) ∈ Ω × (ti , tf ) h(r, t) = G[e, b](r, t) (1.25) la cui forma (generalmente complicata) si fa dipendere, in definitiva, dalla natura particolare del mezzo materiale che, fisicamente, occupa la regione Ω dello spazio dove le equazioni di Maxwell si ammettono collocate. 10 : 11 : dette, rispettivamente, campo elettrico e induzione magnetica per esempio, correnti impresse dai generatori oppure cariche indotte dall’interazione del campo elettromagnetico con la materia. 12 : dette, rispettivamente, induzione elettrica e campo magnetico. Capitolo 1. Il campo elettromagnetico 1.3.1 12 Le relazioni costitutive della materia Pare chiaro, pertanto, che la solvibilità delle equazioni di Maxwell in Ω×(ti , tf ) presuppone siano state formulate delle ipotesi di modello circa le proprietà elettromagnetiche locali del mezzo materiale che, in tutto o in parte, occupa il volume di Ω, per il resto assimilabile al vuoto13 . D’altro canto è del tutto evidente che, se si intende ricavare una soluzione valida, ad esempio, per il campo prodotto da un antenna satellitare nello spazio, è assolutamente impensabile considerare legami fra i vari campi in gioco che, tanto per dire, sarebbero veri nel caso di un dielettrico debole caratterizzato da perdite per conduzione. Una consuetudine assai diffusa nell’ambito dell’ingegneria elettromagnetica è di identificare una classe abbastanza ampia di mezzi ideali per cui le relazioni costitutive si ammettono note e in cui è interessante, per varie ragioni, studiare le soluzioni delle equazioni di Maxwell (ad es., perché particolarmente agevoli). L’idea è, quindi, di approssimare ogni altro materiale del mondo fisico reale alle proprietà dei casi ideali definiti per questo verso. Nel vuoto, per esempio, e nei dielettrici assimilabili nelle loro caratteristiche al vuoto, si ipotizza che i campi e le induzioni (in assenza di conduzione) sia legati da relazioni di proporzionalità diretta, per cui d(·) = ²0 ²r (·) e(·) b(·) = µ0 µr (·) h(·) j(·) = 0 (1.26) dove ²0 ' 8.854 · 10−12 F/m e µ0 = 4π · 10−7 H/m (rispettivamente, permettività dielettrica e permeabilità magnetica del vuoto) sono costanti assolute ed ²r (·) e µr (·) sono caratteristiche del mezzo preso in considerazione (rispettivamente, permettività dielettrica e permeabilità magnetica relative). Più in generale, nel caso che il dielettrico sia caratterizzato da una conducibilità σ(·) (espressa in f/m), i.e., in presenza di perdite, si ammette d(·) = ²0 ²r (·) e(·) b(·) = µ0 µr (·) h(·) j(·) = σ(·) e(·) (1.27) nell’assunzione implicita che il dominio del problema non includa dei generatori di corrente, e che perciò la densità j(·) sia dovuta tutta e sola all’azione di deriva delle cariche da parte del campo elettromagnetico. 13 : dove la trattazione è particolarmente semplificata. Capitolo 1. Il campo elettromagnetico 13 In una visione più ampia, i mezzi materiali per cui sono valide le relazioni costitutive (1.26) oppure (1.27) devono soddisfare alle proprietà di isotropia, linearità, omogeneità e non dispersività (nel tempo che nello spazio) definite qui di seguito, limitatamente al legame funzionale che descrive la dipendenza dell’induzione elettrica d(·) dal campo primario e(·). Le relazioni fra b(·) ed h(·) oppure fra j(·) ed e(·), in assenza di sorgenti, sono, infatti, del tutto analoghe. . Isotropia e anisotropia. Le due proprietà attengono al comportamento del mezzo rispetto alla direzione delle linee di campo dei vettori coinvolti nelle equazioni di Maxwell. Avviene, infatti, che la risposta di un certo materiale alle sollecitazioni di un campo elettromagnetico siano suscettibili di variazione, per esempio, a seconda che il campo incida perpendicolarmente o meno alla sua superficie. È il caso dei mezzi cosiddetti anisotropi, come i cristalli e le ferriti, cui si contrappongono per dualità i mezzi isotropi, come il vuoto ed il vetro. Gli uni e gli altri, nel limite della linearità, si descrivono ammettendo che il legame fra il campo e l’induzione elettrica e(·) e d(·) si possano esprimere attraverso l’introduzione di una matrice ²(·) di trasformazione 3 × 3 secondo la relazione d(·) = ²(·) e(·), i cui ingressi sono funzioni scalari a valori reali del tempo e dello spazio. I mezzi isotropi corrispondono al caso in cui ²(·) è scalare, i.e., esiste ²(·) : Ω × (ti , tf ) → R tale che ²(·) = ²(·)I3 , dove I3 è l’identità 3 × 3. . Dispersività nel tempo e nello spazio. Alcuni mezzi rispondono alle sollecitazione del campo elettromagnetico in un punto particolare (r, t) del cronotopo “integrando” gli effetti prodotti in altri punti, distanti da (r, t) nel tempo o nello spazio, secondo il comportamento tipico di un sistema I/O dotato di memoria in cui le uscite le induzioni d(·) o b(·) oppure la densità di corrente j(·) e gli ingressi i vettori e(·) o h(·). Da un punto di vista dei modelli, per lo meno in condizioni di linearità, le uscite del sistema “equivalente” si ottengono attraverso la convoluzione della risposta impulsiva del mezzo con l’ingresso opportuno. Trattandosi, tuttavia, di grandezze vettoriali, la matematica si complica notevolmente, poiché la risposta impulsiva del mezzo non è una semplice funzione scalare, ma una matrice. Si parla in tal caso di mezzi dispersivi (lineari), nel tempo o nello spazio a seconda delle circostanze. In pratica, la dispersività comporta che la relazione sussistente, per esempio, fra d(·) ed e(·) non è una relazione di proporzionalità o il prodotto Capitolo 1. Il campo elettromagnetico 14 per una matrice, come nei casi esaminati in precedenza, ma richiede un’integrazione nell’intervallo di tempo (ti , tf ) o sull’insieme Ω che definiscono il dominio del problema (i.e., delle equazioni di Maxwell). L’effetto generale, comunque, è che il campo nel mezzo dipende, oltre che dall’istante di osservazione, anche dalla storia” passata; inoltre l’effetto della dispersività è tanto più forte quanto più il mezzo riesce ad inseguire” le variazioni del campo. Un effetto effettivamente visibile nello studio della propagazione delle onde magnetiche sono i cosiddetti pacchetti d’onda, che però esulano dall’argomento del presente, e riguardano invece le soluzioni delle EdM. Basti dire che in questo caso le varie costanti dipendono invece dalla frequenza di osservazione, e questo porta ad una modifica, ad esempio, della velocità con cui si propagano le onde e.m. e la stessa velocità varia con la frequenza. Ne risultano notevoli complicazioni dal punto di vista della determinazione analitica delle soluzioni e, di riflesso, la necessità di affidarsi a un approccio alternativo, attraverso lo sviluppo di codici ad hoc in grado di affrontare e risolvere il problema per via numerica al calcolatore. In realtà tutti i mezzi sono dispersivi (persino il vuoto!), quindi si effettua un’approssimazione e si trascura in prima battuta questo effetto, salvo riprendere il problema a posteriori per “ritoccare” le soluzioni calcolate. In generale, comunque, è possibile trascurare questo effetto se il campo varia molto più velocemente della risposta del mezzo. . Omogeneità nel tempo e nello spazio. Anche nell’ipotesi che i campi e le induzioni o il campo elettrico e la corrente siano legati gli uni alle altre dalle relazioni di proporzionalità diretta riassunte nel sistema (1.27), la permettività ²r (·), la permeabilità µr (·) e la conducibilità σr (·) sono funzioni scalari sia delle coordinate spaziali che del tempo. Quando, tuttavia, la dipendenza dalle une o dall’altra è soltanto implicita, ovvero i parametri caratteristici ²r (·), µr (·) e σr (·) sono costanti in ogni punto del dominio di interesse o in ogni istante dell’intervallo di osservazione, allora il mezzo si dice, rispettivamente, omogeneo nel tempo o nello spazio. Un mezzo che sia omogeneo tanto nello spazio quanto nel tempo si dice, senz’altro, omogeneo. In effetti, l’ipotesi di omogeneità è una fortissima semplificazione del modello fisico necessario alla descrizione delle proprietà elettromagnetiche dei materiali, perché è pacifico, ad esempio, che il segnale elettromagnetico irradiato da un’antenna cellulare incontra lungo il suo cammino ostacoli di ogni sorta, passando attraverso l’aria e i Capitolo 1. Il campo elettromagnetico 15 muri delle case oppure riflettendosi sulla superficie degli specchi d’acqua o sugli strati ionizzati dell’atmosfera. Cioè si propaga in una varietà eterogenea di mezzi materiali, ognuno dei quali dotato di una permettività, una permeabilità e una conducibilità diverse dagli altri. Al punto che il modello omogeneo dello spazio non è applicabile. Sennonché la via perseguita nella pratica consiste, in genere, nella suddivisione del dominio originale del problema (sia nel tempo che nello spazio) in un certo numero (finito) di sottodomini, di modo tale che in ciascuno siano pressoché valide le ipotesi di omogeneità. Quindi si studiano le soluzioni alle equazioni di Maxwell in ciascun sottodominio e si cerca a posteriori di “incollarle”, forzando condizioni di raccordo alle interfacce che assicurino il rispetto di tutte le leggi fondamentali, come, ad es., l’equazione di continuità (1.16). . Linearità e sovrapposizione degli effetti. La diretta generalizzazione della relazione d(·) = ²(·) e(·), con cui si può descrivere, in alcune circostanza, il legame fra il campo e l’induzione elettrica14 in condizioni di anisotropia, prevede di assumere che d(·) = n X ²(k) (·) e(·) = ²(·) e(·) + ²(2) (·) e(·) + . . . + ²(n) (·) e(·) (1.28) k=1 dove n ∈ N0 è un certo grado di non linearità, introdotto nel modello per tenere conto degli effetti del secondo, terzo, . . . ordine indotti dal mezzo, con il vantaggio che quanto più n cresce, tanto più preciso è l’accoppiamento fra d(·) ed e(·) descritto dalla (1.28); e lo svantaggio che la soluzione (anche numerica) delle equazioni di Maxwell ne risulta enormemente complicata. Per queste ragioni, nella pratica, si preferisce quasi sempre utilizzare l’approssimazione del prim’ordine, forzando la linearità del mezzo. In generale, il modello è accettabile (rispetto al risultato che produce) fintanto che l’intensità dei campi non è molto elevata o le loro variazioni nel tempo non sono troppo repentine. E allora il mezzo soddisfa il c.d. principio di sovrapposizione degli effetti, per cui il campo totale dovuto, ad esempio, alla presenza di n sorgenti distinte in una stessa regione dello spazio può essere espresso come somma dei campi parziali dovuti ad ogni singola sorgente in assenza di tutte le altre. 14 : ovvero fra il campo e l’induzione magnetico oppure il campo elettrico e la densità di corrente, secondo relazioni del tutto analoghe. Capitolo 1. Il campo elettromagnetico 1.4 16 Il fenomeno dello scattering Un’applicazione particolarmente interessante del modello maxwelliano attiene alla cosiddetta teoria dello scattering, che trova applicazioni trasversali nei più disparati settori della ricerca scientifica e dell’avanzamento tecnologico, dall’implementazione di apparecchiature di diagnostica tumorale all’impiego del telerilevamento satellitare per la localizzazione di giacimenti petroliferi o di metalli preziosi negli strati superficiali della crosta terrestre. Almeno nei limiti dell’elettromagnetismo, la teoria dello scattering riguarda gli effetti prodotti dalla presenza di un mezzo disomogeneo sulla propagazione (altrimenti libera) di un’onda. Nello specifico, supponendo che il campo totale u(·) associato ad una qualche proprietà radiante del segnale15 si possa scomporre nella somma di un campo incidente ui (·), associato alle sorgenti, e di un campo diffuso (o scatterato) us (·), associato alla presenza delle disomogeneità (ovvero di qualche ostacolo), è possibile definire almeno due tipi di problemi comunemente ascritti alla teoria dello scattering: i) il problema diretto, per cui si chiede di determinare us (·) dalla consocenza di ui (·) e delle equazioni che governano la propagazione dell’onda, incluse le relazioni costitutive del mezzo e la sua geometria; ii) il problema inverso, per cui si richiede di risalire la natura del mezzo e/o ricostruirne la geometria a partire dalla conoscenza del comportamento asintotico di us (·), ovvero di ricavare le equazioni del problema e/o il loro dominio di definizione, ammettendo di conoscerne un certo set di soluzioni. Al di là della descrizione appena fornita sull’argomento, necessariamente assai semplificata, il topic coinvolge un’immensa mole di concetti fisici e idee matematiche consolidate nel corso di tanti anni di intensa ricerca nell’area. In particolare, per un saggio sufficientemente completo degli innumerevoli contributi portati allo sviluppo del settore, si raccomandano le monografie di Bleistein [19], Colton e Kress [21], Jones [25], Lax e Phillips [31], Newton [32], Reed e Simon [33] e Wilcox [35]. In seno alla teoria dello scattering, i problemi più semplici da affrontare riguardano il caso (scalare) delle cosiddette onde acustiche a dipendenza armonica dal tempo, diffuse da un mezzo disomogeneo e assorbente a supporto compatto oppure da un oggetto limitato e impenetrabile: oltreché per la loro rilevanza in situazioni realistiche di notevole interesse applicativo (per esempio, nella tomografia acustica e nella diagnostica non distruttiva), lo studio dei suddetti problemi serve pure da modello per lo studio di fenomeni di propagazione più complicati, che coinvolgono lo scattering di particelle 15 : ad es., il campo elettrico o il vettore di Poynting. Capitolo 1. Il campo elettromagnetico 17 oppure onde elastiche o elettromagnetiche. Dal punto di vista della modellazione matematica, si assume che, limitatamente almeno all’intervallo (ti , tf ) di osservazione, il campo incidente sia espresso da un’onda piana temporalmente armonica della forma ui (r, t) := exp(jkhr, di3 − ωt), per ogni (r, t) ∈ Ω × (ti , tf ) (1.29) dove d ∈ R3 è il versore della direzione di propagazione, k := ω/c il numero d’onda, ω è la frequenza (angolare) e c la velocità di riferimento (del segnale) calcolata in una condizione ideale di completa omogeneità 16 . Nel caso di un mezzo disomogeneo, il problema diretto comporta, allora, la determinazione (ove possibile) di un campo scalare us (·) : R3 → C tale che ∆3 u(r) + k2 n(r) u(r) = 0 , per ogni r ∈ R3 u(r) = exp(jkhr, αi3 ) + us (r) (1.30) Qui n(·) : R3 → C è una funzione nota, che esprime il rapporto locale fra la velocità del campo totale u(·) nel mezzo inomogeneo e la velocità di riferimento c dell’onda incidente. Il problema differenziale (1.30) viene completato abbinandogli una qualche condizione al contorno sui punti della sfera infinita. Ad esempio, la condizione di radiazione di Sommerfeld, per cui si richiede che µ s ¶ ∂u (r) s lim r · − ik u (r) = 0 r→∞ ∂r (1.31) La condizione al limite (1.31) ha una chiara interpretazione fisica: serve a garantire che l’onda diffusa, a grande distanza dall’origine, si approssimi a un’onda sferica diretta radialmente verso l’infinito. D’altro canto, ammettendo che lo scattering sia dovuto ad un ostacolo sound-soft impenetrabile, tipicamente modellato da un insieme aperto e connesso D ⊆ R3 , la cui frontiera sia una superficie di classe C 2 oppure, a un livello di generalizzazione superiore, una superficie di Lyapunov, il problema consiste nel calcolo di un campo scalare us (·) : Ω → C, con Ω := R3 \ cl(D), tale che ∆3 u(r) + k2 n(r) u(r) = 0 , per ogni r ∈ Ω u(r) = exp(jkhr, αi3 ) + us (r) (1.32) e u(r) = 0, per ogni r ∈ ∂D (condizione omogenea al contorno di Dirichlet). Come nel caso precedente, è tipico, poi, completare il modello imponendo che us (·) verifichi anche la (1.31). Inoltre è possibile che la condizione di bordo per cui u(r) = 0 su ∂D venga sostituita con altre differenti17 . Comunque sia, resta che gli esempi presentati 16 : per esempio, nel caso elettromagnetico, ammettendo lo spazio interamente “occupato” dal vuoto (o da un altro dielettrico omogeneo), in assenza degli scatteratori. 17 : ad esempio, condizioni al contorno di Neumann o di Robin. Capitolo 1. Il campo elettromagnetico 18 finora rappresentano, nell’ambito della teoria dello scattering diretto, i problemi più semplici per cui sia possibile trovare una corrispondenza fra il modello matematico e i fenomeni reali della fisica. Ciò nonostante, tuttavia, non è dato affermare, ancora oggi, che siano stati del tutto risolti. Tanto che restano un soggetto di enorme attrattiva scientifica, specialmente dal punto di vista numerico, ossia della loro risoluzione stabile ed efficiente al calcolatore. Maggiori dettagli vengono forniti nel corso del successivo cap. 2, dove si fornisce una review molto completa, dal taglio eminentemente formale, della teoria dello scattering scalare da cilindri metallici. Il quadro è ulteriormente complicato dall’introduzione del problema dello scattering inverso, di pari interesse, ma in molte circostanze persino più complesso (sotto il profilo matematico). Per poterne fornire una formulazione rigorosa, serve, anzitutto, riconoscere che il campo diffuso determinato dai problemi diretti (1.30) e (1.32) possiede un andamento asintotico del tipo µ ¶ ejkr s 1 us (r) = u∞ (r̂; k, d) + O 2 r r (1.33) dove r := r̂ · krk, per ogni 0 6= r ∈ R3 , e us∞ (·) è il cosiddetto campo lontano 18 . Lo studio dello scattering inverso, allora, consiste nel determinare vuoi l’indice di diffrazione del mezzo disomogeo del problema (1.30) vuoi la geometria dello scatteratore sound-soft del problema (1.32) a partire dalla conoscenza del campo lontano us∞ = us∞ (r̂; k, α), per ogni (r̂, d) ∈ U ⊆ B22 , ; oltreché, eventualmente, per diversi valori del numero d’onda k ∈ C. . Lo scattering nelle applicazioni Il numero delle applicazioni è esorbitante, al punto che non è pensabile qui fornirne un elenco estensivo completo. Si spazia, di fatto, dall’ambito militare, dove la teoria ed i suoi risultati vengono impiegati, per es., nella localizzazione di ordigni sepolti inesplosi, campi minati, tunnel sotterranei; all’ambito aereospaziale, con la realizzazione di sistemi di sondaggio per l’analisi delle proprietà elettriche del suolo e sottosuolo di pianeti o satelliti19 . Lo scattering inverso, in particolare, è alla base del principio di funzionamento della tecnologia GPR (ground penetrating radar ), utilizzata in geofisica per la determinazione delle stratificazioni nel terreno e di eventuali presenze di cavità o falde acquifere; o in archeologia per la caratterizzazione preliminare degli scavi nei siti archeologici. In questi contesti, il vantaggio principale consiste nella possibilità di conoscere con 18 : 19 : anche noto col nome di ampiezza di scattering. un sistema del genere fu impiegato nella missione spaziale Apollo 17. Capitolo 1. Il campo elettromagnetico 19 esattezza l’ubicazione degli obiettivi di interesse in maniera completamente non distruttiva, i.e, senza dover danneggiare lo scenario di indagine procedendo “alla cieca” con scavi, carotaggi, etc. Oltreché nel campo geofisico e archeologico, i sistemi GPR vengono utilizzati in diverse applicazioni ad alta risoluzione, come la ricerca di fratture nascoste in strutture edili particolari (dighe, pilastri, ect.), la rilevazione della velocità e profondità di diffusione di materiali inquinanti oleosi dispersi a terra, la misurazione di precisione dello spessore di lastre di ghiaccio, manti stradali, massicciate, ect.; e più in generale in numerosi campi di indagine inerenti a obiettivi di interesse ambientale. Estremamente attuali sono, poi, le ricadute nel settore delle scienze biomediche, dove lo scattering è largamente impiegato nel campo della diagnostica non invasiva, cui di recente l’autore si è applicato, poiché coinvolto in una serie di ricerche condotte, nell’ambito dei PRIN20 , dall’IREA21 di Napoli, in collaborazione con il gruppo di Campi elettromagnetici della Facoltà di Ingegneria dell’Università “Mediterranea” di Reggio Calabria. L’attività svolta nel corso del ciclo di dottorato, ad ogni modo, si è incentrata in prevalenza sullo studio dei problemi diretti e delle tecniche numeriche per la loro risoluzione, che trovano riscontro, ad esempio, nella progettazione e implementazione di antenne per le telecomunicazioni (terrestri e satellitari), nella rilevazione radar di oggetti in volo (nell’ambito dell’aeronautica civile o della difesa militare) o nella realizzazione di sistemi intelligenti di autodistanziamento dei veicoli su strada (c.d. sensori FS); e inoltre costituiscono, in circostanze ordinarie, un passaggio necessario nel processo di validazione delle procedure utilizzate per “attaccare” i problemi inversi. 20 : 21 : Progretti di Rilevante Interesse Nazionale. Istituto per il Rilevamento Elettromagnetico dell’Ambiente. Capitolo 2 L’EFIE e lo scattering diretto Nel corso del capitolo consideriamo un problema al contorno collegato in modo naturale allo studio dello scattering diretto di un’onda piana a dipendenza armonica dal tempo da parte di un conduttore cilindrico (perfetto o imperfetto). Benché il problema sia semplice se paragonato ad altri analoghi della teoria dello scattering, la sua risoluzione ha richiesto molti anni di ricerca per essere formalizzata e costituisce, di fatto, una base sicura per lo sviluppo e il testaggio delle procedure di calcolo implementate per la risoluzione numerica di problemi generali in cui siano coinvolti dei sistemi più complessi. 2.1 Le equazioni dello scattering Consideriamo la propagazione di un’onda elettromagnetica in un mezzo isotropo, omogeneo, non dispersivo e privo di perdite, caratterizzato da permettività dielettrica ² e permeabilità magnetica µ reali e costanti. Fissata una frequenza ω > 0, ammettiamo che l’onda si possa descrivere nei termini di una coppia e(·), h(·) di campi R3 ×(−∞, ∞) tali che e(r, t) = ²−1/2 E(r) e−jωt , h(r, t) = µ−1/2 H(r) e−jωt in R3 × (−∞, ∞) (2.1) 3 dove E(·), H(·) sono funzioni vettoriali Lloc 1 (R , C) che risolvono (in un qualche senso da doversi precisare) il sistema di equazioni alle derivate parziali [18] rot E(r) − jkH(r) = 0 , per ogni r ∈ Ve rot H(r) + jkE(r) = 0 (2.2) Capitolo 2. L’EFIE e lo scattering diretto 21 √ in cui k := ω ²µ è detto numero d’onda e Ve := R3 − V rappresenta il complementare della chiusura topologica di un aperto monoconnesso ∅ 6= V ⊆ R3 . Quindi assumiamo che un’onda piana monocromatica 1 ei (r, t) = Ei (r; d, p) e−jωt = rot rot p ejkhr,di−jωt k2 1 rot p ejkhr,di−jωt hi (r, t) = Hi (r; d, p) e−jωt = jk (2.3) di polarizzazione nota p ∈ R3 , si propaghi attraverso il cronotopo nella direzione del versore d ∈ R3 e incida su un conduttore elettrico (possibilmente non ideale), e ne risulti diffusa nello spazio circostante. Assimiliamo il dominio V al volume fisico occupato dall’ostacolo ed immaginiamo di scomporre puntualmente i fasori E(·) ed H(·) dei campi totali e(·) ed h(·) secondo una relazione del tipo E(r) = Ei (r; d, p) + Es (r; d, p) , in R3 H(r) = Hi (r; d, p) + Hs (r; d, p) (2.4) dove Es (·) e Hs (·) rappresentano i campi scatterati (o diffusi) generati dall’interazione dell’onda incidente con l’ostacolo. Imponiamo, per finire, che la coppia (Es , Hs ) soddisfi la condizione di radiazione di Silver-Müller ¡ ¢ lim Hs (r) × r − rEs (r) = 0 (2.5) r→∞ r , e l’una o l’altra, krk2 esclusivamente, fra la condizione al bordo di Dirichlet omogenea uniformemente rispetto ad ogni direzione dello spazio r̂ := E(r) = 0, per ogni r ∈ ∂V (2.6) oppure la condizione al bordo di Robin ¡ ¢ n̂ × rot E(r) − jλ(r) n̂ × E(r) × n̂, per ogni r ∈ ∂V (2.7) in cui λ(·) è una funzione positiva ∂V → R impiegata per modellare l’impedenza superficiale dell’oggetto e n è il versore della normale locale uscente dalla frontiera di V (che qui si suppone una varietà di classe C 2 ). Su queste premesse, il problema dello scattering elettromagnetico di onde piane armoniche nel tempo da parte di un ostacolo metallico consiste, in generale, nella determinazione di una coppia di soluzioni alle equazioni di Maxwell (2.2) che soddisfino le relazioni (2.3)-(2.4) e le condizioni al contorno (2.5)-(2.6) o (2.5)-(2.7): parleremo nel primo caso di scattering da corpi metallici ideali, nel secondo di scattering da conduttori elettrici imperfetti. Capitolo 2. L’EFIE e lo scattering diretto 2.2 22 Il caso del conduttore cilindrico Immaginiamo, adesso, che lo scatteratore del problema definito nel corso del paragrafo precedente non abbia una geometria arbitraria, ma sia un cilindro di sezione trasversale Ω ed asse parallelo alla direzione ẑ di una base ortonormale destrogira (x̂, ŷ, ẑ) di R3 , in cui il punto generico r si possa equivalentemente esprimere per mezzo del sue coordinate rettangolari (x, y, z). Ipotizziamo che Ω, in proiezione sul piano z = 0, sia un aperto monoconnesso di R2 e poniamo Ωe := R2 − Ω̄. Quindi assumiamo p = (0, 0, 1) e d = (d1 , d2 , 0) con riferimento alla (2.3) e che il campo EM sia trasverso magnetico, i.e. Ei (r) = exp(jkhr, di) ẑ , E(r) = Ez (r) ẑ per ogni r ∈ R3 (2.8) Sotto queste ipotesi, i campi totali E(·) ed H(·) associati al problema di scattering (2.2)-(2.5) si dimostrano indipendenti dalla coordinata longitudinale z. Ne risulta dalla (2.2) che H(r) = Hx (r) x̂ + Hy (r) ŷ in Ve e che le componenti incognite Hx (·), Hy (·) e Ez (·) di E(·) ed H(·) soddisfano il sistema ∂ E (r) = jkHx (r) y z , per ogni r ∈ Ωe ∂x Ez (r) = −jkHy (r) ∂ H (r) − ∂ H (r) = −jkE (r) x y y x (2.9) z dove adesso r := (x, y). Da qui, postulando che Ez (·) sia derivabile almeno fino al secondo ordine oppure interpretando le derivate in senso debole, si deduce che il campo, in definitiva, è determinato dall’equazione scalare di Helmholtz ∆2 Ez (r) + k2 Ez (r) = 0, in Ωe (2.10) A questo punto si tratta di adattare alla particolare configurazione del problema le condizioni al contorno richieste nel caso generale. In tal senso, considerando che Es (·) è allineato con ẑ, i.e., Es (r) = Ezs (r) ẑ in Ve , è sufficiente imporre che Ezs (·) verifichi, uniformemente per ogni direzione del piano r r̂ := , la condizione di radiazione di Sommerfeld krk2 µ ¶ √ ∂Ezs (r) lim r − jkEzs (r) = 0 (2.11) r→∞ ∂r per garantire che la condizione di Silver-Müller (2.5) sia “naturalmente” soddisfatta. D’altro canto, la condizione omogenea di Dirichlet (2.6), valida nel caso di un conduttore cilindrico perfetto, comporta in tutta evidenza che Ezs (r) = − exp(jkhr, di), per ogni r ∈ ∂Ω (2.12) Capitolo 2. L’EFIE e lo scattering diretto 23 dove ∂Ω := Ω̄ ∩ Ω̄e è, di fatto, una curva del piano di classe C 2 , per via delle ipotesi assunte sulla frontiera di V. Mentre la condizione di Robin (2.7) per un cilindro metallico non ideale assume la forma semplificata ∂Ez (r) + jλ(r) Ez (r) = 0, ∂n per ogni r ∈ ∂Ω (2.13) dacché n̂ = (nx , ny , 0) e E(·) = Ez (·) ẑ, nella geometria del problema, e perciò n̂ × ¢ ¡ rot E(r) = −∂n̂ Ez (r) e n̂ × E(r) × n̂ = E(r) su ∂Ω. Le equazioni (2.10)-(2.11), abbinate ora alla (2.12) ora alla (2.13), definiscono, di fatto, il modello differenziale utilizzato per lo studio dello scattering elettromagnetico TM da parte di un cilindro metallico, ideale o non ideale, di un’onda piana monocromatica polarizzata secondo l’asse dello scatteratore. Per quanto semplice rispetto ad altri problemi di scattering, in cui sono coinvolti sistemi a n corpi o geometrie singolari e le equazioni di Maxwell o le loro derivazioni (ad es., l’equazione di Helmholtz) non si “scalarizzano”, manifestando pienamente la propria natura vettoriale, il caso cilindrico costituisce • un presupposto e un banco di prova importante per la definizione di un’ampia varietà di tecniche, analitiche e numeriche, da potersi utilizzare nella risoluzione di problemi ben più generali [54]; • un modello efficace per ottenere delle ragionevoli stime di prima approssimazione là dove ogni altro approccio sia precluso o sconveniente1 . Da qui l’ampio spazio dedicato nel prosieguo del capitolo agli sviluppi della teoria matematica necessaria per inquadrare all’interno del giusto assetto formale la soluzione del problema definito nel corso di questo paragrafo. 2.2.1 Il problema diretto Passiamo adesso a formalizzare i passaggi fondamentali per cui si dimostra che il problema dello scattering da conduttori cilindrici in presenza di un’eccitazione piana armonica nel tempo, polarizzata secondo il vettore p = (0, 0, 1), è ben posto (secondo Hadamard). Nel senso che l’equazione di Helmholtz 2-dimensionale (2.10) possiede un’unica soluzione (forte) u(·) ∈ C 2 (Ω; C) ∩ C 1 (Ω; C) che dipende con continuità (in una norma opportuna) dai dati e per cui sono soddisfatte le condizioni al contorno (2.11) e (2.12) oppure (2.11) e (2.13), a seconda che il conduttore sia perfetto o meno. 1: alcuni codici utilizzati per la computazione numerica della soluzione dei problemi di scattering 3D operano iterativamente a partire da una stima iniziale dei termini incogniti, da cui dipende spesso in modo critico la convergenza tout-court della procedura. Capitolo 2. L’EFIE e lo scattering diretto 24 Innanzitutto riformuliamo il problema, svincolandolo dal suo rapporto con il fenomeno fisico. Assumiamo astrattamente che Ω 6= ∅ sia un dominio limitato di R2 contenente l’origine con un complemento Ωe := R2 − Ω̄ connesso2 tale che ∂Ω sia di classe C 2 . L’obiettivo è di sintetizzare la dimostrazione dell’esistenza di un’unica funzione us (·) ∈ C 2 (Ωe ) ∩ C 1 (Ω̄e ) tale che ∆2 u(r) + k2 u(r) = 0 , u(r) = exp(jkhr, di) + us (r) in Ωe (2.14) dove k è una costante positiva e us (·) soddisfa la condizione di Sommerfeld µ s ¶ √ ∂u (r, θ) lim r − jkus (r, θ) = 0 r→∞ ∂r (2.15) uniformemente per ogni θ ∈ [0, 2π), dove (r, θ) sono le coordinate polari di un generico punto r ∈ R2 − {(0, 0)}. Inoltre richiediamo che u(·), come definito dalla (2.14), verifichi l’una o l’altra fra la condizione di Dirichlet u(r) = 0 ⇐⇒ us (r) = − exp(jkhr, di), in ∂Ω (2.16) o la condizione di impedenza superficiale di Robin ∂u(r) + jλ(r)u(r) = 0, ∂ n̂ in ∂Ω (2.17) In quest’ultimo caso, ammettiamo che λ(·) sia una funzione continua positiva ∂Ω → R e che n = n(r) rappresenti il versore locale della normale uscente da Ω nel generico punto r ∈ ∂Ω. Per dimostrare l’esistenza di una soluzione al problema al contorno così formulato intendiamo utilizzare la teoria dei potenziali di singolo e doppio strato [36]. . L’unicità della soluzione Identifichiamo la soluzione fondamentale dell’equazione di Helmholtz in (2.14) nella funzione Φ(·) : R2 × R2 7→ C definita assumendo Φ(r, s) := 1 (1) jH (kkr − sk2 ), 4 0 per ogni r, s ∈ R2 , r 6= s (2.18) (1) dove H0 (·) indica la funzione di Hankel di prima specie e ordine zero [55]. Quindi notiamo che Φ(·) soddisfa la condizione di radiazione di Sommerfeld (2.11) rispetto a entrambi i suoi argomenti e che Φ(r, s) = 2: 1 1 ln + O(1), 2π kr − sk2 per kr − sk2 → 0+ si osservi che Ω può essere anche molteplicemente connesso. (2.19) Capitolo 2. L’EFIE e lo scattering diretto 25 Per inciso, qualunque sia s ∈ R2 , la funzione R2 → C : r 7→ Φ(r, s) è una soluzione debole (v. appendice A) l’equazione non omogenea ∆2 u + k2 u = δs dove δs è la massa di Dirac di centro s. In effetti, è interessante come, nell’ambito della teoria delle funzioni generalizzate, le conclusioni a venire si possano stabilire (per dualità) con uno sforzo molto più modesto di quanto non avvenga per la formulazione classica del problema. Il prezzo da pagare è che, nell’approccio distribuzionale, non è possibile inferire alcuna informazione a priori sulla regolarità delle soluzioni, che dev’essere, infatti, dedotta a posteriori impiegando alcuni risultati non banali come i teoremi di immersione di Sobolev. Detto questo, l’importanza dell’introduzione della soluzione fondamentale (2.18) è legata, sostanzialmente, al teorema qui di seguito enunciato, per cui risulta che ogni soluzione sufficientemente regolare del problema esteriore (2.10) si può rappresentare, attraverso i teoremi di Green, in termini di un integrale di linea sulla frontiera ∂Ω della sezione 2D trasversale dello scatteratore cilindrico. ¥ Teorema 2.1 Ogni soluzione us (·) di classe C 2 (Ωe ) ∩ C 1 (Ω̄e ) dell’equazione ∆2 us (r) + k2 us (r) = 0, in Ωe che soddisfi la condizione di radiazione di Sommerfeld (2.15) è tale che ¶ ˆ µ ∂Φ(r, s) ∂us (s) us (r) = us (s) − Φ(r, s) d`(s) ∂ n̂(s) ∂ n̂ ∂Ω (2.20) (2.21) La dimostrazione utilizza l’ipotesi essenziale che ∂Ω sia una curva liscia del piano di classe C 2 . Nel caso di profili più irregolari3 la validità della rappresentazione integrale (2.21) non è più generalmente garantita. Anzi non esistono, al meglio delle nostre conoscenze, nello spettro della letteratura elettromagnetica dedicata all’argomento, risultati relativi al caso, del resto assai comune nelle applicazioni, in cui il profilo superficiale degli scatteratori presenti delle singolarità. D’altronde, la questione non è affatto irrilevante, se si considera che il teorema (2.1) costituisce il fondamento di un’ampia varietà di tecniche, analitiche e numeriche, impiegate per attaccare sia il problema diretto che il problema inverso. Che abbisognerebbero, evidentemente, di una validazione teorica per acquistare dignità scientifica, nonostante la comunità continui a utilizzarle con una certa disinvoltura, secondo una prassi quasi del tutto arbitraria e pressoché priva di qualsiasi fondamento. Un tentativo del dottorando in questa direzione è stato di indagare la possibilità di generalizzare 3: ad es., in presenza di uno o più punti angolosi sulla frontiera di Ω. Capitolo 2. L’EFIE e lo scattering diretto 26 le idee del teorema (2.1) al caso delle cosiddette curve di Lyapunov. Sennonché i risultati ottenuti sono ancora prematuri e non possono trovare spazio in questa trattazione, che infatti sarà limitata al caso in cui ∂Ω sia liscia di classe C 2 . Di fatto, sotto queste condizioni, la rappresentazione (2.21) si estende senza difficoltà anche a una generica soluzione u(·) ∈ C 2 (Ω) ∩ C 1 (Ω̄) del problema interiore, a prescindere dalle condizioni di bordo, e garantisce, in definitiva, che ¶ ˆ µ ∂us (s) ∂Φ(r, s) u(r) = Φ(r, s) − u(s) d`(s) ∂ n̂ ∂ n̂(s) ∂Ω (2.22) Per cui risulta che ogni soluzione dell’equazione di Helmholtz 2-dimensionale è una funzione analitica dell’intero spazio R2 . Quindi soddisfa al principio di continuazione unica, per cui è assicurato che, se u(·) è soluzione dell’equazione di Helmholtz in un dominio di R2 e u(r) = 0 nell’intorno di un suo punto r0 , allora u(·) è identicamente nulla. Ne seguita l’unicità della soluzione al problema diretto (2.14)-(2.15) abbinato alla condizione di Robin (2.17) o di Dirichlet (2.16) su ∂Ω (v. [37], pagg. 54-55). . L’EFIE e l’esistenza della soluzione Adesso intendiamo utilizzare il metodo delle equazioni integrali per dimostrare l’esistenza di una soluzione radiante u(·) ∈ C 2 (Ωe ) ∩ C 1 (Ω̄e ) all’equazione di Helmholtz per il dominio esteriore Ωe che soddisfa l’una o l’altra, esclusivamente, fra le condizioni al contorno (2.17) o (2.16). Allo scopo, notiamo innanzitutto che, se ϕ(·) : ∂Ω → C è una funzione continua, il potenziale di singolo strato ˆ us (·) : R2 − ∂Ω → C : r 7→ ϕ(s)Φ(r, s) d`(s) (2.23) ∂Ω soddisfa la condizione di radiazione di Sommerfeld, risolve l’equazione di Helmholtz in R2 − ∂Ω (i.e., sia in Ω che nel suo complementare Ωe ), è continua nel piano (quindi anche nei punti di ∂Ω) e verifica la proprietà di discontinuità ˆ ∂us± (r) ∂Φ(r, s) 1 = ϕ(s) d`(s) ∓ ϕ(r), per ogni r ∈ ∂Ω ∂ n̂ ∂ n̂(r) 2 ∂Ω (2.24) ∂us± (r) := lim hn̂(r), ∇us (r±hn̂(r)i2 , uniformemente per ogni r ∈ ∂Ω. Ad ogni ∂ n̂ h→0+ buon conto, notiamo che le proprietà appena elencate dei potenziali di singolo strato dove restano valide anche “rilassando” fortemente le ipotesi sulla funzione di densità ϕ(·), e nello specifico prescrivendo che sia ϕ(·) ∈ H −1/2 (∂Ω) piuttosto che ϕ(·) ∈ C 0 (∂Ω) [22, 23] - e interpretando di conseguenza l’integrale a destra della (2.23) in senso duale. In particolare, si trova che il potenziale di singolo strato (2.23) risolve il problema (2.14)-(2.15) con la condizione al contorno di Robin su ∂Ω, se ˆ ˆ ∂Φ(r, s) ϕ(s) ϕ(r) − 2 ϕ(s)Φ(r, s)d`(s) d`(s) − 2jλ(r) ∂n(r) ∂Ω ∂Ω Capitolo 2. L’EFIE e lo scattering diretto ¶ ∂ui (r) + jλ(r) ui (r) , per ogni r ∈ ∂Ω ∂ n̂(r) ovvero con la condizione al contorno di Dirichlet, a patto che ˆ ϕ(s)Φ(r, s)d`(s) = −ui (r), per ogni r ∈ ∂Ω 27 µ =2 (2.25) (2.26) ∂Ω dato ui (r) := exp(jkhr, di2 ) in R2 . Di fatto, nei termini dell’ingegneria dei campi, la (2.26) rappresenta la cosiddetta equazione integrale del campo elettrico (EFIE) per lo scattering diretto TMz da cilindri metallici ideali C 2 -regolari. Idem per la (2.25), limitatamente al caso dei metalli imperfetti. A seconda della natura particolare dello scatteratore, l’EFIE ci consente di dedurre l’esistenza di una soluzione al problema diretto (2.14)-(2.15) a patto di poter dimostrare l’esistenza di una soluzione all’equazione integrale (2.25) o (2.26) nello spazio di Banach C(∂Ω, C) delle funzioni continue ∂Ω → C attrezzato con la norma uniforme4 k · kC(∂Ω,C) : C(∂Ω) → R : f (·) 7→ max |f (r)| r∈∂Ω (2.27) A questo scopo, osserviamo innanzitutto che gli operatori integrali coinvolti nella scrittura delle equazioni (2.25) e (2.26) sono compatti, poiché limite di opportune successioni di operatori compatti (v. [37], pagg. 56-57). Allora l’idea è di stabilire l’esistenza di una soluzione al problema utilizzando la teoria di Riesz sugli operatori compatti. . Il problema delle risonanze Di fatto, si tratterebbe di provare che la versione omogenea dell’EFIE, nelle due formulazioni (2.25) e (2.26), possiede soltanto la soluzione banale, in accordo al teorema di Riesz (v. [37], pagg. 11-13). Questo è rigorosamente vero fintanto che k2 non è un autovalore di Dirichlet del problema interno. In caso contrario, infatti, esiste una funzione u(·) ∈ C 2 (Ω) ∩ C 0 (Ω̄), non identicamente nulla, tale che ∆2 u(r) + k2 u(r) = 0 in Ω e u(r) = 0 sulla frontiera ∂Ω. Allora ∂u u(·) è di classe C 1 (Ω̄) (v. [21]) e la sua derivata normale (·) non è identicamente ∂ n̂ nulla su ∂Ω, dacché altrimenti, per il teorema di rappresentazione (2.22), si avrebbe ∂u u(r) = 0, per ogni r ∈ Ω, contro le ipotesi. Perciò, posto ϕ(·) := (·) ∂ n̂ ˆ ϕ(s)Φ(r, s) d`(s), per ogni r ∈ Ωe (2.28) ∂Ω e la relazione si estende (per continuità) ad ogni r ∈ Ω̄e . Da qui, utilizzando le proprietà di discontinuità dei potenziali di singolo strato, si trova che ˆ ∂ ϕ(s) ϕ(r) − 2 Φ(r, s) d`(s), per ogni r ∈ ∂Ω ∂ n̂(s) ∂Ω 4: (2.29) la definizione della norma è ben posta, perché ∂Ω è un compatto di R2 e ogni funzione continua ∂Ω → C ammette, perciò, massimo assoluto sulla base del teorema di Weierstrass. Capitolo 2. L’EFIE e lo scattering diretto 28 Se ne conclude, combinando linearemente le equazioni (2.28) e (2.29), che ϕ(·) è una soluzione non banale dell’EFIE, nella versione (2.25) per i metalli non ideali o (2.29) per i conduttori perfetti. Di conseguenza, il teorema di Riesz non si può più utilizzare. Si dice, in questi casi, che il modello ai potenziali di singolo strato degenera, con l’effetto che il nucleo dell’operatore integrale diviene non iniettivo e la soluzione numerica ne viene “sporcata”. In termini elettromagnetici, in pratica, accade che, quando k2 è un autovalore del problema di Dirichlet interno, la corrente equivalente sulla frontiera ∂Ω del dominio del problema - che corrisponde fisicamente alla densità incognita ϕ(·) delle equazioni (2.25) o (2.26) - non è univocamente determinata. Con la conseguenza che la loro soluzione numerica, almeno in linea di principio, manifesta delle forti instabilità, che la rendono scarsamente affidabile 5 . Per ottenere un’equazione integrale che sia risolvibile in modo univoco per ogni valore del numero d’onda k è necessario ritoccare la rappresentazione (2.23), attraverso la definizione di un potenziale di singolo strato modificato (v. [21], pagg. 57-58), che gode delle stesse proprietà del potenziale di singolo strato (2.23), ma in più rende l’EFIE modificata iniettiva ad ogni k. 2.3 Le equazioni dello scattering 3D Nel corso del paragrafo precedente abbiamo utilizzato come modello lo scattering di onde piane monocromatiche, opportunamente polarizzate, da parte di un cilindro metallico (infinito), così riducendo il sistema vettoriale delle equazioni differenziali di Maxwell ad una singola equazione scalare su un dominio bidimensionale o tridimensionale. In quest’ultimo capitolo intendiamo brevemente riassumere le modifiche che è necessario apportare agli argomenti già proposti nei casi summenzionati per trattare problemi di scattering elettromagnetico di carattere propriamente vettoriale. Esistono due problematiche fondamentali nella trattazione matematica dei fenomeni di scattering elettromagnetico tridimensionale. La prima è che la formulazione del problema diretto richiede l’introduzione di spazi funzionali molto più complessi (da un punto della struttura topologica soggiacente) di quelli impiegati nel caso scalare. La seconda è conseguenza della prima e attiene alla necessità di utilizzare tecniche e risultati della matematica assai più sofisticati per studiare sia il problema diretto che il problema inverso. Ciò nonostante, lo schema logico che bisogna seguire al fine di 5: la soluzione numerica di un modello analitico si dice affidabile se, al limite, approssima con un errore infinitesimo la soluzione esatta. Capitolo 2. L’EFIE e lo scattering diretto 29 ottenere i risultati desiderati (e fra questi, per esempio, l’unicità e l’esistenza di una soluzione) è essenzialmente lo stesso adottato nel caso scalare 2D o 3D. Per queste ragioni la nostra presentazione sarà piuttosto contenuta: una quantità di dettagli utili a completare il quadro si può, in ogni caso, ritrovare nella monografia di Monk [57] citata fra le fonti bibliografiche. 2.3.1 Formulazione differenziale del problema diretto Come già nei capitoli precedenti, focalizzeremo l’attenzione sul problema diretto dello scattering da parte di un oggetto metallico (ideale o imperfetto), assimilabile a un dominio V dello spazio R3 tale che la frontiera ∂V sia una varietà liscia di classe C 2 . Ammettiamo sia n̂ = n̂(r) il versore della normale locale uscente da V relativa al punto r ∈ ∂V e che sia possibile splittare ∂V in due sottovarietà disgiunte ∂VD e ∂VI , relativamente aperte ed eventualmente sconnesse. Il problema diretto cui siamo interessati consiste, allora, nella determinazione di un campo elettromagnetico (E, B), i.e., di una coppia di funzioni E(·), H(·) : D̄ → C3 sufficientemente regolari, per cui rot E(r) − ikH(r) = 0 , per ogni r ∈ Ve (2.30) rot H(r) + ikE(r) = 0 √ in cui k := ω ²µ è detto numero d’onda e Ve := R3 − V si suppone connesso. Quindi assumiamo che un’onda piana monocromatica 1 Ei (r; d, p) = rot rot p ejkhr,di = jk (d × p) × d ejkhr,di k2 1 rot p ejkhr,di = jk d × p ejkhr,di Hi (r; d, p) = jk (2.31) di polarizzazione nota p ∈ R3 , si propaghi nello spazio 3D secondo la direzione del versore d ∈ R3 , incida su V e ne risulti diffusa. Immaginiamo che i campi totali E(·) ed H(·) si possano scomporre nella forma E(r) = Ei (r; d, p) + Es (r; d, p) , H(r) = Hi (r; d, p) + Hs (r; d, p) in R3 (2.32) dove Es (·) e Hs (·) sono i campi scatterati incogniti. Imponiamo, quindi, che la coppia (Es , Hs ) soddisfi la condizione di radiazione di Silver-Müller ¡ ¢ lim Hs (r) × r − rEs (r) = 0 (2.33) r→∞ uniformemente rispetto ad ogni direzione dello spazio r̂ := al contorno (risp., di Dirichlet e di Robin) E(r) = f (r) n̂ × rot E(r) − iλ(r)¡n̂ × E(r)¢ × n̂ = h(r) r , oltreché le condizioni krk2 in ∂VD in ∂VI (2.34) Capitolo 2. L’EFIE e lo scattering diretto 30 in cui f (·) : ∂VD 7→ C3 , λ(·) : ∂VI 7→ C e h(·) : ∂VD 7→ C3 sono note e λ(·) > 0, in particolare, è una funzione positiva impiegata per modellare l’impedenza superficiale dello scatteratore. La prima questione da affrontare comporta la determinazione di condizioni di regolarità per f (·) e h(·) sufficienti a garantire che il problema (2.30)(2.34) ammetta una soluzione unica, peraltro dipendente con continuità dai dati6 . A questo scopo, introduciamo lo spazio ¯ © ª X(V, ∂VI ) := u(·) ∈ H(rot, V) : n × u(·)¯∂V ∈ L2t (∂VI ) (2.35) I equipaggiato con la norma k · kX(V,∂VI ) : X(V, ∂VI ) → R definita assumendo ku(·)k2X(V,∂VI ) := ku(·)k2H(rot,V) + kn̂ × u(·)k2L2 (∂VI ) (2.36) per ogni u(·) ∈ X(V, ∂VI ), dove gli spazi7 H(rot, V) := {u(·) ∈ L2×3 (V) : rot u(·) ∈ L2×3 (V)} L2t (∂VI ) := {u(·) ∈ L2×3 (∂VI ) : n̂ × u(r) = 0 su ∂VI } sono equipaggiati, a propria volta, con le norme q k · kH(rot,V) : H(rot, V) → R : u(·) 7→ ku(·)kL2×3 (V) + krot u(·)kL2×3 (V) e k · kL2t (VI ) : L2t (VI ) → R : u(·) 7→ ku(·)kL2×3 (V) . Come nei capitoli precedenti, infine, possiamo introdurre gli spazi Xloc (Ve , ∂VI ) e Hloc (rot, Ve ) e lo spazio traccia Y (∂VD ) di X(V, ∂VI ) su ∂VD ponendo © Y (∂VD ) := f (·) ∈ H−1/2×3 (∂VD ) : ∃u(·) ∈ H0 (rot, ΩR ) ¯ ¯ ª tale che n̂ × u(·)¯∂V ∈ L2t (∂VD ) e f (·) = n̂ × u(·)¯∂V I D dove V ⊆ ΩR := {r ∈ R3 : krk2 < R} e ¯ H0 (rot, ΩR ) := {u(·) ∈ H(rot, ΩR ) : n̂ × u(·)¯Ω = 0} R (2.37) Lo spazio traccia Y (∂VD ) si ammette attrezzato della norma r o n k · kY (∂VD ) : Y (∂VD ) → R : f (·) 7→ inf ku(·)k2H(rot,ΩR ) + kn̂ × u(·)k2L2 (∂V ) I u(·) dove l’estremo inferiore si intende calcolato su tutte le funzioni u(·) ∈ H0 (rot, ΩR ) tali ¯ ¯ che n̂ × u(·)¯∂V ∈ L2t (∂VI ) e f (·) = n̂ × u(·)¯∂V . Per maggiori dettagli, si veda [57]. I D Ebbene, su questi presupposti teorici, vale il seguente 6: 7: i.e., sia ben posto nel senso di Hadamard. si assume L2×3 (∂VI ) := L2 (∂VI ) × L2 (∂VI ) × L2 (∂VI ). Capitolo 2. L’EFIE e lo scattering diretto ¥ 31 Teorema 2.2 Date che siano f (·) ∈ Y (∂VD ) e h(·) ∈ L2t (∂VI ), esiste un’unica soluzione E(·) ∈ Xloc (Ve , ∂VI ) tale che kE(·)kXloc (Ve ∩ ΩR ,∂VI ) ≤ C · (kf (·)k∂VD + kh(·)kL2 (∂VI )) (2.38) per ogni R > 0 per cui V ⊂ ΩR , essendo C un’opportuna costante positiva indipendente da R ma non da f (·) ed h(·). Di fatto, non si tratta del più generale fra i risultati di quest’ordine disponibili nella letteratura scientifica dedicata al tema dello scattering. Tuttavia, senz’altro, è il più semplice da formulare, nonostante il limite evidente di non essere applicabile, ad esempio, al caso di una geometria “elementare” come quella di un cubo, per via delle sue singolarità. In effetti, in tempi assai recenti, qualche timido progresso è stato compiuto nella direzione delle superfici di Lyapunov (già citate nel paragrafo precedente), essenzialmente fondato su un approccio al calcolo di tipo variazionale [38, 39]. Tuttavia, non c’è spazio in questa tesi per una review dell’argomento. Piuttosto ci interessa rilevare che, esattamente come nel caso cilindrico, anche nelle ipotesi generali del teorema il problema diretto si può ricondurre alla soluzione di un’opportuna equazione integrale definita sulla superficie dello scatteratore, benché la formalizzazione dei passaggi necessari allo scopo sia notevolmente complicata dalla natura vettoriale delle relazioni in gioco. L’idea, come nel caso scalare 2D, è di introdurre degli opportuni potenziali (di singolo o doppio strato) e definire sulla superficie dell’ostacolo una densità (di corrente) in grado di rappresentare, tramite un operatore di radiazione, la distribuzione di campo nello spazio circostante. Il risultato è la costruzione di un modello alternativo all’equazione di Helmholtz vettoriale per i campi, che si traduce nella cosiddetta equazione integrale del campo elettrico (EFIE) o, in alternativa, del campo magnetico (MFIE). Il vantaggio principale di quest’approccio è dovuto al fatto che la soluzione del problema diretto, che nella forma differenziale coinvolge un dominio 3D illimitato e, perciò, non è facilmente gestibile attraverso gli elementi finiti o analoghe tecniche numeriche per le equazioni alle derivate parziali, si riporta ad un problema “equivalente” su un dominio limitato, almeno fintanto che le geometrie degli scatteratori8 sono varietà compatte di R3 . In particolare, l’EFIE possiede uno spettro di applicazione più ampio dell’MFIE9 , ed è stata, perciò, privilegiata dal percorso di studio e ricerca. Un’ulteriore alternativa è rappresentata dalla cosiddetta combined field integral equation (CFIE), che è appunto una combinazione lineare dell’EFIE e della MFIE. 8: 9: come accade nella realtà fisica. che non si applica, ad esempio, al caso delle superfici aperte. Capitolo 2. L’EFIE e lo scattering diretto 32 La sua utilità principale è che, diversamente dall’EFIE, non possiede delle risonanze. Lo svantaggio, tuttavia, è che possiede gli stessi limiti di applicazione della MFIE e come quest’ultima, inoltre, determina sistemi di equazioni sensibilmente malcondizionati, se paragonata all’EFIE, nel processo di discretizzazione che riduce il problema operatoriale a un più semplice sistema di equazioni lineari. 2.3.2 Una derivazione informale dell’EFIE 3D Poiché la costruzione dell’EFIE 3D (scalare e vettoriale) comporta uno studio affatto banale, ci proponiamo di seguito di descriverne una derivazione naif, peraltro ampiamente utilizzata nei testi di ingegneria elettromagnetica [6]. Iniziamo dalle equazioni di Maxwell (2.30), modificate alla bisogna per mettere in conto la presenza in V̄e di un’eventuale densità di corrente J(·), impressa dalle sorgenti. Quindi assumiamo che il mezzo di propagazione, supposto isotropo, omogeneo, lineare e non dispersivo, sia caratterizzato da una permettività equivalente ² ∈ C e una permeabilità µ ∈ R, per cui rot E(·) = −jωµH(·) , rot H(·) = jω²E(·) + J(·) in Ve (2.39) Poiché div3 H(r) = 0 in Ve , il teorema di Helmholtz [40] per i campi solenoidali assicura l’esistenza di un potenziale A(·) : V3 → C3 (vettoriale) tale che rot A(r) = H(r) in Ve . Di modo che (dalla prima equazione di Maxwell) ¡ ¢ rot E(r) + jωµA(r) = 0, per ogni r ∈ Ve (2.40) Dunque E(·) + jωµA(·) è un campo irrotazionale, e pertanto lo stesso teorema di Helmholtz garantisce debba esistere un secondo potenziale Ψ(·) : R3 → C (scalare) per cui E(r) + jωµA(r) = −∇3 Ψ(r) in Ve . Di conseguenza ¡ ¢ rot rot A(r) − k2 A = J(r) − jω²∇3 Ψ(r) (2.41) ¡ ¢ ¡ ¢ Sennonché rot rot a(r) = ∇3 div3 A(r) − ∆3 A(r) dalla (B.13), e dunque ¡ ¢ ∇3 div3 A(r) − ∆3 A(r) − k2 A = J(r) − jω²∇3 Ψ(r) (2.42) Dal momento, tuttavia, che abbiamo definito A(·) tramite il teorema di Helmholtz specificandone solamente il rotore, abbiamo facoltà di definirne liberamente la divergenza, e perciò stabiliamo di assumere che A(·) verifichi con Ψ(·) la cosiddetta gauge di Lorenz 10 , per cui si impone div3 A(r) := −jω²Ψ(r) in Ve . Così l’equazione (2.41), 10 : dal nome del matematico e fisico danese Ludvig Valentin Lorenz, spesso confuso nei testi con il fisico tedesco e premio Nobel Hendrik Antoon Lorentz. Capitolo 2. L’EFIE e lo scattering diretto 33 in definitiva, assume la forma semplificata ∆3 A(r) + k2 A(r) = −J(r), per ogni r ∈ Ve (2.43) Quest’ultima è un’equazione vettoriale di Helmholtz non omogenea in R3 , che può essere “invertita” - mentre è nota la densità di corrente J(·) - per esprimere il potenziale incognito A(·) attraverso la rappresentazione integrale ˆ 1 g(r, s) J(s) ds, per ogni r ∈ Ve A(r) = 4π V (2.44) dove g(·) : R3 × R3 → C è la funzione di Green dello spazio, definita da G(r, s) := e−jk|r−s| , |r − s| per ogni r, s ∈ R3 t.c. r 6= s (2.45) ¡ ¢ 1 ∇3 div3 A(·) in Ve , risulta perciò possibile jω² correlare direttamente i vettori J(·) ed E(·) attraverso l’EFIE 3D, i.e. ˆ E(r) = −jωµ G(r, s) · J(s) ds, per ogni r ∈ Ve (2.46) Considerando che E(·) = −jωµA(·) + V in cui G(·) è la funzione diadica R3 × R3 → C3,3 definita assumendo µ ¶ 1 ∇∇ G(r, s) = I3 + 2 g(r, s), per ogni r, s ∈ R3 t.c. r 6= s 4π k Fisicamente, l’EFIE descrive il campo totale prodotto una certa distribuzione di sorgenti, e come tale costituisce, ad esempio, l’equazione fondamentale dell’analisi e della progettazione dei sistemi radio. Di fatto, è una relazione di carattere molto generale, che può essere impiegata per valutare il campo irradiato da ogni sorta di antenna, una volta che sia nota la corrente J(·). Sennonché, nel problema dello scattering diretto formulato in capo a questo paragrafo, il campo totale E(·) è la somma del campo diffuso Es (·) (incognito) e del campo incidente Ei (·) (assegnato) prodotto da “sorgenti inaccessibili”, perciocché J(·), in questo caso, dev’essere determinata! Il problema si risolve imponendo le condizioni al contorno (2.34) sulla superficie ∂V dell’ostaclo, così da riscrivere l’EFIE solo in termini di J(·) ed Ei (·). Una volta fatto questo, l’equazione risultante11 può essere risolta attraverso tecniche di approssimazione numerica appropriate per i problemi per le equazioni integrali, come il metodo dei momenti [9]. 11 : un’equazione integrale di superficie nella corrente incognita J(·). Capitolo 3 Localizzazione delle risonanze Il capitolo è suddiviso in due parti: nella prima si descrive una tecnica per la localizzazione delle risonanza interne; nella seconda si illustra un metodo di stabilizzazione basato sull’idea della deflazione, con riferimento alle problematiche inerenti alle risonanze del modello EFIE già anticipata nel corso del capitolo precedente. 3.1 Introduzione Nel caso particolare di un corpo conduttore metallico ideale ovvero di un sistema di conduttori metallici ideali, l’equazione integrale (2.46) assume una forma particolare, ottenuta imponendo sulla frontiera ∂V della varietà 3-dimensionale che definisce la superficie del sistema di scatteratori, la condizione di continuità delle componenti tangenti del campo totale, per cui ¨ G(r, s, ω) · J(s, ω)dS(s) = Eitan (r, ω), per ogni r ∈ ∂V (3.1) ∂V dove G(·, ω) denota la funzione di Green dello spazio libero, J(·, ω) la densità di corrente superficiale, Eitan (·, ω) il campo elettrico tangente incidente su ∂V e ω la pulsazione angolare dei campi. Applicando il MoM alla (3.1) si ottiene un’equazione matriciale, che - rendendo esplicita la dipendenza dalla frequenza - assume la forma Z(ω)I(ω) = V(ω) (3.2) La (3.1) presenta una soluzione non unica se la corrispondente equazione omogenea ¨ G(r, s, ω) · J(s, ω)dS(s) = 0, per ogni r ∈ ∂V (3.3) ∂V Capitolo 3. Localizzazione delle risonanze 35 ha una soluzione non nulla. Utilizzando il MOM la relazione (3.3) diventa Z(ω)I(ω) = 0 (3.4) L’esistenza di una soluzione non banale della (3.4) corrisponde, quindi, a verificare che il determinante di Z(ω) sia nullo, condizione soddisfatta a rigore solo in corrispondenza delle frequenze di risonanza ωi del corpo conduttore in esame. 3.2 Ricerca delle singolarità Come detto precedentemente, l’eliminazione delle instabilità dell’EFIE dovuta al problema delle risonanze interne, implica il conoscere a priori le frequenze alle queste si presentano. A rigore, la localizzazione delle risonanze comporta la ricerca, nella banda di interesse, delle ωk per le quali il determinante della matrice delle impedenze Z si annulla ¡ ¢ det Z(ω) = 0 (3.5) Tuttavia l’equazione (3.5) solo una condizione teorica e, di fatto, il calcolo numerico della singolarità della matrice Z può essere effettivamente rilevato solo utilizzando una decomposizione per valori singolari (SVD). Tenendo presente che il più piccolo valore singolare σmin di una matrice M (n × n) è la distanza Euclidea tra M e l’insieme H di tutte le matrici aventi rango n − 1, σmin = min rank(H)=n−1 ||M − H||2 (3.6) Abbiamo focalizzato la nostra attenzione su strutture canoniche delle quali sono già note in letteratura le frequenze di risonza. Verranno inoltre considerati diversi livelli di discretizzazione per valutare l’influenza di tale parametro nelle successive analisi. Per una cavità risonante rettangolare di dimensioni a × b × c valgono le relazioni (3.7) e (3.8) con le quali è possibile ricavare le frequenze di risonanza di un cubo di lato 1m (Tabella 3.2). r³ fmnl = c · mnp R101 m ´2 ³ n ´2 ³ p ´2 + + 2d 2b 2a v u ¡ m ¢2 ¡ n ¢2 ¡ p ¢2 u + + (fc )mnp = = t 2d ¡ 1 ¢2 2b ¡ 1 ¢2 2a T Ez (fc )101 + a c (3.7) (3.8) Capitolo 3. Localizzazione delle risonanze 36 Figura 3.1: Strutture in esame Modo m, n, p TE 1 0 1 TE 0 1 1 TM 1 1 0 TE 1 1 1 TM 1 1 1 TE 1 0 2 TE 2 0 1 TE 0 2 1 TE 0 1 2 TE 1 2 0 TM 2 1 0 fnmp n.ro modi 221.13 MHz 3 259.81 MHz 2 335.41 MHz 6 Tabella 3.1: Frequenze di risonanza per un cubo di lato 1m. Capitolo 3. Localizzazione delle risonanze 37 Analogamente per una cavità sferica è nota la relazioni (3.9) con la quale si ricavano le frequenze di risonanza di una sfera di raggio 1m (Tabella 3.2). r E (fr )Tmnp =c ζnp 2πa (3.9) TE modes n p ζnp (fr )mnp Deg. modes modes 1 1 4.493 214.52 MHz m = 0, 1(even, odd) 3 2 1 5.763 266.25 MHz m = 0, 1, 2(even, odd) 8 3 1 6.988 343.65 MHz m = 0, 1, 2, 3(even, odd) 15 1 2 7.725 368.84 MHz m = 0, 1(odd) 18 4 1 8.183 390.71 MHz m = 0, 1, 2, 3, 4(even, odd) 27 TM modes n p ζnp (fr )mnp Deg. modes modes 1 1 2.744 131.02 MHz m = 0, 1(even, odd) 3 2 1 3.870 184.78 MHz m = 0, 1, 2(even, odd) 8 3 1 4.973 237.44 MHz m = 0, 1, 2, 3(even, odd) 15 4 1 6.062 289.44 MHz m = 0, 1, 2, 3, 4(even, odd) 18 1 2 6.117 292.07 MHz m = 0, 1(odd) 27 Tabella 3.2: Frequenze di risonanza per una sfera di raggio 1m. Capitolo 3. Localizzazione delle risonanze (a) Andamento (b) Zoom (in scala logaritmica) Figura 3.2: Andamento spettrale - Valori singolari per il CUBO (72 edges) 38 Capitolo 3. Localizzazione delle risonanze (a) Andamento (b) Zoom (in scala logaritmica) Figura 3.3: Andamento spettrale - Valori singolari per la SFERA (201 edges) 39 Capitolo 3. Localizzazione delle risonanze Figura 3.4: Andamento di σn per il CUBO Figura 3.5: Andamento di σn per la SFERA 40 Capitolo 3. Localizzazione delle risonanze 3.2.1 41 Funzione ausiliaria Per verificare la singolarità di Z(ω) è possibile definire una funzione ausiliaria Ψ(ω) = σn (Z(ω)) (3.10) che fornisce il più piccolo valore singolare dell’operatore matriciale Z(r, r0 , ω) in funzione della frequenza angolare ω. L’insieme {ωi } corrispondente all’insieme dei punti in cui la funzione Ψ(ω) presenta i minimi locali nella banda di interesse. In linea di n p principio, tutti i minimi di Ψ(ω) possono essere localizzati fissando {ωj }j=1 punti nella banda di interesse e calcolando i valori di Ψ(ωj ) utilizzando l’SVD. Sfortunatamente questo approccio richiede un grosso sforzo computazionale, soprattutto per strutture metalliche molto grandi, richiedendo il calcolo dell’SVD dell’operatore matriciale Z(r, r0 , ω). Si vogliono presentare delle tecniche di stima del più piccolo valore singolare e delle strategie alternative non basate sull’SVD ma che permettano l’identificazione dell’insieme Ω. QR Consiste in una decomposizione della matrice A tale che A=Q·R (3.11) dove A è una matrice m × n, R una matrice m × m triangolare alta e Q una matrice m × m unitaria. È uno dei metodi più utilizzati e più attendibili per stimare la soluzione di un’equazione del tipo A · x = b quando il sistema è sovradeterminato. Manipolando opportunamente tale equazione si ottiene infatti: Ax = b AT Ax = AT b (QR)T QRx = (QR)T b RT QT QRx = RT QT b RT Q−1 QRx = RT QT b RT Rx = RT QT b x = (RT R)−1 RT QT b QRx = Q(R(RT R)−1 RT )QT b Ax = Q(R(RT R)−1 RT )QT b Capitolo 3. Localizzazione delle risonanze 42 Se R non ha zeri sulla diagonale allora R(RT R)−1 RT sarà formata da tutti zero tranne r sulla diagonale, dove r è il rango di R. LU Consiste in una decomposizione della matrice A tale che A=L·U (3.12) ino modo tale che U sia una matrice triangolare altra e L triangolare bassa. CCVL Questo metodo calcola i valori stimati smin e vmin che rappresentano il più piccolo valore singolare e il corrispondente vettore singolare della matrice triangolare R. Esso si basa sull’uso del numero di condizionamento generalizzato LINPACK. function [ smin , vmin ] = ccvl ( R ) % % ccvl --> Singular value / vector estimates via condition estimation . % % % < Synopsis > [ smin , vmin ] = ccvl ( R ) % % % < Description > Compute estimates smin and vmin of the smallest % singular value and corresponding right singular % vector of the upper triangular matrix R . % % < Algorithm > % The function is based on the generalized LINPACK % condition number estimator . % % < References > % [1] A . K . Cline , A . R . Conn & C . F . Van Loan , % " Generalizing the LINPACK Condition Estimator "; % in J . P . Hennart ( Ed .) , " Numerical Analysis " , % Lecture Notes in Mathematics , Vol . 909 , % pp . 73 -83 , Springer , (1982) . Capitolo 3. Localizzazione delle risonanze 43 LQI Un altro estimatore noto in letteratura è l’LQI. Testo di riferimento per questo algoritmo è G.H. Golub, C.F. van Loan, Matrix Computations, John Hopkins, 1991, second edition. function [ l ]= lqi ( bb ) [n , m ]= size ( bb ) ; r = sum ( abs ( bb ’) ) - abs ( diag ( bb ’) ’) ; c = sum ( abs ( bb ) ) - abs ( diag ( bb ) ’) ; s = max ([ r ; c ]) ; a = abs ( diag ( bb ) ) ’; d1 = a ( n ) ^2 - a ( n ) * r ( n ) + c ( n ) ^2/4; d2 = a ( n ) ^2 - a ( n ) * c ( n ) + r ( n ) ^2/4; if d1 >=0 if d2 >=0 l = min ( sqrt ( d1 ) -c ( n ) /2 , sqrt ( d2 ) -r ( n ) /2) ; else l = sqrt ( d1 ) -c ( n ) /2; end else l = sqrt ( d2 ) -r ( n ) /2; end DET Anche se da considerazione teoriche fatte in precedenza si è dimostrato che calcolare le frequenze per le quali det(Z) ≈ 0 può non portare ad una corretta soluzione, si vuole comunque andare a verificare tale metodo. CONDET function [c , v ] = condest (A , t ) % CONDEST 1 - norm condition number estimate . % C = CONDEST ( A ) computes a lower bound C for the 1 - norm ... % number of a square matrix A . % CONDEST is based on the 1 - norm condition estimator of ... condition Hager [1] and a Capitolo 3. Localizzazione delle risonanze 44 % block oriented generalizat ion of Hager ’ s estimator given... % Tisseur [2]. by Higham and The heart of the algorithm involves an ... iterative search % to estimate || A ^{ -1}|| _1 without computing A ^{ -1}. This ... is posed as the % convex , but nondifferentiable , optimization problem : % % max || A ^{ -1} x || _1 subject to || x || _1 = 1. CONDEST_QR Algoritmo Condest applicato alla matrice triangolare ottenuta via decomposizione QR. RCOND % RCOND LAPACK reciprocal condition estimator . % RCOND ( X ) is an estimate for the reciprocal of the % condition of X in the 1 - norm obtained by the LAPACK % condition estimator . If X is well conditioned , RCOND ( X ) % is near 1.0. If X is badly conditioned , RCOND ( X ) is % near EPS . RCOND_QR Algoritmo RCond applicato alla matrice triangolare ottenuta via decomposizione QR. ALGA function [ gammaM ] = AlgA ( T ) z = 1./ abs ( diag ( T ) ) ; n = length ( z ) ; for i =n -1: -1:1 s = 1; for j =1+1: n s = s + abs ( T (i , j ) ) * z ( j ) ; end z ( i ) = s / abs ( T (i , i ) ) ; end gammaM = norm (z , ’ inf ’) ; Capitolo 3. Localizzazione delle risonanze ALGB function [ gammaW ] = AlgB ( T ) z = 1./ abs ( diag ( T ) ) ; n = length ( z ) ; s = 0; for i =n -1: -1:1 s = s + z ( i +1) ; alfa ( i ) = max ( abs ( T (i , i +1: n ) ) ) ; z ( i ) = (1+ alfa ( i ) * s ) / abs ( T (i , i ) ) ; end gammaW = norm (z , ’ inf ’) ; 3.2.2 Ricerca risonanze - Risultati sperimentali Cubo Figura 3.6: tempi di esecuzione degli algoritmi (CUBO) 45 Capitolo 3. Localizzazione delle risonanze 72 Edges 46 288 Edges 450 Edges 1a risonanza: 231.84 MHz SVD 213.09 MHz 215.10 MHz 215.10 MHz COND2 213.09 MHz 215.10 MHz 215.10 MHz QR 213.09 MHz 215.10 MHz 215.10 MHz LU (2)213.09 MHz (4)219.13 MHz (3)216.11 MHz CCVL 213.09 MHz (2)215.10 MHz (2)216.11 MHz LQI 213.09 MHz 215.10 MHz 215.10 MHz DET 213.09 MHz 215.10 MHz 200.00 MHz CONDEST 213.09 MHz 215.10 MHz (3)215.10 MHz CONDEST_QR (2)213.09 MHz 215.10 MHz (3)215.10 MHz RCOND 213.09 MHz 215.10 MHz 215.10 MHz RCOND_QR 213.09 MHz (3)215.10 MHz 215.10 MHz ALGA 213.09 MHz 215.10 MHz 215.10 MHz ALGB 213.09 MHz 215.10 MHz 215.10 MHz 2 a risonanza: 247.27 MHz SVD 248.32 MHz 262.42 MHz 262.42 MHz COND2 248.32 MHz 262.42 MHz 262.42 MHz QR 248.32 MHz 262.42 MHz 262.42 MHz LU (5)248.32 MHz (10)259.40 MHz (10)267.45 MHz CCVL (4)248.32 MHz (5)262.42 MHz (12)262.42 MHz LQI 248.32 MHz 262.42 MHz 262.42 MHz DET 248.32 MHz 262.42 MHz 200.00 MHz CONDEST 248.32 MHz (3)262.42 MHz (7)262.42 MHz (3)248.32 MHz (4)262.42 MHz (7)262.42 MHz 248.32 MHz 262.42 MHz (3)262.42 MHz (3)248.32 MHz (6)262.42 MHz (5)262.42 MHz ALGA 248.32 MHz 262.42 MHz 262.42 MHz ALGB 248.32 MHz (1)215.10 MHz 261.41 MHz CONDEST_QR RCOND RCOND_QR 3 a risonanza: 341.02 MHz SVD (4)347.99 MHz 340.94 MHz 339.93 MHz COND2 (4)347.99 MHz 340.94 MHz 339.93 MHz QR (4)348.99 MHz 340.94 MHz 339.93 MHz LU (16)348.99 MHz (23)339.93 MHz (24)336.91 MHz CCVL (10)347.99 MHz (15)340.94 MHz (27)339.93 MHz LQI 348.99 MHz 340.94 MHz 339.93 MHz DET 347.99 MHz 340.94 MHz 200.00 MHz (9)347.99 MHz (7)340.94 MHz (24)339.93 MHz (13)348.99 MHz (13)340.94 MHz (21)339.93 MHz (5)347.99 MHz (4)340.94 MHz (7)339.93 MHz (11)348.99 MHz (8)340.94 MHz (8)339.93 MHz ALGA 347.99 MHz 340.94 MHz 339.93 MHz ALGB (2)248.32 MHz (2)339.93 MHz 338.93 MHz CONDEST CONDEST_QR RCOND RCOND_QR Tabella 3.3: Risultati della localizzazione delle risonanze (SFERA) Capitolo 3. Localizzazione delle risonanze Figura 3.7: Andamento COND2 (CUBO) Figura 3.8: Andamento QR (CUBO) 47 Capitolo 3. Localizzazione delle risonanze Figura 3.9: Andamento LU (CUBO) Figura 3.10: Andamento CCVL (CUBO) 48 Capitolo 3. Localizzazione delle risonanze Figura 3.11: Andamento LQI (CUBO) Figura 3.12: Andamento DET (CUBO) 49 Capitolo 3. Localizzazione delle risonanze Figura 3.13: Andamento CONDEST (CUBO) Figura 3.14: Andamento RCOND (CUBO) 50 Capitolo 3. Localizzazione delle risonanze Figura 3.15: Andamento RCOND_QR (CUBO) Figura 3.16: Andamento ALGA (CUBO) 51 Capitolo 3. Localizzazione delle risonanze Figura 3.17: Andamento ALGB (CUBO) 52 Capitolo 3. Localizzazione delle risonanze Sfera Figura 3.18: tempi di esecuzione degli algoritmi (SFERA) 53 Capitolo 3. Localizzazione delle risonanze 72 Edges 54 288 Edges 450 Edges 1a risonanza: 144.29 MHz SVD 144.30 MHz 137.25 MHz 135.23 MHz COND2 144.30 MHz 137.25 MHz 135.23 MHz QR 144.30 MHz 137.25 MHz 135.23 MHz LU (3)143.29 MHz (10)144.30 MHz (9)134.23 MHz CCVL (2)144.30 MHz (2)137.25 MHz 135.23 MHz LQI 144.30 MHz 137.25 MHz 135.23 MHz DET 144.30 MHz 137.25 MHz 135.23 MHz CONDEST (6)144.30 MHz (9)137.25 MHz (9)135.23 MHz CONDEST_QR (7)144.30 MHz (9)137.25 MHz (10)135.23 MHz RCOND (2)144.30 MHz (2)137.25 MHz (2)135.23 MHz RCOND_QR (3)144.30 MHz (3)137.25 MHz (4)135.23 MHz ALGA 144.30 MHz 137.25 MHz 135.23 MHz ALGB 144.30 MHz 136.24 MHz 135.23 MHz 2 a risonanza: 196.73 MHz SVD 196.64 MHz 193.62 MHz 190.60 MHz COND2 196.64 MHz 193.62 MHz 190.60 MHz QR 199.66 MHz 193.62 MHz 190.60 MHz LU (10)195.64 MHz (13)188.59 MHz (21)191.61 MHz CCVL (6)195.64 MHz (4)193.62 MHz 190.60 MHz LQI 203.69 MHz 193.62 MHz 190.60 MHz DET 200.67 MHz 193.62 MHz 191.61 MHz CONDEST (17)196.64 MHz (17)193.62 MHz (15)190.60 MHz CONDEST_QR (13)196.64 MHz (17)193.62 MHz (21)190.60 MHz RCOND (5)202.68 MHz (4)193.62 MHz (4)190.60 MHz RCOND_QR (7)196.64 MHz (4)193.62 MHz (7)190.60 MHz ALGA 202.68 MHz 193.62 MHz 190.60 MHz ALGB 209.73 MHz 193.62 MHz 188.59 MHz 3 a risonanza: 232.14 MHz SVD (4)232.89 MHz 222.82 MHz 219.80 MHz COND2 (4)232.89 MHz 222.82 MHz 219.80 MHz QR 232.89 MHz 222.82 MHz 219.80 MHz LU (15)232.89 MHz (13)188.59 MHz (23)218.79 MHz CCVL (8)232.89 MHz (5)222.82 MHz 219.80 MHz LQI 232.89 MHz 222.82 MHz 219.80 MHz DET 231.88 MHz 222.82 MHz 219.80 MHz CONDEST (24)232.89 MHz (20)222.82 MHz (18)219.80 MHz CONDEST_QR (22)232.89 MHz (19)222.82 MHz (24)219.80 MHz (6)232.89 MHz (6)222.82 MHz (5)219.80 MHz (13)232.89 MHz (7)222.82 MHz (9)219.80 MHz ALGA 232.89 MHz 222.82 MHz 219.80 MHz ALGB 232.89 MHz 222.82 MHz 219.80 MHz RCOND RCOND_QR Tabella 3.4: Risultati della localizzazione delle risonanze (SFERA) Capitolo 3. Localizzazione delle risonanze Figura 3.19: Andamento COND2 (SFERA) Figura 3.20: Andamento QR (SFERA) 55 Capitolo 3. Localizzazione delle risonanze Figura 3.21: Andamento LU (SFERA) Figura 3.22: Andamento CCVL (SFERA) 56 Capitolo 3. Localizzazione delle risonanze Figura 3.23: Andamento LQI (SFERA) Figura 3.24: Andamento DET (SFERA) 57 Capitolo 3. Localizzazione delle risonanze Figura 3.25: Andamento CONDEST (SFERA) Figura 3.26: Andamento RCOND (SFERA) 58 Capitolo 3. Localizzazione delle risonanze Figura 3.27: Andamento RCOND_QR (SFERA) Figura 3.28: Andamento ALGA (SFERA) 59 Capitolo 3. Localizzazione delle risonanze Figura 3.29: Andamento ALGB (SFERA) 60 Capitolo 3. Localizzazione delle risonanze 3.3 61 Stabilizzazione 3.3.1 Natura delle singolarità Matematicamente la (3.2) non può essere invertita in corrispondenza delle frequenze di risonanza ωi poiché l’operatore matriciale Z(ω) è singolare. La natura della singolarità di Z(ω) deriva dal fatto che, a rigore, lo spazio nullo della (3.3) e lo spazio nullo numerico dell’operatore discretizzato non sono vuoti. Dal punto di vista teorico, la dimensione dello spazio nullo K coincide con la dimensione dello spazio nullo dell’operatore integrale che descrive il problema elettromagnetico interno alle frequenze di risonanza ω = ωi . Essendo Z(ωi ) singolare, è necessario, per risolvere la (3.2), calcolare la soluzione a norma minima Ī(ωi ). 3.3.2 Soluzione a norma minima Come detto in precedenza, limitatamente alla superficie dello scatteratore, l’EFIE assume la forma locale Estan +Eitan = 0, dove Eitan ed Estan rappresentano, rispettivamente, il campo elettrico tangente incidente e scatterato. Alla risonanza Estan (r) = Ftan [J̄res ](r) = 0 (3.13) dove Ftan [·] indica la componente tangente dell’immagine della corrente superficiale risonante J̄res (·) tramite l’operatore integrale F[·] implicitamente definito dall’EFIE nel caso metallico ideale. Fisicamente la (3.13) implica che la corrente J̄res (·) presente sulla struttura non produce alcun campo scatterato, ma solamente un campo interno alla struttura. Con la soluzione a norma minima si trascura J̄res (·), così che la soluzione contenga il reale campo scatterato all’esterno della struttura. Tuttavia la distribuzione di corrente reale nella struttura contiene il contributo della corrente risonante che porta il campo interno totale ad essere nullo. Detto in altri termini, la soluzione a norma minima porta al reale campo scatterato, ma non alla reale densità di corrente superficiale sulla struttura. Per l’applicazione di questa tecnicha, non è necessaria la riformulazione del problema elettromagnetico. È sempre possibile, infatti, utilizzare il metodo dei momenti per la costruzione del sistema (3.2) e quindi determinarne in modo efficiente la soluzione a norma minima perfezionando le tecniche già disponibili in letteratura - che è, poi, il risultato originale presentato in questo capitolo. Capitolo 3. Localizzazione delle risonanze 3.3.3 62 Soluzione OP In letteratura, la tecnica di stabilizzazione che richiede lo sforzo computazionale minore è quella dell’ortogonalizzazione (OP), che pretende di stabilizzare la corrente risonante attraverso una sua proiezione sul nucleo dell’EFIE. Figura 3.30: la procedura OP stabilizza la soluzione numerica dell’EFIE alla risonanza tentando di renderla ortogonale al nucleo dell’operatore integrale. La soluzione della (3.2) mediante la OP alla frequenza di risonanza ωi è definita a partire dalla scomposizione della corrente risonante I(ωi ) nei termini I(ωi ) = Ī(ωi ) + αÎ(ωi ) (3.14) dove Ī(ωi ) è la corrente corretta, Î(ωi ) è la corrente modale risonante e α è una costante complessa. Com’è chiaramente dimostrato in [43], Î(ωi ) è il vettore singolare destro vn associato al più piccolo valore singolare σn dell’operatore matriciale Z(ω). La corrente modale risonante nella (3.14) è la causa dell’instabilità della soluzione numerica della (3.2). La stabilizzazione di I(ωi ) è ottenuta filtrando il contributo Î(ωi ) nella (3.14), ovvero identificando in Ī(ωi ) la soluzione del sistema dei momenti (3.2) tramite la relazione Ī(ωi ) = I(ωi ) − αÎ(ωi ), per cui si assume α := hÎ(ωi ), I(ωi )in hÎ(ωi ), Î(ωi )in (3.15) Il risultato è che la soluzione OP del problema risulta ortogonale soltanto al sottospazio monodimensionale spannato dall’ultimo vettore singolare destro. Un limite che, in molte circostanze osservate, rende la procedura praticamente inefficace. L’idea, banalmente, è di estenderne il range di validità, filtrando il numero esatto dei modi risonanti, a partire dall’osservazione - espressa nel corso del capitolo precendete - che il kernel dell’EFIE è senz’altro finito, anche in condizioni di non iniettività. 3.3.4 Soluzione TSVD È facilmente dimostrabile che la tecnica di ortogonalizzazione OP applicata al problema elettromagnetico è equivalente alla Decomposizione per Valori Singolari Troncata Capitolo 3. Localizzazione delle risonanze 63 (TSVD), dove il più piccolo valore singolare σn dell’EFIE discretizzata è posto uguale a zero. È noto, infatti, che la Ī(ωi ) può essere espressa in termini della decomposizione ai valori singolari (SVD) di Z(ωi ) secondo la relazione Ī(ωi ) = n−κ X j=1 utj V(ωi ) vj σj (3.16) n dove {uj }n j=1 e {vj }j=1 sono, rispettivamente, gli autovettori singolari sinistri e destri di Z e {σj }n j=1 i suoi valori singolari, ordinati in modo tale che σ1 ≥ σ2 ≥ . . . ≥ σn−κ > σn−κ+1 = . . . σn−1 = σn = 0. (3.17) L’equazione (3.16) è la soluzione della (3.2) tramite Decomposizione per Valori Singolari Troncata (TSVD) e si fa presto a stabilire che la Ī(ωi ) è ortogonale allo spazio nullo numerico K. Effettivamente, quando l’equazione omogenea (3.4) ammette infinite soluzioni non banali - spannate dagli ultimi n − κ vettori singolari destri di Z(ωi ) -, la soluzione generale dell’equazione (3.2) può essere scritta come: n X I(ωi ) = Ī(ωi ) + j=(n−κ)+1 | {z αi vi (3.18) } ∈K dove gli αi sono delle costanti complesse arbitrarie. Troncando la sommatoria della (3.16) al termine n−κ, tutte le componenti indesiderate di I(ωi ), generate dall’insieme dei vettori singolari destri {vn−κ+1 , . . . , vn } di Z(ωi ), vengono epurate dalla soluzione TSVD. Ed è chiaro che la Ī(r0 , ωi ) e la Ī(r0 , ωi ) coincidono solo nel caso particolare κ = 1. In effetti, per κ > 1, la soluzione calcolata con l’OP mantiene ancora κ − 1 componenti appartenenti a K. 3.3.5 Risultati numerici e conclusioni La soluzione TSVD Ī(r0 , ω) in una generica frequenza nella banda di interesse può essere ottenuta senza la necessità di calcolare l’SVD completo di Z(ωi ) [44]. In effetti, la soluzione può essere ottenuta calcolando K solo in corrispondenza della frequenza di risonanza ωi e filtrando questo contributo dalla soluzione MoM I(r0 , ωi ) applicando il proiettore P = I − KK T sull’intera banda di frequenze corrotte dalla risonanza. In particolare, i risultati presentati di seguito riguardano la stabilizzazione dell’EFIE alla 1a e alla 2a risonanza di due strutture canoniche della letteratura - un cubo e una sfera in CEP -, per cui sono disponibili le soluzioni analitiche (in termini di RCS) per un raffronto assoluto delle prestazioni e una validazione della strategia di deflazione proposta nel corso del capitolo. Le evidenze sperimentali sono tutte positive. Capitolo 3. Localizzazione delle risonanze Figura 3.31: Corrente ed RCS non stabilizzati (sopra la sfera, sotto il cubo) 64 Capitolo 3. Localizzazione delle risonanze Figura 3.32: Stabilizzazione CUBO - 1a risonanza Figura 3.33: Stabilizzazione CUBO - 2a risonanza 65 Capitolo 3. Localizzazione delle risonanze Figura 3.34: Stabilizzazione SFERA - 1a risonanza Figura 3.35: Stabilizzazione SFERA - 2a risonanza 66 Capitolo 3. Localizzazione delle risonanze 67 Sul fronte della localizzazione delle risonanze interne, il confronto fra le diverse metodologie indagate ha messo in luce che l’LU è, in assoluto, l’algoritmo più veloce dal punto di vista dei tempi di calcolo. Il suo limite, tuttavia, è che non riesce a stimare correttamente l’andamento del più piccolo valore singolare, quindi a localizzare in modo adeguato le risonanze. Con RCOND (3.2.1) la precisione migliora notevolmente, senza che via, d’altronde, un eccessivo appesantimento degli oneri computazionali. In ogni caso, per avere una localizzazione ancora più efficace, bisogna ricorrere all’algoritmo QR (3.2.1), per cui si realizza un adeguato compromesso fra precisione e tempi di calcolo. Anche i risultati numerici inerenti alla tecnica di stabilizzazione proposta sono risultati più che soddisfacenti, soprattutto nel confronto con le altre tecniche già presenti nella letteratura scientifica vuoi per quanto attiene alla correzione della densità di corrente alla risonanza vuoi per l’andamento dell’RCS. Capitolo 4 Sistemi lineari e precondizionatori Nel corso di questo capitolo intendiamo presentare il lavoro svolto nel corso del dottorato sul fronte della definizione di un semplice precondizionatore algebrico per il sistema lineare prodotto dalla discretizzazione dell’EFIE tramite la variante simmetrica RWG del metodo dei momenti [9, 41]. In particolare, mostreremo come il precondizionatore in oggetto ha una resa significativamente superiore rispetto ad altri già diffusi nella letteratura e ampiamente utilizzati nella pratica, per lo meno al di sotto di una certa frequenza critica fc . Gli argomenti probatori hanno un carattere sperimentale e sono fondati su un’ampia mole di evidenze di laboratorio ottenute testando il metodo dei residui minimi generalizzati (GMRES) su alcuni problemi di scattering diretto da parte di oggetti metallici dotati di geometrie canoniche comuni. D’altro canto, la particolare strategia di precondizionamento discussa nel seguito sembrerebbe avvalorata da una serie di considerazioni di carattere teorico collegate alle proprietà di segnatura dell’operatore lineare implicitamente definito dall’equazione integrale. Il condizionale è d’obbligo, poiché la ricerca in questa direzione, alla data della scrittura, è ancora in corso. L’idea, essenzialmente, è di inquadrare l’EFIE nel contesto più generale della teoria degli operatori nucleari dissipativi. Nello specifico, il precondizionatore messo a punto si identifica con la parte antihermitiana S della matrice delle impedenze Z e la sua introduzione è supportata dalla considerazione euristica che, almeno in linea di principio, se lo schema di proiezione è consistente, Z deve essere tale che kSk À kHk, dove S := 12 (Z − ZH ) e H := 12 (Z + ZH ). Allo scopo di avvalorare la tesi proposta, nella prospettiva di stabilire degli argo- Capitolo 4. Sistemi lineari e precondizionatori 69 menti teorici a supporto, si è realizzata una vasta campagna di simulazioni numeriche finalizzata a stabilire in che misura siano “praticamente” soddisfatte le ipotesi di lavoro, considerando - fra le altre geometrie - un cubo metallico di spigolo pari a una lunghezza d’onda e diversi livelli di discretizzazione n su una banda frequenziale B attestata nell’ordine di 108 Hz. Per ciascuna frequenza campione f ∈ B, il corrispettivo sistema dei momenti ZI = V viene risolto iterativamente attraverso le implementazioni Matlab del GMRES e della sua versione ripartita GMRES(r) (per un opportuno valore del parametro di ripartenza r ∈ N), con e senza il precondizionamento di S. Di conseguenza, viene analizzato lo speed-up del processo di convergenza eventualmente innescato dal precondizionamento, sulla base dell’andamento locale1 della curva dei residui e l’andamento globale delle norme (uno, euclidea, di Frobenius e infinito), dei flag, dello spettro, dei costi, del numero delle iterazioni e i tempi necessari affinché il metodo raggiunga la convergenza in soglia. 4.1 Generalità sulle tecniche di soluzione Prima di addentrarci nella disamina dei risultati, è indispensabile una digressione prelimnare sulle proprietà di convergenza che dirigono gli algoritmi e le tecniche disponibili in elettromagnetismo computazionale per la soluzione di un sistema lineare algebrico di n equazioni scalari in n incognite a coefficienti complessi del tipo Ax = b, A ∈ Cn,n e b ∈ Cn (4.1) dove x ∈ Cn è il vettore delle incognite (o indeterminate). Fondamentalmente, esistono due classi di metodi per la risoluzione di questo tipo di equazioni (matriciali): i metodi diretti, che forniscono una soluzione esatta del problema in un numero finito di passi, e i metodi iterativi, che si basano sulla costruzione di una successione {xk }k∈N convergente al limite che - sotto opportune ipotesi - alla soluzione x del sistema. Nei primi gli errori presenti nei risultati nascono esclusivamente dagli arrotondamenti introdotti dall’impiego di un’aritmetica finita da parte del calcolatore (dove sono implementati in vere e proprie routine di calcolo) e/o dalla presenza di incertezze sui dati. Nei secondi, invece, agli errori sperimentali e di round-off si aggiungono gli errori di troncamento, derivanti dal fatto che il limite cercato deve essere necessariamente approssimato troncando la successione per un indice sufficientemente grande. Diversamente che per i metodi diretti, nel caso delle tecniche iterative è necessario, perciò, affrontare il cosiddetto problema dell’arresto, i.e., della definizione di un opportuno criterio di stopping che renda controllabile l’errore di approssimazione. 1: i.e., riferito ad una singola frequenza. Capitolo 4. Sistemi lineari e precondizionatori 70 I metodi iterativi, d’altro canto, sono assai più convenienti dei metodi diretti rispetto alle matrici di grandi dimensioni, specialmente se strutturate o sparse. Infatti, mentre un metodo diretto opera sulla matrice del sistema (4.1), spesso alterandone la struttura e aumentando il numero degli elementi non nulli, un metodo iterativo, come si vedrà, non ne richiede nemmeno lo storage in memoria, poiché non agisce su A nella sua interezza, ma necessita solamente dell’accesso ai suoi elementi. Alcuni metodi iterativi, inoltre, possono essere utilizzati nei casi in cui si voglia raffinare una soluzione approssimata già ottenuta con altri algoritmi o per via di informazioni a priori sul problema e soprattutto sono caratterizzati da una complessità di calcolo asintotica (spaziale e temporale) notevolmente ridotta rispetto al migliore dei metodi diretti oggi conosciuti, con un conseguente drastico abbattimento dei costi di processazione. 4.1.1 Metodi diretti Un possibile approccio per risolvere il sistema lineare (4.1) comporta la costruzione della matrice inversa A−1 a partire dalla regola dei minori di Cramer [42]. Per una matrice di grandi dimensioni, questo è molto inefficiente sul piano computazionale. Un approccio migliore prevede la fattorizzazione di A nel prodotto di due altre matrici triangolari, l’una inferiore e l’altra superiore, con il metodo di Gauss nella variante pivotale di Crout [50], che consiste nell’eliminazione ricorsiva delle incognite mediante il rimpiazzamento delle equazioni originali con opportune combinazioni lineari delle stesse equazioni, così da ottenere un nuovo sistema, equivalente al primo, che presenti, però, il vantaggio non indifferente di essere triangolare, quindi risolubile mediante un semplice metodo di sostituzione all’indietro. L’algoritmo, chiamato decomposizione LU, si suddivide in tre parti: la pivotizzazione delle equazioni, così da evitare eventuali overflow associati dalla macchina di calcolo a una divisione per zero; la decomposizione della matrice A nel prodotto dei fattori triangolari L (basso) ed U (alto), in forma tale che A = LU ; la risoluzione seriale dei sistemi (triangolari) Ly = b e U x = y. Un caso particolarmente felice si realizza quando A è una matrice hermitiana, e allora la decomposizione LU si riduce alla decomposizione di Cholesky, per cui U = LH e A = LLH . Il vantaggio principale della decomposizione LU consiste nella sua stabilità numerica e nella sua robustezza rispetto agli errori di round-off. Lo svantaggio è il costo computazionale: il numero di operazioni richieste, infatti, è asintoticamente O(n3 ), se A ∈ Cn,n . Cioè, come vedremo, molto più alto che per alcuni metodi iterativi. Capitolo 4. Sistemi lineari e precondizionatori 4.1.2 71 Metodi iterativi Come in parte è stato già detto, i metodi iterativi costruiscono, a partire da una stima (guess) iniziale x0 della soluzione del sistema (4.1) una successione {xk }k∈N che, fatte salve determinate condizioni, converge a x, nel senso che µ ¶ lim xk = x ⇐⇒ ∀² > 0, ∃v ∈ N : n ∈ N, n ≥ v =⇒ kxk − xk < ² k→∞ (4.2) dove k·k è una qualche norma in Cn , generalmente compatibile con la norma matriciale di Cn,n . Tali metodi sono di semplice implementazione e vengono usati soprattutto se la matrice è sparsa2 , in quanto non ne alterano il pattern e non ne appesantiscono lo storage in memoria (primaria o secondaria che sia), diversamente dai metodi diretti, che ne modificano la struttura la struttura aumentandone il fill-in 3 . Avviene, inoltre, che il calcolo dell’iterata xk+1 della successione delle approssimanti a partire dalla conoscenza dell’iterata xk richiede poche operazioni matrice-vettore (o matvec). Nel caso specifico in cui A sia sparsa, addirittura il costo si riduce a O(n), contro una complessità di tipo O(n3 ) del caso diretto. Se la convergenza è sufficientemente rapida, la procedura di risoluzione dei metodi iterativi può finire in pochi passi e garantire un’ottima approssimazione della soluzione esatta. In generale, un buon metodo iterativo, per essere utilmente applicato in pratica, deve soddisfare almeno tre requisiti fondamentali (indicati qui di seguito). - Consistenza. Se uno dei termini della successione x0 , x1 , . . . , xk , . . . è uguale alla soluzione esatta x del sistema (4.1), allora la formula iterativa che soggiace al metodo deve essere tale per cui anche il termine successivo sia ancora la soluzione esatta. In altre parole, se la soluzione esatta viene raggiunto dopo k passi, l’iterazione k + 1 deve ancora restituire la soluzione esatta: µ ¶ ∃k ∈ N : xk = x =⇒ xk+1 = xk = x (4.3) Più precisamente, la condizione (4.3) definisce la proprietà di cosiddetta consistenza non esclusiva. Si parla, invece, di consistenza esclusiva nel caso in cui valga anche l’implicazione opposta, ovvero se µ ¶ ∃k ∈ N : xk = x ⇐⇒ xk+1 = xk = x 2: (4.4) i.e., se il numero dei suoi elementi non nulli è “piccolo”, in un certo senso, rispetto al numero degli elementi totale. Le matrici sparse si ottengono, in generale, quando si utilizza una tecnica FEM su un modello differenziale o una variante del metodo dei momenti in cui le funzioni di base e peso sono di tipo sottodominio, anziché intere (come nel caso RWG). 3 : i.e., il numero degli elementi non nulli. Capitolo 4. Sistemi lineari e precondizionatori 72 - Convergenza. La successione {xk }k∈N deve convergere in norma alla soluzione esatta x del sistema (4.1), ossia dev’essere soddisfatta la (4.2). Questa, d’altronde, può essere rilassata nella condizione di convergenza di Cauchy, per cui si richiede soltanto che la differenza tra due valori della successione tende a zero per k → ∞. Cioè si deve avere che lim kxk+p − xk k = 0 p,k→∞ - Velocità di convergenza. Descrive il numero delle iterazioni necessarie al metodo per raggiungere una determinata accuratezza. Chiaramente è auspicabile che la velocità di convergenza sia tale da rendere il problema risolvibile con il minimo sforzo computazionale, cioè in tempi quanto più possibile contenuti e senza un eccessivo impegno di risorse di calcolo. 4.1.3 Metodi iterativi stazionari Una maniera elementare di costruire un schema iterativo per il calcolo del vettore incognito x del sistema (4.1) si ottiene definendo xk+1 = xk + M · (Axk − b), per ogni k ∈ N (4.5) se x0 ∈ Cn è assegnato e M ∈ Cn,n è un’opportuna matrice di precondizionamento. È il caso di osservare esplicitamente come la scelta del guess sia critica, in generale, rispetto alla convergenza del metodo. In particolare, lo schema si dice incondizionatamente convergente se xk converge a un qualche limite a prescindere dalla scelta del termine x0 . In caso contrario si parla di convergenza condizionata e l’insieme dei valori di x0 per cui la convergenza è garantita si dice la regione di attrattività. D’altronde, l’iterazione (4.5) è senz’altro consistente. Infatti, se xk = x, per qualche k ∈ N, allora xk+1 = xk + M · (Axk − b) = x + M · (b − b) = x. Tuttavia l’implicazione inversa non è generalmente garantita. Se infatti xk+1 = xk , allora M · (Axk − b) = 0, e perciò Axk = b, i.e. xk = x, solo se det(M ) 6= 0, i.e. M è regolare. Se invece M è singolare si ha consistenza non esclusiva, che è indesiderata, poiché il metodo rischia di convergere ad un limite diverso dalla soluzione del sistema. Per trattare le problematiche relative alla convergenza, infine, riscriviamo la relazione (4.5) nella forma equivalente xk+1 = (I + M A)xk − M b, in cui I + M A è detta matrice di iterazione. Di fatto, il metodo converge se e soltanto se ρ(I + M A) < 1. Capitolo 4. Sistemi lineari e precondizionatori 4.1.4 73 Metodi iterativi stazionari Storicamente, le iterazioni stazionarie si svilupparono prima di quelle non stazionarie. Una strategia spesso impiegata per la costruzione di queste iterazioni è quella dello splitting additivo. Consiste nella scomposizione della matrice del sistema nella forma A = M − N . Se si ha un’approssimazione xk della soluzione esatta x, l’approccio base è calcolare un’altra approssimazione usando M xk+1 = N xk + b =⇒ xk+1 = M −1 · (N xk + b) (4.6) Se M = A, allora tale operazione converge in un solo passo, ma naturalmente non c’è un guadagno dal punto di vista dell’efficienza. Al fine di ottenere un metodo più efficiente, M dovrebbe essere tale che un prodotto del tipo M −1 y sia facile da calcolare. Per tale ragione, M potrebbe essere la diagonale principale di A, la parte triangolare inferiore o superiore, o un’altra semplice matrice che è simile sotto alcuni aspetti ad A, ma più semplice da risolvere in un sistema lineare. Ci sono tipi differenti di iterazioni stazionarie, ciascuna con differenti scelte per la scomposizione della matrice. . Gauss-Jacobi. Con riferimento alla (4.6), corrisponde alla scelta M = D e N = L + U , se D è diagonale di A ed L e U sono, rispettivamente, la sua parte triangolare bassa e la sua parte triangolare alta. Di modo che M è regola se e soltanto se la diagonale di A non contiene elementi nulli. In tal senso, è opportuno osservare che, se A non è singolare, e quindi il sistema (4.1) è ben posto4 , esiste comunque una permutazione delle sue righe/colonne per cui ogni elemento aii sulla diagonale principale è 6= 0. Su questi presupposti, la relazione (4.6) assume la forma Dxk+1 = Lxk + U xk + b =⇒ xk+1 = D−1 · (Lxk + U xk + b) (4.7) purché det D 6= 0. Quest’iterazione presenta il notevole vantaggio di consentire il calcolo parallelo di xk+1 , componente a componente. . Gauss-Seidel. Con riferimento alla (4.6), comporta la scelta M = D − L e N = U , dove D, L ed U sono definite come nel caso del metodo di Gauss-Jacobi. Ne risulta (D − L)xk+1 = U xk + b 4: =⇒ i.e., possiede un’unica soluzione. xk+1 = (D − L)−1 · (U xk + b) (4.8) Capitolo 4. Sistemi lineari e precondizionatori 74 che consente di ottenere xk+1 risolvendo un sistema triangolare inferiore. Il metodo di Gauss-Seidel, in molte occasioni, è più rapidamente convergente del metodo di Gauss-Jacobi, cioè richiede meno iterazioni per raggiungere una data accuratezza. Il prezzo da pagare per l’accresciuta robustezza dello schema consiste in una maggiore complessità nel calcolo dell’inversa di M . . Metodi di rilassamento. La convergenza dei metodi iterativi può essere accelerata mediante l’introduzione di un parametro di rilassamento ω. L’iterazione assume la forma xk+1 = ωxk+1 + (1 − ω)xk (4.9) dove xk+1 è il vettore generato dal metodo di Jacobi o dal metodo di Gauss-Saidel. Nel primo caso si ottiene il metodo JOR(Jacobi over relaxation), o del rilassamento simultaneo. Nel secondo il SOR (successive over relaxation), o metodo del rilassamento successivo. È possibile introdurre un parametro di rilassamento anche nella formulazione generale (4.5) del metodo lineare. Ne risulta la classe dei cosiddetti metodi di Richardson, stazionari o non stazionari a seconda che il parametro di rilassamento venga aggiornato o meno di iterazione in iterazione. In generale la scelta ottimale del parametro ω che massimizza la velocità di convergenza è un problema non banale, che può essere affrontato adeguatamente se si possiedono informazioni sulla collocazione nel piano di Argand-Gauss degli autovalori della matrice M A. I metodi di Gauss-Jacobi, di Gauss-Seidel e del sovra rilassamento a parametro fisso si dicono stazionari, perché la matrice iterativa M −1 N che lega xk+1 a xk è indipendente dall’indice k. Di modo che la matrice dell’iterazione determina completamente le performance dell’algoritmo in funzione del proprio raggio spettrale. Se infatti ek = xk − x è il vettore dell’iterata k-esima, allora M ek+1 = M xk+1 − N x − b = N xk + b − N x − b = N (xk − x) = N ek (4.10) per cui ek+1 = M −1 N ek . Di conseguenza, se l’errore sulla stima iniziale (o di guess) è pari a e0 , allora l’errore al k-esimo step è espresso dalla relazione ek = (M −1 N )k e0 . Dunque, affinché l’errore si riduca al crescere di k fino ad annullarsi al limite per k → ∞, indipendentemente dalla scelta di x0 , è sufficiente sia ρ(M −1 N ) < 1, dove ρ(·) indica il raggio spettrale5 del suo argomento. Intuitivamente, si comprende che la convergenza è tanto più rapida quanto più piccolo è ρ(M −1 N ), perciocché una sua “misura” fornisce, di fatto, una stima della rapidità di convergenza del metodo. 5: i.e., il massimo modulo degli autovalori. Capitolo 4. Sistemi lineari e precondizionatori 75 Un tipo di matrice per cui le iterazioni stazionarie possono essere rapidamente convergenti è dato, segnatamente, dalle matrici a dominanza diagonale. L’espressione è comunemente utilizzate per matrici i cui elementi diagonali siano “grandi”, ma in senso stretto si traduce nella precisa condizione per cui n X |ai,j | > |ai,j |, per ogni i = 1, 2, . . . , n (4.11) j6=i=1 Per le matrici a dominanza diagonale, i metodi di scomposizione come l’iterazione di Jacobi possono essere particolarmente efficienti, perché gli elementi sotto la diagonale nella matrice N sono piccoli e gli elementi di M sono grandi, ottenendo M −1 N di dimensioni piccole. Il teorema del cerchio di Gershgorin può essere usato per rendere ciò più rigoroso: tutti gli autovalori di una matrice si trovano in una combinazione di N cerchi con centri dati dagli elementi della diagonale della matrice e raggi uguali alla somma degli elementi sotto la diagonale della matrice. Così, per l’iterazione di Jacobi applicata a una matrice a dominanza diagonale, il raggio spettrale della M −1 N deve essere piccolo, poiché gli elementi della diagonale di M −1 N sono 0, i cerchi di Gershgorin sono centrati nell’origine e i raggi sono rm = |Amm |−1 N X |Amn | n=1,n6=m che dal confronto con la (4.11) devono essere minori di 1. 4.2 I metodi dinamici di Krylov I metodi in sottospazi di Krylov rappresentano una maggiore innovazione nell’algebra numerica lineare. Tali metodi sono non stazionari, cioè la relazione tra un’iterazione e la successiva non è data da una matrice fissa. Dato un vettore arbitrario b, si definisce spazio di Krylov di dimensione k lo spazio generato dalla seguente successione di vettori: Kk = span{b, Ab, A2 b, ..., Ak−1 b}. I metodi di proiezione in sottospazi di Krylov determinano, per ogni k, una soluzione approssimata xk del sistema lineare Ax = b che appartenga al sottospazio Kk . La scelta del vettore xk può essere fatta applicando diversi criteri di ottimalità, che conducono a differenti algoritmi. Il metodo del gradiente coniugato (CGN) può essere usato per matrici simmetriche definite positive (SPD). Al k-esimo step, CGN trova il vettore xk nel sottospazio di Capitolo 4. Sistemi lineari e precondizionatori 76 Krylov che minimizza la funzione f (x) = 1 T x Ax − bT x. 2 Se si prende la derivata di tale quantità scalare rispetto ad ogni elemento di x, si ottiene Ax − b, che si annulla se x è la soluzione di Ax = b. Ciò significa che x = A−1 b è un estremo della funzione. Se si prende un’altra derivata con riferimento al vettore x, si ottiene la matrice A, che è definita positiva, in modo che f (x) può solo crescere se il vettore x si allontana da A−1 b. Questo dimostra che A−1 b è il minimo globale della funzione f (x). La sequenza dei vettori xk si trova nel sottospazio Xk di RN . Poiché l’algoritmo del gradiente coniugato minimizza la funzione f (x) su tali sottospazi, la sequenza dei vettori tende ad approssimare la soluzione x = A−1 b. Quando il calcolo iterativo k-esimo è uguale a N (la dimensione del sistema lineare), allora, come conseguenza del teorema di Cayley-Hamilton, il sottospazio di Krylov KN è uguale allo spazio del vettore completo RN ×N e il vettore xN deve essere uguale a x = A−1 b. (Se b si trova in un sottospazio invariante opportuno della matrice A, allora l’esatta convergenza si presenta prima, e xk = x per k < N ). Così, si può dimostrare che, l’algoritmo CGN converge alla soluzione esatte in n iterazioni ed è quindi da considerare un metodo diretto. Viene però di fatto utilizzato come metodo iterativo perché, se opportunamente precondizionato, fornisce un’approssimazione sufficientemente accurata della soluzione in un numero di iterazioni molto inferiore alla dimensione del sistema, fatto di particolare importanza quando si opera su sistemi lineari di dimensione estremamente elevata. Quando è stato implementato numericamente per la prima volta, è stato osservato che l’errore che si ripeteva provocava una soluzione approssimata xk che falliva la convergenza a x. Per tale ragione, CGN è rimasto inutilizzato per anni. Negli ultimi decenni si è compreso che CGN era utile come un sistema lineare approssimativo risolvente quando si eseguivano meno di N iterazioni e che, malgrado l’errore si ripeteva, la soluzione poteva essere del tutto esatta per molti problemi che richiedevano calcoli iterativi relativamente bassi. 4.2.1 Il gradiente coniugato Per una matrice A SPD: Stato iniziale (k = 0): x0 = ipotesi iniziale quasi sempre x0 = 0 r0 = b − Ax0 (vettore residuo iniziale) Capitolo 4. Sistemi lineari e precondizionatori 77 d0 = r0 (vettore di direzione di ricerca iniziale) Procedimento al passo k = 0, 1, 2, ... γk = rkT rk rkT Adk xk+1 = xk + γk dk (successiva approssimazione per x) rk+1 = rk − γk dk ηk = T rk+1 rk+1 T rk rk dk+1 = rk+1 + ηk dk Il vettore dk è la direzione di ricerca; xk+1 è ottenuto dall’approssimazione al passo precedente xk sommando uno scalare multiplo di dk . Il vettore rk è l’errore residuo b − Axk . La soluzione x non è nota, quindi l’errore kx − xk k non è disponibile. La norma dell’errore residuo è una misura dell’errore e può essere usata per determinare in ogni caso la soluzione: Errore residuo relativo = krk k . kr0 k Il vettore residuo non è uguale all’errore della soluzione ek = x − xk , ma la sua norma può essere vista come l’errore della soluzione in una norma pesata. Se definiamo kykA = kAyk allora la norma dell’errore residuo è la A-norma dell’errore della soluzione rk = kA(x − xk )k = kek kA . La norma dell’errore residuo può essere anche usata per limitare la norma dell’errore della soluzione, dato che krk k = kAek k ≤ kAkkek k = |λmax |kek k dove la disuguaglianza comporta che kAk è una norma di matrice indotta dalla norma del vettore e l’eguaglianza finale assume che la norma del vettore è L2 o norma Euclidea. Similmente kek k = kA−1 rk k ≤ kA−1 kkrk k Capitolo 4. Sistemi lineari e precondizionatori = 78 1 krk k, |λmin | dove λmin è il più piccolo autovalore per A. Combinando le due disuguaglianze si arriva a 1 1 krk k ≤ kek k ≤ krk k, |λmax | |λmin | così che la norma dell’errore residuo limita l’errore della soluzione. Per una matrice normale, il rapporto κ(A) = |λmax | |λmin | è il numero di condizionamento della matrice nella norma L2 . Per un operatore generale e per una norma operatoriale arbitraria, il numero di condizionamento è definito da κ(A) = kAkkA−1 k. Questa quantità misura quanto A sia prossimo all’operatore singolare. Se A è la matrice identità, allora il numero di condizionamento è uno. Se A è singolare, allora il numero di condizionamento è infinito. Un operatore con un numero di condizionamento elevato è detto mal condizionato. Nel caso in cui il numero di condizionamento di A è prossimo a uno, allora l’errore residuo è sempre prossimo all’errore della soluzione. Se il numero di condizionamento è molto grande, allora l’errore residuo non può essere una buona misura dell’errore della soluzione. In alcuni casi, però, il numero di condizionamento può essere grande e l’errore residuo è ancora un buon indicatore dell’errore della soluzione, perché i vettori residuo ed errore non possono essere prossimi agli autovettori con autovalori molto piccoli o molto grandi e i limiti estremi della disuguaglianza 1 1 krk k ≤ kek k ≤ krk k |λmax | |λmin | non sono raggiunti. Algoritmo CGNE: Perché la funzione f (x) = 1 T x Ax − bT x 2 abbia un minimo nella soluzione x, la matrice deve essere SPD. Se A non è SPD, allora si può risolvere l’equazione normale AT Ax = AT b Capitolo 4. Sistemi lineari e precondizionatori 79 L’algoritmo risultante è quello del gradiente coniugato sull’equazione normale (CGNE). Un’altra possibilità è applicare CGN all’equazione AAT y = b e quindi calcolare x = AT y. Questo è conosciuto come CGNR. L’algoritmo CGNR è Iniazializzazione (k=0) r0 = AT b − AT Ax0 d0 = r0 Procedimento al passo k = 0, 1, 2, ... y = Adk −→ matvec da A γk = rkT rk yT y xk+1 = xk + γk dk y = AT y −→ matvec da AT rk+1 = rk − γk y ηk = T rk+1 rk+1 rkT rk dk+1 = rk+1 + ηk dk Un problema dell’algoritmo CGNE è che converge più lentamente del CGN, perché AT A è condizionato in modo peggiore rispetto ad A κ(AT A) ' κ(A)2 . 4.2.2 Il metodo dei residui minimi generalizzato Ad oggi, fra i metodi di tipo Krylov, il metodo dei residui minimi generalizzato (GMRES) è quello che possiede l’implementazione più robusta. Consiste nel costruire iterativamente una base ortonormale per lo spazio di Krylov Kl , approssimando, ad ogni iterazione, la soluzione x del sistema Ax = b col vettore xl ∈ Kl che minimizza la norma 2 del residuo rl = b − Axl . Sia Vm la matrice i cui vettori colonna sono i vi , ottenuti dall’ortogonalizzazione dei vettori del sottospazio di Krylov Km (A, x0 ). Ogni vettore del sottospazio H considerato sarà del tipo x = x0 + Vm y. Capitolo 4. Sistemi lineari e precondizionatori 80 Il GMRES allora ricava quel vettore y che minimizza la norma del vettore b − A(x0 + Vm y). L’algoritmo standard si traduce, quindi, nei seguenti passi: i) Si calcola il vettore residuo e si normalizza; ii) Si ricava la matrice di Hessemberg; iii) Si determina il minimo dell’espressione vista in precedenza. Si può dunque procedere per ottenere la matrice di Hessemberg utilizzando un opportuno algoritmo, come ad esempio quello di Gram-Schmidt oppure la tecnica di ortogonalizzazione di Householder. È possibile utilizzare delle matrici di rotazione per trasformare la matrice di Hessenberg in una triangolare. In particolare si può considerare la rotazione i-esima costituita dalla matrice: I Φi = 0 0 0 Ωi 0 0 0 I con Ωi la matrice di rotazione bidimensionale con valori di seni e coseni direttori pari a si = q hi+1,i (i−1) (hii )2 + h2i+1,i (i−1) ci = q hii (i−1) 2 ) (hii + h2i+1,i In assenza di errori di arrotondamento, il GMRES fornisce la soluzione di Ax = b in al più n iterazioni. Tale metodo, però, è caratterizzato da una elevata occupazione in memoria così come da un notevole costo computazionale. Può essere, dunque, utilizzato solo se la convergenza viene raggiunta dopo pochi passi. Con l’utilizzo del GMRES ripartito, si ottiene una riduzione della richiesta in memoria, ma si rallenta anche la convergenza. . La variante ripartita del GMRES Lo svantaggio principale del metodo GMRES è costituito dal fatto che occorre tenere in memoria tutti i vettori della base dello spazio di Krylov. Quando il numero di iterazioni raggiunge valori di qualche centinaio (cosa che avviene nei casi reali) questa occupazione di memoria può diventare eccessivamente gravosa. Tale problema viene Capitolo 4. Sistemi lineari e precondizionatori 81 risolto nelle applicazioni definendo a priori un numero massimo di vettori che possono essere memorizzati, diciamo p. Dopo p iterazioni si calcola l’approssimazione xp , si cancellano tutti i vettori dello spazio di Krylov e si riparte con un nuovo spazio di Krylov avente come vettore generatore rp = b − Axp . Tale modifica risolve il problema della memoria ma rallenta l’algoritmo dal punto di vista della sua convergenza alla soluzione. 4.2.3 L’algoritmo BiCG L’algoritmo BiCG è molto simile a quello CGN, ma viene modificato per trattare matrici arbitrarie (non - SPD). Si considerino i sottospazi di Krylov K(m, v), relativi alla matrice A, e K(m, w), relativi alla trasposta di A. L’algoritmo della biortogonalizzazione procede con la ricerca di una coppia di basi biortogonali per i due sottospazi (una coppia di basi si dice biortogonale se e solo se le basi sono separatamente ortogonali e il prodotto scalare (vi, wi) = 1). L’applicazione della biortogonalizzazione al CGN dà luogo all’algoritmo BiCG (BiConjugate Gradient). Poiché la matrice trasposta serve soltanto a costruire la base bi-ortogonale per i due sottospazi di Krylov, essa può non essere tenuta in memoria. Ciò dà origine a una variante dell’algoritmo sopra enunciato, il BiCGStab (BiConjugate Gradient Stabilized). Il BiCG converge in al più n iterazioni, non ci sono, però, proprietà di minimizzazione per i passi intermedi. Se A è simmetrica il BiCG coincide con il Gradiente Coniugato, svolgendo, però, due volte il lavoro. Per matrici arbitrarie, invece, la convergenza del BiCG è talvolta erratica; si cerca di ridurre tale comportamento attraverso il BiCGStab. In quest’ultimo si ha una velocità di convergenza doppia rispetto al BiCG, inoltre il vettore dei residui è minimizzato con una convergenza decisamente migliore. Nel caso in cui vengano richiesti molti passi per poter arrivare alla soluzione, il BiCGStab ha delle prestazioni migliori rispetto a quelle che si ottengono utilizzando il metodo del gradiente coniugato. 4.3 La onvergenza dei metodi di Krylov Analizzare le proprietà di convergenza delle iterazioni nel sottospazio di Krylov è più difficile che per le iterazioni stazionarie. L’osservazione fondamentale è che il vettore del residuo rn appartiene al sottospazio di Krylov Kn (A, r0 ) := span{r0 , Ar0 , A2 r0 , ..., An r0 } soltanto se si può un polinomio p(·) di grado n a coefficienti complessi tale che Capitolo 4. Sistemi lineari e precondizionatori 82 rn = p(A)r0 . Per una convergenza rapida si vorrebbe che p(A) fosse in un certo senso piccolo per n calcoli iterativi relativamenti bassi. Sia σ(A) lo spettro di A, i.e. l’insieme dei suoi autovalori. Se n è molto grande, allora S è costituito da molti autovalori e può essere approssimato come un insieme continuo nel piano (possibilmente anche includendo alcuni autovalori che sono separati dal gruppo principale). Il vettore residuo p(A)r0 sarà piccolo se p(λm ) è piccolo, dove λm ∈ S. La questione è trovare, per un dato ordine n, quanto |p(z)| può essere piccolo sullo spettro S. Invece di provare a determinare esattamente qual è il polinomio p(·), si cerca di ottenere un limite su quanto piccolo può essere un polinomio su S in termini del suo ordine. Qn Se gli zeri di p(·) sono denotati con z1 , z2 , . . . , zn , allora si può scrivere |p(z)| = k=1 |z − zk |. Prendendo il logaritmo di tale espressione si ottiene ln |p(z)| = n X ln |z − zk | (4.12) k=1 Affinché il potenziale di un punto negativo nel piano, dovuto ad un carico, sia uguale alla funzione log, questo può essere interpretato fisicamente come il potenziale del punto negativo, dovuto a n carichi, localizzati su ciacuno degli zeri di p(·). Al crescere di n, si vede che il potenziale minimo si presenta quando tutti i carichi sono distribuiti attorno al limite di S. Se uno dei carichi negativi fosse interno ad S, si potrebbe diminuire il potenziale medio su S spostando il carico al limite. Tale proprietà porta ad un altro elemento per un’interpretazione fisica della convergenza di iterazioni nel sottospazio di Krylov. Lo spostamento al limite è esattamente come i carichi fanno su un corpo CEP - i carichi sono distribuiti uniformemente sulla superficie del corpo così che le posizioni di equilibrio minimizzano l’energia totale del sistema, che è determinata dal potenziale. Così, il polinomio p(·), per il quale |p(·)| è il più piccolo su S, ha gli zeri nella posizione in cui n carichi uguali di un punto prenderebbero un corpo CEP con la stessa forma di S. Per fare una predizione quantitativa del tasso di convergenza, inizialmente si sceglie l’origine come un punto di riferimento del potenziale, e si minimizza il rapporto | p(z) | . p(0) z∈S Questo è minimizzato quando il potenziale log|p(z)| − log|p(0)| è il più piccolo per z posizionato sulla superficie di un corpo CEP con la forma di S. Poiché la superficie CEP deve essere equipotenziale, questa è la potenziale differenza Capitolo 4. Sistemi lineari e precondizionatori 83 tra S e l’origine. Se il carico totale su S è n Coulombs, allora la capacità per unità di lunghezza di S in riferimento ad un punto nell’origine è C= n Q = V − ln |p(z)/p(0)| Risolvendo per il rapporto |p(z)/p(0)| si ha | p(z) | ≤ e−n/C = (e−1/C )n = ρn , p(0) dove e−1/C è conosciuto come il fattore di convergenza asintotico e si trova nell’intervallo 0 ≤ ρ ≤ 1. Il significato di tale risultato può essere riassunto come segue: la convergenza di una iterazione nel sottospazio di Krylov dipende dalla capacità di un conduttore con la forma dello spettro di A in riferimento all’origine. Se la capacità C è piccola, allora il fattore di convegenza asintotico è prossimo a zero e l’errore residuo diviene rapidamente piccolo. Se la capacità è grande, allora ρ ' 1 e la convergenza dell’iterazione è lenta. 4.3.1 Fattori di influenza dei tassi di convergenza Operatore ben-condizionato. Se gli autovalori di A sono confinati in una regione piccola lontana dall’origine, allora la capacità di S relativa all’origine è piccola e ρ → 0 , così la convergenza è rapida. In tal caso, il numero di condizionamento è quasi uno. Operatore mal-condizionato. Se alcuni degli autovalori sono molto vicini all’origine, allora la capacità è grande, così ρ → 1 e la convergenza è lenta. Caso SPD. Se A è SPD, allora gli autovalori si trovano in un certo intervallo [λmin , λmax ] sull’asse positvo reale. La capacità per unità di lunghezza di un tratto infinito su tale intervallo relativo ad una lunghezza infinta è p λmax /λmin − 1 −1 C = −(log p ) λmax /λmin + 1 Il fattore di convergenza è p λmax /λmin − 1 ρ= p λmax /λmin + 1 In termini di numero di condizionamento κ, questo diviene √ κ−1 ρ= √ κ+1 Capitolo 4. Sistemi lineari e precondizionatori 84 Se κ è grande allora √ κ−1 1 2 ρ' √ (1 − √ ) ' 1 − √ κ κ κ Se si vuole ripetere fino alla norma dell’errore residuo relativo che è ², allora ²= krn k ' ρn kr0 k in modo che n= √ log² log² ' κ (CGN) logρ 2 Questa è una stima del numero di iterazioni richieste per ottenere un errore residuo di ². Per CGNE o CGNR, κ è il numero di condizionamento di A† A, che è approssimativamente il quadrato del numero di condizionamento di A. Ciò porta ad una stima n =' κ(A) log² (CGNE/CGNR) 2 Spettro = disk (BCG, etc.). Per matrici non-SPD, lo spettro non è confinato all’asse reale. Se lo spettro è approsimato ad un disco nel piano complesso, allora il fattore di convergenza asintotico diviene ρ= κ−1 , κ+1 in modo che la stima del calcolo dell’iterazione diviene n =' κ(A) log² (Disk) 2 che è la stessa stima per CGNE/CGNR. Dagli esempi sopra riportati, si può concludere che il numero di condizionamento della matrice influenza fortemente il tasso di convergenza di un’iterazione nel sottospazio di Krylov. Se il numero di condizionamento è piccolo, la convergenza è rapida e l’algoritmo iterativo è una soluzione molto efficiente per un sistema lineare. Se il numero di condizionamento è grande, la convergenza è lenta. Ci sono altri fattori che influenzano i tassi di convergenza. Se la matrice è fortemente non normale, la convergenza può essere più lenta rispetto alle stime sopra predette. Infatti, è stato dimostrato che, per un dato spettro, sono possibili differenti curve convergenti, includendo la convergenza molto lenta, se il grado di non normalità della matrice aumenta. Capitolo 4. Sistemi lineari e precondizionatori 4.3.2 85 Criteri di arresto Nell’applicazione di un metodo iterativo, risulta cruciale il criterio utilizzato per arrestare le iterazioni, in quanto da esso dipende la qualità dell’approssimazione della soluzione del sistema. Vengono riportati tre criteri per l’arresto. I primi due sono utilizzabili in qualsiasi metodo iterativo, anche se destinato alla risoluzione di un problema differente, mentre il terzo è specifico per la risoluzione di sistemi lineari. i) Un metodo per rilevare la convergenza consiste nel verificare che la successione delle iterate soddisfi il criterio di Cauchy. Questo può essere fatto controllando lo scarto tra due iterazioni successive. Fissata una tolleranza τ > 0 e scelta una norma vettoriale, la condizione di stop è data allora da kxk − xk−1 k ≤ τ, o meglio dalla condizione seguente, che misura lo scarto relativo kxk − xk−1 k ≤ τ, kxk k che viene, comunemente, implementata nella forma: kxk − xk−1 k ≤ τ kxk k. Si tratta però di un test d’arresto non affidabile, in generale, in quanto esso è verificato ad esempio per i metodi che generano una successione costante, diversa dalla soluzione. ii) Nell’eventualità che il metodo non converga, per evitare un loop infinito, è bene fissare un numero massimo di iterazioni N , e utilizzare quindi un criterio d’arresto del tipo k > N . iii) Nei metodi iterativi per sistemi lineari, al passo k è possibile ottenere una maggiorazione per l’errore ek = xk − x in termini del vettore residuo rk = b − Axk . Dalle relazioni sopra si ha che rk = b − Axk = b − A(ek + x) = b − Aek − Ax = −Aek , e cioè Aek = −rk , Capitolo 4. Sistemi lineari e precondizionatori 86 da cui si ricava kek k = kA−1 rk k ≤ kA−1 kkrk k. Ricordando poi che kbk ≤ kAkkxk si arriva alla seguente maggiorazione per l’errore relativo al passo k: krk k krk k kek k ≤ kAkkA−1 k = κ(A) , kxk kbk kbk dove κ(A) è il numero di condizionamento per la matrice A. Il criterio di stop krk k ≤τ kbk può quindi essere usato in luogo di kxk − xk−1 k ≤ τ kxk k. È evidente che la stima dell’errore è tanto meno attendibile quanto più la matrice A è mal condizionata. In generale, le condizioni utilizzate per l’arresto dei metodi iterativi non sono costituite da un solo criterio, ma piuttosto da una combinazione di più criteri di arresto connessi in maniera opportuna. 4.4 Il precondizionamento Nel tentativo di trovare algoritmi robusti e rapidamente convergenti per la risoluzione di sistemi lineari arbitrari (asimmetrici, densi, indefiniti e complessi), negli anni passati sono state messe a punto dai ricercatori del settore numerico numerose varianti delle tecniche di tipo Krylov. D’altro canto, poiché è noto in letteratura che alcuni di questi (e fra tutti il GMRES) sono influenzati nelle prestazioni, almeno in parte, dal numero di condizionamento proprio della matrice del sistema, molta attenzione è stata rivolta, parimenti, allo sviluppo di precondizionatori efficaci, in grado di ridurre di un fattore significativo il costo complessivo del processo iterativo di calcolo della soluzione. In linea del tutto generale, un precondizionatore è una qualunque matrice regolare (cioè invertibile) M che agisce sul sistema lineare Ax = b trasformandolo nella forma equivalente M−1 Ax = M−1 b (4.13) oppure AM−1 y = bM−1 con x = bM−1 (4.14) Capitolo 4. Sistemi lineari e precondizionatori 87 a seconda che il precondizionamento operi a sinistra o a destra. Di fatto, M viene considerato efficace se κ(M−1 A) ¿ κ(A) ovvero κ(AM−1 ) ¿ κ(A), rispettivamente nei due casi. D’altronde, è evidente che, da un punto di vista operativo, se si vuole effettivamente migliorare il rendimento tout-court di una routine destinata al calcolo iterativo della soluzione numerica del sistema lineare Ax = b utilizzando un qualche precondizionatore M, è indispensabile che né la sua inversa M−1 né la matrice del sistema precondizionato M−1 A ovvero AM−1 vengano esplicitamente formate. A questo scopo l’implementazione dell’algoritmo di calcolo, tipicamente, prevede, per ciascuna iterazione, un blocco in cui il precondizionamento del sistema originale è riportato alla soluzione di un sistema intermedio della forma Mz = c (4.15) Di conseguenza, l’abbattimento dei costi computazionali relativi alla variante precondizionata dell’iteratore in uso è fatta dipendere, in ultima analisi, dalla semplicità con cui è dato calcolare z a partire dalla (4.15). Naturalmente, nel caso estremo in cui M = A, la spesa complessiva non risulterebbe comunque inferiore a quella comportata dalla soluzione del sistema non precondizionato (cioè nessun vantaggio reale sarebbe, di fatto, osservabile). Ciò nondimeno, il numero complessivo di iterazioni richieste prima della convergenza verrebbe abbattuto al suo minimo (ossia ad uno). Sembra chiaro, così, che la scelta di un precondizionatore è tanto più qualificata quanto meglio realizza il giusto compromesso fra le necessità contrastanti di abbattere il numero delle iterazioni senza, tuttavia, dilatare eccessivamente i tempi di processazione. Pertanto, in pratica, si richiede che M sia, in un certo senso, un’approssimazione di A, tale per cui i) la matrice precondizionata abbia un numero di condizionamento κ quanto più possibile prossimo ad uno; ii) il sistema (4.15) sia “facile da risolvere”. Nel presente lavoro di tesi, si indagano, in particolare, le performance del precondizionamento algebrico S definito dalla parte antihermitiana della matrice delle impedenze Z del sistema lineare prodotto dalla discretizzazione dell’EFIE tramite il metodo dei momenti, per confronto con le prestazioni di alcuni precondizionatori standard, ampiamente utilizzati in letteratura e descritti nei sottoparagrafi a seguire. Capitolo 4. Sistemi lineari e precondizionatori 4.4.1 88 Il precondizionatore antihermitiano L’operazione di precondizionamento diventa necessaria nel caso di sistema lineare algebrico proveniente dalla discretizzazione dell’EFIE (ZI = V), perché Z, a causa di errori di discretizzazione, manca della convergenza del GMRES. Come sappiamo bene, questa operazione trasforma il sistema lineare originale ZI = V in un altro P −1 ZI = P −1 V (4.16) chiamato sistema precondizionato, il quale ha le proprietà spettrali di aumentare il tasso di convergenza. Nel caso del sitema dei momenti, P può essere scelto come segue: Z = S + H = S(U + S −1 H) dove H = 1 (Z 2 + ZH ) e S = 1 (Z 2 − Z H ) sono rispettivamente la parte hermitiana e la parte antihermitiana di Z e U = diag(1) è la matrice identica. Poiché nella zona vicina del campo abbiamo una predominanza di potenza reattiva rispetto a quella attiva, possiamo aspettarci che kSk À kHk, cioè che la componente antihermitiana S domina sulla componente hermitiana H. Se questa condizione è verificata succede che lo spettro di S −1 H (σ(S −1 H)) sarà nell’intorno dell’origine del piano complesso. Conseguentemente scegliendo P = S nella (4.16), abbiamo che lo spettro degli autovalori della matrice P −1 Z = S −1 S(U + S −1 H) = U + S −1 H σ(P −1 Z) = σ(U + S −1 H) sarà localizzato intorno al punto (1, 0) del piano complesso ottenendo in questo modo l’effetto desiderato di precondizionamento. 4.4.2 Il precondizionatore diagonale Soprattutto nei casi in cui Z è caratterizzata da una marcata doninanza diagonale, nel senso che gli elementi della matrice dotati di modulo maggiore (quindi di maggior peso) sono tutti localizzati all’interno di una certa banda, concentrata attorno alla diagonale principale e specificata a mezzo di un intero 0 ≤ b ¿ n (dove n rappresenta la “taglia” di Z), un approccio efficace al problema del precondizionamento è garantito assumendo come precondizionatore M la matrice sparsa ottenuta da Z azzerando tutti gli elementi esterni alla banda delimitata da b. Con riferimento alle considerazioni di cui al paragrafo (4.4), è chiaro che la semplicità di M è tanto più spiccata quanto più b è prossimo allo zero, ossia quanto più M tende alla matrice diagonale diag(diag(Z)). Di fatto, è questa la scelta su cui si è concentrata la nostra attenzione. Capitolo 4. Sistemi lineari e precondizionatori 4.4.3 89 Il precondizionatore ILU Un modo comune e alternativo di costruire un precondizionatore per il sistema dei momenti ZI = V prevede la fattorizzazione della matrice Z a mezzo di una coppia (F1 , F2 ) per cui Z = F1 · F2 e i fattori inversi F−1 ed F−1 siano calcolabili più 1 2 rapidamente di Z−1 . Su questo principio si basa, in particolare, il precondizionamento di Z ottenuto a partire dalla sua decomposizione LU (vedi [?]). Il problema è che i costi di fattorizzazione sono asintoticamente troppo elevati per giustificare questo approccio, ragion per cui si pone, da un punto di vista operativo, l’ovvia necessità di contenere gli oneri di calcolo. Tipicamente, questo obiettivo è raggiunto effettuando la decomposizione LU non di Z bensì di una sua versione sparsa ottenuta stabilendo un qualche criterio di scarto (drop) per l’azzeramento di tutti gli elementi della matrice che non superino un certo test di selezione. Attraverso la chiamata ILU(Z,setup), la routine Matlab built-in ILU utilizza, appunto, questo principio per eseguire su Z la cosiddetta fattorizzazione LU incompleta sparsa, nell’ipotesi che setup sia una variabile di tipo structure dotata dei campi: ¨ type, per specificare il metodo di fattorizzazione; ¨ droptol, per precisare la soglia di scarto degli elementi; ¨ milu, per l’esecuzione della fattorizzazione LU incompleta modificata; ¨ udiag, per rimpiazzare gli zeri eventualmente presenti sulla diagonale principale di U; ¨ thresh, per indicare una soglia critica (applicata al modulo degli elementi diagonali di U) al di sotto della quale operare il pivoting delle righe o colonne della matrice, al fine di assicurarne la regolarità numerica. Il campo type può assumere i valori: ¨ ‘nofill’, che corrisponde alla fattorizzazione LU incompleta di Z con un livello di fill-in 6 pari a zero; ¨ ‘crout’, che rappresenta la variante dell’ILU fondata sull’impiego della decomposizione di Crout (anche nota come ILUC); ¨ ‘ilutp’, che si riferisce alla variante della fattorizzazione LU incompleta che utilizza il pivoting a soglia delle righe e/o delle colonne della matrice. 6: il fill-in di una matrice è l’insieme di quegli elementi che mutano da un valore iniziale nul- lo a un valore finale non nullo nel corso dell’esecuzione di un algoritmo. In genere, per ridurre l’occupazione di memoria e il numero di operazioni aritmetiche necessarie alla processazione è utile minimizzare il fill-in scambiando le posizioni reciproche di righe e colonne. Capitolo 4. Sistemi lineari e precondizionatori 90 Se il campo type non è specificato, di default viene assegnato type = ‘ilutp’. Se, invece, si attribuisce al campo type l’uno o l’altro fra i valori ‘nofill’ o ‘crout’, il pivoting non viene mai eseguito. Il campo droptol è uno scalare non negativo δ utilizzato per definire una tolleranza di scarto nell’azzeramento di tutti gli elementi di una data riga o colonna v di U o di L che, in modulo, siano più piccoli della cosiddetta tolleranza di scarto locale, ovvero del prodotto δ · kvk2 . L’unica eccezione a questa regola è rappresentata dagli elementi diagonali del fattore triangolare superiore U, che non vengono mai scartati. In particolare, quando droptol = 0, la direttiva ILU(Z,setup) esegue, ad ogni effetto della pratica, la fattorizzazione LU completa di Z. Il campo milu stabilisce se si debba o meno utilizzare la versione modificata della routine ILU di base e può assumere alternativamente i valori ‘row’ (somma per righe), ‘col’ (somma per colonne) oppure ’off’ (opzione di default). Quando milu = ‘row’, il generico elemento diagonale del fattore triangolare superiore U è compensato di modo tale da preservare la somma della riga corrispondente. In altri termini, posto che e indichi il vettore colonna [11 . . . 1] di lunghezza n, vale Z·e = L·U·e. Analogamente, quando milu = ‘col’, il generico elemento diagonale di U viene calibrato così che eH · Z = eH · L · U. Il campo udiag è una variabile booleana. Se il suo valore è pari ad 1, ogni elemento nullo sulla diagonale di U è rimpiazzato dalla tolleranza locale di scarto, nel tentativo di evitare la singolarità. Zero è il valore di default. Il campo thresh è una soglia di pivoting σt nell’intervallo [0, 1]. Il pivoting viene effettuato ogni volta che l’elemento diagonale di una colonna di Z è caratterizzato da un modulo minore della soglia σt moltiplicata per il modulo di ogni elemento subdiagonale relativo alla medesima colonna. L’assegnazione thresh = 0 forza il più consueto pivoting diagonale. Per default, vale thresh = 1. 4.5 Esperimenti numerici Vengono adesso riportati i risultati ottenuti dalle simulazioni svolte al calcolatore per scatteratori di geometria cubica e per un’assegnata discretizzazione n, sulle frequenze campione di una data banda B = [fmin , fmax ]. Per condurre tale analisi sono state innanzitutto costruite, per adattarle alle esigenze dell’indagine, alcune routine MATLAB di processazione del sistema dei momenti ZI = V. Lo script hermvsskew.m plotta le norme k · k1 , k · k2 , k · k∞ e k · kF , della matrice Capitolo 4. Sistemi lineari e precondizionatori delle impedenze Z, della sua parte antihermitiana S = 91 1 (Z 2 − ZH ) e dalla sua parte hermitiana H = 12 (Z + ZH ). L’M-file revsim.m funziona come hermvsskew.m, confronta le norme k · k1 , k · k2 , k · k∞ e k · kF sulla banda, della matrice delle impedenze Z della sua parte reale <(Z) e della sua parte immaginaria =(Z). L’M-file normcomp confronta le norme k · k1 , k · k2 , k · k∞ e k · kF sulla banda, della parte hermitiana H contro la parte reale di Z e la parte antihermitiana S contro la parte immaginaria di Z e inoltre traccia per ciascuna norma il grafico della differenza kHk − k<(Z)k e kSk − k=(Z)k. L’ M-file risonanze.m grafica l’andamento in banda del più piccolo valore singolare σmin di Z in modo da localizzare le risonanze dell’ostacolo, cioè le frequenze per cui l’operatore integrale dell’EFIE diviene non iniettivo, pregiudicando l’unicità della soluzione dell’equazione associata. La determinazione delle risonanze è finalizzata a stabilire se e in che misura la degenerazione del nucleo dell’operatore integrale influisce negativamente sulle prestazioni dei metodi (iterativi) utilizzati nella soluzione del sistema dei momenti ed a sviluppare approcci alternativi al problema della filtrazione delle risonanze. Lo script spettro.m restituisce la distribuzione sul piano di Argand-Gauss degli autovalori della matrice delle impedenze Z, prima e dopo il precondizionamento (ovvero il suo spettro), relativamente ad una gamma di frequenze scelte all’interno dell’intervallo B di esplorazione. In particolare, la nostra attenzione si è focalizzata su una coppia di frequenze f1 e f2 scelte in B di modo da massimizzare e minimizzare, rispettivamente, la differenza fra kSk2 e kHk2 . L’M-file residui.m traccia le curve della norma k · k2 dei residui computati dal GMRES nella soluzione (iterativa) del sistema dei momenti, in presenza ed in assenza di precondizionamento. Nello specifico, le strategie di precondizionamento indagate sono finalizzate al confronto fra le prestazioni di S e di alcuni precondizionatori standard, quali ILU(Z) e diag(diag (Z)). Gli M-file costi.m e tempi.m effettuano l’analisi computazionale del GMRES per la soluzione (iterativa) del sistema dei momenti, prima e dopo il precondizionamento, secondo le specifiche di cui al punto precedente, plottando sulla banda il numero massimo di iterazioni e i tempi di calcolo necessari per raggiungere la convergenza o una qualsiasi altra condizione sfavorevole di terminazione del metodo (esecuzione completa del numero massimo di iterazioni previste, malcondizionamento del precondizionatore, etc), secondo le indicazioni risultanti dal diagramma dei flag di convergenza. Capitolo 4. Sistemi lineari e precondizionatori 4.5.1 92 Simulazione 1 Esistono in letteratura numerosi lavori in cui si fa dipendere la qualità di S, come precondizionatore del sistema dei momenti, dalla sua dominanza su H in una qualche norma k · k. Il punto è che, in realtà, ogni ragionamento circa la bontà di un dato precondizionatore non è significativo in senso assoluto, ma si avvalora soltanto inquadrando il problema del precondizionamento nell’ottica dell’analisi delle prestazioni dei metodi (iterativi) utilizzati nell’inversione del sistema. Ed è, di fatto, la particolare natura ed implementazione del metodo utilizzato a determinare quale norma sia realmente significativa. Per esempio, nel caso particolare del GMRES, nell’implemantazione built-in del MATLAB, la norma di riferimento è quella euclidea. D’altronde, indagare un set di norme allo scopo di individuarne una di riferimento (segnata k · k0 ) in cui la dominanza è massimizzata, può suggerire l’opportunità di sviluppare metodi ed algoritmi di soluzione, alternativi a quelli canonici, in grado di sfruttare al meglio l’evidenza sperimentale per cui kSk0 À kHk0 . Tanto più considerando che ¨ come evidenziato dai risultati prodotti, la dominaza di S su H nella norma k · k2 è valida solo alle basse frequenze all’interno della banda osservata; ¨ le prestazioni del GMRES, che dipendono in ultima analisi dalla capacità del metodo di ridurre velocemente la norma residuale, beneficiano del precondizionamento di S oppure ne sono pregiudicate a seconda che la condizione di cui al punto precedente sia soddisfatta. Di tutto tenuto conto, non è dato, perciò, escludere la possibiltà di sviluppare un algoritmo alternativo che, basato sulla norma k·k0 anziché sulla norma k·k2 , garantisca per S buone prestazioni nel precondizionamento su una banda più larga. Cubo 450. Si consideri uno scatteratore di forma cubica per una discretizzazione n = 450 e una banda di frequenza B = 130 ÷ 450 MHz. Dall’esame dei grafici si rileva che: a) S domina nettamente su H nella norma k·k1 soltanto alle “basse” frequenze (circa 150M Hz) (vedi fig. 4.1), mentre alle “alte” frequenze (circa 440M Hz) la distanza tra S ed H tende a ridursi fino a diventare poco significativa, nonostante si mantenga kSk1 ≥ kHk1 ; b) nella norma k · k2 , S domina nettamente su H soltanto alle “basse” frequenze (vedi fig. 4.2), mentre da una certa frequenza in poi la situazione si capovolge ed è H a dominare su S, quindi alle “alte” frequenze anche se la distanza tra S ed H tende a ridursi, kHk2 ≥ kSk2 ; Capitolo 4. Sistemi lineari e precondizionatori 93 Comparing Z, H = 0.5 ⋅ (Z + ZH) and S = 0.5 ⋅ (Z − ZH) in the 1−norm 90 80 70 ||−||1 60 50 40 30 20 10 Z H S 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.1: Confronto in norma 1 tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 450 Figura 4.2: Confronto in norma 2 tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 450 c) S domina nettamente su H nella k · k∞ soltanto alle “basse” frequenze (vedi fig. 4.3), mentre alle “alte” frequenze la distanza tra S ed H tende a ridursi fino a diventare poco significativa, nonostante si mantenga kSk∞ ≥ kHk∞ ; Capitolo 4. Sistemi lineari e precondizionatori 94 Figura 4.3: Confronto in norma infinito tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 450 d) nella k · kF , S domina su H soltanto alle “basse” frequenze (vedi fig. 4.4), mentre alle “alte” frequenze la distanza tra S ed H tende a ridursi fino a diventare poco significativa, nonostante si mantenga kSkF ≥ kHkF ; Comparing Z, H = 0.5 ⋅ (Z + ZH) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm 400 Z H S 350 300 ||−|| F 250 200 150 100 50 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.4: Confronto in norma di Frobenius tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 450 Capitolo 4. Sistemi lineari e precondizionatori 95 Cubo 1152. A differenza del caso precedente, in questo, è stato esaminato un cubo con una discretizzazione pari a n = 1152. Similmente a quanto detto sopra per il cubo di discretizzazione 450, si ottengono i seguenti grafici (vedi fig.4.5, 4.6, 4.7, 4.8) Figura 4.5: Confronto in norma 1 tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 1152 Figura 4.6: Confronto in norma 2 tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 1152 Capitolo 4. Sistemi lineari e precondizionatori 96 Figura 4.7: Confronto in norma infinito tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 1152 Figura 4.8: Confronto in norma di Frobenius tra la parte hermitiana e parte antihermitiana relativa alla discretizzazione 1152 4.5.2 Simulazione 2 In questa seconda simulazione il confronto tra le norme viene ripetuto sulle matrici <(Z) e =(Z) delle parti reale e immaginaria di Z rispettivamente. La conclusione è che Capitolo 4. Sistemi lineari e precondizionatori 97 kSk ≈ k=(Z)k e kHk ≈ k<(Z)k per ciascuna delle norme prese in considerazione ed è tanto più avvalorata dall’analisi dei grafici (4.17- 4.32) che descrivono l’andamento in frequenza delle funzioni HR(f ) = kHk − k<(Z)k e SI(f ) = kSk − k=(Z)k. Tutto ciò si anlizzerà più dettagliatamente nella prossima simulazione (4.5.3). Cubo 450. Per il cubo con discretizzazione n = 450 possiamo osservare che: a) la =(Z) prevale sulla <(Z) nella k · k1 soltanto alle “basse” frequenze (circa 150M Hz) (vedi fig. 4.9), mentre alle “alte” frequenze (circa 440M Hz) la loro distanza tende a diminuire fino a diventare poco indicativa; Comparing Z, ℜ(Z) and ℑ(Z) in the 1−norm 90 80 70 ||−||1 60 50 40 30 20 10 Z Re(Z) Im(Z) 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.9: Confronto in norma 1 tra la parte reale e parte immaginaria di Z relativa alla discretizzazione 450 b) nella k · k2 , fino alla frequenza di circa 250M Hz la parte immaginaria di Z è perfettamente sovrapposta alla Z ed è anche nettamente superiore alla parte reale di Z (vedi fig. 4.10), mentre da un certo punto in poi la situazione si ribalta ed è <(Z) a prevalere su =(Z), anche se la distanza tra le due norme tende a ridursi; c) per la k · k∞ si ripete la stessa situazione che abbiamo per la k · k1 , cioè la parte immaginaria di Z domina sulla parte reale alle “basse” frequenze mentre la distanza tende a diminuire alle “alte” frequenze (vedi fig. 4.11); d) nella k·kF , =(Z) domina su <(Z) soltanto alle “basse” frequenze (vedi fig. 4.12), mentre alle “alte” frequenze la distanza tra la parte immaginaria e la parte reale di Z tende a ridursi fino a diventare poco significativa. Cubo 1152. Per lo scatteratore di geometria cubica con discretizzazione n = 1152 otteniamo i seguenti risultati: Capitolo 4. Sistemi lineari e precondizionatori 98 Comparing Z, ℜ(Z) and ℑ(Z) in the 2−norm 30 Z Re(Z) Im(Z) 25 ||−||2 20 15 10 5 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.10: Confronto tra le norme 2 della parte reale e parte immaginaria di Z relativa alla discretizzazione 450 Comparing Z, ℜ(Z) and ℑ(Z) in the ∞−norm 90 80 70 ||−||∞ 60 50 40 30 20 10 Z Re(Z) Im(Z) 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.11: Confronto tra le norme infinito della parte reale e parte immaginaria di Z relativa alla discretizzazione 450 a) la =(Z) domina distintamente sulla <(Z) nella k · k1 soltamente alle “basse” frequenze (circa 150M Hz) (vedi fig. 4.13), mentre alle “alte” frequenze (circa 440M Hz) la loro distanza tende a ridursi; b) nella k · k2 , fino alla frequenza di circa 350M Hz la parte immaginaria di Z è Capitolo 4. Sistemi lineari e precondizionatori 99 Comparing Z, ℜ(Z) and ℑ(Z) in the Frobenius norm 400 Z Re(Z) Im(Z) 350 300 ||−|| F 250 200 150 100 50 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.12: Confronto tra le norme di frobenius della parte reale e parte immaginaria di Z relativa alla discretizzazione 450 Figura 4.13: Confronto in norma 1 tra la parte reale e parte immaginaria di Z relativa alla discretizzazione 1152 perfettamente sovrapposta alla Z ed è anche chiaramente superiore alla parte reale di Z (vedi fig. 4.14), mentre da un certo punto in poi la situazione si capovolge ed è <(Z) a prevalere su =(Z), anche se la distanza tra le due norme tende a ridursi; c) per la k · k∞ si ripete la stessa situazione che abbiamo per la k · k1 , cioè la parte Capitolo 4. Sistemi lineari e precondizionatori 100 Figura 4.14: Confronto in norma 2 tra la parte reale e parte immaginaria di Z relativa alla discretizzazione 1152 immaginaria di Z domina sulla parte reale alle “basse” frequenze mentre la distanza tende a diminuire alle “alte” frequenze(vedi fig. 4.15); Figura 4.15: Confronto in norma infinito tra la parte reale e parte immaginaria di Z relativa alla discretizzazione 1152 d) nella k · kF , =(Z) prevale su <(Z) però non di molto alle “basse” frequenze (vedi Capitolo 4. Sistemi lineari e precondizionatori 101 fig. 4.16), mentre alle “alte” frequenze la distanza tra la parte immaginaria e la parte reale di Z tende a ridursi ancora di più fino a diventare poco significativa. Figura 4.16: Confronto tra le norme di Frobenius della parte reale e parte immaginaria di Z relativa alla discretizzazione 1152 4.5.3 Simulazione 3 Questa terza simulazione è diretta conseguenza delle due precedenti infatti si mettono a confronto le norme, k · k1 , k · k2 , k · k∞ e k · kF della parte hermitiana H della (4.5.1) contro la parte reale di Z della (4.5.2) e la parte antihermitiana S della (4.5.1) contro la parte immaginaria di Z della (4.5.2) e in più si traccia sempre per ciascuna norma il grafico della differenza tra le norme(kHk − k<(Z)k e kSk − k=(Z)k). I grafici confermano quanto detto e visto nelle simulazioni precedenti cioè che kSk ≈ k=(Z)k e kHk ≈ k<(Z)k per ciascuna delle norme prese in esame. Cubo 450. Dai grafici tracciati si riscontra che: a) Nel confronto delle norme k · k1 tra H e <(Z) e tra S e =(Z) non si notano variazioni rilevanti, ma se si sottrae k=(Z)k1 a kSk1 e k<(Z)k1 a kHk1 , queste variazioni diventano più evidenti alle “alte” frequenze. (vedi fig. 4.17, 4.18); b) comparando le norme k · k2 della componente hermitiana H contro la parte reale di Z (<(Z)) e della componente antihermitiana S contro la parte immaginaria di Z (=(Z)) non si notano delle diversificazioni, ma se osserviamo la loro differanza, le variazioni risultano più chiare alle “alte” frequenze (vedi fig. 4.19, 4.20); Capitolo 4. Sistemi lineari e precondizionatori 102 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 1−norm 75 ℑ(Z) S ||−||1 70 65 60 55 50 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.2 ||S||1 − ||ℑ(Z)||1 0.1 0 −0.1 −0.2 −0.3 −0.4 −0.5 1 1.5 2 4 4.5 8 x 10 Figura 4.17: Confronto tra la norma 1 della parte immaginaria di Z e della parte antihermitiana di Z relativa alla discretizzazione 450 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 1−norm 60 ||−||1 50 40 30 20 10 ℜ(Z) H 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.3 ||H||1 − ||ℜ(Z)||1 0.2 0.1 0 −0.1 −0.2 −0.3 −0.4 1 1.5 2 4 4.5 8 x 10 Figura 4.18: Confronto tra la norma 1 della parte reale di Z e della parte hermitiana di Z relativa alla discretizzazione 450 c) nel raffrontare le norme k · k∞ di H e <(Z) e di S e =(Z) non si riscontrano delle diversità, ma se si sottrae k=(Z)k∞ a kSk∞ e k<(Z)k∞ a kHk∞ , queste diversità diventano più significative a precise frequenze cioè alle “alte” (vedi fig. 4.21, 4.22); d) paragonando le norme k · kF della H verso la <(Z) e della S verso la =(Z) non Capitolo 4. Sistemi lineari e precondizionatori 103 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm 30 ℑ(Z) S ||−||2 25 20 15 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.01 ||S||2 − ||ℑ(Z)||2 0 −0.01 −0.02 −0.03 −0.04 −0.05 1 1.5 2 4 4.5 8 x 10 Figura 4.19: Confronto tra le norme 2 della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 450 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 2−norm 18 16 ||−||2 14 12 10 ℜ(Z) H 8 6 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 −3 3.5 x 10 ||H||2 − ||ℜ(Z)||2 3 2.5 2 1.5 1 0.5 1 1.5 2 4 4.5 8 x 10 Figura 4.20: Confronto tra le norme 2 della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazzione 450 si notano variazioni significative, ma osservando la loro differenza, queste variazioni diventano più evidenti alle “basse” frequenze (vedi fig. 4.23, 4.24). Cubo 1152. Osservando i grafici risula che: a) Nel confronto delle norme k · k1 tra H e <(Z) e tra S e =(Z) non si notano Capitolo 4. Sistemi lineari e precondizionatori 104 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm 75 ℑ(Z) S ||−||∞ 70 65 60 55 50 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.15 ∞ −0.05 ||S|| − ||ℑ(Z)|| ∞ 0.1 0.05 0 −0.1 −0.15 −0.2 1 1.5 2 4 4.5 8 x 10 Figura 4.21: Confronto tra le norme infinito della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 450 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the ∞−norm 60 ||−||∞ 50 40 30 20 10 ℜ(Z) H 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.6 ∞ ||H|| − ||ℜ(Z)|| ∞ 0.5 0.4 0.3 0.2 0.1 0 −0.1 1 1.5 2 4 4.5 8 x 10 Figura 4.22: Confronto tra le norme infinito della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazione 450 variazioni rilevanti, ma se guardiamo la loro differenza, queste variazioni diventano più evidenti per kSk1 − k=(Z)k1 alle “alte” frequenze e per kHk1 − k<(Z)k1 alle “basse” frequenze (vedi fig. 4.25, 4.26); b) comparando le norme k · k2 della componente hermitiana H contro la parte Capitolo 4. Sistemi lineari e precondizionatori 105 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm 400 ℑ(Z) S 350 ||−|| F 300 250 200 150 100 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 −0.035 −0.04 F ||S|| − ||ℑ(Z)|| F −0.03 −0.045 −0.05 1 1.5 2 4 4.5 8 x 10 Figura 4.23: Confronto tra la norma di Frobenius della parte immaginaria di Z e della parte antihermitiana di Z relativa alla discretizzazione 450 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the Frobenius norm 70 60 ||−||F 50 40 30 ℜ(Z) H 20 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 1 ||H||F − ||ℜ(Z)||F 0.8 0.6 0.4 0.2 0 1 1.5 2 4 4.5 8 x 10 Figura 4.24: Confronto tra la norma di Frobenius della parte reale di Z e della parte hermitiana di Z relativa alla discretizzazione 450 reale di Z (<(Z)) e della componente antihermitiana S contro la parte immaginaria di Z (=(Z)) non si notano delle diversificazioni, ma se osserviamo la loro differanza, le variazioni risultano più chiare alle “basse” frequenze per kSk2 −k=(Z)k2 e insignificanti sia alle “basse” che alle “alte” frequenze per kHk2 − k<(Z)k2 (vedi fig. 4.27, 4.28); Capitolo 4. Sistemi lineari e precondizionatori 106 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 1−norm 45 ℑ(Z) S ||−||1 40 35 30 25 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.15 ||S||1 − ||ℑ(Z)||1 0.1 0.05 0 −0.05 −0.1 −0.15 −0.2 1 1.5 2 4 4.5 8 x 10 Figura 4.25: Confronto tra le norme 1 della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 1152 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 1−norm 25 ||−||1 20 15 ℜ(Z) H 10 5 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.3 ||H||1 − ||ℜ(Z)||1 0.25 0.2 0.15 0.1 0.05 0 −0.05 1 1.5 2 4 4.5 8 x 10 Figura 4.26: Confronto tra le norme 1 della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazione 1152 c) nel raffrontare le norme k · k∞ di H e <(Z) e di S e =(Z) non si riscontrano delle diversità, ma se sottraiamo k=(Z)k∞ a kSk∞ e k<(Z)k∞ a kHk∞ , queste diversità diventano più significative alle “basse” frequenze (vedi fig. 4.29, 4.30); d) paragonando le norme k · kF della H verso la <(Z) e della S verso la =(Z) non Capitolo 4. Sistemi lineari e precondizionatori 107 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm 20 ℑ(Z) S ||−||2 15 10 5 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 −4 x 10 2 ||S||2 − ||ℑ(Z)||2 1 0 −1 −2 −3 1 1.5 2 4 4.5 8 x 10 Figura 4.27: Confronto tra la norma 2 della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 1152 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 2−norm 7 ||−||2 6 5 4 3 2 ℜ(Z) H 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 −4 7 x 10 ||H||2 − ||ℜ(Z)||2 6 5 4 3 2 1 1 1.5 2 4 4.5 8 x 10 Figura 4.28: Confronto tra la norma 2 della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazione 1152 si notano variazioni significative, ma osservando la loro differenza, queste variazioni diventano più evidenti alle “basse” frequenze per kHkF − k<(Z)kF e insignificenti per kSkF − k=(Z)kF (vedi fig. 4.31, 4.32). Capitolo 4. Sistemi lineari e precondizionatori 108 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm 45 ℑ(Z) S ||−||∞ 40 35 30 25 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.02 ||S|| − ||ℑ(Z)|| ∞ 0 ∞ −0.02 −0.04 −0.06 −0.08 1 1.5 2 4 4.5 8 x 10 Figura 4.29: Confronto tra la norma infinito della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 1152 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the ∞−norm 25 ||−||∞ 20 15 ℜ(Z) H 10 5 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 0.3 ∞ ||H|| − ||ℜ(Z)|| ∞ 0.25 0.2 0.15 0.1 0.05 0 −0.05 1 1.5 2 4 4.5 8 x 10 Figura 4.30: Confronto tra la norma infinito della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazione 1152 4.5.4 Simulazione 4 La quarta simulazione grafica l’andamento in banda del più piccolo valore singolare σmin di Z in modo da localizzare le risonanze dell’ostacolo. Capitolo 4. Sistemi lineari e precondizionatori 109 Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm 400 ℑ(Z) S 350 ||−|| F 300 250 200 150 100 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 −0.014 F −0.022 ||S|| − ||ℑ(Z)|| −0.018 F −0.016 −0.02 −0.024 −0.026 −0.028 1 1.5 2 4 4.5 8 x 10 Figura 4.31: Confronto tra la norma di Frobenius della parte immaginaria di Z e la parte antihermitiana di Z relativa alla discretizzazione 1152 Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the Frobenius norm 30 ||−||F 25 20 ℜ(Z) H 15 10 5 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 ||H||F − ||ℜ(Z)||F 1.5 1 0.5 0 1 1.5 2 4 4.5 8 x 10 Figura 4.32: Confronto tra la norma di Frobenius della parte reale di Z e la parte hermitiana di Z relativa alla discretizzazione 1152 Cubo 450. Esaminando il grafico (4.33) si può notare che la curva del più piccolo valore singolare di Z(σmin (Z)) assume un valore prossimo allo zero, cioè ha dei picchi di risonanza significativi, nell’intorno delle frequenze f1 = 210M Hz f2 = 260M Hz e f3 = 340M Hz. Capitolo 4. Sistemi lineari e precondizionatori 110 1.5 σmin(Z) 1 0.5 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.33: Punti di risonanza relativi alla discretizzazione 450 Cubo 1152. Come si può osservare dalla figura (4.34), per l’oggetto con discretizzazione n = 1152 le cuspidi più pronunciate le abbiamo alle seguenti frequenze f1 = 210M Hz f2 = 260M Hz e f3 = 340M Hz. 0.5 0.45 0.4 0.35 σmin(Z) 0.3 0.25 0.2 0.15 0.1 0.05 0 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.34: Punti di risonanza relativi alla discretizzazione 1152 Capitolo 4. Sistemi lineari e precondizionatori 4.5.5 111 Simulazione 5 L’M-file spettro.m traccia gli autovalori della matrice delle impedenze Z prima e dopo il precondizionamento sulla base di una coppia di frequenze (f1 ' 150M Hz e f2 ' 440M Hz) scelte in B. Cubo 450. Da come si evince dai grafici si deduce che: a) alle “basse” frequenze (vedi fig.4.35 ), nel caso di precodizionamento, gli autovalori della matrice delle impedenze Z sono clusterizzati tutti nell’ intorno del punto (1, 0) del piano complesso, mentre in assenza di precondizionamento gli autovalori sono sparpagliati su tutto il piano; b) alle “alte” frequenze (vedi fig. 4.36)invece, anche in presenza di precondizionamento, gli autovalori non sono più concentrati nell’ intorno del punto (1, 0) ma hanno comunque una regolarità a differenza del caso di non precondizionamento. Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH) 10 5 0 Imaginary axis −5 −10 −15 −20 σ(Z) σ(S−1 ⋅ Z) −25 −30 −1 0 1 2 3 4 Real axis 5 6 7 8 9 Figura 4.35: Spettro di Z alle “basse” frequenze alla discretizzazione 450 Cubo 1152. In maniera del tutto analoga al cubo 450, abbiamo per lo scatteratore 1152 i successivi grafici (4.37, 4.38): 4.5.6 Simulazione 6 Con la sesta simulazione si mettono a confronto le curve della norma k · k2 dei residui computati dal GMRES in presenza ed in assenza di precondizionamento. Nello specifico, si comparano le prestazioni di S e di alcuni precondizionatori standard, quali ILU(Z) e diag(diag (Z)). Capitolo 4. Sistemi lineari e precondizionatori 112 Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH) 10 Imaginary axis 5 0 −5 −10 σ(Z) σ(S−1 ⋅ Z) −15 −2 0 2 4 6 8 10 12 14 16 Real axis Figura 4.36: Spettro di Z alle “alte” frequenze alla discretizzazione 450 Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH) 5 Imaginary axis 0 −5 −10 σ(Z) σ(S−1 ⋅ Z) −15 −20 −0.5 0 0.5 1 1.5 Real axis 2 2.5 3 3.5 Figura 4.37: Spettro di Z alle “basse” frequenze alla discretizzazione 1152 Cubo 450. Le considerazioni che si possono fare sui grafici sono le seguenti: a) la curva dei residui, computata dal GMRES nel caso di sistema non precondizionato, alle “basse” frequenze (vedi fig. 4.39) si arresta dopo 100 iterazioni invece, alle “alte” frequenze (vedi fig. 4.40) il numero di passi aumenta fino a raggiungere un valore di circa 180; Capitolo 4. Sistemi lineari e precondizionatori 113 Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH) 6 4 2 Imaginary axis 0 −2 −4 σ(Z) −6 σ(S−1 ⋅ Z) −8 −10 −12 −1 0 1 2 3 Real axis 4 5 6 7 Figura 4.38: Spettro di Z alle “alte” frequenze alla discretizzazione 1152 b) nel caso di precondizionamento tramite la componente antihermitiana S le iterazioni necessarie per raggiungere una condizione di terminazione sono circa 12 alle “basse” frequenze (vedi fig. 4.39) mentre, alle “alte” frequenze (vedi fig. 4.40) sono circa 40; c) per risolvere il sistema dei momenti ZI = V con un precondizionatore di tipo DIAG(Z) sono indispensabili alle “basse” frequenze (vedi fig. 4.39) un numero di step circa pari a 80, invece alle “alte” frequenze (vedi fig. 4.40) il numero cresce fino a toccare le 180 iterazioni; d) nel caso di precondizionamento mediante ILU(Z) si distinguono due casi: ¨ quando il valore di droptol è pari a 0.1, il numero di iterazioni che servono ad arrivare ad una condizione di terminazione è, alle “basse” frequenze, di circa 220 (vedi fig. 4.39) invece, alle “alte” frequenze è di circa 350(vedi fig. 4.40); ¨ quando il valore di droptol è uguale a 0.025, la curva dei residui si arresta a cica 220 iterazioni alle “basse” frequenze (vedi fig. 4.42) mentre, alle “alte” frequenze si ferma a circa 130 passi (vedi fig. 4.43). Cubo 1152. Dall’esame dei grafici si rileva che: a) la curva dei residui, computata dal GMRES nel caso di sistema non precondizionato, alle “basse” frequenze (vedi fig. 4.45) si arresta dopo 150 iterazioni invece, alle “alte” frequenze (vedi fig. 4.46) il numero di passi aumenta fino a raggiungere un valore di circa 220; Capitolo 4. Sistemi lineari e precondizionatori 114 Cube 450 − Residual norms computed by the GMRES at frequency f = 149896229 Hz 0.35 0.3 0.25 Residual 2−norm 0.2 No preco 0.15 S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z,0.1⋅ max(|Z|) 0.1 0.05 0 −0.05 0 50 100 150 200 250 Iterative step Figura 4.39: Residuo alle “basse” frequenze con valore di droptol pari a 0.1 relativo alla discretizzazione 450 Cube 450 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz 0.35 0.3 0.25 Residual 2−norm 0.2 No preco 0.15 S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z,0.1⋅ max(|Z|) 0.1 0.05 0 −0.05 0 50 100 150 200 Iterative step 250 300 350 Figura 4.40: Residuo alle “alte” frequenze con valore di droptol pari a 0.1 relativo alla discretizzazione 450 b) nel caso di precondizionamento tramite la componente antihermitiana S le iterazioni necessarie per raggiungere una condizione di terminazione sono circa 10 alle “basse” frequenze (vedi fig. 4.45) mentre, alle “alte” frequenze (vedi fig. 4.46) sono circa 30; Capitolo 4. Sistemi lineari e precondizionatori 115 S = 0.5⋅(Z−ZH) No preco 0.35 0.1 1.49896e+008 4.42946e+008 0.2 0.15 0.1 0.06 0.04 0.02 0.05 0 1.49896e+008 4.42946e+008 0.08 Residual 2−norm Residual 2−norm 0.3 0.25 0 50 100 Iterative step 150 0 200 0 10 30 40 ILU(Z,0.1⋅ max(|Z|)) diag(Z) 0.2 0.12 1.49896e+008 4.42946e+008 0.15 1.49896e+008 4.42946e+008 0.1 Residual 2−norm Residual 2−norm 20 Iterative step 0.1 0.05 0.08 0.06 0.04 0.02 0 0 50 100 Iterative step 150 200 0 0 100 200 Iterative step 300 400 Figura 4.41: Residuo con valore di droptol pari a 0.1 relativo alla discretizzazione 450 Cube 450 − Residual norms computed by the GMRES at frequency f = 149896229 Hz 0.35 0.3 0.25 Residual 2−norm 0.2 No preco 0.15 S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z) 0.1 0.05 0 −0.05 0 50 100 150 200 250 Iterative step Figura 4.42: Residuo alle “basse” frequenze con valore di droptol pari a 0.025 relativo alla discretizzazione 450 c) per risolvere il sistema dei momenti ZI = V con un precondizionatore di tipo DIAG(Z) sono indispensabili alle “basse” frequenze (vedi fig. 4.45) un numero di step circa pari a 120, invece alle “alte” frequenze (vedi fig. 4.46) il numero cresce fino a toccare le 210 iterazioni; d) nel caso di precondizionamento mediante ILU(Z) si distinguono due casi: Capitolo 4. Sistemi lineari e precondizionatori 116 Cube 450 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz 0.35 0.3 0.25 Residual 2−norm 0.2 No preco 0.15 S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z) 0.1 0.05 0 −0.05 0 20 40 60 80 100 120 Iterative step 140 160 180 200 Figura 4.43: Residuo alle “alte” frequenze con valore di droptol pari a 0.025 relativo alla discretizzazione 450 S = 0.5⋅(Z−ZH) No preco 0.35 0.1 1.49896e+008 4.42946e+008 0.2 0.15 0.1 0.06 0.04 0.02 0.05 0 1.49896e+008 4.42946e+008 0.08 Residual 2−norm Residual 2−norm 0.3 0.25 0 50 100 Iterative step 150 0 200 0 10 30 40 ILU(Z,0.1⋅ max(|Z|)) diag(Z) 0.2 0.35 0.3 1.49896e+008 4.42946e+008 0.15 Residual 2−norm Residual 2−norm 20 Iterative step 0.1 0.05 1.49896e+008 4.42946e+008 0.25 0.2 0.15 0.1 0.05 0 0 50 100 Iterative step 150 200 0 0 50 100 150 Iterative step 200 250 Figura 4.44: Residuo con valore di droptol pari a 0.025 relativo alla discretizzazione 450 ¨ quando il valore di droptol è pari a 0.1, il numero di iterazioni che servono ad arrivare ad una condizione di terminazione è, alle “basse” frequenze di circa 370 (vedi fig. 4.45) invece, alle “alte” frequenze è di circa 680(vedi fig. 4.46); ¨ quando il valore di droptol è uguale a 0.025, la curva dei residui si arresta a cica Capitolo 4. Sistemi lineari e precondizionatori 117 220 iterazioni alle “basse” frequenze (vedi fig. 4.48) mentre, alle “alte” frequenze si ferma a circa 270 passi (vedi fig. 4.49). Cube 1152 − Residual norms computed by the GMRES at frequency f = 149896229 Hz 0.2 Residual 2−norm 0.15 No preco 0.1 H S = 0.5 ⋅ (Z − Z ) diag(Z) ILU(Z) 0.05 0 −0.05 0 50 100 150 200 Iterative step 250 300 350 400 Figura 4.45: Residuo alle “basse” frequenze con valore di droptol pari a 0.1 relativo alla discretizzazione 1152 Cube 1152 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz 0.4 0.35 0.3 Residual 2−norm 0.25 0.2 No preco S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z) 0.15 0.1 0.05 0 −0.05 0 100 200 300 400 Iterative step 500 600 700 Figura 4.46: Residuo alle “alte” frequenze con valore di droptol pari a 0.1 relativo alla discretizzazione 1152 Capitolo 4. Sistemi lineari e precondizionatori 118 S = 0.5⋅(Z−ZH) No preco 0.25 0.2 Residual 2−norm Residual 2−norm 1.49896e+008 4.42946e+008 0.2 0.15 0.1 0.05 0 0 50 100 150 Iterative step 200 1.49896e+008 4.42946e+008 0.15 0.1 0.05 0 250 0 10 30 40 ILU(Z,0.1⋅ max(|Z|)) diag(Z) 0.12 0.4 Residual 2−norm 1.49896e+008 4.42946e+008 0.1 Residual 2−norm 20 Iterative step 0.08 0.06 0.04 1.49896e+008 4.42946e+008 0.3 0.2 0.1 0.02 0 0 50 100 150 Iterative step 200 250 0 0 200 400 Iterative step 600 800 Figura 4.47: Residuo con valore di droptol pari a 0.1 relativo alla discretizzazione 1152 Cube 1152 − Residual norms computed by the GMRES at frequency f = 149896229 Hz 0.2 Residual 2−norm 0.15 No preco 0.1 S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z) 0.05 0 −0.05 0 50 100 150 200 250 Iterative step Figura 4.48: Residuo alle “basse” frequenze con valore di droptol pari a 0.025 relativo alla discretizzazione 1152 4.5.7 Simulazione 7 Con la settima simulazione si effettua l’analisi computazionale del GMRES per la soluzione del sistema dei momenti, prima e dopo il precondizionamento. Capitolo 4. Sistemi lineari e precondizionatori 119 Cube 1152 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz 2.5 Residual 2−norm 2 1.5 No preco S = 0.5 ⋅ (Z − ZH) diag(Z) ILU(Z) 1 0.5 0 0 50 100 150 Iterative step 200 250 300 Figura 4.49: Residuo alle “alte” frequenze con valore di droptol pari a 0.025 relativo alla discretizzazione 1152 S = 0.5⋅(Z−ZH) No preco 0.25 0.2 Residual 2−norm Residual 2−norm 1.49896e+008 4.42946e+008 0.2 0.15 0.1 0.05 0 0 50 100 150 Iterative step 200 1.49896e+008 4.42946e+008 0.15 0.1 0.05 0 250 0 30 40 2.5 1.49896e+008 4.42946e+008 1.49896e+008 4.42946e+008 2 Residual 2−norm 0.1 Residual 2−norm 20 Iterative step ILU(Z,0.1⋅ max(|Z|)) diag(Z) 0.12 0.08 0.06 0.04 1.5 1 0.5 0.02 0 10 0 50 100 150 Iterative step 200 250 0 0 100 200 Iterative step 300 Figura 4.50: Residuo con valore di droptol pari a 0.025 relativo alla discretizzazione 1152 Cubo 450. Con riferimento alla figura (vedi fig: 4.51) che descrive, rispettivamente, l’andamento in frequenza del numero complessivo N (f ) ed Nr (f ) delle iterazioni necessarie alla ²-convergenza (² = 1e-6) del GMRES della sua versione ripartita GMRES(21), si osserva che: Capitolo 4. Sistemi lineari e precondizionatori 120 a) N (f ) ed Nr (f ) sono entrambi minimizzati sulla banda nel caso in cui il sistema dei momenti venga precondizionato utilizzando la componente antihermitiana S della matrice delle impedenze Z. Inoltre, lo scarto con gli analoghi valori registrati ora in assenza di precondizionamento ora ammettendo il sistema precondizionato mediante ILU(Z) oppure diag(diag (Z)) è mediamente inferiore di un fattore 0.1, quindi di un intero ordine di grandezza; b) l’osservazione di cui al punto precedente è tanto più valida se il paragone è riferito, in particolare, al precondizionatore ILU(Z) per la variante ripartita GMRES(21). In tal caso, infatti, lo scarto osservato cresce, mediamente, di ben tre ordini di grandezza; c) le risonanze producono, in condizioni di ripartenza, un’improvvisa degrado delle prestazioni del metodo, che si manifesta nella presenza di cuspidi piuttosto eccentuate nell’andamento della funzione Nr (f ) in assenza di precondizionamento o nel caso di precondizionamento diagonale. Un effetto imprevisto e assai desiderabile dell’impiego di S nella fase di precondizionamento è legato al fatto che dette cuspidi vengono completamente spianate, così da mantenere pressoché costante (quindi stabilizzare) il trend di Nr (f ) tanto più alle “basse” frequenze (f < 300 MHz). D’altra parte, dall’osservazione della figura (), che restituisce l’andamento in banda del flag di convergenza del metodo, risulta che, in tutti i casi esaminati, il GMRES ha successo nell’abbattere la norma euclidea dell’errore residuale al di sotto della soglia stabilita (² = 1e-6) entro il numero massimo m di iterazioni previste (450). Altrettanto non può dirsi, invece, per la versione ripartita GMRES(21), per cui il flag oscilla tra i valori 0 (convergenza) ed 1 (mancata convergenza), salvo che il sistema venga precondizionato a mezzo di, là dove, viceversa, la convergenza è sempre garantita. 4.5.8 Simulazione 8 Cubo 450. A fronte dei notevolissimi vantaggi, conmportati dal precondizionamento sul numero complessivo N (f ) delle iterazioni, i risultati non sono altrettanto positivi per l’andamento t(f ) dei tempi di calcolo in banda, per cui si nota un lieve ritardo nel processo di convergenza in presenza di precondizionamento, non dovuto alla qualità teorica del precondizionatore (almeno alle “basse” frequenze) bensì alla particolare implementazione della routine di calcolo che, itera sulla soluzione del sistema S −1 ZI = S −1 V . Cubo 1152. Analogamente a quanto detto per il cubo 450, otteniamo, per il cubo 1152, il seguente grafico per i tempi di convergenza del metodo iterativo: Capitolo 4. Sistemi lineari e precondizionatori 121 Iterations required by the GMRES to converge (n = 450) 3 10 Iterations 2 10 1 No ℑ(Z) diag ILU 10 0 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Iterations required by the GMRES(21) to converge (n = 450) 4 10 No ℑ(Z) diag ILU 3 Iterations 10 2 10 1 10 0 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.51: Iterazioni richieste dal GMRES e dalla sua versione ripartita per convergere relative alla discretizzazione 450 No preco GMRES − Convergence flags with and without preconditioning (n = 450) 3 2 1 0 ILU(Z) 1 diag(diag(Z)) 2 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 3 2 1 0 1 1.5 2 4 4.5 8 x 10 3 2 1 0 1 ℑ(Z) 1.5 1.5 2 4 4.5 8 x 10 3 2 1 0 1 1.5 2 4 4.5 8 x 10 Figura 4.52: Flag di convergenza del GMRES relativo alla discretizzazione 450 4.6 Conclusioni L’obiettivo del presente capitolo è stato valutare, in ambiente MATLAB, le prestazioni di un semplice precondizionatore algebrico, definito dalla componente antihermitiana S della matrice delle impedenze Z, in relazione al problema numerico della risoluzione del sistema lineare ZI = V prodotto dalla discretizzazione dell’equazione integrale del Capitolo 4. Sistemi lineari e precondizionatori 122 No preco GMRES(21) − Convergence flags with and without preconditioning (n = 450) 3 2 1 0 ILU(Z) 1 1.5 diag(diag(Z)) 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 3 2 1 0 1 1.5 2 4 4.5 8 x 10 3 2 1 0 1 ℑ(Z) 2 1.5 2 4 4.5 8 x 10 3 2 1 0 1 1.5 2 4 4.5 8 x 10 Figura 4.53: Flag di convergenza del GMRES ripartito relativo alla discretizzazione 450 Time (in sec) Time required by the GMRES to converge (n = 450) No ℑ(Z) diag ILU 0 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Time required by the GMRES(21) to converge (n = 450) 2 Time (in sec) 10 No ℑ(Z) diag ILU 1 10 0 10 −1 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.54: Tempi relativi alla discretizzazione 450 campo elettrico (EFIE) attraverso l’implementazione della variante Galerkin RWG del metodo dei momenti, mediante l’utilizzo di alcune procedure iterative. In particolare, si è focalizzata l’attenzione sull’impiego del metodo dei residui minimi generalizzati (GMRES) e della sua versione ripartita (GMRES(r)). Le simulazioni al calcolatore sono state effettuate con riferimento allo scattering Capitolo 4. Sistemi lineari e precondizionatori 123 Time required by the GMRES to converge (n = 1152) 2 10 Time (in sec) No preco S = 0.5(Z−ZH) preco 1 10 0 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Time required by the GMRES(33) to converge (n = 1152) 3 10 Time (in sec) No preco 2 S = 0.5(Z−ZH) preco 10 1 10 0 10 1 1.5 2 2.5 3 Frequency (in Hz) 3.5 4 4.5 8 x 10 Figura 4.55: Tempi relativi alla discretizzazione 450 di un’onda piana monocromatica di frequenza f da parte di un conduttore cubico elettrico ideale di spigolo unitario per due diversi livelli di discretizzazione (n = 450 e n = 1152). L’analisi è stata estesa a 500 frequenze equidistribuite nella banda B = 130 ÷ 450 MHz. In ciascun caso, la soluzione iterativa del sistema dei momenti è stata studiata sia assenza che in presenza di precondizionamento. Nello specifico, le prestazioni garantite da S sono state stimate per confronto con le performance di altri due precondizionatori particolarmente utilizzati nella letteratura, i.e. ILU(Z) e diag(diag (Z)). Allo scopo dichiarato, sono state predisposte alcune routine Matlab con l’obiettivo precipuo di far emergere alcune proprietà caratteristiche del sistema ZI = V. Fra queste, le frequenze di risonanza della matrice delle impedenze Z, le norme (euclidea, di Frobenius...) delle sue componenti hermitiana H e antihermitiana S, il suo spettro riportato sul piano di Argand-Gauss, il costo computazionale del GMRES (nelle sue due versioni, base e ripartita) espresso in termini di iterazioni e tempi di calcolo necessari a garantirne, eventualmente, la convergenza attraverso l’abbattimento progressivo dell’errore residuo. Dalla disamina delle simulazioni eseguite è possibile affermare che, per tutte le frequenze inferiori ad una certa frequenza di taglio f0 , oltre la quale la condizione kSk2 À kHk2 non è più soddisfatta, il precondizionatore antihermitiano S si dimostra migliore degli altri presi in considerazione, in termini tanto di convergenza residuale e costi computazionali quanto di capacità di addensamento dello spettro attorno al Capitolo 4. Sistemi lineari e precondizionatori 124 punto (1, 0) del piano complesso (vedi§ 4.4). I risultati, tuttavia non sono altrettanto positivi per l’andamento dei tempi di calcolo in banda, che manifestano un lieve ritardo nel processo di convergenza, comunque non riconducibile alle previsioni teoriche della qualità del precondizionatore, ma piuttosto alla particolare implementazione MATLAB buil-in della routine di calcolo, che ricorre sulla soluzione del sistema lineare ZI = V in presenza di precondizionamento. Tra le prospettive future di ricerca si intravedono i) la possibilità di sviluppare metodi e algoritmi alternativi a quelli canonici, in grado di sfruttare intensivamente il dato sperimentale per cui la disuguaglianza kSk À kHk è soddisfatta su una banda più ampia di quella limitata alla frequenza di taglio f0 , quando, per esempio, k · k = k · k∞ , anziché k · k = k · k2 ; ii) l’opportunità di ottimizzare il ciclo di calcolo che implementa la fase di precondizionamento del metodo, per migliorarne complessivamente le prestazioni d’insieme. Appendice A Formulazioni deboli Paul A. M. Dirac ne aveva intuito l’utilità [45], ma si deve a Laurent Schwartz (medaglia Fields nel 1950) la sua formalizzazione [46] [47]: ci stiamo riferendo al concetto di soluzione debole di un’equazione differenziale1 . A.1 L’equazione del calore A titolo esemplificativo, immaginiamo di voler determinare tutte le funzioni u(·) : R2 → R derivabili con continuità (al primo ordine) che risolvono l’equazione unidimensionale del calore. I.e., tali per cui ∂ ∂ u(x, t) + u(x, t) = 0, ∂x ∂t per ogni (x, t) ∈ R2 (A.1) Moltiplichiamo entrambi i membri della (A.1) per un’arbitraria funzione di test ϕ(·) : R2 → R di classe C0∞ (cioè liscia e a supporto compatto2 ) e, quindi, integriamo membro a membro, per ottenere che ˆ ∞ ˆ ∞ ˆ ∞ ˆ ∞ ∂u(x, t) ∂u(x, t) dx ϕ(x, t) dt + dx ϕ(x, t) dt = 0 ∂x ∂t −∞ −∞ −∞ −∞ (A.2) Invoncando, quindi, il teorema di Fubini per intercambiare, dove necessario, l’ordine di integrazione e integrando, di conseguenza, per parti, segue che ˆ ∞ ˆ ∞ ˆ ∞ £ ¤∞ ∂ϕ(x, t) dx+ ϕ(x, t) u(x, t) x=−∞ dt − dt u(x, t) ∂x −∞ −∞ −∞ ˆ ∞ ˆ ∞ ˆ ∞ £ ¤∞ ∂ϕ(x, t) + ϕ(x, t) u(x, t) t=−∞ dx − dx u(x, t) dt = 0 ∂t −∞ −∞ −∞ 1: 2: poco importa se ordinaria o alle derivate parziali. i.e., tale che ϕ(x, t) = 0 fuori da un qualche compatto Ω ( R2 . (A.3) Appendice A. Formulazioni deboli 126 £ ¤∞ £ ¤∞ Sennonché ϕ(x, t) u(x, t) x=−∞ = ϕ(x, t) u(x, t) t=−∞ = 0, dal momento che, per costruzione, esiste r > 0 tale che ϕ(x, t) = 0, se max(|x|, |t|) > r. Perciò ˆ ∞ ˆ ∞ ˆ ∞ ˆ ∞ ∂ϕ(x, t) ∂ϕ(x, t) dx − dx u(x, t) dt = 0 − dt u(x, t) ∂x ∂t −∞ −∞ −∞ −∞ (A.4) In pratica, abbiamo stabilito che, là dove u(·) è derivabile con continuità, l’equazione (A.1) implica la (A.4), per ogni scelta della funzione ϕ(·) di test. L’essenza del concetto di soluzione debole, a questo punto, è nell’osservazione che esistono funzioni u(·) : R2 → R non differenziabili per cui, comunque, la (A.4) è ancora soddisfatta, qual che sia ϕ(·) : R2 → R, purché liscia e a supporto compatto3 . Sicché ogni soluzione della (A.4) è detta una soluzione debole della (A.1). L’idea generale che fa seguito all’esempio precedente è che, di fronte all’occorrenza di determinare ogni funzione u(·) di un opportuno spazio funzionale che sia soluzione di un’assegnata equazione differenziale, è possibile riformulare il problema utilizzando un adeguato insieme di funzioni di test ϕ(·), di modo che le derivazioni “applicate” ad u(·) nell’equazione originale vengano “trasferite” su ϕ(·), in tutto o in parte, mediante una o più integrazioni successive. Più formalmente, ristretto il campo di interesse allo spazio lineare Lloc 1 (Ω) sul campo F (reale o complesso) delle funzioni a valori in F definite q.o. in un aperto non vuoto Ω ⊆ Rn ed ivi localmente integrabili secondo Lebesgue4 , introduciamo l’insieme C0k (Ω) delle funzioni di test ϕ(·) : Ω → F a supporto compatto in Ω di classe C k (Ω), per cui k ∈ N ∪ {∞}. Quindi, dati un insieme finito A ⊆ Nn di multi-indici di altezza h := maxα∈A kαk1 ≤ k e un set {ηα (·)}α∈A di funzioni sufficientemente regolari5 , consideriamo l’operatore differenziale (lineare) T [·] : C h (Ω) → C 0 (Ω) : u(·) 7→ X ηα (·) ∂ α u(·) (A.5) α∈A Allora diremo che una funzione û(·) ∈ Lloc 1 (Ω) è una soluzione debole o generalizzata dell’equazione differenziale (lineare) T [u] = 0 qualora avvenga che ˆ û(r) T ∗ [ϕ](r) dr = 0 ∀ϕ(·) ∈ C0k (Ω) : (A.6) Ω dove l’integrazione deve intendersi nel senso di Lebesgue e T ∗ [·] è il cosiddetto aggiunto formale di T [·], cioè l’operatore differenziale (lineare) C h (Ω) → C 0 (Ω) : u(·) 7→ X ¡ ¢ (−1)kαk1 ∂ α ηα (·) u(·) (A.7) α∈A 3: fra le altre, ad es., la funzione u(·) : R2 → R : (x, t) 7→ |x − t|, come è facile verificare, integrando separatamente sulle due regioni del piano al di sopra e al di sotto della retta x = t. 4 : cioè integrabili (secondo Lebesgue) in ogni compatto K ⊆ Ω. 5 : di fatto, per ogni α ∈ A, η (·) dev’essere almeno di classe C α (Ω). α Appendice A. Formulazioni deboli 127 È notevole osservare come l’operatore T ∗ [·] possa essere, di fatto, “costruito” a partire da T [·], moltiplicando i due membri dell’equazione T [u] = 0 per una generica ϕ(·) ∈ C0k (Ω) e integrando ripetutamente per parti su Ω, finché tutte le derivazioni applicate ad u(·) non sono “trasferite” su ϕ(·), posto di considerare che ogni contributo di bordo prodotto nel processo è nullo in virtù delle proprietà di compattezza riguardo al supporto della funzione di test. Se, dunque, una soluzione “in senso classico” (o soluzine forte) dell’equazione T [u] = 0 è una qualsiasi funzione û(·) : Ω → F, derivabile h volte6 , tale che T [û](x) = 0, per ogni x ∈ Ω, una soluzione debole è una qualunque funzione û(·) ∈ Lloc 1 (Ω) che soddisfa7 , invece, la formulazione debole (A.6). D’altronde, bisogna sia chiaro che la nozione di soluzione debole di un’equazione alle derivate è labile, perché dipende, in ultima analisi, da tutta una serie di postulati8 e assunzioni preliminari, che variano di caso in caso e di caso in caso sono stabiliti niente più che per “questioni di comodo” - come, ad esempio, per assicurare l’unicità e l’esistenza di una soluzione all’equazione differenziale di turno entro uno spazio di funzioni, caratterizzate da precise proprietà, che si pretendono garantite a priori. In particolare, è evidente, in questo senso, la centralità del ruolo rivestito dalla scelta originale delle funzioni di test. Per maggiore chiarimento, supponiamo, infatti, di voler risolvere in un aperto non vuoto Ω ⊆ Rn l’equazione di Helmholtz n-dimensionale ∆u(r) + k2 u(r) = 0, con ∆u(r) := n X ∂u(r) , ∂xi i=1 (A.8) dove k ∈ C e =(k) ≥ 0. In linea di principio, potremmo attaccare “frontalmente” il problema e chiederci se esiste una soluzione forte alla (A.8). I.e., una funzione û(·) : Ω → C di classe C 2 (Ω) per cui ∆û(r) + k2 û(r) = 0 e siano verificate opportune condizioni aggiuntive al contorno tali da garantirne l’unicità. In genere, però, questo è più difficile che determinare eventuali soluzioni deboli dell’equazione (A.8) e dimostrare a posteriori che godono di un certo grado di regolarità. Per esempio, che sono di classe C 2 (Ω). L’unico “principio” da rispettare, evidentemente, è che ogni soluzione forte della (A.8) sia pure una sua soluzione debole. Così, ad esempio, introducendo l’aggiunto formale (A.7) dell’operatore di Helmholtz, la soluzione della (A.8) si può riportare alla determinazione di ogni funzione u(·) : Ω → C localmente integrabile (alla Lebesgue) 6: non necessariamente derivabile con continuità. si badi che ogni soluzione forte è anche una soluzione debole, ma non viceversa. 8 : qualsiasi affermazione non dimostrata e non evidente che viene comunque presa per vera 7: in modo da fondare una dimostrazione o un procedimento altrimenti incongruenti. Appendice A. Formulazioni deboli tale che, per qualsiasi ϕ(·) ∈ C02 (Ω) a valori in C: ˆ ¡ ¢ u(x, y) ∆ϕ(x, y) + k2 ϕ(x, y) dx dy 128 (A.9) Ω Oppure, in alternativa, si possono “stringere” le ipotesi a priori sulle soluzioni della formulazione debole a cui ridurre la (A.8) e cercare, per esempio, tutte le funzioni u(·) ∈ L1,loc (Ω), derivabili q.o. in Ω e tali che ∇u(·) ∈ L1,loc (Ω), per cui, comunque scelta ϕ(·) ∈ C01 (Ω) a valori in C, valga che ˆ ¡ ¢ − h∇u(x, y), ∇ϕ(x, y)i2 + k2 u(x, y)ϕ(x, y) dx dy = 0 (A.10) Ω In ambedue le circostanze, la transizione dalla formulazione forte alla formulazione debole si esplica attraverso un numero di integrazioni per parti, che “spostano” alcune derivazioni dall’incognita alle funzioni di test. E non è affatto scontato, per lo meno a priori, se le due formulazioni (A.9) e (A.10) condividano le stesse soluzioni e se vi sia, più in generale, una sorta di ordinamento (per inclusione) tra le soluzioni di una certa varietà di formulazioni (deboli) egualmente plausibili per un’assegnata classe di equazioni. Anzi la questione è tanto difficile che per risponderle c’è bisogno di sviluppare un’intera teoria, introducendo gli spazi di Sobolev e le distribuzioni. A.2 Derivate deboli La nozione di derivata9 come limite puntuale di un rapporto incrementale è inadeguata in molte applicazioni di rilevante interesse pratica per la fisica e l’ingegneria. Specialmente se di mezzo vi è la soluzione di un’equazione differenziale. Da qui l’introduzione del concetto di derivata debole, preliminare alla presentazione degli spazi di Sobolev e alla teoria delle distribuzione. A.2.1 Definizione e alcune proprietà Formalmente, dati un aperto U ⊆ Rn e una coppia di funzioni u(·), v(·) : U → F localmente integrabili10 , diciamo che v(·) è una derivata debole (o generalizzata) di u(·) rispetto alla coordinata xi , per qualche i ∈ 1 : n, se ˆ ˆ ∂ϕ v(x)ϕ(x) dx u(x) (x) dx = − ∀ϕ(·) ∈ C0∞ (U ; F) : ∂xi U U 9: 10 : cioè della cosiddetta derivata forte o ordinaria. ovvero integrabili in ogni compatto contenuto in U . (A.11) Appendice A. Formulazioni deboli 129 dove F è il campo reale o complesso e C0∞ (Ω; F) è lo spazio delle funzioni Ω → F di classe C ∞ a supporto compatto in Ω (i.e., nulle fuori da ogni compatto K ⊆ Ω). Nel ∂u qual caso, scriviamo v(·) = uxi (·) oppure v(·) = (·). ∂xi Fra le conseguenze elementari più rilevanti della definizione appena posta, c’è che, se v1 (·), v2 (·) ∈ Lloc 1 (U ; F) sono entrambe delle derivate deboli rispetto ad xi della funzione u(·), allora v1 (x) = v2 (x) quasi ovunque (q.o.)11 . Allora, introducendo l’equivalenza12 per cui due funzioni U → F sono identificate, là dove q.o. uguali, si dimostra che, qualora esista, la derivata debole uxi (·) è univocamente determinata in Lloc 1 (U ; F). Ed è uguale q.o. alla derivata parziale ordinaria di u(·) rispetto a xi , nel caso che quest’ultima sia q.o. definita in U . Da cui ci viene l’importante conclusione che le derivate deboli costituiscono, di fatto, una generalizzazione tout-court delle derivate forti. D’altronde, il concetto di derivazione debole si può inquadrare sotto un’ottica leggermente diversa nel principio, benché del tutto equivalente nella sostanza, forse più utile dal “punto di vista dei calcoli”. In dettaglio, essendo i ∈ 1 : n, ipotizziamo che, a meno di un insieme X ⊆ Ω di misura nulla13 , u(·) eguagli una funzione û(·) : Ω → F che, q.o.14 nella proiezione Ωi di Ω sul piano coordinato xi = 0, sia localmente assolutamente continua (AC) rispetto a xi 15 . Nel qual caso è garantita [48] l’esistenza (q.o. in Ω) della derivata parziale ordinaria di û(·) rispetto a xi , e che questa coincide q.o. con la derivata debole di u(·). A questo punto, le derivate di ordine superiore sono definite per induzione e si scopre che, nel caso multidimensionale (n ≥ 2), le derivate miste sono q.o. indipendenti dall’ordine di derivazione. Da cui discende che, se i, j ∈ 1 : n e la derivata seconda ∂u (·) esiste in senso generalizzato, allora ∂xi ∂xj ∂2u ∂2u (r) = (r), ∂xi ∂xj ∂xj ∂xi q.o. in U (A.12) Il che costituisce una significativa estensione del più classico teorema di Schwarz11 : 12 : cioè l’insieme dei punti dove differiscono possiede misura nulla secondo Lebesgue. dato un insieme X 6= ∅ e una relazione r ⊆ X × X, si dice che r è un’equivalenza su X se è riflessiva, simmetrica e transitiva. I.e., se avviene che, comunque siano scelti x, y, z ∈ X: i) (x, x) ∈ r: ii) (x, y) ∈ r sse (y, x) ∈ X; iii) (x, z) ∈ X, se (x, y), (y, z) ∈ X. 13 : nel senso della misura di Lebesgue in Rn . 14 : nel senso della misura di Lebesgue in Rn−1 . 15 : cioè se, quasi per ogni (x̄ , . . . , x̄ 1 i−1 , x̄i+1 , . . . , x̄n ) ∈ Ωi , la funzione coordinata ûi (·) : [a, b] → R : x 7→ u(x̄1 , . . . , x̄i−1 , x, x̄i+1 , . . . , x̄n ) è AC, qualunque sia [a, b] ⊆ R tale che (x̄1 , . . . , x̄i−1 , x, x̄i+1 , . . . , x̄n ) ∈ Ω, se x ∈ [a, b]. Appendice A. Formulazioni deboli 130 Clairaut [49], per cui si stabilisce che le derivate forti parziali del secondo ordine di una funzione U → R di classe C 2 (U ) sono uguali (ovunque) in U . D’altro canto, le derivate deboli sono il primo passo verso la definizione degli spazi di Sobolev, che costituiscono (assieme alle distribuzioni) l’ambiente ideale in cui sistematicizzare la risoluzione delle equazioni differenziali dell’elettromagnetismo. Prima di procedere in questa direzione, tuttavia, è utile soffermarsi su qualche esempio, per consolidare quanto appreso fino a qui. A.2.2 Un caso concreto La funzione del valore assoluto u(·) : R → R : x 7→ |x|, che non è derivabile in senso ordinario in x = 0 (dove, infatti, presenta un punto angoloso), possiede una derivata debole v(·) ∈ Lloc 1 , detta funzione segno e indicata con sgn(·), espressa dalla legge di corrispondenza 1 v(·) : R → R : x 7→ 0 −1 se x > 0 (A.13) se x = 0 se x < 0 Banalmente, infatti, accade che, comunque scelta una funzione ϕ(·) ∈ C0∞ (R) a supporto nell’intervallo [a, b] ˆ ˆ |x| · ϕ(x) dx = − R 0 ˆ +∞ x · ϕ0 (x) dx + −∞ x · ϕ0 (x) dx (A.14) 0 Da qui, integrando per parti e considerando che lim ϕ(x) = 0, poiché per costruzione x→±∞ ϕ(·) ha supporto compatto in R, segue che ˆ ˆ £ ¤0 |x| · ϕ(x) dx = − xϕ(x) −∞ + R £ xϕ(x) ¤+∞ 0 ˆ ˆ +∞ − ϕ(x) dx = − 0 0 ϕ(x) dx + −∞ sgn(x)ϕ(x) dx R In effetti, la funzione sgn(·) non è l’unica derivata debole della funzione valore assoluto: ogni altra w(·) ∈ Lloc 1 che differisca da sgn(·) per i valori assunti su un insieme di misura nulla16 rappresenta anch’essa una possibile derivata debole di u(·). Il che, tuttavia, non costituisce un problema sostanziale, in quanto nella teoria degli spazi Lp due funzioni che siano uguali q.o. vengono identificate tramite la relazione di uguaglianza q.o. 16 : qui si intende la misura di Lebesgue monodimensionale. Appendice B Identità notevoli In questa appendice, abbiamo raccolto alcune identità notevoli, ricorrenti nel corso della trattazione, ordinandole per categorie, anche con l’intenzione di rendere la lettura della tesi quanto più possibile autocontenuta. B.1 Identità vettoriali di tipo algebrico Comunque assegnati i vettori a, b, c, d ∈ R3 , vale [59] che B.2 a × b = −b × a (B.1) ha, b × ci3 = ha × b, ci3 (B.2) a × (b × c) = ha, ci3 b − ha, bi3 c (B.3) a × (b × c) + b × (c × a) + c × (a × b) = 0 (B.4) (a × b) × (c × d) = ha × b, di3 c − ha × b, ci3 d (B.5) Identità vettoriali di tipo differenziale Siano α(·), β(·) : Rn → F e a(·), b(·) : Rn → Fn dei campi (scalari e vettoriali) derivabili (anche solo debolmente) in un aperto non vuoto Ω ⊆ Rn , dove n è un intero positivo e F rappresenta l’uno o l’altro fra il campo reale o il campo complesso. Allora, comunque scelto r ∈ Ω, vale [59] che ¡ ¢ ∇n α(r) β(r) = α(r)∇n β(r) + β(r)∇n α(r) ¡ ¢ divn α(r) a(r) = ha(r), ∇n α(r)in + α(r) divn a(r) divn ∇n α(r) = ∆n α(r) (B.6) (B.7) (B.8) Appendice B. Identità notevoli 132 In particolare, quando n = 3: ¡ ¢ rot α(r) a(r) = α(r) · rot a(r) − a(r) × ∇3 α(r) ¡ ¢ div3 a(r) × b(r) = hb(r), rot a(r)i3 − ha(r), rot b(r)i3 ¡ ¢ rot a(r) × b(r) = div3 b(r) · a(r) − div3 a(r) · b(r) + hb(r), ∇3 a(r)i3 − ha(r), ∇3 b(r)i3 (B.9) (B.10) (B.11) ∇3 ha(r), b(r)i3 = a(r) × rot b(r) + b(r) × rot a(r) + hb(r), ∇3 a(r)i3 + ha(r), ∇3 b(r)i3 ¡ ¢ ¡ ¢ rot rot a(r) = ∇3 div3 a(r) − ∆3 a(r) ¡ ¢ rot ∇3 α(r) = 0 ¡ ¢ div3 rot a(r) = 0 (B.12) (B.13) (B.14) (B.15) Bibliografia [1] X. F. Canning, Protecting EFIE-based scattering computations from effects of interior resonances, IEEE Trans. Ant. Propagat., vol. 39, n. 11, 1545-1552, 1991. [2] D. Goodman, Ground-penetrating Radar Simulation in Engineering and Archaeology, Geophysic, vol. 59, n. 2, pp. 224-232, 1994. [3] C. Bruschini, B. Gros, F. Guerne, P. Y. Pièce, O. Caramona, Ground Penetrating Radar and Imaging Metal Detector for Antipersonnel Mine Detection, Journal of Applied Geophisics, n. 40, 1998. [4] K. Mayer, A. Zimmer, K. J. Langenberg, C. Kohl, C. Maierhofer, Non-destructive evaluation of embedded structures in concrete: modelling and imaging, in Proc. of the Int. Symp. on Non-Destructive Testing in Civil Engineering, 2003. [5] R. E. Kleinman, P. M. van den Berg, Two-dimensional location and shape reconstruction, Radio Sci., vol. 29, n. 4, pp. 1157-1169, 1994. [6] W. C. Chew, Waves and fields in inhomogeneous media, IEEE Press, 1995. [7] G. Angiulli and S. Tringali, Un precondizionatore per l’EFIE basato sull’impiego della sua componente antihermitiana, XVII Riunione Nazionale di Elettromagnetismo (RiNEm), Lecce (IT), 2008. [8] G. Angiulli, P. Quattrone and S. Tringali, Skew-Hermitian preconditioning of the algebraic linear systems arising from the discretization of the EFIE integral equation, accepted for presentation in PIERS 2009. [9] R. Harrington, Field computation by moment methods, Wiley-IEEE Press, 1993. [10] E. F. Taylor e J. A. Wheeler, Spacetime physics, W. H. Freeman, 2nd ed., 1963. [11] I. Newton, The Principia, traduzione a cura di I. Cohen e A. Whitman, University of California, 1999. [12] J. A. Wheeler, Geons, black holes and quantum foam: a life in physics, London: Norton, 1998, p. 163. BIBLIOGRAFIA ii [13] R. P. Feynman, Feynman’s lectures on physics, vol. 1, CalTech, 1963. [14] D. tes Tong, on Classical Lagrangian Dynamics and (Cambridge Hamiltonian lecture formalism), noall’url http://www.damtp.cam.ac.uk/user/tong/dynamics.html. [15] J. von Neumann, Mathematical foundations of quantum mechanics, Princeton University Press, 1955. [16] D. Tong, Classical dynamics (Cambridge lecture notes on Lagrangian and Hamiltonian formalism), all’url http://www.damtp.cam.ac.uk/user/tong/qft.html. [17] J. C. Maxwell, A treatise on electricity and magnetism, Clarendon Press, Oxford (UK), 1873. [18] E. Lifshitz and L. Landau, The classical theory of fields, vol. 2, ed. IV, Butterworth-Heinemann, Oxford (UK), 1980. [19] N. Bleistein, Mathematical methods for wave phenomena, Academic Press, NY, 1984. [20] D. Colton, The inverse scattering problem for time harmonic acoustic waves, SIAM Review 26, pp. 323-350 (1984). [21] D. Colton e R. Kress, Integral equation methods in scattering theory, John Wiley & Sons Inc., NY, 1983. [22] R. Kress, Linear integral equations, 2nd Ed. Springer-Verlag, NY, 1999. [23] W. McLean, Strongly elliptic systems and boundary integral equations, Cambridge University Press, Cambridge, 2000. [24] C. L. Dolph, The integral equation method in scattering theory, Problems in Analysis (R. C. Gunning, ed.), Princeton Univ. Press, NJ, pp. 201-227 (1970) [25] D. S. Jones, Acoustic and electromagnetic waves, Clarendon Press, Oxford, 1986. [26] J. B. Keller, Rays, waves and asymptotics, Bull. Amer. Math. Soc. 84, 727-750 (1978). [27] B. Thidé, Electromagnetic field theory, Upsilon Books, Uppsala (SW), 1997. [28] J. C. Maxwell, A dynamical theory of the electromagnetic field, Royal Society Transactions, 155 (1864). [29] P. Richard, R. Leighton e M. Sands, The Feynman Lectures on Physics, vol. 2. Cambridge (MA-US): Addison-Wesley, pp. 18-24, 1963. [30] R. E. Kleinman and G. F. Roach, Boundary integral equations for the three dimensional Helmholtz equation, SIAM Review 16 (1974), 214-236. BIBLIOGRAFIA iii [31] P. D. Lax e R. S. Phillips, Scattering theory, Academic Press, NY, 1967. [32] R. G. Newton, Scattering theory of waves and particles, McGraw-Hill, NY, 1966. [33] M. Reed and B. Simon, Scattering theory, Academic Press, NY, 1979. [34] B. D. Sleeman, The inverse problem of acoustic scattering, IMA J. Appl. Math. 29, 113-142, 1982. [35] C. H. Wilcox, Scattering theory for the d’Alembert equation in exterior domains, Lecture Notes in Math., vol. 442, Springer-Verlag, Berlin and New York, 1975. [36] J. Wermer, Potential theory, Lect. notes in math., 408, Springer, 1974. [37] F. Cakoni e D. Colton, Qualitative methods in inverse scattering theory, SpringerVerlag, Berlin, 2006. [38] V. M. Goldshtein, V. I. Kuzminov and I. A. Shvedov, Differential forms on Lipschitz manifolds, Siberian Mathematical Journal, Springer (NY), pp. 151-161, 2005. [39] N. I. Muskhelishvili, Singular integral equations, Wolters-Noordhoff, ch. I, 1972. [40] A. Sommerfeld, Partial Differential Equations in Physics, Academic Press, New York (NY), 1949. [41] S. Rao , D. Wilton and A. Glisson, Electromagnetic scattering by surfaces of arbitrary shape, IEEE Trans. Antennas Propag., vol. 30, pp. 409, 1982. [42] C. B. Boyer, A History of Mathematics, 2nd ed., Wiley, p. 431, 1968. [43] A. A. Mohsen and A. K. Abdelmageed, The Uniquess Problem of the Surface Integral Equations of a Conducting Body in a Layered Medium, PIER, vol. 23, pp. 227-300, 1999. [44] T. F. Chan and P. C. Hansen, Computing Truncated Singular Value Decomposition Least Squares Solutions by Rank Revealing QR-Facotrizations, SIAM J. Sci. Stat. Comput., vol.11, pp.519-530, 1990. [45] P. A. M. Dirac, The phgysical interpretation of the quantum mechanics, Proceedings of the Royal Society of London A113, pp. 621-641 (1926). [46] L. Schwartz, Théorie des distributions, Hermann, Parigi, vol. 1, 1950. [47] L. Schwartz, Théorie des distributions, Hermann, Parigi, vol. 2, 1951. [48] H. L. Royden, Real Analysis, Collier Macmillan, 1968. [49] G. B. Thomas and R. L. Finney, Calculus and Analytic Geometry, 9th ed. Reading, MA: Addison-Wesley, sec. 16, 1996. BIBLIOGRAFIA iv [50] G. H. Golub and C. F. van Loan, Matrix Computations, The John Hopkins University Press, 3rd ed., 1996. [51] M. F. Atiyah e I. G. MacDonald, Introduction to Commutative Algebra, Westview Press, 1969. [52] Olavi Nevanlinna, Convergence of Iterations for Linear Equations, Birkhäuser Verlag, 1993. [53] E. B. Vinberg, A course in algebra, American Mathematical Society, Providence (R.I.), 2003. [54] O. M. Bucci, N. Cardace, L. Crocco and T. Isernia, Degree of nonlinearity and a new solution procedure in scalar two-dimensional inverse scattering problems, J. Opt. Soc. Am. A/vol. 18, n. 8 (2001). [55] G. Arfken, Mathematical Methods for Physicists, III ed. Orlando (FL-US), Academic Press, 1985. [56] S. B. Parker, Dictionary of Scientific and Technical Terms, IV ed. New York (NY-US), McGraw-Hill, 1984. [57] P. Monk, Finite Element Methods for Maxwell’s Equations, Oxford University Press, Oxford. [58] F. Cakoni, D. Colton e P. Monk, The electromagnetic inverse scattering problem for partly coated Lipschitz domains, Proc. Royal Soc. Edinburgh 134A, pp. 661-682 (2004). [59] G. B. Arfken e H. J. Weber, Mathematical Methods for Physicists, 4th international ed., Academic Press, Inc., San Diego (CA-US), 1995.