DIMET, Facoltà di Ingegneria

Università degli Studi “Mediterranea”
di Reggio Calabria
DIMET, Facoltà di Ingegneria
Corso di Dottorato in
Ingegneria Elettronica - Settore scientifico ING-INF/02
Spazi di Krylov, procedure di stabilizzazione e algoritmi
di precondizionamento per lo sviluppo di soluzioni
stabili ed efficienti dell’equazione integrale
del campo elettrico (EFIE) nell’ambito
dello scattering diretto da corpi metallici
Tesi di Dottorato di
Salvatore TRINGÀLI
Relatore:
Giovanni ANGIULLI
Coordinatore:
Riccardo CAROTENUTO
XXI ciclo 2006-2008
Indice
Introduzione
vi
Glossario dei simboli
1 Il campo elettromagnetico
viii
1
1.1
Il concetto fisico di campo . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Derivazione naif delle leggi di Maxwell . . . . . . . . . . . . . . .
3
1.2.1
L’elettrostatica e la legge di Coulomb . . . . . . . . . . .
3
. Il campo elettrostatico . . . . . . . . . . . . . . . . . . .
4
La magnetostatica e la legge di Ampère . . . . . . . . . .
5
. Il campo magnetostatico . . . . . . . . . . . . . . . . . .
6
L’elettrodinamica . . . . . . . . . . . . . . . . . . . . . . .
7
. L’equazione di continuità . . . . . . . . . . . . . . . . .
8
. La corrente di spostamento di Maxwell . . . . . . . . .
8
. La forza elettromotrice . . . . . . . . . . . . . . . . . . .
9
. La legge dell’induzione di Faraday . . . . . . . . . . . .
10
La teoria elettromagnetica formale . . . . . . . . . . . . . . . . .
11
1.3.1
Le relazioni costitutive della materia . . . . . . . . . . . .
12
. Isotropia e anisotropia. . . . . . . . . . . . . . . . . . .
13
. Dispersività nel tempo e nello spazio. . . . . . . . . . .
13
. Omogeneità nel tempo e nello spazio. . . . . . . . . . .
14
. Linearità e sovrapposizione degli effetti. . . . . . . . . .
15
Il fenomeno dello scattering . . . . . . . . . . . . . . . . . . . . .
16
. Lo scattering nelle applicazioni . . . . . . . . . . . . . .
18
1.2.2
1.2.3
1.3
1.4
Indice
ii
2 L’EFIE e lo scattering diretto
20
2.1
Le equazioni dello scattering . . . . . . . . . . . . . . . . . . . . .
20
2.2
Il caso del conduttore cilindrico . . . . . . . . . . . . . . . . . . .
22
2.2.1
Il problema diretto . . . . . . . . . . . . . . . . . . . . . .
23
. L’unicità della soluzione . . . . . . . . . . . . . . . . . .
24
. L’EFIE e l’esistenza della soluzione . . . . . . . . . . . .
26
. Il problema delle risonanze . . . . . . . . . . . . . . . .
27
2.3
Le equazioni dello scattering 3D
. . . . . . . . . . . . . . . . . .
28
2.3.1
Formulazione differenziale del problema diretto . . . . . .
29
2.3.2
Una derivazione informale dell’EFIE 3D . . . . . . . . . .
32
3 Localizzazione delle risonanze
34
3.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
3.2
Ricerca delle singolarità . . . . . . . . . . . . . . . . . . . . . . .
35
3.2.1
Funzione ausiliaria . . . . . . . . . . . . . . . . . . . . . .
41
QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
CCVL . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
LQI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
DET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
CONDET . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
CONDEST_QR . . . . . . . . . . . . . . . . . . . . . . .
44
RCOND . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
RCOND_QR . . . . . . . . . . . . . . . . . . . . . . . . .
44
ALGA . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
ALGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
Ricerca risonanze - Risultati sperimentali . . . . . . . . .
45
Cubo
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
Stabilizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
3.3.1
Natura delle singolarità . . . . . . . . . . . . . . . . . . .
61
3.3.2
Soluzione a norma minima
. . . . . . . . . . . . . . . . .
61
3.3.3
Soluzione OP . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.3.4
Soluzione TSVD . . . . . . . . . . . . . . . . . . . . . . .
62
3.2.2
3.3
Indice
iii
3.3.5
Risultati numerici e conclusioni . . . . . . . . . . . . . . .
4 Sistemi lineari e precondizionatori
4.1
4.2
4.4
4.5
4.6
68
Generalità sulle tecniche di soluzione . . . . . . . . . . . . . . . .
69
4.1.1
Metodi diretti . . . . . . . . . . . . . . . . . . . . . . . . .
70
4.1.2
Metodi iterativi . . . . . . . . . . . . . . . . . . . . . . . .
71
4.1.3
Metodi iterativi stazionari . . . . . . . . . . . . . . . . . .
72
4.1.4
Metodi iterativi stazionari . . . . . . . . . . . . . . . . . .
73
. Gauss-Jacobi. . . . . . . . . . . . . . . . . . . . . . . . .
73
. Gauss-Seidel. . . . . . . . . . . . . . . . . . . . . . . . .
73
. Metodi di rilassamento. . . . . . . . . . . . . . . . . . .
74
I metodi dinamici di Krylov . . . . . . . . . . . . . . . . . . . . .
75
4.2.1
Il gradiente coniugato . . . . . . . . . . . . . . . . . . . .
76
4.2.2
Il metodo dei residui minimi generalizzato . . . . . . . . .
79
. La variante ripartita del GMRES . . . . . . . . . . . . .
80
L’algoritmo BiCG . . . . . . . . . . . . . . . . . . . . . .
81
La onvergenza dei metodi di Krylov . . . . . . . . . . . . . . . .
81
4.3.1
Fattori di influenza dei tassi di convergenza . . . . . . . .
83
4.3.2
Criteri di arresto . . . . . . . . . . . . . . . . . . . . . . .
85
Il precondizionamento . . . . . . . . . . . . . . . . . . . . . . . .
86
4.4.1
Il precondizionatore antihermitiano . . . . . . . . . . . . .
88
4.4.2
Il precondizionatore diagonale . . . . . . . . . . . . . . . .
88
4.4.3
Il precondizionatore ILU . . . . . . . . . . . . . . . . . . .
89
Esperimenti numerici . . . . . . . . . . . . . . . . . . . . . . . . .
90
4.5.1
Simulazione 1 . . . . . . . . . . . . . . . . . . . . . . . . .
92
4.5.2
Simulazione 2 . . . . . . . . . . . . . . . . . . . . . . . . .
96
4.5.3
Simulazione 3 . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.5.4
Simulazione 4 . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.5.5
Simulazione 5 . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.5.6
Simulazione 6 . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.5.7
Simulazione 7 . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.5.8
Simulazione 8 . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.2.3
4.3
63
Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Indice
iv
A Formulazioni deboli
125
A.1 L’equazione del calore . . . . . . . . . . . . . . . . . . . . . . . . 125
A.2 Derivate deboli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
A.2.1 Definizione e alcune proprietà . . . . . . . . . . . . . . . . 128
A.2.2 Un caso concreto . . . . . . . . . . . . . . . . . . . . . . . 130
B Identità notevoli
131
B.1 Identità vettoriali di tipo algebrico . . . . . . . . . . . . . . . . . 131
B.2 Identità vettoriali di tipo differenziale . . . . . . . . . . . . . . . 131
Bibliografia
i
Ai miei genitori, per avermi dato alla vita e regalato parte della loro
A mia sorella, perché senza di lei non avrei mai finito questa tesi
A G, per la sua impagabile amicizia e le nostre sconclusionate discussioni
A V, per essere il mio cielo e l’orizzonte estremo della mia insana ispirazione
Introduzione
In elettromagnetismo, si definisce con il termine “scattering” il problema della
determinazione della perturbazione di un campo introdotta dalla presenza di
un bersaglio. Nella pratica comune, i problemi di scattering coinvolgono gli
oggetti più svariati, dalla forma arbitraria, costituiti da mezzi permeabili o impermeabili alla radiazione elettromagnetica. Tutti si possono, però, descrivere
mediante lo schema logico per cui 1) le sorgenti, assegnate sotto forma di cariche
o correnti impresse, irradiano nello spazio circostante un campo elettromagnetico (c.d. campo incidente); 2) la libera propagazione del campo incidente viene
perturbata dalla presenza di un oggetto (c.d. ostacolo o scatteratore) dotato
di caratteristiche discontinue rispetto all’ambiente ospitante; 3) nell’interazione
con il campo incidente, l’ostacolo si comporta come una sorgente secondaria e
genera intorno a sé un campo diffuso; 4) il campo diffuso si somma al campo
incidente per produrre il campo totale.
Il paradigma comprende, fra le altre possibili, due tipologie fondamentali di
problemi: diretti e inversi. Di fatto, la loro soluzione trova applicazione nei
contesti tecnici e scientifici più disparati, spaziando dall’archeologia [2] all’ingegneria civile, dalla salvaguardia dei beni monumentali al rilevamento di ordigni
inesplosi [3] o di giacimenti sotterranei di petrolio. L’attività di ricerca svolta
nel corso del ciclo di dottorato, in particolare, si è concentrata sullo studio dei
problemi del primo tipo (i.e., diretti), rilevanti, per esempio, nella progettazione
e implementazione di antenne per le telecomunicazioni (terrestri e satellitari),
nella rilevazione radar di oggetti in volo (nel campo dell’aeronautica civile o della
difesa militare) o nella realizzazione di sistemi intelligenti di autodistanziamento
dei veicoli su strada (c.d. sensori FS).
Rispetto all’argomento, questa tesi discute, in particolare, un metodo di
Introduzione
vii
stabilizzazione della soluzione numerica, calcolata a partire dal sistema lineare
prodotto dalla discretizzazione (tramite il metodo dei momenti) dell’equazione integrale del campo elettrico (EFIE) per lo studio dello scattering da corpi
metallici, fondato sulla revisione ed estensione di una tecnica analoga - ma generalmente inefficace - proposta in letteratura da Canning [1]. La descrizione
dell’algoritmo, peraltro tradotto in un’effettiva procedura di calcolo in ambiente Matlab, si completa attraverso un risultato formale, inteso a dimostrare,
attraverso la teoria degli operatori quasi-fredholmiani, che lo spazio nullo dell’operatore integrale implicitamente definito dall’EFIE ha una dimensione algebrica (di Hamel) comunque finita, anche in condizioni di mal posizione (i.e.,
di non unicità della soluzione). Come conseguenza fondamentale, ne risulta la
possibilità, in linea di principio, di “epurare” la soluzione risonante dalle componenti spurie introdotte dalla degenerazione del nucleo operatoriale attraverso
un numero finito di filtraggi (cap. 3).
Al problema del filtraggio viene premessa l’analisi di efficienza (rispetto
ai tempi di processazione) di alcune tecniche numeriche per la localizzazione
delle c.d. risonanze1 , che costituisce allo stato attuale dell’arte un passaggio
necesssario e ineludibile della procedura di filtrazione tout-court (cap. 3).
Un altro fronte di indagine (cap. 4) riguarda l’efficienza del calcolo in ipso
della soluzione numerica dell’EFIE (lontano dalla risonanza) attraverso i c.d.
schemi iterativi di tipo Krylov e la definizione di opportune strategie di precondizionamento, “calibrate” sulle proprietà peculiari del modello analitico, per
accelerarne il rate di convergenza.
Esaurite le indispensabili premesse di carattere generale inerenti alle equazioni di Maxwell, la prima metà della tesi (capp. 1 e 2) è stata interamente
dedicata a revisione formale della teoria coinvolta nella formulazione del problema diretto dello scattering da corpi metallici: il taglio è estremamente formale,
per l’intima volontà, da una parte, di chiarificare alcuni aspetti del problema
troppo spesso trascurati dall’approccio ingegneristico e, dall’altra, per costruire
il background teorico necessario alla dimostrazione della finitezza incondizionata
del kernel dell’EFIE, cui si è accennato in precedenza.
1:
le frequenze discrete per cui l’equazione integrale del campo “degenera” e la sua soluzione
analitica manca di unicità.
Glossario dei simboli
L’elenco dei simboli più ricorrenti nel corso della trattazione, al fine di semplificarne il “riconoscimento” e rendere più agevole la lettura dell’elaborato.
N
l’insieme degli interi non negativi {0, 1, . . .}
N0
l’insieme degli interi positivi, i.e., N − {0}
R
l’insieme dei numeri reali con la usuale struttura di campo
C
l’insieme dei numeri complessi con la usuale struttura di campo
Rn
l’insieme delle n-uple ordinate di numeri reali, con la consueta
struttura di spazio lineare su R e la topologia della norma euclidea
C
n
R
m,n
C
m,n
l’insieme delle n-uple ordinate di numeri complessi, con al consueta
struttura di spazio lineare su C e la topologia della norma euclidea
l’insieme delle matrici rettangolari m × n a ingressi reali con la
consueta struttura di spazio R-lineare e la topologia euclidea
l’insieme delle matrici rettangolari m × n a ingressi complessi con la
consueta struttura di spazio C-lineare e la topologia euclidea
A
t
AH
la trasposta di una generica matrice A ∈ Rm,n oppure ∈ Cm,n
la trasposta coniugata di una generica matrice A ∈ Rm,n oppure ∈ Cm,n
k · kn,p
la norma hölderiana di ordine p ≥ 1 in Rn o Cn
k · kn,∞
la norma dell’estremo superiore in Rn o Cn
k · kX
la norma di uno spazio normato o di Banach X sul campo
scalare dei numeri reali o complessi (secondo il contesto)
h· , ·in
il prodotto scalare di Rn o Cn
h· , ·iX
il prodotto scalare di uno spazio hilbertiano o prehilbertiano X
sul campo reale o complesso (secondo il contesto)
rot
il rotore di un campo vettoriale R3 → R3 o R3 → C3
divn
la divergenza di un campo vettoriale Rm → Rn o Rm → Cn
∇n
il gradiente di un campo scalare Rn → R o Cn → C
∆n
l’operatore di Laplace n-dimensionale
Glossario dei simboli
D̄
la chiusura (topologica) di un insieme D ⊆ Rn
∂D
la frontiera (topologica) di un insieme D ⊆ Rn
C k (D, F)
lo spazio delle funzioni D ⊆ Rn → F
ix
k volte differenziabili con continuità in D
Bn (r0 , r)
la sfera euclidea di raggio r > 0 e centro r0 ∈ Rn
Bn
la sfera euclidea di raggio unitario e centro l’origine in Rn
Lp (Ω, F)
lo spazio F-lineare delle funzioni f (·) : Ω ⊆ Rn → K per cui f p (·)
è integrabile secondo Lebesgue, con p ≥ 1 e F = R oppure F = C
loc
Lp (Ω, K)
lo spazio K-lineare delle funzioni f (·) : Ω ⊆ Rn → K per cui f p (·)
è integrabile secondo Lebesgue in ogni compatto C ⊆ Ω, con
p ≥ 1 e K = R oppure K = C
Dove necessario, nell’elenco dei simboli qui sopra, si assuma che m, n ∈ N0 ; k sia un
intero ≥ 0 e Ω un insieme misurabile dello spazio ambiente euclideo.
Capitolo 1
Il campo elettromagnetico
Nel corso del capitolo si introduce il concetto di campo e si passano in rassegna le
equazioni fondamentali di Maxwell-Lorentz per lo studio delle interazioni fra la materia e le onde1 elettromagnetiche. Quindi, dopo una breve parentesi sulle relazioni
costitutive della materia, si descrivono per grandi linee i due massimi problemi inerenti
allo studio dei cosiddetti fenomeni di scattering, i.e., il problema diretto e il problema inverso, ricostruendo per ciascuno un’amplia bibliografia e rinviando ai capitoli
successivi la derivazione dei modelli a equazioni integrali utilizzati nella pratica per
risolverli in alcuni casi particolari di spiccata rilevanza dal punto di vista applicativo.
1.1
Il concetto fisico di campo
Informalmente, nel linguaggio della fisica moderna, un campo è una funzione definita in ogni punto del cronotopo [10], ancorché, nella pratica, l’intensità di qualsiasi
campo empirico conosciuto si sappia decrescere a zero, all’aumentare della distanza
dalle sorgenti, tanto da poterne restringere il dominio ad una sezione (eventualmente
limitata) dello spazio-tempo. Ad esempio, nella teoria della gravitazione newtoniana
[11], la forza del campo gravitazionale è inversamente proporzionale al quadrato della
distanza dall’oggetto gravitante.
D’altronde, è opportuno sottolineare che la definizione astratta dei campi non
può né deve prescindere dalla constatazione di fatto che gli stessi possiedono una
consistenza fisica. A riguardo John A. Wheeler [12] osserva che «un campo occupa
spazio, contiene energia e la sua presenza impedisce un vuoto vero». Sicché il vuoto è
1:
qui e per il seguito, un’onda è una perturbazione del continuum spazio-temporale che si
propaga attraverso un mezzo di trasmissione, tipicamente con trasporto di energia.
Capitolo 1. Il campo elettromagnetico
2
libero dalla materia, ma non è libero dai campi. Che manifestano la propria presenza
creando «una condizione contingente, per cui una particella posta in un punto risente
dell’azione di una forza». Parole di Feynman.
Una carica elettrica p1 in movimento subisce, in effetti, l’azione di una forza di
reazione vincolare istantanea, acquistando un momento. Ma una seconda carica p2 ,
posta nel vuoto a una certa distanza dalla prima, non ne risente in alcun modo,
almeno fintanto che, viaggiando nel tempo e nello spazio alla velocità della luce, gli
effetti indotti dal moto di p1 , come un’onda d’urto, non la investono, sicché a sua volta
p2 acquista un momento. Dove si trova, però, il momento prima che p2 si metta in
movimento? Per la legge di conservazione del momento, infatti, deve pur essere da
qualche parte. Ebbene, la fisica moderna ha trovato «di grande utilità per l’analisi
delle forze» ammettere che il momento sia contenuto nel campo. «Il fatto che il campo
elettromagnetico sia dotato di un momento e di un’enegia propri lo rende estremamente
reale. [...] Una particella genera un campo, e il campo agisce su un’altra particella e
possiede proprietà comuni alle particelle, come l’energia e il momento». Sono sempre
riflessioni di Feynman, riprese dalle sue celebri lezioni al Caltech Institute [13].
Dal punto di vista dei modelli, un campo è solitamente rappresentato per mezzo di
scalari, di vettori o, più in generale, di tensori, a seconda che, rispettivamente, il suo
valore puntuale sia uno scalare, un vettore o un tensore. E.g., il campo gravitazionale
newtoniano ha una natura vettoriale, perché è necessario punto per punto un vettore
per rappresentare intensità, direzione e verso della forza gravitazionale. La temperatura all’interno di una stanza, invece, è il classico esempio di un campo scalare.
Di fatto, la teoria (fisica) dei campi riguarda la costruzione di un modello mirato a
descrivere le dinamiche di un campo, ovvero il modo in cui un campo evolte e muta, nel
tempo, nello spazio o in funzione di altre componenti. Tipicamente, questo comporta
la definizione di un opportuno funzionale del campo e il suo trattamento in termini
analoghi ad un sistema caratterizzato da un’infinito numero di gradi di libertà, secondo
i due approcci fondamentali della meccanica classica [14] e della meccanica quantistica
[15] [16], di cui, però, non è possibile discutere qui in un maggiore dettaglio.
Si può dire, tuttavia, che l’importanza della nozione di campo nella fisica venne
realizzata, per la prima volta, da Michael Faraday, nel corso delle sue ricerche sui fenomeni magnetici. L’intuizione di Faraday fu che i campi elettrico e magnetico non sono
solo campi di forze, in grado di alterare, eventualmente, lo stato di moto delle particelle (cariche), ma possiedono, come le particelle, una consistenza fisica indipendente,
poiché caratterizzati, per esempio, dalla proprietà di trasportare dell’energia.
Le idee di Faraday e di numerosi altri pionieri della ricerca che gli fecero segui-
Capitolo 1. Il campo elettromagnetico
3
to, portarono James Clerk Maxwell nel 1873 a formulare la prima teoria di campo
unificata nella storia della fisica, con l’introduzione delle sue celebri equazioni per il
campo elettromagnetico, ieri descritto in termini di una coppia (e, h) di vettori - con
il formalismo classico utilizzato nel corso di questa tesi - ed oggi - col formalismo della
fisica del ’900 - mediante un singolo tensore antisimmetrico di rango 2 (l’una e l’altro
variabili nel tempo e nello spazio).
1.2
Derivazione naif delle leggi di Maxwell
In effetti, l’elettromagnetismo moderno nasce con i primi esperimenti di elettrologia
del tardo Illuminismo, collegati allo studio delle interazioni fra cariche elettriche stazionarie o distribuzioni di carica racchiuse all’interno di spazi finiti dotati di frontiere
stazionarie2 . Nasce, cioè, con l’elettrostatica.
1.2.1
L’elettrostatica e la legge di Coulomb
Già nel 1780, nell’ambito delle ricerche dell’elettrostatica, venne dimostrato da Coulomb, per via sperimentale, che le interazioni fra corpi carichi elettricamente si possono
descrivere in termini di forze meccaniche.
Figura 1.1: la geometria della legge di Coulomb per l’elettrostatica, in cui due particelle
cariche puntiformi interagiscono attraverso una forza meccanica.
Si immagini, per semplicità, di considerare due cariche puntiformi nel vuoto q e
q0 , poste, rispettivamente, nei punti r e r0 6= r di un sistema di riferimento cartesiano
ortogonale Oxyz, come illustrato in fig. 1.3.
In base alla legge di Coulomb, q0 (carica sorgente) esercita una forza istantanea
2:
cioè fisse nello spazio e di valore costante nel tempo.
Capitolo 1. Il campo elettromagnetico
F(r) (forza elettrica) su q (carica di test), tale che
µ
¶
r − r0
q0 q
1
q0 q
·
=
−
∇
F(r) =
3
4π²0 kr − r0 k32
4π²0
kr − r0 k2
4
(1.1)
dove ²0 ≈ 8.8542 · 10−12 è la permettività (dielettrica) del vuoto e il gradiente a ultimo
membro è calcolato supponendo r0 fisso e r variabile.
. Il campo elettrostatico
D’altro canto, piuttosto che descrivere l’interazione elettrostatica in termini della
“azione a distanza” di una forza su una carica di prova, come nel caso del sottoparagrafo precedente, è più utile associare a q0 un campo vettoriale (stazionario)
estat
(·) : R3 − {r0 } → R3 (campo elettrostatico) ponendo
0
µ
¶
F(r)
q0
1
estat
(r) := lim
=−
∇3
,
in R3 − {r0 }
0
q→0
q
4π²0
kr − r0 k2
(1.2)
dove il processo al limite “si motiva” con la necessità di garantire che la carica di test
q sia, di fatto, sufficientemente piccola3 da non perturbare il campo prodotto dalla
sorgente. In tal modo, l’espressione puntuale di Estat non dipenderà esplicitamente
da q, ma solo da q0 . Così da poter dire che ogni carica elettrica induce nello spazio
circostante un campo, il cui valore è indipendente dalla presenza di altre cariche.
Nel caso, poi, di un insieme discreto di cariche q1 , q2 , . . ., localizzate, rispettivamente, nei punti r1 , r2 , . . . di uno spazio altrimenti vuoto, l’ipotesi di linearità consente
di sovrapporre l’uno all’altro gli effetti dovuti alle singole sorgenti, di modo che per il
campo elettrostatico totale estat (·) si può scrivere
µ
¶
X stat
1 X
qi
stat
e
(r) =
ei (r) = −
∇3
4π²0 i
kr − ri k2
i
(1.3)
Se, adesso, le cariche discrete q1 , q2 , . . . sono “molte”, sufficientemente piccole e tutte
concentrate in un insieme V chiuso e limitato (i.e., compatto) dello spazio, al punto
da poterne descrivere la distribuzione tramite una funzione ρ(·) : V → R (densità di
carica elettrica), la sommatoria (1.3) si può eventualmente sostituire con un integrale
di volume esteso a V, in un ideale processo al limite per cui il campo elettrostatico
totale estat (·), in definitiva, è descritto dall’equazione
µ
¶
ˆ
ˆ
ρ(r0 )
1
ρ(r0 ) ∇3
−4π²0 estat (r) =
dr30 = ∇3
dr30
kr
−
r
k
kr
−
r
k
0
2
0
2
V
V
(1.4)
dove r ∈ R3 − V e lo scambio formale fra il segno di integrale e l’operatore derivativo
∇3 si giustifica considerando che il gradiente è calcolato sulle coordinate del generico
3:
benché ampiamente utilizzate, argomentazioni informali di quest’ordine, in realtà, sono
prive di ogni senso, dal momento che, al meglio delle conoscenze attuali della fisica, la carica
è quantizzata, per cui renderla arbitrariamente piccola, di fatto, è impossibile.
Capitolo 1. Il campo elettromagnetico
5
punto di osservazione r ∈ Ve := R3 − V, mentre l’integrazione si estende alla posizione
variabile di un arbitrario punto sorgente r0 ∈ V.
Da qui, interpretando gli integrali e le derivate in senso debole distribuzionale e
utilizzando, quindi, l’identità operatoriale secondo cui div3 (∇3 ϕ) = ∆3 ϕ, per ogni
funzione localmente integrabile ϕ(·) : R3 → R, si trova che
µ ˆ
¶
ˆ
ρ(r0 )
ρ(r0 )
−4π²0 div3 estat (r) = div3 ∇3
dr30 = ∆3
dr30
V kr − r0 k2
V kr − r0 k2
µ
¶
1
qualunque sia r ∈ Ve . Sennonché ∆3
= −4πδ(r − r0 ), e perciò
kr − r0 k2
ˆ
ρ(r)
1
∀r ∈ V3 : div3 estat (r) =
ρ(r0 )δ(r − r0 )dr30 =
(1.5)
²0 V
²0
¡
¢
che è la legge di Gauss dell’elettrostatica. D’altronde, siccome rot ∇3 α(r) = 0, per
ogni funzione debolmente derivabile α(·) : Ve → C, è immediato stabilire dalla (1.4)
che il campo elettrostatico è irrotazionale, dacché
µ ˆ
¶
ρ(r0 )
1
rot estat (r) = −
rot ∇3
dr30 = 0
4π²0
V kr − r0 k2
1.2.2
(1.6)
La magnetostatica e la legge di Ampère
Mentre l’elettrostatica attiene allo studio degli effetti prodotti da una distribuzione
di cariche statiche4 , la magnetostatica tratta il caso delle correnti stazionarie5 e delle
interazioni dove queste risultano coinvolte.
Figura 1.2: la geometria della legge di Ampère della magnetostatica, in cui due fili
percorsi da corrente interagiscono attraverso una forza meccanica.
Storicamente, Ampère fu il primo ad osservare che una spira piana Γ1 , in cui scorra
una corrente continua di prova I1 , esercita un’azione a distanza su una seconda spira
piana Γ2 , percorsa da una corrente stazionaria I2 , attraverso una forza meccanica F.
4:
5:
cioè fisse nelle loro posizioni e costanti nel tempo.
cioè di cariche elettriche in movimento con velocità costante nel tempo.
Capitolo 1. Il campo elettromagnetico
6
In particolare, assimilando i circuiti a due curve orientate disgiunte e generalmente
regolari dello spazio e supponendone le dimensioni molto più piccole della loro distanza
reciproca, Ampère potè stabilire empiricamente che6
¶
‰ µ
‰
r1 − r2
µ0 I 1 I 2
t2 ×
t1 ×
d`
d`2
F=
1
4π
kr1 − r2 k32
Γ2
Γ1
(1.7)
dove µ0 = 4π · 10−7 H/m è la permeabilità (magnetica) del vuoto e t̂2 = t̂2 (r2 ) e
t̂1 = t̂1 (r1 ) indicano, rispettivamente, i versori delle tangenti locali a Γ2 e a Γ1 nei
punti r2 ∈ Γ2 e r1 ∈ Γ1 (v. fig. 1.2). Ad un primo sguardo, la relazione (1.7) può
sembrare asimmetrica rispetto ai ruoli di Γ2 e Γ1 , suggerendo un’apparente violazione
del terzo principio della meccanica di Newton. Applicando, tuttavia, l’identità del
triplo prodotto (B.3), si può riscriverla nella forma
µ
¶ ¶
‰ µ
ˆ
µ0 I 1 I 2
1
F=
t̂2 ·
t̂1 · ∇3
d`2 d`1 +
4π
kr1 − r1 k2
Γ2
Γ1
‰ ‰
µ0 I1 I2
r2 − r1
−
t̂ · t̂1 d`1 d`2
3 2
4π
kr
2 − r1 k2
Γ2 Γ1
(1.8)
D’altronde, poiché l’integranda del primo integrale al membro destro dell’ultima equazione è un differenziale esatto, il termine corrispondente svanisce e l’espressione (1.7)
della forza magnetostatica fra le spire assume la forma
‰ ‰
µ0 I1 I2
r2 − r1
F=−
t̂ · t̂1 d`1 d`2
3 2
4π
Γ2 Γ1 kr2 − r1 k2
(1.9)
che manifesta apertamente la simmetria attesa in termini di Γ1 e Γ2 .
. Il campo magnetostatico
In analogia col caso elettrostatico, anziché descrivere l’interazione magnetostatica in
termini di una forza su una corrente stazionaria di prova I, come nel corso del sottoparagrafo precedente, conviene associare a una corrente stazionaria I0 , che scorre
attraverso un circuito elementare di lunghezza d` orientato secondo il versore tangente
t̂ ∈ R3 e localizzato nel punto r0 ∈ R3 , un campo vettoriale bstat
(·) : R3 − {r0 } → R3
0
(induzione magnetica) tale che
dbstat
(r) =
0
6:
µ0 I0
r − r0
,
t̂ ×
4π
kr − r0 k32
per ogni r ∈ R3 − {r0 }
si tratta della legge di Ampère per la magnetostatica.
(1.10)
Capitolo 1. Il campo elettromagnetico
7
Generalizzando al caso di una densità di corrente j(·) : V → R3 (in A/m2 ), tutta
concentrata in un compatto V ⊆ R3 , ne risulta la legge di Biot-Savart, per cui
µ
¶
ˆ
ˆ
µ0
r − r0
−1
µ0
j(r0 ) ×
dr30 =
j(r0 ) × ∇3
dr30 =
bstat (r) =
3
4π V
kr − r0 k2
4π V
kr − r0 k2
µ
¶
ˆ
ˆ
j(r0 )
µ0
µ0
1
=
rot
dr30 −
rot j(r0 ) dr30 =
4π V
kr − r0 k2
4π V kr − r0 k2
ˆ
j(r0 )
µ0
=
rot
dr30 ,
per ogni r ∈ Ve := R3 − V̄
(1.11)
4π
V kr − r0 k2
dove abbiamo usato l’identità (B.9) e il fatto che gradiente e rotore in seno all’integrale
non operano sulle coordinate di integrazione, e perciò rot j(r0 ) = 0, per ogni r0 ∈ V.
Per stabilire le proprietà del campo magnetostatico, proviamo, adesso, a calcolarne
divergenza e rotore. Dalla legge di Biot-Savart
µ
¶
ˆ
j(r0 )
µ0
div3 bstat (r) =
div3 ∇3 ×
dr30 = 0
4π
V kr − r0 k2
(1.12)
in Ve := R3 − V̄, sulla base della (B.15). In modo analogo, applicando l’identità
operatoriale (B.13) e i teoremi di Green, si trova [27] che (al netto dei calcoli)
µ ˆ
¶
j(r0 )
µ0
rot bstat (r) =
rot rot
dr30 = µ0 j(r)
(1.13)
4π
V kr − r0 k2
1.2.3
L’elettrodinamica
La sintesi estrema di quanto si è stabilito nel corso dei paragrafi precedenti è che
le leggi dell’elettrostatica e della magnetostatica si possono riassumere in due paia di
equazioni vettoriali alle derivate parziali disaccoppiate ed indipendenti dal tempo. I.e.,
le equazioni dell’elettrostatica classica


 div3 estat (r) = ρ(r)
²0

 rot estat (r) = 0
e le equazioni della magnetostatica classica


 div3 bstat (r) = ρ(r)
²0

 rot bstat (r) = µ0 j(r)
(1.14)
(1.15)
le une e le altre valide (anche in senso debole) nei punti di un qualsiasi aperto Ω esterno al dominio limitato V dello spazio dove si suppongono concentrate le cariche e le
correnti. Poiché non vi è nessun elemento a priori che metta in relazione estat (·) direttamente con bstat (·), l’elettrostatica e la magnetostatica classiche si sono sviluppate,
di fatto, come fossero due teorie indipendenti.
Capitolo 1. Il campo elettromagnetico
8
Quando, tuttavia, si ammette una variazione dei campi dal tempo7 , le due teorie
si unificano nell’elettrodinamica classica. Storicamente, l’unificazione è stata motivata
da due risultati fondamentali suggeriti dall’esperienza:
i) l’equazione di continuità e l’introduzione della corrente di spostamento di Maxwell, a seguito dell’osservazione che la carica (elettrica) è una quantità conservativa e che la corrente (elettrica) è soltanto un trasporto di carica.
ii) la legge dell’induzione di Faraday, per cui si stabilisce che una variazione del
flusso magnetico attraverso una spira induce una corrente nel circuito attraverso
l’azione di una forza elettromotrice.
. L’equazione di continuità
Supponiamo che, punto per punto nel dominio di interesse V ⊆ R3 e istante per istante
nell’intervallo temporale di riferimento (ti , tf ) ⊆ R, la densità di corrente e la densità
di carica osservate varino, rispettivamente, secondo le funzioni j(·) : R3 × (ti , tf ) → R e
ρ(·) : R × (ti , tf ) → R. Allora la legge empirica di conservazione della carica si traduce
nell’equazione di continuità (o di conservazione della carica)
∂ρ(r, t)
+ div j(r, t) = 0,
∂t
per ogni (r, t) ∈ V × (ti , tf )
(1.16)
per cui si stabilisce che la “velocità” di variazione della carica ρ(·) è localmente bilanciata dalla divergenza della densità di corrente j(·).
. La corrente di spostamento di Maxwell
In fine al paragrafo (1.2.2) abbiamo utilizzato implicitamente il fatto che in magnetostatica div j(·) = 0 nei punti di un aperto per stabilire una condizione locale sul
rotore dell’induzione magnetica. Sennonché la relazione deve essere adatta, nel caso
di sorgenti e campi non stazionari, in accordo con l’equazione di continuità (1.16), di
modo che div3 j(r, t) = −∂t ρ(r, t) in V × (ti , tf ).
In tal modo, ripetendo puntualmente i passaggi necessari alla derivazione logica
dell’equazione (1.13), si ottiene il risultato formale per cui
rot b(r, t) = µ0 j(r, t) + ²0 µ0
∂
e(r, t),
∂t
in V × (ti , tf )
(1.17)
dove il termine ²0 ∂t e(·) rappresenta la cosiddetta corrente di spostamento, introdotta
in un lampo di genio da Maxwell [28] per rendere solenoidale il membro di destra della
(1.17) nel momento in cui j(·) rappresenti la densità di corrente elettrica totale in V,
7:
cioè si transita da un regime stazionario a un regime dinamico.
Capitolo 1. Il campo elettromagnetico
9
che si può sempre splittare nelle tre aliquote delle correnti di conduzione, polarizzazione e magnetizzazione. La corrente di spostamento è un extra-termine assimilabile
a una corrente fittizia che fluice attraverso vuoto. Tra le altre conseguenze teoriche,
l’introduzione della corrente di Maxwell nell’equazione (1.17) consente di predire l’esistenza di una radiazione in grado di trasportare energia e momento attraverso lo
spazio-tempo, a grandissime distanze, persino in assenza di materia (i.e., nel vuoto).
. La forza elettromotrice
L’esperienza dimostra che, se un mezzo conduttore è attraversato dalle linee di forza
di un campo elettrico e(·), nel mezzo si induce un flusso di carica netta, e quindi una
densità di corrente elettrica j(·), che parzialmente può essere anche attribuita ad altri
processi (ad es., chimici o idrodinamici). Sotto opportune condizioni e per determinate
tipologie di materiali, è possibile talvolta assumere che, almeno in prima approssimazione, esista una relazione lineare fra j(·) ed e(·). Ossia che valga la cosiddetta legge
di Ohm, per cui
j(·) = σ(·) e(·)
(1.18)
dove σ(·) è la conducibilità (elettrica) del mezzo, eventualmente variabile punto per
punto e istante per istante entro l’intervallo temporale di osservazione. Nel più generale
dei casi, per esempio in un conduttore anisotropo, σ(·) è un tensore.
Ora, se la corrente è interamente dovuta all’azione del campo elettrico e(·), quest’ultimo spenderà un lavoro sulle cariche e, a meno che il mezzo non sia un superconduttore, vi sarà dissipazione di energia per effetto Joule sotto forma di calore. Il
rate con cui tale energia viene dispersa è pari a h j(·), e(·)i3 per ogni unità di volume.
D’altro canto, se e(·) è irrotazionale (quindi conservativo), j(·) tende asintoticamente
a zero con il tempo.
Di conseguenza, in condizioni di stazionarietà della corrente, è necessaria la presenza di un campo elettrico ausiliario eEMF (·) (dovuto, ad es., alla presenza di una
pila), corrispondente ad una forza elettromotrice E capace di mantenere in moto le
cariche. Nel qual caso la legge di Ohm (1.18) si riscrive nella forma
¡
¢
j(·) = σ(·) eEMF (·) + e(·)
(1.19)
da cui è possibile definire la forza elettromotrice E in termini della circuitazione del
campo elettrico totale, cioè ponendo
ˆ
E := heEMF (r, t) + estat (r, t), t̂i3 d`
Γ
ove Γ è un qualsiasi ciclo e t il versore della tangente locale a Γ.
(1.20)
Capitolo 1. Il campo elettromagnetico
10
. La legge dell’induzione di Faraday
Nel corso del sottoparagrafo (1.2.1) abbiamo ricavato le equazioni differenziali del
campo elettrostatico, stabilendo in particolare che estat (·) è irrotazionale, e perciò
conservativo 8 . Ne risulta che l’integrale di estat (·) esteso ad un qualsiasi circuito Γ
(in astratto, una cuva generalmente regolare dello spazio) è nullo. Di conseguenza,
l’equazione (1.20) comporta che
‰
heEMF (r, t), t̂i3 d`
E=
(1.21)
Γ
D’altronde, l’esperienza dimostra che la variazione del flusso magnetico attraverso una
qualunque superficie S concatenata a Γ si manifesta nell’azione di un campo elettrico
non conservativo, cui si associa una forza elettromotrice9 .
Figura 1.3: la variazione temporale del flusso di b(·) dovuta al moto relativo del dipolo
magnetico rispetto alla spira induce nel circuito una corrente misurata dall’amperometro collegato ai suoi estremi, confermando l’esperimento di Faraday.
Nella formulazione generalizzata di Maxwell, questo risultato si traduce nella cosiddetta legge di Faraday-Neumann-Lenz, per cui
‰
d
eEFM (r, t) · t̂ d` = − Φm (t) =
E(t) =
dt
ˆ
ˆΓ
∂b(r, t)
d
=−
b(r, t) · n̂ dS = −
· n̂ dS
dt S
∂t
S
8:
9:
(1.22)
i.e., si può esprimere come il gradiente di un campo scalare (potenziale elettrostatico).
e quindi un corrente, nel caso in cui Γ sia un vero e proprio circuito elettrico.
Capitolo 1. Il campo elettromagnetico
11
dove Φm (·), per l’appunto, è il flusso di b(·) attraverso S. Da qui, per applicazione
del teorema di Stokes, l’equazione integrale (1.22) assume la forma locale
rot3 e(·) = −∂t b(·)
(1.23)
che descrive in modo esplicito il legame esistente, in seno alla teoria maxwelliana, fra
l’elettrologia e il magnetismo ed è valida anche nel limite relativistico in cui la curva
Γ sia in movimento rispetto a un riferimento stazionario.
1.3
La teoria elettromagnetica formale
A questo punto, con uno sforzo di generalizzazione sulla validità delle equazioni stabilite (su base euristica o sperimentale) nel corso del paragrafo precedente, è possibile assiomatizzare la definizione del campo elettromagnetico “osservato” in una certa
regione dello spazio Ω ⊆ R3 , limitatamente all’intervallo di tempo (ti , tf ) ⊆ R, in
termini di qualsiasi coppia (e, b) di funzioni10 Ω × (ti , tf ) → R3 , anche generalizzate
e sufficientemente regolari, tali che


∇3 · d(r, t) = ρ(r, t)





 ∇3 × e(r, t) = − ∂ b(r, t)
∂t
∀(r, t) ∈ Ω × (ti , tf ) :


∇3 · b(r, t) = 0




 ∇ × h(r, t) = ∂ d(r, t) + j(r, t)
3
∂t
(1.24)
dove ρ(·) e j(·) sono funzioni Ω × (ti , tf ) → R e Ω × (ti , tf ) → R3 associate, rispettivamente, alle cariche e alle correnti11 presenti nel dominio di interesse e d(·) e h(·),
analogamente, funzioni12 Ω × (ti , tf ) → R3 legate ai campi primari e(·) ed h(·) da
opportune trasformazioni (dette relazioni costitutive) del tipo

 d(r, t) = F [e, b](r, t)
,
per ogni (r, t) ∈ Ω × (ti , tf )
 h(r, t) = G[e, b](r, t)
(1.25)
la cui forma (generalmente complicata) si fa dipendere, in definitiva, dalla natura
particolare del mezzo materiale che, fisicamente, occupa la regione Ω dello spazio dove
le equazioni di Maxwell si ammettono collocate.
10 :
11 :
dette, rispettivamente, campo elettrico e induzione magnetica
per esempio, correnti impresse dai generatori oppure cariche indotte dall’interazione del
campo elettromagnetico con la materia.
12 : dette, rispettivamente, induzione elettrica e campo magnetico.
Capitolo 1. Il campo elettromagnetico
1.3.1
12
Le relazioni costitutive della materia
Pare chiaro, pertanto, che la solvibilità delle equazioni di Maxwell in Ω×(ti , tf ) presuppone siano state formulate delle ipotesi di modello circa le proprietà elettromagnetiche
locali del mezzo materiale che, in tutto o in parte, occupa il volume di Ω, per il resto
assimilabile al vuoto13 . D’altro canto è del tutto evidente che, se si intende ricavare
una soluzione valida, ad esempio, per il campo prodotto da un antenna satellitare nello
spazio, è assolutamente impensabile considerare legami fra i vari campi in gioco che,
tanto per dire, sarebbero veri nel caso di un dielettrico debole caratterizzato da perdite
per conduzione.
Una consuetudine assai diffusa nell’ambito dell’ingegneria elettromagnetica è di
identificare una classe abbastanza ampia di mezzi ideali per cui le relazioni costitutive
si ammettono note e in cui è interessante, per varie ragioni, studiare le soluzioni delle
equazioni di Maxwell (ad es., perché particolarmente agevoli). L’idea è, quindi, di
approssimare ogni altro materiale del mondo fisico reale alle proprietà dei casi ideali
definiti per questo verso.
Nel vuoto, per esempio, e nei dielettrici assimilabili nelle loro caratteristiche al
vuoto, si ipotizza che i campi e le induzioni (in assenza di conduzione) sia legati da
relazioni di proporzionalità diretta, per cui



d(·) = ²0 ²r (·) e(·)


b(·) = µ0 µr (·) h(·)



 j(·) = 0
(1.26)
dove ²0 ' 8.854 · 10−12 F/m e µ0 = 4π · 10−7 H/m (rispettivamente, permettività
dielettrica e permeabilità magnetica del vuoto) sono costanti assolute ed ²r (·) e µr (·)
sono caratteristiche del mezzo preso in considerazione (rispettivamente, permettività
dielettrica e permeabilità magnetica relative).
Più in generale, nel caso che il dielettrico sia caratterizzato da una conducibilità
σ(·) (espressa in f/m), i.e., in presenza di perdite, si ammette



d(·) = ²0 ²r (·) e(·)


b(·) = µ0 µr (·) h(·)



 j(·) = σ(·) e(·)
(1.27)
nell’assunzione implicita che il dominio del problema non includa dei generatori di
corrente, e che perciò la densità j(·) sia dovuta tutta e sola all’azione di deriva delle
cariche da parte del campo elettromagnetico.
13 :
dove la trattazione è particolarmente semplificata.
Capitolo 1. Il campo elettromagnetico
13
In una visione più ampia, i mezzi materiali per cui sono valide le relazioni costitutive (1.26) oppure (1.27) devono soddisfare alle proprietà di isotropia, linearità,
omogeneità e non dispersività (nel tempo che nello spazio) definite qui di seguito, limitatamente al legame funzionale che descrive la dipendenza dell’induzione elettrica
d(·) dal campo primario e(·). Le relazioni fra b(·) ed h(·) oppure fra j(·) ed e(·), in
assenza di sorgenti, sono, infatti, del tutto analoghe.
. Isotropia e anisotropia.
Le due proprietà attengono al comportamento del mezzo rispetto alla direzione delle
linee di campo dei vettori coinvolti nelle equazioni di Maxwell. Avviene, infatti, che
la risposta di un certo materiale alle sollecitazioni di un campo elettromagnetico siano
suscettibili di variazione, per esempio, a seconda che il campo incida perpendicolarmente o meno alla sua superficie. È il caso dei mezzi cosiddetti anisotropi, come i
cristalli e le ferriti, cui si contrappongono per dualità i mezzi isotropi, come il vuoto
ed il vetro.
Gli uni e gli altri, nel limite della linearità, si descrivono ammettendo che il legame
fra il campo e l’induzione elettrica e(·) e d(·) si possano esprimere attraverso l’introduzione di una matrice ²(·) di trasformazione 3 × 3 secondo la relazione d(·) = ²(·) e(·), i
cui ingressi sono funzioni scalari a valori reali del tempo e dello spazio. I mezzi isotropi
corrispondono al caso in cui ²(·) è scalare, i.e., esiste ²(·) : Ω × (ti , tf ) → R tale che
²(·) = ²(·)I3 , dove I3 è l’identità 3 × 3.
. Dispersività nel tempo e nello spazio.
Alcuni mezzi rispondono alle sollecitazione del campo elettromagnetico in un punto
particolare (r, t) del cronotopo “integrando” gli effetti prodotti in altri punti, distanti
da (r, t) nel tempo o nello spazio, secondo il comportamento tipico di un sistema I/O
dotato di memoria in cui le uscite le induzioni d(·) o b(·) oppure la densità di corrente
j(·) e gli ingressi i vettori e(·) o h(·).
Da un punto di vista dei modelli, per lo meno in condizioni di linearità, le uscite del
sistema “equivalente” si ottengono attraverso la convoluzione della risposta impulsiva
del mezzo con l’ingresso opportuno. Trattandosi, tuttavia, di grandezze vettoriali, la
matematica si complica notevolmente, poiché la risposta impulsiva del mezzo non è
una semplice funzione scalare, ma una matrice.
Si parla in tal caso di mezzi dispersivi (lineari), nel tempo o nello spazio a seconda
delle circostanze. In pratica, la dispersività comporta che la relazione sussistente,
per esempio, fra d(·) ed e(·) non è una relazione di proporzionalità o il prodotto
Capitolo 1. Il campo elettromagnetico
14
per una matrice, come nei casi esaminati in precedenza, ma richiede un’integrazione
nell’intervallo di tempo (ti , tf ) o sull’insieme Ω che definiscono il dominio del problema
(i.e., delle equazioni di Maxwell).
L’effetto generale, comunque, è che il campo nel mezzo dipende, oltre che dall’istante di osservazione, anche dalla storia” passata; inoltre l’effetto della dispersività è
tanto più forte quanto più il mezzo riesce ad inseguire” le variazioni del campo. Un
effetto effettivamente visibile nello studio della propagazione delle onde magnetiche
sono i cosiddetti pacchetti d’onda, che però esulano dall’argomento del presente, e
riguardano invece le soluzioni delle EdM. Basti dire che in questo caso le varie costanti
dipendono invece dalla frequenza di osservazione, e questo porta ad una modifica, ad
esempio, della velocità con cui si propagano le onde e.m. e la stessa velocità varia con
la frequenza.
Ne risultano notevoli complicazioni dal punto di vista della determinazione analitica delle soluzioni e, di riflesso, la necessità di affidarsi a un approccio alternativo,
attraverso lo sviluppo di codici ad hoc in grado di affrontare e risolvere il problema
per via numerica al calcolatore.
In realtà tutti i mezzi sono dispersivi (persino il vuoto!), quindi si effettua un’approssimazione e si trascura in prima battuta questo effetto, salvo riprendere il problema
a posteriori per “ritoccare” le soluzioni calcolate. In generale, comunque, è possibile
trascurare questo effetto se il campo varia molto più velocemente della risposta del
mezzo.
. Omogeneità nel tempo e nello spazio.
Anche nell’ipotesi che i campi e le induzioni o il campo elettrico e la corrente siano
legati gli uni alle altre dalle relazioni di proporzionalità diretta riassunte nel sistema
(1.27), la permettività ²r (·), la permeabilità µr (·) e la conducibilità σr (·) sono funzioni
scalari sia delle coordinate spaziali che del tempo. Quando, tuttavia, la dipendenza
dalle une o dall’altra è soltanto implicita, ovvero i parametri caratteristici ²r (·), µr (·) e
σr (·) sono costanti in ogni punto del dominio di interesse o in ogni istante dell’intervallo
di osservazione, allora il mezzo si dice, rispettivamente, omogeneo nel tempo o nello
spazio. Un mezzo che sia omogeneo tanto nello spazio quanto nel tempo si dice,
senz’altro, omogeneo.
In effetti, l’ipotesi di omogeneità è una fortissima semplificazione del modello fisico
necessario alla descrizione delle proprietà elettromagnetiche dei materiali, perché è
pacifico, ad esempio, che il segnale elettromagnetico irradiato da un’antenna cellulare
incontra lungo il suo cammino ostacoli di ogni sorta, passando attraverso l’aria e i
Capitolo 1. Il campo elettromagnetico
15
muri delle case oppure riflettendosi sulla superficie degli specchi d’acqua o sugli strati
ionizzati dell’atmosfera. Cioè si propaga in una varietà eterogenea di mezzi materiali,
ognuno dei quali dotato di una permettività, una permeabilità e una conducibilità
diverse dagli altri. Al punto che il modello omogeneo dello spazio non è applicabile.
Sennonché la via perseguita nella pratica consiste, in genere, nella suddivisione del
dominio originale del problema (sia nel tempo che nello spazio) in un certo numero
(finito) di sottodomini, di modo tale che in ciascuno siano pressoché valide le ipotesi
di omogeneità. Quindi si studiano le soluzioni alle equazioni di Maxwell in ciascun
sottodominio e si cerca a posteriori di “incollarle”, forzando condizioni di raccordo
alle interfacce che assicurino il rispetto di tutte le leggi fondamentali, come, ad es.,
l’equazione di continuità (1.16).
. Linearità e sovrapposizione degli effetti.
La diretta generalizzazione della relazione d(·) = ²(·) e(·), con cui si può descrivere,
in alcune circostanza, il legame fra il campo e l’induzione elettrica14 in condizioni di
anisotropia, prevede di assumere che
d(·) =
n
X
²(k) (·) e(·) = ²(·) e(·) + ²(2) (·) e(·) + . . . + ²(n) (·) e(·)
(1.28)
k=1
dove n ∈ N0 è un certo grado di non linearità, introdotto nel modello per tenere conto
degli effetti del secondo, terzo, . . . ordine indotti dal mezzo, con il vantaggio che quanto
più n cresce, tanto più preciso è l’accoppiamento fra d(·) ed e(·) descritto dalla (1.28);
e lo svantaggio che la soluzione (anche numerica) delle equazioni di Maxwell ne risulta
enormemente complicata.
Per queste ragioni, nella pratica, si preferisce quasi sempre utilizzare l’approssimazione del prim’ordine, forzando la linearità del mezzo. In generale, il modello è
accettabile (rispetto al risultato che produce) fintanto che l’intensità dei campi non
è molto elevata o le loro variazioni nel tempo non sono troppo repentine. E allora
il mezzo soddisfa il c.d. principio di sovrapposizione degli effetti, per cui il campo
totale dovuto, ad esempio, alla presenza di n sorgenti distinte in una stessa regione
dello spazio può essere espresso come somma dei campi parziali dovuti ad ogni singola
sorgente in assenza di tutte le altre.
14 :
ovvero fra il campo e l’induzione magnetico oppure il campo elettrico e la densità di
corrente, secondo relazioni del tutto analoghe.
Capitolo 1. Il campo elettromagnetico
1.4
16
Il fenomeno dello scattering
Un’applicazione particolarmente interessante del modello maxwelliano attiene alla cosiddetta teoria dello scattering, che trova applicazioni trasversali nei più disparati
settori della ricerca scientifica e dell’avanzamento tecnologico, dall’implementazione di
apparecchiature di diagnostica tumorale all’impiego del telerilevamento satellitare per
la localizzazione di giacimenti petroliferi o di metalli preziosi negli strati superficiali
della crosta terrestre.
Almeno nei limiti dell’elettromagnetismo, la teoria dello scattering riguarda gli
effetti prodotti dalla presenza di un mezzo disomogeneo sulla propagazione (altrimenti
libera) di un’onda. Nello specifico, supponendo che il campo totale u(·) associato ad
una qualche proprietà radiante del segnale15 si possa scomporre nella somma di un
campo incidente ui (·), associato alle sorgenti, e di un campo diffuso (o scatterato) us (·),
associato alla presenza delle disomogeneità (ovvero di qualche ostacolo), è possibile
definire almeno due tipi di problemi comunemente ascritti alla teoria dello scattering:
i) il problema diretto, per cui si chiede di determinare us (·) dalla consocenza di ui (·)
e delle equazioni che governano la propagazione dell’onda, incluse le relazioni
costitutive del mezzo e la sua geometria;
ii) il problema inverso, per cui si richiede di risalire la natura del mezzo e/o ricostruirne la geometria a partire dalla conoscenza del comportamento asintotico
di us (·), ovvero di ricavare le equazioni del problema e/o il loro dominio di
definizione, ammettendo di conoscerne un certo set di soluzioni.
Al di là della descrizione appena fornita sull’argomento, necessariamente assai semplificata, il topic coinvolge un’immensa mole di concetti fisici e idee matematiche consolidate nel corso di tanti anni di intensa ricerca nell’area. In particolare, per un saggio
sufficientemente completo degli innumerevoli contributi portati allo sviluppo del settore, si raccomandano le monografie di Bleistein [19], Colton e Kress [21], Jones [25],
Lax e Phillips [31], Newton [32], Reed e Simon [33] e Wilcox [35].
In seno alla teoria dello scattering, i problemi più semplici da affrontare riguardano
il caso (scalare) delle cosiddette onde acustiche a dipendenza armonica dal tempo, diffuse da un mezzo disomogeneo e assorbente a supporto compatto oppure da un oggetto
limitato e impenetrabile: oltreché per la loro rilevanza in situazioni realistiche di notevole interesse applicativo (per esempio, nella tomografia acustica e nella diagnostica
non distruttiva), lo studio dei suddetti problemi serve pure da modello per lo studio
di fenomeni di propagazione più complicati, che coinvolgono lo scattering di particelle
15 :
ad es., il campo elettrico o il vettore di Poynting.
Capitolo 1. Il campo elettromagnetico
17
oppure onde elastiche o elettromagnetiche. Dal punto di vista della modellazione matematica, si assume che, limitatamente almeno all’intervallo (ti , tf ) di osservazione, il
campo incidente sia espresso da un’onda piana temporalmente armonica della forma
ui (r, t) := exp(jkhr, di3 − ωt),
per ogni (r, t) ∈ Ω × (ti , tf )
(1.29)
dove d ∈ R3 è il versore della direzione di propagazione, k := ω/c il numero d’onda,
ω è la frequenza (angolare) e c la velocità di riferimento (del segnale) calcolata in una
condizione ideale di completa omogeneità 16 .
Nel caso di un mezzo disomogeneo, il problema diretto comporta, allora, la determinazione (ove possibile) di un campo scalare us (·) : R3 → C tale che

 ∆3 u(r) + k2 n(r) u(r) = 0
,
per ogni r ∈ R3
 u(r) = exp(jkhr, αi3 ) + us (r)
(1.30)
Qui n(·) : R3 → C è una funzione nota, che esprime il rapporto locale fra la velocità
del campo totale u(·) nel mezzo inomogeneo e la velocità di riferimento c dell’onda
incidente. Il problema differenziale (1.30) viene completato abbinandogli una qualche
condizione al contorno sui punti della sfera infinita. Ad esempio, la condizione di
radiazione di Sommerfeld, per cui si richiede che
µ s
¶
∂u (r)
s
lim r ·
− ik u (r) = 0
r→∞
∂r
(1.31)
La condizione al limite (1.31) ha una chiara interpretazione fisica: serve a garantire che
l’onda diffusa, a grande distanza dall’origine, si approssimi a un’onda sferica diretta
radialmente verso l’infinito. D’altro canto, ammettendo che lo scattering sia dovuto ad
un ostacolo sound-soft impenetrabile, tipicamente modellato da un insieme aperto e
connesso D ⊆ R3 , la cui frontiera sia una superficie di classe C 2 oppure, a un livello di
generalizzazione superiore, una superficie di Lyapunov, il problema consiste nel calcolo
di un campo scalare us (·) : Ω → C, con Ω := R3 \ cl(D), tale che

 ∆3 u(r) + k2 n(r) u(r) = 0
,
per ogni r ∈ Ω
 u(r) = exp(jkhr, αi3 ) + us (r)
(1.32)
e u(r) = 0, per ogni r ∈ ∂D (condizione omogenea al contorno di Dirichlet). Come
nel caso precedente, è tipico, poi, completare il modello imponendo che us (·) verifichi
anche la (1.31). Inoltre è possibile che la condizione di bordo per cui u(r) = 0 su ∂D
venga sostituita con altre differenti17 . Comunque sia, resta che gli esempi presentati
16 :
per esempio, nel caso elettromagnetico, ammettendo lo spazio interamente “occupato”
dal vuoto (o da un altro dielettrico omogeneo), in assenza degli scatteratori.
17 : ad esempio, condizioni al contorno di Neumann o di Robin.
Capitolo 1. Il campo elettromagnetico
18
finora rappresentano, nell’ambito della teoria dello scattering diretto, i problemi più
semplici per cui sia possibile trovare una corrispondenza fra il modello matematico e i
fenomeni reali della fisica. Ciò nonostante, tuttavia, non è dato affermare, ancora oggi,
che siano stati del tutto risolti. Tanto che restano un soggetto di enorme attrattiva
scientifica, specialmente dal punto di vista numerico, ossia della loro risoluzione stabile
ed efficiente al calcolatore. Maggiori dettagli vengono forniti nel corso del successivo
cap. 2, dove si fornisce una review molto completa, dal taglio eminentemente formale,
della teoria dello scattering scalare da cilindri metallici.
Il quadro è ulteriormente complicato dall’introduzione del problema dello scattering inverso, di pari interesse, ma in molte circostanze persino più complesso (sotto
il profilo matematico). Per poterne fornire una formulazione rigorosa, serve, anzitutto, riconoscere che il campo diffuso determinato dai problemi diretti (1.30) e (1.32)
possiede un andamento asintotico del tipo
µ ¶
ejkr s
1
us (r) =
u∞ (r̂; k, d) + O 2
r
r
(1.33)
dove r := r̂ · krk, per ogni 0 6= r ∈ R3 , e us∞ (·) è il cosiddetto campo lontano 18 .
Lo studio dello scattering inverso, allora, consiste nel determinare vuoi l’indice di
diffrazione del mezzo disomogeo del problema (1.30) vuoi la geometria dello scatteratore sound-soft del problema (1.32) a partire dalla conoscenza del campo lontano
us∞ = us∞ (r̂; k, α), per ogni (r̂, d) ∈ U ⊆ B22 , ; oltreché, eventualmente, per diversi
valori del numero d’onda k ∈ C.
. Lo scattering nelle applicazioni
Il numero delle applicazioni è esorbitante, al punto che non è pensabile qui fornirne
un elenco estensivo completo. Si spazia, di fatto, dall’ambito militare, dove la teoria
ed i suoi risultati vengono impiegati, per es., nella localizzazione di ordigni sepolti inesplosi, campi minati, tunnel sotterranei; all’ambito aereospaziale, con la realizzazione
di sistemi di sondaggio per l’analisi delle proprietà elettriche del suolo e sottosuolo di
pianeti o satelliti19 .
Lo scattering inverso, in particolare, è alla base del principio di funzionamento della
tecnologia GPR (ground penetrating radar ), utilizzata in geofisica per la determinazione delle stratificazioni nel terreno e di eventuali presenze di cavità o falde acquifere;
o in archeologia per la caratterizzazione preliminare degli scavi nei siti archeologici.
In questi contesti, il vantaggio principale consiste nella possibilità di conoscere con
18 :
19 :
anche noto col nome di ampiezza di scattering.
un sistema del genere fu impiegato nella missione spaziale Apollo 17.
Capitolo 1. Il campo elettromagnetico
19
esattezza l’ubicazione degli obiettivi di interesse in maniera completamente non distruttiva, i.e, senza dover danneggiare lo scenario di indagine procedendo “alla cieca”
con scavi, carotaggi, etc.
Oltreché nel campo geofisico e archeologico, i sistemi GPR vengono utilizzati in
diverse applicazioni ad alta risoluzione, come la ricerca di fratture nascoste in strutture edili particolari (dighe, pilastri, ect.), la rilevazione della velocità e profondità di
diffusione di materiali inquinanti oleosi dispersi a terra, la misurazione di precisione
dello spessore di lastre di ghiaccio, manti stradali, massicciate, ect.; e più in generale
in numerosi campi di indagine inerenti a obiettivi di interesse ambientale.
Estremamente attuali sono, poi, le ricadute nel settore delle scienze biomediche,
dove lo scattering è largamente impiegato nel campo della diagnostica non invasiva,
cui di recente l’autore si è applicato, poiché coinvolto in una serie di ricerche condotte,
nell’ambito dei PRIN20 , dall’IREA21 di Napoli, in collaborazione con il gruppo di
Campi elettromagnetici della Facoltà di Ingegneria dell’Università “Mediterranea” di
Reggio Calabria.
L’attività svolta nel corso del ciclo di dottorato, ad ogni modo, si è incentrata
in prevalenza sullo studio dei problemi diretti e delle tecniche numeriche per la loro
risoluzione, che trovano riscontro, ad esempio, nella progettazione e implementazione di antenne per le telecomunicazioni (terrestri e satellitari), nella rilevazione radar
di oggetti in volo (nell’ambito dell’aeronautica civile o della difesa militare) o nella
realizzazione di sistemi intelligenti di autodistanziamento dei veicoli su strada (c.d.
sensori FS); e inoltre costituiscono, in circostanze ordinarie, un passaggio necessario
nel processo di validazione delle procedure utilizzate per “attaccare” i problemi inversi.
20 :
21 :
Progretti di Rilevante Interesse Nazionale.
Istituto per il Rilevamento Elettromagnetico dell’Ambiente.
Capitolo 2
L’EFIE e lo scattering diretto
Nel corso del capitolo consideriamo un problema al contorno collegato in modo naturale allo studio dello scattering diretto di un’onda piana a dipendenza armonica dal
tempo da parte di un conduttore cilindrico (perfetto o imperfetto). Benché il problema
sia semplice se paragonato ad altri analoghi della teoria dello scattering, la sua risoluzione ha richiesto molti anni di ricerca per essere formalizzata e costituisce, di fatto,
una base sicura per lo sviluppo e il testaggio delle procedure di calcolo implementate
per la risoluzione numerica di problemi generali in cui siano coinvolti dei sistemi più
complessi.
2.1
Le equazioni dello scattering
Consideriamo la propagazione di un’onda elettromagnetica in un mezzo isotropo, omogeneo, non dispersivo e privo di perdite, caratterizzato da permettività dielettrica ² e
permeabilità magnetica µ reali e costanti. Fissata una frequenza ω > 0, ammettiamo
che l’onda si possa descrivere nei termini di una coppia e(·), h(·) di campi R3 ×(−∞, ∞)
tali che

 e(r, t) = ²−1/2 E(r) e−jωt
,
 h(r, t) = µ−1/2 H(r) e−jωt
in R3 × (−∞, ∞)
(2.1)
3
dove E(·), H(·) sono funzioni vettoriali Lloc
1 (R , C) che risolvono (in un qualche senso
da doversi precisare) il sistema di equazioni alle derivate parziali [18]

 rot E(r) − jkH(r) = 0
,
per ogni r ∈ Ve
 rot H(r) + jkE(r) = 0
(2.2)
Capitolo 2. L’EFIE e lo scattering diretto
21
√
in cui k := ω ²µ è detto numero d’onda e Ve := R3 − V rappresenta il complementare
della chiusura topologica di un aperto monoconnesso ∅ 6= V ⊆ R3 . Quindi assumiamo
che un’onda piana monocromatica

1

 ei (r, t) = Ei (r; d, p) e−jωt =
rot rot p ejkhr,di−jωt
k2
1

rot p ejkhr,di−jωt
 hi (r, t) = Hi (r; d, p) e−jωt =
jk
(2.3)
di polarizzazione nota p ∈ R3 , si propaghi attraverso il cronotopo nella direzione
del versore d ∈ R3 e incida su un conduttore elettrico (possibilmente non ideale), e
ne risulti diffusa nello spazio circostante. Assimiliamo il dominio V al volume fisico
occupato dall’ostacolo ed immaginiamo di scomporre puntualmente i fasori E(·) ed
H(·) dei campi totali e(·) ed h(·) secondo una relazione del tipo

 E(r) = Ei (r; d, p) + Es (r; d, p)
,
in R3
 H(r) = Hi (r; d, p) + Hs (r; d, p)
(2.4)
dove Es (·) e Hs (·) rappresentano i campi scatterati (o diffusi) generati dall’interazione dell’onda incidente con l’ostacolo. Imponiamo, per finire, che la coppia (Es , Hs )
soddisfi la condizione di radiazione di Silver-Müller
¡
¢
lim Hs (r) × r − rEs (r) = 0
(2.5)
r→∞
r
, e l’una o l’altra,
krk2
esclusivamente, fra la condizione al bordo di Dirichlet omogenea
uniformemente rispetto ad ogni direzione dello spazio r̂ :=
E(r) = 0,
per ogni r ∈ ∂V
(2.6)
oppure la condizione al bordo di Robin
¡
¢
n̂ × rot E(r) − jλ(r) n̂ × E(r) × n̂,
per ogni r ∈ ∂V
(2.7)
in cui λ(·) è una funzione positiva ∂V → R impiegata per modellare l’impedenza
superficiale dell’oggetto e n è il versore della normale locale uscente dalla frontiera di
V (che qui si suppone una varietà di classe C 2 ).
Su queste premesse, il problema dello scattering elettromagnetico di onde piane
armoniche nel tempo da parte di un ostacolo metallico consiste, in generale, nella
determinazione di una coppia di soluzioni alle equazioni di Maxwell (2.2) che soddisfino
le relazioni (2.3)-(2.4) e le condizioni al contorno (2.5)-(2.6) o (2.5)-(2.7): parleremo
nel primo caso di scattering da corpi metallici ideali, nel secondo di scattering da
conduttori elettrici imperfetti.
Capitolo 2. L’EFIE e lo scattering diretto
2.2
22
Il caso del conduttore cilindrico
Immaginiamo, adesso, che lo scatteratore del problema definito nel corso del paragrafo precedente non abbia una geometria arbitraria, ma sia un cilindro di sezione
trasversale Ω ed asse parallelo alla direzione ẑ di una base ortonormale destrogira
(x̂, ŷ, ẑ) di R3 , in cui il punto generico r si possa equivalentemente esprimere per
mezzo del sue coordinate rettangolari (x, y, z). Ipotizziamo che Ω, in proiezione sul
piano z = 0, sia un aperto monoconnesso di R2 e poniamo Ωe := R2 − Ω̄. Quindi
assumiamo p = (0, 0, 1) e d = (d1 , d2 , 0) con riferimento alla (2.3) e che il campo EM
sia trasverso magnetico, i.e.

 Ei (r) = exp(jkhr, di) ẑ
,
 E(r) = Ez (r) ẑ
per ogni r ∈ R3
(2.8)
Sotto queste ipotesi, i campi totali E(·) ed H(·) associati al problema di scattering
(2.2)-(2.5) si dimostrano indipendenti dalla coordinata longitudinale z. Ne risulta
dalla (2.2) che H(r) = Hx (r) x̂ + Hy (r) ŷ in Ve e che le componenti incognite Hx (·),
Hy (·) e Ez (·) di E(·) ed H(·) soddisfano il sistema



∂ E (r) = jkHx (r)

 y z
,
per ogni r ∈ Ωe
∂x Ez (r) = −jkHy (r)



 ∂ H (r) − ∂ H (r) = −jkE (r)
x
y
y
x
(2.9)
z
dove adesso r := (x, y). Da qui, postulando che Ez (·) sia derivabile almeno fino
al secondo ordine oppure interpretando le derivate in senso debole, si deduce che il
campo, in definitiva, è determinato dall’equazione scalare di Helmholtz
∆2 Ez (r) + k2 Ez (r) = 0,
in Ωe
(2.10)
A questo punto si tratta di adattare alla particolare configurazione del problema le
condizioni al contorno richieste nel caso generale.
In tal senso, considerando che Es (·) è allineato con ẑ, i.e., Es (r) = Ezs (r) ẑ in Ve ,
è sufficiente imporre che Ezs (·) verifichi, uniformemente per ogni direzione del piano
r
r̂ :=
, la condizione di radiazione di Sommerfeld
krk2
µ
¶
√
∂Ezs (r)
lim r
− jkEzs (r) = 0
(2.11)
r→∞
∂r
per garantire che la condizione di Silver-Müller (2.5) sia “naturalmente” soddisfatta. D’altro canto, la condizione omogenea di Dirichlet (2.6), valida nel caso di un
conduttore cilindrico perfetto, comporta in tutta evidenza che
Ezs (r) = − exp(jkhr, di),
per ogni r ∈ ∂Ω
(2.12)
Capitolo 2. L’EFIE e lo scattering diretto
23
dove ∂Ω := Ω̄ ∩ Ω̄e è, di fatto, una curva del piano di classe C 2 , per via delle ipotesi
assunte sulla frontiera di V. Mentre la condizione di Robin (2.7) per un cilindro
metallico non ideale assume la forma semplificata
∂Ez (r)
+ jλ(r) Ez (r) = 0,
∂n
per ogni r ∈ ∂Ω
(2.13)
dacché n̂ = (nx , ny , 0) e E(·) = Ez (·) ẑ, nella geometria del problema, e perciò n̂ ×
¢
¡
rot E(r) = −∂n̂ Ez (r) e n̂ × E(r) × n̂ = E(r) su ∂Ω.
Le equazioni (2.10)-(2.11), abbinate ora alla (2.12) ora alla (2.13), definiscono,
di fatto, il modello differenziale utilizzato per lo studio dello scattering elettromagnetico TM da parte di un cilindro metallico, ideale o non ideale, di un’onda piana
monocromatica polarizzata secondo l’asse dello scatteratore.
Per quanto semplice rispetto ad altri problemi di scattering, in cui sono coinvolti
sistemi a n corpi o geometrie singolari e le equazioni di Maxwell o le loro derivazioni
(ad es., l’equazione di Helmholtz) non si “scalarizzano”, manifestando pienamente la
propria natura vettoriale, il caso cilindrico costituisce
• un presupposto e un banco di prova importante per la definizione di un’ampia
varietà di tecniche, analitiche e numeriche, da potersi utilizzare nella risoluzione
di problemi ben più generali [54];
• un modello efficace per ottenere delle ragionevoli stime di prima approssimazione
là dove ogni altro approccio sia precluso o sconveniente1 .
Da qui l’ampio spazio dedicato nel prosieguo del capitolo agli sviluppi della teoria
matematica necessaria per inquadrare all’interno del giusto assetto formale la soluzione
del problema definito nel corso di questo paragrafo.
2.2.1
Il problema diretto
Passiamo adesso a formalizzare i passaggi fondamentali per cui si dimostra che il
problema dello scattering da conduttori cilindrici in presenza di un’eccitazione piana
armonica nel tempo, polarizzata secondo il vettore p = (0, 0, 1), è ben posto (secondo
Hadamard). Nel senso che l’equazione di Helmholtz 2-dimensionale (2.10) possiede
un’unica soluzione (forte) u(·) ∈ C 2 (Ω; C) ∩ C 1 (Ω; C) che dipende con continuità (in
una norma opportuna) dai dati e per cui sono soddisfatte le condizioni al contorno
(2.11) e (2.12) oppure (2.11) e (2.13), a seconda che il conduttore sia perfetto o meno.
1:
alcuni codici utilizzati per la computazione numerica della soluzione dei problemi di
scattering 3D operano iterativamente a partire da una stima iniziale dei termini incogniti, da
cui dipende spesso in modo critico la convergenza tout-court della procedura.
Capitolo 2. L’EFIE e lo scattering diretto
24
Innanzitutto riformuliamo il problema, svincolandolo dal suo rapporto con il fenomeno fisico. Assumiamo astrattamente che Ω 6= ∅ sia un dominio limitato di R2
contenente l’origine con un complemento Ωe := R2 − Ω̄ connesso2 tale che ∂Ω sia
di classe C 2 . L’obiettivo è di sintetizzare la dimostrazione dell’esistenza di un’unica
funzione us (·) ∈ C 2 (Ωe ) ∩ C 1 (Ω̄e ) tale che

 ∆2 u(r) + k2 u(r) = 0
,
 u(r) = exp(jkhr, di) + us (r)
in Ωe
(2.14)
dove k è una costante positiva e us (·) soddisfa la condizione di Sommerfeld
µ s
¶
√
∂u (r, θ)
lim r
− jkus (r, θ) = 0
r→∞
∂r
(2.15)
uniformemente per ogni θ ∈ [0, 2π), dove (r, θ) sono le coordinate polari di un generico
punto r ∈ R2 − {(0, 0)}. Inoltre richiediamo che u(·), come definito dalla (2.14),
verifichi l’una o l’altra fra la condizione di Dirichlet
u(r) = 0
⇐⇒
us (r) = − exp(jkhr, di),
in ∂Ω
(2.16)
o la condizione di impedenza superficiale di Robin
∂u(r)
+ jλ(r)u(r) = 0,
∂ n̂
in ∂Ω
(2.17)
In quest’ultimo caso, ammettiamo che λ(·) sia una funzione continua positiva ∂Ω → R
e che n = n(r) rappresenti il versore locale della normale uscente da Ω nel generico
punto r ∈ ∂Ω. Per dimostrare l’esistenza di una soluzione al problema al contorno così
formulato intendiamo utilizzare la teoria dei potenziali di singolo e doppio strato [36].
. L’unicità della soluzione
Identifichiamo la soluzione fondamentale dell’equazione di Helmholtz in (2.14) nella
funzione Φ(·) : R2 × R2 7→ C definita assumendo
Φ(r, s) :=
1 (1)
jH (kkr − sk2 ),
4 0
per ogni r, s ∈ R2 , r 6= s
(2.18)
(1)
dove H0 (·) indica la funzione di Hankel di prima specie e ordine zero [55]. Quindi
notiamo che Φ(·) soddisfa la condizione di radiazione di Sommerfeld (2.11) rispetto a
entrambi i suoi argomenti e che
Φ(r, s) =
2:
1
1
ln
+ O(1),
2π
kr − sk2
per kr − sk2 → 0+
si osservi che Ω può essere anche molteplicemente connesso.
(2.19)
Capitolo 2. L’EFIE e lo scattering diretto
25
Per inciso, qualunque sia s ∈ R2 , la funzione R2 → C : r 7→ Φ(r, s) è una soluzione
debole (v. appendice A) l’equazione non omogenea
∆2 u + k2 u = δs
dove δs è la massa di Dirac di centro s. In effetti, è interessante come, nell’ambito
della teoria delle funzioni generalizzate, le conclusioni a venire si possano stabilire (per
dualità) con uno sforzo molto più modesto di quanto non avvenga per la formulazione
classica del problema. Il prezzo da pagare è che, nell’approccio distribuzionale, non
è possibile inferire alcuna informazione a priori sulla regolarità delle soluzioni, che
dev’essere, infatti, dedotta a posteriori impiegando alcuni risultati non banali come i
teoremi di immersione di Sobolev.
Detto questo, l’importanza dell’introduzione della soluzione fondamentale (2.18) è
legata, sostanzialmente, al teorema qui di seguito enunciato, per cui risulta che ogni
soluzione sufficientemente regolare del problema esteriore (2.10) si può rappresentare,
attraverso i teoremi di Green, in termini di un integrale di linea sulla frontiera ∂Ω
della sezione 2D trasversale dello scatteratore cilindrico.
¥
Teorema 2.1 Ogni soluzione us (·) di classe C 2 (Ωe ) ∩ C 1 (Ω̄e ) dell’equazione
∆2 us (r) + k2 us (r) = 0,
in Ωe
che soddisfi la condizione di radiazione di Sommerfeld (2.15) è tale che
¶
ˆ µ
∂Φ(r, s)
∂us (s)
us (r) =
us (s)
− Φ(r, s)
d`(s)
∂ n̂(s)
∂ n̂
∂Ω
(2.20)
(2.21)
La dimostrazione utilizza l’ipotesi essenziale che ∂Ω sia una curva liscia del piano di
classe C 2 . Nel caso di profili più irregolari3 la validità della rappresentazione integrale
(2.21) non è più generalmente garantita. Anzi non esistono, al meglio delle nostre
conoscenze, nello spettro della letteratura elettromagnetica dedicata all’argomento,
risultati relativi al caso, del resto assai comune nelle applicazioni, in cui il profilo
superficiale degli scatteratori presenti delle singolarità.
D’altronde, la questione non è affatto irrilevante, se si considera che il teorema
(2.1) costituisce il fondamento di un’ampia varietà di tecniche, analitiche e numeriche,
impiegate per attaccare sia il problema diretto che il problema inverso. Che abbisognerebbero, evidentemente, di una validazione teorica per acquistare dignità scientifica,
nonostante la comunità continui a utilizzarle con una certa disinvoltura, secondo una
prassi quasi del tutto arbitraria e pressoché priva di qualsiasi fondamento. Un tentativo del dottorando in questa direzione è stato di indagare la possibilità di generalizzare
3:
ad es., in presenza di uno o più punti angolosi sulla frontiera di Ω.
Capitolo 2. L’EFIE e lo scattering diretto
26
le idee del teorema (2.1) al caso delle cosiddette curve di Lyapunov. Sennonché i risultati ottenuti sono ancora prematuri e non possono trovare spazio in questa trattazione,
che infatti sarà limitata al caso in cui ∂Ω sia liscia di classe C 2 .
Di fatto, sotto queste condizioni, la rappresentazione (2.21) si estende senza difficoltà anche a una generica soluzione u(·) ∈ C 2 (Ω) ∩ C 1 (Ω̄) del problema interiore, a
prescindere dalle condizioni di bordo, e garantisce, in definitiva, che
¶
ˆ µ
∂us (s)
∂Φ(r, s)
u(r) =
Φ(r, s)
− u(s)
d`(s)
∂ n̂
∂ n̂(s)
∂Ω
(2.22)
Per cui risulta che ogni soluzione dell’equazione di Helmholtz 2-dimensionale è una
funzione analitica dell’intero spazio R2 . Quindi soddisfa al principio di continuazione
unica, per cui è assicurato che, se u(·) è soluzione dell’equazione di Helmholtz in un
dominio di R2 e u(r) = 0 nell’intorno di un suo punto r0 , allora u(·) è identicamente
nulla. Ne seguita l’unicità della soluzione al problema diretto (2.14)-(2.15) abbinato
alla condizione di Robin (2.17) o di Dirichlet (2.16) su ∂Ω (v. [37], pagg. 54-55).
. L’EFIE e l’esistenza della soluzione
Adesso intendiamo utilizzare il metodo delle equazioni integrali per dimostrare l’esistenza di una soluzione radiante u(·) ∈ C 2 (Ωe ) ∩ C 1 (Ω̄e ) all’equazione di Helmholtz per
il dominio esteriore Ωe che soddisfa l’una o l’altra, esclusivamente, fra le condizioni al
contorno (2.17) o (2.16). Allo scopo, notiamo innanzitutto che, se ϕ(·) : ∂Ω → C è
una funzione continua, il potenziale di singolo strato
ˆ
us (·) : R2 − ∂Ω → C : r 7→
ϕ(s)Φ(r, s) d`(s)
(2.23)
∂Ω
soddisfa la condizione di radiazione di Sommerfeld, risolve l’equazione di Helmholtz in
R2 − ∂Ω (i.e., sia in Ω che nel suo complementare Ωe ), è continua nel piano (quindi
anche nei punti di ∂Ω) e verifica la proprietà di discontinuità
ˆ
∂us± (r)
∂Φ(r, s)
1
=
ϕ(s)
d`(s) ∓ ϕ(r),
per ogni r ∈ ∂Ω
∂ n̂
∂ n̂(r)
2
∂Ω
(2.24)
∂us± (r)
:= lim hn̂(r), ∇us (r±hn̂(r)i2 , uniformemente per ogni r ∈ ∂Ω. Ad ogni
∂ n̂
h→0+
buon conto, notiamo che le proprietà appena elencate dei potenziali di singolo strato
dove
restano valide anche “rilassando” fortemente le ipotesi sulla funzione di densità ϕ(·),
e nello specifico prescrivendo che sia ϕ(·) ∈ H −1/2 (∂Ω) piuttosto che ϕ(·) ∈ C 0 (∂Ω)
[22, 23] - e interpretando di conseguenza l’integrale a destra della (2.23) in senso duale.
In particolare, si trova che il potenziale di singolo strato (2.23) risolve il problema
(2.14)-(2.15) con la condizione al contorno di Robin su ∂Ω, se
ˆ
ˆ
∂Φ(r, s)
ϕ(s)
ϕ(r) − 2
ϕ(s)Φ(r, s)d`(s)
d`(s) − 2jλ(r)
∂n(r)
∂Ω
∂Ω
Capitolo 2. L’EFIE e lo scattering diretto
¶
∂ui (r)
+ jλ(r) ui (r) ,
per ogni r ∈ ∂Ω
∂ n̂(r)
ovvero con la condizione al contorno di Dirichlet, a patto che
ˆ
ϕ(s)Φ(r, s)d`(s) = −ui (r),
per ogni r ∈ ∂Ω
27
µ
=2
(2.25)
(2.26)
∂Ω
dato ui (r) := exp(jkhr, di2 ) in R2 . Di fatto, nei termini dell’ingegneria dei campi,
la (2.26) rappresenta la cosiddetta equazione integrale del campo elettrico (EFIE) per
lo scattering diretto TMz da cilindri metallici ideali C 2 -regolari. Idem per la (2.25),
limitatamente al caso dei metalli imperfetti.
A seconda della natura particolare dello scatteratore, l’EFIE ci consente di dedurre
l’esistenza di una soluzione al problema diretto (2.14)-(2.15) a patto di poter dimostrare l’esistenza di una soluzione all’equazione integrale (2.25) o (2.26) nello spazio di
Banach C(∂Ω, C) delle funzioni continue ∂Ω → C attrezzato con la norma uniforme4
k · kC(∂Ω,C) : C(∂Ω) → R : f (·) 7→ max |f (r)|
r∈∂Ω
(2.27)
A questo scopo, osserviamo innanzitutto che gli operatori integrali coinvolti nella scrittura delle equazioni (2.25) e (2.26) sono compatti, poiché limite di opportune successioni di operatori compatti (v. [37], pagg. 56-57). Allora l’idea è di stabilire l’esistenza
di una soluzione al problema utilizzando la teoria di Riesz sugli operatori compatti.
. Il problema delle risonanze
Di fatto, si tratterebbe di provare che la versione omogenea dell’EFIE, nelle due formulazioni (2.25) e (2.26), possiede soltanto la soluzione banale, in accordo al teorema
di Riesz (v. [37], pagg. 11-13). Questo è rigorosamente vero fintanto che k2 non è un
autovalore di Dirichlet del problema interno.
In caso contrario, infatti, esiste una funzione u(·) ∈ C 2 (Ω) ∩ C 0 (Ω̄), non identicamente nulla, tale che ∆2 u(r) + k2 u(r) = 0 in Ω e u(r) = 0 sulla frontiera ∂Ω. Allora
∂u
u(·) è di classe C 1 (Ω̄) (v. [21]) e la sua derivata normale
(·) non è identicamente
∂ n̂
nulla su ∂Ω, dacché altrimenti, per il teorema di rappresentazione (2.22), si avrebbe
∂u
u(r) = 0, per ogni r ∈ Ω, contro le ipotesi. Perciò, posto ϕ(·) :=
(·)
∂ n̂
ˆ
ϕ(s)Φ(r, s) d`(s),
per ogni r ∈ Ωe
(2.28)
∂Ω
e la relazione si estende (per continuità) ad ogni r ∈ Ω̄e . Da qui, utilizzando le
proprietà di discontinuità dei potenziali di singolo strato, si trova che
ˆ
∂
ϕ(s)
ϕ(r) − 2
Φ(r, s) d`(s),
per ogni r ∈ ∂Ω
∂
n̂(s)
∂Ω
4:
(2.29)
la definizione della norma è ben posta, perché ∂Ω è un compatto di R2 e ogni funzione
continua ∂Ω → C ammette, perciò, massimo assoluto sulla base del teorema di Weierstrass.
Capitolo 2. L’EFIE e lo scattering diretto
28
Se ne conclude, combinando linearemente le equazioni (2.28) e (2.29), che ϕ(·) è una
soluzione non banale dell’EFIE, nella versione (2.25) per i metalli non ideali o (2.29)
per i conduttori perfetti. Di conseguenza, il teorema di Riesz non si può più utilizzare.
Si dice, in questi casi, che il modello ai potenziali di singolo strato degenera, con l’effetto
che il nucleo dell’operatore integrale diviene non iniettivo e la soluzione numerica ne
viene “sporcata”. In termini elettromagnetici, in pratica, accade che, quando k2 è un
autovalore del problema di Dirichlet interno, la corrente equivalente sulla frontiera ∂Ω
del dominio del problema - che corrisponde fisicamente alla densità incognita ϕ(·) delle
equazioni (2.25) o (2.26) - non è univocamente determinata. Con la conseguenza che la
loro soluzione numerica, almeno in linea di principio, manifesta delle forti instabilità,
che la rendono scarsamente affidabile 5 .
Per ottenere un’equazione integrale che sia risolvibile in modo univoco per ogni
valore del numero d’onda k è necessario ritoccare la rappresentazione (2.23), attraverso
la definizione di un potenziale di singolo strato modificato (v. [21], pagg. 57-58), che
gode delle stesse proprietà del potenziale di singolo strato (2.23), ma in più rende
l’EFIE modificata iniettiva ad ogni k.
2.3
Le equazioni dello scattering 3D
Nel corso del paragrafo precedente abbiamo utilizzato come modello lo scattering di
onde piane monocromatiche, opportunamente polarizzate, da parte di un cilindro metallico (infinito), così riducendo il sistema vettoriale delle equazioni differenziali di
Maxwell ad una singola equazione scalare su un dominio bidimensionale o tridimensionale. In quest’ultimo capitolo intendiamo brevemente riassumere le modifiche che è
necessario apportare agli argomenti già proposti nei casi summenzionati per trattare
problemi di scattering elettromagnetico di carattere propriamente vettoriale.
Esistono due problematiche fondamentali nella trattazione matematica dei fenomeni di scattering elettromagnetico tridimensionale. La prima è che la formulazione
del problema diretto richiede l’introduzione di spazi funzionali molto più complessi (da
un punto della struttura topologica soggiacente) di quelli impiegati nel caso scalare.
La seconda è conseguenza della prima e attiene alla necessità di utilizzare tecniche e
risultati della matematica assai più sofisticati per studiare sia il problema diretto che
il problema inverso. Ciò nonostante, lo schema logico che bisogna seguire al fine di
5:
la soluzione numerica di un modello analitico si dice affidabile se, al limite, approssima
con un errore infinitesimo la soluzione esatta.
Capitolo 2. L’EFIE e lo scattering diretto
29
ottenere i risultati desiderati (e fra questi, per esempio, l’unicità e l’esistenza di una
soluzione) è essenzialmente lo stesso adottato nel caso scalare 2D o 3D.
Per queste ragioni la nostra presentazione sarà piuttosto contenuta: una quantità
di dettagli utili a completare il quadro si può, in ogni caso, ritrovare nella monografia
di Monk [57] citata fra le fonti bibliografiche.
2.3.1
Formulazione differenziale del problema diretto
Come già nei capitoli precedenti, focalizzeremo l’attenzione sul problema diretto dello
scattering da parte di un oggetto metallico (ideale o imperfetto), assimilabile a un
dominio V dello spazio R3 tale che la frontiera ∂V sia una varietà liscia di classe C 2 .
Ammettiamo sia n̂ = n̂(r) il versore della normale locale uscente da V relativa al
punto r ∈ ∂V e che sia possibile splittare ∂V in due sottovarietà disgiunte ∂VD e
∂VI , relativamente aperte ed eventualmente sconnesse. Il problema diretto cui siamo
interessati consiste, allora, nella determinazione di un campo elettromagnetico (E, B),
i.e., di una coppia di funzioni E(·), H(·) : D̄ → C3 sufficientemente regolari, per cui

 rot E(r) − ikH(r) = 0
,
per ogni r ∈ Ve
(2.30)
 rot H(r) + ikE(r) = 0
√
in cui k := ω ²µ è detto numero d’onda e Ve := R3 − V si suppone connesso. Quindi
assumiamo che un’onda piana monocromatica

1

 Ei (r; d, p) =
rot rot p ejkhr,di = jk (d × p) × d ejkhr,di
k2
1

rot p ejkhr,di = jk d × p ejkhr,di
 Hi (r; d, p) =
jk
(2.31)
di polarizzazione nota p ∈ R3 , si propaghi nello spazio 3D secondo la direzione del
versore d ∈ R3 , incida su V e ne risulti diffusa. Immaginiamo che i campi totali E(·)
ed H(·) si possano scomporre nella forma

 E(r) = Ei (r; d, p) + Es (r; d, p)
,
 H(r) = Hi (r; d, p) + Hs (r; d, p)
in R3
(2.32)
dove Es (·) e Hs (·) sono i campi scatterati incogniti. Imponiamo, quindi, che la coppia
(Es , Hs ) soddisfi la condizione di radiazione di Silver-Müller
¡
¢
lim Hs (r) × r − rEs (r) = 0
(2.33)
r→∞
uniformemente rispetto ad ogni direzione dello spazio r̂ :=
al contorno (risp., di Dirichlet e di Robin)

 E(r) = f (r)
 n̂ × rot E(r) − iλ(r)¡n̂ × E(r)¢ × n̂ = h(r)
r
, oltreché le condizioni
krk2
in ∂VD
in ∂VI
(2.34)
Capitolo 2. L’EFIE e lo scattering diretto
30
in cui f (·) : ∂VD 7→ C3 , λ(·) : ∂VI 7→ C e h(·) : ∂VD 7→ C3 sono note e λ(·) > 0, in
particolare, è una funzione positiva impiegata per modellare l’impedenza superficiale
dello scatteratore. La prima questione da affrontare comporta la determinazione di
condizioni di regolarità per f (·) e h(·) sufficienti a garantire che il problema (2.30)(2.34) ammetta una soluzione unica, peraltro dipendente con continuità dai dati6 . A
questo scopo, introduciamo lo spazio
¯
©
ª
X(V, ∂VI ) := u(·) ∈ H(rot, V) : n × u(·)¯∂V ∈ L2t (∂VI )
(2.35)
I
equipaggiato con la norma k · kX(V,∂VI ) : X(V, ∂VI ) → R definita assumendo
ku(·)k2X(V,∂VI ) := ku(·)k2H(rot,V) + kn̂ × u(·)k2L2 (∂VI )
(2.36)
per ogni u(·) ∈ X(V, ∂VI ), dove gli spazi7
H(rot, V) := {u(·) ∈ L2×3 (V) : rot u(·) ∈ L2×3 (V)}
L2t (∂VI ) := {u(·) ∈ L2×3 (∂VI ) : n̂ × u(r) = 0 su ∂VI }
sono equipaggiati, a propria volta, con le norme
q
k · kH(rot,V) : H(rot, V) → R : u(·) 7→
ku(·)kL2×3 (V) + krot u(·)kL2×3 (V)
e k · kL2t (VI ) : L2t (VI ) → R : u(·) 7→ ku(·)kL2×3 (V) . Come nei capitoli precedenti, infine,
possiamo introdurre gli spazi Xloc (Ve , ∂VI ) e Hloc (rot, Ve ) e lo spazio traccia Y (∂VD )
di X(V, ∂VI ) su ∂VD ponendo
©
Y (∂VD ) := f (·) ∈ H−1/2×3 (∂VD ) : ∃u(·) ∈ H0 (rot, ΩR )
¯
¯
ª
tale che n̂ × u(·)¯∂V ∈ L2t (∂VD ) e f (·) = n̂ × u(·)¯∂V
I
D
dove V ⊆ ΩR := {r ∈ R3 : krk2 < R} e
¯
H0 (rot, ΩR ) := {u(·) ∈ H(rot, ΩR ) : n̂ × u(·)¯Ω = 0}
R
(2.37)
Lo spazio traccia Y (∂VD ) si ammette attrezzato della norma
r
o
n
k · kY (∂VD ) : Y (∂VD ) → R : f (·) 7→ inf ku(·)k2H(rot,ΩR ) + kn̂ × u(·)k2L2 (∂V )
I
u(·)
dove l’estremo inferiore si intende calcolato su tutte le funzioni u(·) ∈ H0 (rot, ΩR ) tali
¯
¯
che n̂ × u(·)¯∂V ∈ L2t (∂VI ) e f (·) = n̂ × u(·)¯∂V . Per maggiori dettagli, si veda [57].
I
D
Ebbene, su questi presupposti teorici, vale il seguente
6:
7:
i.e., sia ben posto nel senso di Hadamard.
si assume L2×3 (∂VI ) := L2 (∂VI ) × L2 (∂VI ) × L2 (∂VI ).
Capitolo 2. L’EFIE e lo scattering diretto
¥
31
Teorema 2.2 Date che siano f (·) ∈ Y (∂VD ) e h(·) ∈ L2t (∂VI ), esiste un’unica
soluzione E(·) ∈ Xloc (Ve , ∂VI ) tale che
kE(·)kXloc (Ve ∩ ΩR ,∂VI ) ≤ C · (kf (·)k∂VD + kh(·)kL2 (∂VI ))
(2.38)
per ogni R > 0 per cui V ⊂ ΩR , essendo C un’opportuna costante positiva indipendente
da R ma non da f (·) ed h(·).
Di fatto, non si tratta del più generale fra i risultati di quest’ordine disponibili nella
letteratura scientifica dedicata al tema dello scattering. Tuttavia, senz’altro, è il più
semplice da formulare, nonostante il limite evidente di non essere applicabile, ad esempio, al caso di una geometria “elementare” come quella di un cubo, per via delle sue
singolarità. In effetti, in tempi assai recenti, qualche timido progresso è stato compiuto
nella direzione delle superfici di Lyapunov (già citate nel paragrafo precedente), essenzialmente fondato su un approccio al calcolo di tipo variazionale [38, 39]. Tuttavia,
non c’è spazio in questa tesi per una review dell’argomento.
Piuttosto ci interessa rilevare che, esattamente come nel caso cilindrico, anche
nelle ipotesi generali del teorema il problema diretto si può ricondurre alla soluzione
di un’opportuna equazione integrale definita sulla superficie dello scatteratore, benché
la formalizzazione dei passaggi necessari allo scopo sia notevolmente complicata dalla
natura vettoriale delle relazioni in gioco.
L’idea, come nel caso scalare 2D, è di introdurre degli opportuni potenziali (di singolo o doppio strato) e definire sulla superficie dell’ostacolo una densità (di corrente) in
grado di rappresentare, tramite un operatore di radiazione, la distribuzione di campo
nello spazio circostante. Il risultato è la costruzione di un modello alternativo all’equazione di Helmholtz vettoriale per i campi, che si traduce nella cosiddetta equazione
integrale del campo elettrico (EFIE) o, in alternativa, del campo magnetico (MFIE). Il
vantaggio principale di quest’approccio è dovuto al fatto che la soluzione del problema
diretto, che nella forma differenziale coinvolge un dominio 3D illimitato e, perciò, non
è facilmente gestibile attraverso gli elementi finiti o analoghe tecniche numeriche per le
equazioni alle derivate parziali, si riporta ad un problema “equivalente” su un dominio
limitato, almeno fintanto che le geometrie degli scatteratori8 sono varietà compatte di
R3 . In particolare, l’EFIE possiede uno spettro di applicazione più ampio dell’MFIE9 ,
ed è stata, perciò, privilegiata dal percorso di studio e ricerca.
Un’ulteriore alternativa è rappresentata dalla cosiddetta combined field integral
equation (CFIE), che è appunto una combinazione lineare dell’EFIE e della MFIE.
8:
9:
come accade nella realtà fisica.
che non si applica, ad esempio, al caso delle superfici aperte.
Capitolo 2. L’EFIE e lo scattering diretto
32
La sua utilità principale è che, diversamente dall’EFIE, non possiede delle risonanze.
Lo svantaggio, tuttavia, è che possiede gli stessi limiti di applicazione della MFIE e
come quest’ultima, inoltre, determina sistemi di equazioni sensibilmente malcondizionati, se paragonata all’EFIE, nel processo di discretizzazione che riduce il problema
operatoriale a un più semplice sistema di equazioni lineari.
2.3.2
Una derivazione informale dell’EFIE 3D
Poiché la costruzione dell’EFIE 3D (scalare e vettoriale) comporta uno studio affatto banale, ci proponiamo di seguito di descriverne una derivazione naif, peraltro
ampiamente utilizzata nei testi di ingegneria elettromagnetica [6].
Iniziamo dalle equazioni di Maxwell (2.30), modificate alla bisogna per mettere in
conto la presenza in V̄e di un’eventuale densità di corrente J(·), impressa dalle sorgenti. Quindi assumiamo che il mezzo di propagazione, supposto isotropo, omogeneo,
lineare e non dispersivo, sia caratterizzato da una permettività equivalente ² ∈ C e
una permeabilità µ ∈ R, per cui

 rot E(·) = −jωµH(·)
,
 rot H(·) = jω²E(·) + J(·)
in Ve
(2.39)
Poiché div3 H(r) = 0 in Ve , il teorema di Helmholtz [40] per i campi solenoidali assicura
l’esistenza di un potenziale A(·) : V3 → C3 (vettoriale) tale che rot A(r) = H(r) in Ve .
Di modo che (dalla prima equazione di Maxwell)
¡
¢
rot E(r) + jωµA(r) = 0,
per ogni r ∈ Ve
(2.40)
Dunque E(·) + jωµA(·) è un campo irrotazionale, e pertanto lo stesso teorema di
Helmholtz garantisce debba esistere un secondo potenziale Ψ(·) : R3 → C (scalare) per
cui E(r) + jωµA(r) = −∇3 Ψ(r) in Ve . Di conseguenza
¡
¢
rot rot A(r) − k2 A = J(r) − jω²∇3 Ψ(r)
(2.41)
¡
¢
¡
¢
Sennonché rot rot a(r) = ∇3 div3 A(r) − ∆3 A(r) dalla (B.13), e dunque
¡
¢
∇3 div3 A(r) − ∆3 A(r) − k2 A = J(r) − jω²∇3 Ψ(r)
(2.42)
Dal momento, tuttavia, che abbiamo definito A(·) tramite il teorema di Helmholtz
specificandone solamente il rotore, abbiamo facoltà di definirne liberamente la divergenza, e perciò stabiliamo di assumere che A(·) verifichi con Ψ(·) la cosiddetta gauge
di Lorenz 10 , per cui si impone div3 A(r) := −jω²Ψ(r) in Ve . Così l’equazione (2.41),
10 :
dal nome del matematico e fisico danese Ludvig Valentin Lorenz, spesso confuso nei
testi con il fisico tedesco e premio Nobel Hendrik Antoon Lorentz.
Capitolo 2. L’EFIE e lo scattering diretto
33
in definitiva, assume la forma semplificata
∆3 A(r) + k2 A(r) = −J(r),
per ogni r ∈ Ve
(2.43)
Quest’ultima è un’equazione vettoriale di Helmholtz non omogenea in R3 , che può
essere “invertita” - mentre è nota la densità di corrente J(·) - per esprimere il potenziale
incognito A(·) attraverso la rappresentazione integrale
ˆ
1
g(r, s) J(s) ds,
per ogni r ∈ Ve
A(r) =
4π V
(2.44)
dove g(·) : R3 × R3 → C è la funzione di Green dello spazio, definita da
G(r, s) :=
e−jk|r−s|
,
|r − s|
per ogni r, s ∈ R3 t.c. r 6= s
(2.45)
¡
¢
1
∇3 div3 A(·) in Ve , risulta perciò possibile
jω²
correlare direttamente i vettori J(·) ed E(·) attraverso l’EFIE 3D, i.e.
ˆ
E(r) = −jωµ
G(r, s) · J(s) ds,
per ogni r ∈ Ve
(2.46)
Considerando che E(·) = −jωµA(·) +
V
in cui G(·) è la funzione diadica R3 × R3 → C3,3 definita assumendo
µ
¶
1
∇∇
G(r, s) =
I3 + 2 g(r, s),
per ogni r, s ∈ R3 t.c. r 6= s
4π
k
Fisicamente, l’EFIE descrive il campo totale prodotto una certa distribuzione di sorgenti, e come tale costituisce, ad esempio, l’equazione fondamentale dell’analisi e della
progettazione dei sistemi radio. Di fatto, è una relazione di carattere molto generale,
che può essere impiegata per valutare il campo irradiato da ogni sorta di antenna, una
volta che sia nota la corrente J(·).
Sennonché, nel problema dello scattering diretto formulato in capo a questo paragrafo, il campo totale E(·) è la somma del campo diffuso Es (·) (incognito) e del
campo incidente Ei (·) (assegnato) prodotto da “sorgenti inaccessibili”, perciocché J(·),
in questo caso, dev’essere determinata!
Il problema si risolve imponendo le condizioni al contorno (2.34) sulla superficie ∂V
dell’ostaclo, così da riscrivere l’EFIE solo in termini di J(·) ed Ei (·). Una volta fatto
questo, l’equazione risultante11 può essere risolta attraverso tecniche di approssimazione numerica appropriate per i problemi per le equazioni integrali, come il metodo
dei momenti [9].
11 :
un’equazione integrale di superficie nella corrente incognita J(·).
Capitolo 3
Localizzazione delle risonanze
Il capitolo è suddiviso in due parti: nella prima si descrive una tecnica per la localizzazione delle risonanza interne; nella seconda si illustra un metodo di stabilizzazione basato sull’idea della deflazione, con riferimento alle problematiche inerenti alle
risonanze del modello EFIE già anticipata nel corso del capitolo precedente.
3.1
Introduzione
Nel caso particolare di un corpo conduttore metallico ideale ovvero di un sistema di
conduttori metallici ideali, l’equazione integrale (2.46) assume una forma particolare,
ottenuta imponendo sulla frontiera ∂V della varietà 3-dimensionale che definisce la
superficie del sistema di scatteratori, la condizione di continuità delle componenti
tangenti del campo totale, per cui
¨
G(r, s, ω) · J(s, ω)dS(s) = Eitan (r, ω),
per ogni r ∈ ∂V
(3.1)
∂V
dove G(·, ω) denota la funzione di Green dello spazio libero, J(·, ω) la densità di
corrente superficiale, Eitan (·, ω) il campo elettrico tangente incidente su ∂V e ω la
pulsazione angolare dei campi. Applicando il MoM alla (3.1) si ottiene un’equazione
matriciale, che - rendendo esplicita la dipendenza dalla frequenza - assume la forma
Z(ω)I(ω) = V(ω)
(3.2)
La (3.1) presenta una soluzione non unica se la corrispondente equazione omogenea
¨
G(r, s, ω) · J(s, ω)dS(s) = 0,
per ogni r ∈ ∂V
(3.3)
∂V
Capitolo 3. Localizzazione delle risonanze
35
ha una soluzione non nulla. Utilizzando il MOM la relazione (3.3) diventa
Z(ω)I(ω) = 0
(3.4)
L’esistenza di una soluzione non banale della (3.4) corrisponde, quindi, a verificare che
il determinante di Z(ω) sia nullo, condizione soddisfatta a rigore solo in corrispondenza
delle frequenze di risonanza ωi del corpo conduttore in esame.
3.2
Ricerca delle singolarità
Come detto precedentemente, l’eliminazione delle instabilità dell’EFIE dovuta al problema delle risonanze interne, implica il conoscere a priori le frequenze alle queste si
presentano. A rigore, la localizzazione delle risonanze comporta la ricerca, nella banda
di interesse, delle ωk per le quali il determinante della matrice delle impedenze Z si
annulla
¡
¢
det Z(ω) = 0
(3.5)
Tuttavia l’equazione (3.5) solo una condizione teorica e, di fatto, il calcolo numerico
della singolarità della matrice Z può essere effettivamente rilevato solo utilizzando una
decomposizione per valori singolari (SVD). Tenendo presente che il più piccolo valore
singolare σmin di una matrice M (n × n) è la distanza Euclidea tra M e l’insieme H
di tutte le matrici aventi rango n − 1,
σmin =
min
rank(H)=n−1
||M − H||2
(3.6)
Abbiamo focalizzato la nostra attenzione su strutture canoniche delle quali sono
già note in letteratura le frequenze di risonza.
Verranno inoltre considerati diversi livelli di discretizzazione per valutare l’influenza di tale parametro nelle successive analisi.
Per una cavità risonante rettangolare di dimensioni a × b × c valgono le relazioni
(3.7) e (3.8) con le quali è possibile ricavare le frequenze di risonanza di un cubo di
lato 1m (Tabella 3.2).
r³
fmnl = c ·
mnp
R101
m ´2 ³ n ´2 ³ p ´2
+
+
2d
2b
2a
v
u ¡ m ¢2 ¡ n ¢2 ¡ p ¢2
u
+
+
(fc )mnp
=
= t 2d ¡ 1 ¢2 2b ¡ 1 ¢2 2a
T Ez
(fc )101
+
a
c
(3.7)
(3.8)
Capitolo 3. Localizzazione delle risonanze
36
Figura 3.1: Strutture in esame
Modo
m, n, p
TE
1
0
1
TE
0
1
1
TM
1
1
0
TE
1
1
1
TM
1
1
1
TE
1
0
2
TE
2
0
1
TE
0
2
1
TE
0
1
2
TE
1
2
0
TM
2
1
0
fnmp
n.ro modi
221.13 MHz
3
259.81 MHz
2
335.41 MHz
6
Tabella 3.1: Frequenze di risonanza per un cubo di lato 1m.
Capitolo 3. Localizzazione delle risonanze
37
Analogamente per una cavità sferica è nota la relazioni (3.9) con la quale si ricavano
le frequenze di risonanza di una sfera di raggio 1m (Tabella 3.2).
r
E
(fr )Tmnp
=c
ζnp
2πa
(3.9)
TE modes
n
p
ζnp
(fr )mnp
Deg. modes
modes
1
1
4.493
214.52 MHz
m = 0, 1(even, odd)
3
2
1
5.763
266.25 MHz
m = 0, 1, 2(even, odd)
8
3
1
6.988
343.65 MHz
m = 0, 1, 2, 3(even, odd)
15
1
2
7.725
368.84 MHz
m = 0, 1(odd)
18
4
1
8.183
390.71 MHz
m = 0, 1, 2, 3, 4(even, odd)
27
TM modes
n
p
ζnp
(fr )mnp
Deg. modes
modes
1
1
2.744
131.02 MHz
m = 0, 1(even, odd)
3
2
1
3.870
184.78 MHz
m = 0, 1, 2(even, odd)
8
3
1
4.973
237.44 MHz
m = 0, 1, 2, 3(even, odd)
15
4
1
6.062
289.44 MHz
m = 0, 1, 2, 3, 4(even, odd)
18
1
2
6.117
292.07 MHz
m = 0, 1(odd)
27
Tabella 3.2: Frequenze di risonanza per una sfera di raggio 1m.
Capitolo 3. Localizzazione delle risonanze
(a) Andamento
(b) Zoom (in scala logaritmica)
Figura 3.2: Andamento spettrale - Valori singolari per il CUBO (72 edges)
38
Capitolo 3. Localizzazione delle risonanze
(a) Andamento
(b) Zoom (in scala logaritmica)
Figura 3.3: Andamento spettrale - Valori singolari per la SFERA (201 edges)
39
Capitolo 3. Localizzazione delle risonanze
Figura 3.4: Andamento di σn per il CUBO
Figura 3.5: Andamento di σn per la SFERA
40
Capitolo 3. Localizzazione delle risonanze
3.2.1
41
Funzione ausiliaria
Per verificare la singolarità di Z(ω) è possibile definire una funzione ausiliaria
Ψ(ω) = σn (Z(ω))
(3.10)
che fornisce il più piccolo valore singolare dell’operatore matriciale Z(r, r0 , ω) in funzione della frequenza angolare ω. L’insieme {ωi } corrispondente all’insieme dei punti
in cui la funzione Ψ(ω) presenta i minimi locali nella banda di interesse. In linea di
n
p
principio, tutti i minimi di Ψ(ω) possono essere localizzati fissando {ωj }j=1
punti nella
banda di interesse e calcolando i valori di Ψ(ωj ) utilizzando l’SVD. Sfortunatamente
questo approccio richiede un grosso sforzo computazionale, soprattutto per strutture metalliche molto grandi, richiedendo il calcolo dell’SVD dell’operatore matriciale
Z(r, r0 , ω).
Si vogliono presentare delle tecniche di stima del più piccolo valore singolare e
delle strategie alternative non basate sull’SVD ma che permettano l’identificazione
dell’insieme Ω.
QR
Consiste in una decomposizione della matrice A tale che
A=Q·R
(3.11)
dove A è una matrice m × n, R una matrice m × m triangolare alta e Q una matrice
m × m unitaria.
È uno dei metodi più utilizzati e più attendibili per stimare la soluzione di un’equazione del tipo A · x = b quando il sistema è sovradeterminato. Manipolando
opportunamente tale equazione si ottiene infatti:
Ax
=
b
AT Ax
=
AT b
(QR)T QRx
=
(QR)T b
RT QT QRx
=
RT QT b
RT Q−1 QRx
=
RT QT b
RT Rx
=
RT QT b
x
=
(RT R)−1 RT QT b
QRx
=
Q(R(RT R)−1 RT )QT b
Ax
=
Q(R(RT R)−1 RT )QT b
Capitolo 3. Localizzazione delle risonanze
42
Se R non ha zeri sulla diagonale allora R(RT R)−1 RT sarà formata da tutti zero tranne
r sulla diagonale, dove r è il rango di R.
LU
Consiste in una decomposizione della matrice A tale che
A=L·U
(3.12)
ino modo tale che U sia una matrice triangolare altra e L triangolare bassa.
CCVL
Questo metodo calcola i valori stimati smin e vmin che rappresentano il più piccolo
valore singolare e il corrispondente vettore singolare della matrice triangolare R. Esso
si basa sull’uso del numero di condizionamento generalizzato LINPACK.
function [ smin , vmin ] = ccvl ( R )
%
%
ccvl --> Singular value / vector estimates via condition
estimation .
%
%
%
< Synopsis >
[ smin , vmin ] = ccvl ( R )
%
%
%
< Description >
Compute estimates smin and vmin of the smallest
%
singular value and corresponding right singular
%
vector of the upper triangular matrix R .
%
%
< Algorithm >
%
The function is based on the generalized LINPACK
%
condition
number estimator .
%
%
< References >
%
[1] A . K . Cline , A . R . Conn & C . F . Van Loan ,
%
" Generalizing the LINPACK Condition Estimator ";
%
in J . P . Hennart ( Ed .) , " Numerical Analysis " ,
%
Lecture Notes in Mathematics , Vol . 909 ,
%
pp . 73 -83 , Springer , (1982) .
Capitolo 3. Localizzazione delle risonanze
43
LQI
Un altro estimatore noto in letteratura è l’LQI. Testo di riferimento per questo algoritmo è G.H. Golub, C.F. van Loan, Matrix Computations, John Hopkins, 1991, second
edition.
function [ l ]= lqi ( bb )
[n , m ]= size ( bb ) ;
r = sum ( abs ( bb ’) ) - abs ( diag ( bb ’) ’) ;
c = sum ( abs ( bb ) ) - abs ( diag ( bb ) ’) ;
s = max ([ r ; c ]) ;
a = abs ( diag ( bb ) ) ’;
d1 = a ( n ) ^2 - a ( n ) * r ( n ) + c ( n ) ^2/4;
d2 = a ( n ) ^2 - a ( n ) * c ( n ) + r ( n ) ^2/4;
if d1 >=0
if d2 >=0
l = min ( sqrt ( d1 ) -c ( n ) /2 , sqrt ( d2 ) -r ( n ) /2) ;
else
l = sqrt ( d1 ) -c ( n ) /2;
end
else
l = sqrt ( d2 ) -r ( n ) /2;
end
DET
Anche se da considerazione teoriche fatte in precedenza si è dimostrato che calcolare le
frequenze per le quali det(Z) ≈ 0 può non portare ad una corretta soluzione, si vuole
comunque andare a verificare tale metodo.
CONDET
function [c , v ] = condest (A , t )
%
CONDEST 1 - norm condition number estimate .
%
C = CONDEST ( A ) computes a lower bound C for the 1 - norm ...
%
number of a square matrix A .
%
CONDEST is based on the 1 - norm condition estimator of ...
condition
Hager [1] and a
Capitolo 3. Localizzazione delle risonanze
44
%
block oriented generalizat ion of Hager ’ s estimator given...
%
Tisseur [2].
by Higham and
The heart of the algorithm involves an ...
iterative search
%
to estimate || A ^{ -1}|| _1 without computing A ^{ -1}. This ...
is posed as the
%
convex , but nondifferentiable , optimization problem :
%
%
max || A ^{ -1} x || _1 subject to || x || _1 = 1.
CONDEST_QR
Algoritmo Condest applicato alla matrice triangolare ottenuta via decomposizione QR.
RCOND
% RCOND
LAPACK reciprocal condition estimator .
%
RCOND ( X ) is an estimate for the reciprocal of the
%
condition of X in the 1 - norm obtained by the LAPACK
%
condition estimator . If X is well conditioned , RCOND ( X )
%
is near 1.0. If X is badly conditioned , RCOND ( X ) is
%
near EPS .
RCOND_QR
Algoritmo RCond applicato alla matrice triangolare ottenuta via decomposizione QR.
ALGA
function [ gammaM ] = AlgA ( T )
z = 1./ abs ( diag ( T ) ) ;
n = length ( z ) ;
for i =n -1: -1:1
s = 1;
for j =1+1: n
s = s + abs ( T (i , j ) ) * z ( j ) ;
end
z ( i ) = s / abs ( T (i , i ) ) ;
end
gammaM = norm (z , ’ inf ’) ;
Capitolo 3. Localizzazione delle risonanze
ALGB
function [ gammaW ] = AlgB ( T )
z = 1./ abs ( diag ( T ) ) ;
n = length ( z ) ;
s = 0;
for i =n -1: -1:1
s = s + z ( i +1) ;
alfa ( i ) = max ( abs ( T (i , i +1: n ) ) ) ;
z ( i ) = (1+ alfa ( i ) * s ) / abs ( T (i , i ) ) ;
end
gammaW = norm (z , ’ inf ’) ;
3.2.2
Ricerca risonanze - Risultati sperimentali
Cubo
Figura 3.6: tempi di esecuzione degli algoritmi (CUBO)
45
Capitolo 3. Localizzazione delle risonanze
72 Edges
46
288 Edges
450 Edges
1a risonanza: 231.84 MHz
SVD
213.09 MHz
215.10 MHz
215.10 MHz
COND2
213.09 MHz
215.10 MHz
215.10 MHz
QR
213.09 MHz
215.10 MHz
215.10 MHz
LU
(2)213.09 MHz
(4)219.13 MHz
(3)216.11 MHz
CCVL
213.09 MHz
(2)215.10 MHz
(2)216.11 MHz
LQI
213.09 MHz
215.10 MHz
215.10 MHz
DET
213.09 MHz
215.10 MHz
200.00 MHz
CONDEST
213.09 MHz
215.10 MHz
(3)215.10 MHz
CONDEST_QR
(2)213.09 MHz
215.10 MHz
(3)215.10 MHz
RCOND
213.09 MHz
215.10 MHz
215.10 MHz
RCOND_QR
213.09 MHz
(3)215.10 MHz
215.10 MHz
ALGA
213.09 MHz
215.10 MHz
215.10 MHz
ALGB
213.09 MHz
215.10 MHz
215.10 MHz
2
a
risonanza: 247.27 MHz
SVD
248.32 MHz
262.42 MHz
262.42 MHz
COND2
248.32 MHz
262.42 MHz
262.42 MHz
QR
248.32 MHz
262.42 MHz
262.42 MHz
LU
(5)248.32 MHz
(10)259.40 MHz
(10)267.45 MHz
CCVL
(4)248.32 MHz
(5)262.42 MHz
(12)262.42 MHz
LQI
248.32 MHz
262.42 MHz
262.42 MHz
DET
248.32 MHz
262.42 MHz
200.00 MHz
CONDEST
248.32 MHz
(3)262.42 MHz
(7)262.42 MHz
(3)248.32 MHz
(4)262.42 MHz
(7)262.42 MHz
248.32 MHz
262.42 MHz
(3)262.42 MHz
(3)248.32 MHz
(6)262.42 MHz
(5)262.42 MHz
ALGA
248.32 MHz
262.42 MHz
262.42 MHz
ALGB
248.32 MHz
(1)215.10 MHz
261.41 MHz
CONDEST_QR
RCOND
RCOND_QR
3
a
risonanza: 341.02 MHz
SVD
(4)347.99 MHz
340.94 MHz
339.93 MHz
COND2
(4)347.99 MHz
340.94 MHz
339.93 MHz
QR
(4)348.99 MHz
340.94 MHz
339.93 MHz
LU
(16)348.99 MHz
(23)339.93 MHz
(24)336.91 MHz
CCVL
(10)347.99 MHz
(15)340.94 MHz
(27)339.93 MHz
LQI
348.99 MHz
340.94 MHz
339.93 MHz
DET
347.99 MHz
340.94 MHz
200.00 MHz
(9)347.99 MHz
(7)340.94 MHz
(24)339.93 MHz
(13)348.99 MHz
(13)340.94 MHz
(21)339.93 MHz
(5)347.99 MHz
(4)340.94 MHz
(7)339.93 MHz
(11)348.99 MHz
(8)340.94 MHz
(8)339.93 MHz
ALGA
347.99 MHz
340.94 MHz
339.93 MHz
ALGB
(2)248.32 MHz
(2)339.93 MHz
338.93 MHz
CONDEST
CONDEST_QR
RCOND
RCOND_QR
Tabella 3.3: Risultati della localizzazione delle risonanze (SFERA)
Capitolo 3. Localizzazione delle risonanze
Figura 3.7: Andamento COND2 (CUBO)
Figura 3.8: Andamento QR (CUBO)
47
Capitolo 3. Localizzazione delle risonanze
Figura 3.9: Andamento LU (CUBO)
Figura 3.10: Andamento CCVL (CUBO)
48
Capitolo 3. Localizzazione delle risonanze
Figura 3.11: Andamento LQI (CUBO)
Figura 3.12: Andamento DET (CUBO)
49
Capitolo 3. Localizzazione delle risonanze
Figura 3.13: Andamento CONDEST (CUBO)
Figura 3.14: Andamento RCOND (CUBO)
50
Capitolo 3. Localizzazione delle risonanze
Figura 3.15: Andamento RCOND_QR (CUBO)
Figura 3.16: Andamento ALGA (CUBO)
51
Capitolo 3. Localizzazione delle risonanze
Figura 3.17: Andamento ALGB (CUBO)
52
Capitolo 3. Localizzazione delle risonanze
Sfera
Figura 3.18: tempi di esecuzione degli algoritmi (SFERA)
53
Capitolo 3. Localizzazione delle risonanze
72 Edges
54
288 Edges
450 Edges
1a risonanza: 144.29 MHz
SVD
144.30 MHz
137.25 MHz
135.23 MHz
COND2
144.30 MHz
137.25 MHz
135.23 MHz
QR
144.30 MHz
137.25 MHz
135.23 MHz
LU
(3)143.29 MHz
(10)144.30 MHz
(9)134.23 MHz
CCVL
(2)144.30 MHz
(2)137.25 MHz
135.23 MHz
LQI
144.30 MHz
137.25 MHz
135.23 MHz
DET
144.30 MHz
137.25 MHz
135.23 MHz
CONDEST
(6)144.30 MHz
(9)137.25 MHz
(9)135.23 MHz
CONDEST_QR
(7)144.30 MHz
(9)137.25 MHz
(10)135.23 MHz
RCOND
(2)144.30 MHz
(2)137.25 MHz
(2)135.23 MHz
RCOND_QR
(3)144.30 MHz
(3)137.25 MHz
(4)135.23 MHz
ALGA
144.30 MHz
137.25 MHz
135.23 MHz
ALGB
144.30 MHz
136.24 MHz
135.23 MHz
2
a
risonanza: 196.73 MHz
SVD
196.64 MHz
193.62 MHz
190.60 MHz
COND2
196.64 MHz
193.62 MHz
190.60 MHz
QR
199.66 MHz
193.62 MHz
190.60 MHz
LU
(10)195.64 MHz
(13)188.59 MHz
(21)191.61 MHz
CCVL
(6)195.64 MHz
(4)193.62 MHz
190.60 MHz
LQI
203.69 MHz
193.62 MHz
190.60 MHz
DET
200.67 MHz
193.62 MHz
191.61 MHz
CONDEST
(17)196.64 MHz
(17)193.62 MHz
(15)190.60 MHz
CONDEST_QR
(13)196.64 MHz
(17)193.62 MHz
(21)190.60 MHz
RCOND
(5)202.68 MHz
(4)193.62 MHz
(4)190.60 MHz
RCOND_QR
(7)196.64 MHz
(4)193.62 MHz
(7)190.60 MHz
ALGA
202.68 MHz
193.62 MHz
190.60 MHz
ALGB
209.73 MHz
193.62 MHz
188.59 MHz
3
a
risonanza: 232.14 MHz
SVD
(4)232.89 MHz
222.82 MHz
219.80 MHz
COND2
(4)232.89 MHz
222.82 MHz
219.80 MHz
QR
232.89 MHz
222.82 MHz
219.80 MHz
LU
(15)232.89 MHz
(13)188.59 MHz
(23)218.79 MHz
CCVL
(8)232.89 MHz
(5)222.82 MHz
219.80 MHz
LQI
232.89 MHz
222.82 MHz
219.80 MHz
DET
231.88 MHz
222.82 MHz
219.80 MHz
CONDEST
(24)232.89 MHz
(20)222.82 MHz
(18)219.80 MHz
CONDEST_QR
(22)232.89 MHz
(19)222.82 MHz
(24)219.80 MHz
(6)232.89 MHz
(6)222.82 MHz
(5)219.80 MHz
(13)232.89 MHz
(7)222.82 MHz
(9)219.80 MHz
ALGA
232.89 MHz
222.82 MHz
219.80 MHz
ALGB
232.89 MHz
222.82 MHz
219.80 MHz
RCOND
RCOND_QR
Tabella 3.4: Risultati della localizzazione delle risonanze (SFERA)
Capitolo 3. Localizzazione delle risonanze
Figura 3.19: Andamento COND2 (SFERA)
Figura 3.20: Andamento QR (SFERA)
55
Capitolo 3. Localizzazione delle risonanze
Figura 3.21: Andamento LU (SFERA)
Figura 3.22: Andamento CCVL (SFERA)
56
Capitolo 3. Localizzazione delle risonanze
Figura 3.23: Andamento LQI (SFERA)
Figura 3.24: Andamento DET (SFERA)
57
Capitolo 3. Localizzazione delle risonanze
Figura 3.25: Andamento CONDEST (SFERA)
Figura 3.26: Andamento RCOND (SFERA)
58
Capitolo 3. Localizzazione delle risonanze
Figura 3.27: Andamento RCOND_QR (SFERA)
Figura 3.28: Andamento ALGA (SFERA)
59
Capitolo 3. Localizzazione delle risonanze
Figura 3.29: Andamento ALGB (SFERA)
60
Capitolo 3. Localizzazione delle risonanze
3.3
61
Stabilizzazione
3.3.1
Natura delle singolarità
Matematicamente la (3.2) non può essere invertita in corrispondenza delle frequenze
di risonanza ωi poiché l’operatore matriciale Z(ω) è singolare. La natura della singolarità di Z(ω) deriva dal fatto che, a rigore, lo spazio nullo della (3.3) e lo spazio
nullo numerico dell’operatore discretizzato non sono vuoti. Dal punto di vista teorico,
la dimensione dello spazio nullo K coincide con la dimensione dello spazio nullo dell’operatore integrale che descrive il problema elettromagnetico interno alle frequenze
di risonanza ω = ωi . Essendo Z(ωi ) singolare, è necessario, per risolvere la (3.2),
calcolare la soluzione a norma minima Ī(ωi ).
3.3.2
Soluzione a norma minima
Come detto in precedenza, limitatamente alla superficie dello scatteratore, l’EFIE assume la forma locale Estan +Eitan = 0, dove Eitan ed Estan rappresentano, rispettivamente,
il campo elettrico tangente incidente e scatterato. Alla risonanza
Estan (r) = Ftan [J̄res ](r) = 0
(3.13)
dove Ftan [·] indica la componente tangente dell’immagine della corrente superficiale
risonante J̄res (·) tramite l’operatore integrale F[·] implicitamente definito dall’EFIE nel
caso metallico ideale. Fisicamente la (3.13) implica che la corrente J̄res (·) presente sulla
struttura non produce alcun campo scatterato, ma solamente un campo interno alla
struttura. Con la soluzione a norma minima si trascura J̄res (·), così che la soluzione
contenga il reale campo scatterato all’esterno della struttura.
Tuttavia la distribuzione di corrente reale nella struttura contiene il contributo
della corrente risonante che porta il campo interno totale ad essere nullo. Detto in
altri termini, la soluzione a norma minima porta al reale campo scatterato, ma non
alla reale densità di corrente superficiale sulla struttura.
Per l’applicazione di questa tecnicha, non è necessaria la riformulazione del problema elettromagnetico. È sempre possibile, infatti, utilizzare il metodo dei momenti per
la costruzione del sistema (3.2) e quindi determinarne in modo efficiente la soluzione
a norma minima perfezionando le tecniche già disponibili in letteratura - che è, poi, il
risultato originale presentato in questo capitolo.
Capitolo 3. Localizzazione delle risonanze
3.3.3
62
Soluzione OP
In letteratura, la tecnica di stabilizzazione che richiede lo sforzo computazionale minore
è quella dell’ortogonalizzazione (OP), che pretende di stabilizzare la corrente risonante
attraverso una sua proiezione sul nucleo dell’EFIE.
Figura 3.30: la procedura OP stabilizza la soluzione numerica dell’EFIE alla risonanza
tentando di renderla ortogonale al nucleo dell’operatore integrale.
La soluzione della (3.2) mediante la OP alla frequenza di risonanza ωi è definita a
partire dalla scomposizione della corrente risonante I(ωi ) nei termini
I(ωi ) = Ī(ωi ) + αÎ(ωi )
(3.14)
dove Ī(ωi ) è la corrente corretta, Î(ωi ) è la corrente modale risonante e α è una costante
complessa. Com’è chiaramente dimostrato in [43], Î(ωi ) è il vettore singolare destro vn
associato al più piccolo valore singolare σn dell’operatore matriciale Z(ω). La corrente
modale risonante nella (3.14) è la causa dell’instabilità della soluzione numerica della
(3.2). La stabilizzazione di I(ωi ) è ottenuta filtrando il contributo Î(ωi ) nella (3.14),
ovvero identificando in Ī(ωi ) la soluzione del sistema dei momenti (3.2) tramite la
relazione Ī(ωi ) = I(ωi ) − αÎ(ωi ), per cui si assume
α :=
hÎ(ωi ), I(ωi )in
hÎ(ωi ), Î(ωi )in
(3.15)
Il risultato è che la soluzione OP del problema risulta ortogonale soltanto al sottospazio monodimensionale spannato dall’ultimo vettore singolare destro. Un limite che,
in molte circostanze osservate, rende la procedura praticamente inefficace. L’idea,
banalmente, è di estenderne il range di validità, filtrando il numero esatto dei modi
risonanti, a partire dall’osservazione - espressa nel corso del capitolo precendete - che
il kernel dell’EFIE è senz’altro finito, anche in condizioni di non iniettività.
3.3.4
Soluzione TSVD
È facilmente dimostrabile che la tecnica di ortogonalizzazione OP applicata al problema elettromagnetico è equivalente alla Decomposizione per Valori Singolari Troncata
Capitolo 3. Localizzazione delle risonanze
63
(TSVD), dove il più piccolo valore singolare σn dell’EFIE discretizzata è posto uguale
a zero. È noto, infatti, che la Ī(ωi ) può essere espressa in termini della decomposizione
ai valori singolari (SVD) di Z(ωi ) secondo la relazione
Ī(ωi ) =
n−κ
X
j=1
utj V(ωi )
vj
σj
(3.16)
n
dove {uj }n
j=1 e {vj }j=1 sono, rispettivamente, gli autovettori singolari sinistri e destri
di Z e {σj }n
j=1 i suoi valori singolari, ordinati in modo tale che
σ1 ≥ σ2 ≥ . . . ≥ σn−κ > σn−κ+1 = . . . σn−1 = σn = 0.
(3.17)
L’equazione (3.16) è la soluzione della (3.2) tramite Decomposizione per Valori Singolari Troncata (TSVD) e si fa presto a stabilire che la Ī(ωi ) è ortogonale allo spazio
nullo numerico K. Effettivamente, quando l’equazione omogenea (3.4) ammette infinite soluzioni non banali - spannate dagli ultimi n − κ vettori singolari destri di Z(ωi )
-, la soluzione generale dell’equazione (3.2) può essere scritta come:
n
X
I(ωi ) = Ī(ωi ) +
j=(n−κ)+1
|
{z
αi vi
(3.18)
}
∈K
dove gli αi sono delle costanti complesse arbitrarie. Troncando la sommatoria della
(3.16) al termine n−κ, tutte le componenti indesiderate di I(ωi ), generate dall’insieme
dei vettori singolari destri {vn−κ+1 , . . . , vn } di Z(ωi ), vengono epurate dalla soluzione
TSVD. Ed è chiaro che la Ī(r0 , ωi ) e la Ī(r0 , ωi ) coincidono solo nel caso particolare
κ = 1. In effetti, per κ > 1, la soluzione calcolata con l’OP mantiene ancora κ − 1
componenti appartenenti a K.
3.3.5
Risultati numerici e conclusioni
La soluzione TSVD Ī(r0 , ω) in una generica frequenza nella banda di interesse può
essere ottenuta senza la necessità di calcolare l’SVD completo di Z(ωi ) [44]. In effetti,
la soluzione può essere ottenuta calcolando K solo in corrispondenza della frequenza
di risonanza ωi e filtrando questo contributo dalla soluzione MoM I(r0 , ωi ) applicando
il proiettore P = I − KK T sull’intera banda di frequenze corrotte dalla risonanza.
In particolare, i risultati presentati di seguito riguardano la stabilizzazione dell’EFIE alla 1a e alla 2a risonanza di due strutture canoniche della letteratura - un cubo e
una sfera in CEP -, per cui sono disponibili le soluzioni analitiche (in termini di RCS)
per un raffronto assoluto delle prestazioni e una validazione della strategia di deflazione
proposta nel corso del capitolo. Le evidenze sperimentali sono tutte positive.
Capitolo 3. Localizzazione delle risonanze
Figura 3.31: Corrente ed RCS non stabilizzati (sopra la sfera, sotto il cubo)
64
Capitolo 3. Localizzazione delle risonanze
Figura 3.32: Stabilizzazione CUBO - 1a risonanza
Figura 3.33: Stabilizzazione CUBO - 2a risonanza
65
Capitolo 3. Localizzazione delle risonanze
Figura 3.34: Stabilizzazione SFERA - 1a risonanza
Figura 3.35: Stabilizzazione SFERA - 2a risonanza
66
Capitolo 3. Localizzazione delle risonanze
67
Sul fronte della localizzazione delle risonanze interne, il confronto fra le diverse
metodologie indagate ha messo in luce che l’LU è, in assoluto, l’algoritmo più veloce dal punto di vista dei tempi di calcolo. Il suo limite, tuttavia, è che non riesce
a stimare correttamente l’andamento del più piccolo valore singolare, quindi a localizzare in modo adeguato le risonanze. Con RCOND (3.2.1) la precisione migliora
notevolmente, senza che via, d’altronde, un eccessivo appesantimento degli oneri computazionali. In ogni caso, per avere una localizzazione ancora più efficace, bisogna
ricorrere all’algoritmo QR (3.2.1), per cui si realizza un adeguato compromesso fra
precisione e tempi di calcolo.
Anche i risultati numerici inerenti alla tecnica di stabilizzazione proposta sono
risultati più che soddisfacenti, soprattutto nel confronto con le altre tecniche già
presenti nella letteratura scientifica vuoi per quanto attiene alla correzione della densità
di corrente alla risonanza vuoi per l’andamento dell’RCS.
Capitolo 4
Sistemi lineari e
precondizionatori
Nel corso di questo capitolo intendiamo presentare il lavoro svolto nel corso del dottorato sul fronte della definizione di un semplice precondizionatore algebrico per il sistema
lineare prodotto dalla discretizzazione dell’EFIE tramite la variante simmetrica RWG
del metodo dei momenti [9, 41]. In particolare, mostreremo come il precondizionatore
in oggetto ha una resa significativamente superiore rispetto ad altri già diffusi nella
letteratura e ampiamente utilizzati nella pratica, per lo meno al di sotto di una certa
frequenza critica fc . Gli argomenti probatori hanno un carattere sperimentale e sono fondati su un’ampia mole di evidenze di laboratorio ottenute testando il metodo
dei residui minimi generalizzati (GMRES) su alcuni problemi di scattering diretto da
parte di oggetti metallici dotati di geometrie canoniche comuni.
D’altro canto, la particolare strategia di precondizionamento discussa nel seguito
sembrerebbe avvalorata da una serie di considerazioni di carattere teorico collegate
alle proprietà di segnatura dell’operatore lineare implicitamente definito dall’equazione
integrale. Il condizionale è d’obbligo, poiché la ricerca in questa direzione, alla data
della scrittura, è ancora in corso. L’idea, essenzialmente, è di inquadrare l’EFIE nel
contesto più generale della teoria degli operatori nucleari dissipativi. Nello specifico,
il precondizionatore messo a punto si identifica con la parte antihermitiana S della
matrice delle impedenze Z e la sua introduzione è supportata dalla considerazione
euristica che, almeno in linea di principio, se lo schema di proiezione è consistente, Z
deve essere tale che kSk À kHk, dove S := 12 (Z − ZH ) e H := 12 (Z + ZH ).
Allo scopo di avvalorare la tesi proposta, nella prospettiva di stabilire degli argo-
Capitolo 4. Sistemi lineari e precondizionatori
69
menti teorici a supporto, si è realizzata una vasta campagna di simulazioni numeriche
finalizzata a stabilire in che misura siano “praticamente” soddisfatte le ipotesi di lavoro, considerando - fra le altre geometrie - un cubo metallico di spigolo pari a una
lunghezza d’onda e diversi livelli di discretizzazione n su una banda frequenziale B attestata nell’ordine di 108 Hz. Per ciascuna frequenza campione f ∈ B, il corrispettivo
sistema dei momenti ZI = V viene risolto iterativamente attraverso le implementazioni Matlab del GMRES e della sua versione ripartita GMRES(r) (per un opportuno
valore del parametro di ripartenza r ∈ N), con e senza il precondizionamento di S. Di
conseguenza, viene analizzato lo speed-up del processo di convergenza eventualmente
innescato dal precondizionamento, sulla base dell’andamento locale1 della curva dei
residui e l’andamento globale delle norme (uno, euclidea, di Frobenius e infinito), dei
flag, dello spettro, dei costi, del numero delle iterazioni e i tempi necessari affinché il
metodo raggiunga la convergenza in soglia.
4.1
Generalità sulle tecniche di soluzione
Prima di addentrarci nella disamina dei risultati, è indispensabile una digressione prelimnare sulle proprietà di convergenza che dirigono gli algoritmi e le tecniche disponibili
in elettromagnetismo computazionale per la soluzione di un sistema lineare algebrico
di n equazioni scalari in n incognite a coefficienti complessi del tipo
Ax = b,
A ∈ Cn,n e b ∈ Cn
(4.1)
dove x ∈ Cn è il vettore delle incognite (o indeterminate). Fondamentalmente, esistono
due classi di metodi per la risoluzione di questo tipo di equazioni (matriciali): i metodi
diretti, che forniscono una soluzione esatta del problema in un numero finito di passi, e i
metodi iterativi, che si basano sulla costruzione di una successione {xk }k∈N convergente
al limite che - sotto opportune ipotesi - alla soluzione x del sistema.
Nei primi gli errori presenti nei risultati nascono esclusivamente dagli arrotondamenti introdotti dall’impiego di un’aritmetica finita da parte del calcolatore (dove sono
implementati in vere e proprie routine di calcolo) e/o dalla presenza di incertezze sui
dati. Nei secondi, invece, agli errori sperimentali e di round-off si aggiungono gli errori
di troncamento, derivanti dal fatto che il limite cercato deve essere necessariamente
approssimato troncando la successione per un indice sufficientemente grande. Diversamente che per i metodi diretti, nel caso delle tecniche iterative è necessario, perciò,
affrontare il cosiddetto problema dell’arresto, i.e., della definizione di un opportuno
criterio di stopping che renda controllabile l’errore di approssimazione.
1:
i.e., riferito ad una singola frequenza.
Capitolo 4. Sistemi lineari e precondizionatori
70
I metodi iterativi, d’altro canto, sono assai più convenienti dei metodi diretti rispetto alle matrici di grandi dimensioni, specialmente se strutturate o sparse. Infatti,
mentre un metodo diretto opera sulla matrice del sistema (4.1), spesso alterandone la
struttura e aumentando il numero degli elementi non nulli, un metodo iterativo, come
si vedrà, non ne richiede nemmeno lo storage in memoria, poiché non agisce su A nella
sua interezza, ma necessita solamente dell’accesso ai suoi elementi. Alcuni metodi iterativi, inoltre, possono essere utilizzati nei casi in cui si voglia raffinare una soluzione
approssimata già ottenuta con altri algoritmi o per via di informazioni a priori sul
problema e soprattutto sono caratterizzati da una complessità di calcolo asintotica
(spaziale e temporale) notevolmente ridotta rispetto al migliore dei metodi diretti oggi
conosciuti, con un conseguente drastico abbattimento dei costi di processazione.
4.1.1
Metodi diretti
Un possibile approccio per risolvere il sistema lineare (4.1) comporta la costruzione
della matrice inversa A−1 a partire dalla regola dei minori di Cramer [42]. Per una
matrice di grandi dimensioni, questo è molto inefficiente sul piano computazionale.
Un approccio migliore prevede la fattorizzazione di A nel prodotto di due altre
matrici triangolari, l’una inferiore e l’altra superiore, con il metodo di Gauss nella
variante pivotale di Crout [50], che consiste nell’eliminazione ricorsiva delle incognite
mediante il rimpiazzamento delle equazioni originali con opportune combinazioni lineari delle stesse equazioni, così da ottenere un nuovo sistema, equivalente al primo,
che presenti, però, il vantaggio non indifferente di essere triangolare, quindi risolubile
mediante un semplice metodo di sostituzione all’indietro.
L’algoritmo, chiamato decomposizione LU, si suddivide in tre parti: la pivotizzazione delle equazioni, così da evitare eventuali overflow associati dalla macchina di
calcolo a una divisione per zero; la decomposizione della matrice A nel prodotto dei
fattori triangolari L (basso) ed U (alto), in forma tale che A = LU ; la risoluzione
seriale dei sistemi (triangolari) Ly = b e U x = y. Un caso particolarmente felice si
realizza quando A è una matrice hermitiana, e allora la decomposizione LU si riduce
alla decomposizione di Cholesky, per cui U = LH e A = LLH .
Il vantaggio principale della decomposizione LU consiste nella sua stabilità numerica e nella sua robustezza rispetto agli errori di round-off. Lo svantaggio è il costo
computazionale: il numero di operazioni richieste, infatti, è asintoticamente O(n3 ), se
A ∈ Cn,n . Cioè, come vedremo, molto più alto che per alcuni metodi iterativi.
Capitolo 4. Sistemi lineari e precondizionatori
4.1.2
71
Metodi iterativi
Come in parte è stato già detto, i metodi iterativi costruiscono, a partire da una stima
(guess) iniziale x0 della soluzione del sistema (4.1) una successione {xk }k∈N che, fatte
salve determinate condizioni, converge a x, nel senso che
µ
¶
lim xk = x ⇐⇒
∀² > 0, ∃v ∈ N : n ∈ N, n ≥ v =⇒ kxk − xk < ²
k→∞
(4.2)
dove k·k è una qualche norma in Cn , generalmente compatibile con la norma matriciale
di Cn,n . Tali metodi sono di semplice implementazione e vengono usati soprattutto se
la matrice è sparsa2 , in quanto non ne alterano il pattern e non ne appesantiscono lo
storage in memoria (primaria o secondaria che sia), diversamente dai metodi diretti,
che ne modificano la struttura la struttura aumentandone il fill-in 3 .
Avviene, inoltre, che il calcolo dell’iterata xk+1 della successione delle approssimanti a partire dalla conoscenza dell’iterata xk richiede poche operazioni matrice-vettore
(o matvec). Nel caso specifico in cui A sia sparsa, addirittura il costo si riduce a O(n),
contro una complessità di tipo O(n3 ) del caso diretto. Se la convergenza è sufficientemente rapida, la procedura di risoluzione dei metodi iterativi può finire in pochi passi
e garantire un’ottima approssimazione della soluzione esatta. In generale, un buon
metodo iterativo, per essere utilmente applicato in pratica, deve soddisfare almeno tre
requisiti fondamentali (indicati qui di seguito).
- Consistenza. Se uno dei termini della successione x0 , x1 , . . . , xk , . . . è uguale
alla soluzione esatta x del sistema (4.1), allora la formula iterativa che soggiace
al metodo deve essere tale per cui anche il termine successivo sia ancora la
soluzione esatta. In altre parole, se la soluzione esatta viene raggiunto dopo k
passi, l’iterazione k + 1 deve ancora restituire la soluzione esatta:
µ
¶
∃k ∈ N : xk = x
=⇒ xk+1 = xk = x
(4.3)
Più precisamente, la condizione (4.3) definisce la proprietà di cosiddetta consistenza non esclusiva. Si parla, invece, di consistenza esclusiva nel caso in cui
valga anche l’implicazione opposta, ovvero se
µ
¶
∃k ∈ N : xk = x
⇐⇒ xk+1 = xk = x
2:
(4.4)
i.e., se il numero dei suoi elementi non nulli è “piccolo”, in un certo senso, rispetto al
numero degli elementi totale. Le matrici sparse si ottengono, in generale, quando si utilizza
una tecnica FEM su un modello differenziale o una variante del metodo dei momenti in cui le
funzioni di base e peso sono di tipo sottodominio, anziché intere (come nel caso RWG).
3 : i.e., il numero degli elementi non nulli.
Capitolo 4. Sistemi lineari e precondizionatori
72
- Convergenza. La successione {xk }k∈N deve convergere in norma alla soluzione
esatta x del sistema (4.1), ossia dev’essere soddisfatta la (4.2). Questa, d’altronde, può essere rilassata nella condizione di convergenza di Cauchy, per cui
si richiede soltanto che la differenza tra due valori della successione tende a zero
per k → ∞. Cioè si deve avere che
lim kxk+p − xk k = 0
p,k→∞
- Velocità di convergenza. Descrive il numero delle iterazioni necessarie al metodo per raggiungere una determinata accuratezza. Chiaramente è auspicabile
che la velocità di convergenza sia tale da rendere il problema risolvibile con il
minimo sforzo computazionale, cioè in tempi quanto più possibile contenuti e
senza un eccessivo impegno di risorse di calcolo.
4.1.3
Metodi iterativi stazionari
Una maniera elementare di costruire un schema iterativo per il calcolo del vettore
incognito x del sistema (4.1) si ottiene definendo
xk+1 = xk + M · (Axk − b),
per ogni k ∈ N
(4.5)
se x0 ∈ Cn è assegnato e M ∈ Cn,n è un’opportuna matrice di precondizionamento. È il
caso di osservare esplicitamente come la scelta del guess sia critica, in generale, rispetto
alla convergenza del metodo. In particolare, lo schema si dice incondizionatamente
convergente se xk converge a un qualche limite a prescindere dalla scelta del termine
x0 . In caso contrario si parla di convergenza condizionata e l’insieme dei valori di x0
per cui la convergenza è garantita si dice la regione di attrattività.
D’altronde, l’iterazione (4.5) è senz’altro consistente. Infatti, se xk = x, per
qualche k ∈ N, allora xk+1 = xk + M · (Axk − b) = x + M · (b − b) = x.
Tuttavia l’implicazione inversa non è generalmente garantita. Se infatti xk+1 = xk ,
allora M · (Axk − b) = 0, e perciò Axk = b, i.e. xk = x, solo se det(M ) 6= 0, i.e. M è
regolare. Se invece M è singolare si ha consistenza non esclusiva, che è indesiderata,
poiché il metodo rischia di convergere ad un limite diverso dalla soluzione del sistema.
Per trattare le problematiche relative alla convergenza, infine, riscriviamo la relazione (4.5) nella forma equivalente xk+1 = (I + M A)xk − M b, in cui I + M A è detta
matrice di iterazione. Di fatto, il metodo converge se e soltanto se ρ(I + M A) < 1.
Capitolo 4. Sistemi lineari e precondizionatori
4.1.4
73
Metodi iterativi stazionari
Storicamente, le iterazioni stazionarie si svilupparono prima di quelle non stazionarie.
Una strategia spesso impiegata per la costruzione di queste iterazioni è quella dello
splitting additivo. Consiste nella scomposizione della matrice del sistema nella forma
A = M − N . Se si ha un’approssimazione xk della soluzione esatta x, l’approccio base
è calcolare un’altra approssimazione usando
M xk+1 = N xk + b
=⇒
xk+1 = M −1 · (N xk + b)
(4.6)
Se M = A, allora tale operazione converge in un solo passo, ma naturalmente non
c’è un guadagno dal punto di vista dell’efficienza. Al fine di ottenere un metodo più
efficiente, M dovrebbe essere tale che un prodotto del tipo M −1 y sia facile da calcolare.
Per tale ragione, M potrebbe essere la diagonale principale di A, la parte triangolare
inferiore o superiore, o un’altra semplice matrice che è simile sotto alcuni aspetti ad A,
ma più semplice da risolvere in un sistema lineare. Ci sono tipi differenti di iterazioni
stazionarie, ciascuna con differenti scelte per la scomposizione della matrice.
. Gauss-Jacobi.
Con riferimento alla (4.6), corrisponde alla scelta M = D e N = L + U , se D è
diagonale di A ed L e U sono, rispettivamente, la sua parte triangolare bassa e la sua
parte triangolare alta. Di modo che M è regola se e soltanto se la diagonale di A non
contiene elementi nulli. In tal senso, è opportuno osservare che, se A non è singolare,
e quindi il sistema (4.1) è ben posto4 , esiste comunque una permutazione delle sue
righe/colonne per cui ogni elemento aii sulla diagonale principale è 6= 0. Su questi
presupposti, la relazione (4.6) assume la forma
Dxk+1 = Lxk + U xk + b
=⇒
xk+1 = D−1 · (Lxk + U xk + b)
(4.7)
purché det D 6= 0. Quest’iterazione presenta il notevole vantaggio di consentire il
calcolo parallelo di xk+1 , componente a componente.
. Gauss-Seidel.
Con riferimento alla (4.6), comporta la scelta M = D − L e N = U , dove D, L ed U
sono definite come nel caso del metodo di Gauss-Jacobi. Ne risulta
(D − L)xk+1 = U xk + b
4:
=⇒
i.e., possiede un’unica soluzione.
xk+1 = (D − L)−1 · (U xk + b)
(4.8)
Capitolo 4. Sistemi lineari e precondizionatori
74
che consente di ottenere xk+1 risolvendo un sistema triangolare inferiore. Il metodo
di Gauss-Seidel, in molte occasioni, è più rapidamente convergente del metodo di
Gauss-Jacobi, cioè richiede meno iterazioni per raggiungere una data accuratezza. Il
prezzo da pagare per l’accresciuta robustezza dello schema consiste in una maggiore
complessità nel calcolo dell’inversa di M .
. Metodi di rilassamento.
La convergenza dei metodi iterativi può essere accelerata mediante l’introduzione di
un parametro di rilassamento ω. L’iterazione assume la forma
xk+1 = ωxk+1 + (1 − ω)xk
(4.9)
dove xk+1 è il vettore generato dal metodo di Jacobi o dal metodo di Gauss-Saidel.
Nel primo caso si ottiene il metodo JOR(Jacobi over relaxation), o del rilassamento simultaneo. Nel secondo il SOR (successive over relaxation), o metodo del rilassamento
successivo. È possibile introdurre un parametro di rilassamento anche nella formulazione generale (4.5) del metodo lineare. Ne risulta la classe dei cosiddetti metodi
di Richardson, stazionari o non stazionari a seconda che il parametro di rilassamento
venga aggiornato o meno di iterazione in iterazione. In generale la scelta ottimale del
parametro ω che massimizza la velocità di convergenza è un problema non banale, che
può essere affrontato adeguatamente se si possiedono informazioni sulla collocazione
nel piano di Argand-Gauss degli autovalori della matrice M A.
I metodi di Gauss-Jacobi, di Gauss-Seidel e del sovra rilassamento a parametro
fisso si dicono stazionari, perché la matrice iterativa M −1 N che lega xk+1 a xk è
indipendente dall’indice k. Di modo che la matrice dell’iterazione determina completamente le performance dell’algoritmo in funzione del proprio raggio spettrale. Se
infatti ek = xk − x è il vettore dell’iterata k-esima, allora
M ek+1 = M xk+1 − N x − b = N xk + b − N x − b = N (xk − x) = N ek
(4.10)
per cui ek+1 = M −1 N ek . Di conseguenza, se l’errore sulla stima iniziale (o di guess)
è pari a e0 , allora l’errore al k-esimo step è espresso dalla relazione ek = (M −1 N )k e0 .
Dunque, affinché l’errore si riduca al crescere di k fino ad annullarsi al limite per
k → ∞, indipendentemente dalla scelta di x0 , è sufficiente sia ρ(M −1 N ) < 1, dove
ρ(·) indica il raggio spettrale5 del suo argomento. Intuitivamente, si comprende che
la convergenza è tanto più rapida quanto più piccolo è ρ(M −1 N ), perciocché una sua
“misura” fornisce, di fatto, una stima della rapidità di convergenza del metodo.
5:
i.e., il massimo modulo degli autovalori.
Capitolo 4. Sistemi lineari e precondizionatori
75
Un tipo di matrice per cui le iterazioni stazionarie possono essere rapidamente
convergenti è dato, segnatamente, dalle matrici a dominanza diagonale. L’espressione
è comunemente utilizzate per matrici i cui elementi diagonali siano “grandi”, ma in
senso stretto si traduce nella precisa condizione per cui
n
X
|ai,j | >
|ai,j |,
per ogni i = 1, 2, . . . , n
(4.11)
j6=i=1
Per le matrici a dominanza diagonale, i metodi di scomposizione come l’iterazione di
Jacobi possono essere particolarmente efficienti, perché gli elementi sotto la diagonale
nella matrice N sono piccoli e gli elementi di M sono grandi, ottenendo M −1 N di
dimensioni piccole. Il teorema del cerchio di Gershgorin può essere usato per rendere
ciò più rigoroso: tutti gli autovalori di una matrice si trovano in una combinazione
di N cerchi con centri dati dagli elementi della diagonale della matrice e raggi uguali
alla somma degli elementi sotto la diagonale della matrice. Così, per l’iterazione di
Jacobi applicata a una matrice a dominanza diagonale, il raggio spettrale della M −1 N
deve essere piccolo, poiché gli elementi della diagonale di M −1 N sono 0, i cerchi di
Gershgorin sono centrati nell’origine e i raggi sono
rm = |Amm |−1
N
X
|Amn |
n=1,n6=m
che dal confronto con la (4.11) devono essere minori di 1.
4.2
I metodi dinamici di Krylov
I metodi in sottospazi di Krylov rappresentano una maggiore innovazione nell’algebra
numerica lineare. Tali metodi sono non stazionari, cioè la relazione tra un’iterazione
e la successiva non è data da una matrice fissa.
Dato un vettore arbitrario b, si definisce spazio di Krylov di dimensione k lo spazio
generato dalla seguente successione di vettori:
Kk = span{b, Ab, A2 b, ..., Ak−1 b}.
I metodi di proiezione in sottospazi di Krylov determinano, per ogni k, una soluzione approssimata xk del sistema lineare Ax = b che appartenga al sottospazio Kk .
La scelta del vettore xk può essere fatta applicando diversi criteri di ottimalità, che
conducono a differenti algoritmi.
Il metodo del gradiente coniugato (CGN) può essere usato per matrici simmetriche
definite positive (SPD). Al k-esimo step, CGN trova il vettore xk nel sottospazio di
Capitolo 4. Sistemi lineari e precondizionatori
76
Krylov che minimizza la funzione
f (x) =
1 T
x Ax − bT x.
2
Se si prende la derivata di tale quantità scalare rispetto ad ogni elemento di x, si ottiene Ax − b, che si annulla se x è la soluzione di Ax = b. Ciò significa che x = A−1 b è
un estremo della funzione. Se si prende un’altra derivata con riferimento al vettore x,
si ottiene la matrice A, che è definita positiva, in modo che f (x) può solo crescere se
il vettore x si allontana da A−1 b. Questo dimostra che A−1 b è il minimo globale della
funzione f (x). La sequenza dei vettori xk si trova nel sottospazio Xk di RN . Poiché
l’algoritmo del gradiente coniugato minimizza la funzione f (x) su tali sottospazi, la
sequenza dei vettori tende ad approssimare la soluzione x = A−1 b. Quando il calcolo
iterativo k-esimo è uguale a N (la dimensione del sistema lineare), allora, come conseguenza del teorema di Cayley-Hamilton, il sottospazio di Krylov KN è uguale allo
spazio del vettore completo RN ×N e il vettore xN deve essere uguale a x = A−1 b.
(Se b si trova in un sottospazio invariante opportuno della matrice A, allora l’esatta
convergenza si presenta prima, e xk = x per k < N ). Così, si può dimostrare che, l’algoritmo CGN converge alla soluzione esatte in n iterazioni ed è quindi da considerare
un metodo diretto. Viene però di fatto utilizzato come metodo iterativo perché, se opportunamente precondizionato, fornisce un’approssimazione sufficientemente accurata
della soluzione in un numero di iterazioni molto inferiore alla dimensione del sistema,
fatto di particolare importanza quando si opera su sistemi lineari di dimensione estremamente elevata. Quando è stato implementato numericamente per la prima volta,
è stato osservato che l’errore che si ripeteva provocava una soluzione approssimata
xk che falliva la convergenza a x. Per tale ragione, CGN è rimasto inutilizzato per
anni. Negli ultimi decenni si è compreso che CGN era utile come un sistema lineare
approssimativo risolvente quando si eseguivano meno di N iterazioni e che, malgrado
l’errore si ripeteva, la soluzione poteva essere del tutto esatta per molti problemi che
richiedevano calcoli iterativi relativamente bassi.
4.2.1
Il gradiente coniugato
Per una matrice A SPD:
Stato iniziale (k = 0):
x0 = ipotesi iniziale quasi sempre x0 = 0
r0 = b − Ax0 (vettore residuo iniziale)
Capitolo 4. Sistemi lineari e precondizionatori
77
d0 = r0 (vettore di direzione di ricerca iniziale)
Procedimento al passo k = 0, 1, 2, ...
γk =
rkT rk
rkT Adk
xk+1 = xk + γk dk (successiva approssimazione per x)
rk+1 = rk − γk dk
ηk =
T
rk+1
rk+1
T
rk rk
dk+1 = rk+1 + ηk dk
Il vettore dk è la direzione di ricerca; xk+1 è ottenuto dall’approssimazione al passo
precedente xk sommando uno scalare multiplo di dk .
Il vettore rk è l’errore residuo b − Axk . La soluzione x non è nota, quindi l’errore
kx − xk k non è disponibile. La norma dell’errore residuo è una misura dell’errore e
può essere usata per determinare in ogni caso la soluzione:
Errore residuo relativo =
krk k
.
kr0 k
Il vettore residuo non è uguale all’errore della soluzione ek = x − xk , ma la sua norma
può essere vista come l’errore della soluzione in una norma pesata. Se definiamo
kykA = kAyk
allora la norma dell’errore residuo è la A-norma dell’errore della soluzione
rk = kA(x − xk )k = kek kA .
La norma dell’errore residuo può essere anche usata per limitare la norma dell’errore
della soluzione, dato che
krk k = kAek k
≤ kAkkek k
= |λmax |kek k
dove la disuguaglianza comporta che kAk è una norma di matrice indotta dalla norma del vettore e l’eguaglianza finale assume che la norma del vettore è L2 o norma
Euclidea. Similmente
kek k = kA−1 rk k
≤ kA−1 kkrk k
Capitolo 4. Sistemi lineari e precondizionatori
=
78
1
krk k,
|λmin |
dove λmin è il più piccolo autovalore per A. Combinando le due disuguaglianze si
arriva a
1
1
krk k ≤ kek k ≤
krk k,
|λmax |
|λmin |
così che la norma dell’errore residuo limita l’errore della soluzione.
Per una matrice normale, il rapporto
κ(A) =
|λmax |
|λmin |
è il numero di condizionamento della matrice nella norma L2 . Per un operatore generale e per una norma operatoriale arbitraria, il numero di condizionamento è definito
da
κ(A) = kAkkA−1 k.
Questa quantità misura quanto A sia prossimo all’operatore singolare. Se A è la matrice identità, allora il numero di condizionamento è uno. Se A è singolare, allora il
numero di condizionamento è infinito. Un operatore con un numero di condizionamento elevato è detto mal condizionato. Nel caso in cui il numero di condizionamento di
A è prossimo a uno, allora l’errore residuo è sempre prossimo all’errore della soluzione. Se il numero di condizionamento è molto grande, allora l’errore residuo non può
essere una buona misura dell’errore della soluzione. In alcuni casi, però, il numero
di condizionamento può essere grande e l’errore residuo è ancora un buon indicatore
dell’errore della soluzione, perché i vettori residuo ed errore non possono essere prossimi agli autovettori con autovalori molto piccoli o molto grandi e i limiti estremi della
disuguaglianza
1
1
krk k ≤ kek k ≤
krk k
|λmax |
|λmin |
non sono raggiunti.
Algoritmo CGNE: Perché la funzione
f (x) =
1 T
x Ax − bT x
2
abbia un minimo nella soluzione x, la matrice deve essere SPD. Se A non è SPD, allora
si può risolvere l’equazione normale
AT Ax = AT b
Capitolo 4. Sistemi lineari e precondizionatori
79
L’algoritmo risultante è quello del gradiente coniugato sull’equazione normale (CGNE).
Un’altra possibilità è applicare CGN all’equazione
AAT y = b
e quindi calcolare x = AT y. Questo è conosciuto come CGNR.
L’algoritmo CGNR è
Iniazializzazione (k=0)
r0 = AT b − AT Ax0
d0 = r0
Procedimento al passo k = 0, 1, 2, ...
y = Adk −→ matvec da A
γk =
rkT rk
yT y
xk+1 = xk + γk dk
y = AT y −→ matvec da AT
rk+1 = rk − γk y
ηk =
T
rk+1
rk+1
rkT rk
dk+1 = rk+1 + ηk dk
Un problema dell’algoritmo CGNE è che converge più lentamente del CGN, perché
AT A è condizionato in modo peggiore rispetto ad A
κ(AT A) ' κ(A)2 .
4.2.2
Il metodo dei residui minimi generalizzato
Ad oggi, fra i metodi di tipo Krylov, il metodo dei residui minimi generalizzato (GMRES) è quello che possiede l’implementazione più robusta. Consiste nel costruire
iterativamente una base ortonormale per lo spazio di Krylov Kl , approssimando, ad
ogni iterazione, la soluzione x del sistema Ax = b col vettore xl ∈ Kl che minimizza
la norma 2 del residuo rl = b − Axl .
Sia Vm la matrice i cui vettori colonna sono i vi , ottenuti dall’ortogonalizzazione
dei vettori del sottospazio di Krylov Km (A, x0 ).
Ogni vettore del sottospazio H considerato sarà del tipo
x = x0 + Vm y.
Capitolo 4. Sistemi lineari e precondizionatori
80
Il GMRES allora ricava quel vettore y che minimizza la norma del vettore
b − A(x0 + Vm y).
L’algoritmo standard si traduce, quindi, nei seguenti passi:
i) Si calcola il vettore residuo e si normalizza;
ii) Si ricava la matrice di Hessemberg;
iii) Si determina il minimo dell’espressione vista in precedenza.
Si può dunque procedere per ottenere la matrice di Hessemberg utilizzando un opportuno algoritmo, come ad esempio quello di Gram-Schmidt oppure la tecnica di
ortogonalizzazione di Householder.
È possibile utilizzare delle matrici di rotazione per trasformare la matrice di Hessenberg in una triangolare. In particolare si può considerare la rotazione i-esima costituita
dalla matrice:


I


Φi =  0

0
0
Ωi
0
0


0 

I
con Ωi la matrice di rotazione bidimensionale con valori di seni e coseni direttori pari
a
si = q
hi+1,i
(i−1)
(hii )2
+ h2i+1,i
(i−1)
ci = q
hii
(i−1) 2
)
(hii
+ h2i+1,i
In assenza di errori di arrotondamento, il GMRES fornisce la soluzione di Ax = b in
al più n iterazioni. Tale metodo, però, è caratterizzato da una elevata occupazione
in memoria così come da un notevole costo computazionale. Può essere, dunque,
utilizzato solo se la convergenza viene raggiunta dopo pochi passi. Con l’utilizzo del
GMRES ripartito, si ottiene una riduzione della richiesta in memoria, ma si rallenta
anche la convergenza.
. La variante ripartita del GMRES
Lo svantaggio principale del metodo GMRES è costituito dal fatto che occorre tenere
in memoria tutti i vettori della base dello spazio di Krylov. Quando il numero di
iterazioni raggiunge valori di qualche centinaio (cosa che avviene nei casi reali) questa
occupazione di memoria può diventare eccessivamente gravosa. Tale problema viene
Capitolo 4. Sistemi lineari e precondizionatori
81
risolto nelle applicazioni definendo a priori un numero massimo di vettori che possono
essere memorizzati, diciamo p. Dopo p iterazioni si calcola l’approssimazione xp , si
cancellano tutti i vettori dello spazio di Krylov e si riparte con un nuovo spazio di
Krylov avente come vettore generatore rp = b − Axp . Tale modifica risolve il problema
della memoria ma rallenta l’algoritmo dal punto di vista della sua convergenza alla
soluzione.
4.2.3
L’algoritmo BiCG
L’algoritmo BiCG è molto simile a quello CGN, ma viene modificato per trattare
matrici arbitrarie (non - SPD).
Si considerino i sottospazi di Krylov K(m, v), relativi alla matrice A, e K(m, w),
relativi alla trasposta di A. L’algoritmo della biortogonalizzazione procede con la
ricerca di una coppia di basi biortogonali per i due sottospazi (una coppia di basi si
dice biortogonale se e solo se le basi sono separatamente ortogonali e il prodotto scalare
(vi, wi) = 1). L’applicazione della biortogonalizzazione al CGN dà luogo all’algoritmo
BiCG (BiConjugate Gradient). Poiché la matrice trasposta serve soltanto a costruire
la base bi-ortogonale per i due sottospazi di Krylov, essa può non essere tenuta in
memoria. Ciò dà origine a una variante dell’algoritmo sopra enunciato, il BiCGStab
(BiConjugate Gradient Stabilized).
Il BiCG converge in al più n iterazioni, non ci sono, però, proprietà di minimizzazione per i passi intermedi. Se A è simmetrica il BiCG coincide con il Gradiente
Coniugato, svolgendo, però, due volte il lavoro. Per matrici arbitrarie, invece, la convergenza del BiCG è talvolta erratica; si cerca di ridurre tale comportamento attraverso
il BiCGStab. In quest’ultimo si ha una velocità di convergenza doppia rispetto al BiCG,
inoltre il vettore dei residui è minimizzato con una convergenza decisamente migliore. Nel caso in cui vengano richiesti molti passi per poter arrivare alla soluzione, il
BiCGStab ha delle prestazioni migliori rispetto a quelle che si ottengono utilizzando il
metodo del gradiente coniugato.
4.3
La onvergenza dei metodi di Krylov
Analizzare le proprietà di convergenza delle iterazioni nel sottospazio di Krylov è più
difficile che per le iterazioni stazionarie. L’osservazione fondamentale è che il vettore
del residuo rn appartiene al sottospazio di Krylov Kn (A, r0 ) := span{r0 , Ar0 , A2 r0 , ..., An r0 }
soltanto se si può un polinomio p(·) di grado n a coefficienti complessi tale che
Capitolo 4. Sistemi lineari e precondizionatori
82
rn = p(A)r0 . Per una convergenza rapida si vorrebbe che p(A) fosse in un certo
senso piccolo per n calcoli iterativi relativamenti bassi.
Sia σ(A) lo spettro di A, i.e. l’insieme dei suoi autovalori. Se n è molto grande,
allora S è costituito da molti autovalori e può essere approssimato come un insieme
continuo nel piano (possibilmente anche includendo alcuni autovalori che sono separati
dal gruppo principale). Il vettore residuo p(A)r0 sarà piccolo se p(λm ) è piccolo, dove
λm ∈ S. La questione è trovare, per un dato ordine n, quanto |p(z)| può essere piccolo
sullo spettro S. Invece di provare a determinare esattamente qual è il polinomio p(·),
si cerca di ottenere un limite su quanto piccolo può essere un polinomio su S in termini
del suo ordine.
Qn
Se gli zeri di p(·) sono denotati con z1 , z2 , . . . , zn , allora si può scrivere |p(z)| =
k=1
|z − zk |. Prendendo il logaritmo di tale espressione si ottiene
ln |p(z)| =
n
X
ln |z − zk |
(4.12)
k=1
Affinché il potenziale di un punto negativo nel piano, dovuto ad un carico, sia uguale
alla funzione log, questo può essere interpretato fisicamente come il potenziale del
punto negativo, dovuto a n carichi, localizzati su ciacuno degli zeri di p(·).
Al crescere di n, si vede che il potenziale minimo si presenta quando tutti i carichi
sono distribuiti attorno al limite di S. Se uno dei carichi negativi fosse interno ad S,
si potrebbe diminuire il potenziale medio su S spostando il carico al limite.
Tale proprietà porta ad un altro elemento per un’interpretazione fisica della convergenza di iterazioni nel sottospazio di Krylov. Lo spostamento al limite è esattamente
come i carichi fanno su un corpo CEP - i carichi sono distribuiti uniformemente sulla
superficie del corpo così che le posizioni di equilibrio minimizzano l’energia totale del
sistema, che è determinata dal potenziale. Così, il polinomio p(·), per il quale |p(·)|
è il più piccolo su S, ha gli zeri nella posizione in cui n carichi uguali di un punto
prenderebbero un corpo CEP con la stessa forma di S.
Per fare una predizione quantitativa del tasso di convergenza, inizialmente si sceglie
l’origine come un punto di riferimento del potenziale, e si minimizza il rapporto
|
p(z)
|
.
p(0) z∈S
Questo è minimizzato quando il potenziale
log|p(z)| − log|p(0)|
è il più piccolo per z posizionato sulla superficie di un corpo CEP con la forma di S.
Poiché la superficie CEP deve essere equipotenziale, questa è la potenziale differenza
Capitolo 4. Sistemi lineari e precondizionatori
83
tra S e l’origine. Se il carico totale su S è n Coulombs, allora la capacità per unità di
lunghezza di S in riferimento ad un punto nell’origine è
C=
n
Q
=
V
− ln |p(z)/p(0)|
Risolvendo per il rapporto |p(z)/p(0)| si ha
|
p(z)
| ≤ e−n/C = (e−1/C )n = ρn ,
p(0)
dove e−1/C è conosciuto come il fattore di convergenza asintotico e si trova nell’intervallo 0 ≤ ρ ≤ 1. Il significato di tale risultato può essere riassunto come segue: la
convergenza di una iterazione nel sottospazio di Krylov dipende dalla capacità di un
conduttore con la forma dello spettro di A in riferimento all’origine. Se la capacità C
è piccola, allora il fattore di convegenza asintotico è prossimo a zero e l’errore residuo
diviene rapidamente piccolo. Se la capacità è grande, allora ρ ' 1 e la convergenza
dell’iterazione è lenta.
4.3.1
Fattori di influenza dei tassi di convergenza
Operatore ben-condizionato. Se gli autovalori di A sono confinati in una regione
piccola lontana dall’origine, allora la capacità di S relativa all’origine è piccola e ρ → 0
, così la convergenza è rapida. In tal caso, il numero di condizionamento è quasi uno.
Operatore mal-condizionato. Se alcuni degli autovalori sono molto vicini all’origine, allora la capacità è grande, così ρ → 1 e la convergenza è lenta.
Caso SPD. Se A è SPD, allora gli autovalori si trovano in un certo intervallo [λmin , λmax ]
sull’asse positvo reale. La capacità per unità di lunghezza di un tratto infinito su tale
intervallo relativo ad una lunghezza infinta è
p
λmax /λmin − 1 −1
C = −(log p
)
λmax /λmin + 1
Il fattore di convergenza è
p
λmax /λmin − 1
ρ= p
λmax /λmin + 1
In termini di numero di condizionamento κ, questo diviene
√
κ−1
ρ= √
κ+1
Capitolo 4. Sistemi lineari e precondizionatori
84
Se κ è grande allora
√
κ−1
1
2
ρ' √
(1 − √ ) ' 1 − √
κ
κ
κ
Se si vuole ripetere fino alla norma dell’errore residuo relativo che è ², allora
²=
krn k
' ρn
kr0 k
in modo che
n=
√ log²
log²
' κ
(CGN)
logρ
2
Questa è una stima del numero di iterazioni richieste per ottenere un errore residuo di
².
Per CGNE o CGNR, κ è il numero di condizionamento di A† A, che è approssimativamente il quadrato del numero di condizionamento di A. Ciò porta ad una
stima
n =' κ(A)
log²
(CGNE/CGNR)
2
Spettro = disk (BCG, etc.). Per matrici non-SPD, lo spettro non è confinato
all’asse reale. Se lo spettro è approsimato ad un disco nel piano complesso, allora il
fattore di convergenza asintotico diviene
ρ=
κ−1
,
κ+1
in modo che la stima del calcolo dell’iterazione diviene
n =' κ(A)
log²
(Disk)
2
che è la stessa stima per CGNE/CGNR.
Dagli esempi sopra riportati, si può concludere che il numero di condizionamento
della matrice influenza fortemente il tasso di convergenza di un’iterazione nel sottospazio di Krylov. Se il numero di condizionamento è piccolo, la convergenza è rapida
e l’algoritmo iterativo è una soluzione molto efficiente per un sistema lineare. Se il
numero di condizionamento è grande, la convergenza è lenta.
Ci sono altri fattori che influenzano i tassi di convergenza. Se la matrice è fortemente
non normale, la convergenza può essere più lenta rispetto alle stime sopra predette.
Infatti, è stato dimostrato che, per un dato spettro, sono possibili differenti curve
convergenti, includendo la convergenza molto lenta, se il grado di non normalità della
matrice aumenta.
Capitolo 4. Sistemi lineari e precondizionatori
4.3.2
85
Criteri di arresto
Nell’applicazione di un metodo iterativo, risulta cruciale il criterio utilizzato per arrestare le iterazioni, in quanto da esso dipende la qualità dell’approssimazione della
soluzione del sistema. Vengono riportati tre criteri per l’arresto. I primi due sono utilizzabili in qualsiasi metodo iterativo, anche se destinato alla risoluzione di un
problema differente, mentre il terzo è specifico per la risoluzione di sistemi lineari.
i) Un metodo per rilevare la convergenza consiste nel verificare che la successione
delle iterate soddisfi il criterio di Cauchy. Questo può essere fatto controllando
lo scarto tra due iterazioni successive. Fissata una tolleranza τ > 0 e scelta una
norma vettoriale, la condizione di stop è data allora da
kxk − xk−1 k ≤ τ,
o meglio dalla condizione seguente, che misura lo scarto relativo
kxk − xk−1 k
≤ τ,
kxk k
che viene, comunemente, implementata nella forma:
kxk − xk−1 k ≤ τ kxk k.
Si tratta però di un test d’arresto non affidabile, in generale, in quanto esso è
verificato ad esempio per i metodi che generano una successione costante, diversa
dalla soluzione.
ii) Nell’eventualità che il metodo non converga, per evitare un loop infinito, è bene fissare un numero massimo di iterazioni N , e utilizzare quindi un criterio
d’arresto del tipo k > N .
iii) Nei metodi iterativi per sistemi lineari, al passo k è possibile ottenere una
maggiorazione per l’errore
ek = xk − x
in termini del vettore residuo
rk = b − Axk .
Dalle relazioni sopra si ha che
rk = b − Axk = b − A(ek + x) = b − Aek − Ax = −Aek ,
e cioè
Aek = −rk ,
Capitolo 4. Sistemi lineari e precondizionatori
86
da cui si ricava
kek k = kA−1 rk k ≤ kA−1 kkrk k.
Ricordando poi che kbk ≤ kAkkxk si arriva alla seguente maggiorazione per
l’errore relativo al passo k:
krk k
krk k
kek k
≤ kAkkA−1 k
= κ(A)
,
kxk
kbk
kbk
dove κ(A) è il numero di condizionamento per la matrice A. Il criterio di stop
krk k
≤τ
kbk
può quindi essere usato in luogo di
kxk − xk−1 k ≤ τ kxk k.
È evidente che la stima dell’errore è tanto meno attendibile quanto più la matrice
A è mal condizionata.
In generale, le condizioni utilizzate per l’arresto dei metodi iterativi non sono costituite
da un solo criterio, ma piuttosto da una combinazione di più criteri di arresto connessi
in maniera opportuna.
4.4
Il precondizionamento
Nel tentativo di trovare algoritmi robusti e rapidamente convergenti per la risoluzione
di sistemi lineari arbitrari (asimmetrici, densi, indefiniti e complessi), negli anni passati
sono state messe a punto dai ricercatori del settore numerico numerose varianti delle
tecniche di tipo Krylov. D’altro canto, poiché è noto in letteratura che alcuni di questi
(e fra tutti il GMRES) sono influenzati nelle prestazioni, almeno in parte, dal numero
di condizionamento proprio della matrice del sistema, molta attenzione è stata rivolta,
parimenti, allo sviluppo di precondizionatori efficaci, in grado di ridurre di un fattore
significativo il costo complessivo del processo iterativo di calcolo della soluzione. In
linea del tutto generale, un precondizionatore è una qualunque matrice regolare (cioè
invertibile) M che agisce sul sistema lineare Ax = b trasformandolo nella forma
equivalente
M−1 Ax = M−1 b
(4.13)
oppure
AM−1 y = bM−1
con x = bM−1
(4.14)
Capitolo 4. Sistemi lineari e precondizionatori
87
a seconda che il precondizionamento operi a sinistra o a destra. Di fatto, M viene
considerato efficace se κ(M−1 A) ¿ κ(A) ovvero κ(AM−1 ) ¿ κ(A), rispettivamente
nei due casi.
D’altronde, è evidente che, da un punto di vista operativo, se si vuole effettivamente migliorare il rendimento tout-court di una routine destinata al calcolo iterativo
della soluzione numerica del sistema lineare Ax = b utilizzando un qualche precondizionatore M, è indispensabile che né la sua inversa M−1 né la matrice del sistema
precondizionato M−1 A ovvero AM−1 vengano esplicitamente formate. A questo scopo
l’implementazione dell’algoritmo di calcolo, tipicamente, prevede, per ciascuna iterazione, un blocco in cui il precondizionamento del sistema originale è riportato alla
soluzione di un sistema intermedio della forma
Mz = c
(4.15)
Di conseguenza, l’abbattimento dei costi computazionali relativi alla variante precondizionata dell’iteratore in uso è fatta dipendere, in ultima analisi, dalla semplicità con
cui è dato calcolare z a partire dalla (4.15). Naturalmente, nel caso estremo in cui
M = A, la spesa complessiva non risulterebbe comunque inferiore a quella comportata
dalla soluzione del sistema non precondizionato (cioè nessun vantaggio reale sarebbe,
di fatto, osservabile). Ciò nondimeno, il numero complessivo di iterazioni richieste
prima della convergenza verrebbe abbattuto al suo minimo (ossia ad uno). Sembra
chiaro, così, che la scelta di un precondizionatore è tanto più qualificata quanto meglio
realizza il giusto compromesso fra le necessità contrastanti di abbattere il numero delle
iterazioni senza, tuttavia, dilatare eccessivamente i tempi di processazione. Pertanto,
in pratica, si richiede che M sia, in un certo senso, un’approssimazione di A, tale per
cui
i) la matrice precondizionata abbia un numero di condizionamento κ quanto più
possibile prossimo ad uno;
ii) il sistema (4.15) sia “facile da risolvere”.
Nel presente lavoro di tesi, si indagano, in particolare, le performance del precondizionamento algebrico S definito dalla parte antihermitiana della matrice delle
impedenze Z del sistema lineare prodotto dalla discretizzazione dell’EFIE tramite
il metodo dei momenti, per confronto con le prestazioni di alcuni precondizionatori
standard, ampiamente utilizzati in letteratura e descritti nei sottoparagrafi a seguire.
Capitolo 4. Sistemi lineari e precondizionatori
4.4.1
88
Il precondizionatore antihermitiano
L’operazione di precondizionamento diventa necessaria nel caso di sistema lineare algebrico proveniente dalla discretizzazione dell’EFIE (ZI = V), perché Z, a causa di
errori di discretizzazione, manca della convergenza del GMRES. Come sappiamo bene,
questa operazione trasforma il sistema lineare originale ZI = V in un altro
P −1 ZI = P −1 V
(4.16)
chiamato sistema precondizionato, il quale ha le proprietà spettrali di aumentare il
tasso di convergenza. Nel caso del sitema dei momenti, P può essere scelto come
segue:
Z = S + H = S(U + S −1 H)
dove H =
1
(Z
2
+ ZH ) e S =
1
(Z
2
− Z H ) sono rispettivamente la parte hermitiana e
la parte antihermitiana di Z e U = diag(1) è la matrice identica. Poiché nella zona
vicina del campo abbiamo una predominanza di potenza reattiva rispetto a quella attiva, possiamo aspettarci che kSk À kHk, cioè che la componente antihermitiana S
domina sulla componente hermitiana H. Se questa condizione è verificata succede che
lo spettro di S −1 H (σ(S −1 H)) sarà nell’intorno dell’origine del piano complesso. Conseguentemente scegliendo P = S nella (4.16), abbiamo che lo spettro degli autovalori
della matrice
P −1 Z = S −1 S(U + S −1 H) = U + S −1 H
σ(P −1 Z) = σ(U + S −1 H) sarà localizzato intorno al punto (1, 0) del piano complesso
ottenendo in questo modo l’effetto desiderato di precondizionamento.
4.4.2
Il precondizionatore diagonale
Soprattutto nei casi in cui Z è caratterizzata da una marcata doninanza diagonale,
nel senso che gli elementi della matrice dotati di modulo maggiore (quindi di maggior
peso) sono tutti localizzati all’interno di una certa banda, concentrata attorno alla
diagonale principale e specificata a mezzo di un intero 0 ≤ b ¿ n (dove n rappresenta
la “taglia” di Z), un approccio efficace al problema del precondizionamento è garantito
assumendo come precondizionatore M la matrice sparsa ottenuta da Z azzerando tutti
gli elementi esterni alla banda delimitata da b. Con riferimento alle considerazioni di
cui al paragrafo (4.4), è chiaro che la semplicità di M è tanto più spiccata quanto più b
è prossimo allo zero, ossia quanto più M tende alla matrice diagonale diag(diag(Z)).
Di fatto, è questa la scelta su cui si è concentrata la nostra attenzione.
Capitolo 4. Sistemi lineari e precondizionatori
4.4.3
89
Il precondizionatore ILU
Un modo comune e alternativo di costruire un precondizionatore per il sistema dei
momenti ZI = V prevede la fattorizzazione della matrice Z a mezzo di una coppia
(F1 , F2 ) per cui Z = F1 · F2 e i fattori inversi F−1
ed F−1
siano calcolabili più
1
2
rapidamente di Z−1 . Su questo principio si basa, in particolare, il precondizionamento
di Z ottenuto a partire dalla sua decomposizione LU (vedi [?]). Il problema è che
i costi di fattorizzazione sono asintoticamente troppo elevati per giustificare questo
approccio, ragion per cui si pone, da un punto di vista operativo, l’ovvia necessità di
contenere gli oneri di calcolo. Tipicamente, questo obiettivo è raggiunto effettuando la
decomposizione LU non di Z bensì di una sua versione sparsa ottenuta stabilendo un
qualche criterio di scarto (drop) per l’azzeramento di tutti gli elementi della matrice
che non superino un certo test di selezione.
Attraverso la chiamata ILU(Z,setup), la routine Matlab built-in ILU utilizza, appunto, questo principio per eseguire su Z la cosiddetta fattorizzazione LU incompleta
sparsa, nell’ipotesi che setup sia una variabile di tipo structure dotata dei campi:
¨ type, per specificare il metodo di fattorizzazione;
¨ droptol, per precisare la soglia di scarto degli elementi;
¨ milu, per l’esecuzione della fattorizzazione LU incompleta modificata;
¨ udiag, per rimpiazzare gli zeri eventualmente presenti sulla diagonale principale
di U;
¨ thresh, per indicare una soglia critica (applicata al modulo degli elementi diagonali di U) al di sotto della quale operare il pivoting delle righe o colonne della
matrice, al fine di assicurarne la regolarità numerica.
Il campo type può assumere i valori:
¨ ‘nofill’, che corrisponde alla fattorizzazione LU incompleta di Z con un livello
di fill-in 6 pari a zero;
¨ ‘crout’, che rappresenta la variante dell’ILU fondata sull’impiego della decomposizione di Crout (anche nota come ILUC);
¨ ‘ilutp’, che si riferisce alla variante della fattorizzazione LU incompleta che
utilizza il pivoting a soglia delle righe e/o delle colonne della matrice.
6:
il fill-in di una matrice è l’insieme di quegli elementi che mutano da un valore iniziale nul-
lo a un valore finale non nullo nel corso dell’esecuzione di un algoritmo. In genere, per ridurre
l’occupazione di memoria e il numero di operazioni aritmetiche necessarie alla processazione
è utile minimizzare il fill-in scambiando le posizioni reciproche di righe e colonne.
Capitolo 4. Sistemi lineari e precondizionatori
90
Se il campo type non è specificato, di default viene assegnato type = ‘ilutp’. Se,
invece, si attribuisce al campo type l’uno o l’altro fra i valori ‘nofill’ o ‘crout’, il
pivoting non viene mai eseguito.
Il campo droptol è uno scalare non negativo δ utilizzato per definire una tolleranza
di scarto nell’azzeramento di tutti gli elementi di una data riga o colonna v di U o
di L che, in modulo, siano più piccoli della cosiddetta tolleranza di scarto locale,
ovvero del prodotto δ · kvk2 . L’unica eccezione a questa regola è rappresentata dagli
elementi diagonali del fattore triangolare superiore U, che non vengono mai scartati.
In particolare, quando droptol = 0, la direttiva ILU(Z,setup) esegue, ad ogni effetto
della pratica, la fattorizzazione LU completa di Z.
Il campo milu stabilisce se si debba o meno utilizzare la versione modificata della
routine ILU di base e può assumere alternativamente i valori ‘row’ (somma per righe),
‘col’ (somma per colonne) oppure ’off’ (opzione di default). Quando milu = ‘row’,
il generico elemento diagonale del fattore triangolare superiore U è compensato di
modo tale da preservare la somma della riga corrispondente. In altri termini, posto che
e indichi il vettore colonna [11 . . . 1] di lunghezza n, vale Z·e = L·U·e. Analogamente,
quando milu = ‘col’, il generico elemento diagonale di U viene calibrato così che
eH · Z = eH · L · U.
Il campo udiag è una variabile booleana. Se il suo valore è pari ad 1, ogni elemento
nullo sulla diagonale di U è rimpiazzato dalla tolleranza locale di scarto, nel tentativo
di evitare la singolarità. Zero è il valore di default.
Il campo thresh è una soglia di pivoting σt nell’intervallo [0, 1]. Il pivoting viene
effettuato ogni volta che l’elemento diagonale di una colonna di Z è caratterizzato
da un modulo minore della soglia σt moltiplicata per il modulo di ogni elemento
subdiagonale relativo alla medesima colonna. L’assegnazione thresh = 0 forza il più
consueto pivoting diagonale. Per default, vale thresh = 1.
4.5
Esperimenti numerici
Vengono adesso riportati i risultati ottenuti dalle simulazioni svolte al calcolatore per
scatteratori di geometria cubica e per un’assegnata discretizzazione n, sulle frequenze
campione di una data banda B = [fmin , fmax ].
Per condurre tale analisi sono state innanzitutto costruite, per adattarle alle esigenze dell’indagine, alcune routine MATLAB di processazione del sistema dei momenti
ZI = V.
Lo script hermvsskew.m plotta le norme k · k1 , k · k2 , k · k∞ e k · kF , della matrice
Capitolo 4. Sistemi lineari e precondizionatori
delle impedenze Z, della sua parte antihermitiana S =
91
1
(Z
2
− ZH ) e dalla sua parte
hermitiana H = 12 (Z + ZH ).
L’M-file revsim.m funziona come hermvsskew.m, confronta le norme k · k1 , k · k2 ,
k · k∞ e k · kF sulla banda, della matrice delle impedenze Z della sua parte reale <(Z)
e della sua parte immaginaria =(Z).
L’M-file normcomp confronta le norme k · k1 , k · k2 , k · k∞ e k · kF sulla banda, della
parte hermitiana H contro la parte reale di Z e la parte antihermitiana S contro la
parte immaginaria di Z e inoltre traccia per ciascuna norma il grafico della differenza
kHk − k<(Z)k e kSk − k=(Z)k.
L’ M-file risonanze.m grafica l’andamento in banda del più piccolo valore singolare σmin di Z in modo da localizzare le risonanze dell’ostacolo, cioè le frequenze per
cui l’operatore integrale dell’EFIE diviene non iniettivo, pregiudicando l’unicità della
soluzione dell’equazione associata. La determinazione delle risonanze è finalizzata a
stabilire se e in che misura la degenerazione del nucleo dell’operatore integrale influisce negativamente sulle prestazioni dei metodi (iterativi) utilizzati nella soluzione del
sistema dei momenti ed a sviluppare approcci alternativi al problema della filtrazione
delle risonanze.
Lo script spettro.m restituisce la distribuzione sul piano di Argand-Gauss degli autovalori della matrice delle impedenze Z, prima e dopo il precondizionamento
(ovvero il suo spettro), relativamente ad una gamma di frequenze scelte all’interno
dell’intervallo B di esplorazione. In particolare, la nostra attenzione si è focalizzata
su una coppia di frequenze f1 e f2 scelte in B di modo da massimizzare e minimizzare,
rispettivamente, la differenza fra kSk2 e kHk2 .
L’M-file residui.m traccia le curve della norma k · k2 dei residui computati dal
GMRES nella soluzione (iterativa) del sistema dei momenti, in presenza ed in assenza di
precondizionamento. Nello specifico, le strategie di precondizionamento indagate sono
finalizzate al confronto fra le prestazioni di S e di alcuni precondizionatori standard,
quali ILU(Z) e diag(diag (Z)).
Gli M-file costi.m e tempi.m effettuano l’analisi computazionale del GMRES per la
soluzione (iterativa) del sistema dei momenti, prima e dopo il precondizionamento,
secondo le specifiche di cui al punto precedente, plottando sulla banda il numero
massimo di iterazioni e i tempi di calcolo necessari per raggiungere la convergenza o una
qualsiasi altra condizione sfavorevole di terminazione del metodo (esecuzione completa
del numero massimo di iterazioni previste, malcondizionamento del precondizionatore,
etc), secondo le indicazioni risultanti dal diagramma dei flag di convergenza.
Capitolo 4. Sistemi lineari e precondizionatori
4.5.1
92
Simulazione 1
Esistono in letteratura numerosi lavori in cui si fa dipendere la qualità di S, come
precondizionatore del sistema dei momenti, dalla sua dominanza su H in una qualche
norma k · k. Il punto è che, in realtà, ogni ragionamento circa la bontà di un dato
precondizionatore non è significativo in senso assoluto, ma si avvalora soltanto inquadrando il problema del precondizionamento nell’ottica dell’analisi delle prestazioni dei
metodi (iterativi) utilizzati nell’inversione del sistema. Ed è, di fatto, la particolare
natura ed implementazione del metodo utilizzato a determinare quale norma sia realmente significativa. Per esempio, nel caso particolare del GMRES, nell’implemantazione
built-in del MATLAB, la norma di riferimento è quella euclidea. D’altronde, indagare un set di norme allo scopo di individuarne una di riferimento (segnata k · k0 ) in
cui la dominanza è massimizzata, può suggerire l’opportunità di sviluppare metodi
ed algoritmi di soluzione, alternativi a quelli canonici, in grado di sfruttare al meglio
l’evidenza sperimentale per cui kSk0 À kHk0 . Tanto più considerando che
¨ come evidenziato dai risultati prodotti, la dominaza di S su H nella norma k · k2
è valida solo alle basse frequenze all’interno della banda osservata;
¨ le prestazioni del GMRES, che dipendono in ultima analisi dalla capacità del metodo di ridurre velocemente la norma residuale, beneficiano del precondizionamento di S oppure ne sono pregiudicate a seconda che la condizione di cui al
punto precedente sia soddisfatta.
Di tutto tenuto conto, non è dato, perciò, escludere la possibiltà di sviluppare un
algoritmo alternativo che, basato sulla norma k·k0 anziché sulla norma k·k2 , garantisca
per S buone prestazioni nel precondizionamento su una banda più larga.
Cubo 450. Si consideri uno scatteratore di forma cubica per una discretizzazione
n = 450 e una banda di frequenza B = 130 ÷ 450 MHz.
Dall’esame dei grafici si rileva che:
a) S domina nettamente su H nella norma k·k1 soltanto alle “basse” frequenze (circa
150M Hz) (vedi fig. 4.1), mentre alle “alte” frequenze (circa 440M Hz) la distanza tra
S ed H tende a ridursi fino a diventare poco significativa, nonostante si mantenga
kSk1 ≥ kHk1 ;
b) nella norma k · k2 , S domina nettamente su H soltanto alle “basse” frequenze
(vedi fig. 4.2), mentre da una certa frequenza in poi la situazione si capovolge ed è H
a dominare su S, quindi alle “alte” frequenze anche se la distanza tra S ed H tende a
ridursi, kHk2 ≥ kSk2 ;
Capitolo 4. Sistemi lineari e precondizionatori
93
Comparing Z, H = 0.5 ⋅ (Z + ZH) and S = 0.5 ⋅ (Z − ZH) in the 1−norm
90
80
70
||−||1
60
50
40
30
20
10
Z
H
S
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.1: Confronto in norma 1 tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 450
Figura 4.2: Confronto in norma 2 tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 450
c) S domina nettamente su H nella k · k∞ soltanto alle “basse” frequenze (vedi fig.
4.3), mentre alle “alte” frequenze la distanza tra S ed H tende a ridursi fino a diventare
poco significativa, nonostante si mantenga kSk∞ ≥ kHk∞ ;
Capitolo 4. Sistemi lineari e precondizionatori
94
Figura 4.3: Confronto in norma infinito tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 450
d) nella k · kF , S domina su H soltanto alle “basse” frequenze (vedi fig. 4.4),
mentre alle “alte” frequenze la distanza tra S ed H tende a ridursi fino a diventare
poco significativa, nonostante si mantenga kSkF ≥ kHkF ;
Comparing Z, H = 0.5 ⋅ (Z + ZH) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm
400
Z
H
S
350
300
||−||
F
250
200
150
100
50
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.4: Confronto in norma di Frobenius tra la parte hermitiana e parte
antihermitiana relativa alla discretizzazione 450
Capitolo 4. Sistemi lineari e precondizionatori
95
Cubo 1152. A differenza del caso precedente, in questo, è stato esaminato un
cubo con una discretizzazione pari a n = 1152. Similmente a quanto detto sopra per il
cubo di discretizzazione 450, si ottengono i seguenti grafici (vedi fig.4.5, 4.6, 4.7, 4.8)
Figura 4.5: Confronto in norma 1 tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 1152
Figura 4.6: Confronto in norma 2 tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 1152
Capitolo 4. Sistemi lineari e precondizionatori
96
Figura 4.7: Confronto in norma infinito tra la parte hermitiana e parte antihermitiana
relativa alla discretizzazione 1152
Figura 4.8: Confronto in norma di Frobenius tra la parte hermitiana e parte
antihermitiana relativa alla discretizzazione 1152
4.5.2
Simulazione 2
In questa seconda simulazione il confronto tra le norme viene ripetuto sulle matrici
<(Z) e =(Z) delle parti reale e immaginaria di Z rispettivamente. La conclusione è che
Capitolo 4. Sistemi lineari e precondizionatori
97
kSk ≈ k=(Z)k e kHk ≈ k<(Z)k per ciascuna delle norme prese in considerazione ed è
tanto più avvalorata dall’analisi dei grafici (4.17- 4.32) che descrivono l’andamento in
frequenza delle funzioni HR(f ) = kHk − k<(Z)k e SI(f ) = kSk − k=(Z)k. Tutto ciò
si anlizzerà più dettagliatamente nella prossima simulazione (4.5.3).
Cubo 450. Per il cubo con discretizzazione n = 450 possiamo osservare che:
a) la =(Z) prevale sulla <(Z) nella k · k1 soltanto alle “basse” frequenze (circa
150M Hz) (vedi fig. 4.9), mentre alle “alte” frequenze (circa 440M Hz) la loro distanza
tende a diminuire fino a diventare poco indicativa;
Comparing Z, ℜ(Z) and ℑ(Z) in the 1−norm
90
80
70
||−||1
60
50
40
30
20
10
Z
Re(Z)
Im(Z)
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.9: Confronto in norma 1 tra la parte reale e parte immaginaria di Z relativa
alla discretizzazione 450
b) nella k · k2 , fino alla frequenza di circa 250M Hz la parte immaginaria di Z è
perfettamente sovrapposta alla Z ed è anche nettamente superiore alla parte reale di
Z (vedi fig. 4.10), mentre da un certo punto in poi la situazione si ribalta ed è <(Z)
a prevalere su =(Z), anche se la distanza tra le due norme tende a ridursi;
c) per la k · k∞ si ripete la stessa situazione che abbiamo per la k · k1 , cioè la parte
immaginaria di Z domina sulla parte reale alle “basse” frequenze mentre la distanza
tende a diminuire alle “alte” frequenze (vedi fig. 4.11);
d) nella k·kF , =(Z) domina su <(Z) soltanto alle “basse” frequenze (vedi fig. 4.12),
mentre alle “alte” frequenze la distanza tra la parte immaginaria e la parte reale di Z
tende a ridursi fino a diventare poco significativa.
Cubo 1152. Per lo scatteratore di geometria cubica con discretizzazione n = 1152
otteniamo i seguenti risultati:
Capitolo 4. Sistemi lineari e precondizionatori
98
Comparing Z, ℜ(Z) and ℑ(Z) in the 2−norm
30
Z
Re(Z)
Im(Z)
25
||−||2
20
15
10
5
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.10: Confronto tra le norme 2 della parte reale e parte immaginaria di Z
relativa alla discretizzazione 450
Comparing Z, ℜ(Z) and ℑ(Z) in the ∞−norm
90
80
70
||−||∞
60
50
40
30
20
10
Z
Re(Z)
Im(Z)
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.11: Confronto tra le norme infinito della parte reale e parte immaginaria di
Z relativa alla discretizzazione 450
a) la =(Z) domina distintamente sulla <(Z) nella k · k1 soltamente alle “basse” frequenze (circa 150M Hz) (vedi fig. 4.13), mentre alle “alte” frequenze (circa 440M Hz)
la loro distanza tende a ridursi;
b) nella k · k2 , fino alla frequenza di circa 350M Hz la parte immaginaria di Z è
Capitolo 4. Sistemi lineari e precondizionatori
99
Comparing Z, ℜ(Z) and ℑ(Z) in the Frobenius norm
400
Z
Re(Z)
Im(Z)
350
300
||−||
F
250
200
150
100
50
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.12: Confronto tra le norme di frobenius della parte reale e parte immaginaria
di Z relativa alla discretizzazione 450
Figura 4.13: Confronto in norma 1 tra la parte reale e parte immaginaria di Z relativa
alla discretizzazione 1152
perfettamente sovrapposta alla Z ed è anche chiaramente superiore alla parte reale di
Z (vedi fig. 4.14), mentre da un certo punto in poi la situazione si capovolge ed è <(Z)
a prevalere su =(Z), anche se la distanza tra le due norme tende a ridursi;
c) per la k · k∞ si ripete la stessa situazione che abbiamo per la k · k1 , cioè la parte
Capitolo 4. Sistemi lineari e precondizionatori
100
Figura 4.14: Confronto in norma 2 tra la parte reale e parte immaginaria di Z relativa
alla discretizzazione 1152
immaginaria di Z domina sulla parte reale alle “basse” frequenze mentre la distanza
tende a diminuire alle “alte” frequenze(vedi fig. 4.15);
Figura 4.15: Confronto in norma infinito tra la parte reale e parte immaginaria di Z
relativa alla discretizzazione 1152
d) nella k · kF , =(Z) prevale su <(Z) però non di molto alle “basse” frequenze (vedi
Capitolo 4. Sistemi lineari e precondizionatori
101
fig. 4.16), mentre alle “alte” frequenze la distanza tra la parte immaginaria e la parte
reale di Z tende a ridursi ancora di più fino a diventare poco significativa.
Figura 4.16: Confronto tra le norme di Frobenius della parte reale e parte immaginaria
di Z relativa alla discretizzazione 1152
4.5.3
Simulazione 3
Questa terza simulazione è diretta conseguenza delle due precedenti infatti si mettono
a confronto le norme, k · k1 , k · k2 , k · k∞ e k · kF della parte hermitiana H della
(4.5.1) contro la parte reale di Z della (4.5.2) e la parte antihermitiana S della (4.5.1)
contro la parte immaginaria di Z della (4.5.2) e in più si traccia sempre per ciascuna
norma il grafico della differenza tra le norme(kHk − k<(Z)k e kSk − k=(Z)k). I grafici
confermano quanto detto e visto nelle simulazioni precedenti cioè che kSk ≈ k=(Z)k e
kHk ≈ k<(Z)k per ciascuna delle norme prese in esame.
Cubo 450. Dai grafici tracciati si riscontra che:
a) Nel confronto delle norme k · k1 tra H e <(Z) e tra S e =(Z) non si notano variazioni rilevanti, ma se si sottrae k=(Z)k1 a kSk1 e k<(Z)k1 a kHk1 , queste variazioni
diventano più evidenti alle “alte” frequenze. (vedi fig. 4.17, 4.18);
b) comparando le norme k · k2 della componente hermitiana H contro la parte
reale di Z (<(Z)) e della componente antihermitiana S contro la parte immaginaria
di Z (=(Z)) non si notano delle diversificazioni, ma se osserviamo la loro differanza,
le variazioni risultano più chiare alle “alte” frequenze (vedi fig. 4.19, 4.20);
Capitolo 4. Sistemi lineari e precondizionatori
102
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 1−norm
75
ℑ(Z)
S
||−||1
70
65
60
55
50
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.2
||S||1 − ||ℑ(Z)||1
0.1
0
−0.1
−0.2
−0.3
−0.4
−0.5
1
1.5
2
4
4.5
8
x 10
Figura 4.17: Confronto tra la norma 1 della parte immaginaria di Z e della parte
antihermitiana di Z relativa alla discretizzazione 450
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 1−norm
60
||−||1
50
40
30
20
10
ℜ(Z)
H
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.3
||H||1 − ||ℜ(Z)||1
0.2
0.1
0
−0.1
−0.2
−0.3
−0.4
1
1.5
2
4
4.5
8
x 10
Figura 4.18: Confronto tra la norma 1 della parte reale di Z e della parte hermitiana
di Z relativa alla discretizzazione 450
c) nel raffrontare le norme k · k∞ di H e <(Z) e di S e =(Z) non si riscontrano
delle diversità, ma se si sottrae k=(Z)k∞ a kSk∞ e k<(Z)k∞ a kHk∞ , queste diversità
diventano più significative a precise frequenze cioè alle “alte” (vedi fig. 4.21, 4.22);
d) paragonando le norme k · kF della H verso la <(Z) e della S verso la =(Z) non
Capitolo 4. Sistemi lineari e precondizionatori
103
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm
30
ℑ(Z)
S
||−||2
25
20
15
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.01
||S||2 − ||ℑ(Z)||2
0
−0.01
−0.02
−0.03
−0.04
−0.05
1
1.5
2
4
4.5
8
x 10
Figura 4.19: Confronto tra le norme 2 della parte immaginaria di Z e la parte
antihermitiana di Z relativa alla discretizzazione 450
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 2−norm
18
16
||−||2
14
12
10
ℜ(Z)
H
8
6
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
−3
3.5
x 10
||H||2 − ||ℜ(Z)||2
3
2.5
2
1.5
1
0.5
1
1.5
2
4
4.5
8
x 10
Figura 4.20: Confronto tra le norme 2 della parte reale di Z e la parte hermitiana di
Z relativa alla discretizzazzione 450
si notano variazioni significative, ma osservando la loro differenza, queste variazioni
diventano più evidenti alle “basse” frequenze (vedi fig. 4.23, 4.24).
Cubo 1152. Osservando i grafici risula che:
a) Nel confronto delle norme k · k1 tra H e <(Z) e tra S e =(Z) non si notano
Capitolo 4. Sistemi lineari e precondizionatori
104
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm
75
ℑ(Z)
S
||−||∞
70
65
60
55
50
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.15
∞
−0.05
||S|| − ||ℑ(Z)||
∞
0.1
0.05
0
−0.1
−0.15
−0.2
1
1.5
2
4
4.5
8
x 10
Figura 4.21: Confronto tra le norme infinito della parte immaginaria di Z e la parte
antihermitiana di Z relativa alla discretizzazione 450
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the ∞−norm
60
||−||∞
50
40
30
20
10
ℜ(Z)
H
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.6
∞
||H|| − ||ℜ(Z)||
∞
0.5
0.4
0.3
0.2
0.1
0
−0.1
1
1.5
2
4
4.5
8
x 10
Figura 4.22: Confronto tra le norme infinito della parte reale di Z e la parte hermitiana
di Z relativa alla discretizzazione 450
variazioni rilevanti, ma se guardiamo la loro differenza, queste variazioni diventano più
evidenti per kSk1 − k=(Z)k1 alle “alte” frequenze e per kHk1 − k<(Z)k1 alle “basse”
frequenze (vedi fig. 4.25, 4.26);
b) comparando le norme k · k2 della componente hermitiana H contro la parte
Capitolo 4. Sistemi lineari e precondizionatori
105
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm
400
ℑ(Z)
S
350
||−||
F
300
250
200
150
100
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
−0.035
−0.04
F
||S|| − ||ℑ(Z)||
F
−0.03
−0.045
−0.05
1
1.5
2
4
4.5
8
x 10
Figura 4.23: Confronto tra la norma di Frobenius della parte immaginaria di Z e della
parte antihermitiana di Z relativa alla discretizzazione 450
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the Frobenius norm
70
60
||−||F
50
40
30
ℜ(Z)
H
20
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
1
||H||F − ||ℜ(Z)||F
0.8
0.6
0.4
0.2
0
1
1.5
2
4
4.5
8
x 10
Figura 4.24: Confronto tra la norma di Frobenius della parte reale di Z e della parte
hermitiana di Z relativa alla discretizzazione 450
reale di Z (<(Z)) e della componente antihermitiana S contro la parte immaginaria di
Z (=(Z)) non si notano delle diversificazioni, ma se osserviamo la loro differanza, le
variazioni risultano più chiare alle “basse” frequenze per kSk2 −k=(Z)k2 e insignificanti
sia alle “basse” che alle “alte” frequenze per kHk2 − k<(Z)k2 (vedi fig. 4.27, 4.28);
Capitolo 4. Sistemi lineari e precondizionatori
106
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 1−norm
45
ℑ(Z)
S
||−||1
40
35
30
25
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.15
||S||1 − ||ℑ(Z)||1
0.1
0.05
0
−0.05
−0.1
−0.15
−0.2
1
1.5
2
4
4.5
8
x 10
Figura 4.25: Confronto tra le norme 1 della parte immaginaria di Z e la parte
antihermitiana di Z relativa alla discretizzazione 1152
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 1−norm
25
||−||1
20
15
ℜ(Z)
H
10
5
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.3
||H||1 − ||ℜ(Z)||1
0.25
0.2
0.15
0.1
0.05
0
−0.05
1
1.5
2
4
4.5
8
x 10
Figura 4.26: Confronto tra le norme 1 della parte reale di Z e la parte hermitiana di
Z relativa alla discretizzazione 1152
c) nel raffrontare le norme k · k∞ di H e <(Z) e di S e =(Z) non si riscontrano delle
diversità, ma se sottraiamo k=(Z)k∞ a kSk∞ e k<(Z)k∞ a kHk∞ , queste diversità
diventano più significative alle “basse” frequenze (vedi fig. 4.29, 4.30);
d) paragonando le norme k · kF della H verso la <(Z) e della S verso la =(Z) non
Capitolo 4. Sistemi lineari e precondizionatori
107
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm
20
ℑ(Z)
S
||−||2
15
10
5
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
−4
x 10
2
||S||2 − ||ℑ(Z)||2
1
0
−1
−2
−3
1
1.5
2
4
4.5
8
x 10
Figura 4.27: Confronto tra la norma 2 della parte immaginaria di Z e la parte
antihermitiana di Z relativa alla discretizzazione 1152
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the 2−norm
7
||−||2
6
5
4
3
2
ℜ(Z)
H
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
−4
7
x 10
||H||2 − ||ℜ(Z)||2
6
5
4
3
2
1
1
1.5
2
4
4.5
8
x 10
Figura 4.28: Confronto tra la norma 2 della parte reale di Z e la parte hermitiana di
Z relativa alla discretizzazione 1152
si notano variazioni significative, ma osservando la loro differenza, queste variazioni
diventano più evidenti alle “basse” frequenze per kHkF − k<(Z)kF e insignificenti per
kSkF − k=(Z)kF (vedi fig. 4.31, 4.32).
Capitolo 4. Sistemi lineari e precondizionatori
108
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the 2−norm
45
ℑ(Z)
S
||−||∞
40
35
30
25
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.02
||S|| − ||ℑ(Z)||
∞
0
∞
−0.02
−0.04
−0.06
−0.08
1
1.5
2
4
4.5
8
x 10
Figura 4.29: Confronto tra la norma infinito della parte immaginaria di Z e la parte
antihermitiana di Z relativa alla discretizzazione 1152
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the ∞−norm
25
||−||∞
20
15
ℜ(Z)
H
10
5
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
0.3
∞
||H|| − ||ℜ(Z)||
∞
0.25
0.2
0.15
0.1
0.05
0
−0.05
1
1.5
2
4
4.5
8
x 10
Figura 4.30: Confronto tra la norma infinito della parte reale di Z e la parte hermitiana
di Z relativa alla discretizzazione 1152
4.5.4
Simulazione 4
La quarta simulazione grafica l’andamento in banda del più piccolo valore singolare
σmin di Z in modo da localizzare le risonanze dell’ostacolo.
Capitolo 4. Sistemi lineari e precondizionatori
109
Comparing ℑ(Z) and S = 0.5 ⋅ (Z − ZH) in the Frobenius norm
400
ℑ(Z)
S
350
||−||
F
300
250
200
150
100
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
−0.014
F
−0.022
||S|| − ||ℑ(Z)||
−0.018
F
−0.016
−0.02
−0.024
−0.026
−0.028
1
1.5
2
4
4.5
8
x 10
Figura 4.31: Confronto tra la norma di Frobenius della parte immaginaria di Z e la
parte antihermitiana di Z relativa alla discretizzazione 1152
Comparing ℜ(Z) and H = 0.5 ⋅ (Z + ZH) in the Frobenius norm
30
||−||F
25
20
ℜ(Z)
H
15
10
5
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
||H||F − ||ℜ(Z)||F
1.5
1
0.5
0
1
1.5
2
4
4.5
8
x 10
Figura 4.32: Confronto tra la norma di Frobenius della parte reale di Z e la parte
hermitiana di Z relativa alla discretizzazione 1152
Cubo 450. Esaminando il grafico (4.33) si può notare che la curva del più piccolo
valore singolare di Z(σmin (Z)) assume un valore prossimo allo zero, cioè ha dei picchi
di risonanza significativi, nell’intorno delle frequenze f1 = 210M Hz f2 = 260M Hz e
f3 = 340M Hz.
Capitolo 4. Sistemi lineari e precondizionatori
110
1.5
σmin(Z)
1
0.5
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.33: Punti di risonanza relativi alla discretizzazione 450
Cubo 1152. Come si può osservare dalla figura (4.34), per l’oggetto con discretizzazione n = 1152 le cuspidi più pronunciate le abbiamo alle seguenti frequenze
f1 = 210M Hz f2 = 260M Hz e f3 = 340M Hz.
0.5
0.45
0.4
0.35
σmin(Z)
0.3
0.25
0.2
0.15
0.1
0.05
0
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.34: Punti di risonanza relativi alla discretizzazione 1152
Capitolo 4. Sistemi lineari e precondizionatori
4.5.5
111
Simulazione 5
L’M-file spettro.m traccia gli autovalori della matrice delle impedenze Z prima e
dopo il precondizionamento sulla base di una coppia di frequenze (f1 ' 150M Hz e
f2 ' 440M Hz) scelte in B.
Cubo 450. Da come si evince dai grafici si deduce che:
a) alle “basse” frequenze (vedi fig.4.35 ), nel caso di precodizionamento, gli autovalori della matrice delle impedenze Z sono clusterizzati tutti nell’ intorno del punto
(1, 0) del piano complesso, mentre in assenza di precondizionamento gli autovalori sono
sparpagliati su tutto il piano;
b) alle “alte” frequenze (vedi fig. 4.36)invece, anche in presenza di precondizionamento, gli autovalori non sono più concentrati nell’ intorno del punto (1, 0) ma hanno
comunque una regolarità a differenza del caso di non precondizionamento.
Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH)
10
5
0
Imaginary axis
−5
−10
−15
−20
σ(Z)
σ(S−1 ⋅ Z)
−25
−30
−1
0
1
2
3
4
Real axis
5
6
7
8
9
Figura 4.35: Spettro di Z alle “basse” frequenze alla discretizzazione 450
Cubo 1152. In maniera del tutto analoga al cubo 450, abbiamo per lo scatteratore
1152 i successivi grafici (4.37, 4.38):
4.5.6
Simulazione 6
Con la sesta simulazione si mettono a confronto le curve della norma k · k2 dei residui
computati dal GMRES in presenza ed in assenza di precondizionamento. Nello specifico,
si comparano le prestazioni di S e di alcuni precondizionatori standard, quali ILU(Z)
e diag(diag (Z)).
Capitolo 4. Sistemi lineari e precondizionatori
112
Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH)
10
Imaginary axis
5
0
−5
−10
σ(Z)
σ(S−1 ⋅ Z)
−15
−2
0
2
4
6
8
10
12
14
16
Real axis
Figura 4.36: Spettro di Z alle “alte” frequenze alla discretizzazione 450
Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH)
5
Imaginary axis
0
−5
−10
σ(Z)
σ(S−1 ⋅ Z)
−15
−20
−0.5
0
0.5
1
1.5
Real axis
2
2.5
3
3.5
Figura 4.37: Spettro di Z alle “basse” frequenze alla discretizzazione 1152
Cubo 450. Le considerazioni che si possono fare sui grafici sono le seguenti:
a) la curva dei residui, computata dal GMRES nel caso di sistema non precondizionato, alle “basse” frequenze (vedi fig. 4.39) si arresta dopo 100 iterazioni invece,
alle “alte” frequenze (vedi fig. 4.40) il numero di passi aumenta fino a raggiungere un
valore di circa 180;
Capitolo 4. Sistemi lineari e precondizionatori
113
Spectrum of the impedance matrix Z before and after preconditioning via S = 0.5(Z−ZH)
6
4
2
Imaginary axis
0
−2
−4
σ(Z)
−6
σ(S−1 ⋅ Z)
−8
−10
−12
−1
0
1
2
3
Real axis
4
5
6
7
Figura 4.38: Spettro di Z alle “alte” frequenze alla discretizzazione 1152
b) nel caso di precondizionamento tramite la componente antihermitiana S le iterazioni necessarie per raggiungere una condizione di terminazione sono circa 12 alle
“basse” frequenze (vedi fig. 4.39) mentre, alle “alte” frequenze (vedi fig. 4.40) sono
circa 40;
c) per risolvere il sistema dei momenti ZI = V con un precondizionatore di tipo
DIAG(Z) sono indispensabili alle “basse” frequenze (vedi fig. 4.39) un numero di step
circa pari a 80, invece alle “alte” frequenze (vedi fig. 4.40) il numero cresce fino a
toccare le 180 iterazioni;
d) nel caso di precondizionamento mediante ILU(Z) si distinguono due casi:
¨ quando il valore di droptol è pari a 0.1, il numero di iterazioni che servono ad
arrivare ad una condizione di terminazione è, alle “basse” frequenze, di circa 220
(vedi fig. 4.39) invece, alle “alte” frequenze è di circa 350(vedi fig. 4.40);
¨ quando il valore di droptol è uguale a 0.025, la curva dei residui si arresta a cica
220 iterazioni alle “basse” frequenze (vedi fig. 4.42) mentre, alle “alte” frequenze
si ferma a circa 130 passi (vedi fig. 4.43).
Cubo 1152. Dall’esame dei grafici si rileva che:
a) la curva dei residui, computata dal GMRES nel caso di sistema non precondizionato, alle “basse” frequenze (vedi fig. 4.45) si arresta dopo 150 iterazioni invece,
alle “alte” frequenze (vedi fig. 4.46) il numero di passi aumenta fino a raggiungere un
valore di circa 220;
Capitolo 4. Sistemi lineari e precondizionatori
114
Cube 450 − Residual norms computed by the GMRES at frequency f = 149896229 Hz
0.35
0.3
0.25
Residual 2−norm
0.2
No preco
0.15
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z,0.1⋅ max(|Z|)
0.1
0.05
0
−0.05
0
50
100
150
200
250
Iterative step
Figura 4.39: Residuo alle “basse” frequenze con valore di droptol pari a 0.1 relativo
alla discretizzazione 450
Cube 450 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz
0.35
0.3
0.25
Residual 2−norm
0.2
No preco
0.15
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z,0.1⋅ max(|Z|)
0.1
0.05
0
−0.05
0
50
100
150
200
Iterative step
250
300
350
Figura 4.40: Residuo alle “alte” frequenze con valore di droptol pari a 0.1 relativo alla
discretizzazione 450
b) nel caso di precondizionamento tramite la componente antihermitiana S le iterazioni necessarie per raggiungere una condizione di terminazione sono circa 10 alle
“basse” frequenze (vedi fig. 4.45) mentre, alle “alte” frequenze (vedi fig. 4.46) sono
circa 30;
Capitolo 4. Sistemi lineari e precondizionatori
115
S = 0.5⋅(Z−ZH)
No preco
0.35
0.1
1.49896e+008
4.42946e+008
0.2
0.15
0.1
0.06
0.04
0.02
0.05
0
1.49896e+008
4.42946e+008
0.08
Residual 2−norm
Residual 2−norm
0.3
0.25
0
50
100
Iterative step
150
0
200
0
10
30
40
ILU(Z,0.1⋅ max(|Z|))
diag(Z)
0.2
0.12
1.49896e+008
4.42946e+008
0.15
1.49896e+008
4.42946e+008
0.1
Residual 2−norm
Residual 2−norm
20
Iterative step
0.1
0.05
0.08
0.06
0.04
0.02
0
0
50
100
Iterative step
150
200
0
0
100
200
Iterative step
300
400
Figura 4.41: Residuo con valore di droptol pari a 0.1 relativo alla discretizzazione 450
Cube 450 − Residual norms computed by the GMRES at frequency f = 149896229 Hz
0.35
0.3
0.25
Residual 2−norm
0.2
No preco
0.15
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z)
0.1
0.05
0
−0.05
0
50
100
150
200
250
Iterative step
Figura 4.42: Residuo alle “basse” frequenze con valore di droptol pari a 0.025 relativo
alla discretizzazione 450
c) per risolvere il sistema dei momenti ZI = V con un precondizionatore di tipo
DIAG(Z) sono indispensabili alle “basse” frequenze (vedi fig. 4.45) un numero di step
circa pari a 120, invece alle “alte” frequenze (vedi fig. 4.46) il numero cresce fino a
toccare le 210 iterazioni;
d) nel caso di precondizionamento mediante ILU(Z) si distinguono due casi:
Capitolo 4. Sistemi lineari e precondizionatori
116
Cube 450 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz
0.35
0.3
0.25
Residual 2−norm
0.2
No preco
0.15
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z)
0.1
0.05
0
−0.05
0
20
40
60
80
100
120
Iterative step
140
160
180
200
Figura 4.43: Residuo alle “alte” frequenze con valore di droptol pari a 0.025 relativo
alla discretizzazione 450
S = 0.5⋅(Z−ZH)
No preco
0.35
0.1
1.49896e+008
4.42946e+008
0.2
0.15
0.1
0.06
0.04
0.02
0.05
0
1.49896e+008
4.42946e+008
0.08
Residual 2−norm
Residual 2−norm
0.3
0.25
0
50
100
Iterative step
150
0
200
0
10
30
40
ILU(Z,0.1⋅ max(|Z|))
diag(Z)
0.2
0.35
0.3
1.49896e+008
4.42946e+008
0.15
Residual 2−norm
Residual 2−norm
20
Iterative step
0.1
0.05
1.49896e+008
4.42946e+008
0.25
0.2
0.15
0.1
0.05
0
0
50
100
Iterative step
150
200
0
0
50
100
150
Iterative step
200
250
Figura 4.44: Residuo con valore di droptol pari a 0.025 relativo alla discretizzazione
450
¨ quando il valore di droptol è pari a 0.1, il numero di iterazioni che servono ad
arrivare ad una condizione di terminazione è, alle “basse” frequenze di circa 370
(vedi fig. 4.45) invece, alle “alte” frequenze è di circa 680(vedi fig. 4.46);
¨ quando il valore di droptol è uguale a 0.025, la curva dei residui si arresta a cica
Capitolo 4. Sistemi lineari e precondizionatori
117
220 iterazioni alle “basse” frequenze (vedi fig. 4.48) mentre, alle “alte” frequenze
si ferma a circa 270 passi (vedi fig. 4.49).
Cube 1152 − Residual norms computed by the GMRES at frequency f = 149896229 Hz
0.2
Residual 2−norm
0.15
No preco
0.1
H
S = 0.5 ⋅ (Z − Z )
diag(Z)
ILU(Z)
0.05
0
−0.05
0
50
100
150
200
Iterative step
250
300
350
400
Figura 4.45: Residuo alle “basse” frequenze con valore di droptol pari a 0.1 relativo
alla discretizzazione 1152
Cube 1152 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz
0.4
0.35
0.3
Residual 2−norm
0.25
0.2
No preco
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z)
0.15
0.1
0.05
0
−0.05
0
100
200
300
400
Iterative step
500
600
700
Figura 4.46: Residuo alle “alte” frequenze con valore di droptol pari a 0.1 relativo alla
discretizzazione 1152
Capitolo 4. Sistemi lineari e precondizionatori
118
S = 0.5⋅(Z−ZH)
No preco
0.25
0.2
Residual 2−norm
Residual 2−norm
1.49896e+008
4.42946e+008
0.2
0.15
0.1
0.05
0
0
50
100
150
Iterative step
200
1.49896e+008
4.42946e+008
0.15
0.1
0.05
0
250
0
10
30
40
ILU(Z,0.1⋅ max(|Z|))
diag(Z)
0.12
0.4
Residual 2−norm
1.49896e+008
4.42946e+008
0.1
Residual 2−norm
20
Iterative step
0.08
0.06
0.04
1.49896e+008
4.42946e+008
0.3
0.2
0.1
0.02
0
0
50
100
150
Iterative step
200
250
0
0
200
400
Iterative step
600
800
Figura 4.47: Residuo con valore di droptol pari a 0.1 relativo alla discretizzazione 1152
Cube 1152 − Residual norms computed by the GMRES at frequency f = 149896229 Hz
0.2
Residual 2−norm
0.15
No preco
0.1
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z)
0.05
0
−0.05
0
50
100
150
200
250
Iterative step
Figura 4.48: Residuo alle “basse” frequenze con valore di droptol pari a 0.025 relativo
alla discretizzazione 1152
4.5.7
Simulazione 7
Con la settima simulazione si effettua l’analisi computazionale del GMRES per la soluzione del sistema dei momenti, prima e dopo il precondizionamento.
Capitolo 4. Sistemi lineari e precondizionatori
119
Cube 1152 − Residual norms computed by the GMRES at frequency f = 442945891.7836 Hz
2.5
Residual 2−norm
2
1.5
No preco
S = 0.5 ⋅ (Z − ZH)
diag(Z)
ILU(Z)
1
0.5
0
0
50
100
150
Iterative step
200
250
300
Figura 4.49: Residuo alle “alte” frequenze con valore di droptol pari a 0.025 relativo
alla discretizzazione 1152
S = 0.5⋅(Z−ZH)
No preco
0.25
0.2
Residual 2−norm
Residual 2−norm
1.49896e+008
4.42946e+008
0.2
0.15
0.1
0.05
0
0
50
100
150
Iterative step
200
1.49896e+008
4.42946e+008
0.15
0.1
0.05
0
250
0
30
40
2.5
1.49896e+008
4.42946e+008
1.49896e+008
4.42946e+008
2
Residual 2−norm
0.1
Residual 2−norm
20
Iterative step
ILU(Z,0.1⋅ max(|Z|))
diag(Z)
0.12
0.08
0.06
0.04
1.5
1
0.5
0.02
0
10
0
50
100
150
Iterative step
200
250
0
0
100
200
Iterative step
300
Figura 4.50: Residuo con valore di droptol pari a 0.025 relativo alla discretizzazione
1152
Cubo 450. Con riferimento alla figura (vedi fig: 4.51) che descrive, rispettivamente, l’andamento in frequenza del numero complessivo N (f ) ed Nr (f ) delle iterazioni necessarie alla ²-convergenza (² = 1e-6) del GMRES della sua versione ripartita
GMRES(21), si osserva che:
Capitolo 4. Sistemi lineari e precondizionatori
120
a) N (f ) ed Nr (f ) sono entrambi minimizzati sulla banda nel caso in cui il sistema
dei momenti venga precondizionato utilizzando la componente antihermitiana S della
matrice delle impedenze Z. Inoltre, lo scarto con gli analoghi valori registrati ora in
assenza di precondizionamento ora ammettendo il sistema precondizionato mediante
ILU(Z) oppure diag(diag (Z)) è mediamente inferiore di un fattore 0.1, quindi di
un intero ordine di grandezza;
b) l’osservazione di cui al punto precedente è tanto più valida se il paragone è
riferito, in particolare, al precondizionatore ILU(Z) per la variante ripartita GMRES(21). In tal caso, infatti, lo scarto osservato cresce, mediamente, di ben tre ordini
di grandezza;
c) le risonanze producono, in condizioni di ripartenza, un’improvvisa degrado delle
prestazioni del metodo, che si manifesta nella presenza di cuspidi piuttosto eccentuate
nell’andamento della funzione Nr (f ) in assenza di precondizionamento o nel caso di
precondizionamento diagonale. Un effetto imprevisto e assai desiderabile dell’impiego
di S nella fase di precondizionamento è legato al fatto che dette cuspidi vengono
completamente spianate, così da mantenere pressoché costante (quindi stabilizzare) il
trend di Nr (f ) tanto più alle “basse” frequenze (f < 300 MHz).
D’altra parte, dall’osservazione della figura (), che restituisce l’andamento in banda
del flag di convergenza del metodo, risulta che, in tutti i casi esaminati, il GMRES ha
successo nell’abbattere la norma euclidea dell’errore residuale al di sotto della soglia
stabilita (² = 1e-6) entro il numero massimo m di iterazioni previste (450). Altrettanto
non può dirsi, invece, per la versione ripartita GMRES(21), per cui il flag oscilla
tra i valori 0 (convergenza) ed 1 (mancata convergenza), salvo che il sistema venga
precondizionato a mezzo di, là dove, viceversa, la convergenza è sempre garantita.
4.5.8
Simulazione 8
Cubo 450. A fronte dei notevolissimi vantaggi, conmportati dal precondizionamento
sul numero complessivo N (f ) delle iterazioni, i risultati non sono altrettanto positivi
per l’andamento t(f ) dei tempi di calcolo in banda, per cui si nota un lieve ritardo nel
processo di convergenza in presenza di precondizionamento, non dovuto alla qualità
teorica del precondizionatore (almeno alle “basse” frequenze) bensì alla particolare
implementazione della routine di calcolo che, itera sulla soluzione del sistema S −1 ZI =
S −1 V .
Cubo 1152. Analogamente a quanto detto per il cubo 450, otteniamo, per il cubo
1152, il seguente grafico per i tempi di convergenza del metodo iterativo:
Capitolo 4. Sistemi lineari e precondizionatori
121
Iterations required by the GMRES to converge (n = 450)
3
10
Iterations
2
10
1
No
ℑ(Z)
diag
ILU
10
0
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Iterations required by the GMRES(21) to converge (n = 450)
4
10
No
ℑ(Z)
diag
ILU
3
Iterations
10
2
10
1
10
0
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.51: Iterazioni richieste dal GMRES e dalla sua versione ripartita per
convergere relative alla discretizzazione 450
No preco
GMRES − Convergence flags with and without preconditioning (n = 450)
3
2
1
0
ILU(Z)
1
diag(diag(Z))
2
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
3
2
1
0
1
1.5
2
4
4.5
8
x 10
3
2
1
0
1
ℑ(Z)
1.5
1.5
2
4
4.5
8
x 10
3
2
1
0
1
1.5
2
4
4.5
8
x 10
Figura 4.52: Flag di convergenza del GMRES relativo alla discretizzazione 450
4.6
Conclusioni
L’obiettivo del presente capitolo è stato valutare, in ambiente MATLAB, le prestazioni
di un semplice precondizionatore algebrico, definito dalla componente antihermitiana
S della matrice delle impedenze Z, in relazione al problema numerico della risoluzione
del sistema lineare ZI = V prodotto dalla discretizzazione dell’equazione integrale del
Capitolo 4. Sistemi lineari e precondizionatori
122
No preco
GMRES(21) − Convergence flags with and without preconditioning (n = 450)
3
2
1
0
ILU(Z)
1
1.5
diag(diag(Z))
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
3
2
1
0
1
1.5
2
4
4.5
8
x 10
3
2
1
0
1
ℑ(Z)
2
1.5
2
4
4.5
8
x 10
3
2
1
0
1
1.5
2
4
4.5
8
x 10
Figura 4.53: Flag di convergenza del GMRES ripartito relativo alla discretizzazione
450
Time (in sec)
Time required by the GMRES to converge (n = 450)
No
ℑ(Z)
diag
ILU
0
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Time required by the GMRES(21) to converge (n = 450)
2
Time (in sec)
10
No
ℑ(Z)
diag
ILU
1
10
0
10
−1
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.54: Tempi relativi alla discretizzazione 450
campo elettrico (EFIE) attraverso l’implementazione della variante Galerkin RWG del
metodo dei momenti, mediante l’utilizzo di alcune procedure iterative. In particolare,
si è focalizzata l’attenzione sull’impiego del metodo dei residui minimi generalizzati
(GMRES) e della sua versione ripartita (GMRES(r)).
Le simulazioni al calcolatore sono state effettuate con riferimento allo scattering
Capitolo 4. Sistemi lineari e precondizionatori
123
Time required by the GMRES to converge (n = 1152)
2
10
Time (in sec)
No preco
S = 0.5(Z−ZH) preco
1
10
0
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Time required by the GMRES(33) to converge (n = 1152)
3
10
Time (in sec)
No preco
2
S = 0.5(Z−ZH) preco
10
1
10
0
10
1
1.5
2
2.5
3
Frequency (in Hz)
3.5
4
4.5
8
x 10
Figura 4.55: Tempi relativi alla discretizzazione 450
di un’onda piana monocromatica di frequenza f da parte di un conduttore cubico
elettrico ideale di spigolo unitario per due diversi livelli di discretizzazione (n = 450
e n = 1152). L’analisi è stata estesa a 500 frequenze equidistribuite nella banda
B = 130 ÷ 450 MHz. In ciascun caso, la soluzione iterativa del sistema dei momenti
è stata studiata sia assenza che in presenza di precondizionamento. Nello specifico,
le prestazioni garantite da S sono state stimate per confronto con le performance di
altri due precondizionatori particolarmente utilizzati nella letteratura, i.e. ILU(Z) e
diag(diag (Z)).
Allo scopo dichiarato, sono state predisposte alcune routine Matlab con l’obiettivo precipuo di far emergere alcune proprietà caratteristiche del sistema ZI = V. Fra
queste, le frequenze di risonanza della matrice delle impedenze Z, le norme (euclidea,
di Frobenius...) delle sue componenti hermitiana H e antihermitiana S, il suo spettro
riportato sul piano di Argand-Gauss, il costo computazionale del GMRES (nelle sue due
versioni, base e ripartita) espresso in termini di iterazioni e tempi di calcolo necessari a garantirne, eventualmente, la convergenza attraverso l’abbattimento progressivo
dell’errore residuo.
Dalla disamina delle simulazioni eseguite è possibile affermare che, per tutte le
frequenze inferiori ad una certa frequenza di taglio f0 , oltre la quale la condizione
kSk2 À kHk2 non è più soddisfatta, il precondizionatore antihermitiano S si dimostra
migliore degli altri presi in considerazione, in termini tanto di convergenza residuale
e costi computazionali quanto di capacità di addensamento dello spettro attorno al
Capitolo 4. Sistemi lineari e precondizionatori
124
punto (1, 0) del piano complesso (vedi§ 4.4). I risultati, tuttavia non sono altrettanto
positivi per l’andamento dei tempi di calcolo in banda, che manifestano un lieve ritardo
nel processo di convergenza, comunque non riconducibile alle previsioni teoriche della
qualità del precondizionatore, ma piuttosto alla particolare implementazione MATLAB
buil-in della routine di calcolo, che ricorre sulla soluzione del sistema lineare ZI = V
in presenza di precondizionamento.
Tra le prospettive future di ricerca si intravedono i) la possibilità di sviluppare
metodi e algoritmi alternativi a quelli canonici, in grado di sfruttare intensivamente il
dato sperimentale per cui la disuguaglianza kSk À kHk è soddisfatta su una banda più
ampia di quella limitata alla frequenza di taglio f0 , quando, per esempio, k · k = k · k∞ ,
anziché k · k = k · k2 ; ii) l’opportunità di ottimizzare il ciclo di calcolo che implementa la fase di precondizionamento del metodo, per migliorarne complessivamente le
prestazioni d’insieme.
Appendice A
Formulazioni deboli
Paul A. M. Dirac ne aveva intuito l’utilità [45], ma si deve a Laurent Schwartz (medaglia Fields nel 1950) la sua formalizzazione [46] [47]: ci stiamo riferendo al concetto
di soluzione debole di un’equazione differenziale1 .
A.1
L’equazione del calore
A titolo esemplificativo, immaginiamo di voler determinare tutte le funzioni u(·) :
R2 → R derivabili con continuità (al primo ordine) che risolvono l’equazione unidimensionale del calore. I.e., tali per cui
∂
∂
u(x, t) + u(x, t) = 0,
∂x
∂t
per ogni (x, t) ∈ R2
(A.1)
Moltiplichiamo entrambi i membri della (A.1) per un’arbitraria funzione di test ϕ(·) :
R2 → R di classe C0∞ (cioè liscia e a supporto compatto2 ) e, quindi, integriamo membro
a membro, per ottenere che
ˆ ∞
ˆ ∞
ˆ ∞
ˆ ∞
∂u(x, t)
∂u(x, t)
dx
ϕ(x, t)
dt +
dx
ϕ(x, t)
dt = 0
∂x
∂t
−∞
−∞
−∞
−∞
(A.2)
Invoncando, quindi, il teorema di Fubini per intercambiare, dove necessario, l’ordine
di integrazione e integrando, di conseguenza, per parti, segue che
ˆ ∞
ˆ ∞
ˆ ∞
£
¤∞
∂ϕ(x, t)
dx+
ϕ(x, t) u(x, t) x=−∞ dt −
dt
u(x, t)
∂x
−∞
−∞
−∞
ˆ ∞
ˆ ∞
ˆ ∞
£
¤∞
∂ϕ(x, t)
+
ϕ(x, t) u(x, t) t=−∞ dx −
dx
u(x, t)
dt = 0
∂t
−∞
−∞
−∞
1:
2:
poco importa se ordinaria o alle derivate parziali.
i.e., tale che ϕ(x, t) = 0 fuori da un qualche compatto Ω ( R2 .
(A.3)
Appendice A. Formulazioni deboli
126
£
¤∞
£
¤∞
Sennonché ϕ(x, t) u(x, t) x=−∞ = ϕ(x, t) u(x, t) t=−∞ = 0, dal momento che, per
costruzione, esiste r > 0 tale che ϕ(x, t) = 0, se max(|x|, |t|) > r. Perciò
ˆ ∞ ˆ ∞
ˆ ∞
ˆ ∞
∂ϕ(x, t)
∂ϕ(x, t)
dx −
dx
u(x, t)
dt = 0
−
dt
u(x, t)
∂x
∂t
−∞
−∞
−∞
−∞
(A.4)
In pratica, abbiamo stabilito che, là dove u(·) è derivabile con continuità, l’equazione
(A.1) implica la (A.4), per ogni scelta della funzione ϕ(·) di test. L’essenza del concetto
di soluzione debole, a questo punto, è nell’osservazione che esistono funzioni u(·) :
R2 → R non differenziabili per cui, comunque, la (A.4) è ancora soddisfatta, qual che
sia ϕ(·) : R2 → R, purché liscia e a supporto compatto3 . Sicché ogni soluzione della
(A.4) è detta una soluzione debole della (A.1).
L’idea generale che fa seguito all’esempio precedente è che, di fronte all’occorrenza
di determinare ogni funzione u(·) di un opportuno spazio funzionale che sia soluzione
di un’assegnata equazione differenziale, è possibile riformulare il problema utilizzando
un adeguato insieme di funzioni di test ϕ(·), di modo che le derivazioni “applicate” ad
u(·) nell’equazione originale vengano “trasferite” su ϕ(·), in tutto o in parte, mediante
una o più integrazioni successive.
Più formalmente, ristretto il campo di interesse allo spazio lineare Lloc
1 (Ω) sul
campo F (reale o complesso) delle funzioni a valori in F definite q.o. in un aperto non
vuoto Ω ⊆ Rn ed ivi localmente integrabili secondo Lebesgue4 , introduciamo l’insieme
C0k (Ω) delle funzioni di test ϕ(·) : Ω → F a supporto compatto in Ω di classe C k (Ω),
per cui k ∈ N ∪ {∞}. Quindi, dati un insieme finito A ⊆ Nn di multi-indici di altezza
h := maxα∈A kαk1 ≤ k e un set {ηα (·)}α∈A di funzioni sufficientemente regolari5 ,
consideriamo l’operatore differenziale (lineare)
T [·] : C h (Ω) → C 0 (Ω) : u(·) 7→
X
ηα (·) ∂ α u(·)
(A.5)
α∈A
Allora diremo che una funzione û(·) ∈ Lloc
1 (Ω) è una soluzione debole o generalizzata
dell’equazione differenziale (lineare) T [u] = 0 qualora avvenga che
ˆ
û(r) T ∗ [ϕ](r) dr = 0
∀ϕ(·) ∈ C0k (Ω) :
(A.6)
Ω
dove l’integrazione deve intendersi nel senso di Lebesgue e T ∗ [·] è il cosiddetto aggiunto
formale di T [·], cioè l’operatore differenziale (lineare)
C h (Ω) → C 0 (Ω) : u(·) 7→
X
¡
¢
(−1)kαk1 ∂ α ηα (·) u(·)
(A.7)
α∈A
3:
fra le altre, ad es., la funzione u(·) : R2 → R : (x, t) 7→ |x − t|, come è facile verificare,
integrando separatamente sulle due regioni del piano al di sopra e al di sotto della retta x = t.
4 : cioè integrabili (secondo Lebesgue) in ogni compatto K ⊆ Ω.
5 : di fatto, per ogni α ∈ A, η (·) dev’essere almeno di classe C α (Ω).
α
Appendice A. Formulazioni deboli
127
È notevole osservare come l’operatore T ∗ [·] possa essere, di fatto, “costruito” a partire da T [·], moltiplicando i due membri dell’equazione T [u] = 0 per una generica
ϕ(·) ∈ C0k (Ω) e integrando ripetutamente per parti su Ω, finché tutte le derivazioni applicate ad u(·) non sono “trasferite” su ϕ(·), posto di considerare che ogni contributo
di bordo prodotto nel processo è nullo in virtù delle proprietà di compattezza riguardo
al supporto della funzione di test.
Se, dunque, una soluzione “in senso classico” (o soluzine forte) dell’equazione
T [u] = 0 è una qualsiasi funzione û(·) : Ω → F, derivabile h volte6 , tale che T [û](x) = 0,
per ogni x ∈ Ω, una soluzione debole è una qualunque funzione û(·) ∈ Lloc
1 (Ω) che
soddisfa7 , invece, la formulazione debole (A.6).
D’altronde, bisogna sia chiaro che la nozione di soluzione debole di un’equazione
alle derivate è labile, perché dipende, in ultima analisi, da tutta una serie di postulati8
e assunzioni preliminari, che variano di caso in caso e di caso in caso sono stabiliti
niente più che per “questioni di comodo” - come, ad esempio, per assicurare l’unicità
e l’esistenza di una soluzione all’equazione differenziale di turno entro uno spazio di
funzioni, caratterizzate da precise proprietà, che si pretendono garantite a priori. In
particolare, è evidente, in questo senso, la centralità del ruolo rivestito dalla scelta
originale delle funzioni di test.
Per maggiore chiarimento, supponiamo, infatti, di voler risolvere in un aperto non
vuoto Ω ⊆ Rn l’equazione di Helmholtz n-dimensionale
∆u(r) + k2 u(r) = 0,
con ∆u(r) :=
n
X
∂u(r)
,
∂xi
i=1
(A.8)
dove k ∈ C e =(k) ≥ 0. In linea di principio, potremmo attaccare “frontalmente”
il problema e chiederci se esiste una soluzione forte alla (A.8). I.e., una funzione
û(·) : Ω → C di classe C 2 (Ω) per cui ∆û(r) + k2 û(r) = 0 e siano verificate opportune
condizioni aggiuntive al contorno tali da garantirne l’unicità.
In genere, però, questo è più difficile che determinare eventuali soluzioni deboli dell’equazione (A.8) e dimostrare a posteriori che godono di un certo grado di regolarità.
Per esempio, che sono di classe C 2 (Ω).
L’unico “principio” da rispettare, evidentemente, è che ogni soluzione forte della
(A.8) sia pure una sua soluzione debole. Così, ad esempio, introducendo l’aggiunto
formale (A.7) dell’operatore di Helmholtz, la soluzione della (A.8) si può riportare alla
determinazione di ogni funzione u(·) : Ω → C localmente integrabile (alla Lebesgue)
6:
non necessariamente derivabile con continuità.
si badi che ogni soluzione forte è anche una soluzione debole, ma non viceversa.
8 : qualsiasi affermazione non dimostrata e non evidente che viene comunque presa per vera
7:
in modo da fondare una dimostrazione o un procedimento altrimenti incongruenti.
Appendice A. Formulazioni deboli
tale che, per qualsiasi ϕ(·) ∈ C02 (Ω) a valori in C:
ˆ
¡
¢
u(x, y) ∆ϕ(x, y) + k2 ϕ(x, y) dx dy
128
(A.9)
Ω
Oppure, in alternativa, si possono “stringere” le ipotesi a priori sulle soluzioni della
formulazione debole a cui ridurre la (A.8) e cercare, per esempio, tutte le funzioni
u(·) ∈ L1,loc (Ω), derivabili q.o. in Ω e tali che ∇u(·) ∈ L1,loc (Ω), per cui, comunque
scelta ϕ(·) ∈ C01 (Ω) a valori in C, valga che
ˆ
¡
¢
− h∇u(x, y), ∇ϕ(x, y)i2 + k2 u(x, y)ϕ(x, y) dx dy = 0
(A.10)
Ω
In ambedue le circostanze, la transizione dalla formulazione forte alla formulazione
debole si esplica attraverso un numero di integrazioni per parti, che “spostano” alcune
derivazioni dall’incognita alle funzioni di test.
E non è affatto scontato, per lo meno a priori, se le due formulazioni (A.9) e (A.10)
condividano le stesse soluzioni e se vi sia, più in generale, una sorta di ordinamento
(per inclusione) tra le soluzioni di una certa varietà di formulazioni (deboli) egualmente
plausibili per un’assegnata classe di equazioni.
Anzi la questione è tanto difficile che per risponderle c’è bisogno di sviluppare
un’intera teoria, introducendo gli spazi di Sobolev e le distribuzioni.
A.2
Derivate deboli
La nozione di derivata9 come limite puntuale di un rapporto incrementale è inadeguata
in molte applicazioni di rilevante interesse pratica per la fisica e l’ingegneria. Specialmente se di mezzo vi è la soluzione di un’equazione differenziale. Da qui l’introduzione
del concetto di derivata debole, preliminare alla presentazione degli spazi di Sobolev e
alla teoria delle distribuzione.
A.2.1
Definizione e alcune proprietà
Formalmente, dati un aperto U ⊆ Rn e una coppia di funzioni u(·), v(·) : U → F
localmente integrabili10 , diciamo che v(·) è una derivata debole (o generalizzata) di
u(·) rispetto alla coordinata xi , per qualche i ∈ 1 : n, se
ˆ
ˆ
∂ϕ
v(x)ϕ(x) dx
u(x)
(x) dx = −
∀ϕ(·) ∈ C0∞ (U ; F) :
∂xi
U
U
9:
10 :
cioè della cosiddetta derivata forte o ordinaria.
ovvero integrabili in ogni compatto contenuto in U .
(A.11)
Appendice A. Formulazioni deboli
129
dove F è il campo reale o complesso e C0∞ (Ω; F) è lo spazio delle funzioni Ω → F di
classe C ∞ a supporto compatto in Ω (i.e., nulle fuori da ogni compatto K ⊆ Ω). Nel
∂u
qual caso, scriviamo v(·) = uxi (·) oppure v(·) =
(·).
∂xi
Fra le conseguenze elementari più rilevanti della definizione appena posta, c’è che,
se v1 (·), v2 (·) ∈ Lloc
1 (U ; F) sono entrambe delle derivate deboli rispetto ad xi della
funzione u(·), allora v1 (x) = v2 (x) quasi ovunque (q.o.)11 .
Allora, introducendo l’equivalenza12 per cui due funzioni U → F sono identificate, là dove q.o. uguali, si dimostra che, qualora esista, la derivata debole uxi (·)
è univocamente determinata in Lloc
1 (U ; F). Ed è uguale q.o. alla derivata parziale
ordinaria di u(·) rispetto a xi , nel caso che quest’ultima sia q.o. definita in U . Da
cui ci viene l’importante conclusione che le derivate deboli costituiscono, di fatto, una
generalizzazione tout-court delle derivate forti.
D’altronde, il concetto di derivazione debole si può inquadrare sotto un’ottica
leggermente diversa nel principio, benché del tutto equivalente nella sostanza, forse più
utile dal “punto di vista dei calcoli”. In dettaglio, essendo i ∈ 1 : n, ipotizziamo che, a
meno di un insieme X ⊆ Ω di misura nulla13 , u(·) eguagli una funzione û(·) : Ω → F
che, q.o.14
nella proiezione Ωi di Ω sul piano coordinato xi = 0, sia localmente
assolutamente continua (AC) rispetto a xi 15 . Nel qual caso è garantita [48] l’esistenza
(q.o. in Ω) della derivata parziale ordinaria di û(·) rispetto a xi , e che questa coincide
q.o. con la derivata debole di u(·).
A questo punto, le derivate di ordine superiore sono definite per induzione e si
scopre che, nel caso multidimensionale (n ≥ 2), le derivate miste sono q.o. indipendenti
dall’ordine di derivazione. Da cui discende che, se i, j ∈ 1 : n e la derivata seconda
∂u
(·) esiste in senso generalizzato, allora
∂xi ∂xj
∂2u
∂2u
(r) =
(r),
∂xi ∂xj
∂xj ∂xi
q.o. in U
(A.12)
Il che costituisce una significativa estensione del più classico teorema di Schwarz11 :
12 :
cioè l’insieme dei punti dove differiscono possiede misura nulla secondo Lebesgue.
dato un insieme X 6= ∅ e una relazione r ⊆ X × X, si dice che r è un’equivalenza su X
se è riflessiva, simmetrica e transitiva. I.e., se avviene che, comunque siano scelti x, y, z ∈ X:
i) (x, x) ∈ r: ii) (x, y) ∈ r sse (y, x) ∈ X; iii) (x, z) ∈ X, se (x, y), (y, z) ∈ X.
13 : nel senso della misura di Lebesgue in Rn .
14 : nel senso della misura di Lebesgue in Rn−1 .
15 : cioè se, quasi per ogni (x̄ , . . . , x̄
1
i−1 , x̄i+1 , . . . , x̄n ) ∈ Ωi , la funzione coordinata
ûi (·) : [a, b] → R : x 7→ u(x̄1 , . . . , x̄i−1 , x, x̄i+1 , . . . , x̄n )
è AC, qualunque sia [a, b] ⊆ R tale che (x̄1 , . . . , x̄i−1 , x, x̄i+1 , . . . , x̄n ) ∈ Ω, se x ∈ [a, b].
Appendice A. Formulazioni deboli
130
Clairaut [49], per cui si stabilisce che le derivate forti parziali del secondo ordine di
una funzione U → R di classe C 2 (U ) sono uguali (ovunque) in U .
D’altro canto, le derivate deboli sono il primo passo verso la definizione degli
spazi di Sobolev, che costituiscono (assieme alle distribuzioni) l’ambiente ideale in
cui sistematicizzare la risoluzione delle equazioni differenziali dell’elettromagnetismo.
Prima di procedere in questa direzione, tuttavia, è utile soffermarsi su qualche esempio,
per consolidare quanto appreso fino a qui.
A.2.2
Un caso concreto
La funzione del valore assoluto u(·) : R → R : x 7→ |x|, che non è derivabile in senso
ordinario in x = 0 (dove, infatti, presenta un punto angoloso), possiede una derivata
debole v(·) ∈ Lloc
1 , detta funzione segno e indicata con sgn(·), espressa dalla legge di
corrispondenza



1


v(·) : R → R : x 7→
0



 −1
se x > 0
(A.13)
se x = 0
se x < 0
Banalmente, infatti, accade che, comunque scelta una funzione ϕ(·) ∈ C0∞ (R) a supporto nell’intervallo [a, b]
ˆ
ˆ
|x| · ϕ(x) dx = −
R
0
ˆ
+∞
x · ϕ0 (x) dx +
−∞
x · ϕ0 (x) dx
(A.14)
0
Da qui, integrando per parti e considerando che lim ϕ(x) = 0, poiché per costruzione
x→±∞
ϕ(·) ha supporto compatto in R, segue che
ˆ
ˆ
£
¤0
|x| · ϕ(x) dx = − xϕ(x) −∞ +
R
£
xϕ(x)
¤+∞
0
ˆ
ˆ
+∞
−
ϕ(x) dx = −
0
0
ϕ(x) dx +
−∞
sgn(x)ϕ(x) dx
R
In effetti, la funzione sgn(·) non è l’unica derivata debole della funzione valore assoluto:
ogni altra w(·) ∈ Lloc
1 che differisca da sgn(·) per i valori assunti su un insieme di misura
nulla16 rappresenta anch’essa una possibile derivata debole di u(·). Il che, tuttavia,
non costituisce un problema sostanziale, in quanto nella teoria degli spazi Lp due
funzioni che siano uguali q.o. vengono identificate tramite la relazione di uguaglianza
q.o.
16 :
qui si intende la misura di Lebesgue monodimensionale.
Appendice B
Identità notevoli
In questa appendice, abbiamo raccolto alcune identità notevoli, ricorrenti nel corso
della trattazione, ordinandole per categorie, anche con l’intenzione di rendere la lettura
della tesi quanto più possibile autocontenuta.
B.1
Identità vettoriali di tipo algebrico
Comunque assegnati i vettori a, b, c, d ∈ R3 , vale [59] che
B.2
a × b = −b × a
(B.1)
ha, b × ci3 = ha × b, ci3
(B.2)
a × (b × c) = ha, ci3 b − ha, bi3 c
(B.3)
a × (b × c) + b × (c × a) + c × (a × b) = 0
(B.4)
(a × b) × (c × d) = ha × b, di3 c − ha × b, ci3 d
(B.5)
Identità vettoriali di tipo differenziale
Siano α(·), β(·) : Rn → F e a(·), b(·) : Rn → Fn dei campi (scalari e vettoriali)
derivabili (anche solo debolmente) in un aperto non vuoto Ω ⊆ Rn , dove n è un intero
positivo e F rappresenta l’uno o l’altro fra il campo reale o il campo complesso. Allora,
comunque scelto r ∈ Ω, vale [59] che
¡
¢
∇n α(r) β(r) = α(r)∇n β(r) + β(r)∇n α(r)
¡
¢
divn α(r) a(r) = ha(r), ∇n α(r)in + α(r) divn a(r)
divn ∇n α(r) = ∆n α(r)
(B.6)
(B.7)
(B.8)
Appendice B. Identità notevoli
132
In particolare, quando n = 3:
¡
¢
rot α(r) a(r) = α(r) · rot a(r) − a(r) × ∇3 α(r)
¡
¢
div3 a(r) × b(r) = hb(r), rot a(r)i3 − ha(r), rot b(r)i3
¡
¢
rot a(r) × b(r) = div3 b(r) · a(r) − div3 a(r) · b(r)
+ hb(r), ∇3 a(r)i3 − ha(r), ∇3 b(r)i3
(B.9)
(B.10)
(B.11)
∇3 ha(r), b(r)i3 = a(r) × rot b(r) + b(r) × rot a(r)
+ hb(r), ∇3 a(r)i3 + ha(r), ∇3 b(r)i3
¡
¢
¡
¢
rot rot a(r) = ∇3 div3 a(r) − ∆3 a(r)
¡
¢
rot ∇3 α(r) = 0
¡
¢
div3 rot a(r) = 0
(B.12)
(B.13)
(B.14)
(B.15)
Bibliografia
[1] X. F. Canning, Protecting EFIE-based scattering computations from effects of
interior resonances, IEEE Trans. Ant. Propagat., vol. 39, n. 11, 1545-1552, 1991.
[2] D. Goodman,
Ground-penetrating Radar Simulation in Engineering and
Archaeology, Geophysic, vol. 59, n. 2, pp. 224-232, 1994.
[3] C. Bruschini, B. Gros, F. Guerne, P. Y. Pièce, O. Caramona, Ground Penetrating
Radar and Imaging Metal Detector for Antipersonnel Mine Detection, Journal of
Applied Geophisics, n. 40, 1998.
[4] K. Mayer, A. Zimmer, K. J. Langenberg, C. Kohl, C. Maierhofer, Non-destructive
evaluation of embedded structures in concrete: modelling and imaging, in Proc. of
the Int. Symp. on Non-Destructive Testing in Civil Engineering, 2003.
[5] R. E. Kleinman, P. M. van den Berg, Two-dimensional location and shape
reconstruction, Radio Sci., vol. 29, n. 4, pp. 1157-1169, 1994.
[6] W. C. Chew, Waves and fields in inhomogeneous media, IEEE Press, 1995.
[7] G. Angiulli and S. Tringali, Un precondizionatore per l’EFIE basato sull’impiego della sua componente antihermitiana, XVII Riunione Nazionale di
Elettromagnetismo (RiNEm), Lecce (IT), 2008.
[8] G. Angiulli, P. Quattrone and S. Tringali, Skew-Hermitian preconditioning of
the algebraic linear systems arising from the discretization of the EFIE integral
equation, accepted for presentation in PIERS 2009.
[9] R. Harrington, Field computation by moment methods, Wiley-IEEE Press, 1993.
[10] E. F. Taylor e J. A. Wheeler, Spacetime physics, W. H. Freeman, 2nd ed., 1963.
[11] I. Newton, The Principia, traduzione a cura di I. Cohen e A. Whitman, University
of California, 1999.
[12] J. A. Wheeler, Geons, black holes and quantum foam: a life in physics, London:
Norton, 1998, p. 163.
BIBLIOGRAFIA
ii
[13] R. P. Feynman, Feynman’s lectures on physics, vol. 1, CalTech, 1963.
[14] D.
tes
Tong,
on
Classical
Lagrangian
Dynamics
and
(Cambridge
Hamiltonian
lecture
formalism),
noall’url
http://www.damtp.cam.ac.uk/user/tong/dynamics.html.
[15] J. von Neumann, Mathematical foundations of quantum mechanics, Princeton
University Press, 1955.
[16] D. Tong, Classical dynamics (Cambridge lecture notes on Lagrangian and Hamiltonian formalism), all’url http://www.damtp.cam.ac.uk/user/tong/qft.html.
[17] J. C. Maxwell, A treatise on electricity and magnetism, Clarendon Press, Oxford
(UK), 1873.
[18] E. Lifshitz and L. Landau, The classical theory of fields, vol. 2, ed. IV,
Butterworth-Heinemann, Oxford (UK), 1980.
[19] N. Bleistein, Mathematical methods for wave phenomena, Academic Press, NY,
1984.
[20] D. Colton, The inverse scattering problem for time harmonic acoustic waves,
SIAM Review 26, pp. 323-350 (1984).
[21] D. Colton e R. Kress, Integral equation methods in scattering theory, John Wiley
& Sons Inc., NY, 1983.
[22] R. Kress, Linear integral equations, 2nd Ed. Springer-Verlag, NY, 1999.
[23] W. McLean, Strongly elliptic systems and boundary integral equations, Cambridge
University Press, Cambridge, 2000.
[24] C. L. Dolph, The integral equation method in scattering theory, Problems in
Analysis (R. C. Gunning, ed.), Princeton Univ. Press, NJ, pp. 201-227 (1970)
[25] D. S. Jones, Acoustic and electromagnetic waves, Clarendon Press, Oxford, 1986.
[26] J. B. Keller, Rays, waves and asymptotics, Bull. Amer. Math. Soc. 84, 727-750
(1978).
[27] B. Thidé, Electromagnetic field theory, Upsilon Books, Uppsala (SW), 1997.
[28] J. C. Maxwell, A dynamical theory of the electromagnetic field, Royal Society
Transactions, 155 (1864).
[29] P. Richard, R. Leighton e M. Sands, The Feynman Lectures on Physics, vol. 2.
Cambridge (MA-US): Addison-Wesley, pp. 18-24, 1963.
[30] R. E. Kleinman and G. F. Roach, Boundary integral equations for the three
dimensional Helmholtz equation, SIAM Review 16 (1974), 214-236.
BIBLIOGRAFIA
iii
[31] P. D. Lax e R. S. Phillips, Scattering theory, Academic Press, NY, 1967.
[32] R. G. Newton, Scattering theory of waves and particles, McGraw-Hill, NY, 1966.
[33] M. Reed and B. Simon, Scattering theory, Academic Press, NY, 1979.
[34] B. D. Sleeman, The inverse problem of acoustic scattering, IMA J. Appl. Math.
29, 113-142, 1982.
[35] C. H. Wilcox, Scattering theory for the d’Alembert equation in exterior domains,
Lecture Notes in Math., vol. 442, Springer-Verlag, Berlin and New York, 1975.
[36] J. Wermer, Potential theory, Lect. notes in math., 408, Springer, 1974.
[37] F. Cakoni e D. Colton, Qualitative methods in inverse scattering theory, SpringerVerlag, Berlin, 2006.
[38] V. M. Goldshtein, V. I. Kuzminov and I. A. Shvedov, Differential forms on Lipschitz manifolds, Siberian Mathematical Journal, Springer (NY), pp. 151-161,
2005.
[39] N. I. Muskhelishvili, Singular integral equations, Wolters-Noordhoff, ch. I, 1972.
[40] A. Sommerfeld, Partial Differential Equations in Physics, Academic Press, New
York (NY), 1949.
[41] S. Rao , D. Wilton and A. Glisson, Electromagnetic scattering by surfaces of
arbitrary shape, IEEE Trans. Antennas Propag., vol. 30, pp. 409, 1982.
[42] C. B. Boyer, A History of Mathematics, 2nd ed., Wiley, p. 431, 1968.
[43] A. A. Mohsen and A. K. Abdelmageed, The Uniquess Problem of the Surface
Integral Equations of a Conducting Body in a Layered Medium, PIER, vol. 23,
pp. 227-300, 1999.
[44] T. F. Chan and P. C. Hansen, Computing Truncated Singular Value Decomposition Least Squares Solutions by Rank Revealing QR-Facotrizations, SIAM J. Sci.
Stat. Comput., vol.11, pp.519-530, 1990.
[45] P. A. M. Dirac, The phgysical interpretation of the quantum mechanics,
Proceedings of the Royal Society of London A113, pp. 621-641 (1926).
[46] L. Schwartz, Théorie des distributions, Hermann, Parigi, vol. 1, 1950.
[47] L. Schwartz, Théorie des distributions, Hermann, Parigi, vol. 2, 1951.
[48] H. L. Royden, Real Analysis, Collier Macmillan, 1968.
[49] G. B. Thomas and R. L. Finney, Calculus and Analytic Geometry, 9th ed.
Reading, MA: Addison-Wesley, sec. 16, 1996.
BIBLIOGRAFIA
iv
[50] G. H. Golub and C. F. van Loan, Matrix Computations, The John Hopkins
University Press, 3rd ed., 1996.
[51] M. F. Atiyah e I. G. MacDonald, Introduction to Commutative Algebra, Westview
Press, 1969.
[52] Olavi Nevanlinna, Convergence of Iterations for Linear Equations, Birkhäuser
Verlag, 1993.
[53] E. B. Vinberg, A course in algebra, American Mathematical Society, Providence
(R.I.), 2003.
[54] O. M. Bucci, N. Cardace, L. Crocco and T. Isernia, Degree of nonlinearity and a
new solution procedure in scalar two-dimensional inverse scattering problems, J.
Opt. Soc. Am. A/vol. 18, n. 8 (2001).
[55] G. Arfken, Mathematical Methods for Physicists, III ed. Orlando (FL-US),
Academic Press, 1985.
[56] S. B. Parker, Dictionary of Scientific and Technical Terms, IV ed. New York
(NY-US), McGraw-Hill, 1984.
[57] P. Monk, Finite Element Methods for Maxwell’s Equations, Oxford University
Press, Oxford.
[58] F. Cakoni, D. Colton e P. Monk, The electromagnetic inverse scattering problem
for partly coated Lipschitz domains, Proc. Royal Soc. Edinburgh 134A, pp. 661-682
(2004).
[59] G. B. Arfken e H. J. Weber, Mathematical Methods for Physicists, 4th
international ed., Academic Press, Inc., San Diego (CA-US), 1995.