università del salento rimozione delle disuniformità inter e intra

advertisement
UNIVERSITÀ DEL SALENTO
FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI
CORSO DI LAUREA IN FISICA
TESI DI LAUREA SPECIALISTICA
RIMOZIONE DELLE DISUNIFORMITÀ
INTER E INTRA IMMAGINE IN MRI
Relatore:
Ch.mo Prof. Giorgio DE NUNZIO
Correlatore:
Ch.mo Dott. Marco FAVETTA
Laureanda:
Alessandra CARLÀ
Anno Accademico 2008-2009
2
3
SOMMARIO
Introduzione ......................................................................................................................... 7
CAPITOLO 1: Il morbo di Alzheimer ............................................................................... 10
Caratteristiche della patologia. ...................................................................................... 10
Le cause che portano all’insorgere del morbo di Alzheimer......................................... 12
L’amiloide ................................................................................................................... 13
I Grovigli neuro fibrillari .............................................................................................. 14
L’infiammazione ......................................................................................................... 14
Diagnosi precoce ............................................................................................................ 14
CAPITOLO 2: Risonanza Magnetica (MRI): fisica, tecnologia, e artefatti ...................... 16
Evoluzione storica dell’MRI ............................................................................................ 16
La fisica dell’imaging in Risonanza Magnetica ............................................................... 18
Proprietà magnetiche del nucleo atomico ................................................................. 18
Interazione dei nuclei con un campo magnetico ....................................................... 19
Magnetizzazione macroscopica .................................................................................. 21
Fenomeni di rilassamento ........................................................................................... 23
Sequenze di acquisizione ............................................................................................ 26
Saturation Recovery ................................................................................................... 26
Inversion Recovery ..................................................................................................... 27
Spin Echo .................................................................................................................... 28
Mezzi di contrasto ...................................................................................................... 29
Struttura di un apparecchiatura MRI ............................................................................. 29
Artefatti .......................................................................................................................... 31
Rumore RF .................................................................................................................. 32
Disomogeneità di campo magnetico Bo..................................................................... 32
4
Gradienti ..................................................................................................................... 32
Disomogeneità di RF ................................................................................................... 33
Suscettività magnetica................................................................................................ 34
Movimento ................................................................................................................. 34
Volume Parziale .......................................................................................................... 35
CAPITOLO 3: Il problema delle disomogeneità di scala di grigi in MRI......................... 36
CLASSE I: Inomogeneità dell’intensità............................................................................ 37
CLASSE II: Standardizzazione dell’intensità .................................................................... 39
Metodi per la standardizzazione dell’intensità: breve rassegna ................................... 41
Standardizzazione tramite landmark.......................................................................... 41
Miscela di gaussiane ................................................................................................... 42
Minimizzazione della divergenza di Kullback-Leibler ................................................. 43
Metodo di standardizzazione tramite Landmark: dettagli ............................................ 44
Notazione.................................................................................................................... 45
Procedimento ............................................................................................................. 45
Limiti del metodo........................................................................................................ 49
Operazioni rilevanti per la procedura completa di standardizzazione .......................... 50
Coregistrazione ........................................................................................................... 50
Segmentazione ........................................................................................................... 63
CAPITOLO 4: Un software per la standardizzazione delle scale di grigi ......................... 67
Descrizione del software ................................................................................................ 68
Coregistrazione ........................................................................................................... 68
Segmentazione ........................................................................................................... 70
Passaggio dalle mappe di probabilità alle immagini WM/GM/CSF............................ 71
Standardizzazione ....................................................................................................... 73
Applicazione e risultati ................................................................................................... 74
Analisi quantitativa......................................................................................................... 78
5
Conclusioni e prospettive ................................................................................................... 80
Bibliografia ........................................................................................................................ 81
Ringraziamenti ................................................................................................................... 85
6
― Non è perché le cose sono difficili che non osiamo,
ma è perché non osiamo che sono difficili.”
Seneca
7
Introduzione
Nella società contemporanea le patologie neurodegenerative sono in continuo aumento;
verso la fine del 2006, secondo uno studio promosso da Alzheimer’s Disease International
(ADI) e pubblicato su Lancet, le persone colpite da demenza nel mondo (lo studio riguarda
cinque aree geografiche: America , Europa, Africa del Nord, Medio Oriente, Asia del Sud e
Pacifico occidentale) erano quasi 27 milioni.
A causa di quest‘enorme diffusione, negli ultimi anni molte delle energie della comunità
scientifica sono state rivolte allo sforzo di diagnosticare in maniera precoce alcune delle più
importanti patologie neurodegenerative, nonché a investigare le prospettive di cura.
Per molte di queste patologie, e in particolare per la malattia di Alzheimer (Alzheimer’s
Disease, AD) che totalizza circa il 70% dei casi, la Ricerca ha individuato una forte
correlazione tra il progredire della malattia e l‘atrofia di alcune strutture cerebrali.
Gran parte degli studi di risonanza magnetica strutturale (Magnetic Resonance Imaging,
MRI) sulla malattia di Alzheimer e sul deterioramento cognitivo lieve (Mild Cognitive
Impairment, MCI, fase di transizione tra il normale invecchiamento e la malattia di Alzheimer
precoce) si sono concentrati sull'ippocampo e sulla corteccia entorinale, strutture
principalmente composte di materia grigia, situate nel lobo temporale mediale (Medial
Temporal Lobe, MTL). Uno studio sistematico delle immagini, con l‘analisi in particolare
delle alterazioni della struttura ippocampale, sembra infatti poter fornire un buon indicatore
per eseguire la diagnosi precoce del morbo di Alzheimer.
Occorre infatti dire che una procedura di valutazione standardizzata e affidabile, capace di
fornire indicazioni specifiche sullo sviluppo della malattia di Alzheimer, non è ancora
disponibile.
Attualmente
l‘unico
approccio
diagnostico
per
l‘individuazione
del
deterioramento cognitivo precoce si basa su test neuropsichiatrici, che però producono molti
falsi positivi per le differenze culturali, di scolarità e legate all‘umore del soggetto.
Al momento, quindi, l‘unica diagnosi ―definita‖, ossia certa, può essere effettuata solo
dopo aver esaminato il cervello post mortem, per confermare la presenza delle caratteristiche
anomalie (placche neuritiche, gomitoli neurofibrillari).
È evidente pertanto l‘importanza di sviluppare un metodo di diagnosi precoce, non
invasivo, riproducibile e per quanto possibile non inficiato da fattori umani (paziente e
medico).
8
Questa Tesi di Laurea si pone nella cornice del Progetto MAGIC5 (Medical Applications
on a Grid Infrastructure Connection), che raccoglie svariate università italiane e alcuni
ospedali, finanziato dall‘Istituto Nazionale di Fisica Nucleare (INFN). Esso si occupa dello
sviluppo e dell‘ottimizzazione di sistemi automatici per la diagnosi assistita (CAD, Computer
Assisted Diagnosis).
Attualmente, MAGIC5 si occupa, tra l‘altro, di realizzare un sistema per la diagnosi
precoce della malattia di Alzheimer in immagini di Risonanza Magnetica. Questo sistema ha
alla base un metodo di estrazione automatica della regione ippocampale, identificata sotto
forma di una scatola di dimensioni opportune, che include sia l‘ippocampo che regioni
limitrofe. La scatola è posizionata nella corretta zona del tessuto cerebrale tramite operazioni
di coregistrazione, a partire da scatole ippocampali campione (denominate template) già
estratte in precedenza, anche manualmente da un medico.
Dopo l‘estrazione, la scatola viene esaminata allo scopo di individuare e quantificare le
regioni atrofiche, giungendo così alla valutazione della presenza della malattia di Alzheimer.
Nell‘operazione di estrazione della scatola ippocampale gioca un ruolo determinante il
confronto tra i valori di grigio del cervello in esame, e quelli delle scatole campione.
Quest‘operazione è semplice solo in apparenza, perché presuppone che il significato fisico dei
valori di grigio nelle immagini (template e paziente) sia simile, ossia che la scala dei livelli di
grigio delle due immagini sia comune.
Purtroppo, le intensità dei pixel di un immagine MRI non hanno un valore assoluto fissato
per specifici tessuti, per cui le scale di grigi non sono direttamente rapportabili ai tessuti tipici
dei vari comparti dell‘organismo esaminato. Nel caso particolare delle neuro immagini ciò
comporta, ad esempio, che dal valore di grigio di un pixel non si può dedurre in maniera
diretta il tipo di materia cerebrale corrispondente (bianca o grigia o fluido cerebrospinale, etc).
Questa Tesi di Laurea propone una soluzione al problema, con la realizzazione di un
software (scritto in ambiente Matlab) che, partendo da immagini MRI con scale di grigi
diverse (perché ottenute in momenti diversi, o da macchinari diversi) attua delle
trasformazioni puntuali standardizzando gli istogrammi, e giungendo dunque ad un set di
immagini tra loro coerenti e confrontabili. A questo punto tutte le operazioni di
coregistrazione con le scatole template diventano lecite, con un miglioramento
dell‘accuratezza della procedura di estrazione.
9
La Tesi è divisa in alcuni capitoli, secondo la struttura seguente.
Nella convinzione che uno studio così interdisciplinare come quello della Fisica e
dell‘Informatica applicate alla Medicina, non possa avvenire a compartimenti stagni, e che il
fisico che se ne occupa debba anche possedere una sia pur minima base nozionistica medica,
il Primo Capitolo introduce brevemente il problema della malattia di Alzheimer, della sua
diagnosi e della cura.
Il Secondo Capitolo descrive la tecnica di imaging medico basata sulla Risonanza
Magnetica, dandone le basi fisiche e ingegneristiche, e introducendo gli artefatti, classe di
fenomeni alla quale anche le disuniformità delle scale di grigi appartengono.
Il Terzo Capitolo espone in dettaglio il problema delle disuniformità dei grigi, e dà una
brevissima rassegna su alcuni metodi, reperibili in letteratura, tesi alla rimozione
dell‘artefatto. Si sofferma in particolare sul procedimento su cui si basa il software realizzato.
Il Quarto Capitolo descrive infine la procedura software, e dà alcuni risultati preliminari
della sua applicazione a un insieme di immagini disomogenee.
Seguono le Conclusioni e Prospettive, e una Bibliografia essenziale.
Chiudono la Tesi i Ringraziamenti.
Per ciò che concerne il lavoro da me eseguito per la realizzazione della Tesi, mi sono
occupata, innanzitutto, del reperimento, dello studio, e del confronto degli articoli di Ricerca
disponibili sull‘argomento. Una volta scelta una procedura promettente di standardizzazione
delle scale di grigi, era necessario decidere come implementare gli algoritmi descritti: essendo
infatti le procedure di segmentazione e coregistrazione (adoperate nel software) piuttosto
complicate da realizzare ex novo in un qualsivoglia linguaggio di programmazione (anche ad
alto livello come Matlab) si è stabilito di adoperare per queste fasi dei software già esistenti;
ho testato allora diversi software (ad esempio SPM e FSL) su molte immagini, per individuare
il più adatto anche in base a considerazioni di compatibilità con i file immagine. Iniziata la
fase di sviluppo vera e propria, in base alle conoscenze di Matlab in mio possesso ho
contribuito alla stesura del codice, e ne ho effettuato il test.
10
CAPITOLO 1: Il morbo di Alzheimer
La malattia di Alzheimer (AD) è stata definita ―Epidemia silente del terzo millennio‖. Fu
descritta per la prima volta nel 1906 da Alois Alzheimer, neuropsichiatra tedesco, in una
donna di 51 anni che presentava perdita della memoria, cambiamento del carattere, delirio di
gelosia, incapacità a provvedere alle cure domestiche. Fino agli anni 70 si riteneva che la
malattia potesse colpire solo le persone al di sotto dei 65 anni: si parlò quindi di "demenza
presenile". Solo negli ultimi decenni si è accertato che la malattia. non è esclusiva dell‘età
presenile, ma anzi è tanto più frequente quanto più aumenta l‘età. Essa è una patologia
degenerativa del sistema nervoso centrale, caratterizzata da un progressivo e irreversibile
declino cognitivo e funzionale e da anomalie del comportamento.
Nel mondo sono colpite 26.6 milioni di persone, 6 milioni in Europa, 800.000 in Italia;
numeri destinati a raddoppiarsi nei prossimi 10-15 anni.[1]
È una patologia grave e in crescita numerica continua, fortemente invalidante; la sua
incidenza socio-economica e le prospettive tutt‘altro che rassicuranti sulla sua espansione
hanno spinto il Parlamento Europeo ad adottare una dichiarazione scritta con cui si riconosce
l‘Alzheimer priorità di salute pubblica, impegnandosi ad un piano d‘azione.
Francia, Gran Bretagna, Norvegia, seguendo le direttive di Strasburgo, hanno varato un
piano quinquennale stanziando finanziamenti straordinari per migliorare la qualità della vita
dei malati, per potenziare i servizi socio-sanitari, per favorire la ricerca clinica, per la
diagnosi precoce.
In Italia un d.d.l. giacente in Senato, pur con un finanziamento minimo, prevede
soprattutto il miglioramento dell‘autosufficienza e della qualità della vita del malato e della
sua famiglia. Poco viene stanziato per la ricerca clinica, determinante per scoprire le cause
scatenanti della malattia, e per la diagnosi precoce, fondamentale per tamponare il processo
degenerativo nella sua fase iniziale, quando è ancora almeno in parte controllabile.
Caratteristiche della patologia.
Tra le malattie neurodegenerative il morbo di Alzheimer rappresenta la causa più
frequente di demenza ed è caratterizzata dalla morte di cellule celebrali, particolarmente in
quelle aree del cervello deputate alla memoria e alle funzioni cognitive. La sua durata,
comunque dell‘ordine di 10 – 20 anni, è difficile da definire in quanto l‘esordio è lento e la
diagnosi spesso tardiva.
11
La patologia inizia in maniera subdola e insidiosa: le prime avvisaglie sono solitamente
piccoli disturbi della memoria, associati spesso a sintomi di tipo depressivo ed ansioso.
Molto spesso, infatti, la malattia all‘esordio viene interpretata e diagnosticata come un
disturbo depressivo.
Le caratteristiche di questa malattia variano da una persona all‘altra; tuttavia è possibile
differenziarle, con molta approssimazione, in tre fasi.
Nella prima si riscontra una leggera perdita della memoria circoscritta a sporadici episodi
della vita quotidiana, ovvero disturbi della memoria breve termine, denominata anche ongoing memory. Si possono manifestare, inoltre, lievi problemi nella concentrazione,
incertezza nei calcoli matematici e nei ragionamenti che richiedono una certa logica. Nel
malato si riscontra cambiamenti del carattere e della personalità, difficoltà nelle relazioni col
mondo esterno e diminuzione delle capacità visuo-spaziali.
Nella fase successiva i sintomi sono dati dal peggioramento delle difficoltà già presenti.
Inoltre appare una prima forma di leggera demenza, in cui vi è un manifesto aumento delle
difficoltà di apprendimento e memorizzazione ed in alcuni casi si presentano difficoltà di
linguaggio, disturbi della percezione (agnosia) o nell‘eseguire movimenti volontari (aprassia).
Non tutte le forme di memoria vengono colpite nella stessa misura: la memoria episodica
legata ai ricordi più vecchi, le conoscenze acquisite (memoria semantica) e la memoria
implicita e più in particolare quella procedurale, vengono alterate a un livello minore rispetto
alla memoria legata ad accadimenti nuovi o ricordi recenti. I disturbi del linguaggio sono
caratterizzati da una riduzione del vocabolario e dalla minore scorrevolezza della parole che
portano ad un impoverimento del linguaggio scritto e parlato. Le sequenze motorie più
complesse diventano sempre più scoordinate col progredire della malattia, il che comporta un
aumento del rischio, per il soggetto affetto da morbo di Alzheimer, di cadere.
Il peggioramento delle capacità visuo-spaziali porta il malato a perdersi sui percorsi
conosciuti, a non impararne di nuovi e a non orientarsi tra le mura di casa. La capacità di
riconoscere facce e luoghi viene progressivamente perduta.
La terza fase è caratterizzata da una completa dipendenza dagli altri. Le funzioni
intellettive sono gravemente compromesse.
Compaiono difficoltà nel comunicare, rigidità degli arti, crisi epilettiche. Le espressioni
verbali sono ridotte a ripetizioni di parole dette da altri, o ripetizioni continua di gemiti ed in
alcuni casi si può arrivare alla completa perdita della capacità di parlare.
12
Il paziente alla fine non è più in grado di eseguire neanche il più semplice compito senza
l‘aiuto di qualcuno. Spesso la massa muscolare e la capacità di camminare si riducono a tal
punto che il soggetto non può far altro che rimanere a letto.
L‘immobilità e la continua costrizione al letto possono fare insorgere piaghe da decubito,
infezioni urinarie, respiratorie oltre a contratture muscolari. In seguito a queste complicanze
sopraggiunge la morte.
Lungo tutto il decorso della malattia, ma soprattutto nelle prime due fasi, sono presenti
sintomi cosiddetti ―non cognitivi‖, in varia misura e di diversa gravità: agitazione,
irrequietezza, apatia, disturbi del sonno, ansia ed anche alterazioni del comportamento
alimentare.
Le cause che portano all’insorgere del morbo di Alzheimer.
Nei vari anni sono state fatte tante ipotesi per comprendere da cosa potesse originare il
morbo di Alzheimer; attualmente tre sono le ipotesi che esistono e tentano di spiegare la causa
della patologia. La più vecchia, sulla quale si basano molte delle terapie farmacologiche oggi
a disposizione, è l‘ipotesi colinergica,1 secondo la quale l‘Alzheimer è causato dalla riduzione
della sintesi del neurotrasmettitore acetilcolina.2 Quest‘ipotesi non ha ampio sostegno, poiché
le terapie volte a trattare la deficienza di acetilcolina non sono state molto efficaci nel frenare
l‘AD.
Nel 1991 è stata avanzata l‘ipotesi amiloidica secondo la quale i depositi di β-amiloide
(un peptide) con la formazione di placche sono la causa fondamentale dell‘insorgere del
morbo. A supporto di questa ipotesi vi è la localizzazione del gene per l‘amyloid precursor
protein (APP) sul cromosoma 21, e il fatto che le persone con la trisomia 21 (sindrome di
Down), che hanno una copia extra del gene, quasi universalmente presentano la
sintomatologia dell‘Alzheimer a partire dai 40 anni di età.
Nel 2004 uno studio ha trovato che la deposizione di placche non è ben correlata con la
perdita neuronale; questa osservazione va a sostegno dell‘ipotesi tau, secondo la quale le
anomalie della proteina tau sono la causa della malattia e della sua progressiva degenerazione.
Secondo questo modello quando la proteina tau è iperfosforilata essa produce dei grovigli
neurofibrillari all‘interno della cellula nervosa. Quando ciò accade, si ha il collasso del
sistema di trasporto neuronale. Questo potrebbe causare in una prima fase il
1
―Colinergica‖ è la particolare fibra nervosa che produce l'acetilcolina.
Il composto chimico noto come acetilcolina, (abbreviazione ACh), è stato il primo neurotrasmettitore ad
essere individuato. È responsabile in molti organismi (tra cui l'uomo) della neurotrasmissione sia a livello di
Sistema nervoso centrale (SNC) che di Sistema nervoso periferico (SNP).
2
13
malfunzionamento della comunicazione biochimica tra i neuroni e conseguentemente la morte
delle cellule.
Al di là dell‘origine della malattia, gli studiosi sono concordi nell‘affermare che quattro
sono i processi che contribuiscono alla formazione delle lesioni presenti nel cervello delle
persone con malattia di Alzheimer: la produzione di amiloide, la formazione dei grovigli
neurofibrillari, l‘infiammazione e la neurodegenerazione (o morte cellulare).[2] Ciascun
processo contribuisce sia autonomamente sia in relazione agli altri nel provocare il danno
cerebrale. I meccanismi molecolari della neurodegenerazione sono a tutt‘oggi non del tutto
chiari, mentre di più si sa sugli altri tre processi, che vediamo in maggior dettaglio.
L’amiloide
Due decadi di ricerche hanno permesso di determinare l‘effetto prodotto dalla formazione
di placche di ß-amiloide negli spazi extra-cellulari. La presenza di β-amiloide, di cellule
infiammatorie e radicali liberi crea un microambiente che porta alla morte i neuroni.[3]
Amiloide e ß-amiloide sono il prodotto di due vie cataboliche della stessa molecola, ma,
mentre il primo, presente nelle persone sane, è solubile e dunque eliminabile, il secondo,
tipico dell‘Alzheimer, è insolubile e si deposita in placche. Il cervello di persone anziane,
cognitivamente integre, spesso contiene diffusi depositi di sostanza amiloide ma poche
placche. Nella malattia di Alzheimer le placche si accumulano nella corteccia temporale e
parietale
e
nell‘ippocampo,
aree
associate
con
le
funzioni
della
memoria
e
dell‘apprendimento. Il β-amiloide si forma da una molecola, l‘Amyloid precursor protein
(APP), una glicoproteina con funzioni di adesione e integrità della membrana. Enzimi presenti
sulla superficie della membrana tagliano l‘APP formando amiloide ed altri frammenti.
Questo processo avviene in tutti i soggetti. L‘amiloide è presente nel fluido
cefalorachidiano di soggetti sani. I livelli di questa sostanza risultano notevolmente aumentati
nelle persone con malattia di Alzheimer. Mentre la α-secretasi3 produce amiloide, l‘azione
della β- e γ-secretasi produce, partendo dall‘APP, la forma insolubile (β-amiloide), che si
deposita aggregandosi in placche.[4] Le placche così formate attivano astrociti e cellule gliali
a rilasciare citochine e altre proteine di fase acuta che attivano la cascata dell‘infiammazione
con fenomeni di iperfosforilazione proteica, disfunzione neuronale, perdita di sinapsi,
diminuzione del rilascio di neurotrasmettitori (in particolare acetilcolina) e infine morte dei
neuroni.
3
Le α-, β- e γ-secretasi sono tre proteasi, ossia tre enzimi che sottopongono la APP ad un taglio
endoproteolitico.
14
I Grovigli neuro fibrillari
Patognomonici della malattia di Alzheimer sono frequenti nel citoplasma dei neuroni
della corteccia frontale, temporale e parietale, nell‘ippocampo e nell‘amigdala.[4] I grovigli
sono
filamenti
elicoidali
costituiti
da
microtubuli
intracellulari
e
proteina
tau
iperfosforilata.[5]
L’infiammazione
Tutti gli studi fisiopatologici confermano l‘accumulo di microglia intorno alle placche di
β-amiloide.[6] Queste cellule eliminano fibre e prodotti di degradazione cellulare nel cervello,
ma in questo processo rilasciano radicali liberi e citochine che attivano gli astrociti. Questi
ultimi, la popolazione cellulare di maggiore dimensione nel Sistema Nervoso Centrale,
provvedono normalmente al supporto metabolico dei neuroni ma, in questa particolare
situazione, danno avvio alla cascata infiammatoria.[5] Numerosi approcci antinfiammatori
sono stati studiati per trattare la malattia di Alzheimer. Ad alcuni antinfiammatori non
steroidei (FANS) è risultato associato un effetto protettivo sul decorso della malattia. [2]
Diagnosi precoce
Una delle richieste più sentite nella pratica clinica attuale è la possibilità di identificare i
soggetti a rischio di sviluppare la malattia e lo sviluppo di strategie che possano modificare la
progressione dell‘espressione sintomatologica.
I fattori di rischio conosciuti per lo sviluppo della patologia includono l‘età avanzata,
condizioni di malnutrizione, dimensioni ridotte del cranio, traumi cranici pregressi e sesso
femminile. La diminuzione della sensibilità sensoriale con particolare riguardo alla vista e
all‘udito possono condurre il soggetto a perdita della capacità di relazione, depressione con un
aumento di rischio di demenza. Riportare condizioni generali di salute insoddisfacenti è
associato ad un rischio cinque volte maggiore di sviluppare malattia di Alzheimer.[7] Molti
soggetti presentano lievi segni di deterioramento cognitivo ma utilizzano strategie
compensative nelle attività quotidiane. Solo il 20% di questi soggetti andranno incontro a
demenza.[8] Una valutazione standardizzata capace di fornire indicazioni specifiche sullo
sviluppo della malattia di Alzheimer non è ancora disponibile. I test cognitivi proposti su una
popolazione anziana non selezionata producono molti falsi positivi per le differenze culturali,
di scolarità e legate all‘umore del soggetto.[9] Attualmente si considera che i soggetti a
rischio di sviluppare la malattia dovrebbero essere sottoposti ogni 6-12 mesi a valutazioni
cognitive come il Mini-Mental Status Examination o il Clock Drawing Test.[10] Nel caso si
osservi un declino di 3 punti tra una valutazione e l‘altra, i soggetti devono essere considerati
15
a rischio di esordio e valutati per un trattamento.[11] È evidente pertanto l‘importanza di
sviluppare un metodo di diagnosi precoce stabile, riproducibile e per quanto possibile non
inficiato da fattori umani (paziente e medico).
A livello macroscopico, la malattia è caratterizzata da una diminuzione nel peso e nel
volume del cervello, dovuta ad atrofia corticale, visibile anche in un allargamento dei solchi e
corrispondente appiattimento delle circonvoluzioni. Inoltre, come detto in precedenza,
all'interno dei neuroni, una proteina tau, fosforilata in maniera anomala, si accumula in
aggregati neurofibrillari o in ammassi neurofibrillari. Particolarmente colpiti da questo
processo patologico sono i neuroni colinergici, specialmente quelli delle aree corticali,
sottocorticali e, tra queste ultime, le aree ippocampali.
In
particolare
l'ippocampo
interviene
nell'apprendimento
e
nei
processi
di
memorizzazione perciò la distruzione dei neuroni di queste zone è ritenuta essere la causa
della perdita di memoria dei malati. Pertanto le modificazioni delle strutture cerebrali, ed in
particolare dell‘ippocampo potrebbero essere dei buoni markers per una diagnosi precoce
scevra da fattori umani. Questo è possibile oggigiorno grazie all‘analisi delle immagini
strutturali del cervello dei vari pazienti ottenute tramite la MRI.
16
CAPITOLO 2: Risonanza Magnetica (MRI): fisica, tecnologia, e artefatti
La medical imaging è un insieme di tecniche diagnostiche che permettono l‘esplorazione
del corpo umano senza ricorrere alle tradizionali tecniche invasive.
Gli ultimi cento anni sono stati testimoni dell‘inarrestabile sviluppo e miglioramento delle
tecniche di diagnosi, tra le quali rientrano la CT (Computerized Tomography), gli ultrasuoni,
la SPECT (Single-Photon Emission Computerized Tomography), la PET (Positron Emission
Tomography) e la MRI (Magnetic Resonance Imaging).
In generale le immagini acquisite possono essere di tipo strutturale o funzionale. Le prime
permettono l‘analisi di strutture interne del corpo previa ricostruzione dei distretti anatomici .
Le seconde permettono la visualizzazione di processi dinamici e chimici legati al
funzionamento di una particolare regione anatomica presa in esame.
In questo lavoro di tesi si analizzeranno immagini strutturali acquisite tramite Risonanza
Magnetica (RM, oppure MRI, Magnetic Resonance Imaging).
Evoluzione storica dell’MRI
La MRI è una tecnica diagnostica utilizzata principalmente in campo medico per produrre
immagini ad alta definizione di sezioni del corpo umano. Essa si basa sui principi di
Risonanza Magnetica Nucleare (NMR), tecnica spettroscopica usata per avere informazioni di
tipo microscopico, chimico e fisico sulle molecole.
Prima di spiegare il funzionamento della MRI, è utile ripercorrere la sua breve storia [12].
Il fenomeno della risonanza magnetica è stato scoperto, nel 1946, separatamente da Felix
Bloch ed Edward Purcell che per questo condivisero il premio Nobel per la Fisica nel 1952.
Nel periodo tra il 1950 e il 1970 la NMR fu sviluppata e usata principalmente per analisi
molecolari, chimiche e fisiche.
Nel 1971, Raymond Damadian dimostrò, con esperimenti su cavie da laboratorio, che i
tempi di rilassamento magnetico-nucleari dei tessuti sani erano differenti da quelli dei tessuti
tumorali, stimolando così i ricercatori a prendere in considerazione la risonanza magnetica per
la rivelazione delle patologie umane.
Nel 1973, Paul Lauterbur sperimentò per primo, e con successo, la possibilità di fare
imaging con risonanza magnetica utilizzando come "oggetto test" dei piccoli tubi contenenti
acqua. Per la ricostruzione dell'immagine egli usò algoritmi di retroproiezione simili a quelli
17
impiegati nella tomografia assiale computerizzata. Questo portò ad un nuovo strumento di
diagnostica in campo medico: la Risonanza Magnetica per Immagini (MRI).
Fu Richard Ernst nel 1975 a proporre l'utilizzo nell'MRI di un processo di codifica di fase
e di codifica in frequenza e l'impiego della trasformata di Fourier, elementi ancora oggi alla
base delle moderne tecniche di MRI. Un paio di anni dopo, nel 1977, Raymond Damadian
sperimentò tale tecnica sull'intero corpo umano. Nello stesso anno, Peter Mansfield ideò la
tecnica di imaging eco-planare (EPI) che, negli anni successivi, fu ulteriormente sviluppata
per produrre immagini a frequenza video (30 ms/immagine).
1946 MR phenomenon - Bloch & Purcell
Nobel Prize - Bloch & Purcell
1952
NMR
developed as analytical tool
1950
1960
1970
Computerized Tomography
1972
Backprojection MRI - Lauterbur
1973
Fourier Imaging - Ernst
1975
Echo-planar imaging - Mansfield
1977
Nobel Prize - Ernst
1991
Functional MRI
1992
Hyperpolarized 129Xe Imaging
1994
2003 Nobel Prize - Lauterbur & Mansfield
Tabella 1: tabella temporale delle principali scoperte per lo sviluppo della MRI
Nel 1991 Richard Ernst ricevette il premio Nobel per la Chimica per i suoi risultati sulla
spettroscopia NMR con l'uso della trasformata di Fourier.
Il 1992 segnò l'inizio dello sviluppo dell'MRI funzionale (fMRI), una tecnica che
permette di costruire una mappa delle funzioni delle varie regioni del cervello umano. Solo
cinque anni prima molti clinici ritennero che le applicazioni primarie dell'imaging eco-planare
dovessero limitarsi all'imaging cardiaco in tempo reale. Lo sviluppo della fMRI rivelò invece
una nuova applicazione per l'EPI: costruire una mappa delle regioni del cervello responsabili
del controllo del pensiero e del movimento.
Nel 1994, alcuni ricercatori delle Università di Stony Brook e Princeton nello stato di
New York sperimentarono con successo l'imaging del gas
129
Xe iperpolarizzato per studi
respiratori.
Nel 2003 Paul C. Lauterbur dell'Università dell'Illinois e Sir Peter Mansfield
dell'Università di Nottingham ricevettero il premio Nobel per la Medicina per le loro scoperte
nel campo dell'imaging con risonanza magnetica.
18
Questa rapida cronologia evidenzia che l'MRI è una scienza giovane, ma in rapida
evoluzione.
La fisica dell’imaging in Risonanza Magnetica
I paragrafi seguenti riportano alcuni cenni sulle basi fisiche dell‘imaging in RM.
Proprietà magnetiche del nucleo atomico
Il fenomeno della risonanza magnetica (RM) si basa sulla proprietà dei nuclei di
possedere un momento angolare intrinseco detto spin nucleare I.
Lo spin è una grandezza vettoriale e quantizzata che descrive una caratteristica intrinseca
delle particelle elementari.. Può assumere solo valori multipli interi o semi-interi di h/2π, dove
h è la costante di Planck. Il valore assunto dipende dal numero di massa del nucleo: se questo
è pari lo spin può essere intero o nullo, altrimenti assumerà valore semi-intero. Protoni,
elettroni e neutroni presi singolarmente presentano valore di spin pari a 1/2.
Quando differenti particelle elementari formano insieme un atomo, la particella risultante
possiederà sia uno spin elettronico che uno spin nucleare.
Nella risonanza magnetica si fa riferimento allo spin nucleare.
Affinché si verifichi il fenomeno della risonanza magnetica è necessario che il campione
in esame abbia valori di spin non nulli, e in particolare, si considerano solo nuclei con valore
di spin semi-intero. Tra tutti il più importante è il nucleo d‘idrogeno [13]. In quanto
quest‘elemento si trova nella maggior parte dei composti organici, in particolar modo nelle
molecole d‘acqua che costituiscono il 70% dei tessuti organici. Il nucleo di idrogeno, inoltre,
avendo spin semi-intero (½ h/2π) e carica elettrica positiva, ha un momento magnetico (
diverso da zero.
Il momento magnetico nucleare, al pari dello spin, è una grandezza vettoriale e
quantizzata ed è dato da:
μ  I
dove la costante di proporzionalità γ è il fattore giromagnetico di Larmor, si misura in MHz/T,
ed è una proprietà caratteristica di ciascun nucleo.
Il modulo del momento magnetico è dato dall‘equazione:
 
h
2
I ( I  1)
19
con h costante di Planck e I numero quantico di spin.
Dall‘equazione si nota come nuclei con un numero di massa pari, avendo I=0, non possiedono
momento magnetico. Questi nuclei vengono chiamati ―NMR - non attivi‖, in quanto non
interagiscono con un campo magnetico esterno.
Un nucleo con spin I diverso da zero, ha un momento magnetico che può assumere 2I+1
orientamenti, a ciascuno dei quali corrisponde uno stato quantico magnetico mI, che può
assumere valori compresi tra –I e I, e ai quali corrispondono i diversi livelli energetici
permessi.
Interazione dei nuclei con un campo magnetico
In assenza di un campo magnetico esterno, i (2I+1) stati con lo stesso valore di I, ma
diverso numero quantico magnetico, sono degeneri (Figura 1 (a)). Quando, invece, si applica
un campo magnetico esterno, la degenerazione viene rimossa , in quanto si impone al sistema
un ordine che porta la popolazione nucleare a distribuirsi su due o più livelli energetici; ed i
nuclei, assimilabili a piccoli dipoli magnetici, si orientano in modo parallelo o antiparallelo al
campo magnetico applicato (Figura 1 (b)).
Figura 1: (a)In assenza di campo magnetico esterno gli spin sono orientati in modo
disordinato.(b) Esposto a un campo magnetico esterno B0 ogni spin può assumere due orientazioni,
parallela o antiparallela.
È possibile calcolare le energie dei diversi livelli secondo la seguente formula:
E= - μ· B0
(1)
20
in cui μ rappresenta il vettore momento magnetico e B0 il campo magnetico applicato.
Se si considera, in un sistema di assi cartesiano xyz, B0 diretto lungo l‘asse z, la relazione (1)
diventa:
E= -γ  mIB0
Nel caso del nucleo di idrogeno si hanno due possibili valori:
Eup= - 1 γ  B0
2
Edown= + 1 γ  B0
2
La statistica di Boltzmann poi, permette di rappresentare la distribuzione dei nuclei di
idrogeno tra il livello energetico inferiore e superiore in funzione della differenza di energia
ΔE tra questi due stati:
N + / N − = e (ΔE
/ k T)
Con:

N + numero di nuclei allo stato energetico inferiore;

N − numero di nuclei allo stato energetico superiore;

ΔE energia di transizione tra i due stati;

k
costante di Boltzmann;

T
temperatura assoluta espressa in Kelvin.
La differenza di energia ΔE tra i due stati quantici magnetici fornisce informazioni
sull‘energia che bisogna fornire al sistema per ottenere una transizione quantica:
ΔE=Edown - Eup = γ  B0
Si nota come la differenza di energia risulti essere proporzionale al fattore giromagnetico e al
campo magnetico applicato.
La radiazione assorbita dal sistema ha frequenza pari a
0 
B0
2
Questa relazione prende il nome di equazione di Larmor e rappresenta l‘equazione
fondamentale che descrive la fisica della risonanza magnetica nucleare.
Il fattore giromagnetico per i nuclei di idrogeno vale circa 42 MHz/T, questo vuol dire
che, in presenza di campi magnetici compresi tra 0.5T e 1.5T (queste sono le intensità dei
21
campi magnetici delle macchine di uso diagnostico), le frequenze di risonanza sono comprese
tra 21 e 63 MHz, rientrano quindi nel range delle radiofrequenze (10-100MHz).
Classicamente i protoni ruotano intorno al proprio asse e in presenza di un campo
magnetico B0, subiscono una forza torcente, o momento di rotazione:
τ  μ  B0
producendo un moto di precessione attorno all‘asse del campo magnetico applicato.
Figura 2:rappresentazione della precessione di Larmor del momento magnetico µ
La velocità angolare ω0 di questo moto è:
0  B0
quindi la frequenza di precessione, denominata anche frequenza di Larmor, risulta:
0 
B0
2
I protoni possono orientarsi, rispetto a B0, in modo parallelo o antiparallelo. In condizioni
di equilibrio, il numero di protoni paralleli è lievemente superiore rispetto al numero di
protoni antiparalleli.
Questa piccola prevalenza produce una magnetizzazione risultante M.
Magnetizzazione macroscopica
Data la difficoltà che si riscontra nel descrivere il fenomeno della NMR in scala
microscopica, risulta conveniente una descrizione macroscopica. In questa visione , il sistema
22
dei nuclei viene sostituito con un vettore di Magnetizzazione Macroscopica M, allineato
parallelamente al campo magnetico esterno ed esprimibile, nel caso di un campione costituito
da N nuclei, dalla seguente relazione:
M
N
μ
i 1
i
All‘equilibrio M ha un valore massimo corrispondente a M0. La componente di M lungo
z, (parallela al campo magnetico B0) è denominata Magnetizzazione Longitudinale (Mz). Non
esiste alcuna componente di M sul piano trasversale a causa dello sfasamento del moto di
precessione dei nuclei intorno a B0.(Figura 3)
Figura 3: Magnetizzazione Longitudinale
Applicando un secondo campo magnetico B1, ortogonale a B0 ed oscillante alla frequenza di
Larmor, tutti i momenti magnetici che prima precedevano fuori fase, risulteranno in coerenza
di fase. Questa coerenza di fase fa si che M inizi a precedere attorno all‘asse z, sempre con la
frequenza di Larmor. Di conseguenza M avrà una componente nel piano xy, detta
Magnetizzazione Trasversale Mxy.
Durante l‘invio di un impulso di radiofrequenza (RF) il valore della Magnetizzazione
Longitudinale diminuisce, mentre quello della Magnetizzazione Trasversale aumenta, l‘entità
di questo scambio è proporzionale alla durata dell‘impulso RF.
Figura 4: Magnetizzazione Trasversale dopo l’invio di un impulso RF
23
Quando l'impulso RF è interrotto, il sistema tende a tornare nella sua condizione di equilibrio,
cedendo all'ambiente esterno l'energia precedentemente assorbita sotto forma di onda
elettromagnetica.[14]
Nel processo di ritorno al valore di equilibrio (Mz=M0), la Magnetizzazione trasversale si
attenua in maniera esponenziale e oscilla con una frequenza pari a quella di Larmor.
In questo modo, secondo la legge di Faraday-Neumann dell'induzione elettromagnetica,
si induce una corrente elettrica alternata in una bobina ricevente posta sul piano trasversale a
MZ, in quanto il campo che la genera è oscillante. Il processo dura per tutto l'intervallo di
tempo necessario alla Magnetizzazione trasversale per ritornare al suo valore di equilibrio.
Figura 5: rappresentazione di un segnale FID
Questo fenomeno, denominato FID (Free Induction Decay), permette la formazione delle
immagini di RMN. (Figura 5)
Fenomeni di rilassamento
L‘interruzione dell‘impulso a RF, come precedentemente accennato, comporta un
decadimento esponenziale del segnale, questo è dovuto al ritorno degli spin al livello
energetico iniziale e alla perdita di coerenza di fase. [13] Tali processi causano una
diminuzione della componente macroscopica trasversale Mxy, (rilassamento spin-spin), e un
ritorno della componente longitudinale Mz al suo valore di equilibrio, (rilassamento spinreticolo).
Nel rilassamento spin-spin, denominato anche rilassamento trasversale, i protoni perdono
la loro coerenza di fase a causa dell‘interruzione dell‘impulso RF. Questo processo è dovuto
all‘interazione tra momento magnetico intrinseco di un nucleo e quello dei nuclei vicini.
24
Idealmente il campo magnetico applicato dovrebbe essere spazialmente omogeneo, in
realtà però presenta disomogeneità. Inoltre gli spin generano campi magnetici aggiuntivi, che
si sommano o si sottraggono al campo magnetico esterno in modo diverso a seconda della
loro distribuzione spaziale nel reticolo.
Gli spin, quindi, sono soggetti ad un campo magnetico locale variabile, che produce una
differenzazione delle frequenze di precessione dei singoli nuclei e di conseguenza uno
sfasamento degli spin, con relativa perdita di coerenza di fase. In questo modo la
magnetizzazione trasversale diminuisce secondo la seguente legge:
M xy (t) = M xy (t = 0) e -t/T2
dove:

Mxy(t) è la magnetizzazione trasversale residua al tempo t;

Mxy(t=0) è la magnetizzazione trasversale iniziale (al termine dell‘impulso);

T2 è la costante di rilassamento trasversale che regola il processo, questa rappresenta il
tempo necessario a ridurre la magnetizzazione trasversale del 37% del suo valore
iniziale. Se si tiene conto del solo effetto della mutua interazione dei nuclei si parla di
T2 puro; quando, invece, si tengono in considerazione anche le disomogeneità del
campo esterno si parla di T2 disomogeneo, ed il valore di T2 viene indicato con T2*.
Esso è legato al tempo di rilassamento trasversale puro dalla seguente relazione:
B0
1
1


*
2
T2 T2
in cui ΔB0 è la variazione del campo magnetico dovuta alle disomogeneità.
Figura 6: curva di rilassamento T2
Fisicamente T2 dipende dalle caratteristiche chimico-fisiche della sostanza analizzata;
quindi i tessuti biologici presentano valori diversi che sono influenzati dalla composizione
25
chimica e da proprietà fisiche, quali la temperatura e lo stato di aggregazione. Ad esempio i
liquidi sono caratterizzati da un valore di T2 elevato, in quanto i protoni dei nuclei conservano
la coerenza di fase più a lungo poiché le molecole hanno ampia libertà di movimento. In
questo modo la magnetizzazione trasversale diminuisce lentamente ed il relativo segnale è
elevato. Invece il tessuto adiposo presenta un valore di T2 molto basso e quindi produce un
segnale poco intenso. Dalla misura dei diversi segnali provenienti da tessuti differenti è
possibile individuare e differenziare i tessuti in esame.
Le immagini ottenute con questo metodo vengono chiamate immagini T2 pesate.
Il rilassamento spin-reticolo, conosciuto anche come rilassamento longitudinale, si
osserva quando i nuclei, a causa dell‘interruzione del segnale RF, ritornano al loro stato di
energia fondamentale cedendo energia all‘ambiente esterno.
A causa di questo processo si nota un aumento esponenziale della magnetizzazione
longitudinale secondo la seguente relazione:
M z (t) = M z (t = 0) (1 - e -t/T1 )
in cui:

Mz(t) è la magnetizzazione longitudinale residua al tempo t;

Mz(t=0) è la magnetizzazione longitudinale iniziale (al termine dell‘impulso);

T1 è la costante di rilassamento longitudinale che regola il processo, questa
rappresenta il tempo necessario a ridurre la magnetizzazione longitudinale del 63% del
suo valore iniziale.
Figura 7: curva di rilassamento T1
Fisicamente T1 dipende dal‘interazione tra i nuclei di idrogeno e l‘ambiente circostante.
Nei liquidi la costante di rilassamento T1 ha un valore elevato e quindi un segnale basso, a
causa della scarsa interazione tra le molecole. I tessuti adiposi, invece, presentano un valore di
26
T1 basso, ma segnale elevato, in quanto le molecole che li compongono sono dotate di moti
molecolari con frequenza uguale a quella di precessione.
È importante osservare che per uno stesso tessuto T1 è sempre maggiore di T2; e in
generale vale:
T1gas  T1liquido  T1solido
T2 gas  T2liquido  T2 solido
Si riportano in Tabella 2 i valori di T1 e di T2 per alcuni tessuti biologici:
Tessuto
T1 (ms)
T2 (ms)
Muscolo scheletrico
732 ± 132
47 ± 13
fegato
423 ± 93
43 ± 14
Rene
589 ± 159
58 ± 24
Tessuto adiposo
241 ± 68
84 ± 36
Cervello:materia grigia
813 ± 138
101 ± 13
Cervello:materia bianca
683 ± 116
92 ± 22
Tabella 2: Tempi di rilassamento T1 e T2 per differenti tessuti biologici
Sequenze di acquisizione
Il segnale ottenuto con un singolo FID risulta molto basso ed inoltre presenta un basso
segnale/rumore, per ovviare a questo problema si utilizzano nella pratica clinica sequenze di
impulsi, ossia più impulsi in successione rapida. Esistono numerosi tipi di sequenze, ognuna
in grado di fornire informazioni differenti in relazione al tipo di applicazione richiesta.
Saturation Recovery
Nella sequenza Saturation Recovery (SR) vengono applicati ripetuti impulsi a 90º,
distanziati da un tempo di ripetizione TR. Il tempo di ripetizione determina il contrasto
dell‘immagine.
Se si sceglie un TR lungo, in modo da far tornare la magnetizzazione macroscopica al suo
valore iniziale per tutti i tessuti coinvolti nell‘esame, il contrasto dell‘immagine dipende solo
dalla densità protonica.
27
Se, invece, si sceglie un TR breve, il contrasto dipende dalla diversa velocità con cui la
componente longitudinale della magnetizzazione ritorna al suo valore nei diversi tessuti. Il
contrasto in queste immagini è più netto e dipende dai diversi valori di T1 nei tessuti biologici.
Figura 8: sequenza saturation recovery
Inversion Recovery
Nella sequenza di Inversion Recovery viene applicato, perpendicolarmente alla direzione
del campo magnetico principale, un impulso a 180° seguito, dopo un tempo TI ( tempo di
inversione), da un impulso a 90°. Successivamente, dopo un tempo pari a TR, la sequenza
viene ripetuta. Il tempo di inversione determina il contrasto nelle immagini, infatti
selezionando TI in modo opportuno è possibile sopprimere il segnale proveniente da un
determinato tessuto.
Figura 9: sequenza inversion recovery
Si ottengono in questo modo immagini T1- pesate con un ottimo contrasto, dalle quali è
possibile evidenziare piccole differenze in T1 tra i tessuti.
28
Spin Echo
La sequenza Spin Echo (SE) si ottiene inviando due impulsi di RF: il primo a 90° ed il
secondo a 180°.
Figura 10: sequenza spin echo
Il primo impulso ruota la magnetizzazione longitudinale sul piano trasversale (x,y), la
magnetizzazione trasversale inizia così a perdere la coerenza di fase. Dopo un intervallo di
tempo t (pari a TE/2), viene inviato un secondo impulso RF a 180° che ribalta i momenti
magnetici sullo stesso piano, in tal modo gli spin tornano in fase generando un segnale echo al
tempo TE (tempo di echo). Tale eco non risulta affetto da fenomeni di disomogeneità di
campo magnetico e la distanza temporale fra l‘applicazione degli impulsi di eccitazione e la
sua formazione ne consentono una più agevole registrazione.
La sequenza SE viene ripetuta dopo un tempo TR. La scelta dei parametri TE e TR
determina il contrasto delle immagini finali e le loro caratteristiche; infatti è possibile,
variando questi due parametri, ottenere immagini T1- pesate, T2- pesate o a densità protonica.
(Tabella 3)
29
Tipo di
TE
TR
Esempio di
immagine
(ms)
(ms)
immagine
densità protonica
breve
lungo
(10-30)
(>1800)
breve
breve
(10-30)
(300-600)
lungo
lungo
(>80)
(>1800)
T1-pesata
T2- pesata
Tabella 3: intervallo di valori per la classificazione dei parametri tecnici usati per ottenere immagini
il cui contrasto dipende da T1, T2 o dalla densità protonica
Mezzi di contrasto
In risonanza magnetica vengono utilizzati, molto spesso, mezzi di contrasto,
comunemente denominati magnetofarmaci, che modificano temporaneamente le proprietà
magnetiche di aree del corpo umano agendo sulle costanti di tempo T1 e T2. I mezzi di
contrasto non possiedono un segnale proprio ma modificano il segnale dei tessuti in cui si
depositano, ricoprendo il ruolo di accettori energetici e di disomogeneizzanti del campo
magnetico. Essi quindi riducono i tempi di rilassamento fornendo immagini con contrasti più
netti.
Struttura di un apparecchiatura MRI
Uno scanner di Risonanza Magnetica per Immagini è principalmente composto da quattro
elementi:
30

Magnete principale: utilizzato per creare un campo magnetico statico ed omogeneo
ad elevata intensità che permetta la polarizzazione dei nuclei. È il componente più
importante di uno strumento di RM e dalle sue caratteristiche dipende la qualità delle
immagini restituite.
Un buon magnete deve avere un‘elevata intensità di campo magnetico, da cui deriva la
maggiore polarizzazione degli spin. Inoltre deve presentare una buona omogeneità
spaziale e una buona stabilità temporale.
I primi magneti utilizzati sono stati quelli permanenti, ossia blocchi di materiale
ferromagnetico magnetizzati in modo permanente. A causa della loro ingente
dimensione (arrivano a pesare anche 100 T), della limitata intensità di campo
magnetico (<0,3 T) e alla non eccellente stabilità nel tempo ed omogeneità, questo
tipo di magnete è stato sostituito da un magnete di tipo resistivo. In questo caso il
campo magnetico generato da una bobina attraversata da corrente possiede un valore
d‘intensità (fino a 0,6 T) più adatto alle misure di risonanza magnetica.
Dagli anni Novanta si è iniziato ad utilizzare magneti superconduttivi. Questa nuova
generazione di magneti, è in grado di fornire intensità di campo molto elevate (oltre 4
T), oltre ad un‘alta omogeneità di campo e una buona stabilità temporale.

Bobine di gradiente: create per generare campi magnetici che variano linearmente
nello spazio. Queste sono fondamentali per la localizzazione dell‘area da esaminare e
per la ricostruzione dell‘immagine. I gradienti di campo sono ottenuti facendo passare
corrente elettrica attraverso le bobine. Le caratteristiche necessarie affinché una
bobina possa essere considerata di buona qualità sono rappresentate da un‘elevata
intensità e linearità, e da una rapida e controllata variazione temporale.
Le bobine di gradiente dei primi tomografi possedevano una variazione spaziale di
10mT/m, mentre la variazione spaziale delle bobine attuali è pari a 40-60 mT/m,
permettendo così l‘acquisizione di slice più sottili e quindi di informazioni più
dettagliate.

Bobine a radiofrequenza (RF): usate per eccitare il sistema di spin tramite l‘invio di
impulsi a radiofrequenza e per raccogliere l‘informazione proveniente dal campione
sotto forma di onda elettromagnetica. Il sistema è costituito da una bobina
trasmittente, capace di creare un campo magnetico intenso ed omogeneo per un breve
periodo, e da una bobina ricevente con un‘elevata sensibilità, in modo da captare
anche segnali molto bassi.
31

Parte elettronica ed informatica: questo componente presenta un‘elevata importanza
in ogni strumento MRI, in quanto l‘imaging di risonanza magnetica richiede
considerevoli risorse di calcolo. La potenza di calcolo a disposizione permette di
ottenere e di manipolare immagini senza tempi morti e consente acquisizioni in tempo
reale e ricostruzioni tridimensionali. Tutte queste funzioni si ottengono utilizzando la
stessa consolle di acquisizione, che presenta un‘interfaccia di facile intuizione.
Figura 11: schema a blocchi di un apparecchiatura per MRI
Artefatti
Nelle immagini di MRI si presentano vari artefatti, con questo termine si vuole indicare
una qualsiasi caratteristica che appare nell‘immagine, ma che non è presente nell‘oggetto in
esame.[15] In altre parole l‘artefatto può essere definito come un sottoinsieme di pixel o voxel
che non rappresenta fedelmente l‘anatomia studiata.
Queste alterazioni possono essere generate o da sorgenti esterne al paziente o dal paziente
stesso.
Quest‘ultimi possono essere dinamici o statici. Gli artefatti statici sono indotti
dall‘interazione del campo magnetico con entità estranee, mentre quelli dinamici sono causati
da processi o proprietà naturali del corpo umano, quali movimenti cardiaci, respiratori o dal
flusso sanguigno.
Gli artefatti esterni sono invece causati da interferenze con il campo magnetico o dal
funzionamento errato dell‘apparecchiatura stessa.
32
Fondamentale è saper riconoscere e correggere questi problemi poiché possono
nascondere e, quindi, compromettere l‘accertamento di una patologia; producendo falsi
negativi (regione malata non identificata come patologica) o falsi positivi (regione sana
erroneamente segnata come malata).
Si riporta di seguito le origini degli artefatti più significativi.[12]
Rumore RF
L‘artefatto da rumore RF è causato da un malfunzionamento nello schermo RF, il cui
scopo è quello di evitare che il rumore esterno possa raggiungere il rivelatore. Il modo in cui
questo si manifesta nell'immagine dipende dalla sorgente del rumore ed in quale parte del
segnale il rumore ha avuto effetto.
Figura 12: immagine con due artefatti da rumore RF rappresentati da linee diagonali e due linee
orizzontali segnalate con delle frecce
Disomogeneità di campo magnetico Bo
La disomogeneità del campo B0 è la causa di immagini distorte. Le distorsioni possono
essere di intensità, spaziali o di entrambe.
Questa disomogeneità del campo può essere prodotta dalla presenza di campi magnetici
generati dagli spin, che si vanno a sommare o a sottrarre al campo magnetico esterno in modo
differente a seconda della distribuzione spaziale degli spin nel reticolo.
Gradienti
Gli artefatti derivanti da problemi con il sistema dei gradienti sono molto simili a quelli
descritti per la disomogeneità di Bo. Un gradiente non costante rispetto alla direzione cui
33
agisce distorcerà l'immagine. Questo, tipicamente, può aver luogo se è stata danneggiata una
bobina di gradiente.
Figura 13 distorsione di un’immagine dovuta ad un gradiente non uniforme.
Disomogeneità di RF
Un artefatto da disomogeneità della RF si manifesta con un‘ indesiderata variazione di
intensità attraverso l'immagine. La causa può essere sia una disomogeneità del campo B1 che
una non uniforme sensibilità delle bobina ricevente. Alcune bobine di RF, come le bobine di
superficie, hanno naturalmente variazioni di sensibilità e mostrano sempre questo artefatto.
La presenza di questo artefatto in altre bobine rappresenta il guasto di un elemento nella
bobina di RF o la presenza di materiale metallico nell'oggetto esaminato. Ad esempio, un
oggetto metallico che impedisce il passaggio della RF attraverso un tessuto comporterà la
mancanza di segnale nell'immagine.
Figura 14: immagine rappresentante un artefatto da disomogeneità della RF nella regione della
bocca.
34
Suscettività magnetica
La suscettibilità magnetica () di una sostanza è la misura di quanto viene magnetizzata
questa sostanza una volta posta all‘interno di un campo magnetico [15]. Gli artefatti da
suscettibilità si rilevano quando tessuti o materiali con differente sono tra loro adiacenti
provocando una disomogeneità del campo magnetico locale.
L'immagine in figura15 mostra una regione con un campo magnetico omogeneo nel quale
è stato posto un oggetto con un'alta suscettività magnetica.
Figura 15: variazione delle linee di forze di un campo magnetico nel quale è posto un oggetto con
alta suscettività.
Il risultato è che le linee di forza curvano all'interno dell'oggetto, causando la variazione
del valore del campo al variare della posizione intorno all'oggetto esaminato. La distorsione si
ripercuote sul campo magnetico a radiofrequenza B1, su quello statico B0, e sui gradienti di
campo. Quest‘artefatto può essere causato da metalli come titanio o acciaio presenti
all'interno del corpo.
Movimento
Gli artefatti da movimento sono dovuti alla variazione della posizione dell'oggetto in
esame o ad una sua piccola parte.
Il movimento di tutto l'oggetto produce l'offuscamento dell'intera immagine ad opera di
"immagini fantasma" nella direzione di codifica di fase. Mentre la variazione di posizione di
una parte dell'oggetto esaminato provoca l'offuscamento nell'immagine di quella porzione
dell'oggetto.
Si mostra in Figura 16 l‘immagine MRI della testa di un soggetto che, durante
l'acquisizione, ha mosso la testa nella direzione superiore-inferiore.
35
Figura 16: scansione di una testa che durante l’acquisizione è stata mossa
La soluzione per un artefatto da movimento è quella di immobilizzare il paziente o
l'oggetto esaminato. Spesso il movimento è dovuto al battere del cuore o al respiro del
paziente.
Volume Parziale
Questo difetto si presenta quando le dimensione del voxel dell‘immagine è maggiore
della dimensione del dettaglio che si deve esaminare, e quindi si manifesta quando uno stesso
voxel è occupato da più di un tipo di tessuto. L‘intensità risultante è allora un miscuglio dei
valori associati a questi tessuti, si ottiene in questo modo una bassa risoluzione
dell‘immagine.
In figura 17 si riportano due scansioni della stessa sezione della testa la prima acquisita
con uno spessore di fetta di 3 mm e la seconda con uno spessore di 10mm.
Figura 17: a sinistra si riporta la scansione di una sezione della testa con spessore 3 mm, a destra la
stessa sezione della testa ma con uno spessore di 10 mm
36
CAPITOLO 3: Il problema delle disomogeneità di scala di grigi in MRI
La risonanza magnetica (MRI), della quale il capitolo precedente ha esposto le basi
fisiche e strumentali, ha rivoluzionato l‘imaging radiologico per lo studio, l‘analisi e la
diagnosi di strutture interne del corpo umano, fornendo informazioni sull‘anatomia dei tessuti.
Rispetto ad altre tecniche di diagnostica per immagini presenta numerosi vantaggi: non è
invasiva e non è considerata dannosa per la salute del paziente; inoltre restituisce immagini
delle sezioni corporee su tre piani diversi: assiale (piano di imaging perpendicolare all'asse
passante lungo il corpo), coronale (piano che biseca il corpo in parte anteriore e parte
posteriore) e sagittale (piano che biseca il corpo in parte destra e parte sinistra), permettendo
al medico l‘esame visivo ottimale dei tessuti.
Figura 18: rappresentazione delle sezioni corporee sui tre piani diversi:assiale, coronale e sagittale.
Attualmente sono disponibili molti protocolli MRI, con o senza l‘ausilio di agenti di
contrasto, ad esempio T1 con o senza agente di contrasto, T2 con o senza agente di contrasto,
densità protonica (Pd), etc.[16] Tutti questi protocolli permettono la realizzazione di immagini
con differenti contrasti per i vari tessuti di uno stesso organo; in particolare si ottiene un
eccellente contrasto per i tessuti molli, e proprio per questo motivo la tecnica MRI è adatta
allo studio del cervello.
Il risultato di un‘acquisizione in MRI è un‘immagine tridimensionale in toni di grigio
(solitamente alcune migliaia di livelli) di risoluzione variabile: tipicamente per le neuro
immagini, caso di interesse di questa tesi, si ottengono volumi di un centinaio di slice (‗fette‘
o ‗sezioni‘) ciascuna di 128x128 o 256x256 pixel (o valori intermedi). Le dimensioni del
voxel (volume element) sono dell‘ordine di 1 mm nella migliore delle ipotesi e nel piano della
37
slice ma, nella direzione ortogonale alla fetta (in genere, nelle neuro immagini, quella assiale
testa-piedi), questa dimensione spesso è maggiore, anche dell‘ordine di 2 mm o più.
L‘esistenza di diversi schemi di acquisizione, ma anche alcuni fattori insiti nella tecnica
di imaging in risonanza magnetica, comporta un problema non trascurabile: le intensità dei
pixel di un immagine MRI non hanno un valore assoluto fissato per specifici tessuti, per cui le
scale di grigi non sono direttamente rapportabili ai tessuti tipici dei vari comparti
dell‘organismo esaminato. Nel caso particolare delle neuro immagini ciò comporta, ad
esempio, che dal valore di grigio di un pixel non si può dedurre in maniera diretta il tipo di
materia cerebrale corrispondente (bianca o grigia o fluido cerebrospinale, etc).
L‘inconveniente della mancanza di una scala assoluta assume rilevanza quando si
confrontano acquisizioni ottenute con dispositivi differenti, o con lo stesso dispositivo ma in
momenti differenti. Inoltre esso si può verificare nella stessa acquisizione tra una fetta e
un‘altra dell‘immagine, e addirittura all‘interno della stessa fetta.
Queste variabilità delle scale di intensità possono essere distinte in due differenti gruppi
[17, 18]: nel primo, indicato nel seguito con il termine CLASSE I, rientrano le variabilità di
scala di grigi all‘interno della medesima fetta o tra una slice e l‘altra di una scansione. In
letteratura questo problema è chiamato propriamente inomogeneità dell’intensità o anche
campo di bias.
Il secondo tipo di variabilità della scala dei livelli di grigi, denominato nel seguito
CLASSE II, è relativo alla variazione dei valori dell‘intensità corrispondenti ad un particolare
tessuto in immagini di pazienti differenti, ma anche nelle acquisizioni di uno stesso paziente
ottenute con lo stesso scanner e con lo stesso protocollo, ma in momenti differenti. A causa
della variabilità di scala dei grigi in MRI, diversamente da altre modalità di imaging come la
tomografia assiale computerizzata, una certa intensità misurata non può dunque essere
associata ad uno specifico tipo di tessuto (o a una classe di tessuti, ma comunque in maniera
univoca e ripetibile). La soluzione di questo problema, in letteratura, prende genericamente il
nome di standardizzazione delle intensità.
CLASSE I: Inomogeneità dell’intensità
Il problema dell’inomogeneità dell’intensità, detta anche campo di bias o non uniformità
dell‘intensità, è usualmente riscontrabile nelle immagini come una lenta variazione di
38
intensità di grigio di uno stesso tessuto sull‘intero dominio dell‘immagine stessa (entro la
slice, o tra una slice a l‘altra).[19] Le cause possono essere divise in due gruppi.
Nel primo rientrano quelle dovute alle proprietà del dispositivo di MRI, in particolare
l‘inomogeneità del campo magnetico statico, la larghezza di banda adoperata nel filtraggio dei
dati, le correnti parassite indotte dai gradienti del campo e soprattutto la non-uniformità della
trasmissione e ricezione delle radiofrequenze (RF). Queste inomogeneità possono essere
corrette calibrando la strumentazione MRI con l‘ausilio di un fantoccio o attraverso modelli
matematici.
Nel secondo gruppo rientrano le cause legate al soggetto dell‘immagine, alla sua forma,
alla posizione ed all‘orientazione all‘interno del magnete, alle proprietà dielettriche e alla
permeabilità magnetica specifica del soggetto. La non uniformità delle intensità dovuta a
questi motivi è difficile da trattare. Si osserva che l‘impatto del soggetto in esame è piuttosto
piccolo se il valore del campo magnetico è basso, ed è elevato se il valore del campo è molto
alto.
La presenza del campo di bias può ridurre significativamente l‘accuratezza della
segmentazione e della registrazione dell‘immagine, e quindi comportare una diminuzione
dell‘attendibilità delle successive misure quantitative.
Un‘immagine con un alto campo di bias è rappresentata nella Figura 19, da cui si può
notare come l‘intensità varia significativamente per i pixel corrispondenti ad uno stesso
tessuto. Una volta calcolato il campo di bias, esso può essere adoperato per la correzione
dell‘immagine.
L‘inomogeneità delle intensità non sempre è evidente per un osservatore umano, ma molti
metodi di analisi di immagini mediche sono altamente sensibili a queste false variazioni di
intensità. Proprio per questo motivo è importante avere degli algoritmi per la correzione di
questo artefatto.
Nella Tesi questo problema non verrà trattato, in quanto vi sono già dei software che
effettuano automaticamente la correzione. Sarà però necessario adoperare questi software nella
parte applicativa, in quanto la rimozione del campo di bias è conditio sine qua non per la
riuscita degli algoritmi di coregistrazione, segmentazione, e standardizzazione degli
istogrammi di intensità, descritti nei prosieguo della Tesi.
39
(a) Immagine originale
(b) Campo di Bias
(c) Immagine corretta
Figura 19: inomogeneità dell’intensità in un’immagine MR del cervello
CLASSE II: Standardizzazione dell’intensità
Teoricamente in un‘immagine, dopo aver applicato con successo un algoritmo per la
correzione del campo di bias, tutte le classi di tessuto con lo stesso segnale di intensità
dovrebbero avere identici range di valori di grigi. Come anticipato, sfortunatamente questo
risultato non si verifica, perciò non è possibile assegnare un significato anatomico alle
intensità osservate.
Questo problema si evidenzia sia nelle immagini di pazienti differenti ottenute con lo
stesso protocollo MRI ma con macchinari diversi, sia nelle immagini acquisite con lo stesso
dispositivo ma in momenti differenti.
Della soluzione al problema si occupa la restante parte della Tesi.
La mancanza di una scala d‘intensità standard causa molte difficoltà nella visualizzazione
e nell‘analisi dell‘immagine. [16] Ad esempio non è possibile rappresentare le immagini in
una finestra di grigi regolata in anticipo, ma bisogna adattarle quest‘ultima manualmente per
ogni nuovo caso, e un confronto accurato tra immagini diverse risulta sempre difficoltoso e
parzialmente soggettivo. Sarebbe invece opportuno che, per gli stessi protocolli, le immagini
risultanti fossero simili tra loro, sia a vantaggio del radiologo che le esamina, sia per il
trattamento automatico attraverso programmi di elaborazione quali i sistemi CAD (Computer
Assisted Detection). Per questo motivo si potrebbe pensare di incorporare uno
standardizzatore nel flusso di acquisizione o durante il processamento di un immagine. Esso
potrebbe essere inglobato nel dispositivo di imaging che, durante il tempo di acquisizione,
sarebbe dunque capace di produrre immagini già standardizzate, o potrebbe essere usato in
una fase successiva di post-processamento.
40
A differenza del problema dell‘inomogeneità delle intensità (campo di bias), che è stato
ampiamente studiato e per il quale esistono svariate soluzioni, la standardizzazione non ha
ricevuto la stessa attenzione, nonostante la sua soluzione sia altrettanto importante e
necessaria.
Figura 20: inomogeneità inter e intra scansione. Riga superiore: a sinistra si mostra una scansione
originale di un paziente, a destra la stessa scansione dopo aver corretto il campo di bias. Riga
inferiore: si riportano le scansioni di due pazienti differenti: si nota che stesse zone anatomiche
presentano valori di intensità differenti.
La relazione tra il problema del campo di bias, e la mancanza di un segnale di intensità
standardizzato, può essere osservata in Figura 20, da cui si può constatare come gli algoritmi
di correzione dell‘inomogeneità influenzino il segnale delle intensità localmente, mentre i
metodi di standardizzazione debbano variare l‘intensità globalmente.[18]
41
Metodi per la standardizzazione dell’intensità: breve rassegna
In questo paragrafo si illustrano alcuni metodi per la standardizzazione delle intensità,
reperibili in letteratura.
Standardizzazione tramite landmark
Il metodo proposto da Nyul et al., [16, 20] è basato sull‘analisi degli istogrammi
unidimensionali dei livelli di grigio delle immagini da standardizzare, e sull‘applicazione di
una funzione lineare a tratti ai valori di grigio dei voxel, che trasforma gli istogrammi in modo
che siano tra loro simili.
In questo approccio al problema, le immagini vengono dunque modificate attraverso un
processo non lineare con lo scopo di ottenere immagini finali simili tra loro nel senso della
distribuzione dei grigi, ossia in cui tutte le immagini, indipendentemente dai pazienti e dalla
specifica marca dei dispositivi MRI utilizzati per l‘acquisizione, sono trasformate in modo
tale che, per un determinato protocollo e per una specifica regione del corpo, intensità simili
potranno essere associate ad uno stesso tessuto anatomico.
Il procedimento è diviso in due fasi, nel primo step si individuano dei landmark
(parametri di riferimento) su un set di istogrammi utilizzati come training. I landmark
vengono poi mediati per generare un set di parametri da impostare come standard. Nella
seconda fase, sia le immagini usate per individuare i landmark standard (medi), che le nuove
immagini in seguito acquisite, sono standardizzate mappando i loro landmark sulle posizioni
standard precedentemente calcolate.
In un primo lavoro il parametro di riferimento utilizzato per la trasformazione era
individuato dalla moda dell‘istogramma; se l‘istogramma presentava più di un massimo
relativo, tutti i punti di massimo erano presi in considerazione. In uno studio successivo è
stato dimostrato che la moda non è un landmark robusto, e quindi è stata proposta una
variante in cui la moda è sostituita dalla mediana e da altri percentili.
Questo metodo è stato valutato su neuroimmagini, ma può anche essere applicato ad altre
regioni del corpo. Naturalmente per ogni nuova regione o nuovo protocollo di acquisizione
devono essere identificati i parametri (landmark) appropriati.
Siccome il metodo qui accennato è alla base di quello proposto in questa Tesi, esso verrà
trattato in dettaglio al termine di questa breve rassegna.
42
Miscela di gaussiane
Un altro criterio di standardizzazione basato sullo studio degli istogrammi è stato
proposto da Pierre Hellier.[21] Questo metodo è, così come quello descritto in precedenza,
completamente automatico..
Il metodo consiste nello stimare una miscela di gaussiane che approssima l‘istogramma
delle intensità (supponendo che ciascun tipo di materia sia descrivibile con una distribuzione
gaussiana) e nel calcolare la correzione parametrica dell‘intensità necessaria per allineare
l‘intensità media dei tessuti anatomici.
Date due immagini I1 e I2 e i rispettivi istogrammi h1 e h2, l‘obiettivo è stimare una
funzione di correzione f tale che i corrispondenti tessuti anatomici di f (I1) e f (I2) abbiano la
stessa intensità, ossia tale che l‘intensità corrispondente alla materia grigia (GM), alla materia
bianca (WM) e al liquido cerebrospinale (CSF) relativi a f (I1) coincidano rispettivamente con
l‘intensità di GM, WM e CSF associati a f (I2).
Per assicurare la coerenza, si stima una miscela di n distribuzioni Gaussiane che
modellano i due istogrammi h1 e h2 utilizzando un algoritmo iterativo.
Nel caso dello studio di immagini del cervello si utilizzano usualmente cinque
distribuzioni gaussiane che modellano le principali classi che si riscontrano nell‘immagine: lo
sfondo, CSF, GM, WM e grasso.
Per ogni classe di tessuto k, si ottiene il centro della distribuzione µk per l‘immagine I1 e νk
per I2.
Successivamente, per allineare le intensità dei tessuti anatomici e per interpolare la
correzione, si considera una funzione di correzione polinomiale di grado p, che viene
applicata al valore x del grigio dei pixel:
p
f p ( x)    i x i
i 0
dove i coefficienti  sono stimati in modo da minimizzare la seguente funzione di costo
secondo il tipico schema di un problema ai minimi quadrati:
n
( f
k 1
p
(k )  k ) 2
La funzione di correzione così trovata, essendo polinomiale, è una mappatura smooth.
Quest‘approccio è ristretto alla sola regione della testa, in quanto solo in questa regione si
possono distinguere classi di tessuto in numero così limitato.
43
Minimizzazione della divergenza di Kullback-Leibler
Bergeest e Jäger [22] propongono un metodo combinato per la correzione delle
inomogeneità e la standardizzazione delle intensità. Esso si basa sulla stima di un campo di
correzione moltiplicativo che adatta le statistiche delle intensità di grigi di un volume MR ad
un modello precedentemente acquisito. Come modello si utilizza l‘istogramma di
un‘immagine acquisita in precedenza con opportune proprietà.
In questo processo si modella dapprima la presenza della variazione d‘intensità (campo di
bias) attraverso l‘espressione:
O  FI  n
In cui si indica con:

O l‘immagine osservata, da correggere, affetta da un campo moltiplicativo F e da
rumore n;

F la correzione moltiplicativa dell‘intensità (che agisce singolarmente sui pixel);

n il rumore;

I l‘immagine corretta.
Poiché n è usualmente di frequenza spaziale elevata rispetto ad F e di grandezza
relativamente piccola in confronto ad I, il rumore può essere trascurato.
Quindi il risultato che si vuole ottenere è  ≈  −1 ; è corretto che  −1 abbia una bassa
frequenza spaziale, in quanto con questa assunzione il procedimento preserva il contrasto
locale che definisce le aree anatomiche d‘interesse.
Infine si trovano i parametri, relativi al campo utilizzato per la correzione dell‘intensità,
che minimizzano la cosiddetta divergenza di Kullback-Leibler4 tra l‘immagine corretta e
l‘immagine di riferimento:
arg min
p k log 2  p k q k 
1 
F
k
dove:

pk è la probabilità che nell‘immagine corretta  −1  il segnale d‘intensità si trovi
nello stato k (istogramma normalizzato di F-1O)

qk è la probabilità che nell‘immagine di riferimento M il segnale d‘intensità si
trovi nello stato k (istogramma normalizzato di M)
4
La divergenza di Kullback-Leibler, anche denominata entropia relativa, è un indice di similarità adoperato
per quantificare le differenze esistenti tra popolazioni: si usa in statistica e in teoria dell‘informazione per
confrontare due distribuzioni, una considerata ―vera‖, e una arbitraria. Essa non è considerabile una vera
distanza, in quanto non simmetrica: K(p,q) ≠ K(q,p).
44
Questo processo può essere utilizzato sia per le scansioni del cervello che per altre regioni
del corpo.
Metodo di standardizzazione tramite Landmark: dettagli
In questo paragrafo sono discussi i dettagli del metodo di standardizzazione tramite
landmark, [16, 20] al quale si è accennato nella parte di breve rassegna. Esso infatti è alla
base del lavoro sperimentale di cui tratterà il prossimo capitolo.
Questo metodo, come accennato, attua la trasformazione di un istogramma di intensità di
un immagine data, in un istogramma standard. Esso consta di due fasi: una di training ed una
di trasformazione.
Nella fase di training viene usato come input un set di immagini di una stessa regione del
corpo, acquisite con il medesimo protocollo. Da questo gruppo di immagini vengono stimati i
landmark di un istogramma ―standard‖. I landmark possono essere di varia natura: i punti di
massimo, particolari percentili, etc, e portano alla determinazione dei parametri della
trasformazione. Questo step viene eseguito una sola volta per un determinato protocollo e per
una specifica regione del corpo, su un numero di immagini (tipicamente, parecchie decine)
sufficientemente rappresentativo della popolazione delle immagini che saranno in seguito
trattate.
Nella fase di trasformazione ogni immagine acquisita con lo stesso protocollo e per la
stessa regione del corpo utilizzati nel primo step è trasformata in modo tale che i parametri del
suo istogramma combacino con quelli dell‘istogramma standard. I valori di grigio dei
landmark sono mappati su quelli standard, mentre i livelli intermedi sono mappati
linearmente. La trasformazione globale è quindi lineare a tratti. In questa maniera
l‘istogramma di ogni immagine è mappato su quello di riferimento.
La fase di trasformazione (non quella di training!) deve essere naturalmente ripetuta per
ogni nuova immagine acquisita.
La trasformazione applicata per la standardizzazione è evidentemente non lineare.
Tuttavia le relazioni tra le intensità dei tessuti vengono conservate e quindi il confronto delle
intensità può essere effettuato utilizzando le immagini standardizzate.
Seguono i dettagli del metodo, come formalizzati negli articoli citati.
45
Notazione
Si denoti con  = 1 , 2 , … ,  il set di protocolli MRI e con  = 1 , 2 , … , 
l‘insieme delle regioni del corpo considerate. Si indichi un‘immagine del volume con una
coppia  = ,  , dove V è un array tridimensionale dei voxel che ricoprono la regione del
corpo di un particolare paziente per il quale l‘immagine  è acquisita, e  è una funzione,
chiamata funzione di intensità, che assegna un valore di intensità intero per ogni voxel  ∈ .
Si assuma che () ≥ 0 per tutti i  ∈  e   = 0 se e solo se non vi sono dati misurati per
il voxel . Quindi con  si indica l‘insieme di tutte le immagini rappresentanti una regione
del corpo  ∈  e che sono state acquisite utilizzando un protocollo  ∈ .
L‘istogramma di ogni immagine  sia rappresentato dalla coppia ℋ = (, ℎ), dove  è il
range di tutti i possibili valori di intensità in , e
è una funzione il cui dominio è  e il cui
valore per ogni  ∈  è il numero di voxel  ∈  per cui   = . Siano
1 = min ()  ∈     > 0 e 2 = max ()  ∈     > 0 rispettivamente
il valore minimo e massimo in .
Procedimento
Nel caso di immagini di risonanza magnetica trattate dagli autori in [16, 20], si osservano
principalmente due tipi di istogrammi: unimodale e bimodale. Nello studio di questi
istogrammi la scelta dei landmark è un fattore molto importante, che incide notevolmente sul
risultato della standardizzazione.
Figura 21: esempi di istogrammi ottenuti da immagini cerebrali MRI e riportati in [16]; nel caso
dell’istogramma a sinistra (bimodale) il riferimento adottato è la seconda moda; nell’istogramma a
destra, praticamente unimodale, è scelto come landmark la spalla del primo picco (), dove per
spalla si intende il punto con pendenza -1. In entrambi i casi, il grosso picco a sinistra contiene
soprattutto voxel di sfondo.
46
In [20] gli autori usano come landmark, nel caso di istogrammi bimodali, la seconda
moda  che corrisponde all‘oggetto in primo piano (toni di grigio più chiari), perché la moda
vera e propria dell‘istogramma (il punto di massimo assoluto) corrisponde alla sfondo Per gli
istogrammi unimodali, non potendo appunto considerare la moda, si sceglie di usare come
landmark la spalla della seconda moda, definita come l‘ascissa ove la tangente all‘istogramma
ha pendenza pari a -1.
In [16], d‘altra parte, si dimostra che utilizzare solo la moda come parametro per la
standardizzazione rende il metodo poco robusto. Infatti in alcuni istogrammi la moda
corrisponde all‘intensità relativa alla materia grigia, in altri casi all‘intensità dovuta alla
materia bianca, in altri ancora a intensità intermedie tra GM e WM. Quindi, nel momento in
cui si mappa la moda nella scala standard, non si conosce esattamente cosa si sta mappando.
Per ovviare a questo problema, nel medesimo articolo si considerano come landmark, anche
nel caso di istogrammi bimodali, i percentili. Nel prosieguo esponiamo la procedura estesa al
caso dei percentili.
In un istogramma i primi parametri che vengono determinati sono quelli corrispondenti al
minimo e al massimo valore di percentile, 1 e 2 rispettivamente (valori scelti
arbitrariamente, ad esempio 1 = 5° percentile e 2 = 95° percentile), che delimitano il
range di intensità di interesse, IOI. In questo modo vengono tagliate le code dell‘istogramma
che spesso causano diversi problemi: ad esempio la coda relativa alle alte intensità può
corrispondere ad artefatti che provocano variazioni nelle scansioni inter ed intra paziente.
I valori di intensità corrispondenti a 1 e 2 nell‘istogramma ℋ sono indicati con 1 e
2 .
Ecco come esempio alcuni possibili gruppi di landmark.
1 = 1 , 2,  .
2 = 1 , 2, 10 , 20 , … , 90
(1)
in cui:

 , con  ∈ 10,20, … ,90 , è il p-mo percentile in un istogramma di un‘immagine
considerata;

 rappresenta la seconda moda (considerando la prima inutile in quanto relativa ai
pixel di sfondo).
47
Fissati i landmark, ossia l‘insieme L opportuno, e un‘immagine  , indichiamo con p1j e
p2j i grigi corrispondenti ai percentili pc1 e pc2 nell‘immagine  , mentre 1j, 2j, … etc sono i
livelli di grigio corrispondenti ai percentili 10, 20, … etc.
Si ricorda, come già accennato, che la procedura consiste di due parti: una fase di training
e una di trasformazione, di seguito dettagliate.
Nella fase di training, i parametri, 1 , 2 , 1 , 2 , … ,  , ottenuti (una volta fissato
uno dei gruppi L di landmark dell‘eq.1) dagli istogrammi di ogni immagine  , sono mappati
nella scala standard (arbitraria!) attraverso una trasformazione lineare delle intensità da
1 , 2 a 1 , 2 , dove 1 e 2 rappresentano rispettivamente il minimo ed il massimo
valore delle intensità che delimitano la IOI nella scala standard (Figura 22).
Figura 22. Rappresentazione grafica della creazione della scala standard
La formula che si utilizza per mappare  ∈ [ , +1  ] in  ′ sulla scala standard è la
seguente:
x  k j 
x  k j
k 1 j  k j
( k 1 j  k j )
per convenzione si è posto 0 j  p1 j , 0 j  s1 ; l 1 j  p2 j , l1 j  s2
A questo punto, ciascun valore di grigio kj (grigio corrispondente al percentile k0
dell‘immagine j-ma) è stato proiettato nella scala standard, sul valore ’kj.
Terminata quest‘operazione su tutte le immagini di training, per ogni , con 1 ≤  ≤ , si
calcola la media  di ciascun landmark  ottenuto per ogni immagine  .
48
E‘ stata a questo punto costruita una scala standard dei grigi corrispondenti ai landmark.
Essa è limitata dai valori s1 e s2, e comprende un insieme di valori di grigio ks (si veda ancora
la Figura 22).
Avviene ora la fase di trasformazione, applicata sia a tutte le immagini già adoperate per
il training, sia ad ogni nuova immagine.
Nello step di trasformazione, per ogni immagine  si mappa la reale posizione dei
parametri  nei corrispondenti valori  attraverso una trasformazione lineare a tratti (in
pratica una interpolazione), come mostrato in Figura 23, ossia [1 , 1 ] in [1 , 1 ], [1 , 2 ]
in [1 , 2 ],…., [ , 2 ] in [ , 2 ].
Figura 23: rappresentazione grafica della trasformazione lineare a tratti
49
Inoltre si determina il valore standardizzato della minima e della massima intensità
dell‘immagine i-ma mappando m1i e m2i in s’1i e s’2i con la seguente espressione (estrapolante):
s1  1s

1s  ( x  1i ) p   , se m1i  x  1i

1i
1i
 vi ( x )  
s


ls
  ( x   ) 2
, se li  x  m2i
li
 ls
p2i  li
I valori s’1i e s’1i dipendono dall‘immagine  considerata, a differenza dell‘intervallo
1 , 2 , che rappresenta il range in cui si ottiene la standardizzazione delle intensità.
Giunti a questo punto, le immagini sono state normalizzate su una scale standard
arbitraria, con il risultato che i toni di grigio corrispondenti a tessuti simili in immagini
diverse, sono simili, e quindi le immagini possono essere direttamente confrontate.
Limiti del metodo
Il metodo di standardizzazione esposto non è esente da difetti. Siccome, infatti, le scale di
grigio iniziali non sono legate da relazioni ben definite e note, può succedere ad esempio che,
in una delle immagini, voxel appartenenti a tessuti di tipo diverso siano rappresentati da valori
uguali di grigio, mentre in un‘altra immagine ciò non si verifichi. A questo punto,
evidentemente i landmark nelle due immagini rischiano di avere significato fisico diverso e
non coerente, e quindi non possano essere confrontabili e dunque utilizzabili nel processo di
training: si rischierebbe, infatti, di mescolare in talune immagini tipi di materia diversi.
Poiché questa situazione non può essere conosciuta a priori, il sistema rischia di fallire
nel compito di creare una scala comune a tutte le immagini veramente utile per i confronti.
Una soluzione, che lascia distinti in partenza i vari tipi di materia (WM, GM, CSF) e
quindi non rischia di introdurre artefatti di questo tipo, è segmentare le immagini nelle tre
classi di materia prima di procedere alla standardizzazione, che verrà quindi compiuta
all‘interno di ciascuna classe e non sull‘intera immagine. In questo modo, la probabilità di
introdurre artefatti è fortemente diminuita.
Questa è la strada seguita nel Capitolo 4. Prima di vederne i dettagli, occorre però
introdurre e descrivere alcune operazioni tipiche dell‘image processing.
50
Operazioni rilevanti per la procedura completa di standardizzazione
Come sarà esposto in dettaglio nel Capitolo 4, dedicato alla procedura software impiegata in
questa Tesi per la standardizzazione degli istogrammi dei grigi, sono necessarie, per la
realizzazione di un sistema basato sulla pre-segmentazione nelle tre materie principali
costituenti il cervello (bianca, grigia e liquido cerebrospinale), due operazioni tipiche di
processamento delle immagini: la coregistrazione, e la segmentazione. Per questa ragione,
dette operazioni sono trattate brevemente nei prossimi paragrafi.
Coregistrazione
Col termine coregistrazione si intende un insieme di metodi automatici o semiautomatici
che correlano spazialmente la posizione reciproca di due (o più) immagini del medesimo
soggetto, acquisite o in tempi differenti o con tecniche di imaging diagnostico diverse. Le due
immagini sono dette immagine d‘origine (o mobile) e immagine di riferimento (o fissa, o
target); la procedura di coregistrazione permette di individuare la trasformazione spaziale che,
applicata pixel per pixel all‘immagine d‘origine, porta quest‘ultima ad assomigliare
all‘immagine di riferimento (Figura 24).
La coregistrazione può anche essere realizzata solo in base a una parte di ciascuna
immagine, come quando si desidera raccordare immagini telerilevate di zone limitrofe della
Terra, che siano parzialmente sovrapposte (Figura 25) oppure quando si voglia sfruttare la
coregistrazione per individuare, in un‘immagine più grande, un oggetto rappresentato in una
più piccola (e.g. un dettaglio anatomico).
La coregistrazione può essere effettuata attraverso una trasformazione rigida, se il
soggetto dell‘immagine d‘origine deve essere semplicemente ruotato e/o traslato in modo da
ottenere una buona corrispondenza;[23] se una trasformazione comprende anche operazioni
diverse, allora si dice non rigida.
Un tipo importante di trasformazione non rigida, usata nella coregistrazione di immagini,
è la trasformazione affine, che considera, oltre ai parametri utilizzati nella rigida, anche fattori
di scala e shear (stiramento) (Figura 26, dove le trasformazioni componenti una mappatura
affine sono rappresentate nello spazio 2D). Le trasformazioni affini sono utili per correggere
51
parzialmente le differenze di calibrazione, ottenute acquisendo immagini con dispositivi
differenti.
Figura 24: Schema di coregistrazione.[23] L’immagine d’origine (immagine mobile, indicata come
source) è trasformata avendo per modello quella fissa (target). Dapprima è ruotata, poi è applicata
una scalatura globale (isotropa nelle due dimensioni) e infine, grazie a una trasformazione non
rigida, locale, non lineare, diventa il più possibile simile all’immagine fissa
Per la registrazione di neuroimmagini è spesso sufficiente una trasformazione rigida o al
più affine, perché la forma, la dimensione, e la posizione del cervello variano poco da una
scansione ad un altra.
La coregistrazione non è naturalmente fine a stessa, ma è un valore aggiunto
all‘immagine: essa permette, di visualizzare e analizzare immagini, sia funzionali che
strutturali, anche di diversa risoluzione, in uno stesso sistema di riferimento; inoltre è utile per
monitorare e quantificare l‘evoluzione di malattie.
In alcuni settori applicativi è diventato uno strumento fondamentale: analisi affidabili di
immagini MRI del cervello richiedono la coregistrazione per correggere piccole variazioni
dovute ai movimenti che il paziente ha effettuato nel momento dell‘esame; le tecniche di
morfometria basata sui voxel (VBM, Voxel-Based Morphometry) utilizzano immagini
coregistrate per avere immagini del cervello (usualmente di centinaia di pazienti) in un
sistema di coordinate comune per tutti.
52
Figura 25: Coregistrazione di immagini telerilevate; in questo caso l'immagine mobile (in alto a
destra) condivide solo parte del soggetto con quella fissa.
La corrispondenza tra le immagini, ottenuta attraverso rotazioni, traslazioni o stiramenti,
può essere usata per cambiare l‘aspetto di un immagine, in modo tale che questa risulti molto
simile ad un‘altra utilizzata come riferimento, ottenendo così la possibilità di effettuare
direttamente confronto e analisi.
Nella coregistrazione l‘immagine di riferimento rimane stazionaria mentre l‘altra,
l‘mmagine d‘origine, viene trasformata spazialmente finché non si sovrappone a quella di
riferimento. Per ottenere la trasformazione è necessario mappare le posizioni di ogni voxel
dell‘immagine di riferimento nelle corrispondenti posizioni dell‘immagine d‘origine; in
questo modo l‘immagine d‘origine è rimodellata nelle nuove posizioni.[24]
Per effettuare la mappatura si richiede la stima di un set di parametri di trasformazione.
Ad esempio in una trasformazione rigida tridimensionale si hanno sei parametri: tre relativi
alle traslazioni e tre alle rotazioni, mentre in una trasformazione affine i parametri utilizzati
53
sono dodici: tre relativi alle traslazioni, tre alle rotazioni, tre alle scalature (indipendenti sui
tre assi) e tre alla deformazione (shear).
Figura 26: rappresentazione grafica delle possibili componenti di una trasformazione affine (in 2D)
Trasformazioni affini
Le trasformazioni affini sono trasformazioni lineari, che preservano:

la collinearità: punti appartenenti a una linea retta giacciono ancora su una linea
retta dopo la trasformazione

il rapporto tra le distanze: il punto medio di un segmento rimane, dopo la
trasformazione, il punto medio dello stesso segmento trasformato.
Le trasformazioni geometriche ad essa associate sono rotazione, traslazione, scalatura e
deformazione (shear). Le trasformazioni affini includono quelle rigide in quanto quest‘ultime
consistono nelle sole operazioni di rotazione e traslazione.
In un‘immagine 3D, per ogni punto (1 , 2 , 3 ) una mappatura affine può essere definita
nelle coordinate di un altro spazio (1 , 2 , 3 ) attraverso le seguente espressioni[25]:
1 = 11 1 + 12 2 + 13 3 + 14
2 = 21 1 + 22 2 + 23 3 + 24
3 = 31 1 + 32 2 + 33 3 + 34
che possono essere scritte anche sotto forma matriciale:
 y1  m11 m12
 y  m
 2    21 m22
 y 3   m31 m32
  
0
1  0
m13
m23
m33
0
m14   x1 
m24   x 2 
m34   x3 
 
1  1 
Vediamo in dettaglio i possibili parametri di una trasformazione affine.
54
Traslazioni
Se un punto x deve essere traslato di un‘unità q, allora la trasformazione che si deve
applicare è:
yi = xi + qi
(i = 1, 2, 3)
o, in termini matriciali:
 y1  1
 y  0
 2  
 y 3  0
  
 1  0
0
1
0
0
0 q1   x1 
0 q 2   x 2 
1 q 3   x3 
 
0 0  1 
Rotazioni
Nel caso 2D la rotazione avviene intorno a un singolo angolo.
Si consideri un punto di coordinate (1 , 2 ) in uno spazio bidimensionale. Una rotazione
di angolo  può essere generata dalla seguente trasformazione:
y1  cos( ) x1  sin( ) x2
y 2   sin( ) x1  cos( ) x2
Nello spazio 3D vi sono tre piani ortogonali in cui l‘oggetto può ruotare e la
trasformazione avviene rispetto a un asse fisso non necessariamente coincidente con uno degli
assi. In questo caso gli angoli di rotazione rispetto agli assi, che producono la rotazione 3D
desiderata, si chiamano angoli di Pitch, di Roll e di Yaw (Figura 27).
55
Figura 27: Angoli di yaw (imbardata), pitch (beccheggio) e roll (rollio)
Una rotazione di angolo 1 rispetto all‘asse x, è chiamata pitch e può essere espressa nel
seguente modo:
0
0
 y1  1
 y  0 cos(q ) sin(q )
1
1
 2  
 y 3  0  sin(q1 ) cos(q1 )
  
0
0
 1  0
0  x1 
0  x 2 
0  x3 
 
1  1 
Analogamente, le rotazioni intorno all‘asse y e all‘asse z, denominate rispettivamente roll
e yaw, si possono ottenere utilizzando le seguenti matrici:
 cos(q 2 )

0

 sin(q 2 )

0

0 sin(q 2 )
1
0
0 cos(q 2 )
0
0
0
0
0

1
 cos(q3 ) sin(q3 )
 sin(q ) cos(q )
3
3


0
0

0
0

0
0
1
0
0
0
0

1
La matrice di rotazione complessiva si ottiene moltiplicando queste matrici nell‘ordine
appropriato (ricordando che le rotazioni nello spazio tridimensionale non commutano).
56
Ingrandimenti
Gli ingrandimenti sono necessari per cambiare la grandezza delle immagini (anche in
maniera anisotropa, ossia diversamente nelle tre direzioni dello spazio) e per lavorare su
immagini i cui voxel hanno grandezze diverse o non sono isotropici.
Questo cambiamento di scala lungo gli assi ortogonali si rappresenta nel modo seguente:
 y1  q 0
 y  0 q
2
 2  
 y3  0 0
  
 1  0 0
0
0
q3
0
0  x1 
0  x 2 
0  x 3 
 
1  1 
Shear
Lo shear è una particolare trasformazione di deformazione (detta anche di taglio) in cui i
punti di una particolare linea retta l rimangono fissi mentre altri punti appartenenti a rette
parallele ad l vengono traslati, in maniera proporzionale alla distanza tra le due rette, e nella
direzione delle rette medesime. In Figura 28 si può osservare un esempio di trasformazione di
taglio.
Figura 28: esempio di trasformazione di deformazione
Una trasformazione di deformazione è rappresentata dalla seguente matrice, in cui
1 , 2 , 3 sono i parametri di taglio:
1 q1
0 1

0 0

0 0
q2
q3
1
0
0
0
0

1
57
Interpolatori
Gli spazi in cui sono definite le immagini digitali sono, naturalmente, discreti.
Conseguentemente, i centri dei voxel sono vincolati a giacere sui nodi di una griglia, più o
meno fitta a seconda della risoluzione. Quando un punto viene mappato dallo spazio di
un‘immagine a quello di un‘altra attraverso una trasformazione (ad esempio nel corso della
coregistrazione), esso generalmente non si posiziona con precisione sulla griglia
dell‘immagine di arrivo.[24] E‘ quindi necessario utilizzare un interpolatore per determinare i
valori di grigio sulla griglia in base a quelli (eventualmente) fuori griglia provenienti dalla
trasformazione dell‘immagine di partenza.
La scelta degli interpolatori comporta variazioni nel costo computazionale dell‘algoritmo,
quindi risulta importante scegliere un interpolatore capace di bilanciare la qualità con la
velocità di esecuzione.
Un primo approccio è rappresentato dal metodo Nearest Neighbor Interpolator (Figura
30), che semplicemente assegna al voxel interpolato (quello giacente sulla griglia) l‘intensità
del voxel trasformato ad esso più vicino, assumendo a priori che l‘intensità di grigio si
conservi per piccoli intorni del voxel in esame; sebbene il metodo abbia il vantaggio di
preservare i valori dei grigi iniziali, l‘immagine finale così ricampionata non è generalmente
smooth in quanto, in caso soprattutto di ingrandimenti e forti shear, tende ad assumere un
aspetto ‗a blocchi‘.
Un altro metodo (in 3D) è basato sull‘interpolazione trilineare; essa presenta un tempo di
esecuzione più lungo rispetto al precedente, ma l‘immagine risultante è smooth, talvolta anche
in maniera eccessiva, in quanto può verificarsi la perdita dei dettagli più fini (di alta
frequenza).[25]
In
Figura
29
Si
illustra
l’interpolazione
bilineare,
versione
bidimensionale
dell‘interpolazione trilineare. Si assume che ci sia una griglia regolare di pixel. Volendo
calcolare il valore di grigio T, si usa dapprima l‘interpolazione lineare per calcolare il valore
di Ta e Tb, e poi si determina il valore T interpolando nuovamente Ta e Tb. Ogni volta è
effettuata una media pesata dei valori dei pixel, in cui i pesi sono legati alle distanze tra i
pixel. L‘estensione al caso 3D è immediata.
58
Figura 29: illustrazione dell’interpolazione bilineare, equivalente alla trilineare per il caso 2D. I
punti indicati con T1-T4 rappresentano la griglia originale dei pixel (Ti è il valore di grigio nel punto
i-mo). Il valore T è quello da determinare; i valori Ta e Tb sono risultati intermedi usati per il calcolo.
http://didattica.arces.unibo.it/file.php/59/Elaborazione_dellImmagine_L-S/Materiale_Didattico/Interpolazione_Bilineare.pdf
di Luigi Di Stefano.
Figura 30: Metodi di interpolazione; l'immagine originale (a sinistra) è stata ingrandita 5 volte:
conseguentemente la risoluzione della griglia di pixel è aumentata, ed è stato necessario ricorrere a
un interpolatore;l’immagine al centro è stata calcolata tramite Nearest Neighbor (NN), quella a
destra con interpolazione bilineare. E’ evidente la scarsa qualità dell’interpolatore NN, il quale però,
a suo vantaggio, non “inventa” nulla, dando in output solo i valori di grigio presenti in input.
Metodi di registrazione
Prima di individuare le trasformazioni necessarie per la coregistrazione, è necessario
misurare la similarità delle immagini su cui si vuole applicare la coregistrazione; in base alla
59
similarità, si varieranno i coefficienti delle trasformazioni iterativamente, in modo da ottenere
il massimo di somiglianza tra l‘immagine mobile trasformata, e l‘immagine fissa.
La misura della similarità può essere effettuata con un approccio geometrico (label based)
o con un approccio basato sui valori delle intensità (intensity based).[26]
Nel metodo geometrico (spesso denominato point based) si identifica a priori un insieme
di elementi (punti, linee o superfici) corrispondenti tra le immagini da registrare; gli elementi
vengono etichettati e si calcola la similarità tra le immagini in base alla distanza euclidea tra
ciascun elemento di riferimento in un‘immagine e il suo corrispondente nell‘altra. Si cerca
successivamente la trasformazione che permette di ottenere la migliore sovrapposizione delle
immagini, ottimale quando gli elementi etichettati nell‘immagine mobile si sovrappongono il
più possibile (compatibilmente con il tipo di coregistrazione richiesto: rigida, affine etc) a
quelli dell‘immagine fissa.
Poiché tali punti vengono considerati precisi e la loro posizione reputata esatta per
definizione, essi vengono denominati punti fiduciali (fiducial points), o più spesso markers.
Per essere effettivamente utilizzabili, i marker devono solitamente risiedere in zone
facilmente individuabili, le cosiddette fiducial features.
I riferimenti possono essere di natura anatomica, come il punto di intersezione tra due
strutture lineari (esempio: biforcazione di un vaso); questi vengono identificati visivamente,
comportando un dispendio di tempo non indifferente e una valutazione soggettiva, oppure in
maniera automatica da un sistema di image processing opportuno.
I riferimenti possono anche essere individuati piazzando marker estranei all‘anatomia da
analizzare (reperi); essi devono risultare facilmente individuabili dagli algoritmi di
registrazione.
Questi elementi di riferimento saranno, all‘inizio, inevitabilmente disallineati tra le due
immagini; la misura dell‘errore di allineamento in ciascuna coppia di marker è usualmente
indicata con il termine fiducial localization error (FLE), per cui la coppia i-ma sarà
caratterizzata dal valore FLEi (Figura 31).
La procedura di coregistrazione prevede la minimizzazione del Fiducial Registration
Error (FRE), tipicamente una misura quadratica del tipo:
1 N
FRE   i2 Rx i  t  yi
N i 1
2
2
con
i 
1
 FLEi2 
dove si è supposto che la trasformazione desiderata sia rigida, ossia una rototraslazione data
dalla coppia (R, t), e che la posizione degli N marker sull‘immagine mobile sia xi, mentre
quella sull‘immagine fissa sia yi,
60
Figura 31: schematizzazione della registrazione point-based illustrante il Fiducial Localization Error;
i punti neri rappresentano le posizioni in cui ciascun punto grigio dovrebbe spostarsi per ottenere la
coregistrazione.
Questo metodo consente di raggiungere un buon livello di accuratezza; esso tuttavia
necessita usualmente dell‘intervento umano per l‘individuazione dei marker, che
costituiscono la base di partenza per la corretta registrazione: l‘individuazione di marker in
maniera automatica è infatti spesso poco affidabile.
Per questo motivo sono stati cercati delle tecniche alternative, dette intensity based, che
sono la classe di metodi maggiormente diffusi allo stato attuale tra tutti gli approcci alla
registrazione di immagini. Essi lavorano direttamente sui voxel e determinano la
trasformazione geometrica tra due immagini ottimizzando iterativamente un‘opportuna
funzionale di similarità, calcolata sulla base dei valori di grigio di tutti voxel dell‘immagine.
La funzione di similarità fornisce una misura quantitativa del grado di allineamento di due
immagini, e quindi della bontà della coregistrazione.
Un modo per definire la misura di similarità è basato sul calcolo della somma dei quadrati
delle differenze dei livelli di grigio, voxel per voxel, grandezza denominata Sum of Square
Differences (SSD); la SSD avrà valore pari a zero in caso di corretto allineamento, e assumerà
valori crescenti al crescere del disallineamento tra le immagini. E‘ una misura adatta a quei
casi in cui le due immagini da registrare sono identiche, fuorché per un lieve disallineamento:
61
N
SSD( A, B)   ( Ai  Bi ) 2
i 1
Ai e Bi rappresentano l‘i-mo pixel delle immagini A e B rispettivamente.
Se il valore risultante è elevato allora vi è una scarsa corrispondenza tre le immagini.
Alcune applicazioni reali risultano effettivamente vicine al caso ideale; ad esempio nello
studio della degenerazione di patologie mediante scansioni MR eseguite in tempi successivi,
una relativamente piccola porzione dei valori di grigio subirà dei cambiamenti significativi.
La debolezza di questo approccio si presenta qualora l‘entità dei cambiamenti diventa troppo
ingente e, nonostante questi siano limitati a ristrette regioni di interesse, la misura della SSD
ne risente in maniera sostanziale.
La Figura 32 mostra un caso reale, ottenuto tramite coregistrazione non rigida su
neuroimmagini.
Figura 32: Esempio di coregistrazione non rigida su volumi T1 in MRI. Il Subject 1 è l’immagine
fissa, il Subject 2 la mobile; la terza riga mostra l’effetto di una coregistrazione non rigida del
Subject 2 sul Subject 1. Le principali strutture anatomiche sono state messe in corrispondenza.
62
SPM per la coregistrazione delle immagini
Il sistema realizzato per questo lavoro di Tesi sfrutta, per la coregistrazione e la
segmentazione delle immagini, alcuni strumenti già esistenti e disponibili nel pacchetto
SPM,[27] a sua volta basato su Matlab.
La scelta di SPM non è stata causale, e ha comportato il test di diversi software per la
coregistrazione e/o per la segmentazione delle immagini del cervello nelle tre materie
fondamentali (WM, GM, CSF). In particolare, tra questi, è stata esaminata la libreria software
denominata FSL (http://www.fmrib.ox.ac.uk/fsl/).
Nei test si è dovuta prestare attenzione a svariati fattori:

qualità di processing

compatibilità con le immagini in nostro possesso, da non sottovalutare, in quanto i
molti formati di immagini diagnostiche esistenti (DICOM, Analyze, Nifti…)
conducono spesso a risultati imprevedibili e difficili da comprendere (ad esempio,
nel formato del file può essere memorizzata una trasformazione spaziale alla quale
è soggetta l‘immagine, ma non tutti i software sono in grado di vederla e
applicarla)

semplicità d‘uso e tempi di calcolo ragionevoli
E‘ stato preferito SPM, avendo esso dimostrato una buona versatilità, anche a causa
dell‘interfaccia semplice e completa, e avendo buoni risultati e tempi di calcolo gestibili
(tipicamente alcuni minuti per immagine, per ciascuna operazione).
SPM (Statistical Parametric Mapping) è un package software progettato per l‘analisi di
sequenze di dati di imaging cerebrale, in particolare MRI, ma anche fMRI, PET, SPECT. In
futuro dovrebbe anche incorporare l‘analisi di dati EEG e MEG. La versione corrente di SPM
è la 8, rilasciata in Aprile 2009.
SPM effettua la coregistrazione delle immagini tramite metodi statistici, partendo da
immagini fisse standard (‗template’) ottenute mediando un gran numero di immagini reali
precedentemente coregistrate tra loro. In alcuni casi le immagini template sono fortemente
smussate, allo scopo di velocizzare la convergenza degli algoritmi di coregistrazione, e ridurre
63
il rischio che il sistema di ottimizzazione possa cadere in minimi relativi delle funzioni
distanza, a causa dell‘eccessivo numero di dettagli dell‘immagine template.
Segmentazione
La segmentazione è il processo di partizionamento di un immagine in regione omogenee,
sulla base di determinati criteri di appartenenza di un pixel a una regione. Il suo obiettivo è
focalizzato sull‘individuazione e l‘esaltazione di oggetti ad alta priorità rispetto allo sfondo o
rispetto ad altri oggetti circostanti.
I tessuti di un cervello sano possono generalmente essere classificati in tre classi
principali: materia grigia (GM), materia bianca (WM) e liquido cerebrospinale (CSF).
Partendo, ad esempio, da immagini T1, questa classificazione potrebbe essere eseguita
manualmente, selezionando nell‘immagine adeguati range di intensità che comprendono la
maggior parte dei voxel di un particolare tipo di tessuto. Tuttavia la selezione manuale delle
soglie è altamente soggettivo. Per ovviare a questo problema molti gruppi di ricerca hanno
utilizzato algoritmi di clustering (classificazione non supervisionata). Questo metodo può
essere applicato sia ad immagini acquisite con uno stesso protocollo, sia ad immagini, tra loro
coregistrate, ed ottenute con sequenze diverse.
SPM per la segmentazione delle immagini
Il programma di segmentazione utilizzato in questa Tesi è quello inserito in SPM [27].
Esso si basa sull‘approccio al clustering tramite ‖mixture model‖,[28] esteso per includere
mappe di probabilità a priori e anche per correggere la non uniformità delle intensità nelle
immagini; la correzione del campo di bias, com‘è stato illustrato nel capitolo precedente, è
necessaria in quanto la distinzione dei tessuti è basata sull‘intensità dei voxel e quindi
variazioni d‘intensità provocano errori di classificazione.
Nel modello utilizzato si assume che le immagini MR contengano un determinato numero
di tessuti differenti (cluster). Le intensità dei voxel appartenenti ad ognuno di questi cluster si
attengono a una distribuzione normale, che può essere descritta dalla media, dalla varianza e
dal numero di voxel appartenenti alla distribuzione.
64
Algoritmo di classificazione dei voxel
Per semplificare la spiegazione dell‘algoritmo utilizzato per la segmentazione dei tessuti
consideriamo la sua applicazione su una singola immagine bidimensionale, ma il discorso è
ripetibile senza variazioni rilevanti anche nel caso 3D.[29]
Assumiamo inoltre che:
1. ognuno degli I x J voxel dell‘immagine F sia tratto da una di un numero noto (k)
di classi distinte di tessuto (cluster); nel caso di interesse k = 3 per GM, WM,
CSF;
2. la distribuzione delle intensità dei voxel in ogni classe sia normale e inizialmente
sconosciuta
3. i parametri che descrivono la distribuzione delle intensità nel cluster k siano il
numero di voxel nel cluster stesso (ℎ ), la media ( ) e la varianza ( ).
Le probabilità a priori che i voxel appartengano rispettivamente alla materia grigia, alla
materia bianca e al liquido cerebrospinale sono note, in quanto le immagini si suppongono
coregistrate inizialmente con un atlante già segmentato, e quindi sono mappate in un ben
determinato spazio stereotassico5. Quest‘informazione è disponibile sotto forma di immagini
contenenti mappe di probabilità, ottenute dalle scansioni di 152 soggetti sani e giovani e
fornite dall‘istituto neurologico di Montreal, partecipante al progetto ICBM (International
Consortium for Brain Mapping).
Le mappe di probabilità (in numero di tre, una per ciascuna classe principale di tessuto)
contengono voxel i cui valori sono compresi tra zero ed uno, e rappresentano la probabilità a
priori che un voxel appartenga a GM, WM o CSF dopo che le immagini sono state
normalizzate nello stesso spazio.
L‘ultima assunzione che si effettua è che l‘intensità e il rumore associati ad ogni voxel
sono modulati moltiplicandoli per un campo scalare di smussamento non noto (il campo di
bias).
5
lo spazio stereotassico è utilizzato per descrivere la posizione delle strutture cerebrali indipendentemente dalla
differenza di forma e di dimensione tra i cervelli presi in esame. Il sistema stereotassico viene definito a partire
dalle commessure anteriore e posteriore unite da una linea retta. L‘origine del sistema è posto nella commessura
anteriore dalla quale si misurano le distanze.
65
Ci sono molti parametri che devono essere determinati dall‘algoritmo utilizzato per la
classificazione dei voxel, e inoltre la stima di alcuni di essi richiede l‘acquisizione precedente
di altri. La determinazione dei parametri che descrivono un cluster (ℎ ,  ,  ) dipende dalla
conoscenza di quali voxel appartengono a quel determinato cluster,e inoltre dalla forma della
funzione che modula l‘intensità (campo di bias). La stima di quali voxel debbano essere
assegnati ad ogni cluster presuppone, d‘altra parte, che i parametri dei cluster siano già stati
definiti, cosi come il campo di modulazione. A sua volta la determinazione del campo di
modulazione necessita la conoscenza dei parametri dei cluster e le probabilità di
appartenenza. Sembra dunque che il problema sia insolubile, almeno in maniera diretta.
È necessario, quindi, ricorrere a un algoritmo iterativo, che assegna dei valori iniziali per i
vari parametri. Il valore iniziale per il campo di bias di solito è uniformemente uno, mentre i
valori per le probabilità di appartenenza alle classi GM, WM e CSF sono basati sulle mappe
di probabilità note a priori di cui si è già parlato. Dal momento che, perlomeno in
quest‘implementazione del software, non esistono mappe di probabilità per il fondo e per le
classi di tessuto che non appartengono al cervello, queste sono determinate sottraendo le
mappe di probabilità note a priori della GM, WM e CSF dalla mappa complessiva, e
successivamente dividendo equamente il risultato tra i cluster rimanenti.
Figura 33: diagramma di flusso per la segmentazione dei tessuti
Ogni iterazione dell‘algoritmo comporta:
66

la valutazione dei parametri dei cluster relativi alle immagini corrette
dall‘inomogeneità delle intensità;

l‘assegnazione delle probabilità di appartenenza basata sui parametri delle classi;

il controllo della convergenza;

la determinazione e l‘applicazione della funzione di modulazione.
Ad ogni nuova iterazione i valori che descrivono la distribuzione cambiano in modo da
ottenere un fit migliore e le probabilità di appartenenza (P) variano leggermente per adattarsi
alle nuove distribuzioni. Il processo continua finché non si raggiunge la convergenza
desiderata.
I parametri che descrivono i cluster, se sono coerenti con le immagini di probabilità note a
priori e fornite al sistema, convergono molto più velocemente degli altri. Questo è dovuto,
parzialmente, alla migliore stima iniziale. I valori finali relativi alle probabilità di
appartenenza sono compresi tra zero ed uno, tuttavia la maggior parte di essi presentano un
valore più vicino ad uno dei due estremi.
In sostanza l‘algoritmo è basato sul processo di Expectation Maximization6 (EM), in cui
la fase di expectation è il calcolo delle probabilità di appartenenza ai vari cluster, e la fase di
maximization è il calcolo dei parametri dei cluster e della correzione del campo di bias.
6
Lo scopo dell‘algoritmo EM, procedura iterativa che alterna due step: Expectation e Maximization, è
quello di aumentare, e possibilmente massimizzare, l‘attendibilità dei parametri di un modello probabilistico
rispetto a un insieme di dati statistici.
67
CAPITOLO 4: Un software per la standardizzazione delle scale di grigi
Il capitolo descrive lo schema generale del software per la standardizzazione delle
intensità, proposto in questo lavoro di Tesi. Vengono poi riportati alcuni risultati preliminari
ottenuti su un piccolo gruppo di immagini.
Si mostra in Figura 34 lo schema generale dell‘algoritmo implementato.
Figura 34: Schema delle fasi principali della standardizzazione delle intensità dei grigi.
L‘algoritmo è stato sviluppato su immagini di risonanza magnetica reperibili dal database
della LONI (Laboratory of Neuro Imaging, http://www.loni.ucla.edu/).
I primi tre blocchi del diagramma di flusso sono stati sviluppati con l‘ausilio del software
SPM (Statistical Parametring Mapping) nella versione 8.
SPM richiede che queste immagini, essendo di pazienti differenti e acquisite in tempi e
con dispositivi diversi, siano coregistrate spazialmente su un‘immagine di riferimento
(template) prima che venga effettuata la procedura di segmentazione tramite il medesimo
template.
Nella seconda fase dell‘algoritmo viene eseguita la correzione del campo di bias, seguita
dalla segmentazione. Prima della segmentazione è necessario effettuare la correzione del
68
campo di bias in quanto la disuniformità delle intensità, che si manifesta con il cambiamento
dell‘intensità di uno stesso tessuto all‘interno di una stessa immagine, renderebbe poco
accurata la fase di segmentazione.
Col processo di segmentazione si vuole suddividere il cervello nelle sue principali
componenti: materia grigia (GM), materia bianca(WM) e liquido cerebrospinale(CSF), in
modo che la standardizzazione dei livelli di grigio possa avvenire senza mescolamento delle
tre materie.
Nell‘ultima fase, che rappresenta il lavoro più pregnante di questa tesi, si standardizzano
le intensità di ogni immagine, separatamente nelle tre materie.
Descrizione del software
Segue la descrizione dettagliata del software realizzato.
Coregistrazione
Per la fase di coregistrazione, come anticipato, si utilizza SPM8 (Figura 35).
Figura 35: Interfaccia grafica del software SPM8 utilizzato per le fasi di coregistrazione e di
segmentazione.
69
Fornendo le immagini da analizzare e selezionando l‘immagine di riferimento (template)
su cui le nostre immagini devono essere coregistrate, si ottiene la sovrapposizione di queste
nello spazio del template.
La scelta del template è arbitraria; quello utilizzato in questo lavoro presenta le seguenti
caratteristiche principali:

dimensione dell‘immagine: 181x217x181;

l‘origine delle coordinate nel punto x = 46, y = 64, z = 37;

dimensione dei voxel: 1x1x1 (mm3)
Dopo la coregistrazione tutte le scansioni, appartenenti al set di immagini che si vogliono
analizzare, avranno le stesse dimensioni e la stessa origine. In Figura 36 si mostra la
variazione delle caratteristiche di una stessa immagine dopo averla coregistrata con
un‘immagine di riferimento.
Figura 36: si riporta a sinistra l’immagine con le sue caratteristiche originali, al centro i valori del
template e a destra la scansione dopo la coregistrazione.
70
Segmentazione
Anche la fase di correzione del campo di bias e di segmentazione sono effettuate
attraverso l‘uso di SPM8. Questo step viene eseguito sulle immagini di output che
provengono dal processo di coregistrazione. Ad ogni immagine in input ne corrisponderanno
quattro di output:

una rappresentante l‘immagine del cervello intero corretta dal campo di bias;

tre, raffiguranti il risultato della segmentazione, ossia corrispondenti alle mappe di
probabilità relative alla materia grigia, alla materia bianca e al liquido cerebrospinale.
Figura 37: Mappe di probabilità GM, in alto a destra, WM, in alto a sinistra, e CSF in basso.
A questo punto si passa alla fase di standardizzazione (figura seguente, che dettaglia la
procedura).
71
buildAndSaveAllFiles
(1)
Preparazione delle immagini; per ciascuna immagine:




carica l'immagine originale
carica le mappa di probabilità della materia bianca, grigia e
liquido;
crea 3 maschere (WM/GM/CSF) a partire dalle mappe di probabilità
estrae 3 immagini dall'originale in base alle maschere, allo scopo
di calcolare poi gli istogrammi ed effettuare la standardizzazione
separatamente sulle tre materie.
Per WM/GM/CSF:




(2)
Calcola statistiche (NormalizedMeanIntensity)
main_train (fase di training)
main_standardize (fase di standardizzazione)
Calcola statistiche immagini standardizzate
(NormalizedMeanIntensity)
composeWGF

(3)
Unisci le immagini WM/GM/CSF per ottenere
le immagini finali standardizzate
Figura 38: Diagramma di flusso dettagliato della fase di standardizzazione degli istogrammi e di
ricostruzione dell’’immagine completa.
Siccome l‘output della fase di segmentazione è costituto da mappe di probabilità, e non da
distribuzioni spaziali di grigi (ossia da immagini vere e proprie), prima di poter applicare il
metodo di standardizzazione è necessario effettuare delle operazioni sulle mappe, tese a
costruire delle immagini contenenti solo i voxel di materia bianca, grigia e liquido
rispettivamente.
Queste operazioni sono necessarie in quanto il metodo di standardizzazione si applica
naturalmente a vere e proprie immagini.
Passaggio dalle mappe di probabilità alle immagini WM/GM/CSF
Per ottenere le immagini della materia grigia, bianca e del liquido cerebrospinale, bisogna
prima trasformare le mappe di probabilità nelle relative maschere, da usare per estrarre le
immagini WM/GM/CSF dall‘immagine originale, si veda il blocco (1) nella Figura 38.
72
La differenza tra mappe di probabilità e maschere sta nei valori delle intensità: mentre per
le mappe di probabilità il range di valori è compreso tra 0 e 1 (Figura 37), nelle maschere i
valori sono esclusivamente 0 o 1 (Figura 39 riga inferiore).
Figura 39: nella prima riga si mostrano le immagini della materia bianca, del liquido cerebrospinale,
della materia grigia e l’originale; nella seconda riga si riportano le rispettive maschere.
Andando ad analizzare le mappe di probabilità, si è notata la presenza di voxel a volume
parziale:

voxel a ridosso del margine del cervello

voxel che possono essere in comune tra due o tre tessuti
Per poter attribuire ogni voxel ad una sola classe di tessuto e quindi ottenere le maschere
relative alle tre materie si applicano delle soglie alle mappe di probabilità.
Per i voxel che si trovano sul bordo del cervello: si attribuisce valore 1 se presenta un
valore di intensità maggiore di 0,5, altrimenti zero; in quest‘ultimo caso il voxel si trova
presumibilmente nel vuoto, o potrebbe rappresentare osso o grasso (rimossi durante la
segmentazione).
Per i voxel misti, si assegna il voxel alla maschera corrispondente alla mappa di
probabilità che presenta per il voxel stesso la probabilità più alta di appartenenza. Ossia se si
ha un voxel con un valore di probabilità di appartenenza alla materia grigia, bianca e al
liquido cerebrospinale rispettivamente 0.7, 0.2, 0.1 il voxel sarà assegnato alla maschera della
materia grigia.
Costruite le maschere, si ―mascherano‖ le immagini originali, ossia si estraggono
dall‘immagine originale i pixel corrispondenti ai diversi tipi di materia (materia bianca,
73
materia grigia e liquido cerebro spinale), ottenendo in questo modo le immagini vere e proprie
per ciascuna delle tre materie.
Standardizzazione
A questo punto si hanno tre gruppi di immagini sui cui è possibile applicare,
separatamente, il metodo di standardizzazione descritto nel Capitolo 3, si veda il blocco (2)
nella Figura 38. In questo lavoro di tesi si è scelto di applicare questo metodo di
standardizzazione utilizzando differenti tipi di landmark e confrontando tra loro i risultati. I
landmark scelti sono la moda, la mediana ed i decili.
Il codice è stato implementato in Matlab, e testato sia in Windows XP sia in linux.
Il processo di standardizzazione, come spiegato in precedenza, consta di due step.
Fase di training
Per effettuare la fase di training si sono considerati gli istogrammi relativi ad ogni
immagine. Per ogni istogramma si è individuata una regione di intensità d‘interesse (IOI),
scegliendo dall‘osservazione degli istogrammi un valore di percentile minimo pari a 0.5, ed
uno massimo, 99.5. Si è proceduto considerando i vari tipi di landmark scelti: la sola moda, la
sola mediana, e i decili; i valori stimati per ognuno di essi sono stati mappati su una scala
standard secondo la procedura descritta in precedenza.
Fase di trasformazione
In questo step per ogni immagine i valori delle intensità vengono mappati, attraverso una
trasformazione lineare a tratti dipendente dai landmark, sulla scala standardizzata ottenuta
nella prima fase.(Figura 40)
Se si applicasse il metodo di standardizzazione sull‘immagine del cervello completa si
rischierebbe, nella fase di trasformazione, di mappare intensità corrispondenti ad un
determinato tessuto in un'altra classe. Proprio per ovviare a questo inconveniente si è
applicato il processo separatamente sui tre gruppi di immagini (WM/GM/CSF). Si ha cosi la
certezza che i voxel relativi alla materia bianca, dopo la trasformazione, continuano ad
appartenere a questa classe di tessuto, e analogamente per e altre materie.
74
Figura 40: Mappatura lineare a tratti a) con tre landmark (es. lo 0.5° e il 99.5° percentile più la
moda); b) nel caso generale con più landmark (es. con i decili)
Una volta standardizzate le immagini relative ai tre tessuti, queste vengono sommate tra
di loro per ottenere l‘immagine normalizzata dell‘intero cervello, si veda il blocco (3) nella
Figura 38.
Applicazione e risultati
Il metodo descritto è stato applicato su 56 immagini appartenenti al database della LONI;
le scansioni sono acquisite tutte con lo stesso protocollo T1, ma con apparecchiature
differenti; esse possono rappresentare sia pazienti differenti sia lo stesso paziente che ha
effettuato l‘esame in periodi diversi. Si tratta di immagini che provengono anche da ospedali
diversi.
In Figura 41 si mostra un confronto tra gli istogrammi di sei scansioni di sei pazienti
differenti, prima della fase di normalizzazione. Le immagini sono state preventivamente
descalpate, per poter confrontare direttamente gli istogrammi con quelli standardizzati.
Si può notare che gli istogrammi, sebbene simili come andamento, sono però ben
differenti.
E stato applicato il software di standardizzazione, utilizzando come landmark dapprima la
sola mediana, e poi i decili. Ci aspettiamo che l‘uso dei decili porti a una standardizzazione
maggiormente accurata, come in effetti si verifica e come mostrano le figure seguenti.
Per confronto, è stata anche applicata la standardizzazione basata sulla moda, ma il
risultato è stato deludente. Ciò era atteso, perché spesso negli istogrammi la moda corrisponde
alla materia bianca, ma in altri casi è legata alla grigia, e in altri ancora a intensità intermedie
75
tra GM e WM. Quindi, nel momento in cui si mappa la moda nella scala standard, non si
conosce esattamente cosa si sta mappando. Questo inconveniente si supera quindi utilizzando
come landmark la mediana o i decili. Mostriamo dunque nel seguito solo i casi della mediana
e poi dei decili.
Scala dei grigi
Figura 41: Istogrammi di sei immagini non standardizzate provenienti da sei pazienti differenti
Dopo avere applicato alle immagini di Figura 41 la standardizzazione delle intensità
basata sulla mediana da sola, gli istogrammi assumono la seguente forma (Figura 42):
Scala dei grigi
Figura 42: Istogrammi delle immagini di Figura 36 dopo aver effettuato la standardizzazione basata
sulla mediana.
76
Dopo avere applicato la standardizzazione delle intensità basata sui decili, si ottengono
invece gli istogrammi seguenti:
Scala dei grigi
Figura 43: Istogrammi delle immagini di Figura 36 dopo aver effettuato la standardizzazione basata
sui decili.
Dalle figure si evince il buon funzionamento del software: infatti tutti gli istogrammi
risultano ovviamente non identici (non potrebbero esserlo, perché le immagini sono diverse e
contengono un numero di voxel diversi per le varie materie) ma ben sovrapposti.
In particolare, la qualità della standardizzazione operata a partire dai decili sembra
lievemente migliore rispetto a quella che si basa sulla mediana.
Come ulteriore esempio, di seguito si riportano gli istogrammi di sei immagini non
trattate, relative a due pazienti e provenienti da due ospedali diversi, per cui le scansioni sono
state acquisite con dispositivi differenti. Ogni paziente ha effettuato l‘esame di risonanza
magnetica per tre volte.
Al primo paziente corrispondono gli istogrammi di colore giallo, magenta e ciano; al
secondo quelli di colore blu, verde e rosso. Come si evince dalla Figura 44 gli istogrammi
relativi allo stesso paziente presentano andamento molto simile, mentre l‘andamento degli
istogrammi ottenuti dalle immagini acquisite in ospedali diversi è abbastanza differente.
77
Scala dei grigi
Figura 44: Istogrammi di sei immagini, non trattate, appartenenti a due pazienti provenienti da due
ospedali differenti.
Le figure seguenti mostrano gli istogrammi ottenuti dopo aver applicato il metodo di
standardizzazione basato sulla mediana e poi sui decili:
Scala dei grigi
Figura 45: Istogrammi delle immagini della figura precedente, appartenenti a due pazienti diversi e
provenienti da due ospedali differenti, standardizzati a partire dalla mediana
78
Scala dei grigi
Figura 46: Medesimi istogrammi della figura precedente, appartenenti alle immagini di due pazienti
provenienti da due ospedali differenti, dopo aver effettuato la standardizzazione sui decili.
Anche in questo caso si osservano gli stessi risultati ottenuti precedentemente:la qualità
della standardizzazione basata sui decili è migliore rispetto a quella basata sulla mediana.
Analisi quantitativa
Si è proceduto effettuando un‘analisi quantitativa, nello spirito di quanto proposto in [16].
Per ogni gruppo di immagini originali (GM, WM, CSF) si è calcolata l‘intensità media
normalizzata (NMI, Normalized Mean Intensity) ottenuta dividendo l‘intensità media delle
immagini (WM/GM/CSF singolarmente) per il range della regione (IOI): p2i – p1i. Anche per
le immagini trasformate è stata calcolata la NMI, questa volta ottenuta dividendo l‘intensità
media per il range s2 – s1.
In tabella si riporta la deviazione standard dei valori NMI prima e dopo aver applicato i
diversi metodi di standardizzazione.
I risultati ottenuti indicano che le intensità della scala standard presentano un significato
anatomico più consistente, come è possibile dedurre dal confronto tra le deviazioni standard, e
i valori per l‘uso della mediana e dei decili sono molto simili, mentre la scala standard
ottenuta tramite la moda è evidentemente molto meno accurata.
79
TISSUE
WM
METHOD
SD
None
0,725
Mode
0.318
Median
0,048
Percentiles
0,049
None
0,193
Mode
0.138
Median
0,027
Percentiles
0,028
None
0,062
Mode
0.038
Median
0,015
Percentiles
0,015
GM
CSF
Si conclude che il metodo di standardizzazione opera in maniera efficace, e che l‘uso della
mediana e dei decili per la standardizzazione sono abbastanza equivalenti, con un lieve
vantaggio per l‘ultimo caso indicato, come si verifica in particolare nell‘osservazione degli
istogrammi.
80
Conclusioni e prospettive
Il lavoro descritto in questa Tesi rientra nella cornice dell‘esperimento MAGIC5
dell‘INFN e si colloca, in particolare, all‘interno del progetto di realizzazione di un sistema di
diagnosi assistita precoce del morbo di Alzheimer.
Il software realizzato ha lo scopo di inserirsi nella procedura di estrazione delle scatole
ippocampali (ossia contenenti l‘ippocampo e strutture limitrofe) dalle immagini di risonanza
magnetica del cervello, prima della fase di diagnosi vera e propria della possibile atrofia.
Il sistema parte dalla letteratura scientifica sull‘argomento della standardizzazione delle
scale di intensità in MRI, e implementa uno dei metodi descritti, quello basato sui Landmark
negli istogrammi, con la variante di lavorare sulle singole materie componenti il tessuto
cerebrale: materia bianca, grigia e liquido cerebrospinale.
I primi test sul software sono soddisfacenti: gli istogrammi risultano standardizzati e
alcune valutazioni quantitative sui medesimi rispecchiano quanto suggerito in letteratura.
Ora, il prossimo passo sarà inserire il software nel sistema CAD in corso di realizzazione
in MAGIC5, per un test ―sul campo‖, allo scopo di verificare l‘aumento di qualità
nell‘estrazione delle scatole ippocampali.
Come prospettiva di sviluppo futuro, si prevede di confrontare il metodo con altri, in
particolare con l‘uso di miscele di gaussiane, per il quale il software è stato da noi già
parzialmente implementato.
81
Bibliografia
1. K. Blennow, et al. ‗Alzheimer's disease‘. Lancet 2006; 368: 387—403
2. C. A. Scorer, ―Preclinical and clinical challenges in the development of diseasemodifying therapies for Alzheimer’s disease.‖, Drug Discov Today 2001; 6: 1207–19.
3. R.E. Olson, R.A. Copeland, D. Seiffert ‖Progress towards testing the amyloid
hypothesis: inhibitors of APP processing‖ Curr Opin Drug Discov Devel 2001; 4:390–
401
4. D.J. Selkoe ―The genetics and molecular pathology of Alzheimer’s disease: roles of
amyloid and the presenilins.‖ Neurol Clin 2000; 18: 903–22
5. R. B. Maccioni, J. P. Munoz, L. Barbeito, ―The molecular bases of Alzheimer’s
disease and other neurodegenerative disorders‖ Arch Med Res 2001; 32: 367–81
6. B.A. In t‘ Veld, A.Ruitenberg, A.Hofman, et al. ―Nonsteroidal antiinflammatory drugs
and the risk of Alzheimer’s disease‖. N Engl J Med 2001; 345: 1515–21.
7. S. F. Weisen, W. H. Frishman, M. K. Aronson, S. Wassertheil-Smoller, ―Self-rated
health assessment and development of both cardiovascular and dementing illnesses in
an ambulatory elderly population: a report from the Bronx Longitudinal Aging
Study‖, Heart Dis 1999; 1: 201–5
8. H. Wolf, M. Grunwald, G. M. Ecke, et al., ―The prognosis of mild cognitive
impairment in the elderly.‖, J Neural Transm Suppl 1998; 54: 31–50.
9. D. W. O‘Connor, P. A. Pollitt, M. Roth, P. B. Brook, B. B. Reiss, ―Memory
complaints and impairment in normal, depressed, and demented elderly persons
identified in a community survey‖, Arch Gen Psychiatry 1990; 47: 224–7.
82
10. T. Sunderland, J. L. Hill, A. M. Mellow, et al., ―Clock drawing in Alzheimer’s disease.
A novel measure of dementia severity‖, J Am Geriatr Soc 1989; 37: 725–9.
11. R. C. Petersen, J. C. Stevens, M. Ganguli, E. G. Tangalos, J. L. Cummings, S. T.
DeKosky, ―Practice parameter: early detection of dementia: mild cognitive
impairment (an evidence-based review)‖, Report of the Quality Standards
Subcommittee of the American Academy of Neurology. 2001; 56: 1133–42.
12. J. P. Hornak, ―Basics of MRI‖ http://www.cis.rit.edu/htbooks/mri/inside-i.htm
(accesso: Gennaio 2010)
13. A. Castellano, G. De Nunzio e M. Donativi, ― Fisica e tecnica delle apparecchiature
biomediche‖, Deltaedit (Arnesano – Lecce) Maggio 2009
14. www.risonanzamagnetica.org. ―Risonanza Magnetica e Safety - Principi fisici di
risonanza magnetica‖ (accesso: Gennaio 2010)
15. G. Rescinito, C. Sirlin, G. Cittadini Jr “Body MRI artefacts: from image degradation
to diagnostic utility”, Radiol. Med. 114:18–31, 2009
16. L. G. Nyúl, J. K. Udupa, and X. Zhang, ―New variants of a method of MRI scales
standardization‖, IEEE Trans. Med. Imag., vol. 19, no. 2, pp. 143–150, Feb. 2000.
17. Z. Hou ―A review on MR image intensity inhomogeneity correction‖, International
Journal of Biomedical Imaging, vol.2006, pp. 1-11, Feb.2006
18. F. Jäger and J. Hornegger, ―Nonrigid registration of joint histograms for intensity
standardization in magnetic resonance imaging‖, IEEE Trans. Med. Imag., vol. 28,
no. 1, January 2009.
19. U. Vovk, F. Pernuš, and B. Likar, ―A review of methods for correction of intensity
inhomogeneity in MRI‖, IEEE Trans. Med. Imag., vol. 27, no. 3, March 2007.
83
20. L. G. Nyúl and J. K. Udupa, ―On standardizing the MR image intensity scale,‖ Magn.
Reson. Med., vol. 42, pp. 1072–1081, 1999.
21. P. Hellier, ―Consistent intensity correction of MR images‖ in Int. Conf. Image Process.
(ICIP 2003), vol. 1, pp. 1109–12.,Sept. 2003.
22. J. P. Bergeest and F. Jäger, ―A comparison of five methods for signal intensity
standardization in MRI‖, Bildverarbeitung für die Medizin 2008, Algorithmen,
Systeme, Anwendungen, Proceedings des Workshops vom 6. bis 8. April 2008
(Berlin)
23. W R Crum, T Hartkens and D L G Hill, ―Non-rigid image registration: theory and
practice‖ British Journal of Radiology 77, S140-S153, 2004
24. G. Arnulfo ―Tecniche di coregistrazione affine ed elastica su immagini mediche
strutturali per il supporto alla chirurgia dell’epilessia‖ Tesi di laurea specialistica in
Ingegneria Biomedica, Università di Genova, Facoltà di Ingegneria (aa 2006/07),
(http://www.premiocdi.org/Archivio/2008/arnulfo_abstract.pdf,
accesso:
Dicembre
2009)
25. J. Ashburner and K. J. Friston, ―Rigid-body registration‖, in R.S.J. Frackowiak, K.J.
Friston, C. Frith, R. Dolan, K.J. Friston, C.J. Price, S. Zeki, J. Ashburner, and W.D.
Penny, editors, Human Brain Function (Ch. 2). Academic Press, 2nd edition, 2003
(http://www.fil.ion.ucl.ac.uk/spm/doc/books/hbf2/pdfs/Ch2.pdf, accesso: Dicembre
2009)
26. D. Rizzo, ―Registrazione multimodale 3D di immagini medicali‖ Tesi di laurea in
Ingegneria Informatica, Università degli Studi di Palermo - Facoltà di Ingegneria (a.a.
2003-04)
27. Statistical Parametric Mapping , http://www.fil.ion.ucl.ac.uk/spm/
28. G. J. McLachlan, S. Ng, and R. Bean, ―Robust Cluster Analysis via Mixture Models”,
Austrian journal of statistics, Volume 35, Number 2&3, 157–174, 2006
84
29. J. Ashburner and K. J. Friston, ―Image segmentation‖, in R.S.J. Frackowiak, K.J.
Friston, C. Frith, R. Dolan, K.J. Friston, C.J. Price, S. Zeki, J. Ashburner, and W.D.
Penny, editors, Human Brain Function. Academic Press, 2nd edition, 2003
(http://www.fil.ion.ucl.ac.uk/spm/doc/books/hbf2/pdfs/Ch5.pdf, accesso: Dicembre
2009)
85
Ringraziamenti
Giunta alla fine di questo lavoro desidero ringraziare ed esprimere la mia riconoscenza
nei confronti di tutte le persone che, in diversi modi, mi sono state accanto e che mi hanno
sostenuta durante tutto il mio percorso universitario. Rimarrà in me il piacevole ricordo di
questi anni di studio che ho trascorso a “tempo pieno” in questo dipartimento e per aver
trovato quasi sempre professori disponibili al dialogo.
In particolare, desidero ringraziare colui che ha reso possibile il raggiungimento di
questo traguardo: il Professor Giorgio De Nunzio . La mia gratitudine nasce dalla fiducia sin
da subito dimostratami nell’avermi accettata nel suo gruppo di lavoro. I consigli e i confronti
sono stati indispensabili ad intraprendere, ogni volta, le scelte più appropriate. Con la sua
pazienza e professionalità ha ricoperto un ruolo fondamentale nella mia carriera
universitaria. Semplicemente GRAZIE!
Un doveroso grazie anche al Dott. Marco Favetta e alla Dott. Gabriella Pastore per il
loro aiuto e per la loro disponibilità.
Sono grata ai miei genitori e a mio fratello per il sostegno morale, tacito o esplicito.
Grazie per tutte le volte che mi avete incoraggiata vedendomi presa dai libri, dagli esami, ma
soprattutto da questa tesi! Sparo che i sacrifici spesi siano, almeno in parte, ripagati.
Grazie a tutti i miei amici, dell’Università e non, ma soprattutto alle mie amiche di
sempre e compagne di quest’avventura. Sappiamo di poter contare le une sulle altre, la
nostra amicizia c’è e ci sarà sempre qualsiasi cosa accada.
Ad Antonello va un ringraziamento speciale: anche se a distanza sei stato sempre
presente, in ogni momento e situazione.
Ringrazio tutto il resto della mia famiglia per aver sempre creduto in me, per avermi
“supportata” oltre che “sopportata”.
Non può mancare un infinito grazie ad una Donna che aspettava e viveva questi momenti
con una felice frenesia tutta sua: grazie nonna per tutto quello che mi hai insegnato. Farò
tesoro della tua forza e ti porterò sempre nel mio cuore.
Scarica