POLITECNICO DI MILANO
Facoltà di Ingegneria dei Sistemi
Corso di Laurea Magistrale in Ingegneria Biomedica
SVILUPPO DI UN ALGORITMO
SEMI-AUTOMATICO PER LA SEGMENTAZIONE
3D DEL VENTRICOLO SINISTRO TRAMITE
ACTIVE SHAPE MODELING DA IMMAGINI DI
RISONANZA MAGNETICA
Relatore:
Prof. Enrico G. Caiani
Correlatore:
Ing. Maria C. Carminati
Tesi di:
Andrea Colombo
Matr. 755113
AA 2011-2012
Alla mia famiglia
Sommario
Le tecniche di imaging diagnostico, che forniscono a clinici e ricercatori una
quantità smisurata di informazioni di tipo anatomico e funzionale, sono in
continuo sviluppo. Di conseguenza, la necessità di sviluppare strumenti per
meglio comprendere le nuove informazioni a disposizione ha reso l’analisi
computerizzata delle immagini biomediche un intenso campo di ricerca. Durante gli anni, l’area di applicazione di queste tecniche si è costantemente
allargata, discostandosi dalla semplice visualizzazione per essere utilizzate
in segmentazione, quantificazione e registrazione delle strutture analizzate.
La volontà degli sviluppatori è che tutte queste procedure introdotte siano
completamente automatiche, al fine di alleggerire il medico dalla necessità di
eseguire analisi temporalmente dispendiose, e per sfruttare ove possibile la
tridimensionalità del dato acquisito nel processo di segmentazione. In particolare, nell’area della segmentazione di immagini l’efficienza degli algoritmi
completamente automatici è prevalentemente limitata a strutture che hanno
un buon contrasto con le strutture adiacenti. Nel caso dell’imaging cardiaco,
dove l’organo è in perenne movimento, oltre alla complessità della struttura
si presentano artefatti causati dal rapido spostamento del cuore. Al fine di
ovviare a tali problematiche, negli ultimi anni si è proceduto ad introdurre
nelle tecniche di segmentazione delle informazioni a priori sulla morfologia
della struttura di interesse. Queste informazioni a priori sono espresse in
forma di un modello, semplificazione della realtà, che permette di meglio
descrivere le strutture qualora sia difficoltoso segmentarle. I modelli statistici, in particolare, sono una buona rappresentazione della realtà anatomica
I
II
e permettono di descrivere con buona approssimazione la struttura anche in
porzioni dello spazio non direttamente supportate da immagini.
Si propone in questo lavoro un algoritmo quanto più possibile automatico
per la segmentazione 3D della parete endocardica del ventricolo sinistro a
partire da immagini in risonanza magnetica (MR).
Viene utilizzato un approccio statistico creando un modello di riferimento
basato su superfici endocardiche ottenute dalla segmentazione di immagini
ecocardiografiche 3D. Tale scelta è legata al fatto di ottenere un modello
statistico intrinsecamente 3D della forma della cavità del ventricolo sinistro,
con la volontà di utilizzarlo nella segmentazione simultanea di immagini MR
2D, senza precluderne però l’applicabilità ad altri tipi di immagini. Inoltre,
l’utilizzo di superfici provenienti da esami ecocardiografici, naturalmente poco invasivi e quindi molto diffusi, dà la possibilità di ottenere facilmente altri
dati con cui espandere e diversificare il modello. Per la creazione del modello statistico, le superfici, espresse sotto forma di coordinate dei nodi che le
compongono e matrice di connettività delle facce, sono state preventivamente
registrate rigidamente facendo riferimento a punti noti messi a disposizione
dalla segmentazione. Si è inoltre deciso di non scalare le superfici e di considerare la scala come variabilità fisiologica della struttura.
Si è proceduto quindi a costruire il modello statistico utilizzando la tecnica denominata Active Shape Modeling (ASM), la quale prevede la riduzione
della dimensionalità del dataset sfruttando le potenzialità dell’Analisi delle
Componenti Principali (PCA).
L’algoritmo proposto prevede una limitata interazione dell’utente, a cui è richiesto di localizzare solamente pochi punti noti sulle viste in 2- e 4-camere.
In particolare, l’apice del ventricolo e i due punti di inserzione dei lembi
dell’annulus mitralico per entrambe le viste. La definizione di questi punti
permette di effettuare una localizzazione iniziale del modello nello spazio 3D,
in relazione allo stack di immagini in asse corto (SA) da cui verrà guidato.
L’algoritmo di matching del modello con le immagini SA procede poi in maniera completamente automatica, posizionando e deformando il modello sotto
III
la guida delle immagini.
Dall’intersezione dei segmenti perimetrali delle facce che costituiscono la
mesh con ogni piano immagine, vengono estratti dei punti e, su di essi, costruiti dei profili di videointensità. Più precisamente, per ogni intersezione si
estraggono i valori di videointensità di alcuni pixel che giacciono sulla retta
passante per il punto stesso ed il baricentro delle intersezioni con l’immagine
considerata. Per ogni singola immagine, vengono affiancati tutti i profili di
videointensità ottenuti tramite campionamento radiale, e su tale immagine
risultante viene eseguito un clustering, secondo la metodica detta K-means.
I pixel sono quindi divisi in 5 cluster, di cui 2 attribuiti al sangue, 2 al miocardio e 1 alle strutture esterne al ventricolo. Di questi si considerano solo
i cluster appartenenti al sangue e si procede a identificare il contorno che
delimita la transizione tra sangue e miocardio, ovvero la parete endocardica.
Vengono così generate delle nuove posizioni candidate per le intersezioni del
modello.
Le nuove posizioni così generate, per ogni intersezione con ogni slice, vengono utilizzate dapprima per una registrazione rigida del modello, sfruttando
l’Analisi Parziale di Procruste, e poi usate come guida per la deformazione
del modello. Ad ogni iterazione dell’algoritmo, l’allineamento di Procruste
viene ripetuto finchè l’errore non cessa di decrescere e, ad ogni sua applicazione, viene ripetuta la segmentazione e la conseguente generazione delle
posizioni candidate allo spostamento delle intersezioni.
Una volta effettuata la registrazione rigida, e quindi ridotto il più possibile
lo scostamento dai contorni non dovuto alla forma del modello ma solamente
a posizione e orientamento, si passa alla deformazione del modello. L’ennesima segmentazione planare estrae le posizioni candidate alla spostamento
delle intersezioni e queste, trasportate ai nodi del modello, ne guidano la deformazione. La deformazione del modello viene limitata entro i limiti decritti
dalla statistica del dataset su cui è stato costruito, in modo da conservare la
variabilità della popolazione.
L’algoritmo viene poi ripetuto fino a che lo spostamento di ogni nodo del
IV
modello, rispetto all’iterazione precedente, sia minore della risoluzione delle
immagini MR da cui viene guidato. Viene inoltre imposto un numero minimo di iterazioni al fine di evitare che passi di aggiornamento troppo piccoli
non facciano sufficientemente deformare il modello. L’applicazione dell’algoritmo implementato con MATLAB, a seguito di una breve inizializzazione
utente-dipendente ma comunque quantificabile al di sotto dei 10 secondi, ha
richiesto un tempo di elaborazione medio per frame pari a 37 secondi, su un
notebook ASUS A55V (Intel Core i7 @ 2.3 GHz, RAM 6 GB).
L’applicazione dell’algoritmo viene validata comparandone i risultati con
quelli ottenuti tramite tracciamento manuale dei contorni endocardici da
parte di un esperto cardiologo. Vengono confrontati i volumi, calcolati per il
Gold Standard con il metodo dei dischi su segmentazioni manuali e per l’algoritmo con il volume totale del modello, oltre che con il metodo dei dischi.
Il confronto è stato fatto su 12 pazienti consecutivi, di cui si sono analizzati i
frame di fine sistole e fine diastole, così da valutare anche la frazione di eiezione (EF). Si sono riscontrati buoni risultati per il confronto, non evidenziando
errori sistematici significativi. Si è inoltre proposto per un sottogruppo di 8
pazienti una valutazione locale dello scostamento dei contorni tracciati sulle singole slice. La distanza media tra i contorni tracciati dall’algoritmo e
quelli tracciati da un esperto si attesta su valori di 2.52 mm, mentre le distanze massime su ogni slice, calcolate come distanze di Haussdorf, hanno
una media di 6.3 mm. La corretta segmentazione dell’algoritmo è limitata in
alcuni casi da una statistica insufficiente a raggiungere determinate forme e
dimensioni, dalla presenza di slice disallineate e da inefficacia del clustering
nel distinguere le strutture presenti nell’immagine. I risultati ottenuti sono
comunque comparabili in accuratezza con quanto presente in letteratura.
L’algoritmo proposto è inoltre utile per avere una descrizione 3D della morfologia della cavità ventricolare anche nelle zone non descritte dalle immagini,
in particolare le zone apicali e basali ma anche lo spazio tra slice consecutive,
qui di ben 8 mm.
Abstract
Diagnostic imaging techniques, which provide to medics and researchers a
great variety of anatomical and functional informations, are in continuous
development. As a consequence, the demand for processing tools to optimally benefit from the wealth of information available has increased dramatically, which has made computerized medical image analysis a vivid field of
research. During the recent years, the are of application of these techniques
has been enlarging and they have been used not only for visualization but
also for segmentation, quantification and registration of the analysed structures. Developers’ will is all these techniques which have been introduced to
be completely automatic, in order to relieve the clinician from the burden of
doing such long-lasting analyses and to enhance his abilities with not only
planar but also three-dimensional analyses. In particular, in image segmentation area the efficiency of completely automatic algorithms is limited wellcontrasted structures. That is particularly true for cardiac imaging, where
in addiction to structures complexity the incessant movement of the heart
cause inevitable motion artefacts. In recent years, there have been introduced prior knowledge of structures morphology in segmentation techniques
in order to solve the previous problems. This information are expressed in
the form of a model, simplification of reality, which allow to better describe
structures of interest if the segmentation results difficult to do. Statistical
Models in particular represent a good explanation of anatomic reality and
permit to describe the structure with good approximation even in portions
of space not directly supported by images.
V
VI
In this work a semi-automatic 3D segmentation algorithm for the endocardic
wall of the left ventricle in magnetic resonance (MR) images is proposed.
A statistical approach is used to build a reference model based on surfaces
obtained by the segmentation of 3D echocardiographic images. Such choice
is based on the will to obtain an intrinsically 3D statistical model of the
shape of the left ventricle cavity which is meant to be used in simultaneous
2D MR images segmentation, not preventing its application to other types of
images. Furthermore, the usage of surfaces coming from echocardiographic
exams, naturally not invasive and very widespread, gives the possibility to
easily obtain more data and so enlarge and diversify the model. In order
to create the statistical model, surfaces, expressed as nodes coordinates and
connectivity matrix of the faces that compose them, are pre-emptively rigidly
registered according to known landmarks made available from the segmentation. Moreover, it has been chosen not to scale the surfaces and to consider
scaling as physiological structure variability.
Therefore a statistical model has been built using the Active Shape Model
(ASM) technique, that reduce dataset dimensionality exploiting Principal
Component Analysis (PCA) and its capabilities.
The proposed algorithm needs only a limited user interaction, who is asked
to localize only few known points on 2- and 4-chamber views. In particular,
ventricle apex and the two insertion points of mitral valve annulus leaflets
in either views. The definition of these points allows a starting positioning
of the model in 3D space, in connection with Short-axis (SA) images stack,
which then will guide it.
The matching algorithm so proceed in a completely automatic way to place
and deform the model according to images guide.
From each intersection between image planes and faces perimetral segments,
points are extracted and video-intensity profiles built over them. More precisely, for each intersection there are extracted video-intensity values of some
pixel on the line passing through the point itself and the centre of gravity of
all intersections with the considered plane. Then, for each image all sampling
VII
profiles are placed side by side and K-means clustering is employed. Pixel
are therefore divided in 5 clusters, of which 2 have been assigned to blood,
2 to myocardium and 1 to external structures. Only the clusters belonging
to blood are considered and then the edge that separate blood and myocardium is found, which is the endocardiac wall. Thus the generation of new
candidate locations for model intersections is achieved.
New candidate positions produced in this way foe each slice are firstly used as
a reference to rigidly register the model exploiting Partial Procrustes Analysis
end the used aa guide to drive its deformation. At each algorithm iteration
the alignment using Procrustes is repeated until error stop decreasing and,
at every application, segmentation and resulting generation of candidate location for the intersections is done again.
After the rigid registration, which reduces as much as possible the displacement of contours caused not by model shape but by its displacement and
orientation, the next step is model deformation. Another application of the
segmentation process provides new candidate positions for the intersections,
which are then transported to the neighbour nodes of the model and drive its
deformation. Model deformation ability is restricted by limits that describe
the statistic dataset on which it was built, in order to preserve population
variability.
The algorithm is then repeated till the displacement of each node of the
model, from its location at the previous iteration, is less than MR images
resolution. It has also been imposed a minimum number of iterations in
order to avoid insufficient deformation due to too small update steps. Algorithm application, implemented in MATLAB, after a brief user-dependent
initialization of about 10 seconds, needs a mean elaboration time per frame
of 37 seconds running on an ASUS A55V notebook (Intel Core i7 @ 2.3 GHz,
RAM 6 GB).
The algorithm is validated by comparing its results with the ones obtained
by manual segmentation done by an expert. Volumes, evaluated for the Gold
Standard with the Simpson’s rule and for the algorithm with not only the
VIII
Simpson’s rule but also calculating the entire volume of the model, are compared. The validation has been made on 12 consecutive patients, of which
end-diastolic and end-systolic frames have been analysed in order to evaluate
also the ejection fraction (EF). The comparison showed good results, with no
statistically significant systematic errors. Furthermore, on a subgroup of 8
patients the evaluation of contours displacement on each slice has been done.
Mean distance between contours traced by the algorithm and the ones made
by an expert resulted of 2.52 mm, whereas maximum distances on each slices
computed as Haussdorf distances had a mean value of 6.3 mm. Correct segmentation of the algorithm is limited in some cases by statistics insufficient
to reach particular shapes and dimensions, by the presence of slice misalignment and by clustering inefficacy to distinguish poorly contrasted images.
Nevertheless, obtained results are similar to what is present in literature.
Moreover, the proposed algorithm is useful to describe the 3D morphology
of the ventricle cavity even in regions not reached by images, in particular
apex and base of the ventricle and in the space between consecutive slices,
here separated by 8 mm.
Indice
Sommario
I
Abstract
V
Indice
IX
Elenco delle Figure
XI
Elenco delle Tabelle
XIV
Ringraziamenti
XV
1 Introduzione
1
1.1
Anatomia cardiaca . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Imaging cardiaco . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.1
Risonanza Magnetica . . . . . . . . . . . . . . . . . . .
5
Segmentazione . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.3
1.3.1
1.4
Statistical Shape Modeling . . . . . . . . . . . . . . . . 11
Scopo della Tesi . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Metodi
2.1
2.2
14
Generazione del modello . . . . . . . . . . . . . . . . . . . . . 14
2.1.1
Allineamento . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2
Riduzione della dimensionalità . . . . . . . . . . . . . . 20
Algoritmo di Matching . . . . . . . . . . . . . . . . . . . . . . 24
IX
X
INDICE
2.2.1
Preprocessing . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.2
Inizializzazione manuale . . . . . . . . . . . . . . . . . 26
2.2.3
Segmentazione
2.2.4
Registrazione rigida . . . . . . . . . . . . . . . . . . . . 35
2.2.5
Aggiornamento modello . . . . . . . . . . . . . . . . . 37
2.2.6
Criteri di arresto . . . . . . . . . . . . . . . . . . . . . 40
. . . . . . . . . . . . . . . . . . . . . . 29
3 Protocollo sperimentale e validazione
43
3.1
Popolazione analizzata . . . . . . . . . . . . . . . . . . . . . . 43
3.2
Validazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1
Validazione dei parametri globali . . . . . . . . . . . . 44
3.2.2
Validazione locale del contorno . . . . . . . . . . . . . 46
4 Risultati
49
4.1
Validazione volumi globali . . . . . . . . . . . . . . . . . . . . 49
4.1.1
Confronto tra Vgs e Vd . . . . . . . . . . . . . . . . . . 50
4.1.2
Confronto tra Vgs e Vm . . . . . . . . . . . . . . . . . . 53
4.1.3
Confronto tra Vd e Vm . . . . . . . . . . . . . . . . . . 55
4.2
Validazione contorni locali . . . . . . . . . . . . . . . . . . . . 57
4.3
Casi non andati a convergenza . . . . . . . . . . . . . . . . . . 60
5 Discussione e Conclusioni
65
5.1
Discussione dei risultati
5.2
Sviluppi futuri . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Bibliografia
. . . . . . . . . . . . . . . . . . . . . 68
72
Elenco delle figure
1.1
Anatomia interna del cuore umano . . . . . . . . . . . . . . .
2
1.2
Posizione della cavità endocardica del ventricolo sinistro
. . .
4
1.3
Sequenza di impulsi e gradienti della tecnica Balanced SSPF .
7
1.4
Tipi di immagini MR . . . . . . . . . . . . . . . . . . . . . . .
8
2.1
Schermate del software utilizzato per l’elaborazione delle immagini ecocardiografiche 3D . . . . . . . . . . . . . . . . . . . 15
2.2
Esempio di superficie ricavata dai dati ecografici . . . . . . . . 16
2.3
Allineamento delle superfici . . . . . . . . . . . . . . . . . . . 19
2.4
Varianza cumulata all’aumentare degli assi di variazione
2.5
Variabilità attorno al modello medio . . . . . . . . . . . . . . 23
2.6
Flowchart dell’algoritmo di matching . . . . . . . . . . . . . . 24
2.7
Correzione dello shift delle immagini in asse corto . . . . . . . 25
2.8
Inizializzazione manuale . . . . . . . . . . . . . . . . . . . . . 26
2.9
Risultato dell’inizializzazione . . . . . . . . . . . . . . . . . . . 28
. . . 22
2.10 Rappresentazione esemplificativa del calcolo delle intersezioni . 30
2.11 Campionamento radiale dei punti di intersezione . . . . . . . . 31
2.12 Risultato del clustering . . . . . . . . . . . . . . . . . . . . . . 32
2.13 Binarizzazione dello spazio di ricerca e risultato della postelaborazione con operatori morfologici . . . . . . . . . . . . . . 34
2.14 Rappresentazione complessiva del processo di segmentazione . 35
2.15 Registrazione rigida . . . . . . . . . . . . . . . . . . . . . . . . 36
2.16 Vettori di aggiornamento del modello . . . . . . . . . . . . . . 38
XI
ELENCO DELLE FIGURE
XII
2.17 Deformazione del modello . . . . . . . . . . . . . . . . . . . . 39
2.18 Evoluzione dell’aggiornamento all’aumentare delle iterazioni . 41
2.19 Risultato finale dell’algoritmo, visualizzato nello spazio 3D . . 42
3.1
Distanza di Hausdorff . . . . . . . . . . . . . . . . . . . . . . . 47
4.1
Confronto tra i volumi calcolati con il metodo di Simpson sia
per l’algoritmo che per il Gold Standard . . . . . . . . . . . . 51
4.2
Grafico di Bland-Altman per il confronto dei volumi ottenuti con la regola di Simpson per l’algoritmo, rispetto al Gold
Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3
Confronto tra le frazioni di eiezione calcolati con il metodo di
Simpson sia per l’algoritmo che per il Gold Standard . . . . . 52
4.4
Grafico di Bland-Altman per il confronto tra le frazioni di
eiezione calcolati con il metodo di Simpson sia per l’algoritmo
che per il Gold Standard . . . . . . . . . . . . . . . . . . . . . 53
4.5
Confronto dei volumi ottenuti sulla totalità del modello rispetto al Gold Standard . . . . . . . . . . . . . . . . . . . . . . . . 54
4.6
Confronto delle frazioni di eiezione ottenute dal calcolo dei
volumi sulla totalità del modello rispetto al Gold Standard . . 54
4.7
Confronto dei risultati ottenuti sulla totalità del modello rispetto a quelli derivanti dal metodo dei dischi sulle segmentazioni dell’algoritmo . . . . . . . . . . . . . . . . . . . . . . . . 56
4.8
Confronto tra le segmentazioni effettuate da un utente esperto
rispetto a quelle generate dall’algoritmo . . . . . . . . . . . . . 59
4.9
Mancata convergenza dell’algoritmo in seguito a dimensioni
troppo elevate della struttura di ricerca . . . . . . . . . . . . . 61
4.10 Paziente soggetto a ipertensione polmonare . . . . . . . . . . . 61
4.11 Errata segmentazione per un soggetto affetto da ipertensione
arteriosa polmonare . . . . . . . . . . . . . . . . . . . . . . . . 62
4.12 Disallineamento slice . . . . . . . . . . . . . . . . . . . . . . . 63
4.13 Segmentazione errata a causa di un non corretto allineamento
63
ELENCO DELLE FIGURE
XIII
4.14 Immagine in cui il clustering non porta ad una corretta segmentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Elenco delle tabelle
2.1
Pazienti utilizzati nella costruzione del modello statistico . . . 14
2.2
Volumi dei campioni utilizzati per la costruzione del modello
statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.1
Range di volumi e frazioni di eiezione del Gold Standard . . . 50
4.2
Valori risultanti dall’analisi comparativa dei volumi e delle
frazioni di eiezione . . . . . . . . . . . . . . . . . . . . . . . . 57
XIV
Ringraziamenti
É doveroso rivolgere un ringraziamento alle persone che hanno reso possibile
la stesura di questo elaborato: il Professor Enrico G. Caiani e l’Ing. Maria
C. Carminati per la disponibilità, il costante aiuto e i preziosi suggerimenti.
Si ringraziano inoltre il Centro Cardiologico Monzino, in particolare il Dr.
Francesco Maffessanti, e la University of Chicago, insieme al Prof. Lang,
per avere messo a disposizione i dati utilizzati per la creazione del modello
statistico.
Non dimentico di ringraziare per tutto il supporto in questi anni la mia famiglia, che mi ha reso quello che sono e che spero di rendere orgogliosa e fiera
di me, oggi come nel prossimo futuro.
Ringrazio Marina, compagna prima solamente negli studi e poi in ogni aspetto della mia vita, lei che mi sta accanto tutti i giorni sopportandomi.
Infine un caloroso ringraziamento va a tutti gli amici, nuovi e di un tempo,
le cui risate hanno allietato anche i giorni più difficili.
Ringrazio tutti loro, perchè senza di loro ogni obiettivo raggiunto non avrebbe
alcun significato.
Grazie.
XV
Capitolo 1
Introduzione
1.1
Anatomia cardiaca
Il cuore è un muscolo cavo, cardine dell’apparato circolatorio, situato all’interno del torace e dotato di attività contrattile autonoma in modo da
garantire la corretta circolazione del sangue all’interno dei vasi arteriosi e
venosi. É una pompa pulsatile composta da quattro cavità: due atri, situati
nella parte superiore che ricevono il flusso di sangue dal sistema circolatorio,
e due ventricoli situati nella parte inferiore del cuore che hanno lo scopo di
far circolare il sangue nell’organismo. Ogni atrio è strettamente accoppiato
al ventricolo sottostante, per questo motivo il cuore può essere suddiviso in
due metà, chiamate rispettivamente cuore sinistro e cuore destro.
Funziona come una duplice pompa nonostante sia un unico organo. Il cuore
destro funge da pompa per la circolazione polmonare, o piccola circolazione.
Il ventricolo destro immette sangue nel tronco arterioso polmonare che si
divide nelle due arterie polmonari, le quali portano il sangue ai polmoni per
rifornirlo di O2 e liberarlo di CO2 . Il sangue ossigenato torna poi al cuore
sinistro tramite le 4 vene polmonari, attraversa atrio e ventricolo sinistro, per
essere pompato nell’aorta, dalla quale si originano le arterie della circolazione
sistemica, detta anche grande circolazione. Il sangue, una volta proceduto ai
processi di scambio coi tessuti periferici, verrà ricondotto attraverso le vene
1
1.1. Anatomia cardiaca
2
cave superiore ed inferiore all’atrio destro del cuore.
Figura 1.1: Anatomia interna del cuore umano. www. edoctoronline. com
La circolazione sanguigna è garantita dall’azione alternata delle due metà
del cuore, le quali hanno un funzionamento analogo. Ad ogni ciclo cardiaco
infatti ciascuna metà è caratterizzata da tre fasi:
• Diastole atriale. L’atrio riceve il sangue dalle vene entranti nel cuore.
La valvola atrioventricolare è chiusa, mentre la pressione all’interno
della camera aumenta.
• Sistole atriale e diastole ventricolare. La valvola atrioventricolare si
apre e il flusso di sangue fluisce dall’atrio al ventricolo.
• Sistole ventricolare. É la fase in cui avviene la contrazione della parete
ventricolare. La valvola atrioventricolare si chiude rapidamente non
1.1. Anatomia cardiaca
3
appena la pressione ventricolare supera quella atriale; in questo modo il
flusso di sangue va solo in una direzione e non torna indietro. Quando la
pressione ventricolare supera anche la pressione all’esterno dell’arteria
si ha l’eiezione sanguigna con l’apertura della valvola semilunare.
Il cuore è munito di 4 valvole atte a tutelare la monodirezionalità del flusso
ematico dagli atri ai ventricoli e da questi alle grosse arterie che nascono dal
cuore. Le valvole atrioventricolari si distinguono in bicuspide o mitrale nel
cuore sinistro, tricuspide nel cuore destro. Queste valvole sono aperte durante la diastole e si chiudono quando i ventricolo sono in sistole. Il ribaltamento
delle cuspidi, che permetterebbe un reflusso sanguigno durante la sistole ventricolare, è impedito dall’azione dei muscoli papillari e delle corde tendinee.
I muscoli papillari sono presenti sia nella parte destra che sinistra del cuore,
in rapporto 1:1 con le cuspidi e di conseguenza sono tre nel ventricolo destro e 2 nel ventricolo sinistro. Sono caratterizzati da un lembo impiantato
su una parete e il lembo controlaterale libero dal quale partono delle sottili
formazioni cordoniformi, dette corde tendinee, che ancorano le cuspidi alle
pareti ventricolari. Le valvole semilunari polmonare e aortica sono invece poste all’origine delle due grosse arterie che emergono dalle cavità ventricolari.
Ciascuna valvola semilunare ha 3 cuspidi che combaciano perfettamente tra
loro quando la valvola è chiusa; si aprono passivamente per effetto del flusso
ematico e si richiudono quando il sangue tende a rifluire verso il cuore. A
differenza delle valvole atrioventricolari, le semilunari sono chiuse in diastole
ed aperte in sistole.
Il cuore e la parte più prossimale della maggior parte dei grandi vasi a lui
adiacenti sono avvolti nel pericardio, una membrana che oltre a proteggere
permette al cuore una discreta libertà di movimento e di variazione di forma, minimizzando l’attrito. Sotto al pericardio si trovano tre tonache, una
interna all’altra, che costituiscono la parete del cuore. Più esternamente vi
è l’epicardio che è costituito da tessuto connettivo, contenente capillari sanguigni, capillari linfatici e fibre nervose e consiste nel foglietto viscerale del
pericardio. Subito sotto vi è il miocardio, formato da fibre muscolari car-
1.2. Imaging cardiaco
4
diache il cui spessore varia fra 5 e 15 mm (maggiore in corrispondenza dei
ventricoli), ordinatamente orientate in modo da permettere la corretta contrazione. Nella parte più interna del cuore si trova l’endocardio che costituisce
un rivestimento protettivo formato da cellule endoteliali. Ha la funzione di
favorire lo scorrimento del sangue all’interno del cuore per evitare coaguli del
sangue e si ritrova anche nei vasi sanguigni.
Il lavoro svolto si preoccupa della segmentazione della parete endocardica
del ventricolo sinistro perchè, essendo la camera più importante del cuore,
l’analisi della sua funzionalità è importante nella valutazione dei fattori di
rischio e mantenimento dell’intero organo cardiaco [Van Assen et al., 2003b].
Figura 1.2: Evidenziazione della posizione della cavità endocardica del ventricolo
sinistro. www. biodigitalhuman. com
1.2
Imaging cardiaco
La quantificazione della funzionalità cardiaca, necessaria per la diagnosi ed
il trattamento delle patologie cardiache, può essere effettuata tramite elet-
1.2. Imaging cardiaco
5
trocardiografia (ECG), misure di pressioni sistoliche e diastoliche, ma soprattutto grazie all’utilizzo dell’imaging diagnostico. La tecnologia ha messo
a disposizione un gran numero di differenti tipologie di imaging, tra cui si
contano ecografia, Tomografia Computerizzata (CT), angiografia coronarica
e risonanza magnetica (MR).
L’ecocardiografia è un sistema di acquisizione delle immagini economico, non
invasivo, permette l’indagine di piani arbitrari e, con l’introduzione dell’eco
3D, la generazione di immagini intrinsecamente tridimensionali. Le molte
qualità sono però compensate da un rapporto segnale-rumore minore rispetto a MR e raggi X, da un ridotto campo di vista a causa dell’attenuazione
dell’onda di pressione all’aumentare della profondità, dall’incapacità di visualizzare strutture poste dietro a regioni contenenti aria, oltre che da una
dipendenza paziente-specifica (e operatore-dipendente) della qualità dell’immagine.
In angiografia, dove si utilizzano immagini a raggi X, il muscolo cardiaco può
essere nascosto dalla sovrapposizione della gabbia toracica e del diaframma; inoltre, l’utilizzo di radiazioni ionizzanti e soprattutto di un liquido di
contrasto può risultare dannoso per l’organismo [Lynch et al., 2006].
1.2.1
Risonanza Magnetica
Riconosciuta oggi come il riferimento per la valutazione non invasiva della funzionalità cardiaca, la risonanza magnetica fornisce, utilizzando diversi
protocolli, informazioni accurate non solo riguardo alla morfologia, ma anche
riguardanti perfusione del miocardio, alla natura del tessuto cardiaco ed ai
flussi sanguigni. In particolare, il recente utilizzo di Gadolinio come mezzo di
contrasto ha introdotto un metodo specifico e sensibile per l’identificazione di
necrosi miocardiche. Tra i vantaggi della risonanza magnetica si annoverano
un eccellente contrasto dei tessuti molli, un’alta risoluzione spaziale, un alto
rapporto segnale-rumore, l’abilità di classificare i tessuti grazie ad un’ampia
varietà di sequenze di impulsi e l’assenza di radiazioni ionizzanti. Di contro è
un procedimento lento, l’acquisizione delle immagini richiede infatti la ripeti-
1.2. Imaging cardiaco
6
zione di apnee (breath-hold) da parte del paziente, durante ognuna delle quali
si procede alla scansione di una porzione specifica del cuore (slice) nel ciclo
cardiaco. L’utilizzo di un trigger dato dal segnale ecocardiografico permette
di attribuire le immagini alle specifiche fasi del ciclo [Finn et al., 2006]. Purtroppo, l’acquisizione lungo differenti fasi di breath-hold può causare errori
di allineamento tra le slice, risultando in artefatti per l’immagine tridimensionale del cuore. Questi si aggiungono agli artefatti da movimento causati
da fasi di apnea non perfette, dagli spostamenti del paziente e dal flusso
sanguigno, i quali conducono a sfocamenti nelle immagini che non possono
essere sempre rimossi. In ultimo, mentre la risoluzione planare è tipicamente
nell’ordine di 1.5 mm × 1.5 mm, quella tra le slice successive, tipicamente
8−10 mm, non è altrettanto ottimale per una ricostruzione 3D dell’anatomia
cardiaca. [Kang et al., 2012].
L’acquisizione di frame appartenenti alle differenti fasi del ciclo cardiaco permette di seguire l’evoluzione delle strutture nel tempo, affiancando le immagini in una sorta di video (cine MRI). Le metodiche di acquisizione di
immagini MR del distretto cardiaco, si sono concentrate sulle tecniche denominate Bright-Blood, dove il sangue è rappresentato con una maggiore
videointensità rispetto agli altri tessuti. Le sequenze generalmente utilizzate
comprendono gradient-recalled echo (GRE), con le sue evoluzioni fast GRE
(fGRE) e segmented k-space fGRE, e steady-state free precession (SSFP). Di
quest’ultima categoria esistono differenti realizzazioni che prendono il nome
di fast imaging employing steady-state acquisition (FIESTA), la sequenza utilizzata per l’acquisizione delle immagini su cui si testa l’algoritmo in esame,
balanced fast field echo (BFFE), fast imaging with steady precession (FISP)
e true FISP [Earls et al., 2002].
Le sequenze GRE sono appropriate per l’imaging cardiaco grazie a tempi
di eco (T E) e ripetizione (T R) ridotti. Il sangue appare bianco rispetto al
miocardio adiacente a causa degli effetti dovuti a time-of-flight e a T2 relativamente lungo. In tutte le sue manifestazioni, le tecniche GRE sono pesate
in T1 e sfruttano il flusso del sangue attraverso il piano di acquisizione per
1.2. Imaging cardiaco
7
esaltare il contrasto tra sangue e miocardio, analogamente a quanto fatto da
angiografia MR. Quindi se TR è troppo corto, oppure il flusso troppo lento,
il sangue risulta saturato. Questo è particolarmente vero per le immagini
LA, dove il sangue può soffermarsi nella sezione, oppure per le immagini SA
nei pazienti con ridotta funzionalità del miocardio. Il problema appena descritto limita quindi l’utilizzo di TR molto corti, necessari per ridurre i tempi
di acquisizione e quindi la lunghezza delle fasi di apnea richieste ai pazienti
[Finn et al., 2006].
Il contrasto delle immagini ottenute con tecniche SSFP dipende invece dal
rapporto T2∗ /T1 dei tempi di rilassamento dei tessuti ed è meno dipendente
dal flusso sanguigno rispetto alle tecniche GRE. Questo tipo di sequenze sono
però particolarmente suscettibili alle disomogeneità del campo magnetico e
richiedono T R estremamente corti, il che ne ha limitato l’utilizzo fino a tempi recenti, quando l’evoluzione tecnologica ha messo a disposizione sistemi a
performance più elevate.
Figura 1.3: Sequenza di impulsi e gradienti della tecnica Balanced SSPF. Tutte le
forme d’onda di eccitazione dei gradienti G sono bilanciate o rifasate. Il segno degli
impulsi a radiofrequenza RF è solitamente alternato, così che viene generato un alto
segnale per gli spin in risonanza. L’eco del segnale è mostrato sovrapposto ai gradienti
Gx [Hargreaves, 2011].
8
1.2. Imaging cardiaco
Le sequenze SSPF, di cui un esempio è rappresentato in figura 1.3, sono basate su sequenze di gradient-echo con piccoli flip angle e ridotti T R e
sfruttano la magnetizzazione trasversale data dalla sovrapposizione di spin
echoes e stimulated echoes provenienti da diverse ripetizioni. Questo viene
solitamente ottenuto rifasando il gradiente phase-encoding in ogni suo intervallo di ripetizione, in modo da mantenere costante il suo integrale. Sequenze
SSPF completamente bilanciate annullano la fase rifasando tutti i gradienti
di codifica [Hargreaves, 2011].
Il risultato, rispetto alle immagini ottenute con tecniche GRE, è un miglior
rapporto segnale-rumore ed un contrasto più elevato tra miocardio e cavità
ventricolari, con un chiaro delineamento delle trabecolazioni e dei muscoli
papillari [Earls et al., 2002]. Le tecniche SSPF, forti un miglior contrasto e
tempi di acquisizione molto ridotti grazie all’utilizzo di T R estremamente
corti, hanno recentemente soppiantato le tecniche GRE nella pratica clinica
per l’imaging cardiaco [Finn et al., 2006, Thiele et al., 2001].
(a) SA
(b) 2-Camere
(c) 4-Camere
Figura 1.4: Esempi dei tre tipi di immagini MR acquisite lungo i tre piani principali:
asse corto, 2-Camere e 4-Camere.
Nella pratica clinica, per la valutazione della cinesi ventricolare sinistra e
per il calcolo dei volumi, vengono utilizzati due differenti protocolli di acquisizione di immagini MR: asse corto (Short-axis, SA) e asse lungo (Long-axis,
LA), mostrati in figura 1.4. Per il protocollo SA vengono acquisite immagi-
1.3. Segmentazione
9
ni lungo piani perpendicolari all’asse del ventricolo sinistro, linea costruita
congiungendo centro della valvola mitrale e apice, ricavati da immagini scout
opportunamente acquisite all’inizio dell’esame. In queste immagini, che coprono tutta la lunghezza del cuore, è difficoltoso però identificare il piano
mitralico poichè perpendicolare ai piani immagine. Proprio nell’asse del ventricolo sinistro si intersecano i piani delle immagini LA, immagini che sono
perpendicolari alle SA e vengono acquisite con diversi orientamenti attorno
all’asse. Le LA possono essere acquisite radialmente ad intervalli arbitrari
(RAD) oppure, come avviene più spesso, lungo le due viste principali, denominate 2-Camere e 4-Camere perchè acquisite ad angoli tali per cui sono
bene visibili rispettivamente solo le 2 camere del cuore sinistro, oppure tutte
le 4 camere cardiache. Esiste anche un orientamento denominato 3-Camere
che evidenzia, insieme alle 2 camere del cuore sinistro, l’inserzione dell’arco
aortico.
1.3
Segmentazione
La funzione contrattile del cuore può essere valutata tramite il calcolo di
volumi, masse ventricolari e frazioni di eiezione, segmentando i ventricoli destro e sinistro nelle immagini. La segmentazione manuale è un procedimento
lento, che richiede parecchio tempo; è inoltre un procedimento fortemente
dipendente dall’operatore, per cui la ricerca si è indirizzata verso l’automazione del processo di segmentazione [Petitjean and Dacher, 2011].
Per quanto riguarda la struttura qui indagata, ovvero l’endocardio ventricolare sinistro, grazie alla particolare sequenza utilizzata per la acquisizione
le immagini MR non necessitano di particolari agenti di contrasto per differenziare il sangue dal miocardio. Esistono comunque delle difficoltà nel
segmentarle a causa delle disomogeneità dei livelli di grigio, dovute al flusso sanguigno ma soprattutto alla presenza dei muscoli papillari e di trabecolazioni (irregolarità della parete) all’interno del ventricolo, strutture che
presentano profili di intensità simili a quelli del miocardio e possono quindi
1.3. Segmentazione
10
rappresentare un significativo problema nella chiara identificazione della parete endocardica.
Nonostante ad oggi siano stati fatti molti passi in avanti alla ricerca di un
metodo che potesse compensare la precisione della segmentazione manuale,
essa rimane ancora oggi il Gold Standard a cui le varie tecniche cercano di
tendere. Negli ultimi anni si sono sviluppate differenti tecniche di segmentazione del ventricolo, le quali possono essere riassunte in quattro tipologie
[Kang et al., 2012]:
• Boundary-driven. Le tecniche di segmentazione Boundary-driven
sono basate sul concetto di evoluzione dei contorni, che si deformano
da uno stato di inizializzazione fino alla disposizione definitiva. Uno
dei più noti è il modello denominato Active Snakes (o contours) , il
quale permette la deformazione di una curva, inizialmente tracciata
dall’utente, sotto l’influenza di forze interne, per mantenere l’uniformità
della curva, e di forze esterne, rappresentate da forze di attrazione dei
contorni nell’immagine [Kass et al., 1988]. Un’altra metodica ormai
assodata è quella che va sotto il nome di Level-set, la quale rappresenta
implicitamente le curve come l’intersezione con il piano immagine di
una funzione scalare di grado superiore a quello del dominio di ricerca
[Osher and Sethian, 1988]. La grande sensibilità all’inizializzazione ne
è la maggiore limitazione, unitamente all’incapacità di seguire strutture
con un’elevata curvatura locale.
• Region-based. Le tecniche appartenenti a questa categoria segmen-
tano le strutture presenti nell’immagine sfruttando le loro proprietà
di omogeneità nella videointensità. La più nota, poichè proveniente
da altri campi di ricerca, prevede l’utilizzo del Clustering per divide-
re in categorie gruppi di pixel in base al loro valore in livelli di grigio
[Boudraa, 1997, Chen et al., 1998].
• Graph-cuts. La teoria a cui fa riferimento tale tecnica interpreta l’immagine come un grafico, in cui ogni pixel è connesso ai pixel adiacenti
1.3. Segmentazione
11
e a dei pixel, selezionati dall’utente, che servono da limiti fissi sia per
l’oggetto che per lo sfondo. Il costo di tali connessioni dipende dall’omogeneità dei pixel connessi, quindi si ricerca il contorno che possa
minimizzare il costo delle connessioni [Boykov and Jolly, 2001].
• Model-fitting. Le tecniche annoverate in questa categoria cercano di
far combaciare una forma geometrica predefinita alla posizione nell’immagine della struttura da segmentare. Generalmente risulta necessario
procedere attraverso due step: prima il modello è costruito a partire
da una serie di dati, per poi essere utilizzato nella fase di matching tra
modello e immagine. L’utilizzo di informazioni a priori sulla natura
delle strutture da segmentare risulta una buona soluzione per i problemi sopra citati, oppure per incrementare robustezza ed accuratezza
degli algoritmi. Le informazioni a priori possono essere di piccola entità, come per esempio delle semplici relazioni spaziali tra gli oggetti,
oppure di più grande entità come modelli statistici che rappresentano
la forma delle strutture, o addirittura i suoi profili di intensità. Questi
ultimi sono chiamati Statistical Shape Models, categoria su cui si basa
l’algoritmo qui proposto e di cui i principali fondamenti verranno più
avanti descritti [Petitjean and Dacher, 2011, Kang et al., 2012].
1.3.1
Statistical Shape Modeling
Quasi ogni oggetto di interesse, parte del corpo umano, può presentarsi in una
gran numero di variazioni di forma, dimensione e composizione dei tessuti;
questo rende spesso difficoltoso il processo di identificazione e segmentazione
automatica delle strutture indagate. L’utilizzo di modelli appropriati, costruiti sulla base di in un numero di dataset utilizzati come riferimento ed
incorporandone informazioni sia in termini di forma che in termini di livelli
di grigio, può apportare un considerevole aiuto. Per risultare efficaci nel processo di segmentazione, tali modelli devono essere in grado di contemplare le
variazioni necessarie in forma, dimensioni e apparenze che un dato può ave-
1.3. Segmentazione
12
re, rispetto ai dataset utilizzati come riferimento. Con apparenze si intende
i livelli di grigi con cui una data struttura viene rappresentata nell’immagine
[Cootes et al., 1994].
I modelli che rappresentano la forma degli oggetti in esame sono costituiti da
una distribuzione di punti che giacciono sulla superficie della forma, motivo
per cui vengono chiamati Point Distribution Models (PDM), e caratterizzano
la forma di una struttura e la sua variabilità [Cootes et al., 1992]. A partire
da un set di dati utilizzati come riferimento, la descrizione della forma di
questi ultimi viene espressa tramite le coordinate di punti generalmente facili da identificare, oppure punti anatomicamente noti, chiamati solitamente
landmarks. A seguito di un necessario allineamento delle forme, vengono
calcolati una forma media e un numero di variazione di forma caratteristiche
attorno al modello medio. Tramite queste è possibile ricostruire le forme appartenenti al set di addestramento come combinazione lineare delle variazioni
di forma attorno al modello medio [Van Assen et al., 2003b]. I processi alla
base della costruzione del modello verranno meglio descritti nella sezione 2.1.
La deformazione dei modelli viene poi guidata, in un algoritmo di matching
denominato Active Shape Model (ASM), dalle informazioni che nelle immagini descrivono l’oggetto target della ricerca. Le informazioni estratte sono
necessarie a suggerire nuove posizioni candidate per i landmark descrittivi
del PDM. La proiezione delle nuove posizioni nello spazio del modello permette la modifica dello stesso. Le coordinate vengono limitate nello spazio
del modello entro confini statistici per forzare il modello a rispecchiare il set
di forme su cui è stato costruito nella fase di training [Cootes et al., 1995].
Un’estensione dell’ASM è stato in seguito proposto e chiamato Active Appearence Model (AAM). Esso incorpora, oltre alle informazioni di natura
geometrica, anche una statistica sui livelli di grigio dei pixel o voxel dell’intero oggetto, permettendo una ricerca basata sulla minimizzazione della
differenza tra le intensità del modello e delle immagini [Cootes et al., 1998].
Questi metodi si sono rivelati strumenti potenti e robusti nella segmentazione di immagini, non solo in ambito medico ma anche in altri campi come la
1.4. Scopo della Tesi
13
Computer Vision e la Face Recognition.
1.4
Scopo della Tesi
La motivazione principale di questo lavoro è l’implementazione e la conseguente validazione di un algoritmo di segmentazione 3D della parete endocardica del ventricolo sinistro a partire da immagini MR in asse corto
tramite l’applicazione di ASM, utilizzando un modello statistico costruito
sulla base di dataset di riferimento, ottenuti dalla segmentazione di immagini ecocardiografiche 3D. Tale scelta è legata al fatto di ottenere un modello
statistico intrinsecamente 3D che possa essere adattato, nel caso specifico,
alla segmentazione simultanea di immagini MR 2D, senza precludere ulteriori applicazioni ad altre tipologie di immagini (per esempio CT), senza
necessità di dover addestrare nuovamente il modello statistico, cosa che invece si dovrebbe fare se si decidesse di utilizzare informazioni di intensità
come nell’AAM. Si è perciò deciso di applicare lo schema iterativo dell’ASM
[Van Assen et al., 2003b].
L’algoritmo presuppone di richiedere all’utente un numero limitato di informazioni per eseguire la localizzazione iniziale del modello per poi procedere in
maniera totalmente automatica alla segmentazione delle immagini, richiedendo un tempo significativamente minore di quello che impiegherebbe l’utente
a segmentare le singole slice. In particolare, nell’identificazione dell’oggetto
in esame, si fa ricorso all’intervento dell’operatore per la localizzazione di 6
punti noti nelle immagini in asse lungo, per identificare nello spazio 3D il
centro della valvola mitrale e l’apice dell’endocardio.
Inoltre, l’utilizzo di un modello 3D per segmentare delle immagini bidimensionali permette di mantenere la continuità dell’oggetto all’interno delle sue
acquisizioni 2D e di averne una rappresentazione statisticamente accurata
negli spazi che intercorrono tra le diverse slice, solitamente spaziate tra loro
di diversi millimetri. Quindi permette di calcolare anche in una maniera più
vicina alla realtà il volume della camera in esame.
Capitolo 2
Metodi
2.1
Generazione del modello
Per la generazione del modello statistico, è stata utilizzata una popolazione
di 205 pazienti, per i quali in tabella 2.1 si elenca la distribuzione in base alle
diagnosi.
Diagnosi
numero
Normali
122 (8)
Cardiomiopatia dilatativa
19 (9)
Insufficienza aortica
13
Stenosi aortica
11
Rigurgito mitralico
28
Stenosi mitralica
12
Tabella 2.1: Tabella riassuntiva della diagnosi dei pazienti utilizzati nella costruzione
del modello statistico. I numeri elencati fra parentesi indicano quanti, dei pazienti
della medesima categoria, presentano anche un blocco di branca sinistra.
L’esame di ogni paziente comprendeva un ciclo cardiaco completo per un
totale di 3284 frame analizzati. L’intero dataset si estende lungo una varietà
di morfologie del ventricolo sinistro, con volumi che si distribuiscono secondo
quanto riportato in tabella 2.2.
14
15
2.1. Generazione del modello
Misura
Valore (ml)
Range
22.45-409.66
Media
108.74
Deviazione standard
70.93
25◦ Percentile
59.66
Mediana
90.06
75◦ Percentile
139.77
Tabella 2.2: Tabella riassuntiva della distribuzione dei volumi dei campioni utilizzati
per la costruzione del modello statistico.
Tali pazienti sono stati sottoposti ad esame ecocardiografico 3D transtoracico presso il Centro Cardiologico Monzino, Milano, o la University of
Chicago, IL, USA. In entrambi i casi, la strumentazione utilizzata é stata
l’apparecchiatura iE33 (Philips) dotata di sonda 3D (X3-1 ). I dati sono
stati acquisiti in modalità full-volume, ove la piramide di acquisizione viene
generata a partire dal dato acquisito in 4-7 battiti consecutivi, sincronizzato
tramite trigger del segnale ECG, durante apnea a fine espirazione.
(a)
(b)
Figura 2.1: Schermate del software utilizzato per l’elaborazione delle immagini ecocardiografiche 3D e l’ottenimento dei volumi su cui si è proceduto a generare il modello
statistico (www. tomtec. de ).
Le immagini 3D sono state elaborate tramite software per la segmentazio-
2.1. Generazione del modello
16
ne semiautomatica (4D LV analysis, Tomtec, Monaco, Germania), di cui due
schermate sono mostrate a titolo esemplificativo in figura 2.1, nella seguente
maniera: a partire da un’inizializzazione manuale di alcuni punti fiduciari su
piani anatomici preimpostati (vista apicale 2-, 3-, e 4-camere), l’algoritmo
procede alla generazione di una superficie 3D che rappresenta l’endocardio
del ventricolo sinistro. Una volta ottenute, le superfici ventricolari nel ciclo
cardiaco sono state esportate in termini di coordinate dei nodi e di matrice
di connettività delle facce che costituiscono i modelli. Ogni superficie, di cui
una è visibile in figura 2.2, è composta da 642 nodi, attraverso cui il nodo
388 passa la retta che identifica l’asse aortico, di modo da poter orientare
correttamente nello spazio 3D le superfici provenienti da pazienti diversi in
relazione alla posizione della aorta. Nella stessa figura, il punto 388 è chiamato AO.
Figura 2.2: Esempio di superficie ricavata dai dati ecografici con evidenziati i tre punti
noti utilizzati nella fase di allineamento.
2.1. Generazione del modello
17
La generazione di un modello statistico presenta tre problemi fondamentali:
• Corrispondenza dei punti.
• Allineamento delle forme.
• Modellazione statistica e variabilità della forma.
Per come sono state costruite le superfici , ed i loro nodi e connettività definite, la corrispondenza dei punti anatomici viene automaticamente garantita
dalla segmentazione. É quindi possibile trascurare il primo step in questo
caso, ovvero quello di attribuzione della corrispondenza trai punti, e concentrarsi qui di seguito sugli altri due problemi, quello di allineamento e quello
di modellazione. Nel caso si fosse utilizzato un differente metodo di segmentazione o modalità di imaging per l’ottenimento delle immagini da utilizzare
come riferimento nel modello statistico, si sarebbe dovuto affrontare il problema del campionamento delle superfici ottenute e della corrispondenza tra
i loro nodi nello spazio.
2.1.1
Allineamento
Un requisito essenziale per la costruzione di un modello statistico è quello di
allineare i dati in modo che i nodi di ciascun modello si trovino in posizioni
corrispondenti con i relativi nodi degli altri modelli. Si applicano quindi
operazioni di trasformazione quali traslazioni, rotazioni e scalatura agli interi
modelli in modo da avvicinare i nodi corrispondenti di tutte le forme, senza
alterare il rapporto tra le distanze dei nodi che costituiscono una stessa forma.
In alcuni casi, come quello proposto, le dimensioni generali del modello sono
considerate come una parte della variabilità anatomica e quindi, al fine di
includerne la variabilità nella statistica del modello costruito, l’allineamento
prescelto non prevede scalatura [Heimann and Meinzer, 2009].
Per l’allineamento delle superfici ventricolari a disposizione per la costruzione
del modello medio, si è proceduto come segue. A partire dalla posizione nota
18
2.1. Generazione del modello
dei nodi corrispondenti all’apice (AP), al punto centrale del piano mitralico
(MV), e del nodo attraverso cui passa l’asse centrale del tratto di efflusso
aortico (AO), la nuvola di dati è stata così registrata:
• Traslazione. Per ogni frame di ogni paziente, calcolo del baricentro
della nuvola di punti e sottrazione dello stesso ad ogni punto per porre
l’origine del sistema di riferimento di tutte le forme in [0, 0, 0].
• Rotazione. Si è fatto combaciare il piano sui cui giacciono l’asse lungo del ventricolo, definito come congiungente dei punti MV e AP, e
l’asse aortico, passante per i punti AO e AP. Inoltre l’asse lungo è
stato ruotato in modo da farlo combaciare, per semplicità, con l’asse z.
Quindi, considerando 2.1 la costruzione della terna di assi che costituisce il sistema di riferimento di ogni forma, si è posto l’asse lungo v1 a
[0, 0, 1] (asse z) e si è provveduto a far combaciare gli altri due assi.
MV − AP
|MV − AP |
AO − MV
v2 = v1 ×



|AO − MV |





v1









=
(2.1)
v3 = v1 × v2
dove v2 è la normale al piano su cui giacciono contemporaneamente
gli assi lungo e corto, mentre v3 è costruita per completare la terna
cartesiana sui due assi precedenti.
Mentre per asse lungo v1 e origine si ha un riferimento fisso, rispettivamente
l’asse z ed i baricentri delle forme, per la rotazione intorno all’asse z si è
scelto di registrare tutte le forme ad una qualunque del dataset. Un esempio
di tale processo è osservabile in figura 2.3, dove una superficie (in rosso) viene
registrata ad una superficie scelta come riferimento (in giallo) applicando una
trasformazione T . Il risultato è poi visualizzato in verde.
2.1. Generazione del modello
19
Figura 2.3: Esempio di allineamento di superfici. Presa una superficie qualunque di
riferimento (in giallo), si registra rigidamente la supeficie rossa al suo sistema di riferimento applicando una trasformazione T . In verde si visualizza la superficie registrata.
Sono inoltre evidenziati i versori v1 , v2 e v3 che compongono i sistemi di rifermineto
delle due superfici.
20
2.1. Generazione del modello
2.1.2
Riduzione della dimensionalità
Una volta allineate le forme, è possibile passare all’analisi statistica del dataset e della generazione del modello. Considerando ogni singola forma, le
coordinate di tutti i k nodi che la descrivono vengono racchiusi in un vettore
x di dimensione 3k:
x = [x1 , y1, z1 , . . . , xk , yk , zk ]T
(2.2)
Quindi, il modello medio può essere calcolato facendo una semplice media
delle posizioni dei punti corrispondenti su tutte le N forme:
x̄ =
N
1 X
xi
N i=1
(2.3)
Successivamente, si effettua l’Analisi delle Componenti Principali (PCA), un
metodo di rappresentazione delle forme in grado di incorporare le loro proprietà distintive e contemporaneamente di fornire una descrizione compatta e
parametrica della variabilità del sistema. Questa generalizzazione del dataset
di riferimento per la costruzione del modello statistico consente di generare
forme che soddisfano i limiti dello stesso dataset, usando un numero ridotto
di parametri [Cootes et al., 1992].
L’idea principale della PCA è di ridurre la dimensionalità dei dati, i quali
consistono in un gran numero di variabili correlate tra loro, mantenendo al
contempo la variabilità presente nel set di dati originale. Questo viene ottenuto trasformando i dati in un nuovo set di variabili, dette Componenti
Principali (PC), che sono scorrelate e che sono ordinate per variabilità decrescente, in modo che le prime descrivano la maggior parte della variabilità
del sistema di dati originale [Joliffe, 2002].
La correlazione tra i nodi che descrivono la mesh è stimabile attraverso il
calcolo della covarianza S del sistema:
S=
N
1 X
(xi − x̄)(xi − x̄)T
N − 1 i=1
(2.4)
La PCA fornisce così un set di 3k assi principali di variazione (ovvero le PC)
descritti dagli autovettori (p), che sono combinazione lineare degli assi del
21
2.1. Generazione del modello
sistema originale, ed ordinati secondo varianza decrescente. Gli autovalori
(λ) rappresentano la varianza di ogni modo di variazione e sono ordinati in
modo decrescente:
λ1 > λ2 > · · · > λ3k
(2.5)
É così possibile ridurre la dimensionalità del sistema occupandosi solo dei
primi m ≪ 3k assi di variazione, scegliendo m in modo che la varianza Vm
spiegata dai primi m assi sia una percentuale consistente di quella totale Vt :
m
P
Vm
Im =
= i=1
3k
P
Vt
i=1
λi
(2.6)
λi
Solitamente si sceglie m in modo che Im abbia un valore compreso tra 0.9 e
0.98, oppure alternativamente osservando un calo significativo nella varianza
nel grafico delle varianze (metodo elbow) [Joliffe, 2002]. Gli autovettori corrispondenti a grandi autovalori rappresentano gradi di libertà significativi nella
famiglia delle forme da cui la statistica è stata ottenuta, mentre i vettori con
autovalori piccoli o nulli rappresentano gli invarianti [Cootes et al., 1992]. É
quindi possibile approssimare ogni forma valida come combinazione lineare
dei primi m modi di variazione:
x ≈ x̄ +
m
X
P bi
(2.7)
i=1
dove P = (p1 |p2 | . . . |pm ) contiene i primi m autovettori della matrice di
covarianza e b è un vettore di dimensione m che definisce i parametri di un
modello deformabile ed è dato da:
b = P T (x − x̄)
(2.8)
Gli autovettori P definiscono essenzialmente un sistema di riferimento ’ruotato’ intorno al modello medio ed il vettore b definisce i punti in questo
sistema ruotato.
La varianza dell’i-esimo parametro bi sui dati di addestramento è rappresentato ancora una volta dal relativo autovalore λi . É necessario limitare il
22
2.1. Generazione del modello
1
0.9
0.8
Variance explained
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
10
20
30
40
PCs
50
60
70
Figura 2.4: La percentuale di varianza cumulata Im all’aumentare degli assi di variazione. Si può notare come l’andamento tenda presto a valori prossimi al 100%. Qui
sono rappresentati solo i primi 79 valori, quelli considerati, sul totale di 1926.
√
parametro bi tra ±3 λi per assicurare che la forma ottenuta rientri nella va-
riabilità del sistema statistico su cui si è costruito il modello [Cootes, 2000].
Seguendo questo procedimento, si é proceduto all’allineamento di un totale
di 3284 superfici ventricolari, indipendentemente dalla loro collocazione temporale nel ciclo cardiaco. Dalla figura 2.4, si può osservare come la maggior
parte della varianza cumulata sia spiegata da un numero ridotto rispetto al
numero totale di componenti principali calcolate. Per tale motivo, ed in base
alla regola empirica prima espressa, si é deciso di considerare m pari a 79.
In Figura 2.5 si può invece osservare in verde il modello medio ottenuto, ed
in rosso e blu il range delle sue deformazioni associate ad una variazione di
√
±3 λi dell’autovalore associato alla relativa componente principale (dalla
prima alla quinta). É interessante notare come la prima PC sia in grado di
spiegare ben il 45% della variabilità, ed essa sia legata essenzialmente alle
dimensioni del ventricolo. Inoltre, si osserva come le prime 5 PC spieghino
già più del 75% della variabilità intrinseca.
23
2.1. Generazione del modello
(a) PC n.1.
(b) PC n.2.
(c) PC n.3.
(d) PC n.4.
(e) PC n.5.
√
Figura 2.5: Variabilità di ±3 λ1 attorno al modello medio lungo i primi 5 assi di
variazione, comprensivi di percentuale di varianza cumulata.
2.2. Algoritmo di Matching
2.2
24
Algoritmo di Matching
Figura 2.6: Flowchart dell’algoritmo di matching.
La figura 2.6 mostra il flow-chart dei diversi step presenti nell’algoritmo
di matching, che verranno nel seguito illustrati. Il modello statistico viene
dapprima inizializzato a partire dalla posizione di alcuni punti scelti manualmente dall’utente sulle immagini MR corrispondenti alle proiezioni 2- e
4-camere apicali, e poi applicato ricorsivamente allo stack di immagini MR in
asse corto acquisite nel medesimo paziente, su cui avviene la vera e propria
segmentazione con guida della modifica del modello. L’aggiornamento del
modello tende alla minimizzazione dello scarto tra due set di punti, il primo
rappresentato dai nodi della mesh, ed il secondo dai punti in corrispondenza
del contorno endocardico, individuati su ogni piano 2D del dato MR originario. Il risultato dell’algoritmo di matching è definito da un determinata
conformazione del modello y, caratterizzata da una trasformazione rigida T
25
2.2. Algoritmo di Matching
e dai parametri di forma b, come definiti in 2.1.2:
y = T (x̄ + P b)
(2.9)
Da uno stato iniziale, definito dal modello medio x̄, e una posa preliminare
T0 dovuta all’inizializzazione manuale, vengono iterativamente calcolati gli
aggiustamenti ad ogni nodo della mesh valutando quanto lo stato attuale sia
conforme alle immagini MR [Heimann and Meinzer, 2009].
2.2.1
Preprocessing
Figura 2.7: Esempio di correzione apportato dall’applicazione dello shift planare delle
immagini in asse corto. A sinistra l’intersezione delle 3 immagini prima della correzione
e a destra dopo la correzione [Carminati et al., 2012].
Prima di combinare in uno spazio 3D le informazioni relative alle immagini MR acquisite in asse lungo ed in asse corto, è risultato opportuno
correggere i possibili artefatti legati ad una loro non corretta registrazione.
Essi sono principalmente dovuti a possibili spostamenti del paziente tra le varie apnee in fase di acquisizione, alla variabilità tra le apnee, a apnee parziali
legate all’impossibilità dei pazienti a trattenere il respiro per il tempo necessario all’acquisizione, circa 15 secondi. Questo problema viene ancora più
accentuato in pazienti con insufficienze cardiache, per i quali la capacità di
trattenere il respiro è compromessa. Per risolvere tale incongruenza spaziale,
26
2.2. Algoritmo di Matching
si é proceduto ad applicare uno shift planare di correzione delle immagini in
asse corto in modo da massimizzare le cross-correlazioni normalizzate delle
intensità dei pixel lungo le intersezioni tra i piani delle immagini in asse lungo e corto [Carminati et al., 2012]. In figura‘2.7 si evidenzia l’intersezione
tra due immagini in asse lungo ed una in asse corto; a sinistra si nota un
evidente shift dell’immagine SA rispetto alle LA, con le strutture che non
combaciano, mentre a destra si mostra la versione corretta dello stesso set di
immagini.
2.2.2
Inizializzazione manuale
Si è scelto di inizializzare manualmente il modello selezionando alcuni punti
di facile individuazione anatomica sulle immagini in asse lungo 2-camere e 4camere. I punti noti prescelti sono i punti di inserzione dei lembi nell’annulus
mitralico e l’apice del ventricolo sinistro, rispettivamente chiamati MV1,
MV2 ed Apex in figura 2.8.
Select in order: Apex and Mitral Valve borders.
Select in order: Apex and Mitral Valve borders.
Apex
MV1
MV2
MV1
MV2
Apex
(a) 2C
(b) 4C
Figura 2.8: Inizializzazione manuale dei lembi della valvola mitrale e dell’apice dell’endocardio del ventricolo sinistro, effettuato nelle proiezioni in asse lungo a 2- e
4-camere.
27
2.2. Algoritmo di Matching
I punti vengono poi riportati nel sistema di riferimento del paziente (Reference Coordinate System, RCS) secondo la seguente formula, come suggerito
dallo standard DICOM.[NEMA, 2009]

Px
 
 
 Py 
 
 
 Pz 
 
1


Xx ∆i Yx ∆j 0 Sx
=


Xy ∆i


Xz ∆i

0
Yy ∆j 0
Yz ∆j 0
0
0
 
i
 
 
j 
Sy 
 
 
0
Sz 
 
1
(2.10)
1
dove le variabili rappresentano quanto segue:
• Pxyz . Le coordinate del voxel (i,j) nel piano immagine in mm.
• Sxyz . I tre valori degli attributi contenuti nel campo DICOM Image
Position (Patient) (0020,0032). Esso rappresenta la posizione in mm
dell’origine del piano immagine rispetto all’origine del RCS.
• Xxyz e Yxyz . Valori dei coseni direttori dell’immagine, secondo il campo
Image Orientation (Patient) (0020,0037).
• i e j. Indici, rispettivamente colonne e righe, riferimento del piano
immagine.
• ∆i e ∆j. Risoluzione dei pixel nelle due direzioni, contenuta nel campo
Pixel Spacing (0028,0030) e misurata ancora in mm.
Una volta riportati nel sistema di riferimento RCS, i due punti apicali selezionati nelle immagini a 2- e 4-camere vengono mediati, così da ottenere una
più corretta rappresentazione nello spazio 3D dell’apice ventricolare(Apex).
Dai 4 punti MV inizializzati, viene ricavata la posizione del punto centrale
del piano mitralico (MVc). Successivamente, da tali punti (Apex e MVc),
è possibile ottenere una stima della dimensione longitudinale dell’asse lungo
ventricolare, che viene utilizzata per la scalatura del modello medio. Si ricorda infatti, come spiegato nella sez. 2.1.1, che nella costruzione del modello
statistico si è preferito mantenere i dati non scalati, lasciando così la variazione di scala attribuita alla possibile variabilità anatomica. Considerando
28
2.2. Algoritmo di Matching
quindi il rapporto tra la distanza tra Apex e MV rispetto alla distanza tra i
punti apicale e basale del modello medio(Apexm e MVm ), si trova un fattore
di scala S
|MV − Apex|
(2.11)
|MVm − Apexm |
che, applicato ai nodi del modello medio, consente di ottenere la nuova
S=
distribuzione dei punti xs .
xs = S x̄
(2.12)
Introducendo il nuovo vettore contente le coordinate dei punti scalati nell’equazione 2.8, si può osservare se la scalatura è in accordo con la variabilità
del sistema oppure se è necessario limitare l’espansione (o riduzione) ai limiti
√
definiti, cioè limitando la b ottenuta tra ±3 λ.
Figura 2.9: Risultato dell’inizializzazione. Si visualizza la posizione di partenza del
modello medio scalato, in blu, rispetto alle immagini in asse lungo e asse corto. Di
queste ultime si mostrano solo la prima e l’ultima considerate nella ricerca.
L’identificazione della posizione del piano valvolare e dell’apice consente anche di selezionare automaticamente, tra tutti i piani acquisiti, quelle
2.2. Algoritmo di Matching
29
immagini in asse corto che rappresentano il solo ventricolo sinistro, e che
verranno considerate nella fase di segmentazione per la deformazione del modello. Questo al fine di non trascinare il modello su falsi contorni generati da
strutture cardiache diverse dalla parete endocardica del ventricolo sinistro,
struttura di interesse in questo lavoro.
Inoltre, avendo posto in fase di allineamento l’asse lungo del modello parallelamente all’asse z, si sceglie di utilizzare le coordinate x e y della media tra
MV ed Apex per dare una prima localizzazione sulle immagini in asse corto
del baricentro del modello.
2.2.3
Segmentazione
Il posizionamento e la deformazione del modello 3D sono guidati ad ogni
iterazione da una serie di nuove posizioni candidate per i nodi del modello,
generate a partire dalle immagini in asse corto. La generazione dei nuovi
punti avviene separatamente su ogni singola immagine in asse corto considerata, successivamente tutti i punti contribuiscono contemporaneamente al
matching con il modello statistico.
Il processo di generazione di posizioni candidate per i nodi del modello
è composto dai seguenti passaggi fondamentali e viene ripetuto per ogni
immagine in asse corto:
1. Intersezioni. Ogni piano immagine taglia la mesh, costituita da facce
triangolari. Vengono considerate le facce che hanno 2 nodi generatori su 3 al di sopra del piano immagine mentre il rimanente sotto, o
viceversa (vedi figura 2.10). Si identificano così quali sono i segmenti
perimetrali delle facce che attraversano l’immagine ed è possibile ricavare le coordinate delle intersezioni dei segmenti col piano tramite una
semplice interpolazione lineare.
Al fine di aumentare lo spazio di ricerca, si è deciso di aggiungere altri punti in posizione media tra ogni coppia di intersezioni adiacenti
sul piano. Questo è possibile in quanto le facce della mesh sono piane e quindi tali punti appartengono effettivamente alla superficie del
2.2. Algoritmo di Matching
30
Figura 2.10: Rappresentazione esemplificativa del calcolo delle intersezioni I12 e I13 ,
generate dalla compenetrazione del piano immagine (in rosso) e di una faccia triangolare della mesh che costituisce il modello (in blu). I12 è generata dal segmento che
congiunge in vertici N1 e N2 , mentre I13 da N1 e N3 .
modello. Idealmente, facendo riferimento sempre alla figura 2.10, per
la coppia di intersezioni I12 e I13 si genera un punto di intersezione a
metà dei due punti. Questo ha permesso il raddoppio del campionamento della mesh, passo necessario soprattutto nelle slice apicali, dove
il modello è meno esteso.
2. Spazio di ricerca. Per ogni punto di intersezione tra mesh e piano Iij ,
si sono estratti i profili di videointensità dei pixel che giacciono sulla
retta passante per il punto stesso ed il baricentro di tutte le intersezioni
sul piano considerato [Van Assen et al., 2003b]. Ogni profili radiale, su
cui si andrà poi a ricercare la nuova posizione candidata del punto, si
estende internamente al modello di una lunghezza pari alla media delle distanze tra i punti Iij ed il baricentro degli stessi; esternamente si
estende di una lunghezza fissa di 10 pixel, aumentabile automaticamen-
2.2. Algoritmo di Matching
31
Figura 2.11: Campionamento radiale dei punti di intersezione. Nella figura a sinistra, in
verde i punti di intersezione iniziale del modello con questa fetta ed in giallo i limiti dei
profili di ricerca. A destra, l’immagine costruita a partire dai profili radiali campionati.
Per questo motivo, alcuni punti (neri) non appaiono definiti, in particolare verso il
bordo esterno della regione considerata, dovuto ad un sottocampionamento radiale di
questa regione. La linea rossa rappresenta il verso con cui i profili di campionamento
radiali vengono affiancati.
te fino a 20 nel caso in cui l’algoritmo non riesca a trovare un candidato
(Figura 2.11). Si è preferito utilizzare un campionamento radiale e non
relativo alle perpendicolari alla superficie in quanto i cambiamenti di
morfologia tendono a destabilizzare il processo di ricerca, favorendo la
ricaduta dell’algoritmo in minimi locali. Cambi di curvatura del contorno tracciato sul piano dalle intersezioni portano al cambio repentino
dell’angolazione dei profili di campionamento perpendicolari che arrivano anche a compenetrarsi tra loro. Inoltre, il processo di controllo
della derivata per la correzione del contorno, che si vedrà più avanti
nel punto 4, prevede che le linee adiacenti abbiano un orientamento
assimilabile al fine di giustificare la ricerca di continuità del contorno.
3. Clustering. I profili di videointensitá ottenuti dai campionamenti ra-
2.2. Algoritmo di Matching
32
Figura 2.12: Risultato del clustering (pannello inferiore) applicato all’immagine a livelli
di grigio ottenuta a partire dal campionamento radiale. Nel pannello superiore si vede
l’affiancamento dei profili di campionamento radiale di tutti i punti Iij dell’immagine.
In alto i profili combaciano con il baricentro delle intersezioni per poi espandersi nella
ricerca fino all’esterno del ventricolo (in basso). La linea verde rappresenta l’altezza a
cui si trovano i punti di intersezione Iij per ogni segmento di ricerca.
diali vengono poi affiancati al fine di ottenere una immagine 2D, sulla
quale viene effettuato un processo di clusterizzazione al fine di distinguere le diverse strutture di interesse presenti nella ROI dell’immagine
(Fig. 2.12) [Van Assen et al., 2003a]. A tale scopo si è scelto di utilizzare l’algoritmo K-means, che ripartisce un dataset di N oggetti in un
numero fisso di K raggruppamenti secondo la distanza che i dati hanno
dai K centroidi rappresentativi di ogni gruppo. I centroidi vengono
inizializzati casualmente, i dati vengono poi attribuiti ai centroidi per
cui la distanza euclidea è minore, ed infine i centroidi vengono ricalcolati come media dei dati che appartengono al determinato cluster.
L’algoritmo viene ripetuto iterativamente per un numero finito di passi, finchè la somma delle distanze dei dati dal proprio centroide scende
sotto una certa soglia, oppure finchè la soglia decresce [MacKay, 2003].
Sebbene le strutture di interesse che rientrano nella ricerca siano riducibili a sole 3 tipologie (sangue, miocardio e strutture esterne), la
pratica e studi già pubblicati hanno suggerito di utilizzare un cluste-
2.2. Algoritmo di Matching
33
ring a 5 cluster invece che solamente 3, al fine di essere in grado di
rappresentare la transizione tra strutture differenti, che spesso non è
così netta da consentire una detezione univoca. La ROI è quindi stata suddivisa in 2 cluster che rappresentano il sangue, 2 il miocardio
ed 1 per le strutture più esterne a videointensità minore. A valle di
tale clusterizzazione, l’immagine viene binarizzata considerando come
cavità (pixel bianco) i pixel appartenenti ai cluster del sangue, e come
miocardio (pixel nero) i pixel appartenenti agli altri cluster (vedi fig.
2.13) [Van Assen et al., 2008].
Il campionamento lungo i profili radiali è generalmente esteso per un
tratto più lungo all’interno del ventricolo che all’esterno, questo per
garantire un clustering più raffinato dei livelli di grigio appartenenti al
sangue e al miocardio. Comprendendo nell’immagine su cui si va a fare
il clustering un numero maggiore di pixel appartenenti alle strutture
interne al ventricolo rispetto a quelle esterne, si aumenta la selettività della suddivisione dei pixel di frontiera della parete endocardica che
hanno valori di videointensità simili, dato che la separazione tra sangue
e miocardio non è sempre netta e facilmente identificabile.
Una volta binarizzata l’immagine, si procede con opportune operazioni morfologiche ad eliminare eventuali outliers ed a riempire potenziali buchi di piccole dimensioni, eliminando quindi possibili artefatti in fase di classificazione, e limitando, per quanto possibile, potenziali errori di segmentazione legati alla presenza di muscoli papillari
[El Berbari et al., 2007]. In particolare, le porzioni con aree piccole e
distaccate dalla sezione principale, cioè zone che possono essere state
erroneamente classificate oppure che rappresentano tessuti con caratteristiche simili a quelli di interesse, vengono eliminate poichè non appartenenti ad aree che hanno origine nel baricentro del campionamento
e quindi non nel centro della cavità, visionabile nella figura 2.13 come
la parte superiore dell’immagine. Si procede poi a riempire i profili di
ogni intersezione Iij , cioè le colonne nell’immagine in fig. 2.13, scorren-
2.2. Algoritmo di Matching
34
Figura 2.13: Binarizzazione dello spazio di ricerca (sopra) e risultato della postelaborazione con operatori morfologici (sotto) dell’immagine binarizzata, mantenendo
in bianco i cluster relativi al sangue ed in nero quelli relativi agli altri tessuti. La linea
verde rappresenta ancora i punti di intersezione per ogni segmento di ricerca.
do ogni singola colonna dalla parte superiore, ovvero il baricentro, verso
il basso (o esterno della cavità) fino all’ultima transizione bianco-nero
trovata. Questo passaggio, oltre a diminuire la possibilità di segmentare i muscoli papillari, fornisce un espediente per la semplificazione della
ricerca del contorno.
4. Ricerca del contorno. A partire dalla immagine binaria così ottenuta, si procede alla ricerca del passaggio da 1 a 0 per ogni colonna
dell’immagine in basso nella figura 2.13. Al fine di ridurre ulteriormente
potenziali artefatti legati alla localizzazione del punto di transizione tra
colonne adiacenti in punti non adiacenti, viene calcolata la derivata del
contorno ed un controllo sulla soglia opportuno, di modo da eliminare
brusche variazioni. Tale controllo è effettuato percorrendo il contorno
in entrambe le direzioni, ed operando una sostituzione del potenziale
outlier con i valori adiacenti solo in caso di superamento della soglia
(fissata in 4 pixel) per entrambe le direzioni.
I punti identificati con il processo di segmentazione qui descritto, riassumibile in fig. 2.14, andranno a guidare la modifica del modello statistico 3D,
2.2. Algoritmo di Matching
35
(a) I quattro passaggi che portano alla (b) Risultato della segmentazione.
segmentazione visti in parallelo.
Figura 2.14: Rappresentazione complessiva del processo di segmentazione. In verde
ancora i punti di intersezione mentre in rosso la segmentazione, riportata anche sui
passaggi precedenti all’ultimo e all’immagine.
sia nel suo posizionamento che nella sua deformazione. I due casi verranno
separatamente analizzati.
2.2.4
Registrazione rigida
La registrazione rigida del modello in fase di matching è volta ad allineare
quanto più possibile la nuvola di intersezioni del modello con tutti i piani
immagine in asse corto ai relativi punti generati dalla fase di segmentazione.
Il metodo solitamente utilizzato per risolvere questo problema è l’allineamento o analisi di Procruste, che minimizza la somma quadratica delle distanze
euclidee tra i punti delle forme. A questo scopo vengono calcolate le migliori
trasformazioni di traslazione, rotazione, scalatura e riflessione. Nell’implementazione proposta ci si è limitati, come già detto, alla sola traslazione e
rotazione (analisi parziale di Procruste), considerando così le altre possibili
fonti di disallineamento come parte della variabilità biologica del dato consi-
2.2. Algoritmo di Matching
36
derato [Gower, 1975]. Questo passaggio viene effettuato a monte della deformazione, al fine di rimuovere quanto più possibile le differenze dovute esclusivamente ad un posizionamento non corretto del modello all’interno dello
spazio 3D e non imputabili alla sua geometria [Heimann and Meinzer, 2009].
Le matrici di rototraslazione T , che vanno a meglio allineare i punti, vengono
calcolate in modo da minimizzare la somma quadratica delle distanze tra i
punti di intersezione e le relative posizioni candidate, generate dalla fase di
segmentazione. La trasformazioni vengono poi applicate a tutti i nodi della
forma (Fig. 2.15). La registrazione rigida viene ripetuta, ogni volta a seguito
di una nuova segmentazione, finchè la somma quadratica degli scarti cessa
di diminuire. A questo punto si ritiene che le differenze causate dal posizionamento globale del modello nello spazio immagine siano state appianate e
non resta che occuparsi delle deformazioni.
Figura 2.15: Esempio di registrazione rigida. Per allinearsi con i risultati delle segmentazioni planari (punti rossi), le intersezioni del modello in posizione iniziale (punti blu
su forma azzurra) vengono rototraslate (punti verdi su forma gialla).
37
2.2. Algoritmo di Matching
2.2.5
Aggiornamento modello
A partire dalla segmentazione 2D di ogni immagine in asse corto, si hanno
a disposizione delle nuove posizioni candidate per i punti di intersezione del
modello. Questi spostamenti però devono essere proiettati nello spazio tridimensionale ai nodi generatori del modello. Lo spostamento che lega la posizione candidata sik , generata dalla segmentazione planare, con l’intersezione
relativa Iik , sul cui profilo di campionamento radiale è stata identificata, viene
rappresentato dal vettore vik , dove i e k sono i nodi della mesh adiacenti il cui
segmento congiungente con cui concorrono a limitare una faccia triangolare,
come visto in figura 2.10, interseca il piano generando l’intersezione.
−
v→
ik = sik − Iik
(2.13)
Si ricorda che in fase di ricerca delle intersezioni (2.2 punto 1), si era
provveduto a raddoppiare il campionamento delle stesse. Il contributo delle
intersezioni ’fittizie’, non direttamente riconducibili ad un segmento generatore ma comunque appartenenti alla superficie della mesh, è stato riportato
alle intersezioni ’reali’ adiacenti. In questo modo ogni intersezione generata
da segmento viene quindi trascinata da una media delle segmentazioni fatte
su tre intersezioni, una reale e due fittizie.
Lo spostamento planare −
v→
ik viene ripartito tra i due nodi ni e nk in modo
inversamente proporzionale alla loro distanza in modulo dall’intersezione:
|ni − Iik | −
−
v→
v→
ik
i,k =
|ni − nk |
|nk − Iik | −
−
→ −→
−
v→
v→
ik = vik − vi,k
k,i =
|ni − nk |
(2.14)
dove −
v→
i,k rappresenta lo spostamento del nodo i, dovuto all’intersezione generata con il nodo k e viceversa. Essendo un singolo nodo della mesh triangolare
potenzialmente interessato da più intersezioni con le facce della mesh ad esso
collegate, si è proceduto ad attribuire al nodo la somma dei vettori spostamento, relativi alle diverse intersezioni, diviso per il numero delle effettive
38
2.2. Algoritmo di Matching
Figura 2.16: Rappresentazione dei vettori di aggiornamento riportati in rosso sulla
mesh. I punti blu sono invece i risultati delle segmentazioni planari.
intersezioni. Quindi, in definitiva, il vettore di aggiornamento per il nodo
i-esimo, considerando tutte le K intersezioni a cui partecipa, diviene
1 X −→
−
→
vi =
vi,k
K k
(2.15)
→
Il vettore −
vi rappresenta lo spostamento, parallelo ai piani immagine in
asse corto, che si vuole applicare ai nodi del modello per seguire al meglio
la segmentazione planare. Rappresenta lo scarto dalle posizioni che avevano
i nodi nella conformazione precedente. Quindi, considerando xn−1 il vettore
delle posizioni dei nodi all’iterazione n − 1, espresso come visto nella 2.2,
si concatenano gli spostamenti di tutti i nodi nel vettore dx, costruito al-
la medesima maniera e cioè pari a (v1 |v2 | . . . |vN ). All’iterazione n si avrà
dunque
dxn = x̂n − xn−1
(2.16)
dove x̂n rappresenta la stima della posizione dei punti del modello all’iterazione n [Van Assen et al., 2006]. Prima di applicare la deformazione, al fine
39
2.2. Algoritmo di Matching
di mantenere la coerenza dei riferimenti su cui è stato costruito il modello statistico, è necessario trasformare i residui di spostamento dx, cioè gli
spostamenti da applicare ai nodi per guidare la deformazione del modello,
nel sistema di riferimento modellocentrico a cui tutte le forme nella fase di
costruzione erano state registrate (2.1.1). Questo passaggio viene effettuato
applicando inversamente tutte le rototraslazioni T applicate fino allo stato
attuale dell’algoritmo [Neumann and Lorenz, 1998]. Solo a questo punto è
possibile ottenere i nuovi parametri di forma db per l’n-esima iterazione,
come visto nella 2.8.
dbn = P T Tn−1 dxn
(2.17)
Figura 2.17: Primo passaggio di deformazione del modello. In azzurro quello di partenza ed in verde la mesh modificata secondo la guida delle segmentazioni, qui visualizzate
in blu.
L’applicazione ripetuta dell’algoritmo prevede che all’iterazione successiva le trasformazioni rigide T vengano riapplicate al modello deformato,
fornendo un punto di partenza più accurato per il raffinamento del matching.
40
2.2. Algoritmo di Matching
Limitazione
La modifica del modello, come già spiegato in 2.1.2, non viene lasciata libera
di espandersi o ridursi senza controllo. Per assicurare che il modello rimanga
all’interno del range di deformazioni statisticamente possibili è necessario
contenere i parametri db all’interno dei limiti imposti. Perciò, considerando
i singoli parametri bi come linearmente indipendenti, nel caso in cui
q
bi + dbi ≥ ±3 λi
(2.18)
√
si procede a troncare la somma bi +dbi al limite massimo ±3 λi , dove bi rap-
presenta i parametri che definiscono la forma all’iterazione precedente n−1 e
la somma bi +dbi la conformazione all’iterazione attuale n [Cootes et al., 1994,
Heimann and Meinzer, 2009].
2.2.6
Criteri di arresto
L’algoritmo viene applicato ricorsivamente, partendo ad ogni nuova iterazione dalla posizione e dalla forma del modello statistico calcolate all’iterazione
precedente. L’algoritmo viene arrestato e la convergenza dichiarata quando
l’aggiornamento non produce più un cambiamento significativo nella posa e
nella deformazione del modello [Cootes, 2000]. Si è scelto come parametro di
valutazione dell’aggiornamento non lo spostamento complessivo ma lo spostamento di ogni singolo nodo tra un’iterazione e la precedente, arrestando
l’algoritmo solo nel caso in cui lo spostamento di tutti i nodi che costituiscono
il modello sia inferiore alla risoluzione planare delle immagini guida in asse
corto.
xk,n − xk,n−1 ≤ ∆x
(2.19)
dove ∆x rappresenta la risoluzione dell’immagine, come spiegato nel paragrafo 2.2.2.
Inoltre, al fine di ovviare alla possibilità che l’algoritmo giunga a convergenza
in un numero di iterazioni troppo limitato e per non precluderne l’ulteriore
miglioramento anche se già sotto soglia, si è introdotto anche un numero minimo di iterazioni pari a 5 [Van Assen et al., 2008] [Van Ginneken et al., 2002].
41
2.2. Algoritmo di Matching
Come si può vedere infatti nel boxplot (b) della figura 2.18, all’iterazione 3
gli aggiornamenti sono già tutti sotto soglia ma si è preferito forzare ulteriormente l’algoritmo. All’iterazione successiva, sebbene si presentino degli
outlier che tornano sopra soglia, la distribuzione degli aggiornamenti si abbassa ulteriormente denotando un fitting globale migliore. Questo può infatti
essere visto dall’andamento sempre decrescente della somma degli aggiornamenti (a) della stessa figura.
1400
6
1200
Differences [mm]
Sum of differences [mm]
5
1000
800
600
4
3
2
400
1
200
0
0
1
1
1.5
2
2.5
3
Iteration
3.5
4
4.5
5
2
3
Iteration
4
5
(a) Andamento della somma degli spo- (b) Boxplot raffigurante la distribuzione
stamenti di tutti i nodi.
degli spostamenti dei nodi.
Figura 2.18: Evoluzione dell’aggiornamento all’aumentare delle iterazioni. In verde
viene visualizzato il limite rappresentato dalla risoluzione ∆x.
Si mostra infine in figura 2.19 una rappresentazione del risultato finale
dell’applicazione dell’algoritmo. Il modello statistico 3D, guidato esclusivamente dalle immagini in asse corto a meno dell’inizializzazione fatta sulle
due viste in asse lungo, descrive l’andamento della parte endocardica anche
lungo le intersezioni con gli assi lunghi. In particolare, si sottolinea come, a
differenze delle semplici ricostruzioni dei volumi da immagini 2D come per
esempio il metodo dei dischi, il modello presentato riesce a ben rappresentare
le zone più estreme del ventricolo, cioè quella apicale e quella basale. Questo
è di considerevole interesse dato che le due zone si evolvono liberamente in
direzione dell’asse lungo durante le iterazioni dell’algoritmo.
2.2. Algoritmo di Matching
42
Figura 2.19: Risultato finale dell’algoritmo, visualizzato nello spazio 3D. Il modello segue la parete endocardica anche nell’intersezione con i piani in asse lungo. Si sottolinea
inoltre che il modello riesce a rappresentare anche apice e zona basale.
Capitolo 3
Protocollo sperimentale e
validazione
3.1
Popolazione analizzata
L’algoritmo proposto è stato testato su immagini ottenute tramite risonanza
magnetica di 16 pazienti consecutivi sottoposti ad esame presso il Centro
Cardiologico Monzino, Milano. I pazienti considerati sono così suddivisi: 2
sani (di cui uno talassemico ma con ventricolo sinistro di dimensioni normali),
4 presentano un infarto del miocardio, 9 cardiomiopatia dilatativa ischemica
(4 dei quali candidati a terapia di resincronizzazione cardiaca) e 1 soggetto
con ipertensione arteriosa polmonare. Le slice in asse corto considerate hanno
uno spessore di 8 mm e il numero di slice necessario a coprire l’intera cavità
ventricolare si è attestato in un range compreso tra le 6 e le 13 immagini.
Le immagini considerate hanno invece una risoluzione planare pari a 0.7422
oppure 1.5625 mm/pixel. L’analisi è stata effettuata sui frame di fine diastole
(ED) e di fine sistole (ES).
43
3.2. Validazione
3.2
44
Validazione
Allo scopo di validare i risultati della segmentazione in base all’approccio
proposto, si avevano a disposizione le seguenti misure, ottenute tramite segmentazione manuale delle immagini di risonanza in asse corto da parte di un
cardiologo esperto:
• per 12 dataset, volume a ED e ES calcolato mediante il metodo dei
dischi (equivalente alla somma delle aree di ogni sezione ventricolare
sul piano 2D moltiplicata per la risoluzione spaziale del singolo voxel
nelle 3 dimensioni).
• per 8 dataset, coordinate puntuali del contorno tracciato manualmente
su ogni slice 2D.
Si è proceduto quindi ad effettuare le seguenti validazioni, che verranno più
dettagliatamente descritte più avanti:
• Validazione dei parametri globali.
• Validazione locale del contorno.
3.2.1
Validazione dei parametri globali
Per il confronto dei parametri globali si è deciso di soffermarsi su 3 indici di
interesse clinico, i quali potessero rappresentare la performance dell’algoritmo
sia sulle due fasi cardiache considerate che sull’attività del ciclo cardiaco:
• Volume di Fine Diastole (End-Diastolic Volume, EDV). Volume presente all’interno del ventricolo durante la fase di massimo riempimento
dello stesso.
• Volume di Fine Sistole (End-Systolic Volume, ESV). Volume mi-
nimo contenuto all’interno della cavità ventricolare nella sua fase di
estremo svuotamento.
45
3.2. Validazione
• Frazione di Eiezione (Ejection Fraction, EF). Frazione del volume
presente a fine diastole (EDV) nella camera ventricolare che viene espul-
so durante la fase sistolica. Rappresenta quindi una normalizzazione del
volume di eiezione (SV), mettendolo in relazione con l’effettiva dimensione e la capacità di riempimento del ventricolo. É quindi calcolato
come:
SV
EDV − ESV
=
(3.1)
EDV
EDV
Esso rappresenta un indice importante per la valutazione dell’output
EF =
cardiaco, il quale è combinazione del volume di eiezione e della frequenza cardiaca. Questo indice ha rilevanza in ambito clinico in quanto la
sua variazione dai valori standard può rappresentare la presenza di condizioni e patologie particolari. Risulta inoltre essere uno stimatore della
funzionalità del ventricolo ancor più rilevante del volume di eiezione,
in quanto è tendenzialmente scorrelato dalle dimensioni della camera
cardiaca.
La superficie ventricolare risultante della segmentazione ottenuta dal modello statistico è quindi stata utilizzata per il calcolo del volume ventricolare,
secondo due diverse modalità:
1. calcolo del volume Vd come metodo dei dischi.
2. calcolo del volume Vm della mesh come somma dei tetraedri triangolari
In particolare, Vd è stato ottenuto a partire dalle aree ventricolari relative
alle intersezioni del modello con i piani di immagine in asse corto considerati
per il calcolo del volume nel Gold Standard.
Dato che i modelli utilizzati nello studio sono a facce triangolari, per ogni
faccia è possibile costruire un tetraedro considerando come vertici i tre nodi
N che delimitano la faccia e come quarto il baricentro N del modello. Per
Vm si è dunque calcolato il volume dell’intera forma come somma dei volumi
di tutti i tetraedri che lo compongono con la seguente formula:
Vm =
X
i
|(Ni,1 − N) · ((Ni,2 − N) × (Ni,3 − N))|
6
(3.2)
46
3.2. Validazione
dove Ni,1 , Ni,2 e Ni,3 rappresentano i 3 nodi che delimitano l’i-esima faccia.
L’equazione sopra espressa è semplificabile, dato le coordinate di tutti i nodi
sono espresse nel medesimo sistema di riferimento, escludendo il baricentro
dalla formulazione e ottenendo:
Vm =
X
i
|Ni,1 Ni,2 Ni,3 |
6
(3.3)
A partire da tali misure, si è proceduto al calcolo della regressione lineare
(e rispettivo coefficiente di determinazione R2 ) e all’analisi di Bland-Altman
delle misure di volume, e di relative frazioni di eiezione (EF), tra:
• Vgs e Vd
• Vgs e Vm
• Vd e Vm
Per evitare di ottenere risultati inficiati dalla presenza di un trend del dato misurato in funzione della differenza tra i metodi messi a confronto, per i
confronti che presentavano un trend si è utilizzata una raffigurazione alternativa a quella clasiica suggerita da Bland-Altman [Altman and Bland, 1983].
Si è quindi preferito mostrare lo scostamento non in termini di differenza ma
in termini di errore percentuale, calcolato come rapporto tra le misure. La
significatività dei risultati ottenuti è inoltre stata misurata con tramite un
t-test per campioni accoppiati.
3.2.2
Validazione locale del contorno
Allo scopo di valutare localmente i possibili scostamenti tra contorni del Gold
Standard e segmentazione del modello, i contorni endocardici a ED e ES, relativi alle intersezioni del modello statistico con i piani immagine originali,
sono stati estratti e comparati con i rispettivi contorni manuali.
47
3.2. Validazione
Figura 3.1: Rappresentazione esemplificativa delle distanze direzionali su cui è costruita
la distanza di Hausdorff. www. wikipedia. org
Distanza di Hausdorff
Tale confronto è stato effettuato tramite il calcolo della distanza di Hausfordff, un indice comunemente utilizzato non solo in imaging biomedico ma
anche in computer vision per quantificare la differenza spaziale tra due set
di punti.
Dati due set di punti A = {a1 , . . . , an } e B = {b1 , . . . , bm }, essa è definita
come:
H(A, B) = max(h(A, B), h(B, A))
(3.4)
cioè la massima realizzazione tra le due distanze di Hausdorff direzionali,
quella dal set A a B h(A, B) e quella opposta da B ad A h(B, A). Esse sono
espresse come:
h(A, B) = maxaǫA minbǫB ka − bk = maxaǫA d(a, B)
(3.5)
cioè la massima distanza euclidea tra i punti dei due set che vengono considerati corrispondenti. La corrispondenza dei punti viene attribuita calcolando
48
3.2. Validazione
per ogni punto ai del set A la distanza da tutti i punti bj che appartengono
a B e poi considerando il punto B più vicino ad ai . L’attribuzione della
corrispondenza, e quindi la distanza h(A, B), è direzionale. Delle due direzioni si calcola la massima in assoluto H(A, B) = H(B, A) secondo la 3.4
[Huttenlocher et al., 1993].
La distanza di Hausdorff rappresenta quindi il massimo scostamento tra i due
contorni messi a confronto, esso è un indice rappresentatore non solo della
distanza in termini assoluti dei contorni ma tiene anche in considerazione la
forma dei set di punti [Beauchemin et al., 1998]. Nell’immagine 3.1 vengono
rappresentate le distanze d(a, B) e d(b, A) per due contorni qualunque.
Distribuzione distanze
Oltre ad esprimere la differenza tra i due contorni con un singolo valore
rappresentante lo scostamento massimo, si presenta anche la distribuzione
delle distanze su tutto il set di punti. Facendo riferimento alla formulazione
vista in 3.5 e alla sua spiegazione, si sono calcolati per ogni immagine le
distanze di tutti i punti del contorno A, generato dall’algoritmo, dal contorno
B, considerato Gold Standard. Quindi, per ogni punto aǫA, la distanza dal
contorno B è:
d(a, B) = minbǫB ka − bk
(3.6)
Questo indice supplementare ha lo scopo di valutare la corrispondenza tra le
due segmentazioni confrontate non solo tramite lo scostamento massimo, ma
anche rappresentando la performance globale del tracciamento.
Capitolo 4
Risultati
Dei 16 pazienti considerati, è stato possibile applicare l’algoritmo a 12 pazienti (75%) per motivi dipendenti dai limiti della statistica su cui è stato
costruito il modello, da clusterizzazione in alcuni casi insufficiente a distinguere miocardio e sangue e da non corretto allineamento dell slice. Questi
casi critici verranno affrontati in maniera più dettagliata nella sezione 4.3.
L’algoritmo qui proposto, è stato dunque applicato a 12 pazienti in due fasi
cardiache (ED e ES) con un numero di slice in asse corto segmentate per ogni
dataset in media pari a 10 (µ = 9.67, σ = 1.66). L’algoritmo qui presentato
è stato elaborato nella sua interezza sfruttando le potenzialità del software
Matlab, distribuito da MathWorks (Natick, Massachussets, USA). L’applicazione dell’algoritmo, a seguito di una breve inizializzazione utente-dipendente
ma comunque quantificabile al di sotto dei 10 secondi, ha richiesto un tempo
di elaborazione medio per frame pari a 37 secondi (µ = 37.375, σ = 19.56 s),
su un notebook ASUS A55V (Intel Core i7 @ 2.3 GHz, RAM 6 GB).
4.1
Validazione volumi globali
I volumi di riferimento Vgs sono stati costruiti col metodo dei dischi su segmentazioni, eseguite da utente esperto, di stack di immagini in asse corto
che, sia per la fase ES che ED, si presentavano in un numero compreso tra 8
49
50
4.1. Validazione volumi globali
e 12 per frame. I range di volumi e frazioni di eiezione che costituiscono il
Gold Standard sono elencati per semplicità in tabella 4.1.
Range
µ
σ
EDV
119.6-283.45 ml
172.56 ml
57.75 ml
ESV
31.9-238.76 ml
101.53 ml
68.95 ml
EF
15.76-72.90 %
46.44 %
19.73 %
Tabella 4.1: Tabella raffigurante range, medie (µ) e deviazioni standard (σ) dei volumi
di fine sistole (ESV) e di fine diastole (EDV) e delle frazioni di eiezioni (EF) del Gold
Standard.
4.1.1
Confronto tra Vgs e Vd
In prima analisi sono stati confrontati i volumi calcolati con il metodo di
Simpson, non solo per quanto riguarda il Gold Standard (Vgs ) ma anche per
i risultati dell’algoritmo (Vd ). Si è quindi proceduto a comparare complessivamente i volumi di fine diastole e fine sistole, mentre gli esiti sulla frazione
di eiezione sono stati analizzati in un secondo momento.
EDV-ESV
I volumi ottenuti nei due differenti modi sono stati messi a confronto e la
bontà di tale comparazione è stata evidenziata dal calcolo di una retta di
regressione lineare sui dati. La formula della regressione risultante è y =
0.99x + 1.40, denotando un andamento simile alla bisettrice del piano, come
si può vedere nella figura 4.1. L’approssimazione data dalla regressione viene
espressa con il coefficiente di determinazione che nel caso attuale è R2 = 0.98.
Inoltre, per indagare la presenza di un errore sistematico e identificare
l’esistenza di possibili outliers si è eseguita l’analisi di Bland-Altman. Il confronto tra rapporto dei risultati dal Gold Standard, rispetto alla loro media
è visualizzata in figura 4.2. Si nota l’assenza di un significativo errore sistematico, confermato dal risultato del t-test, ovvero P = 0.92. Per il calcolo
4.1. Validazione volumi globali
51
Figura 4.1: Confronto tra i volumi in ml calcolati con il metodo di Simpson sia per
l’algoritmo che per il Gold Standard.
dell’intervallo di confidenza si è considerato un intervallo intorno al bias di
±1.96 deviazioni standard, rappresentando l’intervallo entro cui cade il 95%
della popolazione. La deviazione standard ottenuta è di 0.13, equivalente ad
un intervallo di confidenza pari a ±25% del volume analizzato.
EF
Le frazioni di eiezione sono state calcolate, come espresso dalla formula 3.1,
sui volumi ottenuti con la metodologia di Simpson. Quindi si è proceduto
a comparare i risultati in maniera analoga a quanto fatto precedentemente.
La regressione lineare costruita sui risultati ha espressione y = 1.01x − 1.14
(R2 = 0.90) ed è visualizzabile in figura 4.3. Per quanto riguarda l’analisi
di Bland-Altman, in figura 4.4, ancora una volta non si riscontra un errore
sistematico evidente, con una lieve e non significativa (P = 0.54) sottostima
del 3% del metodo proposto rispetto al Gold Standard, ed una deviazione
standard pari a al 15% risultante in un intervallo di confidenza pari a ±30%
della EF considerata.
4.1. Validazione volumi globali
52
Figura 4.2: Grafico di Bland-Altman per il confronto dei volumi in ml, ottenuti con
la regola di Simpson per l’algoritmo, rispetto al Gold Standard. In blu i volumi di fine
diastole (EDV), in rosso quelli di fine sistole (ESV). In verde la linea continua di bias
e tratteggiati i limiti entro cui cade il 95% della popolazione.
Figura 4.3: Confronto tra le frazioni di eiezione in % calcolati con il metodo di Simpson
sia per l’algoritmo che per il Gold Standard.
4.1. Validazione volumi globali
53
Figura 4.4: Grafico di Bland-Altman per il confronto delle frazioni di eiezione in %,
ottenuti con la regola di Simpson per l’algoritmo, rispetto al Gold Standard. In verde
la linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione.
4.1.2
Confronto tra Vgs e Vm
Vengono comparati in figura 4.5, come fatto per i volumi ottenuti col metodo di Simpson, i dati risultanti dal calcolo dei volumi del modello nella sua
totalità (Vm ) con i valori derivanti dal Gold Standard (Vgs ). Si analizzano
quindi complessivamente i volumi di fine sistole e fine diastole, evidenziando
in figura 4.5 una retta di regressione lineare di equazione y = 0.98x + 4.66
(R2 = 0.97). La distribuzione del rapporto tra i volumi ottenuti ed il Gold
Standard ha una media µ = 0.99 e una deviazione standard σ = 0.11, denotando una differenza non significativa (P = 0.49).
Sui volumi è stato elaborato il confronto anche dell’indice di funzionalità
cardiaco utilizzato precedentemente, la frazione di eiezione. La distribuzione delle EF calcolate, in figura 4.6, è rappresentata da y = 0.92x + 2.84
(R2 = 0.91) con un rapporto medio µ = 1.01 e una deviazione standard pari
a σ = 0.13 (P = 0.73).
54
4.1. Validazione volumi globali
(a) Confronto tra i volumi in ml.
(b) Grafico di Bland-Altman per il
confronto dei volumi.
Figura 4.5: Confronto dei volumi in ml ottenuti sulla totalità del modello rispetto
al Gold Standard. Nel grafico di Bland-Altman si visualizzano in blu i volumi di fine
diastole (EDV), in rosso quelli di fine sistole (ESV). Sono inoltre mostrati in verde la
linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione.
(a) Confronto tra le EF in %.
(b) Grafico di Bland-Altman per il
confronto delle EF.
Figura 4.6: Confronto delle frazioni di eiezione ottenute dal calcolo dei volumi sulla
totalità del modello rispetto al Gold Standard.
4.1. Validazione volumi globali
4.1.3
55
Confronto tra Vd e Vm
L’ultimo confronto sui volumi presentato, visualizzabile in figura 4.7, è stato
effettuato sui risultati ottenuti dall’algoritmo ma calcolando il volume nelle
due differenti maniere già utilizzate, il metodo dei dischi (Vd ) e quello dei tetraedri (Vm ). Entrambi i risultati sono frutto dell’applicazione dell’algoritmo
in esame ma, mentre i volumi calcolati con la regola di Simpson sono rappresentativi della sola segmentazione planare, i volumi derivanti dalla somma dei
volumi dei tetraedri esprimono lo spazio occupato dalla totalità del modello. La comparazione dei volumi è riassumibile dalla regressione di equazione
y = 0.99x + 3.12 (R2 = 0.99) e i rapporti si distribuiscono intorno alla media
µ = 0.99 con una deviazione σ = 0.05 (P = 0.40). Per quanto riguarda le
frazioni di eiezione, calcolate sui volumi appena analizzati, la retta di regressione y = 1.02x − 2.64 (R2 = 0.99) ne rappresenta l’andamento complessivo.
La popolazione dei risultati dei rapporti invece si presenta con una media
µ = 1.05 (σ = 0.09) e, seppur riportando una differenza non significativa
(P = 0.09), evidenzia così una tendenza alla sovrastima del 5% del volume
calcolato dalla intera mesh rispetto al classico metodo dei dischi.
56
4.1. Validazione volumi globali
(a) Confronto tra i volumi in ml.
(b) Grafico di Bland-Altman per il
confronto dei volumi.
(c) Confronto tra le EF in %.
(d) Grafico di Bland-Altman per il
confronto delle EF.
Figura 4.7: Confronto dei risultati ottenuti sulla totalità del modello rispetto a quelli
derivanti dal metodo dei dischi sulle segmentazioni dell’algoritmo. Nei grafici di BlandAltman si visualizzano in verde la linea continua di bias e tratteggiati i limiti entro cui
cade il 95% della popolazione. Di questi ultimi, per quello di confronto dei volumi,
sono inoltre mostrati in blu i volumi di fine diastole (EDV), in rosso quelli di fine sistole
(ESV).
57
4.2. Validazione contorni locali
Si presenta in tabella 4.2 il riassunto comparativo dei valori presentati
in tutte le analisi sui volumi precedentemente effettuate. In particolare, si
evidenziano il coefficiente di determinazione della retta di regressione R2 , il
bias e i limiti entro cui cade il 95% della popolazione, cioè ±1.96 volte la
deviazione standard. Si visualizza inoltre il P-value rappresentante la significatività, ottenuto tramite il t-test per campioni accoppiati.
V
V d/V gs
R2
bias
0.98
0%
V m/V gs 0.97 −1%
V m/V d
0.99 −1%
±1.96σ
±25%
±22%
±10%
EF
P
R2
bias
0.92 0.90 −3%
0.49 0.91
1%
0.40 0.99
5%
±1.96σ
±29%
±25%
±18%
P
0.54
0.73
0.09
Tabella 4.2: Tabella riassuntiva dei valori risultanti dall’analisi comparativa dei volumi
e delle frazioni di eiezione. Si presenta, per ogni confronto fatto, coefficiente di determinazione R2 della retta di regressione, oltre che a bias, valore relativo a ±1.96σ e
significatività per l’analisi dell’errore percentuale.
4.2
Validazione contorni locali
Al fine di analizzare in maniera più raffinata le segmentazioni planari delle
singole immagini in asse corto, si è scelto di calcolare anche degli indici che
potessero esprimere la correttezza dei contorni tracciati dall’algoritmo qui
proposto rispetto ai tracciamenti manuali. Su un sottogruppo di 8 pazienti,
di cui si sono analizzati i risultati in fine sistole e fine diastole per un totale
di 16 immagini, si è quindi eseguito un confronto tra i contorni tracciati da
un esperto e quelli risultanti dall’algoritmo in esame. In figura 4.8 si mostra
per un paziente il confronto dei contorni tracciati dall’algoritmo (in verde)
rispetto a quelli tracciati da un utente esperto (in rosso). Si può vedere
come gli scostamenti siano prevalentemente concentrati nelle zone dove sono
presenti papillari e trabecolazioni di dimensioni notevoli.
4.2. Validazione contorni locali
58
Distanza di Hausdorff
La distanza di Hausdorff si è attestata su valori che in media sono µ = 4.03
pixel, con una deviazione standard σ = 2.19 pixel. Facendo riferimento
alla risoluzione delle immagini utilizzate, cioè 1.5625 mm/pixel, tali valori si
traducono in uno scostamento medio tra le due forme di µ = 6.30 mm, con
una deviazione standard σ = 3.42 mm.
Distribuzione distanze
I risultati ottenuti calcolando la distribuzione delle distanze sui contorni ottenuti per la totalità delle slice e dei frame presentano una media di µ = 1.61
pixel, pari a 2.52 mm, e una deviazione standard σ = 1.66, pari a 2.59 mm.
4.2. Validazione contorni locali
59
Figura 4.8: Esempio di confronto tra le segmentazioni, eseguite per i piani in asse
corto del medesimo paziente, effettuate da un utente esperto (rosso) rispetto a quelle
generate dall’algoritmo (verde).
4.3. Casi non andati a convergenza
4.3
60
Casi non andati a convergenza
Si presentano in questa sezione i casi in cui l’algoritmo ha fallito la segmentazione non giungendo a convergenza, oppure dove ha dato risultati non
soddisfacenti. Si esprimono le motivazioni di tali eventi e se ne mostrano i
risultati.
Statistica insufficiente
La scelta di evitare la scalatura delle mesh, nella registrazione dei set su cui
si è costruito il modello statistico, considerandola parte della variabilità anatomica porta con sè anche degli svantaggi. Tale passaggio, contestualmente
alla necessità di limitare la possibilità di modifica del modello entro i limiti
√
definiti nella sezione 2.1.2, ovvero ±3 λi per ogni i-esima PC, se da una
parte permette di definire assi di variazione del modello statistico capaci di
offrire una relazione tra dimensioni assolute e morfologia della struttura, di
contro limita la possibilità del modello di espandersi o ridursi oltre le dimensioni contemplate dalla popolazione sui cui il modello è stato costruito. Si
ricorda che al fine di ridurre la dimensionalità del dataset di costruzione del
modello statistico si è limitata la variabilità del modello entro il 99.73%. In
questo modo al modello è preclusa la possibilità di raggiungere dimensioni
superiori a quelle descritte dal dataset di costruzione.
Nel caso mostrato in figura 4.9, il modello non riesce a raggiungere le dimensioni imposte dai punti definiti in fase di inizializzazione, subendo già
alla fase preliminare un troncamento della prima PC, quella che rappresenta
maggiormente le dimensioni del modello. Il volume della cavità endocardica
qui mostrata, calcolata secondo il Gold Standard, è di ben 323.9 ml.
L’algoritmo fallisce, sempre a causa delle morfologie descritte dalla popolazione su cui è stata costruita la statistica, quando la geometria della
struttura non è contemplata nella statistica stessa. Si è tentato di utilizzare
l’algoritmo sulle immagini di un paziente affetto da ipertensione arteriosa
polmonare. In questa patologia, a causa della pressione elevata nelle arterie
4.3. Casi non andati a convergenza
61
Figura 4.9: Mancata convergenza dell’algoritmo in seguito a dimensioni troppo elevate
della struttura di ricerca. In rosso si notano i punti di inizializzazione, apice e centro del
piano mitralico, e come il modello non riesca a raggiungerli sin dalla prima iterazione.
polmonari che supera i 25 mmHg, il ventricolo destro diviene ipertrofico per
compensare tali pressioni [Marrone et al., 2010]. Come si può vedere nell’immagine a sinistra della figura 4.10, l’ipertrofia del cuore destro si ripercuote
sul cuore sinistro cambiandone la geometria che abbandona la tipica sezione
circolare in asse corto adottandone una quasi semilunare, ne riduce le dimensioni e provoca uno spostamento dei muscoli papillari. La geometria assunta
dal ventricolo sinistro non è contemplata dalla statistica sui cui si è costruito
il modello e dunque esso fallisce nell’eseguirne la segmentazione. In figura
4.11 è mostrato il risultato della segmentazione errata di una slice nel caso
appena descritto.
Figura 4.10: Confronto tra una vista in asse corto di un cuore appartenente ad un
paziente soggetto a ipertensione polmonare (a sinistra) e di uno sano (a destra).
4.3. Casi non andati a convergenza
62
Figura 4.11: Risultato dell’errata segmentazione per una slice di un soggetto affetto
da ipertensione arteriosa polmonare.
Disallineamento slice
Un’altra fonte di errore si presenta nel caso in cui, per i motivi elencati nella
sezione 2.2.1, le immagini non siano correttamente allineate. Se questo si
verifica, nonostante le correzioni apportate secondo quanto detto nella fase
di preprocessing, la continuità tridimensionale che lega i contorni, tracciati
dalle intersezioni del modello con le immagini in asse corto, agisce in maniera sfavorevole. Infatti il modello, guidato dalle segmentazioni sulle immagini
disallineate, per mantenere la sua continuità, non riuscirà a seguire contemporaneamente le posizioni candidate provenienti dai differenti piani. Questo
problema si presenta in definitiva come un’errata localizzazione dei contorni
sulle immagini disallineate e su quelle a loro adiacenti. In figura 4.12, per
mostrare tale perdita di continuità tridimensionale, vengono mostrati affiancati i contorni generati dall’algoritmo (in verde) e quelli tracciati dal medico
(in rosso) per tutte le slice di un dataset. Si nota come i contorni tracciati
dal medico presentino discontinuità lungo l’asse lungo del ventricolo, dato
che, eseguendo separatamente la segmentazione sulle singole slice, esso non è
costretto a mantenerla. Il modello invece non è in grado di segmentare correttamente slice disallineate a causa dei limiti imposti dalla continuità 3D. In
63
4.3. Casi non andati a convergenza
figura 4.13 vengono mostrate due slice adiacenti, il cui disallineamento porta
ad un evidente shift dei contorni.
Figura 4.12: Discontinuità 3D delle segmentazioni eseguite manualmente (in rosso)
rispetto a quelle presentate dall’algoritmo (in verde). Eseguendo separatamente la
segmentazione sulle singole slice disallineate, egli non è costretto a tenere in conto le relazioni tra le diverse slice. Il modello invece non è in grado di segmentare
correttamente slice disallineate a causa della continuità 3D.
(a) Slice superiore
(b) Slice inferiore
Figura 4.13: Esempio di segmentazione errata in due slice adiacenti, a causa di un non
corretto allineamento.
64
4.3. Casi non andati a convergenza
Clustering inefficace
In alcune immagini, come quella mostrata in figura 4.14, non c’è una sufficiente differenza tra i valori di videointensità associati al sangue ed al miocardio.
Il clustering, motore alla base della generazione delle posizioni candidate dei
punti di intersezione all’iterazione successiva, non è in grado in questi casi di
identificare la parete endocardica in modo corretto, utilizzando i parametri
con cui è stato settato per l’algoritmo in esame. Le frecce gialle evidenziano
come nella parte inferiore della sezione del ventricolo, nell’immagine a sinistra di figura 4.14, la segmentazione trovi una differenza di videointensità
accettabile solo in corrispondenza della parete epicardica. Tale parte dell’immagine fa riferimento alla parte più a sinistra dei campionamenti radiali,
visualizzati nella parte b della stessa figura ed evidenziati ancora da freccie
di colore giallo.
(a)
(b)
Figura 4.14: Esempio di immagine in cui il clustering non porta ad una corretta
segmentazione della parete endocardica. A sinistra, immagine in asse corto con in
verde le intersezioni e in rosso la segmentazione generata. A destra i passaggi del
processo di segmentazione della stessa immagine. Le frecce gialle evidenziano le zone
corrispondenti dell’immagine che mostrano una segmentazione errata.
Capitolo 5
Discussione e Conclusioni
Si è proceduto a presentare l’implementazione e la validazione di un algoritmo semiautomatico per la segmentazione 3D dell’endocardio del ventricolo
sinistro in immagini MR, sfruttando le potenzialità messe a disposizione dalla tecnica dell’Active Shape Modeling.
Il metodo presentato utilizza per costruire il modello dei dati provenienti da
esami ecocardiografici 3D transtoracici. Questo, oltre a fornire un modello basato su dati intrinsecamente tridimensionali, favorisce la possibilità di
espandere facilmente la popolazione su cui si costruisce il modello statistico
alla base della segmentazione. Infatti, la più alta diffusione di apparecchiature a ultrasuoni, rispetto a CT, e la loro totale non invasività rende i dati
US dei candidati perfetti per essere alla base del processo di acquisizione della popolazione statistica. Si sottolinea inoltre l’intermodalità dell’algoritmo
proposto, il quale procede a segmentare immagini MR a partire da un modello generato sulla base di acquisizioni ecocardiografiche 3D, il che rappresenta
un’assoluta novità anche in relazione a quanto presente in letteratura. Il processo di matching, così come è proposto, non presenta inoltre particolari limiti
all’applicabilità su immagini di altro tipo, per esempio CT, sempre partendo
dallo stesso modello considerato in questo studio. L’utilizzo di informazioni
intrinsecamente 3D per la costruzione del modello è di notevole importanza
per la generazione di forme consistenti con l’intera struttura del ventricolo,
65
66
e non una sua approssimazione basata su atlanti e segmentazioni manuali di
immagini MR [Kaus et al., 2004, Mitchell et al., 2002, Lötjönen et al., 2004,
Zhang et al., 2010]
L’approccio statistico permette inoltre di seguire la morfologia di porzioni del
ventricolo generalmente poco analizzabili con il solo utilizzo di immagini in
asse corto. L’apice e la base del modello si evolvono liberamente durante le
iterazioni dell’algoritmo, guidate solamente dalle slice in asse corto delle zone
più centrali del ventricolo. La segmentazione e la descrizione geometrica di
queste due parti estreme del ventricolo aiuta a meglio rappresentare la camera cardiaca e a valutarne la funzionalità. In letteratura, i modelli utilizzati
sono spesso troncati per escludere queste due aree e, se l’apice viene indagato
più spesso, la struttura del piano mitralico è trascurata nella maggior parte
delle applicazioni.
L’algoritmo proposto è inoltre, a meno della rapida inizializzazione che prevede la localizzazione di soli 6 punti facilmente riconoscibili, completamente
automatico, completando la segmentazione in tempi decisamente brevi se
comparati alle tempistiche impiegate da un utente per compiere le stesse
segmentazioni sulle slice. Tuttavia, anche se il confronto coi volumi costruiti
da segmentazioni manuali si è rivelato buono, la complessità e la variabilità
dei tessuti non permette che la precisione del medico esperto sia eguagliata.
Dunque, un algoritmo del genere può essere pensato come supporto all’utente esperto, il quale lo può utilizzare per ottenere una rapida segmentazione
dell’endocardio, per poi correggerne manualmente i punti dei contorni che
ritiene migliorabili, ove necessario.
Oltre ad una segmentazione delle immagini 2D, l’algoritmo fornisce una descrizione 3D della cavità ventricolare. Essa può essere quindi utilizzata in
seguito come base per la costruzione di modelli agli elementi finiti (FEM) del
ventricolo specifici per il singolo paziente, utili per la simulazione chirurgica
ed il planning preoperatorio [Conti et al., 2011].
In letteratura non si sono riscontrati metodi di segmentazione 3D dell’endocardio del ventricolo sinistro che non si basino su modelli comprensivi
67
di altre strutture, come l’epicardio o addirittura di tutte le 4 camere cardiache [Lötjönen et al., 2004], e non della sola parete endocardica. Questi
modelli sono quindi guidati nella deformazione da un numero decisamente
maggiore di informazioni. Inoltre, gli algoritmi confrontati, sebbene accomunati da distretto di interesse, tipo di immagini segmentate (MR) e utilizzo di modelli deformabili 3D, sfruttano diverse tecniche tra cui: ASM
[Van Assen et al., 2003b], AAM [Mitchell et al., 2002, Lötjönen et al., 2004],
applicazione congiunta di ASM e AAM [Zhang et al., 2010], e modelli deformabili basati su funzioni di energia interna ed esterna [Kaus et al., 2004]. I
valori con cui si procede a confrontare il risultato sono quindi una linea guida
per la valutazione della precisione e della robustezza dell’algoritmo proposto,
pur ricordando che esistono differenze tra i metodi applicati.
I metodi confrontati differiscono da quello in esame anche per la natura
delle immagini su cui si è costruito il modello statistico, infatti nei casi
in esame sono sempre state utilizzate segmentazioni di immagini MR, applicando poi il modello sullo stesso tipo di immagini, a parte in un caso
dove l’applicazione è stata effettuata anche su immagini acquisite con CT
[Van Assen et al., 2003b]. L’utilizzo di immagini MR nella costruzione del
modello statistico, ricostruendo le superfici a partire da segmentazioni manuali dei vari piani immagine, non permette di avere una descrizione precisa
della realtà anatomica della parete endocardica in tutta la sua estensione,
come invece avviene nell’utilizzo dell’ecocardiografia 3D, ma una sua approssimazione nelle porzioni di spazio non coperte dai piani immagine. Inoltre, la
maggior diffusione degli esami ecocardiografici permette di avere a disposizione un numero molto maggiore, e ulteriormente aumentabile, di frame utilizzati in fase di generazione del modello statistico. Infatti dalla letteratura,
i modelli statistici sono stati costruiti considerando un numero decisamente
inferiore di frame di risonanza magnetica, da 25 [Lötjönen et al., 2004] a 320
[Zhang et al., 2010], mentre per l’algoritmo qui proposto ne vengono utilizzati ben 3284.
Inoltre, dal confronto con approcci simili presenti in letteratura, è possibile
5.1. Discussione dei risultati
68
osservare come, nella maggior parte dei casi, si sia rivelata sempre necessaria una fase iniziale che prevede l’intervento di un utente per ottenere una
localizzazione preventiva del modello nello spazio delle immagini, la definizione dello scaling iniziale e dell’intervallo di slice entro cui ricercare i contorni. Per la localizzazione del modello sono state in precedenza utilizzate
diverse modalità, tra cui: supposizione che il ventricolo si trovi al centro dell’immagine e conseguente posizionamento del baricentro del modello in quel
punto [Kaus et al., 2004], segmentazione manuale dei contorni di alcune slice
[Zhang et al., 2010], localizzazione manuale del baricentro del modello all’interno del ventricolo sinistro in una slice scelta come centrale rispetto all’asse lungo [Van Assen et al., 2003b]. Queste metodologie prevedevano inoltre
sempre la definizione manuale ed arbitraria dell’intervallo di slice in asse corto entro cui ricercare il matching del modello con l’immagine. Al contrario,
nel metodo proposto in questa tesi, il modello viene localizzato e scalato sullo
stack delle immagini in asse corto a partire dall’inizializzazione di soli 6 punti
su due proiezioni in asse lungo, senza ipotesi a priori, e automaticamente determinando sulla base di tale selezione l’intervallo di slice da considerare nella
segmentazione. Un’inizializzazione completamente automatica si è riscontrata solamente in un caso, dove il modello AAM, contenente informazioni anche
sulla statistica della videointensità, viene traslato sull’immagine fino a massimizzare la mutua informazione normalizzata [Lötjönen et al., 2004]. Sebbene
l’algoritmo qui proposto non possa vantare una tale automazione, si ricorda
che l’utilizzo di un modello AAM precluderebbe l’applicazione intermodale
del modello costruito.
5.1
Discussione dei risultati
L’analisi dei parametri di valutazione globale ha dimostrato una buona correlazione tra i volumi calcolati per il modello e il Gold Standard, con regressioni lineari generalmente assimilabili alla bisettrice del piano e coefficienti
di determinazione prossimi all’unità. Questo è maggiormente evidente per
5.1. Discussione dei risultati
69
la comparazione dei volumi, piuttosto che per le frazioni di eiezione, le quali si discostano comunque di poco dall’uguaglianza. Per quanto riguarda il
confronto dei volumi, il coefficiente angolare della retta di regressione presenta valori migliori (0.99) rispetto a quanto reperibile in letteratura da metodi considerati analoghi che presentano valori compresi nel range 0.85 −
0.97 [Van Assen et al., 2003b, Van Assen et al., 2008, Mitchell et al., 2002,
Zhang et al., 2010]. Negli stessi lavori si riscontra un lieve errore sistematico, in entrambe le direzioni, mentre l’algoritmo qui proposto non presenta
bias su questo tipo di misura. Nel confronto della misura del volume calcolato col metodo dei tetraedri con il Gold Standard si riscontra comunque una
buona similarità tra i risultati, sia nel calcolo di volumi assoluti che frazioni di eiezione, anche se leggermente minore nel caso delle EF. In entrambi
non è presente un errore sistematico significativo e gli intervalli di confidenza
trovati, sia per i volumi che per la EF, risultano leggermente meno ampi,
con conseguente minore errore di misura, di quelli relativi al calcolo con il
metodo dei dischi. .
Nella comparazione tra i due metodi di calcolo del volume sui risultati generati dall’applicazione del modello si è riscontrata un’ottima correlazione,
sia per volumi che EF. Mentre non si nota un bias significativo per il confronto dei volumi, le frazioni di eiezione calcolate col metodo dei tetraedri
risultano tendenzialmente maggiori del 5% rispetto alle EF calcolate con il
metodo dei dischi a partire dalle segmentazioni 2D generate dal modello. Ciò
potrebbe essere spiegato dal fatto che, considerando il volume ventricolare
come volume della mesh, vengono tenuti in conto le porzioni estremanti del
ventricolo, ovvero base ed apice, probabilmente in misura migliore di quanto
consentito dal metodo dei dischi. Tale migliore caratterizzazione della forma
ventricolare, nel caso specifico si riflette in un minor volume telesistolico (vedi
punti rossi nel grafico 4.7, tendenzialmente sotto la linea di valore unitario),
generando così un maggiore stroke volume ed un lieve incremento della EF.
corrisponde ad un maggior volume calcolato.
Per quanto riguarda l’analisi dei parametri locali, cioè della valutazione
5.2. Sviluppi futuri
70
della correttezza delle segmentazioni planari, i risultati sono ancora paragonabili a quanto presente in letteratura, riguardo a validazioni di simili
approcci. In particolare, la distanza di Hausdorff rilevata (µ = 6.3 mm,
σ = 3.42 mm) ricade nel range 4.3 − 16.55 mm osservato in letteratura
[Van Assen et al., 2008, Kaus et al., 2004]. La distribuzione totale degli sco-
stamenti dai contorni tracciati da un esperto si attesta in media su valori
comparabili con la letteratura: 2.52 mm contro un range di 1.71 − 2.84 mm.
La deviazione standard della stessa misura risulta invece maggiore, con un
valore di 2.59 mm contro un range di 0.31−1.05 mm [Van Assen et al., 2008,
Lötjönen et al., 2004, Kaus et al., 2004, Mitchell et al., 2002]. Nei casi di
confronto la distribuzione degli scostamenti dai tracciamenti manuali è stata
calcolata come distanza tra i punti appartenenti al contorno ed il punto della
superficie più vicino ad essi. Media e deviazione standard sono state calcolate
sulla totalità dei pazienti esaminati. Sebbene risultati di confronto ritrovati in
letteratura siano stati ottenuti su un numero maggiore di pazienti (50 − 121),
in alcuni casi essi facevano parte di un sottogruppo dei frame su cui è stato
costruito lo stesso modello statistico [Kaus et al., 2004, Mitchell et al., 2002].
5.2
Sviluppi futuri
Come reso noto nella sezione 4.3, l’approccio statistico presenta il limite di
essere estremamente dipendente dalla popolazione sui cui il modello è stato
costruito. Risulta quindi necessario il bisogno di aumentare il campione di
dati su cui basare la statistica in modo da incrementare il potere descrittivo
del modello. La facile reperibilità dei dati utilizzati, ovvero esami ecocardiografici, lo rende un limite in questo caso facilmente superabile e auspicabile
nel prossimo futuro. Un approccio alternativo a quello di aumentare il pool di
dati sarebbe quello di diversificare i modelli, cioè costruire differenti modelli
statistici basati su popolazioni costituite da pazienti affetti dalla medesima
patologia, aumentando così la selettività del modello.
5.2. Sviluppi futuri
71
La diretta conseguenza del lavoro qui presentato è l’applicazione della segmentazione, congiunta a quanto già fatto, anche all’epicardio, di modo da
poter calcolare anche indici di massa del ventricolo sinistro e, come precedentemente detto, gettare le basi per la costituzione di un modello FEM per
il calcolo delle deformazioni del miocardio.
In ultima istanza si evidenzia come, sebbene venga utilizzato in maniera
ormai assodata nel campo, l’utilizzo della PCA richieda l’ipotesi di gaussianità della popolazione. Se questo è generalmente verificato per grandi popolazioni, non è altrettanto garantito per dataset più piccoli. L’utilizzo alternativo dell’Analisi delle Componenti Indipendenti (ICA), svincolato da queste limitazioni, potrebbe garantire una segmentazione capace
di seguire in maniera più raffinata variazioni locali di curvatura. L’utilizzo dell’ICA presenta però una difficoltà nell’ordinamento delle componenti ottenute e quindi una difficoltà nel ridurre la dimensionalità del dataset
[Üzümcü et al., 2003, Lötjönen et al., 2004].
Bibliografia
[Altman and Bland, 1983] Altman, D. G. and Bland, J. M. (1983). Measurement in Medicine: the Analysis of Method Comparison Studies. The
Statistician, pages 307–317. 46
[Beauchemin et al., 1998] Beauchemin, M., Thomson, K., and Edwards, G.
(1998).
On the Hausdorff Distance Used for the Evaluation of Seg-
mentation Results.
Canadian Journal of Remote Sensing, 24(1):3–8.
48
[Boudraa, 1997] Boudraa, A.-E.-O. (1997).
Automated Detection of the
Left Ventricular Region in Magnetic Resonance Images by Fuzzy C-means
Model. The International Journal of Cardiac Imaging, 13(4):347–355. 10
[Boykov and Jolly, 2001] Boykov, Y. Y. and Jolly, M. (2001). Interactive
Graph Cuts for Optimal Boundary & Region Segmentation of Objects in
N-D Images. In Computer Vision, 2001. ICCV 2001. Proceedings. Eighth
IEEE International Conference on, volume 1, pages 105–112. IEEE. 11
[Carminati et al., 2012] Carminati, M. C., Maffessanti, F., and Caiani, E. G.
(2012). Automated Motion Artifacts Removal between Cardiac Long- and
Short-axis Magnetic Resonance Images. Computing in Cardiology 2012,
39:689–692. 25, 26
[Chen et al., 1998] Chen, C. W., Luo, J., and Parker, K. J. (1998). Image
Segmentation via Adaptive K-mean Clustering and Knowledge-based Mor-
72
73
BIBLIOGRAFIA
phological Operations with Biomedical Applications. Image Processing,
IEEE Transactions on, 7(12):1673–1683. 10
[Conti et al., 2011] Conti, C., Votta, E., Corsi, C., De Marchi, D., Tarroni,
G., Stevanella, M., Lombardi, M., Parodi, O., Caiani, E., and Redaelli, A.
(2011). Left Ventricular Modelling: A Quantitative Functional Assessment
Tool Based on Cardiac Magnetic Resonance Imaging. Interface Focus,
1(3):384–395. 66
[Cootes, 2000] Cootes, T. F. (2000). Model-Based Methods in Analysis of
Biomedical Images. In Baldock, R. and Graham, J., editors, Image Processing and Analysis, chapter 7, pages 223–248. Oxford University Press.
22, 40
[Cootes et al., 1992] Cootes, T. F., Cooper, D., Taylor, C. J., and Graham,
J. (1992). A Trainable Method of Parametric Shape Description. Image
and Vision Computing, 10(5):289–294. 12, 20, 21
[Cootes et al., 1998] Cootes, T. F., Edwards, G., and Taylor, C. J. (1998).
Active Appearance Models.
Proc. European Conference on Computer
Vision 1998, 2:484–498. 12
[Cootes et al., 1994] Cootes, T. F., Hill, A., Taylor, C. J., and Haslam, J.
(1994). The Use of Active Shape Models for Locating Structures in Medical
Images. Image and Vision Computing, 12(6):355–365. 12, 40
[Cootes et al., 1995] Cootes, T. F., Taylor, C. J., Cooper, D., and Graham, J. (1995). Active Shape Models - Their Training and Application.
Computer Vision and Image Understanding, 61(1):38–59. 12
[Earls et al., 2002] Earls, J. P., Ho, V. B., Foo, T. K., Castillo, E., and
Flamm, S. D. (2002).
Cardiac MRI: Recent Progress and Continued
Challenges. Journal of Magnetic Resonance Imaging, 16(2):111–127. 6,
8
74
BIBLIOGRAFIA
[El Berbari et al., 2007] El Berbari, R., Bloch, I., Redheuil, A., Angelini, E.,
Mousseaux, E., Frouin, F., and Herment, A. (2007). Automated Segmentation of the Left Ventricle Including Papillary Muscles in Cardiac Magnetic
Resonance Images. Functional Imaging and Modeling of the Heart, pages
453–462. 33
[Finn et al., 2006] Finn, J. P., Nael, K., Deshpande, V., Ratib, O., and Laub,
G. (2006). Cardiac MR Imaging: State of the Technology. Radiology,
241(2):338–354. 6, 7, 8
[Gower, 1975] Gower,
J. (1975).
Generalized Procrustes Analysis.
Psychometrika, 40(1):33–51. 36
[Hargreaves, 2011] Hargreaves, B. (2011). Fast Gradient Echo Sequences
Including Balanced SSFP. 7, 8
[Heimann and Meinzer, 2009] Heimann, T. and Meinzer, H.-P. (2009). Statistical Shape Models for 3D Medical Image Segmentation: A Review.
Medical Image Analysis, 13:543–563. 17, 25, 36, 40
[Huttenlocher et al., 1993] Huttenlocher, D. P., Klanderman, G. A., and
Rucklidge, W. J. (1993). Comparing Images Using the Hausdorff Distance. Pattern Analysis and Machine Intelligence, IEEE Transactions on,
15(9):850–863. 48
[Joliffe, 2002] Joliffe, I. (2002). Principal Component Analysis. Springer, 2nd
edition. 20, 21
[Kang et al., 2012] Kang, D., Woo, J., Slomka, P. J., Dey, D., Germano, G.,
and Kuo, C.-C. J. (2012). Heart Chambers and Whole Heart Segmentation
Techniques: Review. Journal of Electronic Imaging, 21(1):010901–1–16.
6, 10, 11
[Kass et al., 1988] Kass, M., Witkin, A., and Terzopoulos, D. (1988). Snakes: Active Contour Models. International Journal of Computer Vision,
1(4):321–331. 10
BIBLIOGRAFIA
75
[Kaus et al., 2004] Kaus, M. R., Berg, J. v., Weese, J., Niessen, W., and
Pekar, V. (2004). Automated Segmentation of the Left Ventricle in Cardiac
MRI. Medical Image Analysis, 8(3):245–254. 66, 67, 68, 70
[Lötjönen et al., 2004] Lötjönen, J., Kivistö, S., Koikkalainen, J., Smutek,
D., and Lauerma, K. (2004). Statistical Shape Model of Atria, Ventricles
and Epicardium from Short-and Long-axis MR Images. Medical Image
Analysis, 8(3):371. 66, 67, 68, 70, 71
[Lynch et al., 2006] Lynch, M., Ghita, O., and Whelan, P. F. (2006). Automatic Segmentation of the Left Ventricle Cavity and Myocardium in MRI
Data. Computers in biology and medicine, 36(4):389–407. 5
[MacKay, 2003] MacKay, D. J. (2003). An Example Inference Task: Clustering.
In Information Theory, Inference and Learning Algorithms,
chapter 20, pages 284–290. Cambridge University Press. 32
[Marrone et al., 2010] Marrone, G., Mamone, G., Luca, A., Vitulo, P., Bertani, A., Pilato, M., and Gridelli, B. (2010). The Role of 1.5 T Cardiac
MRI in the Diagnosis, Prognosis and Management of Pulmonary Arterial Hypertension. The international journal of cardiovascular imaging,
26(6):665–681. 61
[Mitchell et al., 2002] Mitchell, S. C., Bosch, J. G., Lelieveldt, B. P., van der
Geest, R. J., Reiber, J. H., and Sonka, M. (2002). 3D Active Appearance
Models: Segmentation of Cardiac MR and Ultrasound Images. Medical
Imaging, IEEE Transactions on, 21(9):1167–1178. 66, 67, 69, 70
[NEMA, 2009] NEMA (2009). Information Object Definitions. In Digital
Imaging and Communications in Medicine (DICOM), chapter 3, pages
375–380. National Electrical Manufacturers Association. 27
[Neumann and Lorenz, 1998] Neumann, A. and Lorenz, C. (1998). Statistical Shape Model Based Segmentation of Medical Images. Computerized
Medical Imaging and Graphics, 22(2):133–143. 39
76
BIBLIOGRAFIA
[Osher and Sethian, 1988] Osher, S. and Sethian, J. A. (1988). Fronts Propagating with Curvature-dependent Speed: Algorithms Based on HamiltonJacobi Formulations.
Journal of computational physics, 79(1):12–49.
10
[Petitjean and Dacher, 2011] Petitjean, C. and Dacher, J.-N. (2011). A Review of Segmentation Methods in Short Axis Cardiac MR Images. Medical
Image Analysis, 15(2):169–184. 9, 11
[Thiele et al., 2001] Thiele, H., Nagel, E., Paetsch, I., Schnackenburg, B.,
Bornstedt, A., Kouwenhoven, M., Wahl, A., Schuler, G., and Fleck, E.
(2001). Functional Cardiac MR Imaging with Steady-state Free Precession
(SSFP) Significantly Improves Endocardial Border Delineation without
Contrast Agents. Journal of Magnetic Resonance Imaging, 14(4):362–367.
8
[Üzümcü et al., 2003] Üzümcü, M., Frangi, A., Sonka, M., Reiber, J.,
and Lelieveldt, B. (2003).
ICA vs. PCA Active Appearance Models:
Application to Cardiac MR Segmentation. pages 451–458. 71
[Van Assen et al., 2003a] Van Assen, H. C., Danilouchkine, M. G., Behloul,
F., Lamb, H., Van der Geest, R., Reiber, J. H., and Lelieveldt, B. P.
(2003a). Cardiac LV Segmentation Using a 3D Active Shape Model Driven
by Fuzzy Inference. Medical Image Computing and Computer-Assisted
Intervention - MICCAI 2003, pages 533–540. 32
[Van Assen et al., 2008] Van Assen, H. C., Danilouchkine, M. G., Dirksen,
M. S., Reiber, J. H., and Lelieveldt, B. P. (2008). A 3D Active Shape Model
Driven by Fuzzy Inference: Application to Cardiac CT and MR. Information Technology in Biomedicine, IEEE Transactions on, 12(5):595–605.
33, 40, 69, 70
[Van Assen et al., 2006] Van Assen, H. C., Danilouchkine, M. G., Frangi,
A. F., Ordàs, S., Westenberg, J. J., Reiber, J. H., and Lelieveldt, B. P.
77
BIBLIOGRAFIA
(2006). SPASM: A 3D-ASM for segmentation of sparse and arbitrarily
oriented cardiac MRI data. Medical Image Analysis, 10(2):286–303. 38
[Van Assen et al., 2003b] Van Assen, H. C., Van der Geest, R., Danilouchkine, M. G., Lamb, H., Reiber, J. H., and Lelieveldt, B. P. (2003b). 3D Active Shape Model Matching for Left Ventricle Segmentation in Cardiac CT.
Proceedings of SPIE - The International Society for Optical Engineering,
5032 I:384–393. 4, 12, 13, 30, 67, 68, 69
[Van Ginneken et al., 2002] Van Ginneken, B., Frangi, A. F., Staal, J. J.,
ter Haar Romeny, B. M., and Viergever, M. A. (2002).
Active Sha-
pe Model Segmentation with Optimal Features. Medical Imaging, IEEE
Transactions on, 21(8):924–933. 40
[Zhang et al., 2010] Zhang, H., Wahle, A., Johnson, R. K., Scholz, T. D., and
Sonka, M. (2010). 4-D Cardiac MR Image Analysis: Left and Right Ventricular Morphology and Function. Medical Imaging, IEEE Transactions
on, 29(2):350–364. 66, 67, 68, 69