POLITECNICO DI MILANO Facoltà di Ingegneria dei Sistemi Corso di Laurea Magistrale in Ingegneria Biomedica SVILUPPO DI UN ALGORITMO SEMI-AUTOMATICO PER LA SEGMENTAZIONE 3D DEL VENTRICOLO SINISTRO TRAMITE ACTIVE SHAPE MODELING DA IMMAGINI DI RISONANZA MAGNETICA Relatore: Prof. Enrico G. Caiani Correlatore: Ing. Maria C. Carminati Tesi di: Andrea Colombo Matr. 755113 AA 2011-2012 Alla mia famiglia Sommario Le tecniche di imaging diagnostico, che forniscono a clinici e ricercatori una quantità smisurata di informazioni di tipo anatomico e funzionale, sono in continuo sviluppo. Di conseguenza, la necessità di sviluppare strumenti per meglio comprendere le nuove informazioni a disposizione ha reso l’analisi computerizzata delle immagini biomediche un intenso campo di ricerca. Durante gli anni, l’area di applicazione di queste tecniche si è costantemente allargata, discostandosi dalla semplice visualizzazione per essere utilizzate in segmentazione, quantificazione e registrazione delle strutture analizzate. La volontà degli sviluppatori è che tutte queste procedure introdotte siano completamente automatiche, al fine di alleggerire il medico dalla necessità di eseguire analisi temporalmente dispendiose, e per sfruttare ove possibile la tridimensionalità del dato acquisito nel processo di segmentazione. In particolare, nell’area della segmentazione di immagini l’efficienza degli algoritmi completamente automatici è prevalentemente limitata a strutture che hanno un buon contrasto con le strutture adiacenti. Nel caso dell’imaging cardiaco, dove l’organo è in perenne movimento, oltre alla complessità della struttura si presentano artefatti causati dal rapido spostamento del cuore. Al fine di ovviare a tali problematiche, negli ultimi anni si è proceduto ad introdurre nelle tecniche di segmentazione delle informazioni a priori sulla morfologia della struttura di interesse. Queste informazioni a priori sono espresse in forma di un modello, semplificazione della realtà, che permette di meglio descrivere le strutture qualora sia difficoltoso segmentarle. I modelli statistici, in particolare, sono una buona rappresentazione della realtà anatomica I II e permettono di descrivere con buona approssimazione la struttura anche in porzioni dello spazio non direttamente supportate da immagini. Si propone in questo lavoro un algoritmo quanto più possibile automatico per la segmentazione 3D della parete endocardica del ventricolo sinistro a partire da immagini in risonanza magnetica (MR). Viene utilizzato un approccio statistico creando un modello di riferimento basato su superfici endocardiche ottenute dalla segmentazione di immagini ecocardiografiche 3D. Tale scelta è legata al fatto di ottenere un modello statistico intrinsecamente 3D della forma della cavità del ventricolo sinistro, con la volontà di utilizzarlo nella segmentazione simultanea di immagini MR 2D, senza precluderne però l’applicabilità ad altri tipi di immagini. Inoltre, l’utilizzo di superfici provenienti da esami ecocardiografici, naturalmente poco invasivi e quindi molto diffusi, dà la possibilità di ottenere facilmente altri dati con cui espandere e diversificare il modello. Per la creazione del modello statistico, le superfici, espresse sotto forma di coordinate dei nodi che le compongono e matrice di connettività delle facce, sono state preventivamente registrate rigidamente facendo riferimento a punti noti messi a disposizione dalla segmentazione. Si è inoltre deciso di non scalare le superfici e di considerare la scala come variabilità fisiologica della struttura. Si è proceduto quindi a costruire il modello statistico utilizzando la tecnica denominata Active Shape Modeling (ASM), la quale prevede la riduzione della dimensionalità del dataset sfruttando le potenzialità dell’Analisi delle Componenti Principali (PCA). L’algoritmo proposto prevede una limitata interazione dell’utente, a cui è richiesto di localizzare solamente pochi punti noti sulle viste in 2- e 4-camere. In particolare, l’apice del ventricolo e i due punti di inserzione dei lembi dell’annulus mitralico per entrambe le viste. La definizione di questi punti permette di effettuare una localizzazione iniziale del modello nello spazio 3D, in relazione allo stack di immagini in asse corto (SA) da cui verrà guidato. L’algoritmo di matching del modello con le immagini SA procede poi in maniera completamente automatica, posizionando e deformando il modello sotto III la guida delle immagini. Dall’intersezione dei segmenti perimetrali delle facce che costituiscono la mesh con ogni piano immagine, vengono estratti dei punti e, su di essi, costruiti dei profili di videointensità. Più precisamente, per ogni intersezione si estraggono i valori di videointensità di alcuni pixel che giacciono sulla retta passante per il punto stesso ed il baricentro delle intersezioni con l’immagine considerata. Per ogni singola immagine, vengono affiancati tutti i profili di videointensità ottenuti tramite campionamento radiale, e su tale immagine risultante viene eseguito un clustering, secondo la metodica detta K-means. I pixel sono quindi divisi in 5 cluster, di cui 2 attribuiti al sangue, 2 al miocardio e 1 alle strutture esterne al ventricolo. Di questi si considerano solo i cluster appartenenti al sangue e si procede a identificare il contorno che delimita la transizione tra sangue e miocardio, ovvero la parete endocardica. Vengono così generate delle nuove posizioni candidate per le intersezioni del modello. Le nuove posizioni così generate, per ogni intersezione con ogni slice, vengono utilizzate dapprima per una registrazione rigida del modello, sfruttando l’Analisi Parziale di Procruste, e poi usate come guida per la deformazione del modello. Ad ogni iterazione dell’algoritmo, l’allineamento di Procruste viene ripetuto finchè l’errore non cessa di decrescere e, ad ogni sua applicazione, viene ripetuta la segmentazione e la conseguente generazione delle posizioni candidate allo spostamento delle intersezioni. Una volta effettuata la registrazione rigida, e quindi ridotto il più possibile lo scostamento dai contorni non dovuto alla forma del modello ma solamente a posizione e orientamento, si passa alla deformazione del modello. L’ennesima segmentazione planare estrae le posizioni candidate alla spostamento delle intersezioni e queste, trasportate ai nodi del modello, ne guidano la deformazione. La deformazione del modello viene limitata entro i limiti decritti dalla statistica del dataset su cui è stato costruito, in modo da conservare la variabilità della popolazione. L’algoritmo viene poi ripetuto fino a che lo spostamento di ogni nodo del IV modello, rispetto all’iterazione precedente, sia minore della risoluzione delle immagini MR da cui viene guidato. Viene inoltre imposto un numero minimo di iterazioni al fine di evitare che passi di aggiornamento troppo piccoli non facciano sufficientemente deformare il modello. L’applicazione dell’algoritmo implementato con MATLAB, a seguito di una breve inizializzazione utente-dipendente ma comunque quantificabile al di sotto dei 10 secondi, ha richiesto un tempo di elaborazione medio per frame pari a 37 secondi, su un notebook ASUS A55V (Intel Core i7 @ 2.3 GHz, RAM 6 GB). L’applicazione dell’algoritmo viene validata comparandone i risultati con quelli ottenuti tramite tracciamento manuale dei contorni endocardici da parte di un esperto cardiologo. Vengono confrontati i volumi, calcolati per il Gold Standard con il metodo dei dischi su segmentazioni manuali e per l’algoritmo con il volume totale del modello, oltre che con il metodo dei dischi. Il confronto è stato fatto su 12 pazienti consecutivi, di cui si sono analizzati i frame di fine sistole e fine diastole, così da valutare anche la frazione di eiezione (EF). Si sono riscontrati buoni risultati per il confronto, non evidenziando errori sistematici significativi. Si è inoltre proposto per un sottogruppo di 8 pazienti una valutazione locale dello scostamento dei contorni tracciati sulle singole slice. La distanza media tra i contorni tracciati dall’algoritmo e quelli tracciati da un esperto si attesta su valori di 2.52 mm, mentre le distanze massime su ogni slice, calcolate come distanze di Haussdorf, hanno una media di 6.3 mm. La corretta segmentazione dell’algoritmo è limitata in alcuni casi da una statistica insufficiente a raggiungere determinate forme e dimensioni, dalla presenza di slice disallineate e da inefficacia del clustering nel distinguere le strutture presenti nell’immagine. I risultati ottenuti sono comunque comparabili in accuratezza con quanto presente in letteratura. L’algoritmo proposto è inoltre utile per avere una descrizione 3D della morfologia della cavità ventricolare anche nelle zone non descritte dalle immagini, in particolare le zone apicali e basali ma anche lo spazio tra slice consecutive, qui di ben 8 mm. Abstract Diagnostic imaging techniques, which provide to medics and researchers a great variety of anatomical and functional informations, are in continuous development. As a consequence, the demand for processing tools to optimally benefit from the wealth of information available has increased dramatically, which has made computerized medical image analysis a vivid field of research. During the recent years, the are of application of these techniques has been enlarging and they have been used not only for visualization but also for segmentation, quantification and registration of the analysed structures. Developers’ will is all these techniques which have been introduced to be completely automatic, in order to relieve the clinician from the burden of doing such long-lasting analyses and to enhance his abilities with not only planar but also three-dimensional analyses. In particular, in image segmentation area the efficiency of completely automatic algorithms is limited wellcontrasted structures. That is particularly true for cardiac imaging, where in addiction to structures complexity the incessant movement of the heart cause inevitable motion artefacts. In recent years, there have been introduced prior knowledge of structures morphology in segmentation techniques in order to solve the previous problems. This information are expressed in the form of a model, simplification of reality, which allow to better describe structures of interest if the segmentation results difficult to do. Statistical Models in particular represent a good explanation of anatomic reality and permit to describe the structure with good approximation even in portions of space not directly supported by images. V VI In this work a semi-automatic 3D segmentation algorithm for the endocardic wall of the left ventricle in magnetic resonance (MR) images is proposed. A statistical approach is used to build a reference model based on surfaces obtained by the segmentation of 3D echocardiographic images. Such choice is based on the will to obtain an intrinsically 3D statistical model of the shape of the left ventricle cavity which is meant to be used in simultaneous 2D MR images segmentation, not preventing its application to other types of images. Furthermore, the usage of surfaces coming from echocardiographic exams, naturally not invasive and very widespread, gives the possibility to easily obtain more data and so enlarge and diversify the model. In order to create the statistical model, surfaces, expressed as nodes coordinates and connectivity matrix of the faces that compose them, are pre-emptively rigidly registered according to known landmarks made available from the segmentation. Moreover, it has been chosen not to scale the surfaces and to consider scaling as physiological structure variability. Therefore a statistical model has been built using the Active Shape Model (ASM) technique, that reduce dataset dimensionality exploiting Principal Component Analysis (PCA) and its capabilities. The proposed algorithm needs only a limited user interaction, who is asked to localize only few known points on 2- and 4-chamber views. In particular, ventricle apex and the two insertion points of mitral valve annulus leaflets in either views. The definition of these points allows a starting positioning of the model in 3D space, in connection with Short-axis (SA) images stack, which then will guide it. The matching algorithm so proceed in a completely automatic way to place and deform the model according to images guide. From each intersection between image planes and faces perimetral segments, points are extracted and video-intensity profiles built over them. More precisely, for each intersection there are extracted video-intensity values of some pixel on the line passing through the point itself and the centre of gravity of all intersections with the considered plane. Then, for each image all sampling VII profiles are placed side by side and K-means clustering is employed. Pixel are therefore divided in 5 clusters, of which 2 have been assigned to blood, 2 to myocardium and 1 to external structures. Only the clusters belonging to blood are considered and then the edge that separate blood and myocardium is found, which is the endocardiac wall. Thus the generation of new candidate locations for model intersections is achieved. New candidate positions produced in this way foe each slice are firstly used as a reference to rigidly register the model exploiting Partial Procrustes Analysis end the used aa guide to drive its deformation. At each algorithm iteration the alignment using Procrustes is repeated until error stop decreasing and, at every application, segmentation and resulting generation of candidate location for the intersections is done again. After the rigid registration, which reduces as much as possible the displacement of contours caused not by model shape but by its displacement and orientation, the next step is model deformation. Another application of the segmentation process provides new candidate positions for the intersections, which are then transported to the neighbour nodes of the model and drive its deformation. Model deformation ability is restricted by limits that describe the statistic dataset on which it was built, in order to preserve population variability. The algorithm is then repeated till the displacement of each node of the model, from its location at the previous iteration, is less than MR images resolution. It has also been imposed a minimum number of iterations in order to avoid insufficient deformation due to too small update steps. Algorithm application, implemented in MATLAB, after a brief user-dependent initialization of about 10 seconds, needs a mean elaboration time per frame of 37 seconds running on an ASUS A55V notebook (Intel Core i7 @ 2.3 GHz, RAM 6 GB). The algorithm is validated by comparing its results with the ones obtained by manual segmentation done by an expert. Volumes, evaluated for the Gold Standard with the Simpson’s rule and for the algorithm with not only the VIII Simpson’s rule but also calculating the entire volume of the model, are compared. The validation has been made on 12 consecutive patients, of which end-diastolic and end-systolic frames have been analysed in order to evaluate also the ejection fraction (EF). The comparison showed good results, with no statistically significant systematic errors. Furthermore, on a subgroup of 8 patients the evaluation of contours displacement on each slice has been done. Mean distance between contours traced by the algorithm and the ones made by an expert resulted of 2.52 mm, whereas maximum distances on each slices computed as Haussdorf distances had a mean value of 6.3 mm. Correct segmentation of the algorithm is limited in some cases by statistics insufficient to reach particular shapes and dimensions, by the presence of slice misalignment and by clustering inefficacy to distinguish poorly contrasted images. Nevertheless, obtained results are similar to what is present in literature. Moreover, the proposed algorithm is useful to describe the 3D morphology of the ventricle cavity even in regions not reached by images, in particular apex and base of the ventricle and in the space between consecutive slices, here separated by 8 mm. Indice Sommario I Abstract V Indice IX Elenco delle Figure XI Elenco delle Tabelle XIV Ringraziamenti XV 1 Introduzione 1 1.1 Anatomia cardiaca . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Imaging cardiaco . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1 Risonanza Magnetica . . . . . . . . . . . . . . . . . . . 5 Segmentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3 1.3.1 1.4 Statistical Shape Modeling . . . . . . . . . . . . . . . . 11 Scopo della Tesi . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2 Metodi 2.1 2.2 14 Generazione del modello . . . . . . . . . . . . . . . . . . . . . 14 2.1.1 Allineamento . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.2 Riduzione della dimensionalità . . . . . . . . . . . . . . 20 Algoritmo di Matching . . . . . . . . . . . . . . . . . . . . . . 24 IX X INDICE 2.2.1 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.2 Inizializzazione manuale . . . . . . . . . . . . . . . . . 26 2.2.3 Segmentazione 2.2.4 Registrazione rigida . . . . . . . . . . . . . . . . . . . . 35 2.2.5 Aggiornamento modello . . . . . . . . . . . . . . . . . 37 2.2.6 Criteri di arresto . . . . . . . . . . . . . . . . . . . . . 40 . . . . . . . . . . . . . . . . . . . . . . 29 3 Protocollo sperimentale e validazione 43 3.1 Popolazione analizzata . . . . . . . . . . . . . . . . . . . . . . 43 3.2 Validazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2.1 Validazione dei parametri globali . . . . . . . . . . . . 44 3.2.2 Validazione locale del contorno . . . . . . . . . . . . . 46 4 Risultati 49 4.1 Validazione volumi globali . . . . . . . . . . . . . . . . . . . . 49 4.1.1 Confronto tra Vgs e Vd . . . . . . . . . . . . . . . . . . 50 4.1.2 Confronto tra Vgs e Vm . . . . . . . . . . . . . . . . . . 53 4.1.3 Confronto tra Vd e Vm . . . . . . . . . . . . . . . . . . 55 4.2 Validazione contorni locali . . . . . . . . . . . . . . . . . . . . 57 4.3 Casi non andati a convergenza . . . . . . . . . . . . . . . . . . 60 5 Discussione e Conclusioni 65 5.1 Discussione dei risultati 5.2 Sviluppi futuri . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Bibliografia . . . . . . . . . . . . . . . . . . . . . 68 72 Elenco delle figure 1.1 Anatomia interna del cuore umano . . . . . . . . . . . . . . . 2 1.2 Posizione della cavità endocardica del ventricolo sinistro . . . 4 1.3 Sequenza di impulsi e gradienti della tecnica Balanced SSPF . 7 1.4 Tipi di immagini MR . . . . . . . . . . . . . . . . . . . . . . . 8 2.1 Schermate del software utilizzato per l’elaborazione delle immagini ecocardiografiche 3D . . . . . . . . . . . . . . . . . . . 15 2.2 Esempio di superficie ricavata dai dati ecografici . . . . . . . . 16 2.3 Allineamento delle superfici . . . . . . . . . . . . . . . . . . . 19 2.4 Varianza cumulata all’aumentare degli assi di variazione 2.5 Variabilità attorno al modello medio . . . . . . . . . . . . . . 23 2.6 Flowchart dell’algoritmo di matching . . . . . . . . . . . . . . 24 2.7 Correzione dello shift delle immagini in asse corto . . . . . . . 25 2.8 Inizializzazione manuale . . . . . . . . . . . . . . . . . . . . . 26 2.9 Risultato dell’inizializzazione . . . . . . . . . . . . . . . . . . . 28 . . . 22 2.10 Rappresentazione esemplificativa del calcolo delle intersezioni . 30 2.11 Campionamento radiale dei punti di intersezione . . . . . . . . 31 2.12 Risultato del clustering . . . . . . . . . . . . . . . . . . . . . . 32 2.13 Binarizzazione dello spazio di ricerca e risultato della postelaborazione con operatori morfologici . . . . . . . . . . . . . . 34 2.14 Rappresentazione complessiva del processo di segmentazione . 35 2.15 Registrazione rigida . . . . . . . . . . . . . . . . . . . . . . . . 36 2.16 Vettori di aggiornamento del modello . . . . . . . . . . . . . . 38 XI ELENCO DELLE FIGURE XII 2.17 Deformazione del modello . . . . . . . . . . . . . . . . . . . . 39 2.18 Evoluzione dell’aggiornamento all’aumentare delle iterazioni . 41 2.19 Risultato finale dell’algoritmo, visualizzato nello spazio 3D . . 42 3.1 Distanza di Hausdorff . . . . . . . . . . . . . . . . . . . . . . . 47 4.1 Confronto tra i volumi calcolati con il metodo di Simpson sia per l’algoritmo che per il Gold Standard . . . . . . . . . . . . 51 4.2 Grafico di Bland-Altman per il confronto dei volumi ottenuti con la regola di Simpson per l’algoritmo, rispetto al Gold Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.3 Confronto tra le frazioni di eiezione calcolati con il metodo di Simpson sia per l’algoritmo che per il Gold Standard . . . . . 52 4.4 Grafico di Bland-Altman per il confronto tra le frazioni di eiezione calcolati con il metodo di Simpson sia per l’algoritmo che per il Gold Standard . . . . . . . . . . . . . . . . . . . . . 53 4.5 Confronto dei volumi ottenuti sulla totalità del modello rispetto al Gold Standard . . . . . . . . . . . . . . . . . . . . . . . . 54 4.6 Confronto delle frazioni di eiezione ottenute dal calcolo dei volumi sulla totalità del modello rispetto al Gold Standard . . 54 4.7 Confronto dei risultati ottenuti sulla totalità del modello rispetto a quelli derivanti dal metodo dei dischi sulle segmentazioni dell’algoritmo . . . . . . . . . . . . . . . . . . . . . . . . 56 4.8 Confronto tra le segmentazioni effettuate da un utente esperto rispetto a quelle generate dall’algoritmo . . . . . . . . . . . . . 59 4.9 Mancata convergenza dell’algoritmo in seguito a dimensioni troppo elevate della struttura di ricerca . . . . . . . . . . . . . 61 4.10 Paziente soggetto a ipertensione polmonare . . . . . . . . . . . 61 4.11 Errata segmentazione per un soggetto affetto da ipertensione arteriosa polmonare . . . . . . . . . . . . . . . . . . . . . . . . 62 4.12 Disallineamento slice . . . . . . . . . . . . . . . . . . . . . . . 63 4.13 Segmentazione errata a causa di un non corretto allineamento 63 ELENCO DELLE FIGURE XIII 4.14 Immagine in cui il clustering non porta ad una corretta segmentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Elenco delle tabelle 2.1 Pazienti utilizzati nella costruzione del modello statistico . . . 14 2.2 Volumi dei campioni utilizzati per la costruzione del modello statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 4.1 Range di volumi e frazioni di eiezione del Gold Standard . . . 50 4.2 Valori risultanti dall’analisi comparativa dei volumi e delle frazioni di eiezione . . . . . . . . . . . . . . . . . . . . . . . . 57 XIV Ringraziamenti É doveroso rivolgere un ringraziamento alle persone che hanno reso possibile la stesura di questo elaborato: il Professor Enrico G. Caiani e l’Ing. Maria C. Carminati per la disponibilità, il costante aiuto e i preziosi suggerimenti. Si ringraziano inoltre il Centro Cardiologico Monzino, in particolare il Dr. Francesco Maffessanti, e la University of Chicago, insieme al Prof. Lang, per avere messo a disposizione i dati utilizzati per la creazione del modello statistico. Non dimentico di ringraziare per tutto il supporto in questi anni la mia famiglia, che mi ha reso quello che sono e che spero di rendere orgogliosa e fiera di me, oggi come nel prossimo futuro. Ringrazio Marina, compagna prima solamente negli studi e poi in ogni aspetto della mia vita, lei che mi sta accanto tutti i giorni sopportandomi. Infine un caloroso ringraziamento va a tutti gli amici, nuovi e di un tempo, le cui risate hanno allietato anche i giorni più difficili. Ringrazio tutti loro, perchè senza di loro ogni obiettivo raggiunto non avrebbe alcun significato. Grazie. XV Capitolo 1 Introduzione 1.1 Anatomia cardiaca Il cuore è un muscolo cavo, cardine dell’apparato circolatorio, situato all’interno del torace e dotato di attività contrattile autonoma in modo da garantire la corretta circolazione del sangue all’interno dei vasi arteriosi e venosi. É una pompa pulsatile composta da quattro cavità: due atri, situati nella parte superiore che ricevono il flusso di sangue dal sistema circolatorio, e due ventricoli situati nella parte inferiore del cuore che hanno lo scopo di far circolare il sangue nell’organismo. Ogni atrio è strettamente accoppiato al ventricolo sottostante, per questo motivo il cuore può essere suddiviso in due metà, chiamate rispettivamente cuore sinistro e cuore destro. Funziona come una duplice pompa nonostante sia un unico organo. Il cuore destro funge da pompa per la circolazione polmonare, o piccola circolazione. Il ventricolo destro immette sangue nel tronco arterioso polmonare che si divide nelle due arterie polmonari, le quali portano il sangue ai polmoni per rifornirlo di O2 e liberarlo di CO2 . Il sangue ossigenato torna poi al cuore sinistro tramite le 4 vene polmonari, attraversa atrio e ventricolo sinistro, per essere pompato nell’aorta, dalla quale si originano le arterie della circolazione sistemica, detta anche grande circolazione. Il sangue, una volta proceduto ai processi di scambio coi tessuti periferici, verrà ricondotto attraverso le vene 1 1.1. Anatomia cardiaca 2 cave superiore ed inferiore all’atrio destro del cuore. Figura 1.1: Anatomia interna del cuore umano. www. edoctoronline. com La circolazione sanguigna è garantita dall’azione alternata delle due metà del cuore, le quali hanno un funzionamento analogo. Ad ogni ciclo cardiaco infatti ciascuna metà è caratterizzata da tre fasi: • Diastole atriale. L’atrio riceve il sangue dalle vene entranti nel cuore. La valvola atrioventricolare è chiusa, mentre la pressione all’interno della camera aumenta. • Sistole atriale e diastole ventricolare. La valvola atrioventricolare si apre e il flusso di sangue fluisce dall’atrio al ventricolo. • Sistole ventricolare. É la fase in cui avviene la contrazione della parete ventricolare. La valvola atrioventricolare si chiude rapidamente non 1.1. Anatomia cardiaca 3 appena la pressione ventricolare supera quella atriale; in questo modo il flusso di sangue va solo in una direzione e non torna indietro. Quando la pressione ventricolare supera anche la pressione all’esterno dell’arteria si ha l’eiezione sanguigna con l’apertura della valvola semilunare. Il cuore è munito di 4 valvole atte a tutelare la monodirezionalità del flusso ematico dagli atri ai ventricoli e da questi alle grosse arterie che nascono dal cuore. Le valvole atrioventricolari si distinguono in bicuspide o mitrale nel cuore sinistro, tricuspide nel cuore destro. Queste valvole sono aperte durante la diastole e si chiudono quando i ventricolo sono in sistole. Il ribaltamento delle cuspidi, che permetterebbe un reflusso sanguigno durante la sistole ventricolare, è impedito dall’azione dei muscoli papillari e delle corde tendinee. I muscoli papillari sono presenti sia nella parte destra che sinistra del cuore, in rapporto 1:1 con le cuspidi e di conseguenza sono tre nel ventricolo destro e 2 nel ventricolo sinistro. Sono caratterizzati da un lembo impiantato su una parete e il lembo controlaterale libero dal quale partono delle sottili formazioni cordoniformi, dette corde tendinee, che ancorano le cuspidi alle pareti ventricolari. Le valvole semilunari polmonare e aortica sono invece poste all’origine delle due grosse arterie che emergono dalle cavità ventricolari. Ciascuna valvola semilunare ha 3 cuspidi che combaciano perfettamente tra loro quando la valvola è chiusa; si aprono passivamente per effetto del flusso ematico e si richiudono quando il sangue tende a rifluire verso il cuore. A differenza delle valvole atrioventricolari, le semilunari sono chiuse in diastole ed aperte in sistole. Il cuore e la parte più prossimale della maggior parte dei grandi vasi a lui adiacenti sono avvolti nel pericardio, una membrana che oltre a proteggere permette al cuore una discreta libertà di movimento e di variazione di forma, minimizzando l’attrito. Sotto al pericardio si trovano tre tonache, una interna all’altra, che costituiscono la parete del cuore. Più esternamente vi è l’epicardio che è costituito da tessuto connettivo, contenente capillari sanguigni, capillari linfatici e fibre nervose e consiste nel foglietto viscerale del pericardio. Subito sotto vi è il miocardio, formato da fibre muscolari car- 1.2. Imaging cardiaco 4 diache il cui spessore varia fra 5 e 15 mm (maggiore in corrispondenza dei ventricoli), ordinatamente orientate in modo da permettere la corretta contrazione. Nella parte più interna del cuore si trova l’endocardio che costituisce un rivestimento protettivo formato da cellule endoteliali. Ha la funzione di favorire lo scorrimento del sangue all’interno del cuore per evitare coaguli del sangue e si ritrova anche nei vasi sanguigni. Il lavoro svolto si preoccupa della segmentazione della parete endocardica del ventricolo sinistro perchè, essendo la camera più importante del cuore, l’analisi della sua funzionalità è importante nella valutazione dei fattori di rischio e mantenimento dell’intero organo cardiaco [Van Assen et al., 2003b]. Figura 1.2: Evidenziazione della posizione della cavità endocardica del ventricolo sinistro. www. biodigitalhuman. com 1.2 Imaging cardiaco La quantificazione della funzionalità cardiaca, necessaria per la diagnosi ed il trattamento delle patologie cardiache, può essere effettuata tramite elet- 1.2. Imaging cardiaco 5 trocardiografia (ECG), misure di pressioni sistoliche e diastoliche, ma soprattutto grazie all’utilizzo dell’imaging diagnostico. La tecnologia ha messo a disposizione un gran numero di differenti tipologie di imaging, tra cui si contano ecografia, Tomografia Computerizzata (CT), angiografia coronarica e risonanza magnetica (MR). L’ecocardiografia è un sistema di acquisizione delle immagini economico, non invasivo, permette l’indagine di piani arbitrari e, con l’introduzione dell’eco 3D, la generazione di immagini intrinsecamente tridimensionali. Le molte qualità sono però compensate da un rapporto segnale-rumore minore rispetto a MR e raggi X, da un ridotto campo di vista a causa dell’attenuazione dell’onda di pressione all’aumentare della profondità, dall’incapacità di visualizzare strutture poste dietro a regioni contenenti aria, oltre che da una dipendenza paziente-specifica (e operatore-dipendente) della qualità dell’immagine. In angiografia, dove si utilizzano immagini a raggi X, il muscolo cardiaco può essere nascosto dalla sovrapposizione della gabbia toracica e del diaframma; inoltre, l’utilizzo di radiazioni ionizzanti e soprattutto di un liquido di contrasto può risultare dannoso per l’organismo [Lynch et al., 2006]. 1.2.1 Risonanza Magnetica Riconosciuta oggi come il riferimento per la valutazione non invasiva della funzionalità cardiaca, la risonanza magnetica fornisce, utilizzando diversi protocolli, informazioni accurate non solo riguardo alla morfologia, ma anche riguardanti perfusione del miocardio, alla natura del tessuto cardiaco ed ai flussi sanguigni. In particolare, il recente utilizzo di Gadolinio come mezzo di contrasto ha introdotto un metodo specifico e sensibile per l’identificazione di necrosi miocardiche. Tra i vantaggi della risonanza magnetica si annoverano un eccellente contrasto dei tessuti molli, un’alta risoluzione spaziale, un alto rapporto segnale-rumore, l’abilità di classificare i tessuti grazie ad un’ampia varietà di sequenze di impulsi e l’assenza di radiazioni ionizzanti. Di contro è un procedimento lento, l’acquisizione delle immagini richiede infatti la ripeti- 1.2. Imaging cardiaco 6 zione di apnee (breath-hold) da parte del paziente, durante ognuna delle quali si procede alla scansione di una porzione specifica del cuore (slice) nel ciclo cardiaco. L’utilizzo di un trigger dato dal segnale ecocardiografico permette di attribuire le immagini alle specifiche fasi del ciclo [Finn et al., 2006]. Purtroppo, l’acquisizione lungo differenti fasi di breath-hold può causare errori di allineamento tra le slice, risultando in artefatti per l’immagine tridimensionale del cuore. Questi si aggiungono agli artefatti da movimento causati da fasi di apnea non perfette, dagli spostamenti del paziente e dal flusso sanguigno, i quali conducono a sfocamenti nelle immagini che non possono essere sempre rimossi. In ultimo, mentre la risoluzione planare è tipicamente nell’ordine di 1.5 mm × 1.5 mm, quella tra le slice successive, tipicamente 8−10 mm, non è altrettanto ottimale per una ricostruzione 3D dell’anatomia cardiaca. [Kang et al., 2012]. L’acquisizione di frame appartenenti alle differenti fasi del ciclo cardiaco permette di seguire l’evoluzione delle strutture nel tempo, affiancando le immagini in una sorta di video (cine MRI). Le metodiche di acquisizione di immagini MR del distretto cardiaco, si sono concentrate sulle tecniche denominate Bright-Blood, dove il sangue è rappresentato con una maggiore videointensità rispetto agli altri tessuti. Le sequenze generalmente utilizzate comprendono gradient-recalled echo (GRE), con le sue evoluzioni fast GRE (fGRE) e segmented k-space fGRE, e steady-state free precession (SSFP). Di quest’ultima categoria esistono differenti realizzazioni che prendono il nome di fast imaging employing steady-state acquisition (FIESTA), la sequenza utilizzata per l’acquisizione delle immagini su cui si testa l’algoritmo in esame, balanced fast field echo (BFFE), fast imaging with steady precession (FISP) e true FISP [Earls et al., 2002]. Le sequenze GRE sono appropriate per l’imaging cardiaco grazie a tempi di eco (T E) e ripetizione (T R) ridotti. Il sangue appare bianco rispetto al miocardio adiacente a causa degli effetti dovuti a time-of-flight e a T2 relativamente lungo. In tutte le sue manifestazioni, le tecniche GRE sono pesate in T1 e sfruttano il flusso del sangue attraverso il piano di acquisizione per 1.2. Imaging cardiaco 7 esaltare il contrasto tra sangue e miocardio, analogamente a quanto fatto da angiografia MR. Quindi se TR è troppo corto, oppure il flusso troppo lento, il sangue risulta saturato. Questo è particolarmente vero per le immagini LA, dove il sangue può soffermarsi nella sezione, oppure per le immagini SA nei pazienti con ridotta funzionalità del miocardio. Il problema appena descritto limita quindi l’utilizzo di TR molto corti, necessari per ridurre i tempi di acquisizione e quindi la lunghezza delle fasi di apnea richieste ai pazienti [Finn et al., 2006]. Il contrasto delle immagini ottenute con tecniche SSFP dipende invece dal rapporto T2∗ /T1 dei tempi di rilassamento dei tessuti ed è meno dipendente dal flusso sanguigno rispetto alle tecniche GRE. Questo tipo di sequenze sono però particolarmente suscettibili alle disomogeneità del campo magnetico e richiedono T R estremamente corti, il che ne ha limitato l’utilizzo fino a tempi recenti, quando l’evoluzione tecnologica ha messo a disposizione sistemi a performance più elevate. Figura 1.3: Sequenza di impulsi e gradienti della tecnica Balanced SSPF. Tutte le forme d’onda di eccitazione dei gradienti G sono bilanciate o rifasate. Il segno degli impulsi a radiofrequenza RF è solitamente alternato, così che viene generato un alto segnale per gli spin in risonanza. L’eco del segnale è mostrato sovrapposto ai gradienti Gx [Hargreaves, 2011]. 8 1.2. Imaging cardiaco Le sequenze SSPF, di cui un esempio è rappresentato in figura 1.3, sono basate su sequenze di gradient-echo con piccoli flip angle e ridotti T R e sfruttano la magnetizzazione trasversale data dalla sovrapposizione di spin echoes e stimulated echoes provenienti da diverse ripetizioni. Questo viene solitamente ottenuto rifasando il gradiente phase-encoding in ogni suo intervallo di ripetizione, in modo da mantenere costante il suo integrale. Sequenze SSPF completamente bilanciate annullano la fase rifasando tutti i gradienti di codifica [Hargreaves, 2011]. Il risultato, rispetto alle immagini ottenute con tecniche GRE, è un miglior rapporto segnale-rumore ed un contrasto più elevato tra miocardio e cavità ventricolari, con un chiaro delineamento delle trabecolazioni e dei muscoli papillari [Earls et al., 2002]. Le tecniche SSPF, forti un miglior contrasto e tempi di acquisizione molto ridotti grazie all’utilizzo di T R estremamente corti, hanno recentemente soppiantato le tecniche GRE nella pratica clinica per l’imaging cardiaco [Finn et al., 2006, Thiele et al., 2001]. (a) SA (b) 2-Camere (c) 4-Camere Figura 1.4: Esempi dei tre tipi di immagini MR acquisite lungo i tre piani principali: asse corto, 2-Camere e 4-Camere. Nella pratica clinica, per la valutazione della cinesi ventricolare sinistra e per il calcolo dei volumi, vengono utilizzati due differenti protocolli di acquisizione di immagini MR: asse corto (Short-axis, SA) e asse lungo (Long-axis, LA), mostrati in figura 1.4. Per il protocollo SA vengono acquisite immagi- 1.3. Segmentazione 9 ni lungo piani perpendicolari all’asse del ventricolo sinistro, linea costruita congiungendo centro della valvola mitrale e apice, ricavati da immagini scout opportunamente acquisite all’inizio dell’esame. In queste immagini, che coprono tutta la lunghezza del cuore, è difficoltoso però identificare il piano mitralico poichè perpendicolare ai piani immagine. Proprio nell’asse del ventricolo sinistro si intersecano i piani delle immagini LA, immagini che sono perpendicolari alle SA e vengono acquisite con diversi orientamenti attorno all’asse. Le LA possono essere acquisite radialmente ad intervalli arbitrari (RAD) oppure, come avviene più spesso, lungo le due viste principali, denominate 2-Camere e 4-Camere perchè acquisite ad angoli tali per cui sono bene visibili rispettivamente solo le 2 camere del cuore sinistro, oppure tutte le 4 camere cardiache. Esiste anche un orientamento denominato 3-Camere che evidenzia, insieme alle 2 camere del cuore sinistro, l’inserzione dell’arco aortico. 1.3 Segmentazione La funzione contrattile del cuore può essere valutata tramite il calcolo di volumi, masse ventricolari e frazioni di eiezione, segmentando i ventricoli destro e sinistro nelle immagini. La segmentazione manuale è un procedimento lento, che richiede parecchio tempo; è inoltre un procedimento fortemente dipendente dall’operatore, per cui la ricerca si è indirizzata verso l’automazione del processo di segmentazione [Petitjean and Dacher, 2011]. Per quanto riguarda la struttura qui indagata, ovvero l’endocardio ventricolare sinistro, grazie alla particolare sequenza utilizzata per la acquisizione le immagini MR non necessitano di particolari agenti di contrasto per differenziare il sangue dal miocardio. Esistono comunque delle difficoltà nel segmentarle a causa delle disomogeneità dei livelli di grigio, dovute al flusso sanguigno ma soprattutto alla presenza dei muscoli papillari e di trabecolazioni (irregolarità della parete) all’interno del ventricolo, strutture che presentano profili di intensità simili a quelli del miocardio e possono quindi 1.3. Segmentazione 10 rappresentare un significativo problema nella chiara identificazione della parete endocardica. Nonostante ad oggi siano stati fatti molti passi in avanti alla ricerca di un metodo che potesse compensare la precisione della segmentazione manuale, essa rimane ancora oggi il Gold Standard a cui le varie tecniche cercano di tendere. Negli ultimi anni si sono sviluppate differenti tecniche di segmentazione del ventricolo, le quali possono essere riassunte in quattro tipologie [Kang et al., 2012]: • Boundary-driven. Le tecniche di segmentazione Boundary-driven sono basate sul concetto di evoluzione dei contorni, che si deformano da uno stato di inizializzazione fino alla disposizione definitiva. Uno dei più noti è il modello denominato Active Snakes (o contours) , il quale permette la deformazione di una curva, inizialmente tracciata dall’utente, sotto l’influenza di forze interne, per mantenere l’uniformità della curva, e di forze esterne, rappresentate da forze di attrazione dei contorni nell’immagine [Kass et al., 1988]. Un’altra metodica ormai assodata è quella che va sotto il nome di Level-set, la quale rappresenta implicitamente le curve come l’intersezione con il piano immagine di una funzione scalare di grado superiore a quello del dominio di ricerca [Osher and Sethian, 1988]. La grande sensibilità all’inizializzazione ne è la maggiore limitazione, unitamente all’incapacità di seguire strutture con un’elevata curvatura locale. • Region-based. Le tecniche appartenenti a questa categoria segmen- tano le strutture presenti nell’immagine sfruttando le loro proprietà di omogeneità nella videointensità. La più nota, poichè proveniente da altri campi di ricerca, prevede l’utilizzo del Clustering per divide- re in categorie gruppi di pixel in base al loro valore in livelli di grigio [Boudraa, 1997, Chen et al., 1998]. • Graph-cuts. La teoria a cui fa riferimento tale tecnica interpreta l’immagine come un grafico, in cui ogni pixel è connesso ai pixel adiacenti 1.3. Segmentazione 11 e a dei pixel, selezionati dall’utente, che servono da limiti fissi sia per l’oggetto che per lo sfondo. Il costo di tali connessioni dipende dall’omogeneità dei pixel connessi, quindi si ricerca il contorno che possa minimizzare il costo delle connessioni [Boykov and Jolly, 2001]. • Model-fitting. Le tecniche annoverate in questa categoria cercano di far combaciare una forma geometrica predefinita alla posizione nell’immagine della struttura da segmentare. Generalmente risulta necessario procedere attraverso due step: prima il modello è costruito a partire da una serie di dati, per poi essere utilizzato nella fase di matching tra modello e immagine. L’utilizzo di informazioni a priori sulla natura delle strutture da segmentare risulta una buona soluzione per i problemi sopra citati, oppure per incrementare robustezza ed accuratezza degli algoritmi. Le informazioni a priori possono essere di piccola entità, come per esempio delle semplici relazioni spaziali tra gli oggetti, oppure di più grande entità come modelli statistici che rappresentano la forma delle strutture, o addirittura i suoi profili di intensità. Questi ultimi sono chiamati Statistical Shape Models, categoria su cui si basa l’algoritmo qui proposto e di cui i principali fondamenti verranno più avanti descritti [Petitjean and Dacher, 2011, Kang et al., 2012]. 1.3.1 Statistical Shape Modeling Quasi ogni oggetto di interesse, parte del corpo umano, può presentarsi in una gran numero di variazioni di forma, dimensione e composizione dei tessuti; questo rende spesso difficoltoso il processo di identificazione e segmentazione automatica delle strutture indagate. L’utilizzo di modelli appropriati, costruiti sulla base di in un numero di dataset utilizzati come riferimento ed incorporandone informazioni sia in termini di forma che in termini di livelli di grigio, può apportare un considerevole aiuto. Per risultare efficaci nel processo di segmentazione, tali modelli devono essere in grado di contemplare le variazioni necessarie in forma, dimensioni e apparenze che un dato può ave- 1.3. Segmentazione 12 re, rispetto ai dataset utilizzati come riferimento. Con apparenze si intende i livelli di grigi con cui una data struttura viene rappresentata nell’immagine [Cootes et al., 1994]. I modelli che rappresentano la forma degli oggetti in esame sono costituiti da una distribuzione di punti che giacciono sulla superficie della forma, motivo per cui vengono chiamati Point Distribution Models (PDM), e caratterizzano la forma di una struttura e la sua variabilità [Cootes et al., 1992]. A partire da un set di dati utilizzati come riferimento, la descrizione della forma di questi ultimi viene espressa tramite le coordinate di punti generalmente facili da identificare, oppure punti anatomicamente noti, chiamati solitamente landmarks. A seguito di un necessario allineamento delle forme, vengono calcolati una forma media e un numero di variazione di forma caratteristiche attorno al modello medio. Tramite queste è possibile ricostruire le forme appartenenti al set di addestramento come combinazione lineare delle variazioni di forma attorno al modello medio [Van Assen et al., 2003b]. I processi alla base della costruzione del modello verranno meglio descritti nella sezione 2.1. La deformazione dei modelli viene poi guidata, in un algoritmo di matching denominato Active Shape Model (ASM), dalle informazioni che nelle immagini descrivono l’oggetto target della ricerca. Le informazioni estratte sono necessarie a suggerire nuove posizioni candidate per i landmark descrittivi del PDM. La proiezione delle nuove posizioni nello spazio del modello permette la modifica dello stesso. Le coordinate vengono limitate nello spazio del modello entro confini statistici per forzare il modello a rispecchiare il set di forme su cui è stato costruito nella fase di training [Cootes et al., 1995]. Un’estensione dell’ASM è stato in seguito proposto e chiamato Active Appearence Model (AAM). Esso incorpora, oltre alle informazioni di natura geometrica, anche una statistica sui livelli di grigio dei pixel o voxel dell’intero oggetto, permettendo una ricerca basata sulla minimizzazione della differenza tra le intensità del modello e delle immagini [Cootes et al., 1998]. Questi metodi si sono rivelati strumenti potenti e robusti nella segmentazione di immagini, non solo in ambito medico ma anche in altri campi come la 1.4. Scopo della Tesi 13 Computer Vision e la Face Recognition. 1.4 Scopo della Tesi La motivazione principale di questo lavoro è l’implementazione e la conseguente validazione di un algoritmo di segmentazione 3D della parete endocardica del ventricolo sinistro a partire da immagini MR in asse corto tramite l’applicazione di ASM, utilizzando un modello statistico costruito sulla base di dataset di riferimento, ottenuti dalla segmentazione di immagini ecocardiografiche 3D. Tale scelta è legata al fatto di ottenere un modello statistico intrinsecamente 3D che possa essere adattato, nel caso specifico, alla segmentazione simultanea di immagini MR 2D, senza precludere ulteriori applicazioni ad altre tipologie di immagini (per esempio CT), senza necessità di dover addestrare nuovamente il modello statistico, cosa che invece si dovrebbe fare se si decidesse di utilizzare informazioni di intensità come nell’AAM. Si è perciò deciso di applicare lo schema iterativo dell’ASM [Van Assen et al., 2003b]. L’algoritmo presuppone di richiedere all’utente un numero limitato di informazioni per eseguire la localizzazione iniziale del modello per poi procedere in maniera totalmente automatica alla segmentazione delle immagini, richiedendo un tempo significativamente minore di quello che impiegherebbe l’utente a segmentare le singole slice. In particolare, nell’identificazione dell’oggetto in esame, si fa ricorso all’intervento dell’operatore per la localizzazione di 6 punti noti nelle immagini in asse lungo, per identificare nello spazio 3D il centro della valvola mitrale e l’apice dell’endocardio. Inoltre, l’utilizzo di un modello 3D per segmentare delle immagini bidimensionali permette di mantenere la continuità dell’oggetto all’interno delle sue acquisizioni 2D e di averne una rappresentazione statisticamente accurata negli spazi che intercorrono tra le diverse slice, solitamente spaziate tra loro di diversi millimetri. Quindi permette di calcolare anche in una maniera più vicina alla realtà il volume della camera in esame. Capitolo 2 Metodi 2.1 Generazione del modello Per la generazione del modello statistico, è stata utilizzata una popolazione di 205 pazienti, per i quali in tabella 2.1 si elenca la distribuzione in base alle diagnosi. Diagnosi numero Normali 122 (8) Cardiomiopatia dilatativa 19 (9) Insufficienza aortica 13 Stenosi aortica 11 Rigurgito mitralico 28 Stenosi mitralica 12 Tabella 2.1: Tabella riassuntiva della diagnosi dei pazienti utilizzati nella costruzione del modello statistico. I numeri elencati fra parentesi indicano quanti, dei pazienti della medesima categoria, presentano anche un blocco di branca sinistra. L’esame di ogni paziente comprendeva un ciclo cardiaco completo per un totale di 3284 frame analizzati. L’intero dataset si estende lungo una varietà di morfologie del ventricolo sinistro, con volumi che si distribuiscono secondo quanto riportato in tabella 2.2. 14 15 2.1. Generazione del modello Misura Valore (ml) Range 22.45-409.66 Media 108.74 Deviazione standard 70.93 25◦ Percentile 59.66 Mediana 90.06 75◦ Percentile 139.77 Tabella 2.2: Tabella riassuntiva della distribuzione dei volumi dei campioni utilizzati per la costruzione del modello statistico. Tali pazienti sono stati sottoposti ad esame ecocardiografico 3D transtoracico presso il Centro Cardiologico Monzino, Milano, o la University of Chicago, IL, USA. In entrambi i casi, la strumentazione utilizzata é stata l’apparecchiatura iE33 (Philips) dotata di sonda 3D (X3-1 ). I dati sono stati acquisiti in modalità full-volume, ove la piramide di acquisizione viene generata a partire dal dato acquisito in 4-7 battiti consecutivi, sincronizzato tramite trigger del segnale ECG, durante apnea a fine espirazione. (a) (b) Figura 2.1: Schermate del software utilizzato per l’elaborazione delle immagini ecocardiografiche 3D e l’ottenimento dei volumi su cui si è proceduto a generare il modello statistico (www. tomtec. de ). Le immagini 3D sono state elaborate tramite software per la segmentazio- 2.1. Generazione del modello 16 ne semiautomatica (4D LV analysis, Tomtec, Monaco, Germania), di cui due schermate sono mostrate a titolo esemplificativo in figura 2.1, nella seguente maniera: a partire da un’inizializzazione manuale di alcuni punti fiduciari su piani anatomici preimpostati (vista apicale 2-, 3-, e 4-camere), l’algoritmo procede alla generazione di una superficie 3D che rappresenta l’endocardio del ventricolo sinistro. Una volta ottenute, le superfici ventricolari nel ciclo cardiaco sono state esportate in termini di coordinate dei nodi e di matrice di connettività delle facce che costituiscono i modelli. Ogni superficie, di cui una è visibile in figura 2.2, è composta da 642 nodi, attraverso cui il nodo 388 passa la retta che identifica l’asse aortico, di modo da poter orientare correttamente nello spazio 3D le superfici provenienti da pazienti diversi in relazione alla posizione della aorta. Nella stessa figura, il punto 388 è chiamato AO. Figura 2.2: Esempio di superficie ricavata dai dati ecografici con evidenziati i tre punti noti utilizzati nella fase di allineamento. 2.1. Generazione del modello 17 La generazione di un modello statistico presenta tre problemi fondamentali: • Corrispondenza dei punti. • Allineamento delle forme. • Modellazione statistica e variabilità della forma. Per come sono state costruite le superfici , ed i loro nodi e connettività definite, la corrispondenza dei punti anatomici viene automaticamente garantita dalla segmentazione. É quindi possibile trascurare il primo step in questo caso, ovvero quello di attribuzione della corrispondenza trai punti, e concentrarsi qui di seguito sugli altri due problemi, quello di allineamento e quello di modellazione. Nel caso si fosse utilizzato un differente metodo di segmentazione o modalità di imaging per l’ottenimento delle immagini da utilizzare come riferimento nel modello statistico, si sarebbe dovuto affrontare il problema del campionamento delle superfici ottenute e della corrispondenza tra i loro nodi nello spazio. 2.1.1 Allineamento Un requisito essenziale per la costruzione di un modello statistico è quello di allineare i dati in modo che i nodi di ciascun modello si trovino in posizioni corrispondenti con i relativi nodi degli altri modelli. Si applicano quindi operazioni di trasformazione quali traslazioni, rotazioni e scalatura agli interi modelli in modo da avvicinare i nodi corrispondenti di tutte le forme, senza alterare il rapporto tra le distanze dei nodi che costituiscono una stessa forma. In alcuni casi, come quello proposto, le dimensioni generali del modello sono considerate come una parte della variabilità anatomica e quindi, al fine di includerne la variabilità nella statistica del modello costruito, l’allineamento prescelto non prevede scalatura [Heimann and Meinzer, 2009]. Per l’allineamento delle superfici ventricolari a disposizione per la costruzione del modello medio, si è proceduto come segue. A partire dalla posizione nota 18 2.1. Generazione del modello dei nodi corrispondenti all’apice (AP), al punto centrale del piano mitralico (MV), e del nodo attraverso cui passa l’asse centrale del tratto di efflusso aortico (AO), la nuvola di dati è stata così registrata: • Traslazione. Per ogni frame di ogni paziente, calcolo del baricentro della nuvola di punti e sottrazione dello stesso ad ogni punto per porre l’origine del sistema di riferimento di tutte le forme in [0, 0, 0]. • Rotazione. Si è fatto combaciare il piano sui cui giacciono l’asse lungo del ventricolo, definito come congiungente dei punti MV e AP, e l’asse aortico, passante per i punti AO e AP. Inoltre l’asse lungo è stato ruotato in modo da farlo combaciare, per semplicità, con l’asse z. Quindi, considerando 2.1 la costruzione della terna di assi che costituisce il sistema di riferimento di ogni forma, si è posto l’asse lungo v1 a [0, 0, 1] (asse z) e si è provveduto a far combaciare gli altri due assi. MV − AP |MV − AP | AO − MV v2 = v1 × |AO − MV | v1 = (2.1) v3 = v1 × v2 dove v2 è la normale al piano su cui giacciono contemporaneamente gli assi lungo e corto, mentre v3 è costruita per completare la terna cartesiana sui due assi precedenti. Mentre per asse lungo v1 e origine si ha un riferimento fisso, rispettivamente l’asse z ed i baricentri delle forme, per la rotazione intorno all’asse z si è scelto di registrare tutte le forme ad una qualunque del dataset. Un esempio di tale processo è osservabile in figura 2.3, dove una superficie (in rosso) viene registrata ad una superficie scelta come riferimento (in giallo) applicando una trasformazione T . Il risultato è poi visualizzato in verde. 2.1. Generazione del modello 19 Figura 2.3: Esempio di allineamento di superfici. Presa una superficie qualunque di riferimento (in giallo), si registra rigidamente la supeficie rossa al suo sistema di riferimento applicando una trasformazione T . In verde si visualizza la superficie registrata. Sono inoltre evidenziati i versori v1 , v2 e v3 che compongono i sistemi di rifermineto delle due superfici. 20 2.1. Generazione del modello 2.1.2 Riduzione della dimensionalità Una volta allineate le forme, è possibile passare all’analisi statistica del dataset e della generazione del modello. Considerando ogni singola forma, le coordinate di tutti i k nodi che la descrivono vengono racchiusi in un vettore x di dimensione 3k: x = [x1 , y1, z1 , . . . , xk , yk , zk ]T (2.2) Quindi, il modello medio può essere calcolato facendo una semplice media delle posizioni dei punti corrispondenti su tutte le N forme: x̄ = N 1 X xi N i=1 (2.3) Successivamente, si effettua l’Analisi delle Componenti Principali (PCA), un metodo di rappresentazione delle forme in grado di incorporare le loro proprietà distintive e contemporaneamente di fornire una descrizione compatta e parametrica della variabilità del sistema. Questa generalizzazione del dataset di riferimento per la costruzione del modello statistico consente di generare forme che soddisfano i limiti dello stesso dataset, usando un numero ridotto di parametri [Cootes et al., 1992]. L’idea principale della PCA è di ridurre la dimensionalità dei dati, i quali consistono in un gran numero di variabili correlate tra loro, mantenendo al contempo la variabilità presente nel set di dati originale. Questo viene ottenuto trasformando i dati in un nuovo set di variabili, dette Componenti Principali (PC), che sono scorrelate e che sono ordinate per variabilità decrescente, in modo che le prime descrivano la maggior parte della variabilità del sistema di dati originale [Joliffe, 2002]. La correlazione tra i nodi che descrivono la mesh è stimabile attraverso il calcolo della covarianza S del sistema: S= N 1 X (xi − x̄)(xi − x̄)T N − 1 i=1 (2.4) La PCA fornisce così un set di 3k assi principali di variazione (ovvero le PC) descritti dagli autovettori (p), che sono combinazione lineare degli assi del 21 2.1. Generazione del modello sistema originale, ed ordinati secondo varianza decrescente. Gli autovalori (λ) rappresentano la varianza di ogni modo di variazione e sono ordinati in modo decrescente: λ1 > λ2 > · · · > λ3k (2.5) É così possibile ridurre la dimensionalità del sistema occupandosi solo dei primi m ≪ 3k assi di variazione, scegliendo m in modo che la varianza Vm spiegata dai primi m assi sia una percentuale consistente di quella totale Vt : m P Vm Im = = i=1 3k P Vt i=1 λi (2.6) λi Solitamente si sceglie m in modo che Im abbia un valore compreso tra 0.9 e 0.98, oppure alternativamente osservando un calo significativo nella varianza nel grafico delle varianze (metodo elbow) [Joliffe, 2002]. Gli autovettori corrispondenti a grandi autovalori rappresentano gradi di libertà significativi nella famiglia delle forme da cui la statistica è stata ottenuta, mentre i vettori con autovalori piccoli o nulli rappresentano gli invarianti [Cootes et al., 1992]. É quindi possibile approssimare ogni forma valida come combinazione lineare dei primi m modi di variazione: x ≈ x̄ + m X P bi (2.7) i=1 dove P = (p1 |p2 | . . . |pm ) contiene i primi m autovettori della matrice di covarianza e b è un vettore di dimensione m che definisce i parametri di un modello deformabile ed è dato da: b = P T (x − x̄) (2.8) Gli autovettori P definiscono essenzialmente un sistema di riferimento ’ruotato’ intorno al modello medio ed il vettore b definisce i punti in questo sistema ruotato. La varianza dell’i-esimo parametro bi sui dati di addestramento è rappresentato ancora una volta dal relativo autovalore λi . É necessario limitare il 22 2.1. Generazione del modello 1 0.9 0.8 Variance explained 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 10 20 30 40 PCs 50 60 70 Figura 2.4: La percentuale di varianza cumulata Im all’aumentare degli assi di variazione. Si può notare come l’andamento tenda presto a valori prossimi al 100%. Qui sono rappresentati solo i primi 79 valori, quelli considerati, sul totale di 1926. √ parametro bi tra ±3 λi per assicurare che la forma ottenuta rientri nella va- riabilità del sistema statistico su cui si è costruito il modello [Cootes, 2000]. Seguendo questo procedimento, si é proceduto all’allineamento di un totale di 3284 superfici ventricolari, indipendentemente dalla loro collocazione temporale nel ciclo cardiaco. Dalla figura 2.4, si può osservare come la maggior parte della varianza cumulata sia spiegata da un numero ridotto rispetto al numero totale di componenti principali calcolate. Per tale motivo, ed in base alla regola empirica prima espressa, si é deciso di considerare m pari a 79. In Figura 2.5 si può invece osservare in verde il modello medio ottenuto, ed in rosso e blu il range delle sue deformazioni associate ad una variazione di √ ±3 λi dell’autovalore associato alla relativa componente principale (dalla prima alla quinta). É interessante notare come la prima PC sia in grado di spiegare ben il 45% della variabilità, ed essa sia legata essenzialmente alle dimensioni del ventricolo. Inoltre, si osserva come le prime 5 PC spieghino già più del 75% della variabilità intrinseca. 23 2.1. Generazione del modello (a) PC n.1. (b) PC n.2. (c) PC n.3. (d) PC n.4. (e) PC n.5. √ Figura 2.5: Variabilità di ±3 λ1 attorno al modello medio lungo i primi 5 assi di variazione, comprensivi di percentuale di varianza cumulata. 2.2. Algoritmo di Matching 2.2 24 Algoritmo di Matching Figura 2.6: Flowchart dell’algoritmo di matching. La figura 2.6 mostra il flow-chart dei diversi step presenti nell’algoritmo di matching, che verranno nel seguito illustrati. Il modello statistico viene dapprima inizializzato a partire dalla posizione di alcuni punti scelti manualmente dall’utente sulle immagini MR corrispondenti alle proiezioni 2- e 4-camere apicali, e poi applicato ricorsivamente allo stack di immagini MR in asse corto acquisite nel medesimo paziente, su cui avviene la vera e propria segmentazione con guida della modifica del modello. L’aggiornamento del modello tende alla minimizzazione dello scarto tra due set di punti, il primo rappresentato dai nodi della mesh, ed il secondo dai punti in corrispondenza del contorno endocardico, individuati su ogni piano 2D del dato MR originario. Il risultato dell’algoritmo di matching è definito da un determinata conformazione del modello y, caratterizzata da una trasformazione rigida T 25 2.2. Algoritmo di Matching e dai parametri di forma b, come definiti in 2.1.2: y = T (x̄ + P b) (2.9) Da uno stato iniziale, definito dal modello medio x̄, e una posa preliminare T0 dovuta all’inizializzazione manuale, vengono iterativamente calcolati gli aggiustamenti ad ogni nodo della mesh valutando quanto lo stato attuale sia conforme alle immagini MR [Heimann and Meinzer, 2009]. 2.2.1 Preprocessing Figura 2.7: Esempio di correzione apportato dall’applicazione dello shift planare delle immagini in asse corto. A sinistra l’intersezione delle 3 immagini prima della correzione e a destra dopo la correzione [Carminati et al., 2012]. Prima di combinare in uno spazio 3D le informazioni relative alle immagini MR acquisite in asse lungo ed in asse corto, è risultato opportuno correggere i possibili artefatti legati ad una loro non corretta registrazione. Essi sono principalmente dovuti a possibili spostamenti del paziente tra le varie apnee in fase di acquisizione, alla variabilità tra le apnee, a apnee parziali legate all’impossibilità dei pazienti a trattenere il respiro per il tempo necessario all’acquisizione, circa 15 secondi. Questo problema viene ancora più accentuato in pazienti con insufficienze cardiache, per i quali la capacità di trattenere il respiro è compromessa. Per risolvere tale incongruenza spaziale, 26 2.2. Algoritmo di Matching si é proceduto ad applicare uno shift planare di correzione delle immagini in asse corto in modo da massimizzare le cross-correlazioni normalizzate delle intensità dei pixel lungo le intersezioni tra i piani delle immagini in asse lungo e corto [Carminati et al., 2012]. In figura‘2.7 si evidenzia l’intersezione tra due immagini in asse lungo ed una in asse corto; a sinistra si nota un evidente shift dell’immagine SA rispetto alle LA, con le strutture che non combaciano, mentre a destra si mostra la versione corretta dello stesso set di immagini. 2.2.2 Inizializzazione manuale Si è scelto di inizializzare manualmente il modello selezionando alcuni punti di facile individuazione anatomica sulle immagini in asse lungo 2-camere e 4camere. I punti noti prescelti sono i punti di inserzione dei lembi nell’annulus mitralico e l’apice del ventricolo sinistro, rispettivamente chiamati MV1, MV2 ed Apex in figura 2.8. Select in order: Apex and Mitral Valve borders. Select in order: Apex and Mitral Valve borders. Apex MV1 MV2 MV1 MV2 Apex (a) 2C (b) 4C Figura 2.8: Inizializzazione manuale dei lembi della valvola mitrale e dell’apice dell’endocardio del ventricolo sinistro, effettuato nelle proiezioni in asse lungo a 2- e 4-camere. 27 2.2. Algoritmo di Matching I punti vengono poi riportati nel sistema di riferimento del paziente (Reference Coordinate System, RCS) secondo la seguente formula, come suggerito dallo standard DICOM.[NEMA, 2009] Px Py Pz 1 Xx ∆i Yx ∆j 0 Sx = Xy ∆i Xz ∆i 0 Yy ∆j 0 Yz ∆j 0 0 0 i j Sy 0 Sz 1 (2.10) 1 dove le variabili rappresentano quanto segue: • Pxyz . Le coordinate del voxel (i,j) nel piano immagine in mm. • Sxyz . I tre valori degli attributi contenuti nel campo DICOM Image Position (Patient) (0020,0032). Esso rappresenta la posizione in mm dell’origine del piano immagine rispetto all’origine del RCS. • Xxyz e Yxyz . Valori dei coseni direttori dell’immagine, secondo il campo Image Orientation (Patient) (0020,0037). • i e j. Indici, rispettivamente colonne e righe, riferimento del piano immagine. • ∆i e ∆j. Risoluzione dei pixel nelle due direzioni, contenuta nel campo Pixel Spacing (0028,0030) e misurata ancora in mm. Una volta riportati nel sistema di riferimento RCS, i due punti apicali selezionati nelle immagini a 2- e 4-camere vengono mediati, così da ottenere una più corretta rappresentazione nello spazio 3D dell’apice ventricolare(Apex). Dai 4 punti MV inizializzati, viene ricavata la posizione del punto centrale del piano mitralico (MVc). Successivamente, da tali punti (Apex e MVc), è possibile ottenere una stima della dimensione longitudinale dell’asse lungo ventricolare, che viene utilizzata per la scalatura del modello medio. Si ricorda infatti, come spiegato nella sez. 2.1.1, che nella costruzione del modello statistico si è preferito mantenere i dati non scalati, lasciando così la variazione di scala attribuita alla possibile variabilità anatomica. Considerando 28 2.2. Algoritmo di Matching quindi il rapporto tra la distanza tra Apex e MV rispetto alla distanza tra i punti apicale e basale del modello medio(Apexm e MVm ), si trova un fattore di scala S |MV − Apex| (2.11) |MVm − Apexm | che, applicato ai nodi del modello medio, consente di ottenere la nuova S= distribuzione dei punti xs . xs = S x̄ (2.12) Introducendo il nuovo vettore contente le coordinate dei punti scalati nell’equazione 2.8, si può osservare se la scalatura è in accordo con la variabilità del sistema oppure se è necessario limitare l’espansione (o riduzione) ai limiti √ definiti, cioè limitando la b ottenuta tra ±3 λ. Figura 2.9: Risultato dell’inizializzazione. Si visualizza la posizione di partenza del modello medio scalato, in blu, rispetto alle immagini in asse lungo e asse corto. Di queste ultime si mostrano solo la prima e l’ultima considerate nella ricerca. L’identificazione della posizione del piano valvolare e dell’apice consente anche di selezionare automaticamente, tra tutti i piani acquisiti, quelle 2.2. Algoritmo di Matching 29 immagini in asse corto che rappresentano il solo ventricolo sinistro, e che verranno considerate nella fase di segmentazione per la deformazione del modello. Questo al fine di non trascinare il modello su falsi contorni generati da strutture cardiache diverse dalla parete endocardica del ventricolo sinistro, struttura di interesse in questo lavoro. Inoltre, avendo posto in fase di allineamento l’asse lungo del modello parallelamente all’asse z, si sceglie di utilizzare le coordinate x e y della media tra MV ed Apex per dare una prima localizzazione sulle immagini in asse corto del baricentro del modello. 2.2.3 Segmentazione Il posizionamento e la deformazione del modello 3D sono guidati ad ogni iterazione da una serie di nuove posizioni candidate per i nodi del modello, generate a partire dalle immagini in asse corto. La generazione dei nuovi punti avviene separatamente su ogni singola immagine in asse corto considerata, successivamente tutti i punti contribuiscono contemporaneamente al matching con il modello statistico. Il processo di generazione di posizioni candidate per i nodi del modello è composto dai seguenti passaggi fondamentali e viene ripetuto per ogni immagine in asse corto: 1. Intersezioni. Ogni piano immagine taglia la mesh, costituita da facce triangolari. Vengono considerate le facce che hanno 2 nodi generatori su 3 al di sopra del piano immagine mentre il rimanente sotto, o viceversa (vedi figura 2.10). Si identificano così quali sono i segmenti perimetrali delle facce che attraversano l’immagine ed è possibile ricavare le coordinate delle intersezioni dei segmenti col piano tramite una semplice interpolazione lineare. Al fine di aumentare lo spazio di ricerca, si è deciso di aggiungere altri punti in posizione media tra ogni coppia di intersezioni adiacenti sul piano. Questo è possibile in quanto le facce della mesh sono piane e quindi tali punti appartengono effettivamente alla superficie del 2.2. Algoritmo di Matching 30 Figura 2.10: Rappresentazione esemplificativa del calcolo delle intersezioni I12 e I13 , generate dalla compenetrazione del piano immagine (in rosso) e di una faccia triangolare della mesh che costituisce il modello (in blu). I12 è generata dal segmento che congiunge in vertici N1 e N2 , mentre I13 da N1 e N3 . modello. Idealmente, facendo riferimento sempre alla figura 2.10, per la coppia di intersezioni I12 e I13 si genera un punto di intersezione a metà dei due punti. Questo ha permesso il raddoppio del campionamento della mesh, passo necessario soprattutto nelle slice apicali, dove il modello è meno esteso. 2. Spazio di ricerca. Per ogni punto di intersezione tra mesh e piano Iij , si sono estratti i profili di videointensità dei pixel che giacciono sulla retta passante per il punto stesso ed il baricentro di tutte le intersezioni sul piano considerato [Van Assen et al., 2003b]. Ogni profili radiale, su cui si andrà poi a ricercare la nuova posizione candidata del punto, si estende internamente al modello di una lunghezza pari alla media delle distanze tra i punti Iij ed il baricentro degli stessi; esternamente si estende di una lunghezza fissa di 10 pixel, aumentabile automaticamen- 2.2. Algoritmo di Matching 31 Figura 2.11: Campionamento radiale dei punti di intersezione. Nella figura a sinistra, in verde i punti di intersezione iniziale del modello con questa fetta ed in giallo i limiti dei profili di ricerca. A destra, l’immagine costruita a partire dai profili radiali campionati. Per questo motivo, alcuni punti (neri) non appaiono definiti, in particolare verso il bordo esterno della regione considerata, dovuto ad un sottocampionamento radiale di questa regione. La linea rossa rappresenta il verso con cui i profili di campionamento radiali vengono affiancati. te fino a 20 nel caso in cui l’algoritmo non riesca a trovare un candidato (Figura 2.11). Si è preferito utilizzare un campionamento radiale e non relativo alle perpendicolari alla superficie in quanto i cambiamenti di morfologia tendono a destabilizzare il processo di ricerca, favorendo la ricaduta dell’algoritmo in minimi locali. Cambi di curvatura del contorno tracciato sul piano dalle intersezioni portano al cambio repentino dell’angolazione dei profili di campionamento perpendicolari che arrivano anche a compenetrarsi tra loro. Inoltre, il processo di controllo della derivata per la correzione del contorno, che si vedrà più avanti nel punto 4, prevede che le linee adiacenti abbiano un orientamento assimilabile al fine di giustificare la ricerca di continuità del contorno. 3. Clustering. I profili di videointensitá ottenuti dai campionamenti ra- 2.2. Algoritmo di Matching 32 Figura 2.12: Risultato del clustering (pannello inferiore) applicato all’immagine a livelli di grigio ottenuta a partire dal campionamento radiale. Nel pannello superiore si vede l’affiancamento dei profili di campionamento radiale di tutti i punti Iij dell’immagine. In alto i profili combaciano con il baricentro delle intersezioni per poi espandersi nella ricerca fino all’esterno del ventricolo (in basso). La linea verde rappresenta l’altezza a cui si trovano i punti di intersezione Iij per ogni segmento di ricerca. diali vengono poi affiancati al fine di ottenere una immagine 2D, sulla quale viene effettuato un processo di clusterizzazione al fine di distinguere le diverse strutture di interesse presenti nella ROI dell’immagine (Fig. 2.12) [Van Assen et al., 2003a]. A tale scopo si è scelto di utilizzare l’algoritmo K-means, che ripartisce un dataset di N oggetti in un numero fisso di K raggruppamenti secondo la distanza che i dati hanno dai K centroidi rappresentativi di ogni gruppo. I centroidi vengono inizializzati casualmente, i dati vengono poi attribuiti ai centroidi per cui la distanza euclidea è minore, ed infine i centroidi vengono ricalcolati come media dei dati che appartengono al determinato cluster. L’algoritmo viene ripetuto iterativamente per un numero finito di passi, finchè la somma delle distanze dei dati dal proprio centroide scende sotto una certa soglia, oppure finchè la soglia decresce [MacKay, 2003]. Sebbene le strutture di interesse che rientrano nella ricerca siano riducibili a sole 3 tipologie (sangue, miocardio e strutture esterne), la pratica e studi già pubblicati hanno suggerito di utilizzare un cluste- 2.2. Algoritmo di Matching 33 ring a 5 cluster invece che solamente 3, al fine di essere in grado di rappresentare la transizione tra strutture differenti, che spesso non è così netta da consentire una detezione univoca. La ROI è quindi stata suddivisa in 2 cluster che rappresentano il sangue, 2 il miocardio ed 1 per le strutture più esterne a videointensità minore. A valle di tale clusterizzazione, l’immagine viene binarizzata considerando come cavità (pixel bianco) i pixel appartenenti ai cluster del sangue, e come miocardio (pixel nero) i pixel appartenenti agli altri cluster (vedi fig. 2.13) [Van Assen et al., 2008]. Il campionamento lungo i profili radiali è generalmente esteso per un tratto più lungo all’interno del ventricolo che all’esterno, questo per garantire un clustering più raffinato dei livelli di grigio appartenenti al sangue e al miocardio. Comprendendo nell’immagine su cui si va a fare il clustering un numero maggiore di pixel appartenenti alle strutture interne al ventricolo rispetto a quelle esterne, si aumenta la selettività della suddivisione dei pixel di frontiera della parete endocardica che hanno valori di videointensità simili, dato che la separazione tra sangue e miocardio non è sempre netta e facilmente identificabile. Una volta binarizzata l’immagine, si procede con opportune operazioni morfologiche ad eliminare eventuali outliers ed a riempire potenziali buchi di piccole dimensioni, eliminando quindi possibili artefatti in fase di classificazione, e limitando, per quanto possibile, potenziali errori di segmentazione legati alla presenza di muscoli papillari [El Berbari et al., 2007]. In particolare, le porzioni con aree piccole e distaccate dalla sezione principale, cioè zone che possono essere state erroneamente classificate oppure che rappresentano tessuti con caratteristiche simili a quelli di interesse, vengono eliminate poichè non appartenenti ad aree che hanno origine nel baricentro del campionamento e quindi non nel centro della cavità, visionabile nella figura 2.13 come la parte superiore dell’immagine. Si procede poi a riempire i profili di ogni intersezione Iij , cioè le colonne nell’immagine in fig. 2.13, scorren- 2.2. Algoritmo di Matching 34 Figura 2.13: Binarizzazione dello spazio di ricerca (sopra) e risultato della postelaborazione con operatori morfologici (sotto) dell’immagine binarizzata, mantenendo in bianco i cluster relativi al sangue ed in nero quelli relativi agli altri tessuti. La linea verde rappresenta ancora i punti di intersezione per ogni segmento di ricerca. do ogni singola colonna dalla parte superiore, ovvero il baricentro, verso il basso (o esterno della cavità) fino all’ultima transizione bianco-nero trovata. Questo passaggio, oltre a diminuire la possibilità di segmentare i muscoli papillari, fornisce un espediente per la semplificazione della ricerca del contorno. 4. Ricerca del contorno. A partire dalla immagine binaria così ottenuta, si procede alla ricerca del passaggio da 1 a 0 per ogni colonna dell’immagine in basso nella figura 2.13. Al fine di ridurre ulteriormente potenziali artefatti legati alla localizzazione del punto di transizione tra colonne adiacenti in punti non adiacenti, viene calcolata la derivata del contorno ed un controllo sulla soglia opportuno, di modo da eliminare brusche variazioni. Tale controllo è effettuato percorrendo il contorno in entrambe le direzioni, ed operando una sostituzione del potenziale outlier con i valori adiacenti solo in caso di superamento della soglia (fissata in 4 pixel) per entrambe le direzioni. I punti identificati con il processo di segmentazione qui descritto, riassumibile in fig. 2.14, andranno a guidare la modifica del modello statistico 3D, 2.2. Algoritmo di Matching 35 (a) I quattro passaggi che portano alla (b) Risultato della segmentazione. segmentazione visti in parallelo. Figura 2.14: Rappresentazione complessiva del processo di segmentazione. In verde ancora i punti di intersezione mentre in rosso la segmentazione, riportata anche sui passaggi precedenti all’ultimo e all’immagine. sia nel suo posizionamento che nella sua deformazione. I due casi verranno separatamente analizzati. 2.2.4 Registrazione rigida La registrazione rigida del modello in fase di matching è volta ad allineare quanto più possibile la nuvola di intersezioni del modello con tutti i piani immagine in asse corto ai relativi punti generati dalla fase di segmentazione. Il metodo solitamente utilizzato per risolvere questo problema è l’allineamento o analisi di Procruste, che minimizza la somma quadratica delle distanze euclidee tra i punti delle forme. A questo scopo vengono calcolate le migliori trasformazioni di traslazione, rotazione, scalatura e riflessione. Nell’implementazione proposta ci si è limitati, come già detto, alla sola traslazione e rotazione (analisi parziale di Procruste), considerando così le altre possibili fonti di disallineamento come parte della variabilità biologica del dato consi- 2.2. Algoritmo di Matching 36 derato [Gower, 1975]. Questo passaggio viene effettuato a monte della deformazione, al fine di rimuovere quanto più possibile le differenze dovute esclusivamente ad un posizionamento non corretto del modello all’interno dello spazio 3D e non imputabili alla sua geometria [Heimann and Meinzer, 2009]. Le matrici di rototraslazione T , che vanno a meglio allineare i punti, vengono calcolate in modo da minimizzare la somma quadratica delle distanze tra i punti di intersezione e le relative posizioni candidate, generate dalla fase di segmentazione. La trasformazioni vengono poi applicate a tutti i nodi della forma (Fig. 2.15). La registrazione rigida viene ripetuta, ogni volta a seguito di una nuova segmentazione, finchè la somma quadratica degli scarti cessa di diminuire. A questo punto si ritiene che le differenze causate dal posizionamento globale del modello nello spazio immagine siano state appianate e non resta che occuparsi delle deformazioni. Figura 2.15: Esempio di registrazione rigida. Per allinearsi con i risultati delle segmentazioni planari (punti rossi), le intersezioni del modello in posizione iniziale (punti blu su forma azzurra) vengono rototraslate (punti verdi su forma gialla). 37 2.2. Algoritmo di Matching 2.2.5 Aggiornamento modello A partire dalla segmentazione 2D di ogni immagine in asse corto, si hanno a disposizione delle nuove posizioni candidate per i punti di intersezione del modello. Questi spostamenti però devono essere proiettati nello spazio tridimensionale ai nodi generatori del modello. Lo spostamento che lega la posizione candidata sik , generata dalla segmentazione planare, con l’intersezione relativa Iik , sul cui profilo di campionamento radiale è stata identificata, viene rappresentato dal vettore vik , dove i e k sono i nodi della mesh adiacenti il cui segmento congiungente con cui concorrono a limitare una faccia triangolare, come visto in figura 2.10, interseca il piano generando l’intersezione. − v→ ik = sik − Iik (2.13) Si ricorda che in fase di ricerca delle intersezioni (2.2 punto 1), si era provveduto a raddoppiare il campionamento delle stesse. Il contributo delle intersezioni ’fittizie’, non direttamente riconducibili ad un segmento generatore ma comunque appartenenti alla superficie della mesh, è stato riportato alle intersezioni ’reali’ adiacenti. In questo modo ogni intersezione generata da segmento viene quindi trascinata da una media delle segmentazioni fatte su tre intersezioni, una reale e due fittizie. Lo spostamento planare − v→ ik viene ripartito tra i due nodi ni e nk in modo inversamente proporzionale alla loro distanza in modulo dall’intersezione: |ni − Iik | − − v→ v→ ik i,k = |ni − nk | |nk − Iik | − − → −→ − v→ v→ ik = vik − vi,k k,i = |ni − nk | (2.14) dove − v→ i,k rappresenta lo spostamento del nodo i, dovuto all’intersezione generata con il nodo k e viceversa. Essendo un singolo nodo della mesh triangolare potenzialmente interessato da più intersezioni con le facce della mesh ad esso collegate, si è proceduto ad attribuire al nodo la somma dei vettori spostamento, relativi alle diverse intersezioni, diviso per il numero delle effettive 38 2.2. Algoritmo di Matching Figura 2.16: Rappresentazione dei vettori di aggiornamento riportati in rosso sulla mesh. I punti blu sono invece i risultati delle segmentazioni planari. intersezioni. Quindi, in definitiva, il vettore di aggiornamento per il nodo i-esimo, considerando tutte le K intersezioni a cui partecipa, diviene 1 X −→ − → vi = vi,k K k (2.15) → Il vettore − vi rappresenta lo spostamento, parallelo ai piani immagine in asse corto, che si vuole applicare ai nodi del modello per seguire al meglio la segmentazione planare. Rappresenta lo scarto dalle posizioni che avevano i nodi nella conformazione precedente. Quindi, considerando xn−1 il vettore delle posizioni dei nodi all’iterazione n − 1, espresso come visto nella 2.2, si concatenano gli spostamenti di tutti i nodi nel vettore dx, costruito al- la medesima maniera e cioè pari a (v1 |v2 | . . . |vN ). All’iterazione n si avrà dunque dxn = x̂n − xn−1 (2.16) dove x̂n rappresenta la stima della posizione dei punti del modello all’iterazione n [Van Assen et al., 2006]. Prima di applicare la deformazione, al fine 39 2.2. Algoritmo di Matching di mantenere la coerenza dei riferimenti su cui è stato costruito il modello statistico, è necessario trasformare i residui di spostamento dx, cioè gli spostamenti da applicare ai nodi per guidare la deformazione del modello, nel sistema di riferimento modellocentrico a cui tutte le forme nella fase di costruzione erano state registrate (2.1.1). Questo passaggio viene effettuato applicando inversamente tutte le rototraslazioni T applicate fino allo stato attuale dell’algoritmo [Neumann and Lorenz, 1998]. Solo a questo punto è possibile ottenere i nuovi parametri di forma db per l’n-esima iterazione, come visto nella 2.8. dbn = P T Tn−1 dxn (2.17) Figura 2.17: Primo passaggio di deformazione del modello. In azzurro quello di partenza ed in verde la mesh modificata secondo la guida delle segmentazioni, qui visualizzate in blu. L’applicazione ripetuta dell’algoritmo prevede che all’iterazione successiva le trasformazioni rigide T vengano riapplicate al modello deformato, fornendo un punto di partenza più accurato per il raffinamento del matching. 40 2.2. Algoritmo di Matching Limitazione La modifica del modello, come già spiegato in 2.1.2, non viene lasciata libera di espandersi o ridursi senza controllo. Per assicurare che il modello rimanga all’interno del range di deformazioni statisticamente possibili è necessario contenere i parametri db all’interno dei limiti imposti. Perciò, considerando i singoli parametri bi come linearmente indipendenti, nel caso in cui q bi + dbi ≥ ±3 λi (2.18) √ si procede a troncare la somma bi +dbi al limite massimo ±3 λi , dove bi rap- presenta i parametri che definiscono la forma all’iterazione precedente n−1 e la somma bi +dbi la conformazione all’iterazione attuale n [Cootes et al., 1994, Heimann and Meinzer, 2009]. 2.2.6 Criteri di arresto L’algoritmo viene applicato ricorsivamente, partendo ad ogni nuova iterazione dalla posizione e dalla forma del modello statistico calcolate all’iterazione precedente. L’algoritmo viene arrestato e la convergenza dichiarata quando l’aggiornamento non produce più un cambiamento significativo nella posa e nella deformazione del modello [Cootes, 2000]. Si è scelto come parametro di valutazione dell’aggiornamento non lo spostamento complessivo ma lo spostamento di ogni singolo nodo tra un’iterazione e la precedente, arrestando l’algoritmo solo nel caso in cui lo spostamento di tutti i nodi che costituiscono il modello sia inferiore alla risoluzione planare delle immagini guida in asse corto. xk,n − xk,n−1 ≤ ∆x (2.19) dove ∆x rappresenta la risoluzione dell’immagine, come spiegato nel paragrafo 2.2.2. Inoltre, al fine di ovviare alla possibilità che l’algoritmo giunga a convergenza in un numero di iterazioni troppo limitato e per non precluderne l’ulteriore miglioramento anche se già sotto soglia, si è introdotto anche un numero minimo di iterazioni pari a 5 [Van Assen et al., 2008] [Van Ginneken et al., 2002]. 41 2.2. Algoritmo di Matching Come si può vedere infatti nel boxplot (b) della figura 2.18, all’iterazione 3 gli aggiornamenti sono già tutti sotto soglia ma si è preferito forzare ulteriormente l’algoritmo. All’iterazione successiva, sebbene si presentino degli outlier che tornano sopra soglia, la distribuzione degli aggiornamenti si abbassa ulteriormente denotando un fitting globale migliore. Questo può infatti essere visto dall’andamento sempre decrescente della somma degli aggiornamenti (a) della stessa figura. 1400 6 1200 Differences [mm] Sum of differences [mm] 5 1000 800 600 4 3 2 400 1 200 0 0 1 1 1.5 2 2.5 3 Iteration 3.5 4 4.5 5 2 3 Iteration 4 5 (a) Andamento della somma degli spo- (b) Boxplot raffigurante la distribuzione stamenti di tutti i nodi. degli spostamenti dei nodi. Figura 2.18: Evoluzione dell’aggiornamento all’aumentare delle iterazioni. In verde viene visualizzato il limite rappresentato dalla risoluzione ∆x. Si mostra infine in figura 2.19 una rappresentazione del risultato finale dell’applicazione dell’algoritmo. Il modello statistico 3D, guidato esclusivamente dalle immagini in asse corto a meno dell’inizializzazione fatta sulle due viste in asse lungo, descrive l’andamento della parte endocardica anche lungo le intersezioni con gli assi lunghi. In particolare, si sottolinea come, a differenze delle semplici ricostruzioni dei volumi da immagini 2D come per esempio il metodo dei dischi, il modello presentato riesce a ben rappresentare le zone più estreme del ventricolo, cioè quella apicale e quella basale. Questo è di considerevole interesse dato che le due zone si evolvono liberamente in direzione dell’asse lungo durante le iterazioni dell’algoritmo. 2.2. Algoritmo di Matching 42 Figura 2.19: Risultato finale dell’algoritmo, visualizzato nello spazio 3D. Il modello segue la parete endocardica anche nell’intersezione con i piani in asse lungo. Si sottolinea inoltre che il modello riesce a rappresentare anche apice e zona basale. Capitolo 3 Protocollo sperimentale e validazione 3.1 Popolazione analizzata L’algoritmo proposto è stato testato su immagini ottenute tramite risonanza magnetica di 16 pazienti consecutivi sottoposti ad esame presso il Centro Cardiologico Monzino, Milano. I pazienti considerati sono così suddivisi: 2 sani (di cui uno talassemico ma con ventricolo sinistro di dimensioni normali), 4 presentano un infarto del miocardio, 9 cardiomiopatia dilatativa ischemica (4 dei quali candidati a terapia di resincronizzazione cardiaca) e 1 soggetto con ipertensione arteriosa polmonare. Le slice in asse corto considerate hanno uno spessore di 8 mm e il numero di slice necessario a coprire l’intera cavità ventricolare si è attestato in un range compreso tra le 6 e le 13 immagini. Le immagini considerate hanno invece una risoluzione planare pari a 0.7422 oppure 1.5625 mm/pixel. L’analisi è stata effettuata sui frame di fine diastole (ED) e di fine sistole (ES). 43 3.2. Validazione 3.2 44 Validazione Allo scopo di validare i risultati della segmentazione in base all’approccio proposto, si avevano a disposizione le seguenti misure, ottenute tramite segmentazione manuale delle immagini di risonanza in asse corto da parte di un cardiologo esperto: • per 12 dataset, volume a ED e ES calcolato mediante il metodo dei dischi (equivalente alla somma delle aree di ogni sezione ventricolare sul piano 2D moltiplicata per la risoluzione spaziale del singolo voxel nelle 3 dimensioni). • per 8 dataset, coordinate puntuali del contorno tracciato manualmente su ogni slice 2D. Si è proceduto quindi ad effettuare le seguenti validazioni, che verranno più dettagliatamente descritte più avanti: • Validazione dei parametri globali. • Validazione locale del contorno. 3.2.1 Validazione dei parametri globali Per il confronto dei parametri globali si è deciso di soffermarsi su 3 indici di interesse clinico, i quali potessero rappresentare la performance dell’algoritmo sia sulle due fasi cardiache considerate che sull’attività del ciclo cardiaco: • Volume di Fine Diastole (End-Diastolic Volume, EDV). Volume presente all’interno del ventricolo durante la fase di massimo riempimento dello stesso. • Volume di Fine Sistole (End-Systolic Volume, ESV). Volume mi- nimo contenuto all’interno della cavità ventricolare nella sua fase di estremo svuotamento. 45 3.2. Validazione • Frazione di Eiezione (Ejection Fraction, EF). Frazione del volume presente a fine diastole (EDV) nella camera ventricolare che viene espul- so durante la fase sistolica. Rappresenta quindi una normalizzazione del volume di eiezione (SV), mettendolo in relazione con l’effettiva dimensione e la capacità di riempimento del ventricolo. É quindi calcolato come: SV EDV − ESV = (3.1) EDV EDV Esso rappresenta un indice importante per la valutazione dell’output EF = cardiaco, il quale è combinazione del volume di eiezione e della frequenza cardiaca. Questo indice ha rilevanza in ambito clinico in quanto la sua variazione dai valori standard può rappresentare la presenza di condizioni e patologie particolari. Risulta inoltre essere uno stimatore della funzionalità del ventricolo ancor più rilevante del volume di eiezione, in quanto è tendenzialmente scorrelato dalle dimensioni della camera cardiaca. La superficie ventricolare risultante della segmentazione ottenuta dal modello statistico è quindi stata utilizzata per il calcolo del volume ventricolare, secondo due diverse modalità: 1. calcolo del volume Vd come metodo dei dischi. 2. calcolo del volume Vm della mesh come somma dei tetraedri triangolari In particolare, Vd è stato ottenuto a partire dalle aree ventricolari relative alle intersezioni del modello con i piani di immagine in asse corto considerati per il calcolo del volume nel Gold Standard. Dato che i modelli utilizzati nello studio sono a facce triangolari, per ogni faccia è possibile costruire un tetraedro considerando come vertici i tre nodi N che delimitano la faccia e come quarto il baricentro N del modello. Per Vm si è dunque calcolato il volume dell’intera forma come somma dei volumi di tutti i tetraedri che lo compongono con la seguente formula: Vm = X i |(Ni,1 − N) · ((Ni,2 − N) × (Ni,3 − N))| 6 (3.2) 46 3.2. Validazione dove Ni,1 , Ni,2 e Ni,3 rappresentano i 3 nodi che delimitano l’i-esima faccia. L’equazione sopra espressa è semplificabile, dato le coordinate di tutti i nodi sono espresse nel medesimo sistema di riferimento, escludendo il baricentro dalla formulazione e ottenendo: Vm = X i |Ni,1 Ni,2 Ni,3 | 6 (3.3) A partire da tali misure, si è proceduto al calcolo della regressione lineare (e rispettivo coefficiente di determinazione R2 ) e all’analisi di Bland-Altman delle misure di volume, e di relative frazioni di eiezione (EF), tra: • Vgs e Vd • Vgs e Vm • Vd e Vm Per evitare di ottenere risultati inficiati dalla presenza di un trend del dato misurato in funzione della differenza tra i metodi messi a confronto, per i confronti che presentavano un trend si è utilizzata una raffigurazione alternativa a quella clasiica suggerita da Bland-Altman [Altman and Bland, 1983]. Si è quindi preferito mostrare lo scostamento non in termini di differenza ma in termini di errore percentuale, calcolato come rapporto tra le misure. La significatività dei risultati ottenuti è inoltre stata misurata con tramite un t-test per campioni accoppiati. 3.2.2 Validazione locale del contorno Allo scopo di valutare localmente i possibili scostamenti tra contorni del Gold Standard e segmentazione del modello, i contorni endocardici a ED e ES, relativi alle intersezioni del modello statistico con i piani immagine originali, sono stati estratti e comparati con i rispettivi contorni manuali. 47 3.2. Validazione Figura 3.1: Rappresentazione esemplificativa delle distanze direzionali su cui è costruita la distanza di Hausdorff. www. wikipedia. org Distanza di Hausdorff Tale confronto è stato effettuato tramite il calcolo della distanza di Hausfordff, un indice comunemente utilizzato non solo in imaging biomedico ma anche in computer vision per quantificare la differenza spaziale tra due set di punti. Dati due set di punti A = {a1 , . . . , an } e B = {b1 , . . . , bm }, essa è definita come: H(A, B) = max(h(A, B), h(B, A)) (3.4) cioè la massima realizzazione tra le due distanze di Hausdorff direzionali, quella dal set A a B h(A, B) e quella opposta da B ad A h(B, A). Esse sono espresse come: h(A, B) = maxaǫA minbǫB ka − bk = maxaǫA d(a, B) (3.5) cioè la massima distanza euclidea tra i punti dei due set che vengono considerati corrispondenti. La corrispondenza dei punti viene attribuita calcolando 48 3.2. Validazione per ogni punto ai del set A la distanza da tutti i punti bj che appartengono a B e poi considerando il punto B più vicino ad ai . L’attribuzione della corrispondenza, e quindi la distanza h(A, B), è direzionale. Delle due direzioni si calcola la massima in assoluto H(A, B) = H(B, A) secondo la 3.4 [Huttenlocher et al., 1993]. La distanza di Hausdorff rappresenta quindi il massimo scostamento tra i due contorni messi a confronto, esso è un indice rappresentatore non solo della distanza in termini assoluti dei contorni ma tiene anche in considerazione la forma dei set di punti [Beauchemin et al., 1998]. Nell’immagine 3.1 vengono rappresentate le distanze d(a, B) e d(b, A) per due contorni qualunque. Distribuzione distanze Oltre ad esprimere la differenza tra i due contorni con un singolo valore rappresentante lo scostamento massimo, si presenta anche la distribuzione delle distanze su tutto il set di punti. Facendo riferimento alla formulazione vista in 3.5 e alla sua spiegazione, si sono calcolati per ogni immagine le distanze di tutti i punti del contorno A, generato dall’algoritmo, dal contorno B, considerato Gold Standard. Quindi, per ogni punto aǫA, la distanza dal contorno B è: d(a, B) = minbǫB ka − bk (3.6) Questo indice supplementare ha lo scopo di valutare la corrispondenza tra le due segmentazioni confrontate non solo tramite lo scostamento massimo, ma anche rappresentando la performance globale del tracciamento. Capitolo 4 Risultati Dei 16 pazienti considerati, è stato possibile applicare l’algoritmo a 12 pazienti (75%) per motivi dipendenti dai limiti della statistica su cui è stato costruito il modello, da clusterizzazione in alcuni casi insufficiente a distinguere miocardio e sangue e da non corretto allineamento dell slice. Questi casi critici verranno affrontati in maniera più dettagliata nella sezione 4.3. L’algoritmo qui proposto, è stato dunque applicato a 12 pazienti in due fasi cardiache (ED e ES) con un numero di slice in asse corto segmentate per ogni dataset in media pari a 10 (µ = 9.67, σ = 1.66). L’algoritmo qui presentato è stato elaborato nella sua interezza sfruttando le potenzialità del software Matlab, distribuito da MathWorks (Natick, Massachussets, USA). L’applicazione dell’algoritmo, a seguito di una breve inizializzazione utente-dipendente ma comunque quantificabile al di sotto dei 10 secondi, ha richiesto un tempo di elaborazione medio per frame pari a 37 secondi (µ = 37.375, σ = 19.56 s), su un notebook ASUS A55V (Intel Core i7 @ 2.3 GHz, RAM 6 GB). 4.1 Validazione volumi globali I volumi di riferimento Vgs sono stati costruiti col metodo dei dischi su segmentazioni, eseguite da utente esperto, di stack di immagini in asse corto che, sia per la fase ES che ED, si presentavano in un numero compreso tra 8 49 50 4.1. Validazione volumi globali e 12 per frame. I range di volumi e frazioni di eiezione che costituiscono il Gold Standard sono elencati per semplicità in tabella 4.1. Range µ σ EDV 119.6-283.45 ml 172.56 ml 57.75 ml ESV 31.9-238.76 ml 101.53 ml 68.95 ml EF 15.76-72.90 % 46.44 % 19.73 % Tabella 4.1: Tabella raffigurante range, medie (µ) e deviazioni standard (σ) dei volumi di fine sistole (ESV) e di fine diastole (EDV) e delle frazioni di eiezioni (EF) del Gold Standard. 4.1.1 Confronto tra Vgs e Vd In prima analisi sono stati confrontati i volumi calcolati con il metodo di Simpson, non solo per quanto riguarda il Gold Standard (Vgs ) ma anche per i risultati dell’algoritmo (Vd ). Si è quindi proceduto a comparare complessivamente i volumi di fine diastole e fine sistole, mentre gli esiti sulla frazione di eiezione sono stati analizzati in un secondo momento. EDV-ESV I volumi ottenuti nei due differenti modi sono stati messi a confronto e la bontà di tale comparazione è stata evidenziata dal calcolo di una retta di regressione lineare sui dati. La formula della regressione risultante è y = 0.99x + 1.40, denotando un andamento simile alla bisettrice del piano, come si può vedere nella figura 4.1. L’approssimazione data dalla regressione viene espressa con il coefficiente di determinazione che nel caso attuale è R2 = 0.98. Inoltre, per indagare la presenza di un errore sistematico e identificare l’esistenza di possibili outliers si è eseguita l’analisi di Bland-Altman. Il confronto tra rapporto dei risultati dal Gold Standard, rispetto alla loro media è visualizzata in figura 4.2. Si nota l’assenza di un significativo errore sistematico, confermato dal risultato del t-test, ovvero P = 0.92. Per il calcolo 4.1. Validazione volumi globali 51 Figura 4.1: Confronto tra i volumi in ml calcolati con il metodo di Simpson sia per l’algoritmo che per il Gold Standard. dell’intervallo di confidenza si è considerato un intervallo intorno al bias di ±1.96 deviazioni standard, rappresentando l’intervallo entro cui cade il 95% della popolazione. La deviazione standard ottenuta è di 0.13, equivalente ad un intervallo di confidenza pari a ±25% del volume analizzato. EF Le frazioni di eiezione sono state calcolate, come espresso dalla formula 3.1, sui volumi ottenuti con la metodologia di Simpson. Quindi si è proceduto a comparare i risultati in maniera analoga a quanto fatto precedentemente. La regressione lineare costruita sui risultati ha espressione y = 1.01x − 1.14 (R2 = 0.90) ed è visualizzabile in figura 4.3. Per quanto riguarda l’analisi di Bland-Altman, in figura 4.4, ancora una volta non si riscontra un errore sistematico evidente, con una lieve e non significativa (P = 0.54) sottostima del 3% del metodo proposto rispetto al Gold Standard, ed una deviazione standard pari a al 15% risultante in un intervallo di confidenza pari a ±30% della EF considerata. 4.1. Validazione volumi globali 52 Figura 4.2: Grafico di Bland-Altman per il confronto dei volumi in ml, ottenuti con la regola di Simpson per l’algoritmo, rispetto al Gold Standard. In blu i volumi di fine diastole (EDV), in rosso quelli di fine sistole (ESV). In verde la linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione. Figura 4.3: Confronto tra le frazioni di eiezione in % calcolati con il metodo di Simpson sia per l’algoritmo che per il Gold Standard. 4.1. Validazione volumi globali 53 Figura 4.4: Grafico di Bland-Altman per il confronto delle frazioni di eiezione in %, ottenuti con la regola di Simpson per l’algoritmo, rispetto al Gold Standard. In verde la linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione. 4.1.2 Confronto tra Vgs e Vm Vengono comparati in figura 4.5, come fatto per i volumi ottenuti col metodo di Simpson, i dati risultanti dal calcolo dei volumi del modello nella sua totalità (Vm ) con i valori derivanti dal Gold Standard (Vgs ). Si analizzano quindi complessivamente i volumi di fine sistole e fine diastole, evidenziando in figura 4.5 una retta di regressione lineare di equazione y = 0.98x + 4.66 (R2 = 0.97). La distribuzione del rapporto tra i volumi ottenuti ed il Gold Standard ha una media µ = 0.99 e una deviazione standard σ = 0.11, denotando una differenza non significativa (P = 0.49). Sui volumi è stato elaborato il confronto anche dell’indice di funzionalità cardiaco utilizzato precedentemente, la frazione di eiezione. La distribuzione delle EF calcolate, in figura 4.6, è rappresentata da y = 0.92x + 2.84 (R2 = 0.91) con un rapporto medio µ = 1.01 e una deviazione standard pari a σ = 0.13 (P = 0.73). 54 4.1. Validazione volumi globali (a) Confronto tra i volumi in ml. (b) Grafico di Bland-Altman per il confronto dei volumi. Figura 4.5: Confronto dei volumi in ml ottenuti sulla totalità del modello rispetto al Gold Standard. Nel grafico di Bland-Altman si visualizzano in blu i volumi di fine diastole (EDV), in rosso quelli di fine sistole (ESV). Sono inoltre mostrati in verde la linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione. (a) Confronto tra le EF in %. (b) Grafico di Bland-Altman per il confronto delle EF. Figura 4.6: Confronto delle frazioni di eiezione ottenute dal calcolo dei volumi sulla totalità del modello rispetto al Gold Standard. 4.1. Validazione volumi globali 4.1.3 55 Confronto tra Vd e Vm L’ultimo confronto sui volumi presentato, visualizzabile in figura 4.7, è stato effettuato sui risultati ottenuti dall’algoritmo ma calcolando il volume nelle due differenti maniere già utilizzate, il metodo dei dischi (Vd ) e quello dei tetraedri (Vm ). Entrambi i risultati sono frutto dell’applicazione dell’algoritmo in esame ma, mentre i volumi calcolati con la regola di Simpson sono rappresentativi della sola segmentazione planare, i volumi derivanti dalla somma dei volumi dei tetraedri esprimono lo spazio occupato dalla totalità del modello. La comparazione dei volumi è riassumibile dalla regressione di equazione y = 0.99x + 3.12 (R2 = 0.99) e i rapporti si distribuiscono intorno alla media µ = 0.99 con una deviazione σ = 0.05 (P = 0.40). Per quanto riguarda le frazioni di eiezione, calcolate sui volumi appena analizzati, la retta di regressione y = 1.02x − 2.64 (R2 = 0.99) ne rappresenta l’andamento complessivo. La popolazione dei risultati dei rapporti invece si presenta con una media µ = 1.05 (σ = 0.09) e, seppur riportando una differenza non significativa (P = 0.09), evidenzia così una tendenza alla sovrastima del 5% del volume calcolato dalla intera mesh rispetto al classico metodo dei dischi. 56 4.1. Validazione volumi globali (a) Confronto tra i volumi in ml. (b) Grafico di Bland-Altman per il confronto dei volumi. (c) Confronto tra le EF in %. (d) Grafico di Bland-Altman per il confronto delle EF. Figura 4.7: Confronto dei risultati ottenuti sulla totalità del modello rispetto a quelli derivanti dal metodo dei dischi sulle segmentazioni dell’algoritmo. Nei grafici di BlandAltman si visualizzano in verde la linea continua di bias e tratteggiati i limiti entro cui cade il 95% della popolazione. Di questi ultimi, per quello di confronto dei volumi, sono inoltre mostrati in blu i volumi di fine diastole (EDV), in rosso quelli di fine sistole (ESV). 57 4.2. Validazione contorni locali Si presenta in tabella 4.2 il riassunto comparativo dei valori presentati in tutte le analisi sui volumi precedentemente effettuate. In particolare, si evidenziano il coefficiente di determinazione della retta di regressione R2 , il bias e i limiti entro cui cade il 95% della popolazione, cioè ±1.96 volte la deviazione standard. Si visualizza inoltre il P-value rappresentante la significatività, ottenuto tramite il t-test per campioni accoppiati. V V d/V gs R2 bias 0.98 0% V m/V gs 0.97 −1% V m/V d 0.99 −1% ±1.96σ ±25% ±22% ±10% EF P R2 bias 0.92 0.90 −3% 0.49 0.91 1% 0.40 0.99 5% ±1.96σ ±29% ±25% ±18% P 0.54 0.73 0.09 Tabella 4.2: Tabella riassuntiva dei valori risultanti dall’analisi comparativa dei volumi e delle frazioni di eiezione. Si presenta, per ogni confronto fatto, coefficiente di determinazione R2 della retta di regressione, oltre che a bias, valore relativo a ±1.96σ e significatività per l’analisi dell’errore percentuale. 4.2 Validazione contorni locali Al fine di analizzare in maniera più raffinata le segmentazioni planari delle singole immagini in asse corto, si è scelto di calcolare anche degli indici che potessero esprimere la correttezza dei contorni tracciati dall’algoritmo qui proposto rispetto ai tracciamenti manuali. Su un sottogruppo di 8 pazienti, di cui si sono analizzati i risultati in fine sistole e fine diastole per un totale di 16 immagini, si è quindi eseguito un confronto tra i contorni tracciati da un esperto e quelli risultanti dall’algoritmo in esame. In figura 4.8 si mostra per un paziente il confronto dei contorni tracciati dall’algoritmo (in verde) rispetto a quelli tracciati da un utente esperto (in rosso). Si può vedere come gli scostamenti siano prevalentemente concentrati nelle zone dove sono presenti papillari e trabecolazioni di dimensioni notevoli. 4.2. Validazione contorni locali 58 Distanza di Hausdorff La distanza di Hausdorff si è attestata su valori che in media sono µ = 4.03 pixel, con una deviazione standard σ = 2.19 pixel. Facendo riferimento alla risoluzione delle immagini utilizzate, cioè 1.5625 mm/pixel, tali valori si traducono in uno scostamento medio tra le due forme di µ = 6.30 mm, con una deviazione standard σ = 3.42 mm. Distribuzione distanze I risultati ottenuti calcolando la distribuzione delle distanze sui contorni ottenuti per la totalità delle slice e dei frame presentano una media di µ = 1.61 pixel, pari a 2.52 mm, e una deviazione standard σ = 1.66, pari a 2.59 mm. 4.2. Validazione contorni locali 59 Figura 4.8: Esempio di confronto tra le segmentazioni, eseguite per i piani in asse corto del medesimo paziente, effettuate da un utente esperto (rosso) rispetto a quelle generate dall’algoritmo (verde). 4.3. Casi non andati a convergenza 4.3 60 Casi non andati a convergenza Si presentano in questa sezione i casi in cui l’algoritmo ha fallito la segmentazione non giungendo a convergenza, oppure dove ha dato risultati non soddisfacenti. Si esprimono le motivazioni di tali eventi e se ne mostrano i risultati. Statistica insufficiente La scelta di evitare la scalatura delle mesh, nella registrazione dei set su cui si è costruito il modello statistico, considerandola parte della variabilità anatomica porta con sè anche degli svantaggi. Tale passaggio, contestualmente alla necessità di limitare la possibilità di modifica del modello entro i limiti √ definiti nella sezione 2.1.2, ovvero ±3 λi per ogni i-esima PC, se da una parte permette di definire assi di variazione del modello statistico capaci di offrire una relazione tra dimensioni assolute e morfologia della struttura, di contro limita la possibilità del modello di espandersi o ridursi oltre le dimensioni contemplate dalla popolazione sui cui il modello è stato costruito. Si ricorda che al fine di ridurre la dimensionalità del dataset di costruzione del modello statistico si è limitata la variabilità del modello entro il 99.73%. In questo modo al modello è preclusa la possibilità di raggiungere dimensioni superiori a quelle descritte dal dataset di costruzione. Nel caso mostrato in figura 4.9, il modello non riesce a raggiungere le dimensioni imposte dai punti definiti in fase di inizializzazione, subendo già alla fase preliminare un troncamento della prima PC, quella che rappresenta maggiormente le dimensioni del modello. Il volume della cavità endocardica qui mostrata, calcolata secondo il Gold Standard, è di ben 323.9 ml. L’algoritmo fallisce, sempre a causa delle morfologie descritte dalla popolazione su cui è stata costruita la statistica, quando la geometria della struttura non è contemplata nella statistica stessa. Si è tentato di utilizzare l’algoritmo sulle immagini di un paziente affetto da ipertensione arteriosa polmonare. In questa patologia, a causa della pressione elevata nelle arterie 4.3. Casi non andati a convergenza 61 Figura 4.9: Mancata convergenza dell’algoritmo in seguito a dimensioni troppo elevate della struttura di ricerca. In rosso si notano i punti di inizializzazione, apice e centro del piano mitralico, e come il modello non riesca a raggiungerli sin dalla prima iterazione. polmonari che supera i 25 mmHg, il ventricolo destro diviene ipertrofico per compensare tali pressioni [Marrone et al., 2010]. Come si può vedere nell’immagine a sinistra della figura 4.10, l’ipertrofia del cuore destro si ripercuote sul cuore sinistro cambiandone la geometria che abbandona la tipica sezione circolare in asse corto adottandone una quasi semilunare, ne riduce le dimensioni e provoca uno spostamento dei muscoli papillari. La geometria assunta dal ventricolo sinistro non è contemplata dalla statistica sui cui si è costruito il modello e dunque esso fallisce nell’eseguirne la segmentazione. In figura 4.11 è mostrato il risultato della segmentazione errata di una slice nel caso appena descritto. Figura 4.10: Confronto tra una vista in asse corto di un cuore appartenente ad un paziente soggetto a ipertensione polmonare (a sinistra) e di uno sano (a destra). 4.3. Casi non andati a convergenza 62 Figura 4.11: Risultato dell’errata segmentazione per una slice di un soggetto affetto da ipertensione arteriosa polmonare. Disallineamento slice Un’altra fonte di errore si presenta nel caso in cui, per i motivi elencati nella sezione 2.2.1, le immagini non siano correttamente allineate. Se questo si verifica, nonostante le correzioni apportate secondo quanto detto nella fase di preprocessing, la continuità tridimensionale che lega i contorni, tracciati dalle intersezioni del modello con le immagini in asse corto, agisce in maniera sfavorevole. Infatti il modello, guidato dalle segmentazioni sulle immagini disallineate, per mantenere la sua continuità, non riuscirà a seguire contemporaneamente le posizioni candidate provenienti dai differenti piani. Questo problema si presenta in definitiva come un’errata localizzazione dei contorni sulle immagini disallineate e su quelle a loro adiacenti. In figura 4.12, per mostrare tale perdita di continuità tridimensionale, vengono mostrati affiancati i contorni generati dall’algoritmo (in verde) e quelli tracciati dal medico (in rosso) per tutte le slice di un dataset. Si nota come i contorni tracciati dal medico presentino discontinuità lungo l’asse lungo del ventricolo, dato che, eseguendo separatamente la segmentazione sulle singole slice, esso non è costretto a mantenerla. Il modello invece non è in grado di segmentare correttamente slice disallineate a causa dei limiti imposti dalla continuità 3D. In 63 4.3. Casi non andati a convergenza figura 4.13 vengono mostrate due slice adiacenti, il cui disallineamento porta ad un evidente shift dei contorni. Figura 4.12: Discontinuità 3D delle segmentazioni eseguite manualmente (in rosso) rispetto a quelle presentate dall’algoritmo (in verde). Eseguendo separatamente la segmentazione sulle singole slice disallineate, egli non è costretto a tenere in conto le relazioni tra le diverse slice. Il modello invece non è in grado di segmentare correttamente slice disallineate a causa della continuità 3D. (a) Slice superiore (b) Slice inferiore Figura 4.13: Esempio di segmentazione errata in due slice adiacenti, a causa di un non corretto allineamento. 64 4.3. Casi non andati a convergenza Clustering inefficace In alcune immagini, come quella mostrata in figura 4.14, non c’è una sufficiente differenza tra i valori di videointensità associati al sangue ed al miocardio. Il clustering, motore alla base della generazione delle posizioni candidate dei punti di intersezione all’iterazione successiva, non è in grado in questi casi di identificare la parete endocardica in modo corretto, utilizzando i parametri con cui è stato settato per l’algoritmo in esame. Le frecce gialle evidenziano come nella parte inferiore della sezione del ventricolo, nell’immagine a sinistra di figura 4.14, la segmentazione trovi una differenza di videointensità accettabile solo in corrispondenza della parete epicardica. Tale parte dell’immagine fa riferimento alla parte più a sinistra dei campionamenti radiali, visualizzati nella parte b della stessa figura ed evidenziati ancora da freccie di colore giallo. (a) (b) Figura 4.14: Esempio di immagine in cui il clustering non porta ad una corretta segmentazione della parete endocardica. A sinistra, immagine in asse corto con in verde le intersezioni e in rosso la segmentazione generata. A destra i passaggi del processo di segmentazione della stessa immagine. Le frecce gialle evidenziano le zone corrispondenti dell’immagine che mostrano una segmentazione errata. Capitolo 5 Discussione e Conclusioni Si è proceduto a presentare l’implementazione e la validazione di un algoritmo semiautomatico per la segmentazione 3D dell’endocardio del ventricolo sinistro in immagini MR, sfruttando le potenzialità messe a disposizione dalla tecnica dell’Active Shape Modeling. Il metodo presentato utilizza per costruire il modello dei dati provenienti da esami ecocardiografici 3D transtoracici. Questo, oltre a fornire un modello basato su dati intrinsecamente tridimensionali, favorisce la possibilità di espandere facilmente la popolazione su cui si costruisce il modello statistico alla base della segmentazione. Infatti, la più alta diffusione di apparecchiature a ultrasuoni, rispetto a CT, e la loro totale non invasività rende i dati US dei candidati perfetti per essere alla base del processo di acquisizione della popolazione statistica. Si sottolinea inoltre l’intermodalità dell’algoritmo proposto, il quale procede a segmentare immagini MR a partire da un modello generato sulla base di acquisizioni ecocardiografiche 3D, il che rappresenta un’assoluta novità anche in relazione a quanto presente in letteratura. Il processo di matching, così come è proposto, non presenta inoltre particolari limiti all’applicabilità su immagini di altro tipo, per esempio CT, sempre partendo dallo stesso modello considerato in questo studio. L’utilizzo di informazioni intrinsecamente 3D per la costruzione del modello è di notevole importanza per la generazione di forme consistenti con l’intera struttura del ventricolo, 65 66 e non una sua approssimazione basata su atlanti e segmentazioni manuali di immagini MR [Kaus et al., 2004, Mitchell et al., 2002, Lötjönen et al., 2004, Zhang et al., 2010] L’approccio statistico permette inoltre di seguire la morfologia di porzioni del ventricolo generalmente poco analizzabili con il solo utilizzo di immagini in asse corto. L’apice e la base del modello si evolvono liberamente durante le iterazioni dell’algoritmo, guidate solamente dalle slice in asse corto delle zone più centrali del ventricolo. La segmentazione e la descrizione geometrica di queste due parti estreme del ventricolo aiuta a meglio rappresentare la camera cardiaca e a valutarne la funzionalità. In letteratura, i modelli utilizzati sono spesso troncati per escludere queste due aree e, se l’apice viene indagato più spesso, la struttura del piano mitralico è trascurata nella maggior parte delle applicazioni. L’algoritmo proposto è inoltre, a meno della rapida inizializzazione che prevede la localizzazione di soli 6 punti facilmente riconoscibili, completamente automatico, completando la segmentazione in tempi decisamente brevi se comparati alle tempistiche impiegate da un utente per compiere le stesse segmentazioni sulle slice. Tuttavia, anche se il confronto coi volumi costruiti da segmentazioni manuali si è rivelato buono, la complessità e la variabilità dei tessuti non permette che la precisione del medico esperto sia eguagliata. Dunque, un algoritmo del genere può essere pensato come supporto all’utente esperto, il quale lo può utilizzare per ottenere una rapida segmentazione dell’endocardio, per poi correggerne manualmente i punti dei contorni che ritiene migliorabili, ove necessario. Oltre ad una segmentazione delle immagini 2D, l’algoritmo fornisce una descrizione 3D della cavità ventricolare. Essa può essere quindi utilizzata in seguito come base per la costruzione di modelli agli elementi finiti (FEM) del ventricolo specifici per il singolo paziente, utili per la simulazione chirurgica ed il planning preoperatorio [Conti et al., 2011]. In letteratura non si sono riscontrati metodi di segmentazione 3D dell’endocardio del ventricolo sinistro che non si basino su modelli comprensivi 67 di altre strutture, come l’epicardio o addirittura di tutte le 4 camere cardiache [Lötjönen et al., 2004], e non della sola parete endocardica. Questi modelli sono quindi guidati nella deformazione da un numero decisamente maggiore di informazioni. Inoltre, gli algoritmi confrontati, sebbene accomunati da distretto di interesse, tipo di immagini segmentate (MR) e utilizzo di modelli deformabili 3D, sfruttano diverse tecniche tra cui: ASM [Van Assen et al., 2003b], AAM [Mitchell et al., 2002, Lötjönen et al., 2004], applicazione congiunta di ASM e AAM [Zhang et al., 2010], e modelli deformabili basati su funzioni di energia interna ed esterna [Kaus et al., 2004]. I valori con cui si procede a confrontare il risultato sono quindi una linea guida per la valutazione della precisione e della robustezza dell’algoritmo proposto, pur ricordando che esistono differenze tra i metodi applicati. I metodi confrontati differiscono da quello in esame anche per la natura delle immagini su cui si è costruito il modello statistico, infatti nei casi in esame sono sempre state utilizzate segmentazioni di immagini MR, applicando poi il modello sullo stesso tipo di immagini, a parte in un caso dove l’applicazione è stata effettuata anche su immagini acquisite con CT [Van Assen et al., 2003b]. L’utilizzo di immagini MR nella costruzione del modello statistico, ricostruendo le superfici a partire da segmentazioni manuali dei vari piani immagine, non permette di avere una descrizione precisa della realtà anatomica della parete endocardica in tutta la sua estensione, come invece avviene nell’utilizzo dell’ecocardiografia 3D, ma una sua approssimazione nelle porzioni di spazio non coperte dai piani immagine. Inoltre, la maggior diffusione degli esami ecocardiografici permette di avere a disposizione un numero molto maggiore, e ulteriormente aumentabile, di frame utilizzati in fase di generazione del modello statistico. Infatti dalla letteratura, i modelli statistici sono stati costruiti considerando un numero decisamente inferiore di frame di risonanza magnetica, da 25 [Lötjönen et al., 2004] a 320 [Zhang et al., 2010], mentre per l’algoritmo qui proposto ne vengono utilizzati ben 3284. Inoltre, dal confronto con approcci simili presenti in letteratura, è possibile 5.1. Discussione dei risultati 68 osservare come, nella maggior parte dei casi, si sia rivelata sempre necessaria una fase iniziale che prevede l’intervento di un utente per ottenere una localizzazione preventiva del modello nello spazio delle immagini, la definizione dello scaling iniziale e dell’intervallo di slice entro cui ricercare i contorni. Per la localizzazione del modello sono state in precedenza utilizzate diverse modalità, tra cui: supposizione che il ventricolo si trovi al centro dell’immagine e conseguente posizionamento del baricentro del modello in quel punto [Kaus et al., 2004], segmentazione manuale dei contorni di alcune slice [Zhang et al., 2010], localizzazione manuale del baricentro del modello all’interno del ventricolo sinistro in una slice scelta come centrale rispetto all’asse lungo [Van Assen et al., 2003b]. Queste metodologie prevedevano inoltre sempre la definizione manuale ed arbitraria dell’intervallo di slice in asse corto entro cui ricercare il matching del modello con l’immagine. Al contrario, nel metodo proposto in questa tesi, il modello viene localizzato e scalato sullo stack delle immagini in asse corto a partire dall’inizializzazione di soli 6 punti su due proiezioni in asse lungo, senza ipotesi a priori, e automaticamente determinando sulla base di tale selezione l’intervallo di slice da considerare nella segmentazione. Un’inizializzazione completamente automatica si è riscontrata solamente in un caso, dove il modello AAM, contenente informazioni anche sulla statistica della videointensità, viene traslato sull’immagine fino a massimizzare la mutua informazione normalizzata [Lötjönen et al., 2004]. Sebbene l’algoritmo qui proposto non possa vantare una tale automazione, si ricorda che l’utilizzo di un modello AAM precluderebbe l’applicazione intermodale del modello costruito. 5.1 Discussione dei risultati L’analisi dei parametri di valutazione globale ha dimostrato una buona correlazione tra i volumi calcolati per il modello e il Gold Standard, con regressioni lineari generalmente assimilabili alla bisettrice del piano e coefficienti di determinazione prossimi all’unità. Questo è maggiormente evidente per 5.1. Discussione dei risultati 69 la comparazione dei volumi, piuttosto che per le frazioni di eiezione, le quali si discostano comunque di poco dall’uguaglianza. Per quanto riguarda il confronto dei volumi, il coefficiente angolare della retta di regressione presenta valori migliori (0.99) rispetto a quanto reperibile in letteratura da metodi considerati analoghi che presentano valori compresi nel range 0.85 − 0.97 [Van Assen et al., 2003b, Van Assen et al., 2008, Mitchell et al., 2002, Zhang et al., 2010]. Negli stessi lavori si riscontra un lieve errore sistematico, in entrambe le direzioni, mentre l’algoritmo qui proposto non presenta bias su questo tipo di misura. Nel confronto della misura del volume calcolato col metodo dei tetraedri con il Gold Standard si riscontra comunque una buona similarità tra i risultati, sia nel calcolo di volumi assoluti che frazioni di eiezione, anche se leggermente minore nel caso delle EF. In entrambi non è presente un errore sistematico significativo e gli intervalli di confidenza trovati, sia per i volumi che per la EF, risultano leggermente meno ampi, con conseguente minore errore di misura, di quelli relativi al calcolo con il metodo dei dischi. . Nella comparazione tra i due metodi di calcolo del volume sui risultati generati dall’applicazione del modello si è riscontrata un’ottima correlazione, sia per volumi che EF. Mentre non si nota un bias significativo per il confronto dei volumi, le frazioni di eiezione calcolate col metodo dei tetraedri risultano tendenzialmente maggiori del 5% rispetto alle EF calcolate con il metodo dei dischi a partire dalle segmentazioni 2D generate dal modello. Ciò potrebbe essere spiegato dal fatto che, considerando il volume ventricolare come volume della mesh, vengono tenuti in conto le porzioni estremanti del ventricolo, ovvero base ed apice, probabilmente in misura migliore di quanto consentito dal metodo dei dischi. Tale migliore caratterizzazione della forma ventricolare, nel caso specifico si riflette in un minor volume telesistolico (vedi punti rossi nel grafico 4.7, tendenzialmente sotto la linea di valore unitario), generando così un maggiore stroke volume ed un lieve incremento della EF. corrisponde ad un maggior volume calcolato. Per quanto riguarda l’analisi dei parametri locali, cioè della valutazione 5.2. Sviluppi futuri 70 della correttezza delle segmentazioni planari, i risultati sono ancora paragonabili a quanto presente in letteratura, riguardo a validazioni di simili approcci. In particolare, la distanza di Hausdorff rilevata (µ = 6.3 mm, σ = 3.42 mm) ricade nel range 4.3 − 16.55 mm osservato in letteratura [Van Assen et al., 2008, Kaus et al., 2004]. La distribuzione totale degli sco- stamenti dai contorni tracciati da un esperto si attesta in media su valori comparabili con la letteratura: 2.52 mm contro un range di 1.71 − 2.84 mm. La deviazione standard della stessa misura risulta invece maggiore, con un valore di 2.59 mm contro un range di 0.31−1.05 mm [Van Assen et al., 2008, Lötjönen et al., 2004, Kaus et al., 2004, Mitchell et al., 2002]. Nei casi di confronto la distribuzione degli scostamenti dai tracciamenti manuali è stata calcolata come distanza tra i punti appartenenti al contorno ed il punto della superficie più vicino ad essi. Media e deviazione standard sono state calcolate sulla totalità dei pazienti esaminati. Sebbene risultati di confronto ritrovati in letteratura siano stati ottenuti su un numero maggiore di pazienti (50 − 121), in alcuni casi essi facevano parte di un sottogruppo dei frame su cui è stato costruito lo stesso modello statistico [Kaus et al., 2004, Mitchell et al., 2002]. 5.2 Sviluppi futuri Come reso noto nella sezione 4.3, l’approccio statistico presenta il limite di essere estremamente dipendente dalla popolazione sui cui il modello è stato costruito. Risulta quindi necessario il bisogno di aumentare il campione di dati su cui basare la statistica in modo da incrementare il potere descrittivo del modello. La facile reperibilità dei dati utilizzati, ovvero esami ecocardiografici, lo rende un limite in questo caso facilmente superabile e auspicabile nel prossimo futuro. Un approccio alternativo a quello di aumentare il pool di dati sarebbe quello di diversificare i modelli, cioè costruire differenti modelli statistici basati su popolazioni costituite da pazienti affetti dalla medesima patologia, aumentando così la selettività del modello. 5.2. Sviluppi futuri 71 La diretta conseguenza del lavoro qui presentato è l’applicazione della segmentazione, congiunta a quanto già fatto, anche all’epicardio, di modo da poter calcolare anche indici di massa del ventricolo sinistro e, come precedentemente detto, gettare le basi per la costituzione di un modello FEM per il calcolo delle deformazioni del miocardio. In ultima istanza si evidenzia come, sebbene venga utilizzato in maniera ormai assodata nel campo, l’utilizzo della PCA richieda l’ipotesi di gaussianità della popolazione. Se questo è generalmente verificato per grandi popolazioni, non è altrettanto garantito per dataset più piccoli. L’utilizzo alternativo dell’Analisi delle Componenti Indipendenti (ICA), svincolato da queste limitazioni, potrebbe garantire una segmentazione capace di seguire in maniera più raffinata variazioni locali di curvatura. L’utilizzo dell’ICA presenta però una difficoltà nell’ordinamento delle componenti ottenute e quindi una difficoltà nel ridurre la dimensionalità del dataset [Üzümcü et al., 2003, Lötjönen et al., 2004]. Bibliografia [Altman and Bland, 1983] Altman, D. G. and Bland, J. M. (1983). Measurement in Medicine: the Analysis of Method Comparison Studies. The Statistician, pages 307–317. 46 [Beauchemin et al., 1998] Beauchemin, M., Thomson, K., and Edwards, G. (1998). On the Hausdorff Distance Used for the Evaluation of Seg- mentation Results. Canadian Journal of Remote Sensing, 24(1):3–8. 48 [Boudraa, 1997] Boudraa, A.-E.-O. (1997). Automated Detection of the Left Ventricular Region in Magnetic Resonance Images by Fuzzy C-means Model. The International Journal of Cardiac Imaging, 13(4):347–355. 10 [Boykov and Jolly, 2001] Boykov, Y. Y. and Jolly, M. (2001). Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N-D Images. In Computer Vision, 2001. ICCV 2001. Proceedings. Eighth IEEE International Conference on, volume 1, pages 105–112. IEEE. 11 [Carminati et al., 2012] Carminati, M. C., Maffessanti, F., and Caiani, E. G. (2012). Automated Motion Artifacts Removal between Cardiac Long- and Short-axis Magnetic Resonance Images. Computing in Cardiology 2012, 39:689–692. 25, 26 [Chen et al., 1998] Chen, C. W., Luo, J., and Parker, K. J. (1998). Image Segmentation via Adaptive K-mean Clustering and Knowledge-based Mor- 72 73 BIBLIOGRAFIA phological Operations with Biomedical Applications. Image Processing, IEEE Transactions on, 7(12):1673–1683. 10 [Conti et al., 2011] Conti, C., Votta, E., Corsi, C., De Marchi, D., Tarroni, G., Stevanella, M., Lombardi, M., Parodi, O., Caiani, E., and Redaelli, A. (2011). Left Ventricular Modelling: A Quantitative Functional Assessment Tool Based on Cardiac Magnetic Resonance Imaging. Interface Focus, 1(3):384–395. 66 [Cootes, 2000] Cootes, T. F. (2000). Model-Based Methods in Analysis of Biomedical Images. In Baldock, R. and Graham, J., editors, Image Processing and Analysis, chapter 7, pages 223–248. Oxford University Press. 22, 40 [Cootes et al., 1992] Cootes, T. F., Cooper, D., Taylor, C. J., and Graham, J. (1992). A Trainable Method of Parametric Shape Description. Image and Vision Computing, 10(5):289–294. 12, 20, 21 [Cootes et al., 1998] Cootes, T. F., Edwards, G., and Taylor, C. J. (1998). Active Appearance Models. Proc. European Conference on Computer Vision 1998, 2:484–498. 12 [Cootes et al., 1994] Cootes, T. F., Hill, A., Taylor, C. J., and Haslam, J. (1994). The Use of Active Shape Models for Locating Structures in Medical Images. Image and Vision Computing, 12(6):355–365. 12, 40 [Cootes et al., 1995] Cootes, T. F., Taylor, C. J., Cooper, D., and Graham, J. (1995). Active Shape Models - Their Training and Application. Computer Vision and Image Understanding, 61(1):38–59. 12 [Earls et al., 2002] Earls, J. P., Ho, V. B., Foo, T. K., Castillo, E., and Flamm, S. D. (2002). Cardiac MRI: Recent Progress and Continued Challenges. Journal of Magnetic Resonance Imaging, 16(2):111–127. 6, 8 74 BIBLIOGRAFIA [El Berbari et al., 2007] El Berbari, R., Bloch, I., Redheuil, A., Angelini, E., Mousseaux, E., Frouin, F., and Herment, A. (2007). Automated Segmentation of the Left Ventricle Including Papillary Muscles in Cardiac Magnetic Resonance Images. Functional Imaging and Modeling of the Heart, pages 453–462. 33 [Finn et al., 2006] Finn, J. P., Nael, K., Deshpande, V., Ratib, O., and Laub, G. (2006). Cardiac MR Imaging: State of the Technology. Radiology, 241(2):338–354. 6, 7, 8 [Gower, 1975] Gower, J. (1975). Generalized Procrustes Analysis. Psychometrika, 40(1):33–51. 36 [Hargreaves, 2011] Hargreaves, B. (2011). Fast Gradient Echo Sequences Including Balanced SSFP. 7, 8 [Heimann and Meinzer, 2009] Heimann, T. and Meinzer, H.-P. (2009). Statistical Shape Models for 3D Medical Image Segmentation: A Review. Medical Image Analysis, 13:543–563. 17, 25, 36, 40 [Huttenlocher et al., 1993] Huttenlocher, D. P., Klanderman, G. A., and Rucklidge, W. J. (1993). Comparing Images Using the Hausdorff Distance. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 15(9):850–863. 48 [Joliffe, 2002] Joliffe, I. (2002). Principal Component Analysis. Springer, 2nd edition. 20, 21 [Kang et al., 2012] Kang, D., Woo, J., Slomka, P. J., Dey, D., Germano, G., and Kuo, C.-C. J. (2012). Heart Chambers and Whole Heart Segmentation Techniques: Review. Journal of Electronic Imaging, 21(1):010901–1–16. 6, 10, 11 [Kass et al., 1988] Kass, M., Witkin, A., and Terzopoulos, D. (1988). Snakes: Active Contour Models. International Journal of Computer Vision, 1(4):321–331. 10 BIBLIOGRAFIA 75 [Kaus et al., 2004] Kaus, M. R., Berg, J. v., Weese, J., Niessen, W., and Pekar, V. (2004). Automated Segmentation of the Left Ventricle in Cardiac MRI. Medical Image Analysis, 8(3):245–254. 66, 67, 68, 70 [Lötjönen et al., 2004] Lötjönen, J., Kivistö, S., Koikkalainen, J., Smutek, D., and Lauerma, K. (2004). Statistical Shape Model of Atria, Ventricles and Epicardium from Short-and Long-axis MR Images. Medical Image Analysis, 8(3):371. 66, 67, 68, 70, 71 [Lynch et al., 2006] Lynch, M., Ghita, O., and Whelan, P. F. (2006). Automatic Segmentation of the Left Ventricle Cavity and Myocardium in MRI Data. Computers in biology and medicine, 36(4):389–407. 5 [MacKay, 2003] MacKay, D. J. (2003). An Example Inference Task: Clustering. In Information Theory, Inference and Learning Algorithms, chapter 20, pages 284–290. Cambridge University Press. 32 [Marrone et al., 2010] Marrone, G., Mamone, G., Luca, A., Vitulo, P., Bertani, A., Pilato, M., and Gridelli, B. (2010). The Role of 1.5 T Cardiac MRI in the Diagnosis, Prognosis and Management of Pulmonary Arterial Hypertension. The international journal of cardiovascular imaging, 26(6):665–681. 61 [Mitchell et al., 2002] Mitchell, S. C., Bosch, J. G., Lelieveldt, B. P., van der Geest, R. J., Reiber, J. H., and Sonka, M. (2002). 3D Active Appearance Models: Segmentation of Cardiac MR and Ultrasound Images. Medical Imaging, IEEE Transactions on, 21(9):1167–1178. 66, 67, 69, 70 [NEMA, 2009] NEMA (2009). Information Object Definitions. In Digital Imaging and Communications in Medicine (DICOM), chapter 3, pages 375–380. National Electrical Manufacturers Association. 27 [Neumann and Lorenz, 1998] Neumann, A. and Lorenz, C. (1998). Statistical Shape Model Based Segmentation of Medical Images. Computerized Medical Imaging and Graphics, 22(2):133–143. 39 76 BIBLIOGRAFIA [Osher and Sethian, 1988] Osher, S. and Sethian, J. A. (1988). Fronts Propagating with Curvature-dependent Speed: Algorithms Based on HamiltonJacobi Formulations. Journal of computational physics, 79(1):12–49. 10 [Petitjean and Dacher, 2011] Petitjean, C. and Dacher, J.-N. (2011). A Review of Segmentation Methods in Short Axis Cardiac MR Images. Medical Image Analysis, 15(2):169–184. 9, 11 [Thiele et al., 2001] Thiele, H., Nagel, E., Paetsch, I., Schnackenburg, B., Bornstedt, A., Kouwenhoven, M., Wahl, A., Schuler, G., and Fleck, E. (2001). Functional Cardiac MR Imaging with Steady-state Free Precession (SSFP) Significantly Improves Endocardial Border Delineation without Contrast Agents. Journal of Magnetic Resonance Imaging, 14(4):362–367. 8 [Üzümcü et al., 2003] Üzümcü, M., Frangi, A., Sonka, M., Reiber, J., and Lelieveldt, B. (2003). ICA vs. PCA Active Appearance Models: Application to Cardiac MR Segmentation. pages 451–458. 71 [Van Assen et al., 2003a] Van Assen, H. C., Danilouchkine, M. G., Behloul, F., Lamb, H., Van der Geest, R., Reiber, J. H., and Lelieveldt, B. P. (2003a). Cardiac LV Segmentation Using a 3D Active Shape Model Driven by Fuzzy Inference. Medical Image Computing and Computer-Assisted Intervention - MICCAI 2003, pages 533–540. 32 [Van Assen et al., 2008] Van Assen, H. C., Danilouchkine, M. G., Dirksen, M. S., Reiber, J. H., and Lelieveldt, B. P. (2008). A 3D Active Shape Model Driven by Fuzzy Inference: Application to Cardiac CT and MR. Information Technology in Biomedicine, IEEE Transactions on, 12(5):595–605. 33, 40, 69, 70 [Van Assen et al., 2006] Van Assen, H. C., Danilouchkine, M. G., Frangi, A. F., Ordàs, S., Westenberg, J. J., Reiber, J. H., and Lelieveldt, B. P. 77 BIBLIOGRAFIA (2006). SPASM: A 3D-ASM for segmentation of sparse and arbitrarily oriented cardiac MRI data. Medical Image Analysis, 10(2):286–303. 38 [Van Assen et al., 2003b] Van Assen, H. C., Van der Geest, R., Danilouchkine, M. G., Lamb, H., Reiber, J. H., and Lelieveldt, B. P. (2003b). 3D Active Shape Model Matching for Left Ventricle Segmentation in Cardiac CT. Proceedings of SPIE - The International Society for Optical Engineering, 5032 I:384–393. 4, 12, 13, 30, 67, 68, 69 [Van Ginneken et al., 2002] Van Ginneken, B., Frangi, A. F., Staal, J. J., ter Haar Romeny, B. M., and Viergever, M. A. (2002). Active Sha- pe Model Segmentation with Optimal Features. Medical Imaging, IEEE Transactions on, 21(8):924–933. 40 [Zhang et al., 2010] Zhang, H., Wahle, A., Johnson, R. K., Scholz, T. D., and Sonka, M. (2010). 4-D Cardiac MR Image Analysis: Left and Right Ventricular Morphology and Function. Medical Imaging, IEEE Transactions on, 29(2):350–364. 66, 67, 68, 69